非for循环的OpenMP并行化

OpenMP parallelization of non-for loop

到目前为止,我只使用 OpenMP 在 C++ 中并行化 for 循环。但是我想知道我是否可以执行其他不是并行循环的代码行。

void minimization(int *a, int *x) {
 // this part of the code is dependent of other library.
}

void checkForNaN(int *a){
 // check nan points
}

int main() {
  // read data
  minimization (a,b);
  checkForNaN(x);
}

考虑上面的示例片段,其中 minimization(,)checkForNaN() 是独立的,即任何一个的结果都不会影响另一个一次。是否可以并行化?

我在想这样的事情:

  int main() {
      // read data
#pragma omp parallel
    {
      minimization (a,b);
      checkForNaN(x);
     }
}

看起来正确吗?

这就是 OMP 部分的用途:)

int main() {
    #pragma omp parallel sections
    {
        #pragma omp section
        { 
            minimization(a,b);
        }

        #pragma omp section
        { 
            checkForNaN(x);
        }
    }
}

不,它看起来不正确。它将在您拥有的所有线程中执行 minimization(a,b);checkForNaN(x);

相反,这将进行并行化:

int main() {
  // read data
  #pragma omp parallel sections
  {
    #pragma omp section
    {
      minimization (a,b);
    }
    #pragma omp section
    {
      checkForNaN(x);
    }
  }
}