并行减少(例如求和)hpx::futures<double> 的向量
Parallel reduce (e.g. sum) a vector of hpx::futures<double>
我们目前正在尝试实现用于数值模拟的红黑高斯-赛德尔求解器。
为此,我们将模拟区域划分为大小相等的子网格。我们能够在具有正确依赖关系和 hpx::dataflow
对象的每个子网格上异步执行压力方程的红黑循环。
但是现在我们有以下问题:在每第n个循环之后我们必须执行残差计算以确定我们是否已经收敛。
所以最佳解决方案是,我们开始每个局部残差计算 separately/asynchronously,然后对 hpx::future<double>
的向量求和。有了 HPX 期货的想法,可以得出一个最优解,即我们尽快总结所有元素。
但到目前为止我们只能得出以下代码:
#include <hpx/hpx_main.hpp>
#include <hpx/hpx.hpp>
#include <memory>
#include <iostream>
class A {
public:
double residual() {
// Calculate actual local residual
return 1.0;
}
};
int main() {
// Create instances
std::vector<A> vec(3);
std::vector<hpx::shared_future<double>> res(vec.size());
// asynchronous launch resdiual calculation
for (size_t i = 0; i < res.size(); ++i) {
res[i] = hpx::async( &A::residual, &vec[i] );
}
double residual = 0.0;
for (size_t i = 0; i < res.size(); ++i) {
residual += res[i].get();
}
std::cout << "residual: " << residual << std::endl;
return 0;
}
这远非最佳。在最坏的情况下,它的性能就像一个全局屏障,然后是对所有元素的纯顺序求和。
所以我们的问题是我们如何才能像并行那样实现这个 "HPX"?
2019 年 2 月 2 日更新:
我们已经重写了代码,因此我们无法完全异步地开始残差计算,而是通过 hpx::dataflow
对象基于数据依赖性。
// asynchronous launch resdiual calculation
for (size_t i = 0; i < res.size(); ++i) {
res[i] = hpx::dataflow( hpx::util::unwrapping(&A::residual), &vec[i], *DEPENDENCIES* );
}
是否也可以使用数据流对象调用@Mike van Dyke 代码,或者是否有其他解决方案?
(提示:由于 template argument deduction/substitution failed
错误,我没有让您的代码正常工作)
您可以使用 transform_reduce
模式来实现您想要实现的目标:
std::vector<A> vec(300);
double res = hpx::parallel::transform_reduce(hpx::parallel::execution::par,
vec.begin(), vec.end(), \ (1)
0, [](double a, double b){ return a + b; }, \ (2)
[](const A& a_ref){ return a_ref.residual(); }); \ (3)
此代码将计算vec
(1)中每个A
的残差(3),然后将所有结果相加(2)。
我们目前正在尝试实现用于数值模拟的红黑高斯-赛德尔求解器。
为此,我们将模拟区域划分为大小相等的子网格。我们能够在具有正确依赖关系和 hpx::dataflow
对象的每个子网格上异步执行压力方程的红黑循环。
但是现在我们有以下问题:在每第n个循环之后我们必须执行残差计算以确定我们是否已经收敛。
所以最佳解决方案是,我们开始每个局部残差计算 separately/asynchronously,然后对 hpx::future<double>
的向量求和。有了 HPX 期货的想法,可以得出一个最优解,即我们尽快总结所有元素。
但到目前为止我们只能得出以下代码:
#include <hpx/hpx_main.hpp>
#include <hpx/hpx.hpp>
#include <memory>
#include <iostream>
class A {
public:
double residual() {
// Calculate actual local residual
return 1.0;
}
};
int main() {
// Create instances
std::vector<A> vec(3);
std::vector<hpx::shared_future<double>> res(vec.size());
// asynchronous launch resdiual calculation
for (size_t i = 0; i < res.size(); ++i) {
res[i] = hpx::async( &A::residual, &vec[i] );
}
double residual = 0.0;
for (size_t i = 0; i < res.size(); ++i) {
residual += res[i].get();
}
std::cout << "residual: " << residual << std::endl;
return 0;
}
这远非最佳。在最坏的情况下,它的性能就像一个全局屏障,然后是对所有元素的纯顺序求和。
所以我们的问题是我们如何才能像并行那样实现这个 "HPX"?
2019 年 2 月 2 日更新:
我们已经重写了代码,因此我们无法完全异步地开始残差计算,而是通过 hpx::dataflow
对象基于数据依赖性。
// asynchronous launch resdiual calculation
for (size_t i = 0; i < res.size(); ++i) {
res[i] = hpx::dataflow( hpx::util::unwrapping(&A::residual), &vec[i], *DEPENDENCIES* );
}
是否也可以使用数据流对象调用@Mike van Dyke 代码,或者是否有其他解决方案?
(提示:由于 template argument deduction/substitution failed
错误,我没有让您的代码正常工作)
您可以使用 transform_reduce
模式来实现您想要实现的目标:
std::vector<A> vec(300);
double res = hpx::parallel::transform_reduce(hpx::parallel::execution::par,
vec.begin(), vec.end(), \ (1)
0, [](double a, double b){ return a + b; }, \ (2)
[](const A& a_ref){ return a_ref.residual(); }); \ (3)
此代码将计算vec
(1)中每个A
的残差(3),然后将所有结果相加(2)。