使用 pentaho java api 为以编程方式传递 hdfs 文件路径的 hdfs 文件生成报告

Generate a report using pentaho java api for hdfs file passing hdfs file path programatically

我是 Pentaho.I 的新手,已经安装了 Pentaho Enterprise Edition 并设置了 BigData.I 所需的配置,能够 运行 PDI 转换并使用 tool.In 我的 java Web 应用程序 我已经使用生成所需的 Maven 下载了 pentaho-kettle 罐子 reports.Is 可以通过动态传递 hdfs 文件路径或使用报告以编程方式生成 hdfs 文件的报告 api?如果是,需要哪些步骤才能完成?

提前致谢。

您可以在服务器端获得 pentaho 报告。为了能够查询 hdfs - 此报告应查询 PDI transformation/job。当它尝试查询它时 - 它开始转换。所以你必须有一个完整的 PDI 基础设施才能执行这个 job/transformation。 单独的罐子无济于事,因为 PDI(也称为 pentaho-kettle of spoon)是 'an installation' 而不是图书馆。它使用 'shims' 作为插件与 hdfs 交互。此垫片必须具有正确的文件夹结构和配置文件等。在企业版中,通常所有这些都隐藏在企业服务器的引擎盖下。

如果您想使用 'my own java web application' - 最简单的方法(从我的角度来看)是创建一个水壶转换,安装 Carte 服务器(在您的网络服务器附近或另一台机器),在此 Carte 服务器上将 hdfs 步骤配置为 运行。

从技术上讲,当在您的 Web 应用程序上下文中启动此类报告时,这将触发水壶转换执行。这也将调用 carte 服务器进行 hdfs 步骤。由于 Carte 服务器具有正确的 PDI 安装,能够与 HDFS 交互——它将获取 HDFS 数据并将其发送回您的应用程序。此数据将通过网络传输,因为您的 Web 应用程序 运行 报告:报告 运行 转换,转换从 carte 服务器获取数据,carte 服务器从 hdfs 获取数据。

您可以考虑将点菜服务器设置为只能访问的本地主机,同时将您的 Web 应用程序暴露给外部请求。希望对你有帮助。

希望对您有所帮助。