将多个系统属性传递给 google dataproc 集群作业
Passing multiple system properties to google dataproc cluster job
我正在尝试在 Dataproc 集群上提交 Spark 作业。该作业需要多个系统属性。我只能通过一个如下:
gcloud dataproc jobs submit spark \
--cluster <cluster_name> \
--class <class_name> \
--properties spark.driver.extraJavaOptions=-Dhost=127.0.0.1 \
--jars spark_job.jar
如何传递多个属性?
我尝试如下,即使这样也行不通。
--properties ^#^spark.driver.extraJavaOptions=-Dhost=127.0.0.1,-Dlimit=10
我明白了。
gcloud dataproc jobs submit spark \
--cluster <cluster_name> \
--class <class_name> \
--properties spark.driver.extraJavaOptions='-Dhost=127.0.0.1 -Dlimit=10 -Dproperty_name=property_value' \
--jars spark_job.jar
我正在尝试在 Dataproc 集群上提交 Spark 作业。该作业需要多个系统属性。我只能通过一个如下:
gcloud dataproc jobs submit spark \
--cluster <cluster_name> \
--class <class_name> \
--properties spark.driver.extraJavaOptions=-Dhost=127.0.0.1 \
--jars spark_job.jar
如何传递多个属性? 我尝试如下,即使这样也行不通。
--properties ^#^spark.driver.extraJavaOptions=-Dhost=127.0.0.1,-Dlimit=10
我明白了。
gcloud dataproc jobs submit spark \
--cluster <cluster_name> \
--class <class_name> \
--properties spark.driver.extraJavaOptions='-Dhost=127.0.0.1 -Dlimit=10 -Dproperty_name=property_value' \
--jars spark_job.jar