在将 spark streaming 与 kafka 集成时,scala 编程出现错误
Am getting error in scala programming while integrating spark streaming with kafka
我正在尝试添加一些导入,但是当我添加
import org.apache.spark.streaming.kafka.kafkautils
显示以下错误
对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils
的成员
正在使用 Eclipse
斯卡拉 ide 4.7
版本 2.11.11,
spark-2.3.0-bin-hadoop2.7 jar 文件,
卡夫卡 2.11 罐子,
spark-streaming-kafka-0-10_2.11-2.3.0 jar
如果您使用的是 spark-streaming-kafka-0-10_2.11-2.3.0 jar
,那么 KafkaUtils 在 org.apache.spark.streaming.kafka010
这个包中可用。
所以导入
import org.apache.spark.streaming.kafka010.KafkaUtils
而不是
import org.apache.spark.streaming.kafka.kafkautils
希望这会有所帮助!
我正在尝试添加一些导入,但是当我添加
import org.apache.spark.streaming.kafka.kafkautils
显示以下错误
对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils
的成员正在使用 Eclipse 斯卡拉 ide 4.7 版本 2.11.11, spark-2.3.0-bin-hadoop2.7 jar 文件, 卡夫卡 2.11 罐子, spark-streaming-kafka-0-10_2.11-2.3.0 jar
如果您使用的是 spark-streaming-kafka-0-10_2.11-2.3.0 jar
,那么 KafkaUtils 在 org.apache.spark.streaming.kafka010
这个包中可用。
所以导入
import org.apache.spark.streaming.kafka010.KafkaUtils
而不是
import org.apache.spark.streaming.kafka.kafkautils
希望这会有所帮助!