在将 spark streaming 与 kafka 集成时,scala 编程出现错误

Am getting error in scala programming while integrating spark streaming with kafka

我正在尝试添加一些导入,但是当我添加 import org.apache.spark.streaming.kafka.kafkautils 显示以下错误

对象kafka不是对象org.apache.spark.streaming.kafka.kafkautils

的成员

正在使用 Eclipse 斯卡拉 ide 4.7 版本 2.11.11, spark-2.3.0-bin-hadoop2.7 jar 文件, 卡夫卡 2.11 罐子, spark-streaming-kafka-0-10_2.11-2.3.0 jar

如果您使用的是 spark-streaming-kafka-0-10_2.11-2.3.0 jar,那么 KafkaUtils 在 org.apache.spark.streaming.kafka010 这个包中可用。 所以导入

import org.apache.spark.streaming.kafka010.KafkaUtils

而不是

import org.apache.spark.streaming.kafka.kafkautils 

希望这会有所帮助!