清除检查点位置后,Spark Structured Streaming 使用的旧 Kafka 偏移量
Old Kafka Offset consuming by Spark Structured Streaming after clearing Checkpointing location
我已经使用 Apache Kafka 和 Apache Spark 结构化流构建了一个应用程序。我面临以下问题。
场景:
- 我设置了一个带有 Kafka 主题源的 Spark 结构化流,并且
作为 Kafka 主题下沉。
- 我们运行流并在Kafka上产生了一些消息
主题。
- 我们通过清除检查点停止了流并重新启动了流
流的位置。 运行ning 后 5 到 6 小时后流是
随机消费旧的 Kafka 消息。
清除检查点位置后,我原以为流中只有新消息。
火花版本:2.4.0,
Kafka-客户端版本:2.0.0,
卡夫卡版本:2.0.0,
集群管理器:Kubernetes。
我已经通过更改检查点位置尝试了这种情况,但问题仍然存在。
{
SparkConf sparkConf = new SparkConf().setAppName("SparkKafkaConsumer");
SparkSession spark = SparkSession.builder().config(sparkConf).getOrCreate();
Dataset<Row> stream = spark
.readStream()
.format("kafka")
.option("kafka.bootstrap.servers", "localhost:9092")
.option(subscribeType, "REQUEST_TOPIC")
.option("failOnDataLoss",false)
.option("maxOffsetsPerTrigger","50")
.option("startingOffsets","latest")
.load()
.selectExpr(
"CAST(value AS STRING) as payload",
"CAST(key AS STRING)",
"CAST(topic AS STRING)",
"CAST(partition AS STRING)",
"CAST(offset AS STRING)",
"CAST(timestamp AS STRING)",
"CAST(timestampType AS STRING)");
DataStreamWriter<String> dataWriterStream = stream
.writeStream()
.format("kafka")
.option("kafka.bootstrap.servers", "localhost:9092")
.option("kafka.max.request.size", "35000000")
.option("kafka.retries", "5")
.option("kafka.batch.size", "35000000")
.option("kafka.receive.buffer.bytes", "200000000")
.option("kafka.acks","0")
.option("kafka.compression.type", "snappy")
.option("kafka.linger.ms", "0")
.option("kafka.buffer.memory", "50000000")
.option("topic", "RESPONSE_TOPIC")
.outputMode("append")
.option("checkpointLocation", checkPointDirectory);
spark.streams().awaitAnyTermination();
}
检查下方 link、
https://jaceklaskowski.gitbooks.io/mastering-apache-spark/spark-rdd-checkpointing.html
您调用 SparkContext.setCheckpointDir(directory: String) 来设置检查点目录——RDD 检查点所在的目录。如果 运行 在群集上,则该目录必须是 HDFS 路径。原因是驱动程序可能会尝试从其自己的本地文件系统重建检查点 RDD,这是不正确的,因为检查点文件实际上在执行程序机器上
我已经使用 Apache Kafka 和 Apache Spark 结构化流构建了一个应用程序。我面临以下问题。
场景:
- 我设置了一个带有 Kafka 主题源的 Spark 结构化流,并且 作为 Kafka 主题下沉。
- 我们运行流并在Kafka上产生了一些消息 主题。
- 我们通过清除检查点停止了流并重新启动了流 流的位置。 运行ning 后 5 到 6 小时后流是 随机消费旧的 Kafka 消息。
清除检查点位置后,我原以为流中只有新消息。
火花版本:2.4.0,
Kafka-客户端版本:2.0.0,
卡夫卡版本:2.0.0,
集群管理器:Kubernetes。
我已经通过更改检查点位置尝试了这种情况,但问题仍然存在。
{
SparkConf sparkConf = new SparkConf().setAppName("SparkKafkaConsumer");
SparkSession spark = SparkSession.builder().config(sparkConf).getOrCreate();
Dataset<Row> stream = spark
.readStream()
.format("kafka")
.option("kafka.bootstrap.servers", "localhost:9092")
.option(subscribeType, "REQUEST_TOPIC")
.option("failOnDataLoss",false)
.option("maxOffsetsPerTrigger","50")
.option("startingOffsets","latest")
.load()
.selectExpr(
"CAST(value AS STRING) as payload",
"CAST(key AS STRING)",
"CAST(topic AS STRING)",
"CAST(partition AS STRING)",
"CAST(offset AS STRING)",
"CAST(timestamp AS STRING)",
"CAST(timestampType AS STRING)");
DataStreamWriter<String> dataWriterStream = stream
.writeStream()
.format("kafka")
.option("kafka.bootstrap.servers", "localhost:9092")
.option("kafka.max.request.size", "35000000")
.option("kafka.retries", "5")
.option("kafka.batch.size", "35000000")
.option("kafka.receive.buffer.bytes", "200000000")
.option("kafka.acks","0")
.option("kafka.compression.type", "snappy")
.option("kafka.linger.ms", "0")
.option("kafka.buffer.memory", "50000000")
.option("topic", "RESPONSE_TOPIC")
.outputMode("append")
.option("checkpointLocation", checkPointDirectory);
spark.streams().awaitAnyTermination();
}
检查下方 link、
https://jaceklaskowski.gitbooks.io/mastering-apache-spark/spark-rdd-checkpointing.html
您调用 SparkContext.setCheckpointDir(directory: String) 来设置检查点目录——RDD 检查点所在的目录。如果 运行 在群集上,则该目录必须是 HDFS 路径。原因是驱动程序可能会尝试从其自己的本地文件系统重建检查点 RDD,这是不正确的,因为检查点文件实际上在执行程序机器上