在 spark 中特定级别的值后数据插入失败

Data insertion fails after a particular level of values in spark

我创建了一个 Apache Spark 应用程序,它分析来自 Cassandra 的 table 并插入回 Cassandra 中的另一个 table。但是在特定数量的插入(217 条记录)之后,插入失败并且 Spark 突然停止。 A 我试过将执行程序内存设置为 2g。还有什么我应该添加到配置中的吗?

我发现的问题是,我的 cassandra 聚类列中存在空值。这就是错误的原因。