spark 的 sbt 项目,但没有在上下文中找到一些包?

sbt project for spark , but not found some package in context?

我尝试在 IDEA Intellj 中使用 sbt 构建一个新项目。

创建项目并添加依赖库成功。

build.sbt内容:

name := "spark-hello"

version := "1.0"

scalaVersion := "2.11.6"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"

主要代码:

如上图,红色部分是错误的,我觉得很奇怪,如:

toInt 方法应该是内置函数,但是这个没有找到。

不知道为什么要解决

将您的库依赖项更改为:

libraryDependencies += "org.apache.spark" % "spark-core" % "1.4.1"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"

尝试在 IntelliJ 的菜单中选择 File > Invalidate Caches / Restart...