spark 的 sbt 项目,但没有在上下文中找到一些包?
sbt project for spark , but not found some package in context?
我尝试在 IDEA Intellj 中使用 sbt 构建一个新项目。
创建项目并添加依赖库成功。
build.sbt内容:
name := "spark-hello"
version := "1.0"
scalaVersion := "2.11.6"
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"
主要代码:
如上图,红色部分是错误的,我觉得很奇怪,如:
toInt 方法应该是内置函数,但是这个没有找到。
不知道为什么要解决
将您的库依赖项更改为:
libraryDependencies += "org.apache.spark" % "spark-core" % "1.4.1"
或
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"
尝试在 IntelliJ 的菜单中选择 File
> Invalidate Caches / Restart...
。
我尝试在 IDEA Intellj 中使用 sbt 构建一个新项目。
创建项目并添加依赖库成功。
build.sbt内容:
name := "spark-hello"
version := "1.0"
scalaVersion := "2.11.6"
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"
主要代码:
如上图,红色部分是错误的,我觉得很奇怪,如:
toInt 方法应该是内置函数,但是这个没有找到。
不知道为什么要解决
将您的库依赖项更改为:
libraryDependencies += "org.apache.spark" % "spark-core" % "1.4.1"
或
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"
尝试在 IntelliJ 的菜单中选择 File
> Invalidate Caches / Restart...
。