在 Spark 中缓存表 SQL

Caching tables in Spark SQL

我正在使用 Spark SQL 并想缓存最初在 Hive 中创建的 table。如果 table 在 Hive 的默认数据库中,这很好用,例如

CACHE TABLE test1;

但是,如果它在不同的数据库中,例如myDB 那我做不到

CACHE TABLE myDB.test1;

因为 Spark 抱怨 failure: ``as'' expected but。'找到`.

但是我可以访问和查询 table,例如 运行

SELECT * FROM myDB.test1;

有办法解决这个问题吗?

找到答案:

USE myDB;
CACHE TABLE test1;