在 Spark 中缓存表 SQL
Caching tables in Spark SQL
我正在使用 Spark SQL 并想缓存最初在 Hive 中创建的 table。如果 table 在 Hive 的默认数据库中,这很好用,例如
CACHE TABLE test1;
但是,如果它在不同的数据库中,例如myDB
那我做不到
CACHE TABLE myDB.test1;
因为 Spark 抱怨 failure: ``as'' expected but
。'找到`.
但是我可以访问和查询 table,例如 运行
SELECT * FROM myDB.test1;
有办法解决这个问题吗?
找到答案:
USE myDB;
CACHE TABLE test1;
我正在使用 Spark SQL 并想缓存最初在 Hive 中创建的 table。如果 table 在 Hive 的默认数据库中,这很好用,例如
CACHE TABLE test1;
但是,如果它在不同的数据库中,例如myDB
那我做不到
CACHE TABLE myDB.test1;
因为 Spark 抱怨 failure: ``as'' expected but
。'找到`.
但是我可以访问和查询 table,例如 运行
SELECT * FROM myDB.test1;
有办法解决这个问题吗?
找到答案:
USE myDB;
CACHE TABLE test1;