在 hortonworks 上配置 storm 拓扑和 kafka 的属性文件
properties file to configurate storm topology and kafka on hortonworks
我正在 hortonworks 上使用 Storm 在 Hbase 和 Hive 中进行实时数据摄取,我开发了风暴拓扑以从 kafka 代理接收数据拓扑已提交我可以看到我的 kafkaspout
和我的两个螺栓,但是,我不知道为什么我的 kafkaSpout
不使用来自 Kafka Brokers 的消息,但是当我可视化拓扑时:0%
数据已被使用!!
我的 hdfsbolt
也有错误:
java.lang.RuntimeException: Error preparing HdfsBolt: Permission denied: user=storm, access=WRITE, inode="/infos-cliens-v4/staging/infosClientshdfsBolt-4-0-1462472414665.txt":hdfs:hdfs:drwxr-xr-x at
我的@ip 是192.168.1.78
我想我必须修复属性文件,但我不知道如何:
#Broker host
kafka.zookeeper.host.port=localhost
#Kafka topic to consume.
kafka.topic=TOPICINFORMATIONSCLIENTS
#Location in ZK for the Kafka spout to store state.
kafka.zkRoot=/infos_clients_sprout
#Kafka Spout Executors.
spout.thread.count=1
#hdfs bolt settings
hdfs.path=/infos-cliens-v4
hdfs.url=hdfs://sandbox.hortonworks.com:8020
hdfs.file.prefix=infosClients
#data will be moved from hdfs to the hive partition
#on the first write after the 1st minute.
hdfs.file.rotation.time.minutes=1
#hbase bolt settings
hbase.persist.all.events=false
PLZ Help me
您的用户是
storm
但是用于写入的目录归 HDFS 所有。
因此,更改该目录的用户权限并使用
作为用户创建 storm
chown
命令。
首先使用 java 代码检查您是否能够连接到 Hbase。然后在 Storm 拓扑中测试相同的逻辑。
@Property zk.connect is not valid
SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
16/05/07 10:27:09 WARN common.AppInfo$: Can't read Kafka version from MANIFEST.MF. Possible cause: java.lang.NullPointerException
enter code here
我正在 hortonworks 上使用 Storm 在 Hbase 和 Hive 中进行实时数据摄取,我开发了风暴拓扑以从 kafka 代理接收数据拓扑已提交我可以看到我的 kafkaspout
和我的两个螺栓,但是,我不知道为什么我的 kafkaSpout
不使用来自 Kafka Brokers 的消息,但是当我可视化拓扑时:0%
数据已被使用!!
我的 hdfsbolt
也有错误:
java.lang.RuntimeException: Error preparing HdfsBolt: Permission denied: user=storm, access=WRITE, inode="/infos-cliens-v4/staging/infosClientshdfsBolt-4-0-1462472414665.txt":hdfs:hdfs:drwxr-xr-x at
我的@ip 是192.168.1.78
我想我必须修复属性文件,但我不知道如何:
#Broker host
kafka.zookeeper.host.port=localhost
#Kafka topic to consume.
kafka.topic=TOPICINFORMATIONSCLIENTS
#Location in ZK for the Kafka spout to store state.
kafka.zkRoot=/infos_clients_sprout
#Kafka Spout Executors.
spout.thread.count=1
#hdfs bolt settings
hdfs.path=/infos-cliens-v4
hdfs.url=hdfs://sandbox.hortonworks.com:8020
hdfs.file.prefix=infosClients
#data will be moved from hdfs to the hive partition
#on the first write after the 1st minute.
hdfs.file.rotation.time.minutes=1
#hbase bolt settings
hbase.persist.all.events=false
PLZ Help me
您的用户是
storm
但是用于写入的目录归 HDFS 所有。 因此,更改该目录的用户权限并使用
作为用户创建 stormchown
命令。
首先使用 java 代码检查您是否能够连接到 Hbase。然后在 Storm 拓扑中测试相同的逻辑。
@Property zk.connect is not valid
SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
16/05/07 10:27:09 WARN common.AppInfo$: Can't read Kafka version from MANIFEST.MF. Possible cause: java.lang.NullPointerException
enter code here