Kafka:消费者崩溃
Kafka: Consumer Crashing
我继承了我正在另一个项目中实现的一些 Kafka 代码,遇到了一个问题......在消费者收到来自生产者的 3995 条消息后,它崩溃并给出以下错误:
ERROR Error while accepting connection (kafka.network.Acceptor)
java.io.IOException: Too many open files
Information about data being sent:
Very bursty around the time of crash
Always crashes at 3995
我在 Centos 虚拟机上 运行 它,我已经 运行 其他较小的数据集轻松地通过它。感谢您的宝贵时间!
"Too many open files" 能否在 linux 中输入 'lsof | wc -l' 以了解打开了多少文件。
按照guide增加打开的文件数:
已达到最大文件数,如何解决此问题?
许多应用程序(例如 Oracle 数据库或 Apache Web 服务器)需要此范围相当高。因此,您可以通过在内核变量 /proc/sys/fs/file-max 中设置一个新值来增加打开文件的最大数量,如下所示(以根用户身份登录):
sysctl -w fs.file-max=100000
我继承了我正在另一个项目中实现的一些 Kafka 代码,遇到了一个问题......在消费者收到来自生产者的 3995 条消息后,它崩溃并给出以下错误:
ERROR Error while accepting connection (kafka.network.Acceptor)
java.io.IOException: Too many open files
Information about data being sent:
Very bursty around the time of crash
Always crashes at 3995
我在 Centos 虚拟机上 运行 它,我已经 运行 其他较小的数据集轻松地通过它。感谢您的宝贵时间!
"Too many open files" 能否在 linux 中输入 'lsof | wc -l' 以了解打开了多少文件。
按照guide增加打开的文件数:
已达到最大文件数,如何解决此问题? 许多应用程序(例如 Oracle 数据库或 Apache Web 服务器)需要此范围相当高。因此,您可以通过在内核变量 /proc/sys/fs/file-max 中设置一个新值来增加打开文件的最大数量,如下所示(以根用户身份登录):
sysctl -w fs.file-max=100000