簡體   English   中英

Kafka 服務器節點因“打開的文件過多”錯誤而關閉

[英]Kafka server node goes down as with “Too many open files” error

我們使用 3 節點 Kafka 集群,共有 151 個主題,每個主題有 1 個分區。 我們已經配置了復制因子=3。 當我們啟動 kafka 經紀人時,出現以下錯誤:

ERROR Error while accepting connection (kafka.network.Acceptor)

java.io.IOException: Too many open files

最大值的默認值。 在大多數 Unix 系統上,打開的文件是 1024。 根據您的吞吐量,您需要配置更高的值。 嘗試從 32768 或更高版本開始

看起來這是由於文件句柄的數量較少。

您可以檢查文件描述符限制,如下所示

ulimit -n

嘗試將打開的文件描述符更改為更高的值:

ulimit -n <noOfFiles>

可以獲得最大允許打開文件數: cat /proc/sys/fs/file-max

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM