[英]How to increase _cluster/settings/cluster.max_shards_per_node for AWS Elasticsearch Service
我使用 AWS Elasticsearch 服务版本 7.1 及其内置的 Kibana 来管理应用程序日志。 Logstash 每天都会创建新索引。 我的 Logstash 有时会收到有关最大分片限制达到的错误,我必须删除旧索引才能使其再次运行。
我从该文档 ( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-handling-errors.html ) 中发现我可以选择增加_cluster/settings/cluster.max_shards_per_node
。
所以我尝试通过在 Kibana Dev Tools 中输入以下命令
PUT /_cluster/settings
{
"defaults" : {
"cluster.max_shards_per_node": "2000"
}
}
但我得到了这个错误
{
"Message": "Your request: '/_cluster/settings' payload is not allowed."
}
有人建议当我尝试更新一些 AWS 不允许的设置时会发生此错误,但是此文档 ( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-supported-es- operations.html#es_version_7_1 )告诉我cluster.max_shards_per_node
是允许列表中的一个。
请建议如何更新此设置。
你快到了,你需要将defaults
重命名为persistent
PUT /_cluster/settings
{
"persistent" : {
"cluster.max_shards_per_node": "2000"
}
}
但请注意,每个节点允许的分片越多,每个节点需要的资源就越多,性能就越差。
文档指出此设置是无界/无限制的。 这显然不是我们经历过的情况。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.