繁体   English   中英

如何为 AWS Elasticsearch 服务增加 _cluster/settings/cluster.max_shards_per_node

[英]How to increase _cluster/settings/cluster.max_shards_per_node for AWS Elasticsearch Service

我使用 AWS Elasticsearch 服务版本 7.1 及其内置的 Kibana 来管理应用程序日志。 Logstash 每天都会创建新索引。 我的 Logstash 有时会收到有关最大分片限制达到的错误,我必须删除旧索引才能使其再次运行。

我从该文档 ( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-handling-errors.html ) 中发现我可以选择增加_cluster/settings/cluster.max_shards_per_node

所以我尝试通过在 Kibana Dev Tools 中输入以下命令

PUT /_cluster/settings
{
  "defaults" : {
      "cluster.max_shards_per_node": "2000"
  }
}

但我得到了这个错误

{
  "Message": "Your request: '/_cluster/settings' payload is not allowed."
}

有人建议当我尝试更新一些 AWS 不允许的设置时会发生此错误,但是此文档 ( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-supported-es- operations.html#es_version_7_1 )告诉我cluster.max_shards_per_node是允许列表中的一个。

请建议如何更新此设置。

你快到了,你需要将defaults重命名为persistent

PUT /_cluster/settings
{
  "persistent" : {
      "cluster.max_shards_per_node": "2000"
  }
}

但请注意,每个节点允许的分片越多,每个节点需要的资源就越多,性能就越差。

文档指出此设置是无界/无限制的。 这显然不是我们经历过的情况。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM