[英]Archive old data from Elasticsearch to Google Cloud Storage
我在Google Compute Instance中安装了elasticsearch服务器。 每分钟都会摄取大量数据,并且下划线磁盘很快就会填满。
我知道我们可以增加磁盘的大小,但这对于存储长期数据会花费很多。
我们需要 Elasticsearch 服务器(计算引擎磁盘)中 90 天的数据和超过 90 天(直到 7 年)的数据存储在 Google Cloud Storage Buckets 中。 较早的数据应该可以检索,以备日后分析时使用。
我知道的一种方法是经常拍摄快照并使用Curator从 Elasticsearch 服务器中删除超过 90 天的索引。 这样我可以保持磁盘空闲并最大限度地降低存储成本。
有没有其他方法可以在不手动自动化上述想法的情况下做到这一点?
例如,由 Elasticsearch 提供的开箱即用的东西,它会将超过 90 天的数据本身存档并将数据文件保存在磁盘中,然后我们可以手动将此文件从磁盘移动到Google Cloud Storage 。
查看快照生命周期管理和索引生命周期管理。 它们可通过基本许可证获得。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.