Elasticsearch 停留在 213 个文档并丢失数据

Elasticseach stuck at 213 documents and lost data

我有一个带有 1 个节点的 elasticsearch 设置,没有副本节点与数字海洋中的 Kibana 设置共享一个 droplet。我的 droplet 有 2GB 内存和足够 CPU。我的 elasticsearch JVM 设置为使用 768MB RAM(因此 kibana 可以占有它的份额)。

我的问题是我似乎正在丢失数据,因为我的节点卡在 213 个文档,我已经注意到一些重要的文档不见了。

我找不到有关其工作原理的文档。我唯一发现的是,在处理大量数据时,更多的 ram 更好,并且有一个辅助节点来存储副本是一个很好的做法。

我应该分配更多的内存吗?我怎么知道我的数据是否被删除以分配更多?这是某种分页吗?这可能是 kibana 问题吗?

我解决了。问题是我的 ID 生成。我手动生成 ID,而不是持久存储最后生成的 ID。一旦系统重新启动,id 就会丢失,弹性搜索允许 id 覆盖。