前言
最近 TL 分享了下 《Elasticsearch基础整理》
https://www.sigusoft.com/p/ed ,蹭着这个机会。写个小文巩固下,本文主要讲 ES -> Lucene的底层结构,然后详细描述新数据写入 ES 和 Lucene 的流程和原理。这是基础理论知识,整理了一下,希望能对 Elasticsearch 感兴趣的同学有所帮助。
一、Elasticsearch & Lucene 是什么
什么是 Elasticsearch ?Elasticsearch 是一个基于 Apache Lucene(TM) 的开源搜索引擎。
那 Lucene 是什么?无论在开源还是专有领域,Lucene 可以被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库,并通过简单的 RESTful API 来隐藏 Lucene 的复杂性,从而让全文搜索变得简单。
Elasticsearch 不仅仅是 Lucene 和全文搜索,我们还能这样去描述它:
- 分布式的实时文件存储,每个字段都被索引并可被搜索
- 分布式的实时分析搜索引擎
- 可以扩展到上百台服务器,处理 PB 级结构化或非结构化数据
二、Elasticsearch & Lucene 的关系
就像很多业务系统是基于 Spring 实现一样,Elasticsearch 和 Lucene 的关系很简单:Elasticsearch 是基于 Lucene 实现的。ES 基于底层这些包,然后进行了扩展,提供了更多的更丰富的查询语句,并且通过 RESTful API 可以更方便地与底层交互。类似 ES 还有 Solr 也是基于 Lucene 实现的。
在应用开发中,用 Elasticsearch 会很简单。但是如果你直接用 Lucene,会有大量的集成工作。
因此,入门 ES 的同学,稍微了解下 Lucene 即可。如果往高级走,还是需要学习 Lucene 底层的原理。因为倒排索引、打分机制、全文检索原理、分词原理等等,这些都是不会过时的技术。
三、新文档写入流程
3.1 数据模型
如图
- 一个 ES Index (索引,比如商品搜索索引、订单搜索索引)集群下,有多个 Node (节点)组成。每个节点就是 ES 的实例。
- 每个节点上会有多个 shard (分片), P1 P2 是主分片 R1 R2 是副本分片
- 每个分片上对应着就是一个 Lucene Index(底层索引文件)
- Lucene Index 是一个统称。由多个 Segment (段文件,就是倒排索引)组成。每个段文件存储着就是 Doc 文档。
3.2 Lucene Index
lucene 中,单个倒排索引文件称为 segment。其中有一个文件,记录了所有 segments 的信息,称为 commit point:
- 文档 create 新写入时,会生成新的 segment。同样会记录到 commit point 里面
- 文档查询,会查询所有的 segments
- 当一个段存在文档被删除,会维护该信息在 .liv 文件里面
3.3 新文档写入流程
新文档创建或者更新时,进行如下流程:
更新不会修改原来的 segment,更新和创建操作都会生成新的一个 segment。数据哪里来呢?先会存在内存的 bugger 中,然后持久化到 segment 。
数据持久化步骤如下:write -> refresh -> flush -> merge
3.3.1 write 过程
一个新文档过来,会存储在 in-memory buffer 内存缓存区中,顺便会记录 Translog。
这时候数据还没到 segment ,是搜不到这个新文档的。数据只有被 refresh 后,才可以被搜索到。那么 讲下 refresh 过程
3.3.2 refresh 过程
refresh 默认 1 秒钟,执行一次上图流程。ES 是支持修改这个值的,通过 index.refresh_interval 设置 refresh (冲刷)间隔时间。refresh 流程大致如下:
- in-memory buffer 中的文档写入到新的 segment 中,但 segment 是存储在文件系统的缓存中。此时文档可以被搜索到
- 最后清空 in-memory buffer。注意: Translog 没有被清空,为了将 segment 数据写到磁盘
文档经过 refresh 后, segment 暂时写到文件系统缓存,这样避免了性能 IO 操作,又可以使文档搜索到。refresh 默认 1 秒执行一次,性能损耗太大。一般建议稍微延长这个 refresh 时间间隔,比如 5 s。因此,ES 其实就是准实时,达不到真正的实时。
3.3.3 flush 过程
上个过程中 segment 在文件系统缓存中,会有意外故障文档丢失。那么,为了保证文档不会丢失,需要将文档写入磁盘。那么文档从文件缓存写入磁盘的过程就是 flush。写入次怕后,清空 translog。
translog 作用很大:
- 保证文件缓存中的文档不丢失
- 系统重启时,从 translog 中恢复
- 新的 segment 收录到 commit point 中
具体可以看官方文档:
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/indices-flush.html
3.3.4 merge 过程
上面几个步骤,可见 segment 会越来越多,那么搜索会越来越慢?怎么处理呢?
通过 merge 过程解决:
- 就是各个小段文件,合并成一个大段文件。段合并过程
- 段合并结束,旧的小段文件会被删除
- .liv 文件维护的删除文档,会通过这个过程进行清除
四、小结
如这个图,ES 写入原理不难,记住关键点即可。
write -> refresh -> flush
- write:文档数据到内存缓存,并存到 translog
- refresh:内存缓存中的文档数据,到文件缓存中的 segment 。此时可以被搜到
- flush 是缓存中的 segment 文档数据写入到磁盘
写入的原理告诉我们,考虑的点很多:性能、数据不丢失等等
(完)
参考资料:Java微服务资料,加我微w信x:bysocket01 (加的人,一般很帅)
- 《深入理解 Elasticsearch》
- https://lucene.apache.org/core/820/core/org/apache/lucene/codecs/lucene80/package-summary.html#package.description
- https://www.sigusoft.com/p/ed
2024最新激活全家桶教程,稳定运行到2099年,请移步至置顶文章:https://sigusoft.com/99576.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。 文章由激活谷谷主-小谷整理,转载请注明出处:https://sigusoft.com/16673.html