ES——配置详解/索引优化/特殊操作

ES——配置详解

集群信息配置

		1. 集群名称,默认为elasticsearch:cluster.name: elasticsearch2. 节点名称,es启动时会自动创建节点名称,但你也可进行配置:node.name: "Franz Kafka"3. 是否作为主节点,每个节点都可以被配置成为主节点,默认值为true:node.master: true4. 是否存储数据,即存储索引片段,默认值为true:node.data: truemaster和data同时配置会产生一些奇异的效果:1) 当master为false,而data为true时,会对该节点产生严重负荷;2) 当master为true,而data为false时,该节点作为一个协调者;3) 当master为false,data也为false时,该节点就变成了一个负载均衡器。你可以通过连接http://localhost:9200/_cluster/health或者http://localhost:9200/_cluster/nodes,或者使用插件http://github.com/lukas-vlcek/bigdesk或http://mobz.github.com/elasticsearch-head来查看集群状态。5. 每个节点都可以定义一些与之关联的通用属性,用于后期集群进行碎片分配时的过滤:node.rack: rack3146. 默认情况下,多个节点可以在同一个安装路径启动,如果你想让你的es只启动一个节点,可以进行如下设置:node.max_local_storage_nodes: 17. 设置一个索引的碎片数量,默认值为5

集群分片配置

    index.number_of_shards: 58. 设置一个索引可被复制的数量,默认值为1:index.number_of_replicas: 1当你想要禁用公布式时,你可以进行如下设置:index.number_of_shards: 1index.number_of_replicas: 0这两个属性的设置直接影响集群中索引和搜索操作的执行。假设你有足够的机器来持有碎片和复制品,那么可以按如下规则设置这两个值:1) 拥有更多的碎片可以提升索引执行能力,并允许通过机器分发一个大型的索引;2) 拥有更多的复制器能够提升搜索执行能力以及集群能力。对于一个索引来说,number_of_shards只能设置一次,而number_of_replicas可以使用索引更新设置API在任何时候被增加或者减少。ElasticSearch关注加载均衡、迁移、从节点聚集结果等等。可以尝试多种设计来完成这些功能。可以连接http://localhost:9200/A/_status来检测索引的状态。

集群交互配置

        16. 默认情况下,ElasticSearch使用0.0.0.0地址,并为http传输开启9200-9300端口,为节点到节点的通信开启9300-9400端口,也可以自行设置IP地址:network.bind_host: 192.168.0.117. publish_host设置其他节点连接此节点的地址,如果不设置的话,则自动获取,publish_host的地址必须为真实地址:network.publish_host: 192.168.0.118. bind_host和publish_host可以一起设置:network.host: 192.168.0.119. 可以定制该节点与其他节点交互的端口:transport.tcp.port: 930020. 节点间交互时,可以设置是否压缩,转为为不压缩:transport.tcp.compress: true21. 可以为Http传输监听定制端口:http.port: 920022. 设置内容的最大长度:http.max_content_length: 100mb23. 禁止HTTPhttp.enabled: false24. 网关允许在所有集群重启后持有集群状态,集群状态的变更都会被保存下来,当第一次启用集群时,可以从网关中读取到状态,默认网关类型(也是推荐的)是local:gateway.type: local25. 允许在N个节点启动后恢复过程:gateway.recover_after_nodes: 126. 设置初始化恢复过程的超时时间:gateway.recover_after_time: 5m27. 设置该集群中可存在的节点上限:gateway.expected_nodes: 228. 设置一个节点的并发数量,有两种情况,一种是在初始复苏过程中:cluster.routing.allocation.node_initial_primaries_recoveries: 4另一种是在添加、删除节点及调整时:cluster.routing.allocation.node_concurrent_recoveries: 229. 设置复苏时的吞吐量,默认情况下是无限的:indices.recovery.max_size_per_sec: 030. 设置从对等节点恢复片段时打开的流的数量上限:indices.recovery.concurrent_streams: 531. 设置一个集群中主节点的数量,当多于三个节点时,该值可在2-4之间:discovery.zen.minimum_master_nodes: 132. 设置ping其他节点时的超时时间,网络比较慢时可将该值设大:discovery.zen.ping.timeout: 3shttp://elasticsearch.org/guide/reference/modules/discovery/zen.html上有更多关于discovery的设置。33. 禁止当前节点发现多个集群节点,默认值为true:discovery.zen.ping.multicast.enabled: false34. 设置新节点被启动时能够发现的主节点列表(主要用于不同网段机器连接):discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]35.设置是否可以通过正则或者_all删除或者关闭索引action.destructive_requires_name 默认false 允许 可设置true不允许 

日志和持久化配置

        9. 配置文件所在的位置,即elasticsearch.yml和logging.yml所在的位置:path.conf: /path/to/conf10. 分配给当前节点的索引数据所在的位置:path.data: /path/to/data可以可选择的包含一个以上的位置,使得数据在文件级别跨越位置,这样在创建时就有更多的自由路径,如:path.data: /path/to/data1,/path/to/data211. 临时文件位置:path.work: /path/to/work12. 日志文件所在位置:path.logs: /path/to/logs13. 插件安装位置:path.plugins: /path/to/plugins14. 插件托管位置,若列表中的某一个插件未安装,则节点无法启动:plugin.mandatory: mapper-attachments,lang-groovy15. JVM开始交换时,ElasticSearch表现并不好:你需要保障JVM不进行交换,可以将bootstrap.mlockall设置为true禁止交换:bootstrap.mlockall: true请确保ES_MIN_MEM和ES_MAX_MEM的值是一样的,并且能够为ElasticSearch分配足够的内在,并为系统操作保留足够的内存。

ES——优化——整体优化

硬件环境选择

如果有条件,尽可能使用SSD硬盘, 不错的CPU。ES的厉害之处在于ES本身的分布式架构以及lucene的特性。IO的提升,会极大改进ES的速度和性能

内存分配

1.当机器内存小于64G时,遵循通用的原则,50%给ES,50%留给lucene。
2.禁止swap,一旦允许内存与磁盘的交换,会引起致命的性能问题。 通过: 在elasticsearch.yml 中 bootstrap.memory_lock: true, 以保持JVM锁定内存,保证ES的性能。

ES——优化——索引优化

ES——docValues

倒排索引满足了关键字搜索的效率,但是对于从另外一个方向的相反操作并不高效,比如聚合(aggregations)、排序(Sorting)和字段的全值查询等时候需要其它的访问模式。

需求开的字段

1,需要聚合的字段,包括sort,agg,group,facet等
2,需要提供函数查询的字段
3,需要高亮的字段,这个确实能加速,但是散仙并不建议把高亮放在服务端程序做,建议放在前端实现,不容易出错而且总体性能比服务端高
4,需要参与自定义评分的字段,这个稍复杂,大多数人的场景中,不一定能用到,后面会单独写一篇文章介绍。

针对字段开启doc_values
在这里插入图片描述

ES——Filedata

docValeus只能针对全值匹配建立索引,不会分词后再建立正排索引

在这里插入图片描述

ES——特殊操作——滚动查询

数据快照保存:这可以告诉 Elasticsearch 需要保持搜索的上下文环境多久(参考Keeping the search context alive),如 ?scroll=1m
使用上面的请求返回的结果中包含一个 scroll_id,这个 ID 可以被传递给 scroll API 来检索下一个批次的结果
数据快照不变:同时这个查询快照是不会变的,如果后续对文档的改动(索引、更新或者删除)都只会影响后面的搜索请求

基本使用

生成滚动

POST /twitter/tweet/_search?scroll=1m 
{"query": {"match" : {"title" : "elasticsearch"}}
}

结果返回

{
"_scroll_id": "DnF1ZXJ5VGhlbkZldGNoBQAAAAAAAAABFlV2SjExVXdpUmwtNVFTOThNaWFRTVEAAAAAAAAAAhZVdkoxMVV3aVJsLTVRUzk4TWlhUU1RAAAAAAAAAAMWVXZKMTFVd2lSbC01UVM5OE1pYVFNUQAAAAAAAAAEFlV2SjExVXdpUmwtNVFTOThNaWFRTVEAAAAAAAAABRZVdkoxMVV3aVJsLTVRUzk4TWlhUU1R","took": 879,"timed_out": false,"_shards": {"total": 5,"successful": 5,"skipped": 0,"failed": 0},"hits": {"total": 136982,"max_score": 1,"hits": []}
}

利用滚动

POST /_search/scroll
{"scroll" : "1m", "scroll_id" : "c2Nhbjs2OzM0NDg1ODpzRlBLc0FXNlNyNm5JWUc1" 
}

Ps:每次請求都會產生一個 _scroll_id,只有最近的 _scroll_id 才能被使用;如果请求指定了聚合(aggregation),仅仅初始搜索响应才会包含聚合结果。

scroll-scan

扫描室滚动参数,用于避免在深圳分頁中,请求页对于数据打分还有查询顺序的考虑,从而提高性能

POST /twitter/tweet/_search?scroll=1m&search_type=scan
{"query": {"match" : {"title" : "elasticsearch"}}
}

扫描式的滚动请求特点:
(1)不算分,关闭排序。结果会按照在索引中出现的顺序返回
(2)不支持聚合
(3)初始 search 请求的响应不会在 hits 数组中包含任何结果。第一批结果就会按照第一个 scroll 请求返回。
(4)参数 size 控制了每个分片上而非每个请求的结果数目,所以 size 为 10 的情况下,如果命中了 5 个分片,那么每个 scroll 请求最多会返回 50 个结果。
(5)如果你想支持打分,即使不进行排序,将 track_scores 设置为 true。

检查 scroll

GET /_nodes/stats/indices/search?pretty

清除 scroll

手动删除滚动查询,避免内存消耗

删除一个

DELETE /_search/scroll
{ "scroll_id" : ["c2Nhbjs2OzM0NDg1ODpzRlBLc0FXNlNyNm5JWUc1"]
}

删除多个


DELETE /_search/scroll 
{ "scroll_id" : ["c2Nhbjs2OzM0NDg1ODpzRlBLc0FXNlNyNm5JWUc1", "aGVuRmV0Y2g7NTsxOnkxaDZ"]
}

删除所有

DELETE /_search/scroll/_all

GET参数删除

DELETE /_search/scroll/DXF1ZXJ5QW5kRmV0Y2gBAAAAAAAAAD4WYm9laVYtZndUQlNsdDcwakFMNjU1QQ==,DnF1ZXJ5VGhlbkZldGNoBQAAAAAAAAABFmtSWWRRWUJrU2o2ZExpSGJCVmQxYUEAAAAAAAAAAxZrUllkUVlCa1NqNmRMaUhiQlZkMWFBAAAAAAAAAAIWa1JZZFFZQmtTajZkTGlIYkJWZDFhQQAAAAAAAAAFFmtSWWRRWUJrU2o2ZExpSGJCVmQxYUEAAAAAAAAABBZrUllkUVlCa1NqNmRMaUhiQlZkMWFB

Sliced Scroll

指定一个slice参数,做拆分滚动查询;
max

GET /twitter/_search?scroll=1m
{"slice": {"id": 0,"max": 2},"query": {"match" : {"title" : "elasticsearch"}}
}
GET /twitter/_search?scroll=1m
{"slice": {"id": 1,"max": 2},"query": {"match" : {"title" : "elasticsearch"}}
}

ES——特殊操作——重建索引

分片数量一旦确定,所以不可以修改,此时就需要重建索引

简单指令

创建一个new_index,指定好正确的mapping和分片数量即可

POST _reindex
{"source": {"index": "old_index"},"dest": {"index": "new_index"}
}

冲突指令

文档id发生冲突时间,elasticsearch强制性的将文档转储到目标中,覆盖具有相同类型和ID的任何内容

POST _reindex
{"source": {"index": "old_index"},"dest": {"index": "new_index","version_type": "internal"}
}

批量指令

需要迁移的数据量过大时,我们会发现reindex的速度会变得很慢,因为重复的网络请求比较多

POST _reindex
{"source": {"index": "source","size": 5000},"dest": {"index": "dest","routing": "=cat"}
}

配置依据

批量大小取决于数据、分析和集群配置,但一个好的起点是每批处理5-15 MB
1)从大约5-15 MB的大容量开始,慢慢增加,直到你看不到性能的提升。然后开始增加批量写入的并发性(多线程等等)。
2)使用kibana、cerebro或iostat、top和ps等工具监视节点,以查看资源何时开始出现瓶颈。如果您开始接收EsRejectedExecutionException,您的集群就不能再跟上了:至少有一个资源达到了容量。
要么减少并发性,或者提供更多有限的资源(例如从机械硬盘切换到ssd固态硬盘),要么添加更多节点。

分片指令

每个Scroll请求,可以分成多个Slice请求,可以理解为切片,各Slice独立并行

POST _reindex?slices=5&refresh
{"source": {"index": "twitter"},"dest": {"index": "new_twitter"}
}

配置依据

1)slices大小的设置可以手动指定,或者设置slices设置为auto,auto的含义是:针对单索引,slices大小=分片数;针对多索引,slices=分片的最小值。
2)当slices的数量等于索引中的分片数量时,查询性能最高效。slices大小大于分片数,非但不会提升效率,反而会增加开销。
3)如果这个slices数字很大(例如500),建议选择一个较低的数字,因为过大的slices 会影响性能。


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部