ElasticSearch 官方学习指南
Elasticsearch 是什么?
你知道的,用于搜索(和分析)。
Elasticsearch 是分布式搜索和分析引擎,是 Elastic Stack 核心。Logstash 和 Beats 有助于收集、聚合和丰富数据,并将其存储在 Elasticsearch 中。Kibana 能够交互式地探索、可视化和分享对数据的见解,并管理和监视堆栈。Elasticsearch 是索引、搜索和分析发生的地方。
Elasticsearch 为所有类型的数据提供近乎实时的搜索和分析。无论是结构化还是非结构化文本、数字数据还是地理空间数据,Elasticsearch 都可以支持快速搜索的方式高效地存储和索引。可以超越简单的数据检索和聚合信息,发现数据中的趋势和模式。随着数据和查询量的增长,Elasticsearch 的分布式特性使部署能够无缝增长。
虽然不是每个问题都是搜索问题,但 Elasticsearch 提供了在各种用例中处理数据的速度和灵活性:
- 在应用程序或网站中添加搜索框
- 存储和分析日志、指标和安全事件数据
- 使用机器学习来实时自动模拟数据的行为
- 使用 Elasticsearch 作为存储引擎自动化业务工作流
- 使用 Elasticsearch 作为地理信息系统 (GIS) 管理、集成和分析空间信息
- 使用 Elasticsearch 作为生物信息学研究工具存储和处理遗传数据
我们不断被人们使用搜索的新奇方式所震惊。但是,无论你的用例是类似于这些用例之一,还是使用 Elasticsearch 来解决新问题,你在 Elasticsearch 中处理数据、文档和索引的方式都是相同的。
数据输入:文档和索引
Elasticsearch 是一个分布式文档存储。Elasticsearch 不是将信息存储为列数据行,而是存储已序列化为 JSON 文档的复杂数据结构。当集群中有多个 Elasticsearch 节点时,存储的文档分布在整个集群中,并且可以从任何节点立即访问。
当文档被存储时,它几乎实时地被索引并完全可搜索 —— 不到1秒。Elasticsearch 使用一种称为倒排索引的数据结构,该结构支持非常快速的全文搜索。倒排索引列出了出现在任何文档中的每个唯一单词,并标识了每个单词出现在其中的所有文档。
可以将索引视为文档的优化集合,每个文档都是字段的集合,这些字段是包含数据的键-值对。默认情况下,Elasticsearch 会索引每个字段中的所有数据,并且每个索引字段都有一个专用的、优化的数据结构。例如,文本字段存储在倒排索引中,数字和地理字段存储在 BKD 树中。Elasticsearch 之所以如此快速,是因为它能够使用每个字段的数据结构来组合和返回搜索结果。
Elasticsearch 还具有无模式的能力,这意味着可以对文档进行索引,而无需显式指定如何处理文档中可能出现的每个不同字段。启用动态映射后,Elasticsearch 会自动检测新字段并将其添加到索引中。这种默认行为使索引和浏览数据变得很容易 —— 只需开始索引文档,Elasticsearch 就会检测布尔值、浮点值和整数值、日期和字符串,并将它们映射到适当的 Elasticsearch 数据类型。
然而,归根结底,你比 Elasticsearch 更了解你的数据以及你想要如何使用它。你可以定义控制动态映射的规则,并显式定义映射以完全控制字段的存储和索引方式。
定义你自己的映射使你能够:
- 区分全文字符串字段和精确值字符串字段
- 执行特定语言的文本分析
- 优化字段以进行部分匹配
- 使用自定义日期格式
- 使用无法自动检测的数据类型,如
geo_point
和geo_shape
为了不同的目的,以不同的方式对同一字段进行索引通常是有用的。例如,你可能希望将字符串字段索引为用于全文搜索的文本字段和用于排序或聚合数据的关键字字段。或者,你可以选择使用多个语言分析器来处理包含用户输入的字符串字段的内容。
在索引期间应用于全文字段的分析链也在搜索时使用。查询全文字段时,在索引中查找术语之前,查询文本会经过相同的分析。
信息输出:搜索和分析
虽然可以将 Elasticsearch 用作文档存储并检索文档及其元数据,但真正的力量来自于能够轻松访问基于 Apache Lucene 搜索引擎库构建的全套搜索功能。 Elasticsearch 提供了一个简单、连贯的 REST API,用于管理集群、索引和搜索数据。出于测试目的,可以轻松地直接从命令行或通过 Kibana 中的开发人员控制台提交请求。从你的应用程序中,可以使用 Elasticsearch 客户端 来选择语言:Java、JavaScript、Go、.NET、PHP、Perl、Python 或 Ruby。
搜索你的数据
Elasticsearch REST API 支持结构化查询、全文查询和将两者结合在一起的复杂查询。结构化查询与你可以在 SQL 中构造的查询类型类似。例如,你可以搜索员工索引中的性别和年龄字段,并根据 hire_date
字段对匹配项进行排序。全文查询查找与查询字符串匹配的所有文档,并按相关性排序返回它们与搜索词的匹配程度。
除了搜索单个术语外,还可以执行短语搜索、相似性搜索和前缀搜索,并获得自动完成建议。
是否有要搜索的地理空间或其他数字数据?Elasticsearch 在支持高性能地理和数字查询的优化数据结构中对非文本数据进行索引。
可以使用 Elasticsearch 全面的 JSON 风格查询语言(Query DSL)访问所有这些搜索功能。还可以构造 SQL 风格的查询,在 Elasticsearch 内部本地搜索和聚合数据,JDBC 和 ODBC 驱动程序使各种第三方应用程序能够通过 SQL 与 Elasticsearch 进行交互。
分析你的数据
Elasticsearch 聚合使你能够构建数据的复杂摘要,并深入了解关键指标、模式和趋势。聚合可以帮助你回答以下问题,而不是像谚语所说的 “大海捞针”:
- 干草堆里有多少针?
- 针头的平均长度是多少?
- 按制造商分类,针头的中位数长度是多少?
- 在过去的六个月里,每个月都有多少针被添加到干草堆中?
还可以使用聚合来回答更微妙的问题,例如:
- 你们最受欢迎的针头制造商是什么?
- 有没有异常或异常的针头?
因为聚合利用了用于搜索的相同数据结构,所以它们也非常快。这使你能够实时分析和可视化你的数据。你的报告和仪表板会随着数据的更改而更新,因此你可以根据最新信息采取行动。
更重要的是,聚合与搜索请求一起运行。可以在单个请求中对相同的数据同时搜索文档、筛选结果并执行分析。而且因为聚合是在特定搜索的上下文中计算的,所以你不仅要显示所有尺寸为 70 的针的计数,还要显示符合用户搜索条件的尺寸为 70 的针的计数 —— 例如,所有尺寸为 70 的不粘针。
更多
想要自动化时间序列数据的分析?你可以使用机器学习功能来创建数据中正常行为的准确基线,并识别异常模式。通过机器学习,你可以检测到:
- 与数值、计数或频率的时间偏差有关的异常
- 统计稀缺性
- 群体中的一员的不寻常行为
最棒的是什么?无需指定算法、模型或其他与数据科学相关的配置即可完成此操作。
可伸缩性和弹性:集群、节点和分片
Elasticsearch 旨在随时可用,并根据你的需求进行扩展。它通过自然分布来实现这一点。你可以将服务器(节点)添加到集群中以增加容量,Elasticsearch 会自动在所有可用节点上分配数据和查询负载。不需要彻底检查你的应用程序,Elasticsearch 知道如何平衡多节点集群以提供规模和高可用性。节点越多越好。
这是如何工作的呢?实际上,Elasticsearch 索引只是一个或多个物理碎片的逻辑分组,其中每个碎片实际上是一个自包含的索引。通过在索引中跨多个分片分布文档,并将这些分片分布到多个节点,Elasticsearch 可以确保冗余,这既可以防止硬件故障,也可以在节点添加到集群时增加查询容量。随着集群的增长(或缩小),Elasticsearch 自动迁移碎片以重新平衡集群。
有两种类型的碎片:主碎片和副本碎片。索引中的每个文档都属于一个主碎片。副本碎片是主碎片的副本。副本提供数据的冗余副本以防止硬件故障,并增加容量以满足读取请求,如搜索或检索文档。
索引中的主分片数量在创建索引时是固定的,但副本分片的数量可以随时更改,而不会中断索引或查询操作。
视情况而定
关于碎片大小和为索引配置的主碎片的数量,有许多性能考虑因素和权衡。碎片越多,维护这些索引的开销就越大。当 Elasticsearch 需要重新平衡集群时,碎片大小越大,移动碎片所需的时间就越长。
查询大量的小分片可以使每个分片的处理速度更快,但是更多的查询意味着更多的开销,因此查询少量的大分片可能更快。简而言之,这要看情况。
作为起点:
- 目标是将平均碎片大小保持在几 GB 到几十 GB 之间。对于具有基于时间的数据的用例,通常会看到 20 GB 到 40 GB 的碎片。
- 避免巨大的碎片问题。一个节点可以容纳的碎片数量与可用堆空间成正比。一般来说,每 GB 堆空间的碎片数量应该少于 20 个。
为你的用例确定最佳配置的最佳方法是使用你自己的数据和查询进行测试。
容灾
集群的节点之间需要良好、可靠的连接。为了提供更好的连接,通常将节点放在同一个数据中心或附近的数据中心。但是,为了保持高可用性,还需要避免任何单点故障。在一个位置发生重大中断时,另一个位置的服务器需要能够接管。答案是跨集群复制(CCR)。
CCR 提供了一种将索引从主集群自动同步到可作为热备份的辅助远程集群的方法。如果主集群发生故障,备用集群可以接管。还可以使用 CCR 创建辅助集群,以便在地理位置接近用户的地方为读请求提供服务。
跨集群复制为主备模式。主集群上的索引是活动的前导索引,处理所有写请求。复制到辅助集群的索引是只读跟踪器。
重视
与任何企业系统一样,你需要工具来保护、管理和监控你的 Elasticsearch 集群。集成到 Elasticsearch 中的安全、监控和管理功能使你能够将 Kibana 用作管理集群的控制中心。数据汇总 和索引生命周期管理 等功能可帮助你随着时间的推移智能管理数据。
7.17 版本新特性
Elasticsearch 7.17 是 7.17 Elastic Stack 的一个兼容性版本,没有主要的增强。
其他版本:
7.16 | 7.15 | 7.14 | 7.13 | 7.12 | 7.11 | 7.10 | 7.9 | 7.8 | 7.7 | 7.6 | 7.5 | 7.4 | 7.3 | 7.2 | 7.1 | 7.0
快速开始
本指南帮助初学者学习如何:
- 在测试环境中安装和运行 Elasticsearch
- 向 Elasticsearch 添加数据
- 搜索和排序数据
- 在搜索过程中从非结构化内容中提取字段
运行 Elasticsearch
设置 Elasticsearch 最简单的方法是在 Elastic Cloud 上使用 Elasticsearch Service 创建一个托管部署。如果你喜欢管理自己的测试环境,可以使用 Docker 安装和运行 Elasticsearch。
自行管理
安装并运行 Elasticsearch
- 安装并启动 Docker Desktop
- 运行
docker network create elastic docker pull docker.elastic.co/elasticsearch/elasticsearch:7.17.9 docker run --name es01-test --net elastic -p 127.0.0.1:9200:9200 -p 127.0.0.1:9300:9300 -e "discovery.type=single-node" docker.elastic.co/elasticsearch/elasticsearch:7.17.9
- 安装并运行 Kibana
要使用直观的 UI 分析、可视化和管理 Elasticsearch 数据,请安装 Kibana。
① 在新的终端会话中,运行:
docker pull docker.elastic.co/kibana/kibana:7.17.9 docker run --name kib01-test --net elastic -p 127.0.0.1:5601:5601 -e "ELASTICSEARCH_HOSTS=http://es01-test:9200" docker.elastic.co/kibana/kibana:7.17.9
② 访问 Kibana,请访问 http://localhost:5601
向 Elasticsearch 发送请求
可以使用 REST api 向 Elasticsearch 发送数据和其他请求。这让你可以使用任何发送 HTTP 请求的客户端(如 curl)与 Elasticsearch 交互。你还可以使用 Kibana 的控制台向 Elasticsearch 发送请求。
自行管理
使用 Kibana
- 打开 Kibana 的主菜单,进入 Dev Tools > Console。
- 在控制台中运行以下API请求示例:
GET /
使用 curl 要提交示例 API 请求,在新的终端会话中运行以下 curl 命令。
curl -X GET http://localhost:9200/
新增数据
将数据作为 JSON 对象添加到 Elasticsearch 中,称为文档。Elasticsearch 将这些文档存储在可搜索索引中。
对于时间序列数据,例如日志和指标,通常将文档添加到由多个自动生成的备份索引组成的数据流中。
数据流需要一个与其名称匹配的索引模板。Elasticsearch 使用这个模板来配置流的支持索引。发送到数据流的文档必须有 @timestamp
字段。
添加单个文档
提交以下索引请求,向 logs-my_app-default
数据流添加一个日志条目。由于 logs-my_app-default
不存在,请求会使用内置的 logs-*-*
索引模板自动创建它。
POST logs-my_app-default/_doc
{
"@timestamp": "2099-05-06T16:21:15.000Z",
"event": {
"original": "192.0.2.42 - - [06/May/2099:16:21:15 +0000] \"GET /images/bg.jpg HTTP/1.0\" 200 24736"
}
}
响应包括 Elasticsearch 为文档生成的元数据:
- 包含文档的备份
_index
。Elasticsearch 自动生成支持索引的名称。 - 索引中文档的唯一
_id
。
{
"_index": ".ds-logs-my_app-default-2023.03.18-000001",
"_type": "_doc",
"_id": "S7qa84YBbeqs3cRlbdCc",
"_version": 1,
"result": "created",
"_shards": {
"total": 2,
"successful": 1,
"failed": 0
},
"_seq_no": 0,
"_primary_term": 1
}
添加多个文档
使用 _bulk 端点在一个请求中添加多个文档。批量数据必须是换行分隔的 JSON (NDJSON)。每一行必须以换行符(\n)结束,包括最后一行。
PUT logs-my_app-default/_bulk
{ "create": { } }
{ "@timestamp": "2099-05-07T16:24:32.000Z", "event": { "original": "192.0.2.242 - - [07/May/2020:16:24:32 -0500] \"GET /images/hm_nbg.jpg HTTP/1.0\" 304 0" } }
{ "create": { } }
{ "@timestamp": "2099-05-08T16:25:42.000Z", "event": { "original": "192.0.2.255 - - [08/May/2099:16:25:42 +0000] \"GET /favicon.ico HTTP/1.0\" 200 3638" } }
搜索数据
索引文档几乎可以实时搜索。下面的搜索将匹配 logs-my_app-default
中的所有日志条目,并按照 @timestamp
降序对它们进行排序。
GET logs-my_app-default/_search
{
"query": {
"match_all": { }
},
"sort": [
{
"@timestamp": "desc"
}
]
}
默认情况下,响应的 hits
部分最多包含与搜索匹配的前 10 个文档。每个命中的 _source
包含索引期间提交的原始 JSON 对象。
{
"took": 2,
"timed_out": false,
"_shards": {
"total": 1,
"successful": 1,
"skipped": 0,
"failed": 0
},
"hits": {
"total": {
"value": 3,
"relation": "eq"
},
"max_score": null,
"hits": [
{
"_index": ".ds-logs-my_app-default-2099-05-06-000001",
"_type": "_doc",
"_id": "PdjWongB9KPnaVm2IyaL",
"_score": null,
"_source": {
"@timestamp": "2099-05-08T16:25:42.000Z",
"event": {
"original": "192.0.2.255 - - [08/May/2099:16:25:42 +0000] \"GET /favicon.ico HTTP/1.0\" 200 3638"
}
},
"sort": [
4081940742000
]
},
...
]
}
}
获取特定字段
对于大型文档,解析整个 _source
非常麻烦。为了从响应中排除它,将 _source
参数设置为 false
。相反,使用 fields
参数来检索所需的字段。
GET logs-my_app-default/_search
{
"query": {
"match_all": { }
},
"fields": [
"@timestamp"
],
"_source": false,
"sort": [
{
"@timestamp": "desc"
}
]
}
响应以平面数组的形式包含每个命中的字段值。
{
...
"hits": {
...
"hits": [
{
"_index": ".ds-logs-my_app-default-2099-05-06-000001",
"_type": "_doc",
"_id": "PdjWongB9KPnaVm2IyaL",
"_score": null,
"fields": {
"@timestamp": [
"2099-05-08T16:25:42.000Z"
]
},
"sort": [
4081940742000
]
},
...
]
}
}
搜索日期范围
若要跨特定时间或 IP 范围进行搜索,请使用 range
查询。
GET logs-my_app-default/_search
{
"query": {
"range": {
"@timestamp": {
"gte": "2099-05-05",
"lt": "2099-05-08"
}
}
},
"fields": [
"@timestamp"
],
"_source": false,
"sort": [
{
"@timestamp": "desc"
}
]
}
你可以使用日期数学来定义相对时间范围。下面的查询搜索过去一天的数据,它不会匹配 logs-my_app-default
中的任何日志条目。
GET logs-my_app-default/_search
{
"query": {
"range": {
"@timestamp": {
"gte": "now-1d/d",
"lt": "now/d"
}
}
},
"fields": [
"@timestamp"
],
"_source": false,
"sort": [
{
"@timestamp": "desc"
}
]
}
从非结构化内容中提取字段
在搜索过程中,可以从非结构化内容(如日志消息)中提取运行时字段 。
使用以下搜索从 event.original
中提取 source.ip
运行时字段。若要将其包含在响应中,请将 source.ip
添加到 fields
参数中。
GET logs-my_app-default/_search
{
"runtime_mappings": {
"source.ip": {
"type": "ip",
"script": """
String sourceip=grok('%{IPORHOST:sourceip} .*').extract(doc[ "event.original" ].value)?.sourceip;
if (sourceip != null) emit(sourceip);
"""
}
},
"query": {
"range": {
"@timestamp": {
"gte": "2099-05-05",
"lt": "2099-05-08"
}
}
},
"fields": [
"@timestamp",
"source.ip"
],
"_source": false,
"sort": [
{
"@timestamp": "desc"
}
]
}
合并查询
你可以使用 bool
查询来组合多个查询。以下搜索组合了两个 range
查询:一个在 @timestamp
上,另一个在 source.ip
运行时字段上。
GET logs-my_app-default/_search
{
"runtime_mappings": {
"source.ip": {
"type": "ip",
"script": """
String sourceip=grok('%{IPORHOST:sourceip} .*').extract(doc[ "event.original" ].value)?.sourceip;
if (sourceip != null) emit(sourceip);
"""
}
},
"query": {
"bool": {
"filter": [
{
"range": {
"@timestamp": {
"gte": "2099-05-05",
"lt": "2099-05-08"
}
}
},
{
"range": {
"source.ip": {
"gte": "192.0.2.0",
"lte": "192.0.2.240"
}
}
}
]
}
},
"fields": [
"@timestamp",
"source.ip"
],
"_source": false,
"sort": [
{
"@timestamp": "desc"
}
]
}
聚合数据
使用聚合将数据总结为指标、统计数据或其他分析数据。
下面的搜索使用一个聚合,使用 http.response.body.bytes
运行时字段计算 average_response_size
。聚合只在匹配查询的文档上运行。
GET logs-my_app-default/_search
{
"runtime_mappings": {
"http.response.body.bytes": {
"type": "long",
"script": """
String bytes=grok('%{COMMONAPACHELOG}').extract(doc[ "event.original" ].value)?.bytes;
if (bytes != null) emit(Integer.parseInt(bytes));
"""
}
},
"aggs": {
"average_response_size":{
"avg": {
"field": "http.response.body.bytes"
}
}
},
"query": {
"bool": {
"filter": [
{
"range": {
"@timestamp": {
"gte": "2099-05-05",
"lt": "2099-05-08"
}
}
}
]
}
},
"fields": [
"@timestamp",
"http.response.body.bytes"
],
"_source": false,
"sort": [
{
"@timestamp": "desc"
}
]
}
响应的 aggregations
对象包含聚合结果。
{
...
"aggregations": {
"average_response_size": {
"value": 24736.0
}
}
}
浏览更多搜索选项
要继续探索,请将更多数据索引到数据流中,并查看常用搜索选项 。
清空
完成后,删除测试数据流及其支持索引。
DELETE _data_stream/logs-my_app-default
你还可以删除测试部署。
自我管理
要停止 Elasticsearch 和 Kibana Docker 容器,请运行:
docker stop es01-test docker stop kib01-test
要删除容器及其网络,请运行:
docker network rm elastic docker rm es01-test docker rm kib01-test
下一章
- 通过设置数据层和 ILM,最大限度地利用你的时间序列数据。请参见使用 Elasticsearch 搜索时间序列数据 。
- 使用 Fleet 和 Elastic Agent 直接从数据源收集日志和指标,并将它们发送到 Elasticsearch。请参阅使用 Elastic Agent 的摄取日志、指标和正常运行时间数据 。
- 使用 Kibana 来探索、可视化和管理 Elasticsearch 数据。参见 Kibana 快速入门指南 。
设置 Elasticsearch
本节包括关于如何设置 Elasticsearch 并让它运行的信息,包括:
- 下载
- 安装
- 启动
- 配置
支持的平台
官方支持的操作系统和 JVM 列表可在此处获得:支持列表。Elasticsearch 在列出的平台上进行了测试,但它也可能在其他平台上运行。
Java(JVM) 版本
Elasticsearch 是使用 Java 构建的,并且在每个发行版中都包含了 JDK 维护者提供的 OpenJDK 的捆绑版本(GPLv2+CE)。捆绑的 JVM 是推荐的 JVM,位于 Elasticsearch 主目录的 jdk 目录中。
要使用你自己的 Java 版本,请设置 ES_JAVA_HOME 环境变量。如果你必须使用与捆绑的 JVM 不同的 Java 版本,我们建议使用受支持的 LTS Java 版本。如果使用了已知的坏 Java 版本,Elasticsearch 将拒绝启动。使用你自己的 JVM 时,绑定的 JVM 目录可能会被删除。
使用专用主机
在生产环境中,我们建议你在专用主机或主服务上运行 Elasticsearch。一些 Elasticsearch 特性,比如自动 JVM 堆大小调整,假设它是主机或容器上唯一的资源密集型应用程序。例如,你可以同时运行 Metricbeat 和 Elasticsearch 来获取集群统计信息,但是资源密集型的 Logstash 部署应该在它自己的主机上。
安装 Elasticsearch
托管 Elasticsearch
你可以在自己的硬件上运行 Elasticsearch,也可以使用我们在 AWS、GCP 和 Azure 上提供的托管 Elasticsearch 服务。免费试用 Elasticsearch 服务。
自行安装 Elasticsearch
Elasticsearch 提供以下包格式:
平台 | 描述 |
---|---|
Linux和MacOS tar.gz 存档 | tar.gz 存档文件可用于安装在任何 Linux 发行版和 MacOS 上。 |
Windows .zip 存档 | zip 归档文件适合安装在 Windows 上。 |
deb | deb 包适用于 Debian、Ubuntu 和其他基于 Debian 的系统。Debian 软件包可以从 Elasticsearch 网站或我们的 Debian 存储库下载。 |
rpm | rpm 包适用于 Red Hat、Centos、SLES、OpenSuSE 等基于 rpm 的系统。RPM 可以从 Elasticsearch 网站或从我们的 RPM 存储库下载。 |
docker | 镜像可以作为 Docker 容器运行 Elasticsearch。它们可以从 Elastic Docker Registry 下载。 |
brew | 惯例可从 Elastic Homebrew TAP 获得,用于在带有 Homebrew 程序包管理器的 MacOS 上安装 Elasticearch。 |
在 Linux 或者 MacOS 上安装 Elasticsearch
Elasticsearch是Linux和MacOS的.tar.gz归档文件。
这个包包含免费和订阅功能。开始一个30天的试验,尝试所有的功能。
Elasticsearch 的最新稳定版本可以在 Elasticsearch 下载 页面上找到。其他版本可以在历史版本页面上找到。
提示
Elasticsearch 包含 JDK 维护者(GPLv2+CE)提供的 OpenJDK 捆绑版本。要使用自己的 Java 版本,查阅 JVM 版本要求。
为 Linux 下载和安装压缩包
Elasticsearch v 7.17.9 的 Linux 压缩包,可以按以下操作进行下载和安装:
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-linux-x86_64.tar.gz
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-linux-x86_64.tar.gz.sha512
shasum -a 512 -c elasticsearch-7.17.9-linux-x86_64.tar.gz.sha512 ①
tar -xzf elasticsearch-7.17.9-linux-x86_64.tar.gz
cd elasticsearch-7.17.9/ ②
① 比较下载的 .tar.gz
SHA 值和公开的校验值。正常应该输出 elasticsearch-{version}-linux-x86_64.tar.gz: OK
。
② 此目录一般也是环境变量里的 $ES_HOME
。
为 MacOS 下载和安装压缩包
Elasticsearch v 7.17.9 的 MacOS 压缩包,可以按以下操作进行下载和安装:
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-darwin-x86_64.tar.gz
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-darwin-x86_64.tar.gz.sha512
shasum -a 512 -c elasticsearch-7.17.9-darwin-x86_64.tar.gz.sha512 ①
tar -xzf elasticsearch-7.17.9-darwin-x86_64.tar.gz
cd elasticsearch-7.17.9/ ②
① 比较下载的 .tar.gz
SHA 值和公开的校验值。正常应该输出 elasticsearch-{version}-linux-x86_64.tar.gz: OK
。
② 此目录一般也是环境变量里的 $ES_HOME
。
启用系统索引自动创建
一些商业特性会在 Elasticsearch 中自动创建索引。默认情况下, Elasticsearch 配置为允许自动创建索引而不需要额外的步骤。然而,如果你在 Elasticsearch 中禁用了自动索引创建,则必须在 elasticsearch.yml
中配置 action.auto_create_index
以允许商业特性创建以下索引:
action.auto_create_index: .monitoring*,.watches,.triggered_watches,.watcher-history*,.ml*
警告
如果你在使用 Logstash 或 Beats ,那么你很可能需要在你的
action.auto_create_index
设置中使用额外的索引名字,具体的值取决于你的本地配置。如果你不确定你环境的正确值,可以考虑设置这个值为*
以允许自动创建所有索引。
从命令行运行 Elasticsearch
Elasticsearch 可以如以下从命令行启动:
./bin/elasticsearch
如果你对 Elasticsearch 密钥库进行了密码保护,会提示输入密码库密码。查看安全设置获取更多详情。
默认情况下,Elasticsearch 将其日志打印到控制台(stdout
) 和 logs 目录 中的 <cluster name>.log
文件。Elasticsearch 在启动时记录一些信息,但一旦完成初始化,它将继续在前台运行,直到发生值得记录的事情为止,它不会继续记录任何信息。当 Elasticsearch 运行时,你可以通过它的 HTTP 接口与它进行交互,默认端口为 9200。要停止 Elasticsearch,请按 Ctrl-C
。
注意
所有与 Elasticsearch 关联的脚本,需要一个支持数组版本的 Bash,且 Bash 要放在
/bin/bash
中。因此,Bash 需要放在或者通过符号链接到这个路径中。
检查 Elasticsearch 是否正在运行
你可以通过向 localhost
的 9200
端口发送 HTTP 请求来测试 Elasticsearch 节点是否正在运行:
GET /
这会给你这样的响应:
{
"name": "Cp8oag6",
"cluster_name": "elasticsearch",
"cluster_uuid": "AT69_T_DTp-1qgIJlatQqA",
"version": {
"number": "7.17.9",
"build_flavor": "default",
"build_type": "tar",
"build_hash": "f27399d",
"build_date": "2016-03-30T09:51:41.449Z",
"build_snapshot": false,
"lucene_version": "8.11.1",
"minimum_wire_compatibility_version": "1.2.3",
"minimum_index_compatibility_version": "1.2.3"
},
"tagline": "You Know, for Search"
}
可以在命令行中通过 -q
或 --quiet
选项禁用日志输出到标准输出(stdout
)。
作为守护进程运行
要作为守护进程运行 Elasticsearch,在命令行指定 -d
,并使用 -p
选项在文件中记录进程 ID:
./bin/elasticsearch -d -p pid
如果你对 Elasticsearch 密钥库进行了密码保护,会提示输入密码库密码。查看安全设置获取更多详情。
日志信息可以在 $ES_HOME/logs/
目录中找到。
要关闭 Elasticsearch,杀死记录在 pid 文件中的 进程 ID:
pkill -F pid
注意
Elasticsearch
.tar.gz
包不包含systemd
模块。要把 Elasticsearch 作为服务,改用 Debian 或者 RPM 包。
在命令行配置 Elasticsearch
Elasticsearch 默认从 $ES_HOME/configuring_elasticsearch/elasticsearch.yml
加载配置。配置文件的格式在配置 Elasticsearch 中解释。
在配置文件中可以指定的设置,也能在命令行中指定,如下使用 -E
语法:
./bin/elasticsearch -d -Ecluster.name=my_cluster -Enode.name=node_1
提示
通常,任意集群范围设置(如
cluster.name
)应该添加到elasticsearch.yml
配置文件中,而任何节点特定设置,如node.name
,应该在命令行中指定。
压缩包文件目录结构
压缩包发行版是完全独立的。默认情况下,所有文件和目录都包含在 $ES_HOME
—— 解压压缩包时创建的目录。
这样很方便,因为你不必创建任意目录去启用 Elasticsearch,且卸载 Elasticsearch 就像移除 $ES_HOME
目录一样简单。但是,建议修改默认的配置目录(config)和数据目录(data)以便以后不用删除重要数据。
类型 | 描述 | 默认位置 | 设置 |
---|---|---|---|
home | Elasticsearch 主目录或 $ES_HOME | 解压压缩包创建的目录 | |
bin | 二进制脚本,包括启动节点的 elasticsearch 和安装插件的 elasticsearch-plugin | $ES_HOME/bin | |
conf | 配置文件,包括 elasticsearch.yml | $ES_HOME/config | ES_PATH_CONF |
data | 分配在节点上的每个索引和分片的数据文件位置。可以有多个位置。 | $ES_HOME/data | path.data |
logs | 日志文件位置 | $ES_HOME/logs | path.logs |
plugins | 插件文件位置。每个插件会包含在一个子目录中。 | $ES_HOME/plugins | |
repo | 共享文件系统仓库位置。可以有多个位置。文件系统仓库可以放在此处指定的任何目录的任何子目录中。 | 未配置 | path.repo |
下一步
你现在有一个测试 Elasticsearch 环境部署好。在你使用 Elasticsearch 正式开始开发或者生产之前,你必须做一些额外的设置:
- 学习如何配置 Elasticsearch。
- 配置重要的 Elasticsearch 设置。
- 配置重要的系统设置。
.zip
安装 Elasticsearch
在 Windows 上用 Elasticsearch 可以使用 Windows .zip
存档安装到 Windows 上。可以使用 elasticsearch-service.bat
安装 Elasticsearch 作为服务运行。
这个包包含免费和订阅的特性。开始 30 天的试用,尝试所有功能。
注意
在 Windows 上,Elasticsearch 机器学习特性需要 Microsoft 通用 C 运行时库。它内置于 Windows 10、Windows Server 2016 和更高版本的 Windows 中。对于老版本的 Windows,它可以通过 Windows Update 安装,也可以从独立下载安装。如果你不能安装 Microsoft 通用 C 运行时库,禁用机器学习特性你也能使用 Elasticsearch 的其他特性。
Elasticsearch 的最新稳定版本,能在 Elasticsearch 下载页面 找到。其他版本能在历史发布页面找到。
注意
Elasticsearch 包含 JDK 维护者(GPLv2+CE)提供的 OpenJDK捆绑版本。要使用自己的 Java 版本,查阅 JVM 版本要求。
.zip
包
下载安装 Elasticsearch v7.17.9 的 .zip 存档可以从这里下载:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-windows-x86_64.zip
用你最喜欢的解压工具解压它。这会创建一个名为 elasticsearch-7.17.9
的文件夹,我们将其作为 %ES_HOME%
。在终端窗口,cd 到 %ES_HOME%
目录,如:
cd c:\elasticsearch-7.17.9
启用系统索引自动创建
一些商业特性会在 Elasticsearch 中自动创建索引。默认情况下, Elasticsearch 配置为允许自动创建索引而不需要额外的步骤。然而,如果你在 Elasticsearch 中禁用了自动索引创建,则必须在 elasticsearch.yml
中配置 action.auto_create_index
以允许商业特性创建以下索引:
action.auto_create_index: .monitoring*,.watches,.triggered_watches,.watcher-history*,.ml*
警告
如果你在使用 Logstash 或 Beats ,那么你很可能需要在你的
action.auto_create_index
设置中使用额外的索引名字,具体的值取决于你的本地配置。如果你不确定你环境的正确值,可以考虑设置这个值为*
以允许自动创建所有索引。
从命令行运行 Elasticsearch
Elasticsearch 可以如以下从命令行启动:
.\bin\elasticsearch.bat
如果你对 Elasticsearch 密钥库进行了密码保护,会提示输入密码库密码。查看安全设置获取更多详情。
默认情况下,Elasticsearch 将其日志打印到控制台(stdout
) 和 logs 目录 中的 <cluster name>.log
文件。Elasticsearch 在启动时记录一些信息,但一旦完成初始化,它将继续在前台运行,直到发生值得记录的事情为止,它不会继续记录任何信息。当 Elasticsearch 运行时,你可以通过它的 HTTP 接口与它进行交互,默认端口为 9200。要停止 Elasticsearch,请按 Ctrl-C
。
在命令行配置 Elasticsearch
Elasticsearch 默认从 $ES_HOME\configuring_elasticsearch\elasticsearch.yml
加载配置。配置文件的格式在配置 Elasticsearch 中解释。
在配置文件中可以指定的设置,也能在命令行中指定,如下使用 -E
语法:
.\bin\elasticsearch.bat -Ecluster.name=my_cluster -Enode.name=node_1
注意
包含空格的值必须使用引号括起来。如
-Epath.logs="C:\My Logs\logs"
。
提示
通常,任意集群范围设置(如
cluster.name
)应该添加到elasticsearch.yml
配置文件中,而任何节点特定设置,如node.name
,应该在命令行中指定。
检查 Elasticsearch 是否正在运行
你可以通过向 localhost
的 9200
端口发送 HTTP 请求来测试 Elasticsearch 节点是否正在运行:
GET /
这会给你这样的响应:
{
"name": "Cp8oag6",
"cluster_name": "elasticsearch",
"cluster_uuid": "AT69_T_DTp-1qgIJlatQqA",
"version": {
"number": "7.17.9",
"build_flavor": "default",
"build_type": "tar",
"build_hash": "f27399d",
"build_date": "2016-03-30T09:51:41.449Z",
"build_snapshot": false,
"lucene_version": "8.11.1",
"minimum_wire_compatibility_version": "1.2.3",
"minimum_index_compatibility_version": "1.2.3"
},
"tagline": "You Know, for Search"
}
在 Windows 上安装 Elasticsearch 作为服务
Elasticsearch 可以作为一项服务安装在后台运行,也可以无需用户交互的在启动时自动启动。这可以通过在 bin\
目录中的 elasticsearch-service.bat
脚本来在命令行允许安装、移除、管理或者配置服务,且能启动和停止服务。
c:\elasticsearch-7.17.9\bin>elasticsearch-service.bat
Usage: elasticsearch-service.bat install|remove|start|stop|manager [SERVICE_ID]
这脚本需要一个参数(要执行的命令),后面跟着一个可选参数表示服务的id(安装多个 Elasticsearch 服务时很有用)。
命令有:
命令 | 描述 |
---|---|
install | 安装 Elasticsearch 作为服务 |
remove | 移除安装的 Elasticsearch 服务(如果已启动,则停止服务) |
start | 启动 Elasticsearch 服务(如果已安装) |
stop | 停止 Elasticsearch 服务(如果已启动) |
manager | 启动图形化界面(GUI)管理已安装的服务 |
在安装时,将提供服务的名字和 JAVA_HOME
的值:
c:\elasticsearch-7.17.9\bin>elasticsearch-service.bat install
Installing service : "elasticsearch-service-x64"
Using ES_JAVA_HOME (64-bit): "c:\jvm\jdk1.8"
The service 'elasticsearch-service-x64' has been installed.
注意
虽然 JRE 可以用于 Elasticsearch 服务,由于它使用客户端 VM (而不是服务器 JVM —— 它为长时间运行的应用程序提供更好的性能),不鼓励使用,并将发出警告。
注意
系统环境变量
ES_JAVA_HOME
应该设置为你想让服务使用的 JDK 的安装路径。如果你升级 JDK,你不必重装服务,但你必须设置系统环境变量ES_JAVA_HOME
为最新的 JDK 安装路径。然而,不支持跨 JVM 类型(如,JRE 对 SE)的升级,必须重装服务。
自定义服务配置
可以在安装之前通过设置以下环境变量(使用命令行中的设置 set命令,或通过 系统属性->环境变量
GUI)来配置 Elasticsearch 服务。
名称 | 描述 |
---|---|
SERVICE_ID | 服务唯一标识。在同一台机器上安装多个实例时有用。默认为 elasticsearch-service-x64 。 |
SERVICE_USERNAME | 运行服务的用户,默认为本地系统账户。 |
SERVICE_PASSWORD | 在 %SERVICE_USERNAME% 中指定的用户的密码。 |
SERVICE_DISPLAY_NAME | 服务名字。默认为 Elasticsearch <version> %SERVICE_ID% 。 |
SERVICE_DESCRIPTION | 服务描述。默认为 Elasticsearch <version> Windows Service - https://elastic.co 。 |
ES_JAVA_HOME | 运行服务所需的 JVM 安装目录。 |
SERVICE_LOG_DIR | 服务的日志目录,默认为 %ES_HOME%\logs 。注意这不控制 Elasticsearch 日志路径,这个路径通过在配置文件 elasticsearch.yml 中的设置 path.logs 或在命令行中设置。 |
ES_PATH_CONF | 配置文件目录(需要包含 elasticsearch.yml 、jvm.options 和 log4j2.properties 文件),默认为 %ES_HOME%\config 。 |
ES_JAVA_OPTS | 你想应用的任何其他 JVM 系统属性。 |
ES_START_TYPE | 服务启动模式。可以为 auto 或 manual (默认)。 |
ES_STOP_TIMEOUT | procrun 等待服务优雅退出的超时(秒)。默认为 0 。 |
注意
作为它的核心,
elasticsearch-service.bat
依赖于 Apache Commons Daemon 项目来安装服务。在服务安装之前设置的环境变量被复制,并在服务生命周期中使用。这意味着除非重装服务,否则在安装后对他们的变更都不会被获取。
注意
默认情况,Elasticsearch 依据节点的角色和总内存,自动调整 JVM 堆大小。对于大多数生产环境,我们推荐默认调整。如果需要,你可以手动设置堆大小来覆盖默认调整。
当第一次在 Windows 上安装 Elasticsearch 作为服务或者从命令行运行 Elasticsearch
时,你可以按JVM 堆大小设置
手工设置堆大小。为了调整已安装服务的堆大小,使用服务管理器:
bin\elasticsearch-service.bat manager
。
注意
该服务会自动配置一个私有临时目录供 Elasticsearch 运行时使用。该私有临时目录配置为用户运行安装的私有临时目录的子目录。如果这个服务要在不同的用户下运行,你可以在执行服务安装之前,通过设置环境变量
ES_TMPDIR
配置这个临时目录的优先位置。
使用管理 GUI
也可以在安装后使用管理界面(elasticsearch-service-mgr.exe
)来配置服务,它提供了对已安装服务的深入了解,包括其状态、启动类型、JVM、启动和停止设置等。从命令行调用 elasticsearch-service.bat
将会打开管理器窗口:
通过管理界面所做的大多数修改(如 JVM 设置),都需要重启服务才能生效。
.zip
存档的目录结构
.zip
包是完全独立的。默认情况下,所有文件和目录都包含在 $ES_HOME
—— 解压存档时创建的目录。
这样很方便,因为你不必创建任意目录去启用 Elasticsearch,且卸载 Elasticsearch 就像移除 $ES_HOME
目录一样简单。但是,建议修改默认的配置目录(config)和数据目录(data)以便以后不用删除重要数据。
类型 | 描述 | 默认位置 | 设置 |
---|---|---|---|
home | Elasticsearch 主目录或 $ES_HOME | 解压压缩包创建的目录 | |
bin | 二进制脚本,包括启动节点的 elasticsearch 和安装插件的 elasticsearch-plugin | $ES_HOME/bin | |
conf | 配置文件,包括 elasticsearch.yml | $ES_HOME/config | ES_PATH_CONF |
data | 分配在节点上的每个索引和分片的数据文件位置。可以有多个位置。 | $ES_HOME/data | path.data |
logs | 日志文件位置 | $ES_HOME/logs | path.logs |
plugins | 插件文件位置。每个插件会包含在一个子目录中。 | $ES_HOME/plugins | |
repo | 共享文件系统仓库位置。可以有多个位置。文件系统仓库可以放在此处指定的任何目录的任何子目录中。 | 未配置 | path.repo |
下一步
你现在有一个测试 Elasticsearch 环境部署好。在你使用 Elasticsearch 正式开始开发或者生产之前,你必须做一些额外的设置:
- 学习如何配置 Elasticsearch。
- 配置重要的 Elasticsearch 设置。
- 配置重要的系统设置。
使用 Debian 包安装 Elasticsearch
Elasticsearch 的 Debian 包可以从我们的网站 或者从我们的 APT 仓库下载。它可以用于在任何基于 Debian 的系统(如 Debian 和 Ubuntu)上安装 Elasticsearch。
这个包包含免费和订阅的特性。开始 30 天的试用,尝试所有功能。
Elasticsearch 的最新稳定版本,能在 Elasticsearch 下载页面 找到。其他版本能在历史发布页面找到。
注意
Elasticsearch 包含 JDK 维护者(GPLv2+CE)提供的 OpenJDK捆绑版本。要使用自己的 Java 版本,查阅 JVM 版本要求。
导入 Elasticsearch PGP 密钥
我们使用带指纹的 Elasticsearch 签名密钥(PGP 密钥 D88E42B4 ,存在https://pgp.mit.edu上)签名所有的包:
4609 5ACC 8548 582C 1A26 99A9 D27D 666C D88E 42B4
下载和安装公共签名密钥:
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo gpg --dearmor -o /usr/share/keyrings/elasticsearch-keyring.gpg
从 APT 仓库安装
在继续之前,你可能需要在 Debian 上安装 apt-transport-https
包:
sudo apt-get install apt-transport-https
将仓库定义保存到 /etc/apt/sources.list.d/elastic-7.x.list
:
echo "deb [signed-by=/usr/share/keyrings/elasticsearch-keyring.gpg] https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee /etc/apt/sources.list.d/elastic-7.x.list
由于以下原因,指南不使用
add-apt-repository
:
add-apt-repository
向系统/etc/apt/sources.list
文件中添加条目,而不是/etc/apt/sources.list.d
中的每个仓库的干净文件add-apt-repository
不是许多发行版本的默认安装部分,需要许多非默认的依赖- 老版本的
add-apt-repository
总会添加一个deb-src
条目,由于我们没有提供源包,这会导致错误。如果你已经添加了deb-src
条目,在你删除deb-src
条目前,你会看到如下错误:Unable to find expected entry 'main/source/Sources' in Release file (Wrong sources.list entry or malformed file
)
你可以这样安装 Elasticsearch Debian 包:
sudo apt-get update && sudo apt-get install elasticsearch
警告
如果 Elasticsearch 仓库中存在两条相同的条目,你在
apt-get update
操作时,会看到如下错误:
Duplicate sources.list entry https://artifacts.elastic.co/packages/7.x/apt/ ...
检查
/etc/apt/sources.list.d/elasticsearch-7.x.list
的重复条目,或者在/etc/apt/sources.list.d/
中的文件和/etc/apt/sources.list
文件中定位重复条目。
注意
在基于 systemd 的发行版上,安装脚本尝试设置内核参数(如
vm.max_map_count
);你可以通过屏蔽systemd-sysctl.service
单位来跳过这个操作。
手工下载和安装 Debian 包
Elasticsearch v7.17.9 的 Debian 包,可以按以下命令从网站下载和安装:
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-amd64.deb
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-amd64.deb.sha512
shasum -a 512 -c elasticsearch-7.17.9-amd64.deb.sha512 ①
sudo dpkg -i elasticsearch-7.17.9-amd64.deb
① 比较下载的 Debian 包 SHA 值和公开的校验值。正常应该输出 elasticsearch-{version}-amd64.deb: OK
。
启用系统索引自动创建
一些商业特性会在 Elasticsearch 中自动创建索引。默认情况下, Elasticsearch 配置为允许自动创建索引而不需要额外的步骤。然而,如果你在 Elasticsearch 中禁用了自动索引创建,则必须在 elasticsearch.yml
中配置 action.auto_create_index
以允许商业特性创建以下索引:
action.auto_create_index: .monitoring*,.watches,.triggered_watches,.watcher-history*,.ml*
警告
如果你在使用 Logstash 或 Beats ,那么你很可能需要在你的
action.auto_create_index
设置中使用额外的索引名字,具体的值取决于你的本地配置。如果你不确定你环境的正确值,可以考虑设置这个值为*
以允许自动创建所有索引。
init
VS systemd
SysV Elasticsearch 在安装后不会自动启动。如何启动和停止 Elasticsearch,取决于你的系统用的 SysV init
还是 systemd
(更新的发行版用的)。你可以通过以下命令来判断用的哪个:
ps -p 1
init
运行 Elasticsearch
使用 SysV 使用 update-rc.d
命令配置当系统启动时自动启动 Elasticsearch:
sudo update-rc.d elasticsearch defaults 95 10
Elasticsearch 可以使用 service
命令来启动和停止:
sudo -i service elasticsearch start
sudo -i service elasticsearch stop
如果 Elasticsearch 由于任何原因启动失败,它会输出失败原因到标准输出(STDOUT)。日志文件可以在 /var/log/elasticsearch/
中被找到。
systemd
运行 Elasticsearch
使用 为了配置 Elasticsearch 在系统启动时自动启动,运行以下命令:
sudo /bin/systemctl daemon-reload
sudo /bin/systemctl enable elasticsearch.service
Elasticsearch 可以按以下方式启动和停止:
sudo systemctl start elasticsearch.service
sudo systemctl stop elasticsearch.service
这些命令不提供 Elasticsearch 运行成功与否的反馈。相反,信息写在位于 /var/log/elasticsearch/
中的日志文件。
如果你的 Elasticsearch 密码库受密码保护,你需要使用本地文件和 systemd
环境变量向密码库提供密码。本地文件存在时,应该受到保护,一旦 Elasticsearch 启动并运行,就可以安全删除此文件。
echo "keystore_password" > /path/to/my_pwd_file.tmp
chmod 600 /path/to/my_pwd_file.tmp
sudo systemctl set-environment ES_KEYSTORE_PASSPHRASE_FILE=/path/to/my_pwd_file.tmp
sudo systemctl start elasticsearch.service
默认情况下,Elasticsearch 服务不会在 systemd
日志中记录信息。要启用 journalctl
日志,必须从文件 elasticsearch.service
中的 ExecStart
命令行移除 --quiet
选项。
当 systemd
日志启用时,使用 journalctl
命令日志信息可用。
要跟踪日志:
sudo journalctl -f
列出 Elasticsearch 服务的日志条目:
sudo journalctl --unit elasticsearch
要列出从给定时间开始的 Elasticsearch 服务的日志条目,请执行以下操作:
sudo journalctl --unit elasticsearch --since "2016-10-30 18:17:16"
检查 man journalctl
或者 https://www.freedesktop.org/software/systemd/man/journalctl.html 获取更多的命令行选项。
提示
旧 systemd 版本的启动超时
默认情况下,Elasticsearch 将
TimeoutStartSec
参数设置为systemd
为900
秒。如果你正在运行systemd
的 238 以上版本,Elasticsearch 可以自动延长启动超时时间,即使启动时间超过 900 秒,Elasticsearch 也会重复这样做,直到启动完成。
systemd
238 之前的版本不支持超时扩展机制,如果 Elasticsearch 进程在配置的超时内没有完全启动,将终止 Elasticsearch 进程。如果发生这种情况,Elasticsearch 将在日志中报告它在启动后短时间内正常关闭:[2022-01-31T01:22:31,077][INFO ][o.e.n.Node ] [instance-0000000123] starting ... ... [2022-01-31T01:37:15,077][INFO ][o.e.n.Node ] [instance-0000000123] stopping ...
但是,
systemd
日志将报告启动超时Jan 31 01:22:30 debian systemd[1]: Starting Elasticsearch... Jan 31 01:37:15 debian systemd[1]: elasticsearch.service: Start operation timed out. Terminating. Jan 31 01:37:15 debian systemd[1]: elasticsearch.service: Main process exited, code=killed, status=15/TERM Jan 31 01:37:15 debian systemd[1]: elasticsearch.service: Failed with result 'timeout'. Jan 31 01:37:15 debian systemd[1]: Failed to start Elasticsearch.
要避免这种情况,请将
systemd
升级到至少 238 版本。你还可以通过扩展TimeoutStartSec
参数临时解决这个问题。
检查 Elasticsearch 是否正在运行
你可以通过向 localhost
的 9200
端口发送 HTTP 请求来测试 Elasticsearch 节点是否正在运行:
GET /
这会给你这样的响应:
{
"name": "Cp8oag6",
"cluster_name": "elasticsearch",
"cluster_uuid": "AT69_T_DTp-1qgIJlatQqA",
"version": {
"number": "7.17.9",
"build_flavor": "default",
"build_type": "tar",
"build_hash": "f27399d",
"build_date": "2016-03-30T09:51:41.449Z",
"build_snapshot": false,
"lucene_version": "8.11.1",
"minimum_wire_compatibility_version": "1.2.3",
"minimum_index_compatibility_version": "1.2.3"
},
"tagline": "You Know, for Search"
}
配置 Elasticsearch
/etc/elasticsearch
目录包含 Elasticsearch 默认运行时配置。该目录和所包含的所有文件所有权在包安装时设置为 root:elasticsearch
。
setgid
标志对目录 /etc/elasticsearch
应用组权限,以确保 Elasticsearch 能读取任何包含的文件和子目录。所有文件和子目录继承 root:elasticsearch
所有权。从该目录或者任何子目录运行命令,如 elasticsearch-keystore
工具 ,需要 root:elasticsearch
权限。
Elasticsearch 默认从 /etc/elasticsearch/elasticsearch.yml
文件加载它的配置。在配置 Elasticsearch 中解释了配置文件的格式。
Debian 包也有一个系统配置文件(/etc/default/elasticsearch
),它允许你设置以下的变量:
配置 | 描述 |
---|---|
ES_JAVA_HOME | 设置使用的自定义 Java 路径 |
MAX_OPEN_FILES | 打开文件的最大值,默认为 65535 |
MAX_LOCKED_MEMORY | 最大锁定内存值。如果你在 elasticsearch.yml 中使用 bootstrap.memory_lock 选项,设置为 unlimited 。 |
MAX_MAP_COUNT | 进程可能具有的最大内存映射区域数。如果你使用 mmapfs 作为索引存储类型,请确保将其设置一个高值。有关更多的信息,请查看关于 max_map_count 的 linux 内核文档。在 Elasticsearch 启动前,通过 sysctl 设置,默认为 262144 。 |
ES_PATH_CONF | 配置文件目录(需要包含 elasticsearch.yml 、jvm.options 和 log4j2.properties 文件),默认为 /etc/elasticsearch 。 |
ES_JAVA_OPTS | 你想应用的任何其他 JVM 系统属性。 |
RESTART_ON_UPGRADE | 在包升级时配置重启,默认为 false 。这意味着你必须在手工安装包后重启你的 Elasticsearch 实例。这样做的原因是为了确保集群的升级不会导致持续的分片重分配,进而导致的高网络流量和降低了集群的响应时间。 |
注意
使用
systemd
的发行版本要求需要通过systemd
配置系统资源限制,而不是通过/etc/sysconfig/elasticsearch
文件。更多信息,请参阅 Systemd 配置 。
Debian 包目录结构
Debian 包将配置文件、日志和数据目录放在基于 Debian 系统的适当位置:
类型 | 描述 | 默认位置 | 设置 |
---|---|---|---|
home | Elasticsearch 主目录或 $ES_HOME | /usr/share/elasticsearch | |
bin | 二进制脚本,包括启动节点的 elasticsearch 和安装插件的 elasticsearch-plugin | /usr/share/elasticsearch/bin | |
conf | 配置文件,包括 elasticsearch.yml | /etc/elasticsearch | ES_PATH_CONF |
conf | 环境变量,包括堆大小,文件描述符。 | /etc/default/elasticsearch | |
data | 分配在节点上的每个索引和分片的数据文件位置。可以有多个位置。 | /var/lib/elasticsearch | path.data |
jdk | 用于运行 Elasticsearch 的捆绑 Java 开发工具包。可以通过在 /etc/default/elasticsearch 中覆盖 ES_JAVA_HOME 环境变量。 | /usr/share/elasticsearch/jdk | |
logs | 日志文件位置 | /var/log/elasticsearch | path.logs |
plugins | 插件文件位置。每个插件会包含在一个子目录中。 | /usr/share/elasticsearch/plugins | |
repo | 共享文件系统仓库位置。可以有多个位置。文件系统仓库可以放在此处指定的任何目录的任何子目录中。 | 未配置 | path.repo |
下一步
你现在有一个测试 Elasticsearch 环境部署好。在你使用 Elasticsearch 正式开始开发或者生产之前,你必须做一些额外的设置:
- 学习如何配置 Elasticsearch。
- 配置重要的 Elasticsearch 设置。
- 配置重要的系统设置。
使用 RPM 安装 Elasticsearch
Elasticsearch 的 RPM 可以从我们的网站 或者从我们的 RPM 仓库下载。它可以用于在任何基于 RPM 的系统(如 OpenSuSE,SLES,Centos,Red Hat 和 Oracle Enterprise)上安装 Elasticsearch。
注意
老版本的 RPM 发行版本(如 SLES 11 和 CentOS 5)不支持 RPM 安装。请参阅 在 Linux 或 MacOS 上用存档安装 Elasticsearch 。
这个包包含免费和订阅的特性。开始 30 天的试用,尝试所有功能。
Elasticsearch 的最新稳定版本,能在 Elasticsearch 下载页面 找到。其他版本能在历史发布页面找到。
注意
Elasticsearch 包含 JDK 维护者(GPLv2+CE)提供的 OpenJDK捆绑版本。要使用自己的 Java 版本,查阅 JVM 版本要求。
导入 Elasticsearch PGP 密钥
我们使用带指纹的 Elasticsearch 签名密钥(PGP 密钥 D88E42B4 ,存在https://pgp.mit.edu上)签名所有的包:
4609 5ACC 8548 582C 1A26 99A9 D27D 666C D88E 42B4
下载和安装公共签名密钥:
rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
从 RPM 仓库安装
为基于 RedHat 的发行版,在目录 /etc/yum.repos.d/
中创建一个命名为 elasticsearch.repo
的文件,或者为基于 OpenSuSE 的发行版在目录 /etc/zypp/repos.d/
中创建文件,内容包括:
[elasticsearch]
name=Elasticsearch repository for 7.x packages
baseurl=https://artifacts.elastic.co/packages/7.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=0
autorefresh=1
type=rpm-md
仓库已准备就绪。现在可以使用以下的任一命令安装 Elasticsearch:
sudo yum install --enablerepo=elasticsearch elasticsearch ①
sudo dnf install --enablerepo=elasticsearch elasticsearch ②
sudo zypper modifyrepo --enable elasticsearch && \
sudo zypper install elasticsearch; \
sudo zypper modifyrepo --disable elasticsearch ③
① 在 CentOS 和老的基于 Red Hat 的发行版上使用 yum
。
② 在 Fedora 和其他新的 Red Hat 的发行版上使用 dnf
。
③ 在基于 OpenSUSE 的发行版本上使用 zypper
。
注意
配置的仓库默认是禁用的。这排除了升级系统其他部分时意外升级 Elasticsearch 的可能性。每个安装或者升级命令必须显示启用仓库,如上面的示例命令所示。
手工下载和安装 RPM
Elasticsearch v7.17.9 的 RPM,可以按以下命令从网站下载和安装:
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-x86_64.rpm
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.9-x86_64.rpm.sha512
shasum -a 512 -c elasticsearch-7.17.9-x86_64.rpm.sha512 ①
sudo rpm --install elasticsearch-7.17.9-x86_64.rpm
① 比较下载的 RPM SHA 值和公开的校验值。正常应该输出 elasticsearch-{version}-x86_64.rpm: OK
。
注意
在基于
systemd
的发行版上,安装脚本将尝试设置内核参数(例如vm.max_map_count
);你可以通过屏蔽systemd-sysctl.service
单元来跳过此操作。
启用系统索引自动创建
一些商业特性会在 Elasticsearch 中自动创建索引。默认情况下, Elasticsearch 配置为允许自动创建索引而不需要额外的步骤。然而,如果你在 Elasticsearch 中禁用了自动索引创建,则必须在 elasticsearch.yml
中配置 action.auto_create_index
以允许商业特性创建以下索引:
action.auto_create_index: .monitoring*,.watches,.triggered_watches,.watcher-history*,.ml*
警告
如果你在使用 Logstash 或 Beats ,那么你很可能需要在你的
action.auto_create_index
设置中使用额外的索引名字,具体的值取决于你的本地配置。如果你不确定你环境的正确值,可以考虑设置这个值为*
以允许自动创建所有索引。
init
VS systemd
SysV Elasticsearch 在安装后不会自动启动。如何启动和停止 Elasticsearch,取决于你的系统用的 SysV init
还是 systemd
(更新的发行版用的)。你可以通过以下命令来判断用的哪个:
ps -p 1
init
运行 Elasticsearch
使用 SysV 使用 chkconfig
命令配置 Elasticsearch 在系统引导时自动启动:
sudo chkconfig --add elasticsearch
Elasticsearch 可以使用 service
命令来启动和停止:
sudo -i service elasticsearch start
sudo -i service elasticsearch stop
如果 Elasticsearch 由于任何原因启动失败,它会输出失败原因到标准输出(STDOUT)。日志文件可以在 /var/log/elasticsearch/
中被找到。
systemd
运行 Elasticsearch
使用 为了配置 Elasticsearch 在系统启动时自动启动,运行以下命令:
sudo /bin/systemctl daemon-reload
sudo /bin/systemctl enable elasticsearch.service
Elasticsearch 可以按以下方式启动和停止:
sudo systemctl start elasticsearch.service
sudo systemctl stop elasticsearch.service
这些命令不提供 Elasticsearch 运行成功与否的反馈。相反,信息写在位于 /var/log/elasticsearch/
中的日志文件。
如果你的 Elasticsearch 密码库受密码保护,你需要使用本地文件和 systemd
环境变量向密码库提供密码。本地文件存在时,应该受到保护,一旦 Elasticsearch 启动并运行,就可以安全删除此文件。
echo "keystore_password" > /path/to/my_pwd_file.tmp
chmod 600 /path/to/my_pwd_file.tmp
sudo systemctl set-environment ES_KEYSTORE_PASSPHRASE_FILE=/path/to/my_pwd_file.tmp
sudo systemctl start elasticsearch.service
默认情况下,Elasticsearch 服务不会在 systemd
日志中记录信息。要启用 journalctl
日志,必须从文件 elasticsearch.service
中的 ExecStart
命令行移除 --quiet
选项。
当 systemd
日志启用时,使用 journalctl
命令日志信息可用。
要跟踪日志:
sudo journalctl -f
列出 Elasticsearch 服务的日志条目:
sudo journalctl --unit elasticsearch
要列出从给定时间开始的 Elasticsearch 服务的日志条目,请执行以下操作:
sudo journalctl --unit elasticsearch --since "2016-10-30 18:17:16"
检查 man journalctl
或者 https://www.freedesktop.org/software/systemd/man/journalctl.html 获取更多的命令行选项。
提示
旧 systemd 版本的启动超时
默认情况下,Elasticsearch 将
TimeoutStartSec
参数设置为systemd
为900
秒。如果你正在运行systemd
的 238 以上版本,Elasticsearch 可以自动延长启动超时时间,即使启动时间超过 900 秒,Elasticsearch 也会重复这样做,直到启动完成。
systemd
238 之前的版本不支持超时扩展机制,如果 Elasticsearch 进程在配置的超时内没有完全启动,将终止 Elasticsearch 进程。如果发生这种情况,Elasticsearch 将在日志中报告它在启动后短时间内正常关闭:[2022-01-31T01:22:31,077][INFO ][o.e.n.Node ] [instance-0000000123] starting ... ... [2022-01-31T01:37:15,077][INFO ][o.e.n.Node ] [instance-0000000123] stopping ...
但是,
systemd
日志将报告启动超时Jan 31 01:22:30 debian systemd[1]: Starting Elasticsearch... Jan 31 01:37:15 debian systemd[1]: elasticsearch.service: Start operation timed out. Terminating. Jan 31 01:37:15 debian systemd[1]: elasticsearch.service: Main process exited, code=killed, status=15/TERM Jan 31 01:37:15 debian systemd[1]: elasticsearch.service: Failed with result 'timeout'. Jan 31 01:37:15 debian systemd[1]: Failed to start Elasticsearch.
要避免这种情况,请将
systemd
升级到至少 238 版本。你还可以通过扩展TimeoutStartSec
参数临时解决这个问题。
检查 Elasticsearch 是否正在运行
你可以通过向 localhost
的 9200
端口发送 HTTP 请求来测试 Elasticsearch 节点是否正在运行:
GET /
这会给你这样的响应:
{
"name": "Cp8oag6",
"cluster_name": "elasticsearch",
"cluster_uuid": "AT69_T_DTp-1qgIJlatQqA",
"version": {
"number": "7.17.9",
"build_flavor": "default",
"build_type": "tar",
"build_hash": "f27399d",
"build_date": "2016-03-30T09:51:41.449Z",
"build_snapshot": false,
"lucene_version": "8.11.1",
"minimum_wire_compatibility_version": "1.2.3",
"minimum_index_compatibility_version": "1.2.3"
},
"tagline": "You Know, for Search"
}
配置 Elasticsearch
/etc/elasticsearch
目录包含 Elasticsearch 默认运行时配置。该目录和所包含的所有文件所有权在包安装时设置为 root:elasticsearch
。
setgid
标志对目录 /etc/elasticsearch
应用组权限,以确保 Elasticsearch 能读取任何包含的文件和子目录。所有文件和子目录继承 root:elasticsearch
所有权。从该目录或者任何子目录运行命令,如 elasticsearch-keystore
工具 ,需要 root:elasticsearch
权限。
Elasticsearch 默认从 /etc/elasticsearch/elasticsearch.yml
文件加载它的配置。在配置 Elasticsearch 中解释了配置文件的格式。
Debian 包也有一个系统配置文件(/etc/default/elasticsearch
),它允许你设置以下的变量:
配置 | 描述 |
---|---|
ES_JAVA_HOME | 设置使用的自定义 Java 路径 |
MAX_OPEN_FILES | 打开文件的最大值,默认为 65535 |
MAX_LOCKED_MEMORY | 最大锁定内存值。如果你在 elasticsearch.yml 中使用 bootstrap.memory_lock 选项,设置为 unlimited 。 |
MAX_MAP_COUNT | 进程可能具有的最大内存映射区域数。如果你使用 mmapfs 作为索引存储类型,请确保将其设置一个高值。有关更多的信息,请查看关于 max_map_count 的 linux 内核文档。在 Elasticsearch 启动前,通过 sysctl 设置,默认为 262144 。 |
ES_PATH_CONF | 配置文件目录(需要包含 elasticsearch.yml 、jvm.options 和 log4j2.properties 文件),默认为 /etc/elasticsearch 。 |
ES_JAVA_OPTS | 你想应用的任何其他 JVM 系统属性。 |
RESTART_ON_UPGRADE | 在包升级时配置重启,默认为 false 。这意味着你必须在手工安装包后重启你的 Elasticsearch 实例。这样做的原因是为了确保集群的升级不会导致持续的分片重分配,进而导致的高网络流量和降低了集群的响应时间。 |
注意
使用
systemd
的发行版本要求需要通过systemd
配置系统资源限制,而不是通过/etc/sysconfig/elasticsearch
文件。更多信息,请参阅 Systemd 配置 。
RPM 目录结构
RPM 包将配置文件、日志和数据目录放在基于 RPM 系统的适当位置:
类型 | 描述 | 默认位置 | 设置 |
---|---|---|---|
home | Elasticsearch 主目录或 $ES_HOME | /usr/share/elasticsearch | |
bin | 二进制脚本,包括启动节点的 elasticsearch 和安装插件的 elasticsearch-plugin | /usr/share/elasticsearch/bin | |
conf | 配置文件,包括 elasticsearch.yml | /etc/elasticsearch | ES_PATH_CONF |
conf | 环境变量,包括堆大小,文件描述符。 | /etc/default/elasticsearch | |
data | 分配在节点上的每个索引和分片的数据文件位置。可以有多个位置。 | /var/lib/elasticsearch | path.data |
jdk | 用于运行 Elasticsearch 的捆绑 Java 开发工具包。可以通过在 /etc/default/elasticsearch 中覆盖 ES_JAVA_HOME 环境变量。 | /usr/share/elasticsearch/jdk | |
logs | 日志文件位置 | /var/log/elasticsearch | path.logs |
plugins | 插件文件位置。每个插件会包含在一个子目录中。 | /usr/share/elasticsearch/plugins | |
repo | 共享文件系统仓库位置。可以有多个位置。文件系统仓库可以放在此处指定的任何目录的任何子目录中。 | 未配置 | path.repo |
下一步
你现在有一个测试 Elasticsearch 环境部署好。在你使用 Elasticsearch 正式开始开发或者生产之前,你必须做一些额外的设置:
- 学习如何配置 Elasticsearch。
- 配置重要的 Elasticsearch 设置。
- 配置重要的系统设置。
使用 Docker 安装 Elasticsearch
Elasticsearch 也提供 Docker 镜像。所有已发布的 Docker 镜像列表和版本都在 www.docker.elastic.co 上。源文件在 github。
软件包包含免费和订阅的特性。开始 30 天的试用,尝试所有功能。
拉取镜像拉取镜像
Docker 上获取 Elasticsearch,简单到只要向 Elastic Docker 仓库发出 docker pull
命令一样。
docker pull docker.elastic.co/elasticsearch/elasticsearch:7.17.9
使用 Docker 启动单节点集群
要启动单节点 Elasticsearch 集群进行开发或测试,请指定单节点发现 以绕过启动检查:
docker run -p 127.0.0.1:9200:9200 -p 127.0.0.1:9300:9300 -e "discovery.type=single-node" docker.elastic.co/elasticsearch/elasticsearch:7.17.9
使用 Docker Compose 启动多节点集群
为了在 Docker 中启动和运行一个三节点 Elasticsearch 集群,你可以使用 Docker Compose:
- 创建一个 docker-compose.yml 文件:
version: '2.2'
services:
es01:
image: docker.elastic.co/elasticsearch/elasticsearch:7.17.9
container_name: es01
environment:
- node.name=es01
- cluster.name=es-docker-cluster
- discovery.seed_hosts=es02,es03
- cluster.initial_master_nodes=es01,es02,es03
- bootstrap.memory_lock=true
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
ulimits:
memlock:
soft: -1
hard: -1
volumes:
- data01:/usr/share/elasticsearch/data
ports:
- 9200:9200
networks:
- elastic
es02:
image: docker.elastic.co/elasticsearch/elasticsearch:7.17.9
container_name: es02
environment:
- node.name=es02
- cluster.name=es-docker-cluster
- discovery.seed_hosts=es01,es03
- cluster.initial_master_nodes=es01,es02,es03
- bootstrap.memory_lock=true
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
ulimits:
memlock:
soft: -1
hard: -1
volumes:
- data02:/usr/share/elasticsearch/data
networks:
- elastic
es03:
image: docker.elastic.co/elasticsearch/elasticsearch:7.17.9
container_name: es03
environment:
- node.name=es03
- cluster.name=es-docker-cluster
- discovery.seed_hosts=es01,es02
- cluster.initial_master_nodes=es01,es02,es03
- bootstrap.memory_lock=true
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
ulimits:
memlock:
soft: -1
hard: -1
volumes:
- data03:/usr/share/elasticsearch/data
networks:
- elastic
volumes:
data01:
driver: local
data02:
driver: local
data03:
driver: local
networks:
elastic:
driver: bridge
注意
例子中的
docker-compose.yml
使用环境变量ES_JAVA_OPTS
手工设置堆大小为 512 MB。我们不推荐在生产环境使用ES_JAVA_OPTS
。参看手工设置堆大小。
这个示例 Docker Compose 文件,提供了一个三节点 Elasticsearch 集群。节点 es01
监听 localhost:9200
,es02
和 es03
通过 Docker 网络与 es01
通信。
请注意此配置在所有网络接口上暴露端口 9200,并且考虑到 Docker 怎么在 Linux 上操作 iptables
,这意味着你的 Elasticsearch 集群可以公开访问,可能会忽略任何防火墙设置。如果你不想暴露端口 9200,转而使用反向代理,在 docker-compose.yml 文件中用 127.0.0.1:9200:9200
替代 9200:9200
。Elasticsearch 将只能从主机自身访问。
Docker 命名卷data01
、data02
和 data03
存储节点数据目录,以便重启时数据持续存在。如果他们不存在,docker-compose
将会在你创建集群时创建他们。
- 确保 Docker Engine 分配了至少 4 GiB 内存。在 Docker 桌面中,你可以在首选项(macOS)或设置(Windows)的高级选项卡中配置资源使用。
注意
在 Linux 上,Docker Compose 未与 Docker 一起预装。在 docs.docker.com 查看安装指南:在 Linux 安装 Compose
- 运行
docker-compose
以启动集群:
docker-compose up
- 提交请求
_cat/nodes
查看节点是否启动运行
curl -X GET "localhost:9200/_cat/nodes?v=true&pretty"
日志消息进入控制台,由配置的 Docker 日志驱动处理。默认情况下,你可以使用 docker logs
访问日志。如果你更想 Elasticsearch 容器把日志写入磁盘,设置环境变量 ES_LOG_STYLE
为 file。这将导致 Elasticsearch 使用与其他 Elasticsearch 分发格式相同的配置。
要停止集群,运行 docker-compose down
。当你使用 docker-compose up
重启集群,Docker 卷中的数据将被保存和加载。为了在停止集群时删除数据卷,指定 -v
选项: docker-compose down -v
。
启动开启 TLS 的多节点集群
参阅在 Elasticsearch Docker 容器的加密通信 和在 Docker 中开启 TLS 运行 Elastic 栈 。
在生产环境使用 Docker 镜像
以下要求和建议适用于生产环境中在 Docker 中运行 Elasticsearch。
设置 vm.max_map_count
至少为 262144
在生产环境使用,vm.max_map_count
内核设置必须至少为 262144
。
如何设置 vm.max_map_count
基于你的平台:
- Linux
查询 vm.max_map_count
当前的值设置,运行:
grep vm.max_map_count /etc/sysctl.conf
vm.max_map_count=262144
在运行的系统中应用此配置,执行:
sysctl -w vm.max_map_count=262144
要永久更改 vm.max_map_count
设置的值,请更新 /etc/sysctl.conf
中的值。
- 带 Mac 版 Docker的 macOS
vm.max_map_count
设置必须在 xhyve 虚机中设置:
- 从命令行运行:
screen ~/Library/Containers/com.docker.docker/Data/vms/0/tty
- 按回车,使用
sysctl
配置vm.max_map_count
:
sysctl -w vm.max_map_count=262144
- 退出
screen
会话,按Ctrl a d
- 带 Docker 桌面版 的 Windows 和 macOS
vm.max_map_count
必须通过 docker-machine 设置。
docker-machine ssh
sudo sysctl -w vm.max_map_count=262144
- 带 Docker WSL 2 后端桌面版 的 Windows
vm.max_map_count
必须在 docker-desktop 容器中设置。
wsl -d docker-desktop
sysctl -w vm.max_map_count=262144
配置文件必须可被用户 elasticsearch
用户读取
默认情况下,Elasticsearch 通过 uid:gid 1000:0
,以用户 elasticsearch
在容器中运行。
警告
一个例外是 OpenShift ,它使用任意分配的用户 ID 运行容器。OpenShift 显示的持久卷的 gid 设置为
0
,它可以无需调整的运行。
如果你要绑定挂载本地目录或文件,它必须可被用户 elasticsearch
读取。此外,此用户对配置、数据和日志目录 有写权限(Elasticsearch 需要对 config
目录有写权限,这样它才能生成密钥库)。一个好的策略是为本地目录 gid 0
分配组访问权限。
例如,要准备本地目录以通过绑定挂载来存储数据,按以下操作:
mkdir esdatadir
chmod g+rwx esdatadir
chgrp 0 esdatadir
你也可以使用自定义 UID 和 GID 来运行 Elasticsearch 容器。你必须确保文件权限不会阻止Elasticsearch的执行。你可以使用以下两种选择之一:
- 绑定挂载每个
config
、data
和logs
目录。如果你打算安装插件,而不想创建自定义 Docker 镜像 ,则还必须绑定挂载plugins
目录。 - 为
docker run
传递命令行选项--group-add 0
。这样可以确保运行 Elasticsearch 的用户也是容器root
(GID 0)组的成员。
最后,你还可以通过环境变量 TAKE_FILE_OWNERSHIP
强制容器更改用于数据和日志目录 的绑定挂载的所有权。当你这样做的时候,它们将属于 uid:gid 1000:0
,它提供了 Elasticsearch 进程所需的读写访问权限。
为 nofile 和 nproc 增加 ulimit
必须为 Elasticsearch 容器提供 nofile 和 nproc 增加 ulimit。验证 Docker 的守护进程是否的 init system 是否将它们设置为可接受的值。
为了检测 Docker 守护进程默认的 ulimit,执行:
docker run --rm docker.elastic.co/elasticsearch/elasticsearch:{version} /bin/bash -c 'ulimit -Hn && ulimit -Sn && ulimit -Hu && ulimit -Su'
如果需要,在守护进程中调整他们,或者在每个容器中重载他们。例如,使用 docker run
时,设置:
--ulimit nofile=65535:65535
禁用 swapping
为了提高性能和节点稳定性,swapping 需要禁用。有关执行此操作的更多信息,请参阅 禁用 swapping 。
如果你选择 bootstrap.memory_lock: true
,你也需要在 Docker 守护进程中定义 memlock: true
限定,或者如示例 compose 文件 中显示的设置。当使用 docker run
,你可以指定:
-e "bootstrap.memory_lock=true" --ulimit memlock=-1:-1
随机发布端口
镜像暴露 TCP 端口 9200 和 9300。对生产环境集群,推荐通过 --publish-all
随机发布端口,除非你为每个主机固定一个容器。
手工设置堆大小
默认情况下,Elasticsearch 基于节点的角色 和节点容器总可用内存,自动地设置 JVM 堆。对大多数生产环境,我们推荐默认大小设置。如果有需要,你可以通过手工设置 JVM 堆大小来重载默认设置。
为了在生产环境手工设置堆大小,绑定挂载包含了你期望的堆大小 设置的 JVM 选项 文件(在 /usr/share/elasticsearch/configuring_elasticsearchjvm.options.d
中)。
用于测试的话,你可以通过环境变量 ES_JAVA_OPTS
手工设置堆大小。例如,要用 16 GB,通过 docker run
指定 -e ES_JAVA_OPTS="-Xms16g -Xmx16g"
。ES_JAVA_OPTS
重载所有其他 JVM 选项。在生产环境,我们不推荐使用 ES_JAVA_OPTS
。上述的 docker-compose.yml
可以看到设置堆大小为 512 MB。
部署固定为指定的镜像版本
将部署固定为指定的 Elasticsearch Docker 镜像。例如 docker.elastic.co/elasticsearch/elasticsearch:7.17.9
。
始终绑定数据卷
出于以下原因,你应该对 /usr/share/elasticsearch/data
使用卷绑定:
- 如果容器被杀死,Elasticsearch 节点数据不会丢失
- Elasticsearch 对 I/O 敏感,而 Docker 存储驱动不适合快速 I/O
- 允许使用高级 Docker 卷插件
禁止使用 loop-lvm
模式
如果你正在使用 devicemapper 存储驱动,不要使用默认的 loop-lvm
模式。配置 docker-engine 以使用 direct-lvm 。
集中你的日志
考虑使用不同的日志驱动来集中日志。还要注意,默认的 json-file 日志驱动不适合生产环境。
使用 Docker 配置 Elasticsearch
当你在 Docker 中运行时, Elasticsearch 配置文件 从 /usr/share/elasticsearch/config/
加载。
为了使用自定义配置文件,你要绑定挂载文件 到镜像中的配置文件上。
你可以通过环境变量设置独立的 Elasticsearch 配置参数。示例 compose 文件 和单节点示例 就用的这种方法。你可以直接使用设置名称作为环境变量名称。如果你不能这样做,例如因为你的编制平台禁止在环境变量名称中使用句点,那么你可以使用另一种样式,按以下方式转换设置名称。
- 将设置名称更改为大写字母
- 以
ES_SETTING_
为前缀 - 通过复制转义任何下划线(
_
) - 将所有句点(
.
)转换为下划线(_
)
例如,-e bootstrap.memory_lock=true
变为 -e ES_SETTING_BOOTSTRAP_MEMORY__LOCK=true
。
你可以使用文件的内容来设置 ELASTIC_PASSWORD
或 KEYSTORE_PASSWORD
环境变量的值,方法是在环境变量名后面加上 _FILE
。这对于秘密传输配置(如密码)给 Elasticsearch,而不是直接指定它们非常有用。
例如,为了从文件设置 Elasticsearch 的启动密码,你可以绑定挂载这个文件,然后在挂载路径中设置环境变量 ELASTIC_PASSWORD_FILE
。如果你挂载的密码文件为 /run/secrets/bootstrapPassword.txt
,如下指定:
-e ELASTIC_PASSWORD_FILE=/run/secrets/bootstrapPassword.txt
你还可以通过传递 Elasticsearch 配置参数作为命令行选项,来重载默认的命令。例如:
docker run <various parameters> bin/elasticsearch -Ecluster.name=mynewclustername
虽然绑定挂载配置文件通常在生产环境是首选方法,你也可以创建包含你自己配置的自定义 Docker 镜像 。
挂载 Elasticsearch 配置文件
创建自定义配置文件,将其绑定挂载到 Docker 镜像的相应文件上。例如,使用 docker run
绑定挂载 custom_elasticsearch.yml
,如下指定:
-v full_path_to/custom_elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml
如果绑定挂载自定义 elasticsearch.yml
文件,请确保它包含 network.host:0.0.0.0.0
设置。此设置确保节点可以访问 HTTP 和传输流量,前提是其端口是公开的。Docker 镜像的内置 elasticsearch.yml
文件默认包含此设置。
警告
容器以用户
elasticsearch
,使用uid:gid 1000:0
运行 Elasticsearch。绑定挂载的主机目录和文件,必须能被此用户访问,且数据和日志目录必须能被此用户写入。
挂载 Elasticsearch 密钥库
默认情况下,Elasticsearch 会为安全设置 自动生成密钥库文件。这个文件是混淆的,但没有加密。
要使用密码加密你的安全设置,并让它们在容器之外持久存在,请使用 docker run
命令手动创建密钥存储库。命令必须:
- 绑定装载
config
目录。该命令将在此目录中创建一个elasticsearch.keystore
文件。为了避免错误,不要直接绑定挂载elasticsearch.keystore
文件。 - 使用带有
create -p
选项的elasticsearch-keystore
工具。系统将提示你输入密钥库的密码。
例如:
docker run -it --rm \
-v full_path_to/config:/usr/share/elasticsearch/config \
docker.elastic.co/elasticsearch/elasticsearch:7.17.9 \
bin/elasticsearch-keystore create -p
还可以使用 docker run
命令在密钥存储库中添加或更新安全设置。系统将提示你输入设置值。如果加密了密钥存储库,还会提示你输入密钥存储库密码。
ocker run -it --rm \
-v full_path_to/config:/usr/share/elasticsearch/config \
docker.elastic.co/elasticsearch/elasticsearch:7.17.9 \
bin/elasticsearch-keystore \
add my.secure.setting \
my.other.secure.setting
如果你已经创建了密钥库,并且不需要更新它,那么可以直接绑定挂载 elasticsearch.keystore
文件。你可以使用 KEYSTORE_PASSWORD
环境变量在启动时为容器提供密钥库密码。例如,docker run
命令可能具有以下选项:
-v full_path_to/config/elasticsearch.keystore:/usr/share/elasticsearch/config/elasticsearch.keystore
-e KEYSTORE_PASSWORD=mypassword
使用自定义 Docker 镜像
在某些环境中,准备一个包含你的配置的自定义镜像可能更有意义。实现这一点的 Dockerfile
可能非常简单:
FROM docker.elastic.co/elasticsearch/elasticsearch:7.17.9
COPY --chown=elasticsearch:elasticsearch elasticsearch.yml /usr/share/elasticsearch/config/
然后,你可以使用该工具构建和运行镜像:
docker build --tag=elasticsearch-custom .
docker run -ti -v /usr/share/elasticsearch/data elasticsearch-custom
有些插件需要额外的安全权限。你必须明确地接受它们:
- 在运行 Docker 镜像时附加
tty
,并在提示时允许权限。 - 通过在插件安装命令中添加
--batch
标志来检查安全权限并接受它们(如果合适的话)。
更多信息请参见插件管理。
排查 Elasticsearch 的 Docker 错误
下面是如何解决使用 Docker 运行 Elasticsearch 时的常见错误。
elasticsearch.keystore 是一个目录
Exception in thread "main" org.elasticsearch.bootstrap.BootstrapException: java.io.IOException: Is a directory: SimpleFSIndexInput(path="/usr/share/elasticsearch/config/elasticsearch.keystore") Likely root cause: java.io.IOException: Is a directory
一个与密钥库相关 的 docker run
命令试图直接绑定挂载一个不存在的 elasticsearch.keystore
文件。如果使用 -v
或 --volume
标志来装载不存在的文件,Docker 会创建一个同名目录。
要解决此错误:
- 删除
config
目录中的elasticsearch.keystore
目录。 - 更新
-v
或--volume
标志以指向配置目录路径,而不是密钥库文件的路径。有关示例,请参阅创建加密的 Elasticsearch密钥库 。 - 请重试该命令。
elasticsearch.keystore:设备或资源繁忙
Exception in thread "main" java.nio.file.FileSystemException: /usr/share/elasticsearch/config/elasticsearch.keystore.tmp -> /usr/share/elasticsearch/config/elasticsearch.keystore: Device or resource busy
docker run
命令试图在直接绑定挂载 elasticsearch.keystore
文件的同时更新密钥库 。要更新密钥库,容器需要访问 config 目录中的其他文件,如 keystore.tmp
。
要解决此错误:
- 更新
-v
或--volume
标志以指向config
目录路径,而不是密钥库文件的路径。有关示例,请参阅创建加密的 Elasticsearch 密钥库 。 - 请重试该命令。
下一步
你现在有一个测试 Elasticsearch 环境部署好。在你使用 Elasticsearch 正式开始开发或者生产之前,你必须做一些额外的设置:
- 学习如何配置 Elasticsearch。
- 配置重要的 Elasticsearch 设置。
- 配置重要的系统设置。
使用 Homebrew 在 macOS 上安装 Elasticsearch
Elasticsearch 发布了 Homebrew formulae,所以你可以通过 Homebrew包管理器安装 Elasticsearch。
要使用 Homebrew 安装,你要先连接上(tap) Elastic Homebrew 仓库:
brew tap elastic/tap
如果你已经连接到了 Elasticsearch Homebrew 仓库,你可以使用 brew install
安装 Elasticsearch:
brew install elastic/tap/elasticsearch-full
Homebrew 安装的目录结构
当你使用 brew install
安装 Elasticsearch,配置文件、日志和数据目录存储在以下位置。
类型 | 描述 | 默认位置 | 设置 |
---|---|---|---|
home | Elasticsearch 主目录或 $ES_HOME | /usr/local/var/homebrew/linked/elasticsearch-full | |
bin | 二进制脚本,包括启动节点的 elasticsearch 和安装插件的 elasticsearch-plugin | /usr/local/var/homebrew/linked/elasticsearch-full/bin | |
conf | 配置文件,包括 elasticsearch.yml | /usr/local/etc/elasticsearch | ES_PATH_CONF |
data | 分配在节点上的每个索引和分片的数据文件位置。 | /usr/local/var/lib/elasticsearch | path.data |
logs | 日志文件位置 | /usr/local/var/log/elasticsearch | path.logs |
plugins | 插件文件位置。每个插件会包含在一个子目录中。 | /usr/local/var/homebrew/linked/elasticsearch/plugins |
下一步
你现在有一个测试 Elasticsearch 环境部署好。在你使用 Elasticsearch 正式开始开发或者生产之前,你必须做一些额外的设置:
- 学习如何配置 Elasticsearch。
- 配置重要的 Elasticsearch 设置。
- 配置重要的系统设置。
配置 Elasticsearch
Elasticsearch 具有良好的默认值,只需要很少的配置。可以使用集群更新设置 API 在运行的集群上更改大多数设置。
配置文件应包含特定于节点的设置(如 node.name
和路径),或节点加入群集所需的设置,如 cluster.name
和 network.host
。
- 配置文件位置
Elasticsearch有三个配置文件:
elasticsearch.yml
用于配置 Elasticsearchjvm.options
用于配置 Elasticsearch JVM 设置log4j2.properties
用于配置 Elasticsearch 日志记录
这些文件位于 config 目录中,其默认位置取决于安装是来自存档发行版(tar.gz
或 zip
)还是软件包发行版(Debian 或 RPM 软件包)。
对于压缩分发版,配置目录位置默认为 $ES_HOME/config
。可以通过 ES_PATH_CONF
环境变量更改配置目录的位置,如下所示:
ES_PATH_CONF=/path/to/my/config ./bin/elasticsearch
或者,你可以通过命令行或 shell 概要文件导出 ES_PATH_CONF
环境变量。
对于包发行版,配置目录位置默认为 /etc/elasticsearch
。还可以通过 ES_PATH_CONF
环境变量更改配置目录的位置,但请注意,在 shell 中设置此值是不够的。相反,这个变量来源于 /etc/default/elasticsearch
(对于 Debian 包)和 /etc/sysconfig/elasticsearch
(对于 RPM 包)。你需要相应地编辑其中一个文件中的 ES_PATH_CONF=/etc/elasticsearch
条目,以更改配置目录位置。
- 配置文件格式
配置格式为 YAML。以下是更改数据和日志目录路径的示例:
path:
data: /var/lib/elasticsearch
logs: /var/log/elasticsearch
还可以按如下方式展平设置:
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
在 YAML 中,可以将非标量值格式化为序列:
discovery.seed_hosts:
- 192.168.1.10:9300
- 192.168.1.11
- seeds.mydomain.com
虽然不太常见,但也可以将非标量值格式化为数组:
discovery.seed_hosts: [ "192.168.1.10:9300", "192.168.1.11", "seeds.mydomain.com" ]
- 环境变量替代
配置文件中使用 ${...}
符号引用的环境变量将替换为环境变量的值。例如:
node.name: ${HOSTNAME}
network.host: ${ES_NETWORK_HOST}
环境变量的值必须是简单字符串。使用逗号分隔的字符串提供 Elasticsearch 将解析为列表的值。例如,Elasticsearch 将以下字符串拆分为 ${HOSTNAME}
环境变量的值列表:
export HOSTNAME="host1,host2"
- 集群和节点设置类型
集群和节点设置可以根据配置方式进行分类:
- 动态
你可以使用集群更新设置 API 在正在运行的集群上配置和更新动态设置。你还可以使用 elasticsearch.yml
在未启动或关闭的节点上本地配置动态设置。
使用集群更新设置 API 进行的更新可以是持久的,适用于跨集群重新启动;也可以是瞬时的,在集群重新启动后重置。你还可以通过使用 API 为瞬态或持久设置分配 null
来重置它们。
如果你使用多个方法配置同一设置,Elasticsearch 将按以下优先顺序应用设置:
1. 瞬态设置
2. 持续设置
3. `elasticsearch.yml` 设置
4. 默认设置值
例如,可以应用瞬态设置来覆盖持久设置或 elasticsearch.yml
设置。但是,更改 elasticsearch.yml
设置不会覆盖已定义的瞬态或持久设置。
注意
如果使用 Elasticsearch 服务,请使用用户设置 功能配置所有集群设置。此方法允许 Elasticsearch 服务自动拒绝可能破坏集群的不安全设置。
如果你在自己的硬件上运行 Elasticsearch,请使用集群更新设置 API 配置动态集群设置。仅使用
elasticsearch.yml
用于静态集群设置和节点设置。API 不需要重新启动,并确保设置的值在所有节点上都相同。
警告
我们不再建议使用临时集群设置。请改用永久集群设置。如果集群变得不稳定,瞬态设置可能会意外清除,从而导致可能不需要的集群配置。参阅瞬态设置迁移指南。
- 静态
只能使用 elasticsearch.yml
在未启动或关闭的节点上配置静态设置。
必须在集群中的每个相关节点上设置静态设置。
重要的 Elasticsearch 配置
Elasticsearch 只需要很少的配置即可开始,但在生产中使用集群之前,必须考虑以下几点:
我们的Elastic Cloud 服务自动配置这些项目,默认情况下,使你的集群生产就绪。
路径设置
Elasticsearch 将索引的数据写入索引,并将数据流写入 data
目录。Elasticsearch 将自己的应用程序日志写入 logs
目录,其中包含有关集群运行状况和操作的信息。
对于 macOS .tar.gz
,Linux .tar.gz
和 Windows .zip
安装,data
和 logs
默认是 $ES_HOME
的子目录。然而,$ES_HOME
中的文件可能在升级过程中被删除。
在生产中,我们强烈建议你设置 elasticsearch.yml
中的 path.data
和 path.logs
在 $ES_HOME
之外的位置。默认情况下,Docker
、Debian
和 RPM
安装将数据和日志写入 $ES_HOME
之外的位置。
支持的 path.data
和 path.logs
。值因平台而异:
- 类 Unix 系统
Linux 和 macOS 安装支持 Unix 风格的路径:
path:
data: /var/data/elasticsearch
logs: /var/log/elasticsearch
- Windows
Windows 安装支持带转义反斜杠的 DOS 路径:
path:
data: "C:\\Elastic\\Elasticsearch\\data"
logs: "C:\\Elastic\\Elasticsearch\\logs"
警告
不要修改数据目录中的任何内容或运行可能会干扰其内容的进程。如果 Elasticsearch 以外的其他内容修改了数据目录的内容,则 Elasticsearch 可能会失败,报告损坏或其他数据不一致,或者可能在默默丢失部分数据后正常工作。不要尝试对数据目录进行文件系统备份;不支持还原此类备份的方法。相反,请使用快照和还原 来安全地进行备份。不要在数据目录上运行病毒扫描程序。病毒扫描程序可能会阻止 Elasticsearch 正常工作,并可能会修改数据目录的内容。数据目录不包含可执行文件,因此病毒扫描只会发现误报。
多数据路径
警告
7.13.0 版本已弃用
如果需要,可以在 path.data
中指定多个路径。Elasticsearch 跨所有提供的路径存储节点的数据,但将每个分片的数据保持在同一路径上。
Elasticsearch 不平衡节点数据路径上的分片。单个路径中的高磁盘使用率可以触发整个节点的高磁盘利用率水印 。如果触发,Elasticsearch 将不会向节点添加分片,即使节点的其他路径具有可用磁盘空间。如果需要额外的磁盘空间,建议你添加新节点,而不是其他数据路径。
- 类 Unix 系统
Linux 和 macOS 安装支持 path.data
中的多个 Unix 风格路径:
path:
data:
- /mnt/elasticsearch_1
- /mnt/elasticsearch_2
- /mnt/elasticsearch_3
- Windows
Windows 安装支持 path.data
中的多个 DOS 路径:
path:
data:
- "C:\\Elastic\\Elasticsearch_1"
- "E:\\Elastic\\Elasticsearch_1"
- "F:\\Elastic\\Elasticsearch_3"
从多个数据路径迁移
支持多数据路径在 7.13 中已被弃用,并将在未来版本中删除。
作为多数据路径的替代方案,你可以使用硬件虚拟化层(如 RAID)或软件虚拟化层,如 Linux 上的逻辑卷管理器(LVM)或 Windows 上的存储空间,创建跨越多个磁盘的文件系统。如果希望在一台计算机上使用多个数据路径,则必须为每个数据路径运行一个节点。
如果当前在高可用集群 中使用多个数据路径,则可以迁移到为每个节点使用单一路径的设置,而无需使用类似于滚动重启 的过程进行停机:依次关闭每个节点,并将其替换为一个或多个节点,每个节点都配置为使用单一数据路径。更详细地说,对于当前具有多个数据路径的每个节点,应遵循以下过程。原则上,你可以在滚动升级到 8.0 期间执行此迁移,但我们建议在开始升级之前迁移到单个数据路径设置。
创建快照以在发生灾难时保护你的数据。
可选地,通过使用分配过滤器 将数据从目标节点迁移:
PUT _cluster/settings
{
"persistent": {
"cluster.routing.allocation.exclude._name": "target-node-name"
}
}
你可以使用 cat 分配 API 跟踪数据迁移的进度。如果一些分片没有迁移,那么集群分配解释 API 将帮助你确定原因。
按照滚动重启 过程中的步骤操作,直到关闭目标节点。
确保集群运行状况为
yellow
(黄色)或green
(绿色),以便有分配给集群中至少一个其他节点的每个分片的副本。如果适用,请删除前面步骤中应用的分配筛选器。
PUT _cluster/settings
{
"persistent": {
"cluster.routing.allocation.exclude._name": null
}
}
通过删除已停止节点的数据路径的内容,丢弃已停止节点持有的数据。
重新配置存储。例如,使用 LVM 或存储空间将磁盘合并到单个文件系统中。确保重新配置的存储具有足够的空间来存放数据。
通过调整
elasticsearch.yml
文件中的path.data
设置重新配置节点。如果需要,安装更多节点,每个节点都有自己的path.data
设置指向单独数据路径。启动新节点,并对其执行其余的滚动重启过程。
确保集群运行状况为
green
,以便已分配每个分片。
你也可以向集群添加一些单数据路径节点,使用分配过滤器 将所有数据迁移到这些新节点,然后从集群中删除旧节点。这种方法将使集群的大小临时增加一倍,因此只有在你有能力这样扩展集群的情况下,它才能工作。
如果你当前使用多个数据路径,但你的群集不是高度可用的,则可以通过创建快照,再创建具有所需配置的新集群并将快照还原到其中,用以迁移到非弃用配置。
集群名设置
节点只能在加入集群后,向集群中其他所有节点共享其 cluster.name
。默认名称是 elasticsearch
,但你应该将其更改为描述集群用途的适当名称。
cluster.name: logging-prod
重要
不要在不同的环境中重用相同的集群名称。否则,节点可能加入错误的集群。
节点名设置
Elasticsearch 使用 node.name
作为 Elasticsearch 特定实例的可读标识符。此名称包含在许多 API 的响应中。节点名称默认为 Elasticsearch 启动时机器的主机名,但可以在 elasticsearch.yml
中显式配置:
node.name: prod-data-2
网络主机设置
默认情况下,Elasticsearch 仅绑定到回环地址,如 127.0.0.1
和 [::1]
。这足以在单个服务器上运行一个或多个节点的集群进行开发和测试,但弹性生产集群 必须涉及其他服务器上的节点。有许多网络设置 ,但通常只需要配置 network.host
:
network.host: 192.168.1.10
重要
当你提供
network.host
值,Elasticsearch 假设你正在从开发模式转移到生产模式,并将大量系统启动检查从警告升级为异常。查看开发和生产模式 之间的差异。
发现和集群构成设置
在投入生产之前,配置两个重要的发现和群集形成设置,以便群集中的节点可以相互发现并选择主节点。
discovery.seed_hosts
开箱即用,无需任何网络配置,Elasticsearch 将绑定到可用的环回地址,并扫描本地端口 9300
至 9305
,以与运行在同一服务器上的其他节点连接。这种行为提供了一种无需进行任何配置的自动集群体验。
当你希望与其他主机上的节点组成集群时,请使用静态 discovery.seed_hosts
设置。此设置提供群集中其他节点的列表,这些节点具有主资格,并且可能处于活动状态,并且可以联系以启动发现进程 。此设置接受集群中所有主合格节点的 YAML 序列或地址数组。每个地址可以是 IP 地址,也可以是通过 DNS 解析为一个或多个 IP 地址的主机名。
discovery.seed_hosts:
- 192.168.1.10:9300
- 192.168.1.11 ①
- seeds.mydomain.com ②
- [0:0:0:0:0:ffff:c0a8:10c]:9301 ③
① 端口可选,默认为 9300,但可以被覆盖。
② 如果主机名解析为多个 IP 地址,则节点将尝试在所有解析的地址发现其他节点。
③ IPv6 地址必须用方括号括起来。
如果符合主节点条件的节点没有固定名称或地址,请使用备用主机提供程序动态查找其地址。
cluster.initial_master_nodes
首次启动 Elasticsearch 集群时,群集引导步骤将确定在第一次选举中计算其投票的主合格节点集。在开发模式下,如果未配置发现设置,此步骤将由节点自己自动执行。
由于自动引导原生不安全,因此在生产模式下启动新集群时,必须明确列出在第一次选举中应计算其投票的主合格节点。你可以使用 cluster.initial_master_nodes
设置此列表。
重要
集群首次成功形成后,删除每个节点配置中的
cluster.initial_master_nodes
设置。重新启动集群或向现有集群添加新节点时,不要使用此设置。
discovery.seed_hosts:
- 192.168.1.10:9300
- 192.168.1.11
- seeds.mydomain.com
- [0:0:0:0:0:ffff:c0a8:10c]:9301
cluster.initial_master_nodes: ①
- master-node-a
- master-node-b
- master-node-c
① 按他们的 node.name
标识初始主节点,默认为其主机名。确保 cluster.initial_master_nodes
中的值与 node.name
完全匹配。如果使用完全限定域名(FQDN),例如 master-node-a.example.com
作为节点名称,则必须使用此列表中的 FQDN。相反,如果 node.name
是一个没有任何尾部限定符的裸主机名,你还必须省略 cluster.initial_master_nodes
中的尾部限定符。
堆大小设置
默认情况下,Elasticsearch 根据节点的角色和总内存自动设置 JVM 堆大小。我们建议大多数生产环境使用默认大小。
注意
自动堆大小调整需要捆绑的 JDK,如果使用自定义 JRE 位置,则需要 Java 14 或更高版本的 JRE。
如果需要,可以通过手动设置 JVM 堆大小来覆盖默认大小。
JVM 堆转储路径设置
默认情况下,Elasticsearch 将 JVM 配置为将内存不足异常的堆转储到默认数据目录。在 RPM 和 Debian 软件包中,数据目录是 /var/lib/elasticsearch
。在 Linux 和 MacOS 及 Windows 发行版上,data
目录位于 Elasticsearch 安装的根目录下。
如果此路径不适合接收堆转储,请修改 jvm.options
中的 -XX:HeapDumpPath=...
条目:
如果指定目录,JVM 将根据运行实例的 PID 为堆转储生成文件名。
如果指定固定文件名而不是目录,则当 JVM 需要对内存不足异常执行堆转储时,该文件必须不存在。否则,堆转储将失败。
GC 日志设置
默认情况下,Elasticsearch 启用垃圾收集(GC)日志。这些是在 jvm.options
中配置的,并输出到与 Elasticsearch 日志相同的默认位置。默认配置每 64 MB 旋转一次日志,最多可消耗 2 GB 的磁盘空间。
你可以使用 JEP 158:统一 JVM 日志中描述的命令行选项重新配置 JVM 日志。除非更改默认 jvm.options
文件中,除了你自己的设置之外,还将应用 Elasticsearch 默认配置。要禁用默认配置,首先通过提供 -Xlog:disable
选项禁用日志记录,然后提供你自己的命令行选项。这将禁用所有 JVM 日志记录,因此请确保查看可用选项并启用所需的所有功能。
要查看原始 JEP 中未包含的其他选项,参阅使用 JVM 统一日志框架启用日志。
示例
使用一些示例选项,通过创建 $ES_HOME/config/jvm.options.d/gc.options
来变更默认 GC 日志输出路径为 /opt/my-app/gc.log
:
## Turn off all previous logging configuratons
-Xlog:disable
## Default settings from JEP 158, but with `utctime` instead of `uptime` to match the next line
-Xlog:all=warning:stderr:utctime,level,tags
## Enable GC logging to a custom location with a variety of options
-Xlog:gc*,gc+age=trace,safepoint:file=/opt/my-app/gc.log:utctime,pid,tags:filecount=32,filesize=64m
配置 Elasticsearch Docker 容器,将 GC 调试日志发送到标准错误(stderr
)。这允许容器编排器处理输出。如果使用 ES_JAVA_OPTS
环境变量,请指定:
MY_OPTS="-Xlog:disable -Xlog:all=warning:stderr:utctime,level,tags -Xlog:gc=debug:stderr:utctime"
docker run -e ES_JAVA_OPTS="$MY_OPTS" ## etc
临时目录设置
默认情况下,Elasticsearch 使用启动脚本在系统临时目录下创建的私有临时目录。
在某些 Linux 发行版上,如果文件和目录最近未被访问,系统实用程序将从 /tmp
中清除这些文件和目录。如果长时间未使用需要临时目录的功能,则此行为可能导致在 Elasticsearch 运行时删除专用临时目录。如果随后使用需要此目录的功能,则删除专用临时目录会导致问题。
如果使用 .deb
或 .rpm
软件包安装 Elasticsearch 并在 systemd
下运行,Elasticsearch 使用的私有临时目录将被排除在定期清理之外。
如果你打算运行 .tar.gz
在 Linux 或 MacOS 上的长期发行版,请考虑为 Elasticsearch 创建一个专用的临时目录,该目录不在将清除旧文件和目录的路径下。该目录应设置权限,以便只有运行 Elasticsearch 的用户才能访问该目录。然后,在启动 Elasticsearch 之前,将 $ES_TMPDIR
环境变量设置为指向该目录。
JVM 致命错误日志设置
默认情况下,Elasticsearch 将 JVM 配置为将致命错误日志写入默认日志目录。在 RPM 和 Debian 软件包中,这个目录是 /var/log/elasticsearch
。在 Linux 和 MacOS 及 Windows 发行版上,logs
目录位于 Elasticsearch 安装的根目录下。
这些是 JVM 遇到致命错误(如分段错误)时生成的日志。如果此路径不适合接收日志,请修改 jvm.options
中的 -XX:ErrorFile=...
条目。
集群备份
在灾难中,快照可以防止永久数据丢失。快照生命周期管理是对集群进行定期备份的最简单方法。有关详细信息,参阅创建快照。
警告
快照是备份集群的唯一可靠且受支持的方法。你无法通过复制 Elasticsearch 集群节点的数据目录来备份该集群。不支持从文件系统级备份中恢复任何数据的方法。如果尝试从这样的备份中恢复集群,它可能会失败,并报告损坏或丢失文件或其他数据不一致,或者它似乎成功又悄悄地丢失了一些数据。
安全设置
有些设置是敏感的,依靠文件系统权限来保护它们的值是不够的。对于这个用例,Elasticsearch 提供一个密钥存储库和 elasticsearch-keystore
工具来管理密钥存储库中的设置。
重要
只有一些设置被设计为从密钥库中读取。但是,密钥库没有验证来阻止不支持的设置。向密钥库中添加不支持的设置将导致 Elasticsearch 启动失败。要查看密钥存储库中是否支持某个设置,请在设置引用中查找 “Secure” 限定符。
所有对密钥库的修改只有在重新启动 Elasticsearch 后才会生效。
这些设置,就像配置文件 elasticsearch.yml
中的常规设置一样,需要在集群中的每个节点上指定。目前,所有安全设置都是特定于节点的设置,必须在每个节点上具有相同的值。
可重新加载的安全设置
就像 elasticsearch.yml
中的设置值一样中,对密钥存储库内容的更改不会自动应用到正在运行的 Elasticsearch 节点。重新读取设置需要重新启动节点。但是,某些安全设置被标记为 reloadable(可重新加载)。这些设置可以重新读取并应用到运行中的节点上。
所有安全设置的值(无论是否 reloadable(可重新加载)),必须在所有集群节点上相同。在完成所需的安全设置更改后,使用 bin/elasticsearch-keystore add
命令,调用:
POST _nodes/reload_secure_settings
{
"secure_settings_password": "keystore-password" ①
}
① Elasticsearch 密钥存储库使用的加密密码。
该 API 在每个集群节点上解密并重新读取整个密钥存储库,但只应用 reloadable 的安全设置。对其他设置的更改直到下一次重启才生效。一旦调用返回,重新加载就完成了,这意味着依赖于这些设置的所有内部数据结构都已被更改。一切都应该看起来好像设置从一开始就有了新的值。
在更改多个 reloadable 的安全设置时,在每个集群节点上修改所有这些设置,然后发出 reload_secure_settings
调用,而不是在每次修改后重新加载。
有可重新加载的安全设置:
审计安全设置
你可以使用审计日志记录与安全相关的事件,例如身份验证失败、拒绝连接和数据访问事件。此外,通过 API 对安全配置的更改,例如创建、更新和删除本机和内置用户、角色、角色映射和 API 键也会被记录下来。
提示
审计日志仅在某些订阅级别上可用。欲了解更多信息,参阅 https://www.elastic.co/subscriptions
如果配置了,则必须在集群中的每个节点上设置审计设置。静态设置,例如 xpack.security.audit.enabled
,必须在每个节点的 elasticsearch.yml
中配置。对于动态审计设置,使用集群更新设置 API 确保所有节点上的设置相同。
常规审计设置
xpack.security.audit.enabled
(静态) 设置为 true
,启用对节点的审计。默认值为 false
。这将把审计事件放在一个名为 <clustername>_audit.json
的专用文件中。
如果启用,则必须在 elasticsearch.yml
中配置此设置。在集群中的所有节点上使用。
审计事件设置
可以通过使用以下设置来控制记录的事件和其他信息:
xpack.security.audit.logfile.events.include
(动态) 指定要在审计输出中打印的事件类型。此外,_all
可以用于详尽地审计所有事件,但通常不建议这样做,因为它会变得非常冗长。默认列表值包括:access_denied
、access_granted
、anonymous_access_denied
、authentication_failed
、connection_denied
、tampered_request
、run_as_denied
、run_as_granted
、security_config_change
。
xpack.security.audit.logfile.events.exclude
(动态) 从包含列表中排除指定事件类型。这在事件的情况下很有用。包含设置包含特殊值 _all
。默认是空列表。
xpack.security.audit.logfile.events.emit_request_body
(动态) 指定是否将来自 REST 请求的完整请求体作为某些类型的审计事件的属性。此设置可用于审计搜索查询。
默认值为 false
,因此不打印请求体。
重要
当在审计事件中包含请求体时,建议可能会以纯文本的形式审计敏感数据,即使所有安全 API(如更改用户密码的 API)在审计时都会过滤掉凭据。
本地节点信息设置
xpack.security.audit.logfile.emit_node_name
(动态) 是否在每个审计事件中包含节点名字段。默认值为 false
。
xpack.security.audit.logfile.emit_node_host_address
(动态) 在每个审计事件中是否包含节点的 IP 地址作为字段。默认值为 false
。
xpack.security.audit.logfile.emit_node_host_name
(动态) 是否在每个审计事件中包含节点的主机名作为字段。默认值为 false
。
xpack.security.audit.logfile.emit_node_id
(动态) 是否在每个审计事件中包含节点id字段。节点名称的值可能在管理员更改配置文件中的设置时发生变化,与节点名称不同的是,节点 id 将在集群重新启动时保持不变,管理员不能更改它。缺省值为 true
。
审计日志文件事件忽略策略
以下设置影响忽略策略,这些策略支持对哪些审计事件打印到日志文件进行细粒度控制。具有相同策略名称的所有设置组合在一起形成单一策略。如果一个事件匹配任何策略的所有条件,它将被忽略并且不打印。大多数审计事件服从于忽略策略。唯一的例外是 security_config_change
类型的事件,它不能被过滤掉,除非完全排除。
xpack.security.audit.logfile.events.ignore_filters.<policy_name>.users
(动态) 用户名或通配符的列表。指定的策略将不会打印匹配这些值的用户的审计事件。
xpack.security.audit.logfile.events.ignore_filters.<policy_name>.realms
(动态) 认证领域名称或通配符的列表。指定的策略将不会为这些域中的用户打印审计事件。
xpack.security.audit.logfile.events.ignore_filters.<policy_name>.actions
(动态) 操作名或通配符的列表。操作名可以在审计事件的 action
字段中找到。指定的策略将不会为匹配这些值的操作打印审计事件。
xpack.security.audit.logfile.events.ignore_filters.<policy_name>.roles
(动态) 角色名或通配符的列表。指定的策略将不会为具有这些角色的用户打印审计事件。如果用户有多个角色,其中一些角色不在策略中覆盖,则策略将不覆盖此事件。
xpack.security.audit.logfile.events.ignore_filters.<policy_name>.indices
(动态) 索引名或通配符的列表。当事件中的所有索引都匹配这些值时,指定的策略将不打印审计事件。如果事件涉及多个索引,其中一些不在策略覆盖范围内,则策略将不覆盖此事件。
断路器设置
Elasticsearch 包含多个断路器,用于防止操作导致 OutOfMemoryError。每个断路器都指定了它可以使用多少内存的限制。此外,还有一个父级断路器,它指定可以跨所有断路器使用的内存总量。
除非另有说明,否则可以使用 集群更新设置 API 在活动集群上动态更新这些设置。
有关断路器错误的信息,参阅断路器错误。
父断路器
父级断路器可以配置以下设置:
indices.breaker.total.use_real_memory
(静态)确定父断路器是应考虑实际内存使用(true
)还是仅考虑子断路器保留的内存量(false
)。默认为 true
。
indices.breaker.total.limit
(动态)整体母断路器的启动限制。如果 indices.breaker.total.use_real_memory
为 false
,则默认 JVM 堆为 70%。。如果 indices.breaker.total.use_real_memory
为 true
,默认 JVM 堆为 95%。
字段数据断路器
字段数据断路器估计将字段加载到字段数据缓存所需的堆内存。如果加载字段会导致缓存超过预定义的内存限制,断路器将停止操作并返回错误。
indices.breaker.fielddata.limit
(动态)现场数据断路器的限制。默认为 JVM 堆的 40%。
indices.breaker.fielddata.overhead
(动态)将所有现场数据估计值相乘以确定最终估计值的常数。默认为 1.03
。
请求断路器
请求断路器允许 Elasticsearch 防止每个请求的数据结构(例如,请求期间用于计算聚合的内存)超过一定的内存量。
indices.breaker.request.limit
(动态)请求断路器的限制,默认为 JVM 堆的 60%。
indices.breaker.request.overhead
(动态)一个常数,所有请求估计都与之相乘以确定最终估计。默认为 1
。
动态请求断路器
动态请求断路器允许 Elasticsearch 限制传输或 HTTP 级别上所有当前活动传入请求的内存使用,使其不超过节点上的特定内存量。内存使用情况基于请求本身的内容长度。这个断路器还考虑到,不仅需要内存来表示原始请求,而且还需要内存作为一个结构化对象,由默认开销反映出来。
network.breaker.inflight_requests.limit
(动态)运行中请求断路器的限制,默认为 JVM 堆的 100%。这意味着它受到为主断路器配置的限制的约束。
network.breaker.inflight_requests.overhead
(动态)一个常数,所有动态请求估值都乘以该常数以确定最终估值。默认为 2
。
计数请求断路器
计数断路器允许 Elasticsearch 限制内存中保存的、请求完成时未释放的内容的内存使用。这包括 Lucene 段内存之类的东西。
indices.breaker.accounting.limit
(动态)计数断路器的限制,默认为 JVM 堆的 100%。这意味着它受到为主断路器配置的限制的约束。
indices.breaker.accounting.overhead
(动态)将所有计数估值相乘以确定最终估值的常数。默认为 1
。
脚本编译断路器
与以前基于内存的断路器略有不同,脚本编译断路器限制了一段时间内内联脚本编译的数量。
有关更多信息,请参阅脚本文档的 “首选参数” 部分。
script.max_compilations_rate
(动态)限制在特定间隔内允许编译的唯一动态脚本的数量。默认为 150/5m
,即每 5 分钟 150 次。
正则断路器
编写不好的正则表达式会降低集群的稳定性和性能。正则断路器限制了 Painless 脚本中正则的使用和复杂性。
script.painless.regex.enabled
(静态)在 Painless 脚本中启用正则。允许以下值:
limited (默认)
:启用正则,但使用 script.painles.regex.limit-factor
集群设置限制复杂度。
true
:启用正则并不限制复杂度。禁用正则断路器。
false
:禁用正则。任何包含正则表达式的 Painless 脚本都会返回一个错误。
script.painless.regex.limit-factor
(静态)限制 Painless 脚本中正则表达式可以考虑的字符数。Elasticsearch 通过将设置值乘以脚本输入的字符长度来计算此限制。
例如,输入 foobarbaz
的字符长度为 9。如果是 script.painless.regex.limit-factor
为 6
,foobarbaz
上的正则表达式最多可以考虑 54(9 * 6)个字符。如果表达式超过此限制,则会触发正则断路器并返回错误。
Elasticsearch 仅在 script.painless.regex.enabled
为 limited
时应用此限制。
集群级分片分配和路由设置
分片分配是将分片分配给节点的过程。这可能发生在初始恢复、复制副本分配、重新平衡或添加或删除节点时。
主节点的主要角色之一是决定将哪些分片分配给哪些节点,以及何时在节点之间移动分片以重新平衡集群。
有许多设置可用于控制碎片分配过程:
- 集群级分片分配设置控制分配和重新平衡操作。
- 基于磁盘的分片分配设置解释了 Elasticsearch 如何考虑可用磁盘空间以及相关设置。
- 分片分配感知和强制感知控制如何在不同机架或可用性区域中分配分片。
- 集群级分片分配过滤允许某些节点或节点组被排除在分配之外,以便它们可以停用。
除此之外,还有其他一些杂项集群级设置。
集群级分片分配设置
你可以使用以下设置来控制分片分配和恢复:
cluster.routing.allocation.enable
(动态)为特定种类的分片启用或禁用分配:
all
——(默认)允许为所有类型的分片分配分片。
primaries
—— 仅允许主分片分配分片。
new_primaries
—— 仅允许为新索引的主分片分配分片。
none
—— 任何索引都不允许任何类型的分片分配。
重新启动节点时,此设置不会影响本地主分片的恢复。具有未分配主分片副本的重新启动节点将立即恢复该主分片,前提是其分配 id 与集群状态中的活动分配 id 之一匹配。
cluster.routing.allocation.node_concurrent_incoming_recoveries
(动态)一个节点上允许发生多少并发传入分片恢复。传入恢复是指在节点上分配目标分片(除非分片正在重新定位,否则很可能是副本)的恢复。默认为 2
。
cluster.routing.allocation.node_concurrent_outgoing_recoveries
(动态)一个节点上允许发生多少并发传出分片恢复。传出恢复是指在节点上分配源分片(除非分片正在重新定位,否则很可能是主分片)的恢复。默认为 2
。
cluster.routing.allocation.node_concurrent_recoveries
(动态)快捷设置所有 cluster.routing.allocation.node_concurrent_incoming_recoveries
和 cluster.routing.allocation.node_concurrent_outgoing_recoveries
。
cluster.routing.allocation.node_initial_primaries_recoveries
(动态)虽然副本的恢复是通过网络进行的,但节点重新启动后未分配的主副本的恢复将使用本地磁盘中的数据。这些恢复应该很快,因此可以在同一节点上并行进行更多的初始主恢复。默认为 4
。
cluster.routing.allocation.same_shard.host
(动态)如果为 true
,则禁止将分片的多个副本分配给同一主机上的不同节点,即具有相同网络地址的节点。默认为 false
,这意味着有时可以将分片的副本分配给同一主机上的节点。只有在每个主机上运行多个节点时,此设置才有关。
分片重平衡设置
当集群在每个节点上具有相等数量的分片,而没有来自任何节点上任何索引的分片集中时,集群是平衡的。Elasticsearch 运行一个称为重新平衡的自动进程,该进程在集群中的节点之间移动碎片,以改善其平衡。重平衡遵循所有其他分片分配规则,如分配过滤和强制感知,这可能会阻止它完全平衡集群。在这种情况下,重平衡努力在你配置的规则内实现尽可能平衡的集群。如果你使用的是数据层,Elasticsearch 会自动应用分配过滤规则,将每个分片放在适当的层中。这些规则意味着均衡器在每个层中独立工作。
你可以使用以下设置来控制集群中分片的重新平衡:
cluster.routing.rebalance.enable
(动态)为特定类型的分片启用或禁用重新平衡:
all
——(默认)允许为所有类型的分片进行分片平衡。
primaries
—— 仅允许主分片进行分片平衡。
new_primaries
—— 仅允许为新索引的主分片进行分片平衡。
none
—— 任何索引都不允许任何类型的分片平衡。
cluster.routing.allocation.allow_rebalance
(动态)指定何时允许分片重平衡:
always
—— 总是允许重平衡。
indices_primaries_active
—— 仅当集群中的所有主节点都已分配时。
indices_all_active
——(默认)仅当集群中的所有分片(主分片和副本)都已分配时。
cluster.routing.allocation.cluster_concurrent_rebalance
(动态)允许控制集群范围内允许多少并发分片重平衡。默认值为 2
。请注意,此设置仅控制由于集群中的不平衡而导致的并发分片重定位的数量。由于分配筛选或强制感知,此设置不会限制分片重定位。
分片平衡启发式设置
重平衡的工作方式是根据每个节点的分片分配计算每个节点的权重,然后在节点之间移动分片,以减少较重节点的权重并增加较轻节点的权重。当没有可能的分片移动使任何节点的权重接近任何其他节点的权重超过可配置的阈值时,集群是平衡的。以下设置允许你控制这些计算的详细信息。
cluster.routing.allocation.balance.shard
(动态)定义节点上分配的碎片总数的权重因子(浮点)。默认为 0.45f
。提高这一点会使集群中所有节点的分片数量趋于均衡。
cluster.routing.allocation.balance.index
(动态)定义在特定节点(浮点)上分配的每个索引的碎片数的权重因子。默认为 0.55f
。提高这一点会增加在集群中所有节点上均衡每个索引的分片数量的趋势。
cluster.routing.allocation.balance.threshold
(动态)应执行的操作的最小优化值(非负浮点)。默认值为 1.0f
。提高此值将导致集群在优化分片平衡方面不太积极。
注意
无论平衡算法的结果如何,由于强制感知或分配过滤,可能不允许重新平衡。
基于磁盘的分片分配设置
基于磁盘的分片分配器可确保所有节点都有足够的磁盘空间,而无需执行超出必要的分片移动。它基于一对称为低水位和高水位的阈值来分配分片。它的主要目标是确保没有节点超过高水位,或者至少任何这样的水位只是暂时的。如果一个节点超过了高水位,Elasticsearch 将通过将其分片移动到集群中的其他节点来解决这个问题。
注意
节点有时会暂时超出高水位,这是正常的。
分配器还试图通过禁止向超过低水位的节点分配更多分片来保持节点远离高水位。重要的是,如果所有节点都超过了低水位,则无法分配新的分片,Elasticsearch 将无法在节点之间移动任何分片,以将磁盘使用率保持在高水位以下。你必须确保你的集群总共有足够的磁盘空间,并且总是有一些节点低于低水位线。
基于磁盘的分片分配器触发的分片移动,还必须满足所有其他分片分配规则,如分配筛选和强制感知。如果这些规则过于严格,那么它们还可以阻止分片移动,以控制节点的磁盘使用。如果你使用的是数据层,Elasticsearch会自动配置分配过滤规则,将碎片放置在适当的层中,这意味着基于磁盘的分片分配器在每个层中独立工作。
如果一个节点填满其磁盘的速度快于 Elasticsearch 将分片移动到其他地方的速度,则存在磁盘将完全填满的风险。为了防止这种情况,作为最后的手段,一旦磁盘使用率达到洪泛阶段,Elasticsearch 将阻止对受影响节点上具有分片的索引的写入。它还将继续将分片移动到集群中的其他节点上。当受影响节点上的磁盘使用率降至高水位以下时,Elasticsearch 会自动删除写块。
提示
集群中的节点使用的磁盘空间量非常不同,这是正常的。集群的平衡只取决于每个节点上的碎片数量以及这些碎片所属的索引。它既不考虑这些碎片的大小,也不考虑每个节点上的可用磁盘空间,原因如下:
- 磁盘使用率随时间变化。平衡单个节点的磁盘使用将需要更多的分片移动,甚至可能会浪费掉先前的移动。移动分片会消耗资源,如 I/O 和网络带宽,并可能从文件系统缓存中收回数据。在可能的情况下,最好使用这些资源来处理搜索和索引。
- 只要没有磁盘太满,每个节点上的磁盘使用率相等的集群通常不会比磁盘使用率不相等的集群性能更好。
你可以使用以下设置来控制基于磁盘的分配:
cluster.routing.allocation.disk.threshold_enabled
(动态)默认为 true
。设置为 false
可禁用磁盘分配决策器。
cluster.routing.allocation.disk.watermark.low
(动态)控制磁盘使用的低水位。默认为 85%
,这意味着 Elasticsearch 不会将分片分配给磁盘使用率超过 85% 的节点。也可以将其设置为比率值,例如 0.85。也可以将它设置为绝对字节值(如 500mb
),以防止 Elasticsearch 在可用空间少于指定数量时分配分片。此设置对新创建索引的主分片没有影响,但会阻止分配其副本。
cluster.routing.allocation.disk.watermark.high
(动态)控制高水位。默认为 90%
,这意味着 Elasticsearch 将尝试将分片从磁盘使用率高于 90% 的节点重新定位。也可以将它设置为绝对字节值(类似于低水印),以便在节点的可用空间小于指定数量时将分片重新定位到远离节点的位置。此设置会影响所有分片的分配,无论以前是否分配。
cluster.routing.allocation.disk.watermark.enable_for_single_data_node
(静态)在早期版本中,默认行为是在做出分配决策时忽略单个数据节点群集的磁盘水印。这是被弃用的行为,已在 8.0 中删除。该设置可以设置为 true
以启用单个数据节点集群的磁盘水印(在 8.0 中将成为默认值)。
cluster.routing.allocation.disk.watermark.flood_stage
(动态)控制危险水位,默认为 95%。Elasticsearch 对每个索引强制执行只读索引块(index.blocks.read_only_allow_delete
),该索引在节点上分配了一个或多个分片,并且至少有一个磁盘超过危险水位。此设置是防止节点耗尽磁盘空间的最后手段。当磁盘利用率低于高水位时,索引块将自动释放。
注意
不能在水印设置中混合使用百分比/比率值和字节值。要么将所有值设置为百分比/比率值,要么将所有设置为字节值。此强制是为了让 Elasticsearch 可以验证设置是否内部一致,确保低磁盘阈值小于高磁盘阈值,高磁盘阈值小于危险水位阈值。
重置 my-index-000001
索引上的只读索引块的示例:
PUT /my-index-000001/_settings
{
"index.blocks.read_only_allow_delete": null
}
cluster.routing.allocation.disk.watermark.flood_stage.frozen
(动态)控制专用冻结节点的危险水位,默认为 95%。
cluster.routing.allocation.disk.watermark.flood_stage.frozen.max_headroom
(动态)控制专用冻结节点的危险水位的最大净空。当 cluster.routing.allocation.disk.watermark.flood_stage.frozen
未明确设置时,默认为 20GB。这将限制专用冻结节点上所需的可用空间量。
cluster.info.update.interval
(动态)Elasticsearch 应该多久检查一次集群中每个节点的磁盘使用情况。默认为 30s
。
注意
百分比值表示已使用的磁盘空间,而字节值表示可用磁盘空间。这可能会让人困惑,因为它颠倒了高低的含义。例如,将低水位设置为 10gb,将高水位设置为 5gb 是有意义的,但反之亦然。
将低水位更新为至少 100 GB 可用、高水位至少 50 GB 可用、洪水阶段水位线至少 10 GB 可用,并每分钟更新有关集群的信息的示例:
PUT _cluster/settings
{
"persistent": {
"cluster.routing.allocation.disk.watermark.low": "100gb",
"cluster.routing.allocation.disk.watermark.high": "50gb",
"cluster.routing.allocation.disk.watermark.flood_stage": "10gb",
"cluster.info.update.interval": "1m"
}
}
分片分配感知
你可以使用自定义节点属性作为感知属性,以使 Elasticsearch 在分配分片时考虑物理硬件配置。如果 Elasticsearch 知道哪些节点位于同一物理服务器上、同一机架中或同一区域中,它可以分发主分片及其副本分片,以最大限度地减少在发生故障时丢失所有分片副本的风险。
当使用动态 cluster.routing.allocation.awareness.attributes
启用分片分配感知时,分片仅分配给为指定感知属性设置了值的节点。如果使用多个感知属性,Elasticsearch 在分配分片时会分别考虑每个属性。
默认情况下,Elasticsearch 使用自适应副本选择来路由搜索或 GET 请求。然而,由于存在分配感知属性,Elasticsearch 更喜欢使用相同位置的碎片(具有相同的感知属性值)来处理这些请求。通过在作为集群一部分的每个节点上指定 export ES_JAVA_OPTS="$ES_JAVA_OPTS-Des.search.ignore_awareness_attributes=true"
系统属性,可以禁用此行为。
注意
属性值的数量决定了在每个位置分配了多少分片副本。如果每个位置中的节点数量不平衡,并且有大量副本,则副本分片可能未分配。
启用分片分配感知
为了启用分片分配感知:
- 使用自定义节点属性指定每个节点的位置。例如,如果你希望 Elasticsearch 在不同的机架上分发分片,可以在每个节点的
elasticsearch.yml
配置文件中设置一个名为rack_id
的感知属性。
node.attr.rack_id: rack_one
启动节点时,还可以设置自定义属性:
./bin/elasticsearch -Enode.attr.rack_id=rack_one
- 告诉 Elasticsearch 在分配分片时,通过在每个符合主节点的
elasticsearch.yml
配置文件中设置cluster.routing.allocation.awareness.attributes
来考虑一个或多个感知属性。
cluster.routing.allocation.awareness.attributes: rack_id ①
① 将多个属性指定为逗号分隔的列表。
你还可以使用集群更新设置 API 来设置或更新集群的感知属性。
在这个示例配置中,如果使用 node.attr.rack_id
启动两个节点设置为 rack_one
并创建一个索引,其中包含 5 个主分片和每个主分片的 1 个副本,所有主分片和副本都在这两个节点上分配。
如果使用 node.attr.rack_id
添加两个节点设置为 rack_two
,Elasticsearch 将分片移动到新节点,确保(如果可能)同一分片的两个副本不在同一机架中。
如果 rack_two
失败并关闭其两个节点,默认情况下,Elasticsearch 会将丢失的碎片副本分配给 rack_one
中的节点。为了防止在同一位置分配特定分片的多个副本,可以启用强制感知。
强制感知
默认情况下,如果一个位置失败,Elasticsearch 会将所有丢失的副本分片分配给其余位置。虽然你可能在所有位置拥有足够的资源来托管主分片和副本分片,但单个位置可能无法托管所有分片。
为了防止单个位置在发生故障时过载,可以设置 cluster.routing.allocation.awareness.force
,以便在其他位置的节点可用之前不分配副本。
例如,如果你有一个名为 zone
的感知属性,并在 zone1
和 zone2
中配置节点,则可以使用强制感知来防止 Elasticsearch 在只有一个可用区域的情况下分配副本:
cluster.routing.allocation.awareness.attributes: zone
cluster.routing.allocation.awareness.force.zone.values: zone1,zone2 ①
① 指定感知属性的所有可能值。
在这个示例配置中,如果将 node.attr.zone
设置为 zone1
并创建一个包含 5 个分片和 1 个副本的索引,用于启动两个节点。Elasticsearch 创建索引并分配 5 个主分片,但不分配副本。只有 node.attr.zone
设置为 zone2
的节点可用时,才会分配副本。
集群级分片分配筛选
你可以使用集群级分片分配过滤器来控制 Elasticsearch 从任何索引分配分片的位置。这些集群范围的过滤器与按索引分配过滤和分配感知一起应用。
分片分配筛选器可以基于自定义节点属性或内置的 _name
、_host_ip
、_publish_ip
、_ip
、_host
、_id
和 _tier
属性。
cluster.routing.allocation
设置是动态的,允许将活动索引从一组节点移动到另一组节点。只有在不破坏另一个路由约束(例如从不在同一节点上分配主分片和副本分片)的情况下才能重新定位分片。
集群级分片分配过滤最常见的用例是,当你想要解除某个节点的授权时。要在关闭节点之前将分片移出该节点,可以创建一个过滤器,通过其 IP 地址排除该节点:
PUT _cluster/settings
{
"persistent" : {
"cluster.routing.allocation.exclude._ip" : "10.0.0.1"
}
}
集群路由设置
cluster.routing.allocation.include.{attribute}
(动态的)将分片分配给与 {attribute}
中至少有一个逗号分隔值匹配的节点。
cluster.routing.allocation.require.{attribute}
(动态的)仅将分片分配给与 {attribute}
中所有逗号分隔值匹配的节点。
cluster.routing.allocation.exclude.{attribute}
(动态的)不将分片分配给与 {attribute}
中任何逗号分隔值匹配的节点。
配置项 | 描述 |
---|---|
_name | 按节点名字匹配节点 |
_host_ip | 按 IP 地址匹配节点(IP 关联主机名) |
_publish_ip | 按公开 IP 地址匹配节点 |
_ip | 匹配 _host_ip 或者 _publish_ip |
_host | 按主机名匹配 |
_id | 按节点 id 匹配 |
_tier | 按节点数据层角色匹配节点 |
注意
_tier
过滤基于节点角色。只有角色的子集是数据层角色,通用数据角色将匹配任何层筛选。数据层角色的角色子集,但通用数据角色将匹配任何层筛选。
指定属性值时可以使用通配符,例如:
PUT _cluster/settings
{
"persistent": {
"cluster.routing.allocation.exclude._ip": "192.168.2.*"
}
}
杂项集群级设置
元数据
可以使用以下设置将整个群集设置为只读:
cluster.blocks.read_only
(动态的)将整个集群设为只读(索引不接受写入操作),不允许修改元数据(创建或删除索引)。
cluster.blocks.read_only_allow_delete
(动态的)与 cluster.blocks.read_only
相同,但允许删除索引以释放资源。
警告
不要依赖此设置来阻止更改集群。任何有权访问集群更新设置 API 的用户都可以使集群再次读写。
集群分片限制
根据集群中的节点数量,对集群中的碎片数量有一个软限制。这是为了防止可能无意中破坏集群稳定的操作。
重要
此限制旨在作为安全网,而不是尺寸建议。集群可以安全支持的分片的确切数量取决于硬件配置和工作负载,但在几乎所有情况下都应该保持在这个限制之下,因为默认限制设置得很高。
如果某个操作(如创建新索引、恢复索引快照或打开关闭的索引)会导致集群中的碎片数量超过此限制,则该操作将失败,并出现指示碎片限制的错误。
如果由于节点成员身份的更改或设置的更改,群集已超过限制,则创建或打开索引的所有操作都将失败,除非限制如下文所述增加,或者关闭或删除某些索引以使碎片数低于限制。
对于正常(非冻结)索引,群集分片限制默认为每个非冻结数据节点 1000 个碎片,对于冻结索引,每个冻结数据节点 3000 个分片。所有开放索引的主分片和副本分片都将计入限制,包括未分配的分片。例如,一个包含 5 个主分片和2个副本的开放索引计为 15 个分片。闭合索引不会影响分片计数。
你可以使用以下设置动态的调整集群分片限制:
cluster.max_shards_per_node
(动态的)限制集群的主分片和副本分片的总数。Elasticsearch 计算极限如下:
cluster.max_shards_per_node * 非冻结节点数
关闭索引的分片不计入此限制。默认为 1000
。没有数据节点的集群是无限的。
Elasticsearch 拒绝任何创建超过此限制的分片的请求。例如,一个 cluster.max_shards_per_node
设置为 100
且三个数据节点的集群的分片限制为 300。如果该集群已经包含 296 个分片,Elasticsearch 将拒绝任何向集群添加五个或更多分片的请求。
请注意,冻结分片有自己的独立限制。
cluster.max_shards_per_node.frozen
(动态的)限制集群的主节点和副本冻结分片的总数。Elasticsearch 计算极限如下:
cluster.max_shards_per_node * 冻结结点数量
关闭索引的碎片不计入此限制。默认为 3000
。没有冻结数据节点的集群是无限的。
Elasticsearch拒绝任何创建超过此限制的冻结分片的请求。例如,cluster.max_shards_per_node.frozen
设置为 100
且三个冻结数据节点的集群的冻结分片限制为 300。如果群集已包含 296 个分片,Elasticsearch 将拒绝向集群添加五个或更多冻结分片的任何请求。
注意
这些设置不限制单个节点的分片。要限制每个节点的分片数量,请使用
cluster.routing.allocation.total_shards_per_node
设置。
用户定义的集群元数据
可以使用群集群设置 API 存储和检索用户定义的元数据。这可以用于存储关于集群的任意、不经常更改的数据,而无需创建索引来存储数据。可以使用以 cluster.metadata
为前缀的任何密钥来存储此数据。例如,将集群管理员的电子邮件地址存储在密钥 cluster.metadata.administrator
下,发出此请求:
PUT /_cluster/settings
{
"persistent": {
"cluster.metadata.administrator": "sysadmin@example.com"
}
}
重要
用户定义的集群元数据不用于存储敏感或机密信息。任何有权访问集群获取设置 API 的人都可以查看存储在用户定义的集群元数据中的任何信息,并将其记录在 Elasticsearch 日志中。
索引墓碑
集群状态维护索引逻辑删除,以明确表示已删除的索引。集群状态下维护的逻辑删除数由以下设置控制:
cluster.indices.tombstones.size
(静态)索引逻辑删除防止在发生删除时不属于集群的节点加入集群并重新导入索引,就像从未发出删除一样。为了防止集群状态变大,我们只保留最后的 cluster.indices.tombstones.size
次删除,默认为 500 次。如果你希望节点不在集群中,并且错过了 500 次以上的删除,你可以增加它。我们认为这是罕见的,因此是违约。墓碑不会占用太多空间,但我们也认为像 50000 这样的数字可能太大了。
如果 Elasticsearch 遇到当前集群状态中不存在的索引数据,则认为这些索引是悬空的。例如,如果在 Elasticsearch 节点脱机时删除了多个 cluster.indices.tombstones.size
索引,则会发生这种情况。
你可以使用悬空索引 API 来管理这种情况。
日志器
可以使用 logger.
前缀动态的更新控制日志记录的设置。例如,要将 indices.recovery
模块的日志级别提高到 DEBUG
,发出以下请求:
PUT /_cluster/settings
{
"persistent": {
"logger.org.elasticsearch.indices.recovery": "DEBUG"
}
}
持久性任务分配
插件可以创建一种称为持久任务的任务。这些任务通常是长寿命任务,存储在集群状态中,允许任务在完全集群重启后恢复。
每次创建持久任务时,主节点负责将任务分配给集群的一个节点,然后分配的节点将拾取任务并在本地执行。将持久任务分配给节点的过程由以下设置控制:
cluster.persistent_tasks.allocation.enable
(动态的)启用或禁用永久任务的分配:
all
——(默认)允许将持久任务分配给节点
none
—— 任何类型的持久任务都不允许分配
此设置不会影响已执行的持久任务。只有新创建的持久任务或必须重新分配的任务(例如,在节点离开集群后)才会受到此设置的影响。
cluster.persistent_tasks.allocation.recheck_interval
(动态的)当集群状态发生显著变化时,主节点将自动检查是否需要分配持久任务。但是,可能还有其他因素,例如内存使用,会影响是否可以将持久任务分配给节点,但不会导致集群状态改变。此设置控制执行分配检查以对这些因素作出反应的频率。默认值为 30 秒。最小允许值为 10 秒。
强制执行 default_tier_preference
默认情况下,新创建的索引会自动分配 index.routing.allocation.include_tier_preference
。这可以通过创建索引 API 或使用索引模板将 _tier_preference
设置为 null
来覆盖。
在 8.0 中,无法通过将 _tier_preference
设置为 null
来绕过此行为所有新创建的索引都将始终具有关联的 tier_preference
。
cluster.routing.allocation.enforce_default_tier_preference
(动态)强制新创建的索引必须始终具有非空的层首选项,绕过请求或模板设置。默认为 false
。
跨集群复制设置
可以使用集群更新设置 API 在活动集群上动态更新这些跨集群复制设置。
远程恢复设置
以下设置可用于对远程恢复期间传输的数据进行速率限制:
ccr.indices.recovery.max_bytes_per_sec
(动态)
限制每个节点上的总入站和出站远程恢复流量。由于此限制适用于每个节点,但可能有多个节点同时执行远程恢复,因此远程恢复字节的总量可能远高于此限制。如果将此限制设置得太高,则存在进行中的远程恢复将消耗过量带宽(或其他资源)的风险,这可能会破坏集群的稳定。该设置同时用于领导者和追随者集群。例如,如果将一个领导者其设置为 20mb
,那么即使追随者正在请求,领导也只会向随从发送 20mb/s
,且可以能 60mb/s
。默认为 40mb
。
高级远程恢复设置
可以设置以下专家设置来管理远程恢复所消耗的资源:
ccr.indices.recovery.max_concurrent_file_chunks
(动态)
控制每次恢复可并行发送的文件块请求数。由于多个远程恢复可能已经并行运行,因此增加此专家级设置可能只会在单个分片的远程恢复未达到 ccr.indices.recovery.max_bytes_per_sec
配置的总入站和出站远程恢复流量的情况下有所帮助。默认为 5
。允许的最大值为 10
。
ccr.indices.recovery.chunk_size
(动态)
控制文件传输期间追随者请求的块大小。默认为 1mb
。
ccr.indices.recovery.recovery_activity_timeout
(动态)
控制恢复活动的超时。此超时主要适用于领导者集群。领导者集群必须在内存中打开资源,以便在恢复过程中向追随者提供数据。如果领导者在这段时间内没有收到跟随者的恢复请求,它将关闭资源。默认为 60
秒。
ccr.indices.recovery.internal_action_timeout
(动态)
控制远程恢复过程中单个网络请求的超时。单个操作超时可能会导致恢复失败。默认为 60
秒。
发现和集群组成设置
发现和集群组成受以下设置影响:
discovery.seed_hosts
(静态)提供群集中符合条件的主节点的地址列表。也可以是包含用逗号分隔的地址的单个字符串。每个地址的格式为 host:port
或 host
。host
可以是由 DNS 解析的主机名、IPv4 地址或 IPv6 地址。IPv6 地址必须用方括号括起来。如果主机名通过 DNS 解析为多个地址,Elasticsearch 将使用所有地址。DNS 查找受 JVM DNS 缓存的约束。如果未给出 port
,则按顺序检查以下配置:
transport.profiles.default.port
transport.port
如果两者都未设置,则默认端口为 9300
。discovery.seed_hosts
默认值为 ["127.0.0.1", "[::1]"]
。参阅 discovery.seed_hosts
。
这个设置以前称为 discovery.zen.ping.unicast.hosts
。它的旧名称已弃用,但为了保持向后兼容性而继续使用。在未来的版本中将删除对旧名称的支持。
discovery.seed_providers
(静态)指定要使用哪种类型的种子主机提供器来获取用于启动发现过程的种子节点的地址。默认情况下,是基于设置的种子主机提供器从 discovery.seed_hosts
设置中获取种子节点地址。此设置以前称为 discovery.zen.hosts
提供程序。它的旧名称已弃用,但为了保持向后兼容性而继续使用。在未来的版本中将删除对旧名称的支持。
discovery.type
(静态)指定 Elasticsearch 是否应形成多节点集群。默认为多节点,这意味着 Elasticsearch 在形成集群时发现其他节点,并允许其他节点稍后加入集群。如果 discovery.type
被设置为 single-node
,Elasticsearch 将形成一个单节点集群,并抑制 cluster.publish.timeout
设置的超时。有关何时可以使用此设置的详细信息,请参阅单节点发现。
cluster.initial_master_nodes
(静态)在一个全新的集群中设置主合格节点的初始集合。默认情况下,此列表为空,这意味着此节点希望加入已引导的集群。集群形成后删除此设置。在重新启动节点或将新节点添加到现有群集时,不要使用此设置。请参见 cluster.initial_master_nodes
。
高级设置
发现和集群形成也会受到以下高级设置的影响,尽管不建议将这些设置中的任何一个更改为默认值。
警告
如果你调整这些设置,那么你的集群可能无法正确形成,或者可能变得不稳定或无法容忍某些故障。
discovery.cluster_formation_warning_timeout
(静态)设置节点在记录集群未形成的警告之前尝试形成集群的时间。默认值为 10s
。如果在 discovery.cluster_formation_warning_timeout
后未形成集群,则节点将记录一条警告消息,该消息以短语 master not discovery
开头,描述发现过程的当前状态。
discovery.find_peers_interval
(静态)设置节点在尝试另一轮发现之前等待的时间。默认为 1s
。
discovery.probe.connect_timeout
(静态)设置尝试连接到每个地址时等待的时间。默认为 30s
。
discovery.probe.handshake_timeout
(静态)设置尝试通过握手标识远程节点时等待的时间。默认为 30s
。
discovery.request_peers_timeout
(静态)设置节点在再次询问其对等方后等待多长时间后才认为请求失败。默认为 3s
。
discovery.find_peers_warning_timeout
(静态)设置节点在开始记录描述连接尝试失败原因的详细消息之前尝试发现其对等方的时间。默认为 3m
。
discovery.seed_resolver.max_concurrent_resolvers
(静态)指定解析种子节点地址时要执行的并发 DNS 查找数。默认为 10
。此设置以前称为 discovery.zen.ping.unicast.concurrent
连接。它的旧名称已弃用,但为了保持向后兼容性而继续使用。在未来的版本中将删除对旧名称的支持。
discovery.seed_resolver.timeout
(静态)指定解析种子节点地址时执行的每次 DNS 查找的等待时间。默认为 5s
。此设置以前称为 discovery.zen.ping.unicast.hosts.resolve_timeout
连接。它的旧名称已弃用,但为了保持向后兼容性而继续使用。在未来的版本中将删除对旧名称的支持。
cluster.auto_shrink_voting_configuration
(动态)控制投票配置是否自动丢弃离开的节点,只要它仍然包含至少 3 个节点。默认值为 true
。如果设置为 false
,投票配置永远不会自动收缩,你必须使用投票配置排除 API 手动删除离开的节点。
cluster.election.back_off_time
(静态)设置在每次选举失败时增加选举前等待时间额外值的上限。请注意,这是线性回退。默认为 100ms
。从默认设置更改此设置可能会导致集群无法选择主节点。
cluster.election.duration
(静态)设置在节点认为每次选举失败并计划重试之前允许每次选举的时间。默认为 500ms
。从默认设置更改此设置可能会导致集群无法选择主节点。
cluster.election.initial_timeout
(静态)设置节点在尝试第一次选择之前,最初等待多长时间的上限,或者在所选主节点失败后等待多长时间。默认为 100ms
。从默认设置更改此设置可能会导致集群无法选择主节点。
cluster.election.max_timeout
(静态)设置节点在尝试第一次选举之前等待多长时间的最大上限,以便持续很长时间的网络分区不会导致过于稀疏的选举。默认为 10s
。从默认设置更改此设置可能会导致集群无法选择主节点。
cluster.fault_detection.follower_check.interval
(静态)设置被选主节点在对集群中其他节点进行跟随者检查之间的等待时间。默认为 1s
。从默认设置更改此设置可能会导致群集变得不稳定。
cluster.fault_detection.follower_check.timeout
(静态)设置被选主在认为跟随者检查失败之前等待响应的时间。默认为 10s
。从默认设置更改此设置可能会导致群集变得不稳定。
cluster.fault_detection.follower_check.retry_count
(静态)设置在选定的主节点认为该节点有故障并将其从集群中删除之前,每个节点必须连续发生多少次跟随者检查失败。默认值为 3
。从默认值更改此设置可能会导致集群变得不稳定。
cluster.fault_detection.leader_check.interval
(静态)设置每个节点在检查选定主节点之间等待的时间。默认为 1s
。从默认设置更改此设置可能会导致集群变得不稳定。
cluster.fault_detection.leader_check.timeout
(静态)设置每个节点在认为其失败之前等待来自选主节点的响应的时间。默认为 10s
。从默认设置更改此设置可能会导致集群变得不稳定。
cluster.fault_detection.leader_check.retry_count
(静态)设置在节点认为选定的主节点有故障并尝试查找或选择新主节点之前,必须发生多少次连续引线检查失败。默认值为 3
。从默认值更改此设置可能会导致集群变得不稳定。
cluster.follower_lag.timeout
(静态)设置主节点等待从滞后节点接收群集状态更新确认的时间。默认值为 90s
。如果某个节点在这段时间内没有成功应用集群状态更新,则该节点将被视为已失败并从集群中删除。参阅发布集群状态。
cluster.join.timeout
(静态)[7.10]设置节点在发送加入版本 6.8 主服务器的请求后,在认为请求失败并重试之前等待的时间。默认为 60s
。
cluster.max_voting_config_exclusions
(动态)设置一次投票配置排除次数的限制。默认值为 10
。参阅添加和删除节点。
cluster.publish.info_timeout
(静态)设置主节点等待每个集群状态更新完全发布到所有节点的时间,然后记录一条指示某些节点响应缓慢的消息。默认值为 10s
。
cluster.publish.timeout
(静态)设置主节点等待每个群集状态更新完全发布到所有节点的时间,除非 discovery.type
设置为 single-node
。默认值为 30s
。参阅发布集群状态。
cluster.no_master_block
(动态)指定集群中没有活动主机时拒绝哪些操作。此设置有三个有效值:
all
:节点上的所有操作(读操作和写操作)都被拒绝。这也适用于 API 集群状态读取或写入操作,如获取索引设置、更新映射和集群状态 API。write
:(默认)写入操作被拒绝。根据上次已知的集群配置,读取操作成功。这种情况可能导致部分读取过时数据,因为该节点可能与集群的其他部分隔离。metadata_write
:只有元数据写入操作(例如,映射更新、路由表更改)被拒绝,但常规索引操作仍然有效。根据上次已知的集群配置,读取和写入操作成功。这种情况可能导致部分读取过时数据,因为该节点可能与集群的其他部分隔离。
注意
cluster.no_master_block
设置不适用于基于节点的 API(例如,集群统计、节点信息和节点统计 API)。对这些 API 的请求不会被阻止,可以在任何可用节点上运行。- 要使集群完全运行,它必须有一个活动的主机。
警告
此设置将替换早期版本中的
discovery.zen.no_master_block
设置。discovery.zen.no_master_block
设置被忽略。
monitor.fs.health.enabled
(动态)如果为 true
,则节点会定期运行文件系统健康检查。默认为 true
。
monitor.fs.health.refresh_interval
monitor.fs.health.slow_path_logging_threshold
(动态)如果文件系统健康检查花费的时间超过此阈值,则 Elasticsearch 会记录一条警告。默认为 5s
。
字段数据缓存设置
字段数据缓存包含字段数据和全局序号,它们都用于支持某些字段类型的聚合。由于这些是堆上的数据结构,因此监控缓存的使用情况非常重要。
缓存大小
缓存中的条目构建成本很高,因此默认行为是将缓存加载到内存中。默认缓存大小是无限的,这会导致缓存增长,直到字段数据断路器设置的限制。此行为可配置。
如果设置了缓存大小限制,缓存将开始清除缓存中最近更新最少的条目。此设置可以自动避免断路器限制,代价是按需重建缓存。
如果达到断路器限制,将阻止会增加缓存大小的更多请求。在这种情况下,你应该手动清除缓存。
indices.fielddata.cache.size
(静态)字段数据缓存的最大大小,例如节点堆空间的 38%
,或绝对值,例如 12GB
。默认为无界。如果你选择设置它,它应该小于字段数据断路器限制。
监控字段数据
你可以使用节点统计 API 或 cat 字段数据 API 监视字段数据的内存使用情况以及字段数据断路器。
Elasticsearch 索引生命周期管理设置
这些是可用于配置索引生命周期管理(ILM)的设置。
集群级设置
xpack.ilm.enabled
(静态,布尔值)[7.8.0]
此不推荐使用的设置已无效,将在 Elasticsearch 8.0 中删除。
indices.lifecycle.history_index_enabled
(静态,布尔值)是否启用 ILM 的历史索引。如果启用,ILM 将把作为 ILM 策略一部分采取的操作的历史记录记录到 ilm-history-*
索引中。默认为 true
。
indices.lifecycle.poll_interval
(动态,时间单位值)索引生命周期管理检查符合策略条件的索引的频率。默认为 10m
。
索引级设置
这些索引级 ILM 设置通常通过索引模板进行配置。有关详细信息,参阅创建生命周期策略。
index.lifecycle.indexing_complete
(动态,布尔值)指示索引是否已翻转。ILM 完成翻转操作时自动设置为 true
。可以将其显式设置为跳过翻转。默认为 false
。
index.lifecycle.name
(动态,字符串)用于管理索引的策略的名称。有关 Elasticsearch 如何应用策略更改的信息,参阅策略更新。
index.lifecycle.origination_date
(动态,长整型)如果指定,这是用于计算其相变的索引年龄的时间戳。如果创建包含旧数据的新索引并希望使用原始创建日期计算索引年限,请使用此设置。以毫秒为单位指定为 Unix epoch 值。
index.lifecycle.parse_origination_date
(动态,布尔值)设置为 true
可从索引名称解析起始日期。该起始日期用于计算其相变的索引年龄。索引名称必须匹配模式 ^.*-{date_format}-\\d+
,其中 date_format
为 yyyy.MM.dd
,尾随数字是可选的。滚动的索引通常与完整格式匹配,例如 logs-2016.10.31-000002
。如果索引名称与模式不匹配,则索引创建失败。
index.lifecycle.step.wait_time_threshold
(动态,时间单位值)等待群集在 ILM 收缩操作期间解决分配问题的时间。必须大于 1h
(1小时)。默认为 12h
(12小时)。参阅用于收缩的分片分配。
index.lifecycle.rollover_alias
(动态,字符串)索引滚动时要更新的索引别名。指定何时使用包含滚动操作的策略。当索引翻转时,别名将更新以反映索引不再是写索引。有关翻转索引的详细信息,参阅翻转。
索引管理设置
你可以使用以下集群设置来启用或禁用索引管理功能。
action.auto_create_index
(动态)如果索引还不存在将自动创建索引并应用任何配置的索引模板。默认为 true
。
action.destructive_requires_name
(动态)设置为 true
时,必须指定索引名称以删除索引。不可能删除所有带 _all
的索引或使用通配符。
cluster.indices.close.enable
(动态)允许关闭 Elasticsearch 中的开放索引。如果为 false
,则无法关闭打开的索引。默认为 true
。
注意
关闭的索引仍然占用大量磁盘空间。
reindex.remote.whitelist
(静态)指定可以从远程重索引的主机。期望它为 host:port
字符串的 YAML 数组。由逗号分隔的 host:port
条目列表组成。默认值为 ["\*.io:*","\*.com:*"]
。
stack.templates.enabled
(动态)如果为 true
,则启用内置索引和组件模板。Elastic Agent 使用这些模板创建数据流。如果为 false
,Elasticsearch 将禁用这些索引和组件模板。默认为 true
。
此设置影响以下内置索引模板:
logs-*-*
metrics-*-*
synthetics-*-*
此设置也影响以下内置的组件模板:
logs-mappings
logs-settings
metrics-mappings
metrics-settings
synthetics-mapping
synthetics-settings
索引恢复设置
对等恢复将数据从主分片同步到新的或现有的分片副本。
当 Elasticsearch 执行以下操作时,会自动进行对等恢复:
- 重新创建节点故障期间丢失的分片
- 由于集群重平衡或分片分配设置的更改,将分片重新定位到另一个节点
你可以使用 cat 恢复 API 查看正在进行和已完成的恢复列表。
恢复设置
indices.recovery.max_bytes_per_sec
(动态)限制每个节点的总入站和出站恢复流量。适用于对等恢复和快照恢复(即从快照恢复)。默认值为 40mb
,除非节点是专用冷节点或冻结节点,在这种情况下,默认值与节点可用的总内存有关:
总内存 | 在冷节点或冻结节点默认恢复率 |
---|---|
≤ 4 GB | 40 MB/s |
> 4 GB and ≤ 8 GB | 60 MB/s |
> 8 GB and ≤ 16 GB | 90 MB/s |
> 16 GB and ≤ 32 GB | 125 MB/s |
> 32 GB | 250 MB/s |
此限制分别适用于每个节点。如果集群中的多个节点同时执行恢复,则集群的总恢复流量可能会超过此限制。
如果此限制太高,则正在进行的恢复可能会消耗过多的带宽和其他资源,这可能会破坏集群的稳定。
这是一个动态设置,这意味着你可以在每个节点的 elasticsearch.yml
配置文件中设置它,并且可以使用集群更新设置 API 动态更新它。如果动态设置,那么集群中的每个节点都会受到相同的限制。如果不动态设置,则可以在每个节点上设置不同的限制,这在某些节点的带宽比其他节点的带宽更好时非常有用。例如,如果你使用的是索引生命周期管理,那么你可以为热点节点提供比温和节点更高的恢复带宽限制。
高级对等恢复设置
你可以使用以下高级设置来管理对等恢复的资源。
indices.recovery.max_concurrent_file_chunks
(动态,高级)为每次恢复并行发送的文件块数。默认值为 2
。
当单个分片的恢复未达到 indices.recovery.max_bytes_per_sec
设置的流量限制,可以增加此值,最大值为 8
。
indices.recovery.max_concurrent_operations
(动态,高级)每个恢复并行发送的操作数。默认值为 1
。
在恢复过程中并发重放操作可能非常耗费资源,并且可能会干扰集群中的索引、搜索和其他活动。如果没有仔细验证集群是否有足够的资源来处理将导致的额外负载,请不要增加此设置。
indices.recovery.use_snapshots
(动态,高级)启用基于快照的对等恢复。
注意
此特性是为 Elasticsearch Service 间接使用而设计的。不支持直接使用。Elastic 保留在未来版本中更改或删除此功能的权利,恕不另行通知。
Elasticsearch 使用对等恢复过程恢复副本并重新定位主分片,这涉及在目标节点上构建碎片的新副本。当 indices.recovery.use_snapshots
为 false
, Elasticsearch 将通过从当前主节点传输索引数据来构建此新副本。如果此设置为 true
,Elasticsearch 将首先尝试从最近的快照复制索引数据,如果无法识别合适的快照,则仅从主快照复制数据。默认为 true
。
如果集群在节点到节点的数据传输成本高于从快照恢复数据的成本的环境中运行,则将此选项设置为 true
可降低操作成本。它还减少了主服务器在恢复期间必须完成的工作量。
此外,在恢复分片时,将参考设置为 use_for_peer_recovery=true
的仓库以找到一个好的快照。如果没有注册的仓库定义了此设置,则将从源节点恢复索引文件。
indices.recovery.max_concurrent_snapshot_file_downloads
(动态,高级)为每次恢复并行发送到目标节点的快照文件下载请求数。默认值为 5
。
如果没有仔细验证集群是否有足够的资源来处理将导致的额外负载,请不要增加此设置。
indices.recovery.max_concurrent_snapshot_file_downloads_per_node
(动态,高级)在目标节点中为所有恢复并行执行的快照文件下载请求数。默认值为 25
。
如果没有仔细验证集群是否有足够的资源来处理将导致的额外负载,请不要增加此设置。
托管服务的恢复设置
注意
此功能旨在供 Elasticsearch Service、ElasticCloud Enterprise 和 Kubernetes 上的 Elastic Cloud 间接使用。不支持直接使用。
警告
此功能在 Elasticsearch 7.17.1 和 8.0.1 以后的版本中可用,但在 Elastic search 8.0.0 中不受支持。因此,在升级到 8.0.0 之前,应删除托管服务的恢复设置。可以在 7.17.1 中配置设置,然后直接升级到 8.0.1。
将 Elasticsearch 作为托管服务运行时,以下设置允许服务为每个节点上的磁盘读取、磁盘写入和网络流量指定绝对最大带宽,并允许你根据这些绝对最大值控制每个节点上最大恢复带宽。它们有两个效果:
- 如果未设置
indices.recovery.max_bytes_per_sec
,它们将确定用于恢复的带宽,覆盖上述默认行为。 - 它们对恢复带宽施加了节点范围的限制,这与
indices.recovery.max_bytes_per_sec
的值无关。
如果未设置 indices.recovery.max_bytes_per_sec
,则将最大恢复带宽计算为绝对最大带宽的一部分。读取和写入流量分别执行计算。该服务使用 node.bandwidth.recovery.disk.read
、node.bandwidth.recovery.disk.write
和 node.bandwidth.recovery.network
定义磁盘读取、磁盘写入和网络传输的绝对最大带宽,你可以通过调整 node.bandwidth.recovery.factor.read
和 node.bandwidth.recovery.factor.write
来设置可用于恢复的绝对最大带宽的比例。如果启用了操作员权限功能,则服务还可以使用这些设置的仅操作员变体设置默认比例。
如果设置 indices.recovery.max_bytes_per_sec
,则 Elasticsearch 将使用其值作为最大恢复带宽,只要这不超过节点范围的限制。Elasticsearch 通过将绝对最大带宽乘以 node.bandwidth.recovery.operator.factor.max_overcommit
因子来计算节点宽度限制。如果将 indices.recovery.max_bytes_per_sec
设置为超出节点范围限制,则节点范围限制优先。
服务应该通过实验确定绝对最大带宽设置的值,使用类似于恢复的工作负载,其中有几个并发工作器,每个工作器以 512kiB 的块顺序处理文件。
node.bandwidth.recovery.disk.read
(每秒字节值)节点上类似恢复的工作负载的绝对最大磁盘读取速度。如果设置了它,node.bandwidth.recovery.disk.write
和 node.bandwidth.recovery.network
也必须设置。
node.bandwidth.recovery.disk.write
(每秒字节值)节点上类似恢复的工作负载的绝对最大磁盘写入速度。如果设置了它,node.bandwidth.recovery.disk.read
和 node.bandwidth.recovery.network
也必须设置。
node.bandwidth.recovery.network
(每秒字节值)节点上类似恢复的工作负载的绝对最大磁盘写入速度节点上类似于恢复的工作负荷的绝对最大网络吞吐量,适用于读取和写入。如果设置了它,node.bandwidth.recovery.disk.read
和 node.bandwidth.recovery.write
也必须设置。
node.bandwidth.recovery.factor.read
(浮点数)如果 indices.recovery.max_bytes_per_sec
和 node.bandwidth.recovery.factor.write
可用于恢复的最大写入带宽的比例。必须大于 0
,小于等于 1
。如果未设置,将会使用 node.bandwidth.recovery.operator.factor
。如果未设置因子设置,则使用值 0.4
。启用操作员权限功能后,此设置只能由操作员用户更新。
node.bandwidth.recovery.operator.factor
(浮点数)如果 indices.recovery.max_bytes_per_sec
或其他任何因子都未设置,则为可用于恢复的最大带宽比例。必须大于 0
,小于等于 1
。默认为 0.4
。启用操作员权限功能后,此设置只能由操作员用户更新。
node.bandwidth.recovery.operator.factor.max_overcommit
(浮点数)无论任何其他设置如何,可用于恢复的绝对最大带宽比例。必须大于 0
。默认为 100
。启用操作员权限功能后,此设置只能由操作员用户更新。
索引缓存区设置
索引缓冲区用于存储新索引的文档。当它填满时,缓冲区中的文档将写入磁盘上的一个段。它在节点上的所有分片之间划分。
以下设置是静态的,必须在集群中的每个数据节点上配置:
indices.memory.index_buffer_size
(静态)接受百分比或字节大小值。它默认为 10%
,这意味着分配给节点的总堆的 10%
将用作所有分片共享的索引缓冲区大小。
indices.memory.min_index_buffer_size
(静态)如果将 index_buffer_size
指定为百分比,则可以使用此设置指定绝对最小值。默认值为 48mb
。
indices.memory.max_index_buffer_size
(静态)如果将 index_buffer_size
指定为百分比,则可以使用此设置指定绝对最大值。默认为未限定。
许可证设置
你可以在 elasticsearch.yml
文件中配置此许可设置。有关更多信息,请参阅许可证管理。
xpack.license.self_generated.type
(静态) 设置为 basic
(默认值)以启用 X-Pack 的基本功能。
如果设置为 trial
,自行生成的许可证只能在 30 天内使用 x-pack 的所有功能。如果需要,可以稍后将集群降级为基本许可证。
本地网关设置
本地网关在整个集群重启期间存储集群状态和分片数据。
以下静态设置(必须在每个主节点上设置)控制新选择的主节点在尝试恢复群集状态和群集数据之前应等待多长时间。
注意
这些设置仅在完全重新启动集群时生效。
gateway.expected_nodes
(静态)[7.7.0]集群中预期的数据或主节点的数量。当预期的节点数加入集群时,本地碎片的恢复开始。默认为 0
。
gateway.expected_master_nodes
(静态)[7.7.0]集群中预期的主节点的数量。当预期的主节点的预期数加入集群时,本地碎片的恢复开始。默认为 0
。
gateway.expected_data_nodes
(静态)集群中预期的数据节点数。当预期数量的数据节点加入集群时,开始恢复本地分片。默认值为 0
。
gateway.recover_after_time
(静态)如果未达到预期的节点数,恢复过程将等待配置的时间量,然后再尝试恢复。如果配置了 expected_nodes
设置之一,则默认为 5m
。
一旦 recover_after_time
持续时间超时,只要满足以下条件,恢复将开始:
gateway.recover_after_nodes
(静态)[7.7.0]只要许多数据或主节点加入了集群,就可以恢复。
gateway.recover_after_master_nodes
(静态)[7.7.0]只要这许多主节点加入了集群,就可以恢复。
gateway.recover_after_data_nodes
(静态)只要有这么多数据节点加入群集,即可恢复。
悬空索引
当节点加入集群时,如果发现存储在其本地数据目录中的任何碎片在集群中尚不存在,则会认为这些分片属于 “悬空” 索引。使用 gateway.auto_import_dangling_indices
将悬挂索引导入集群是不安全的。相反,使用悬挂索引 API。当索引仍然是集群的一部分时,这两种机制都不能保证导入的数据是否真正代表数据的最新状态。
gateway.auto_import_dangling_indices
[7.9.0]如果没有同名的索引存在,是否自动将悬空索引导入集群状态。默认为 false
。
警告
自动导入功能旨在尽最大努力帮助丢失所有主节点的用户。例如,如果要启动一个不知道集群中其他索引的新主节点,则添加旧节点将导致导入旧索引,而不是删除旧索引。然而,自动导入存在一些问题,强烈建议使用 <悬挂索引api,专用 api>。
警告
丢失所有主节点是一种无论如何都要避免的情况,因为这会使集群的元数据和数据处于危险之中。
日志
你可以使用 Elasticsearch 的应用程序日志来监视集群并诊断问题。如果将 Elasticsearch 作为服务运行,则日志的默认位置会因平台和安装方法而异:
- Docker
在 Docker 上,日志消息进入控制台,由配置的 Docker 日志驱动程序处理。要访问日志,请运行 docker logs
。
- Debian(APT)
对于 Debian 安装,Elasticsearch 将日志写入 /var/log/elasticsearch
。
- RPM
对于 RPM 安装,Elasticsearch 将日志写入 /var/log/elasticsearch
。
- macOS
对于 macOS .tar.gz 安装,Elasticsearch 将日志写入 $ES_HOME/logs
。
升级期间,$ES_HOME
中的文件可能会被删除。在生产中,我们强烈建议你设置 path.logs
以记录到 $ES_HOME
之外的位置。参阅路径设置。
- Brew
对于 MacOS Homebrew 安装,Elasticsearch 将日志写入 /usr/local/var/log/elasticsearch
。
- Linux
对于 Linux .tar.gz 安装,Elasticsearch 将日志写入 $ES_HOME/logs
。
升级期间,$ES_HOME
中的文件可能会被删除。在生产中,我们强烈建议你将 path.logs
设置在 $ES_HOME
之外的位置。参阅路径设置。
- Windows .zip
对于 Windows .zip 安装,Elasticsearch 将日志写入 %ES_HOME%\logs
。
%ES_HOME%
中的文件可能在升级过程中被删除。在生产环境中,我们强烈建议你将 path.logs
设置在 %ES_HOME%
之外的位置。参阅路径设置。
如果从命令行运行 Elasticsearch,Elasticsearch 会将日志打印到标准输出(stdout
)。
日志配置
重要
Elastic 强烈建议使用默认提供的 Log4j 2 配置。
Elasticsearch 使用 Log4j 2 进行日志记录。可以使用 log4j2.properties
文件配置 Log4j 2。Elasticsearch 暴露了三个属性,${sys:es.logs.base_path}
、${sys:es.logs.cluster_name}
和 ${sys:es.logs.node_name}
,它们可以在配置文件中引用以确定日志文件的位置。属性 ${sys:es.logs.base_path}
会解析为日志目录,${sys:es.logs.cluster_name}
会解析为集群名字(在默认配置中用作日志文件名的前缀),以及 ${sys:es.logs.node_name}
会解析为节点名字(如果显示设置了节点名字)。
例如,如果你的日志目录(path.logs
)是 /var/log/elasticsearch
且你的集群被命名为 production
那么 ${sys:es.logs.base_path}
会解析为 /var/log/elasticsearch
,并且 ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}.log
会解析为 /var/log/elasticsearch/production.log
。
##Server JSON ############################
appender.rolling.type = RollingFile ①
appender.rolling.name = rolling
appender.rolling.fileName = ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}_server.json ②
appender.rolling.layout.type = ESJsonLayout ③
appender.rolling.layout.type_name = server ④
appender.rolling.filePattern = ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}-%d{yyyy-MM-dd}-%i.json.gz ⑤
appender.rolling.policies.type = Policies
appender.rolling.policies.time.type = TimeBasedTriggeringPolicy ⑥
appender.rolling.policies.time.interval = 1 ⑦
appender.rolling.policies.time.modulate = true ⑧
appender.rolling.policies.size.type = SizeBasedTriggeringPolicy ⑨
appender.rolling.policies.size.size = 256MB ⑩
appender.rolling.strategy.type = DefaultRolloverStrategy
appender.rolling.strategy.fileIndex = nomax
appender.rolling.strategy.action.type = Delete ⑪
appender.rolling.strategy.action.basepath = ${sys:es.logs.base_path}
appender.rolling.strategy.action.condition.type = IfFileName ⑫
appender.rolling.strategy.action.condition.glob = ${sys:es.logs.cluster_name}-* ⑬
appender.rolling.strategy.action.condition.nested_condition.type = IfAccumulatedFileSize ⑭
appender.rolling.strategy.action.condition.nested_condition.exceeds = 2GB ⑮
################################################
① 配置 RollingFile
附加器
② 记录日志到 /var/log/elasticsearch/production_server.json
③ 使用 JSON 布局
④ type_name是一个标志,用于填充 ESJsonLayout 中的类型字段。在解析不同类型的日志时,可以更容易地使用它来区分它们。
⑤ 将日志滚动到 /var/log/elasticsearch/production-yyyy-MM-dd-i.json
;日志将在每个卷上压缩,i
将递增
⑥ 使用基于时间的滚动策略
⑦ 每天滚动日志
⑧ 在白天边界上对齐滚动(而不是每 24 小时滚动一次)
⑨ 使用基于大小的滚动策略
⑩ 256 MB 后滚动日志
⑪ 滚动日志时使用删除操作
⑫ 仅删除与文件模式匹配的日志
⑬ 模式是只删除主日志
⑭ 仅当我们累积了太多压缩日志时才删除
⑮ 压缩日志的大小条件为 2 GB
##Server - old style pattern ###########
appender.rolling_old.type = RollingFile
appender.rolling_old.name = rolling_old
appender.rolling_old.fileName = ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}_server.log ①
appender.rolling_old.layout.type = PatternLayout
appender.rolling_old.layout.pattern = [%d{ISO8601}][%-5p][%-25c{1.}] [%node_name]%marker %m%n
appender.rolling_old.filePattern = ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}-%d{yyyy-MM-dd}-%i.old_log.gz
① old style
附加程序的配置。这些日志将保存在 *.log
文件中,如果存档,则保存在 *.log.gz
文件中。请注意,这些应该被视为已弃用,并将在将来删除。
注意
Log4j 的配置解析被任何无关的空格所混淆;如果复制并粘贴此页面上的任何 Log4j 设置,或输入任何 Log4j 配置,请确保删除任何前导和尾随空格。
注意,在 appender.rolling.filePattern
使用 .zip
格式替代 .gz
以通过 zip
格式压缩滚动日志。如果删除 .gz
扩展名,则日志在滚动时不会被压缩。
如果要在指定的时间段内保留日志文件,可以使用滚动策略和删除操作。
appender.rolling.strategy.type = DefaultRolloverStrategy ①
appender.rolling.strategy.action.type = Delete ②
appender.rolling.strategy.action.basepath = ${sys:es.logs.base_path} ③
appender.rolling.strategy.action.condition.type = IfFileName ④
appender.rolling.strategy.action.condition.glob = ${sys:es.logs.cluster_name}-* ⑤
appender.rolling.strategy.action.condition.nested_condition.type = IfLastModified ⑥
appender.rolling.strategy.action.condition.nested_condition.age = 7D ⑦
① 配置 DefaultRolloverStrategy
② 配置用于处理回滚的 Delete
操作
③ Elasticsearch 日志的基本路径
④ 处理滚动时应用的条件
⑤ 从与 ${sys:es.logs.cluster_name}-*
匹配的基本路径中删除文件;这是日志文件滚动到的 glob;这不仅需要删除滚动的 Elasticsearch 日志,还需要删除弃用日志和慢日志
⑥ 要应用于与 glob 匹配的文件的嵌套条件
⑦ 日志保留七天
可以加载多个配置文件(在这种情况下,它们将被合并),只要它们被命名为 log4j2.properties
,并将 Elasticsearch 配置目录作为前驱;这对于暴露附加记录器的插件很有用。logger 部分包含 java 包及其相应的日志级别。appender 部分包含日志的目标。有关如何自定义日志记录和所有支持的附加程序的详细信息,可以在 Log4j 文档中找到。
配置日志级别
Elasticsearch 源代码中的每个 Java 包都有一个相关的记录器。例如,org.elasticsearch.discovery
包有 logger.org.elasticsearch.discovery
用于与发现过程相关的日志。
要获取更多或更少的详细日志,请使用集群更新设置 API 更改相关记录器的日志级别。每个记录器都接受 Log4j 2 的内置日志级别,从最低到最详细:OFF
、FATAL
、ERROR
、WARN
、INFO
、DEBUG
和 TRACE
。默认日志级别为 INFO
。以较高详细级别(DEBUG
和 TRACE
)记录的消息仅供专家使用。
PUT /_cluster/settings
{
"persistent": {
"logger.org.elasticsearch.discovery": "DEBUG"
}
}
更改日志级别的其他方法包括:
- elasticsearch.yml:
logger.org.elasticsearch.discovery: DEBUG
在单个节点上调试问题时,这是最合适的。
- log4j2.properties:
logger.discovery.name = org.elasticsearch.discovery
logger.discovery.level = debug
当你已经因为其他原因需要更改 Log4j 2 配置时,这是最合适的。例如,你可能希望将特定记录器的日志发送到另一个文件。然而,这些用例很少。
弃用的日志
Elasticsearch 还将弃用日志写入日志目录。当你使用已弃用的 Elasticsearch 功能时,这些日志会记录一条消息。在将 Elasticsearch 升级到新的主要版本之前,你可以使用弃用日志来更新应用程序。
默认情况下,Elasticsearch 以 1GB 的速度滚动和压缩弃用日志。默认配置最多保留五个日志文件:四个滚动日志和一个活动日志。
Elasticsearch 在 CRITICAL
级别发出弃用日志消息。这些消息表明,在下一个主要版本中将删除使用过的弃用功能。WARN
级别的弃用日志消息表明使用了一个不太关键的功能,它不会在下一个主要版本中删除,但可能会在将来删除。
要停止写入弃用日志消息,请设置 log4j2.properties
中的 logger.deprecation.level
为 OFF
:
logger.deprecation.level = OFF
或者,你可以动态更改日志记录级别:
PUT /_cluster/settings
{
"persistent": {
"logger.org.elasticsearch.deprecation": "OFF"
}
}
参考配置日志级别
如果 X-Opaque-Id
用作 HTTP 头,你可以确定是什么触发了不推荐的功能。用户 ID 包含在弃用 JSON 日志的 X-Opaque-ID
字段中。
{
"type": "deprecation",
"timestamp": "2019-08-30T12:07:07,126+02:00",
"level": "WARN",
"component": "o.e.d.r.a.a.i.RestCreateIndexAction",
"cluster.name": "distribution_run",
"node.name": "node-0",
"message": "[types removal] Using include_type_name in create index requests is deprecated. The parameter will be removed in the next major version.",
"x-opaque-id": "MY_USER_ID",
"cluster.uuid": "Aq-c-PAeQiK3tfBYtig9Bw",
"node.id": "D7fUYfnfTLa2D7y-xw6tZg"
}
cluster.deprecation_indexing.enabled
设置被设置为 true
,弃用日志可被索引到 .logs-deprecation.elasticsearch-default
数据流。
弃用日志限制
弃用日志基于弃用的功能键和 x-opaque-id
进行重复数据消除,这样,如果重复使用某个功能,则不会使弃用日志过载。这适用于索引的弃用日志和发送到日志文件的日志。通过将 cluster.deprecation_indexing.x_opaque_id_used.enabled
更改为 false
,你可以禁用在节流中使用 x-opaque-id
。参阅 RateLimitingFilter。
JSON 日志格式
为了更容易解析 Elasticsearch 日志,日志现在以 JSON 格式打印。这由 Log4J 布局属性 appender.rolling.layout.type=ECSJsonLayout
配置。此布局需要设置 type_name
属性,该属性用于在分析时区分日志流。
appender.rolling.layout.type = ECSJsonLayout
appender.rolling.layout.type_name = server
每行包含一个 JSON 文档,属性在 ECSJsonLayout
中配置。有关详细信息,参阅此类 javadoc。但是,如果 JSON 文档包含异常,则将在多行上打印。第一行将包含常规属性,随后的行将包含格式化为 JSON 数组的堆栈跟踪。
注意
你仍然可以使用自己的自定义布局。为此,使用不同的布局替换行 appender.rolling.layout.type。参见以下示例:
appender.rolling.type = RollingFile
appender.rolling.name = rolling
appender.rolling.fileName = ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}_server.log
appender.rolling.layout.type = PatternLayout
appender.rolling.layout.pattern = [%d{ISO8601}][%-5p][%-25c{1.}] [%node_name]%marker %.-10000m%n
appender.rolling.filePattern = ${sys:es.logs.base_path}${sys:file.separator}${sys:es.logs.cluster_name}-%d{yyyy-MM-dd}-%i.log.gz
Elasticsearch 中的机器学习设置
使用机器学习不需要配置任何设置。默认情况下已启用。
重要
机器学习使用 SSE4.2 指令,因此它只能在 CPU 支持 SSE4.2 的机器上工作。如果在旧硬件上运行 Elasticsearch,则必须禁用机器学习(通过将
xpack.ml.enabled
设置为false
)。
通用机器学习设置
node.roles: [ ml ]
(静态)将 node.role
设置为包含 ml
,以将该节点标识为机器学习节点。如果要运行机器学习作业,集群中必须至少有一个机器学习节点。
如果设置 node.role
,则必须显式指定节点所需的所有角色。要了解更多信息,参阅节点。
重要
- 在专用协调节点或专用主节点上,不要设置
ml
角色。- 强烈建议专用机器学习节点也具有
remote_cluster_client
角色;否则,在机器学习作业或数据反馈中使用跨集群搜索会失败。参阅远程合格节点。
xpack.ml.enabled
(静态)默认值(true
)启用节点上的机器学习 API。
重要
如果要在集群中使用机器学习功能,建议在所有节点上使用此设置的默认值。
如果设置为 false
,则在节点上禁用机器学习 API。例如,节点无法打开作业、启动数据源、接收传输(内部)通信请求或来自客户端(包括 Kibana)的与机器学习 API 相关的请求。
xpack.ml.inference_model.cache_size
(静态)允许的最大推测缓存大小。推测缓存存在于每个预处理节点上的 JVM 堆中。高速缓存为 inference
处理器提供了更快的处理时间。该值可以是静态字节大小的值(例如 2gb
),也可以是总分配堆的百分比。默认为 40%
。另参阅机器学习断路器设置。
xpack.ml.inference_model.time_to_live cloud
(静态)推理模型缓存中训练模型的生存时间(TTL)。TTL 从上次访问开始计算。缓存的用户(例如推理处理器或推理聚合器)在第一次使用时缓存模型,并在每次使用时重置 TTL。如果在 TTL 期间未访问缓存模型,则会将其标记为从缓存中逐出。如果稍后处理文档,则模型将再次加载到缓存中。要在 Elasticsearch 服务中更新此设置,参阅添加 Elasticsearch 用户设置。默认为 5m
。
xpack.ml.max_inference_processors
(动态)所有预处理管道中允许的 inference
类型处理器总数。一旦达到限制,就不允许向管道中添加 inference
处理器。默认值为 50
。
xpack.ml.max_machine_memory_percent
(动态)机器学习可用于运行分析过程的机器内存的最大百分比。这些进程与 Elasticsearch JVM 分离。该限制基于机器的总内存,而不是当前可用内存。如果这样做会导致机器学习作业的估计内存使用超过限制,则不会将作业分配给节点。启用操作员权限功能后,此设置只能由操作员用户更新。最小值为 5
;最大值为 200
。默认值为 30
。
提示
不要将此设置配置为高于运行 Elasticsearch JVM 后剩余内存量的值,除非你有足够的交换空间来容纳它,并且确定这是适合于特定用例的配置。最大设置值适用于已确定为机器学习作业使用交换空间是可接受的特殊情况。一般的最佳实践是不要在 Elasticsearch 节点上使用 swap。
xpack.ml.max_model_memory_limit
(动态)可以为此集群中的任何机器学习作业设置的最大 model_memory_limit
属性值。如果尝试创建 model_memory_limit
属性值大于此设置值的作业,则会发生错误。更新此设置时,现有作业不受影响。如果此设置为 0
或未设置,则没有最大 model_memory_limit
值。如果没有满足作业内存要求的节点,那么缺少最大内存限制意味着可以创建无法分配给任何可用节点的作业。有关 model_memory_limit
属性的更多信息,参阅创建异常检测作业或创建数据帧分析作业。默认为 0。
xpack.ml.max_open_jobs
(动态)节点上可以同时运行的最大作业数。在这种情况下,作业包括异常检测作业和数据帧分析作业。作业的最大数量也受到内存使用的限制。因此,如果作业的估计内存使用率高于允许值,则节点上运行的作业将更少。在版本 7.1 之前,此设置是每个节点的非动态设置。在 7.1 版中,它成为了集群范围的动态设置。因此,只有在集群中的每个节点都运行 7.1 或更高版本后,才会在节点启动后对其值进行更改。最小值为 1
;最大值为 512
。默认值为 512
。
xpack.ml.nightly_maintenance_requests_per_second
(动态)夜间维护任务删除过期模型快照和结果的速率。该设置是按查询请求删除中使用的 requests_per_second
参数的代理,并控制节流。启用操作员权限功能后,此设置只能由操作员用户更新。有效值必须大于 0.0
或等于 -1.0
,其中 -1.0
表示使用默认值。默认值为 -1.0
。
xpack.ml.node_concurrent_job_allocations
(动态)每个节点上可以同时处于 opening
状态的最大作业数。通常,工作在进入 open
状态之前会在这种状态下花费少量时间。必须在大型模型打开时恢复的工作在 opening
状态下花费更多时间。启用操作员权限功能后,此设置只能由操作员用户更新。默认值为 2
。
高级机器学习设置
这些设置适用于高级用例;默认值通常足够:
xpack.ml.enable_config_migration
(动态)保留。启用操作员权限功能后,此设置只能由操作员用户更新。
xpack.ml.max_anomaly_records
(动态)每个存储桶输出的最大记录数。默认值为 500
。
xpack.ml.max_lazy_ml_nodes
(动态)延迟启动的机器学习节点的数量。在第一个机器学习作业打开之前不需要机器学习节点的情况下有用。如果机器学习节点的当前数量大于或等于此设置,则假设没有更多的空闲节点可用,因为已经提供了所需数量的节点。如果作业已打开,并且此设置的值大于零,并且没有节点可以接受该作业,则该作业将保持在 OPENING
状态,直到将新的机器学习节点添加到集群,并将作业分配到该节点上运行。启用操作员权限功能后,此设置只能由操作员用户更新。默认值为 0
。
重要
此设置假定某些外部进程能够将机器学习节点添加到集群。此设置仅在与此类外部进程一起使用时有用。
xpack.ml.max_ml_node_size
(动态)支持自动集群扩展的部署中机器学习节点的最大节点大小。如果将其设置为未来机器学习节点的最大可能大小,则当机器学习作业分配给懒节点时,当缩放无法支持作业的大小时,它可以检查(并快速失败)。启用操作员权限功能后,此设置只能由操作员用户更新。默认值为 0b
,这意味着将假设自动集群缩放可以向集群添加任意大的节点。
xpack.ml.persist_results_max_retries
(动态)处理机器学习结果时重试失败的批量索引请求的最大次数。如果达到限制,机器学习作业将停止处理数据,其状态为失败。启用操作员权限功能后,此设置只能由操作员用户更新。最小值为 0
;最大值为 50
。默认值为 20
。
xpack.ml.process_connect_timeout
(动态)与 Elasticsearch JVM 分开运行的机器学习进程的连接超时。当这些进程启动时,它们必须连接到 Elasticsearch JVM。如果进程在该设置指定的时间段内未连接,则认为该进程已失败。启用操作员权限功能后,此设置只能由操作员用户更新。最小值为 5s
。默认值为 10s
。
xpack.ml.use_auto_machine_memory_percent
(动态)如果此设置为 true
,则将忽略 xpack.ml.max_machine_memory_percent
设置。相反,可以用于运行机器学习分析过程的机器内存的最大百分比是自动计算的,并考虑了节点的总大小和节点上 JVM 的大小。启用操作员权限功能后,此设置只能由操作员用户更新。默认值为 false
。
重要
- 如果没有专用的机器学习节点(也就是说,节点具有多个角色),请不要启用此设置。其计算假设机器学习分析是节点的主要目的。
- 计算假设专用机器学习节点在 JVM 外部至少保留了
256MB
内存。如果集群中有微小的机器学习节点,则不应使用此设置。
机器学习断路器设置
breaker.model_inference.limit
(动态)训练模型断路器的限定。该值定义为 JVM 堆的百分比。默认为 50%
。如果父断路器设置为小于 50%
的值,则此设置将使用该值作为默认值。
breaker.model_inference.overhead
(动态)所有经过训练的模型估计值乘以确定最终估计值的常数。参阅断路器设置。默认值为 1
。
breaker.model_inference.type
(静态)断路器的基本类型。有两个有效的选项:noop
和 memory
。noop
意味着断路器不采取任何措施来防止过多的内存使用。memory
意味着断路器跟踪训练模型使用的内存,并可能中断和防止内存溢出错误。默认值为 memory
。