Elasticsearch 的 Reindex API 详解

在业务中只要有使用到 Elasticsearch 的场景,那么有时候会遇到需要重构索引的情况,例如 mapping 被污染了、某个字段需要变更类型等。如果对 reindex API 不熟悉,那么在遇到重构的时候,必然事倍功半,效率低下。但是如果熟悉了,就可以方便地进行索引重构,省时省力。

本文演示内容基于 Elasticsearch v5.6.8,在以后会不断补充完善。

常用方式

提前声明,在开始演示具体的 API 的时候,有一点读者必须知道,reindex 不会尝试自动设置目标索引,它也不会复制源索引的设置。读者应该在运行 reindex 操作之前设置好目标索引的参数,包括映射、分片数、副本数等等。目标索引如果不设置 mapping,则会使用默认的配置,默认配置不会自动处理一些有特殊要求的字段【例如分词字段、数值类型字段】,则会引发字段类型错误的结果。

当然,关于设置索引,最常见的做法不是手动设置索引信息,而是使用索引模版【使用动态模版:dynamic_templates】,只要索引模版的匹配形式可以匹配上源索引和目标索引,我们不需要去考虑索引配置的问题,模版会为我们解决对应的问题。当然,关于的索引的分片数、副本数,还是需要考虑的。

最后,关于版本的说明,以下内容只针对 v5.x 以及之后的版本,更多版本的使用方式读者可以参考文末的备注信息。

迁移数据简单示例

涉及到 _reindex 关键字,简单示例如下:

1
2
3
4
5
6
7
8
9
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2"
}
}

执行返回结果:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
{
"took": 9991,
"timed_out": false,
"total": 12505,
"updated": 12505,
"created": 0,
"deleted": 0,
"batches": 13,
"version_conflicts": 0,
"noops": 0,
"retries": {
"bulk": 0,
"search": 0
},
"throttled_millis": 0,
"requests_per_second": -1,
"throttled_until_millis": 0,
"failures": []
}

演示结果

演示结果迁移了 12505 条数据,耗时 9991 毫秒。

以上只是一个非常基础的示例,还有一些可以优化的参数没有指定,全部使用的是默认值,例如看到 batchestotal 对应的数值,就可以算出一批的数据大小默认为 1000,12505 条数据需要 13 批次才能迁移完成。再看到 updated 的数值,就可以猜测是更新了目标索引的数据,而不是创建数据,说明目标索引本来就有数据,被重新覆盖了。而这些内容在后续的小节中都会逐一解释,并再次演示。

注意一点,如果 Elasticsearchv6.x 以及以下的版本,会涉及到索引的 type,如果源索引只有一个 type,则可以省略 type 这个参数,即不需要指定【数据会迁移到目标索引的同名 type 里面】。但是,如果涉及到多个 type 的数据迁移,肯定是要指定的【例如把多个 type 的数据迁移到同一个 type 中,或者仅仅把某个 type 的数据迁移到另外一个 type 中】。因此,为了准确无误,最好还是指定 type【当然再高的版本就没有 type 的概念了,无需指定】。

如果根据上面的示例,再添加 type 参数:

1
2
3
4
5
6
7
8
9
10
11
POST _reindex
{
"source": {
"index": "my-index-user",
"type": "user"
},
"dest": {
"index": "my-index-user-v2",
"type": "user"
}
}

version_type 参数

就像 _update_by_query 里面的逻辑一样,_reindex 会生成源索引的快照【snapshot】,但是它的目标索引必须是一个不同的索引【另外创建一个】,以便避免版本冲突问题。同时,针对 dest index 可以像 index API【索引数据】 一样进行配置,以乐观锁控制并发写入【并发写入相同的数据,通过 version 来控制,有冲突时会写入失败,可以重试】。

像上面那样最简单的方式,不设置 version_type 参数【默认为 internal】或显式设置它为 internal,效果都一样。此时,Elasticsearch 将会直接将文档转储到 dest index 中,直接覆盖任何具有相同类型和 iddocument,不会产生冲突问题。

1
2
3
4
5
6
7
8
9
10
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2",
"version_type": "internal"
}
}

如果把 version_type 设置为 external,则 Elasticsearch 会从 source 读取 version 字段,当遇到具有相同类型和 iddocument 时,只会保留 newer verion,即最新的 version 对应的数据。此时可能会有冲突产生【例如把 op_type 设置为 create】,对于产生的冲突现象,返回体中的 failures 会携带冲突的数据信息【类似详细的日志可以查看】。

1
2
3
4
5
6
7
8
9
10
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2",
"version_type": "external"
}
}

上面的说法看起来似乎有点不好理解,再简单直观点来说,就是在 redinex 的时候,我们的 dest index 可以不是一个新创建的不包含数据的 index,而是已经包含有数据的。如果我们的 source indexdest index 里面有相同类型和 iddocument【一模一样的数据】,对于使用 internal 来说,就是直接覆盖,而使用 external 的话,只有当 source index 的数据的 versiondest index 数据的 version 更加新的时候,才会去更新【即保留最新的 version 对应的数据】。

再说明一下,internal 可以理解为使用内部版本号,即 Elasticsearch 不会单独比较版本号,对于 dest index 来说,无论是索引数据还是更新数据,写入时都按部就班把版本号累加,所以也就不会有冲突问题【从 source index 出来的数据是不携带版本信息的】,但是有可能会出现版本号不合法的问题,参考后面的 使用脚本配置 小节【使用脚本时人为变更版本号】。

另一方面,external 表示外部版本号,即 Elasticsearch 会单独比较版本号再决定写入的流程,对于 dest index 来说,无论是索引数据还是更新数据,写入时会先比较版本号,只保留版本号最大的数据【如果是来自不同索引的数据,版本号会不一致;如果是来自不同集群的数据,版本号规则可能也不一致】。

op_type 参数

op_type 参数控制着写入数据的冲突处理方式,如果把 op_type 设置为 create【默认值】,在 _reindex API 中,表示写入时只在 dest index 中添加不存在的 doucment,如果相同的 document 已经存在,则会报 version confilct 的错误,那么索引操作就会失败。【这种方式与使用 _create API 时效果一致】

1
2
3
4
5
6
7
8
9
10
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2",
"op_type": "create"
}
}

如果这样设置了,也就不存在更新数据的场景了【冲突数据无法写入】,则 version_type 参数的设置也就无所谓了【但是返回体的 failures 中还是会携带冲突信息】。

另外也可以把 op_type 设置为 index,表示所有的数据全部重新索引创建。

再总结一下,如果把 version_type 设置为 external,无论 op_type 怎么设置,都有可能产生冲突【会比较版本】;如果把 version_type 设置为 internal,则在 op_typeindex 的时候不会产生冲突,在 op_typecreate 的时候可能有冲突。

conflicts 配置

默认情况下,当发生 version conflict 的时候,_reindex 会被 abort,任务终止【此时数据还没有 reindex 完成】,在返回体中的 failures 指标中会包含冲突的数据【有时候数据会非常多】,除非把 conflicts 设置为 proceed

关于 abort 的说明,如果产生了 abort,已经执行的数据【例如更新写入的】仍然存在于目标索引,此时任务终止,还会有数据没有被执行,也就是漏数了。换句话说,该执行过程不会回滚,只会终止。如果设置了 proceed,任务在检测到数据冲突的情况下,不会终止,会跳过冲突数据继续执行,直到所有数据执行完成,此时不会漏掉正常的数据,只会漏掉有冲突的数据。

1
2
3
4
5
6
7
8
9
10
11
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2",
"op_type": "create"
},
"conflicts": "proceed"
}

故意把 op_type 设置为 create,人为制造数据冲突的场景,测试时更容易观察到冲突现象。

如果把 conflicts 设置为 proceed,在返回体结果中不会再出现 failures 的信息,但是通过 version_conflicts 指标可以看到具体的数量。

query 配置

迁移数据的时候,肯定有只是复制源索引中部分数据的场景,此时就需要配置查询条件【使用 query 参数】,只复制命中条件的部分数据,而不是全部,这和查询 Elasticsearch 数据的逻辑一致。

如下示例,通过 query 参数,把需要 _reindexdocument 限定在一定的范围,我这里是限定更新时间 update_timestamp 在 1546272000000【20190101000000】之后。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
POST _reindex
{
"source": {
"index": "my-index-user",
"query": {
"bool": {
"must": [
{
"range": {
"update_timestamp": {
"gte": 1546272000000
}
}
}
]
}
}
},
"dest": {
"index": "my-index-user-v2"
}
}

批次大小配置

如果在 query 参数的同一层次【即 source 参数中】再添加 size 参数,并不是表示随机获取部分数据,而是表示 scroll size 的大小【会影响批次的次数,进而影响整体的速度】,这个有点迷惑人。另外,直接在 query 中添加 size 参数是不被允许的。

如果不显式设置,默认是一批 1000 条数据,在一开始的简单示例中也看到了。

如下,设置 scroll size 为 100:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
POST _reindex
{
"source": {
"index": "my-index-user",
"query": {
"bool": {
"must": [
{
"range": {
"update_timestamp": {
"gte": 1546272000000
}
}
}
]
}
},
"size": 100
},
"dest": {
"index": "my-index-user-v2"
}
}

返回结果

根据返回结果可以看到,实际迁移 12505 条数据,batches 为 126【可以算出每次 batch 为 100 条数据】,耗时为 31868 毫秒,是前面简单示例耗时的 3 倍【前面简单示例的耗时是 10 秒左右】。

注意,千万不要用错 size 参数的位置,可以继续参考下面的 随机 size 配置 小节。

此外,在请求 url 中也可以添加参数 scroll_size=5000 来控制批次大小。它和 source 里面的 size 参数具有同样的作用。

多对一迁移

如果需要把多个索引的数据或者多个 type 的数据共同迁移到同一个目标索引中,则需要在 source 参数中指定多个索引。

把同一个索引中的不同 type 的数据共同迁移到同一个索引中,例如把 my-index-user 下的 useruser2 数据共同迁移到 my-index-user-v2 中:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
POST _reindex
{
"source": {
"index": [
"my-index-user",
"my-index-user"
],
"type": [
"user",
"user2"
]
},
"dest": {
"index": "my-index-user-v2"
}
}

把不同索引中的数据共同迁移到同一个索引中,例如把 my-index-user 下的 usermy-index-user-v2 下的 user2 数据共同迁移到 my-index-user-v3 中:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
POST _reindex
{
"source": {
"index": [
"my-index-user",
"my-index-user-v2"
],
"type": [
"user",
"user2"
]
},
"dest": {
"index": "my-index-user-v3"
}
}

这里要注意的是,对于上面的第二个示例,如果 my-index-usermy-index-user-v2 中有 documentid 是一样的,则无法保证最终出现在 my-index-user-v3 里面的 document 是哪个,因为迭代是随机的。按照默认的配置【即前面的 version_typeopt_type 等参数】,最后一条数据会覆盖前一条数据。

当然,对于第一个示例也会有这个问题。

另外,不要想着一对多迁移、多对多迁移等操作,不支持,因为写入时必须指定唯一确定的索引,否则 Elasticsearch 不知道数据要往哪个索引里面写入。

随机 size 配置

有时候想提前测试一下迁移结果是否准确,或者使用少量数据做一下性能测试,则需要随机取数的配置,可以使用 size 参数。注意,size 参数的位置是与 sourcedest 在同一层级的,即在最外层。

例如随机取数 100 条,示例如下:

1
2
3
4
5
6
7
8
9
10
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2"
},
"size": 100
}

随机 100 条数据结果

可以看到,随机迁移了 100 条数据,耗时 223 毫秒。

注意这里,千万不要用错 size 参数的位置,一个是表示 scroll size 的大小【如上面的 query 配置 中,配置在与 query 同一个层级,在 source 里面】,一个是表示随机抽取多少条【本小节示例,配置在最外层】。

我曾经就把 size 设置错误,放在与 query 同一层级,也就是误把 scroll size 设置为 10 了【本来是想先迁移 10 条数据看看结果】,导致 reindex 速度非常慢,30 分钟才 20 万数据量【我还在疑惑为什么设置的随机 10 条不生效,把全部数据都迁移了】。

后来发现了,把任务取消,重新提交 reindex 任务,准确地把随机 size 设置为 10 万,把 scroll size 设置为 2000。测试后才正式开始迁移数据,速度达到了 30 分钟 500 万,和前面的误操作比较明显提升了很多。

排序配置

好,上面有了随机数据条数的设置,但是如果我们想根据某个字段进行排序,获取 top 100,有没有办法呢?有,当然有,可以使用排序的功能,关键字为 sort,使用方式和查询 Elasticsearch 时一致。

例如按照更新时间 update_timestamp 的降序排列,获取前 100 条数据:

1
2
3
4
5
6
7
8
9
10
11
12
13
POST _reindex
{
"source": {
"index": "my-index-user",
"sort": {
"update_timestamp": "desc"
}
},
"dest": {
"index": "my-index-user-v2"
},
"size": 100
}

返回结果

指定字段配置

如果迁移数据时只需要特定的字段,可以使用 _source 参数指定字段,字段少了迁移速度也可以提升。下面的示例指定了 3 个字段:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
POST _reindex
{
"source": {
"index": "my-index-user",
"_source": [
"id",
"city_level",
"task_ids"
]
},
"dest": {
"index": "my-index-user-v2"
}
}

返回结果

可以看到,迁移 12505 条数据,耗时 3611 毫秒,比前面的简单示例快了不少。

查看目标数据,可以看到只有 3 个字段【注意,_id 字段是 document 的主键,会自动携带】。

有 3 个字段的数据示例

但是有一点需要注意,如果 Elasticsearch 的索引设置中,使用 _source、excludes 排除了部分字段的存储【为了节省磁盘空间】,实际上没有存储字段,只是做了索引,则不可以直接迁移,会丢失这些字段。

使用脚本配置

如果集群开启了允许使用 script 的功能【在配置文件 elasticsearch.yml 中使用 script.inline: true 开启】,就可以使用 script 做一些简单的数据转换。

例如把满足条件的数据做一个 _version 增加,并且移除指定的字段,在写入目标索引时,利用 version_type 参数保留最新版本的数据。

以下示例为了方便查看结果,只获取 3 个字段,脚本逻辑:对于 city_level 等于 1 的数据【city 为北京、上海、广州、深圳】,做一个版本自增,并且把 city_level 字段移除。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
POST _reindex
{
"source": {
"index": "my-index-user",
"_source": [
"id",
"city",
"city_level"
]
},
"dest": {
"index": "my-index-user-v2",
"version_type": "external"
},
"script": {
"source": "if (ctx._source.city_level == '1') {ctx._version++; ctx._source.remove ('city_level')}",
"lang": "painless"
},
"size": 100
}

数据结果查看:

数据结果查看

数据结果中可以看到数据的 city_level 字段已经消失了,只剩下 2 个字段。

再执行一次,如果数据相同,会有冲突问题,因为设置了 version_typeexternal,会比较版本【数据的版本不够新从而无法写入】。

1
2
3
4
5
6
7
8
9
10
11
12
13
{
"index": "my-index-user-v2",
"type": "user",
"id": "AW3zlTvZa9C6UomAXwqT",
"cause": {
"type": "version_conflict_engine_exception",
"reason": "[user][AW3zlTvZa9C6UomAXwqT]: version conflict, current version [3] is higher or equal to the one provided [1]",
"index_uuid": "tJienWj1T_udvoJQTcDzyg",
"shard": "1",
"index": "my-index-user-v2"
},
"status": 409
}

冲突现象

如果把 version_type 设置为 internal,同时指定 op_typeindex【默认是 create】,则会出现版本号不合法的异常。因为在脚本中手动自增了版本号,不符合按照 index 方式索引数据的要求。

1
2
action_request_validation_exception
Validation Failed: 1: illegal version value [0] for version type [INTERNAL];

版本号不合法

在此引申一下脚本的内容,Elasticsearch 提供了脚本的支持,可以通过 Groovy 外置脚本【已经过时,v6.x 以及之后的版本,不建议使用】、内置 painless 脚本实现各种复杂的操作【类似于写逻辑代码,对数据进行 ETL 操作】,如上面的示例。

painless 有轻便之意,使用时直接在语法中调用即可,无需外置,也就是不支持通过外部文件存储 painless 脚本来调用。

默认的脚本语言是 Groovy,一种快速表达的脚本语言,在语法上与 JavaScript 类似。它在 Elasticsearch v1.3.0 版本首次引入并运行在沙盒中,然而 Groovy 脚本引擎存在漏洞,允许攻击者通过构建 Groovy 脚本,在 Elasticsearch Java VM 运行时脱离沙盒并执行 shell 命令。
因此,在版本 v1.3.8、v1.4.3 和 v1.5.0 及更高的版本中,它已经被默认禁用。此外,您可以通过设置集群中的所有节点的 config/elasticsearch.yml 文件来禁用动态 Groovy 脚本:script.groovy.sandbox.enabled: false,这将关闭 Groovy 沙盒,从而防止动态 Groovy 脚本作为请求的一部分被接受。

当然,对于常用的脚本,可以通过 _scripts/calculate-score 接口创建后缓存起来【也需要集群的配置:script.store: true】,会生成一个唯一 id,下次可以直接使用【就像声明了一个方法】,还支持参数传递。

使用 Ingest Node 配置

Ingest 其实就是定义了一些预处理的规则,可以预处理数据,提升性能,主要依靠 PipelineProcessors。当然前提还是需要集群支持,定义一些 Ingest 节点、预处理流程,可以通过配置 elasticsearch.xml 文件中的 node.ingest: true 来开启 Ingest 节点。

这个功能应该说是最好用的了,当你的 source 因为不合理的结构,需要重新结构化所有的数据时,通过 Ingest Node,可以很方便地在新的 index 中获得不一样的 mappingvalue【例如把数值类型转为字符串类型,或者把值替换掉】。

使用方式也很简单【需要提前创建 pipeline】:

1
2
3
4
5
6
7
8
9
10
11
POST _reindex
{
"source": {
"index": "my-index-user"
},
"dest": {
"index": "my-index-user-v2",
"pipeline": "some_ingest_pipeline"
},
"size": 100
}

如果没有创建 pipeline,会报错,在返回体的 failures 中:

1
2
"type": "illegal_argument_exception",
"reason": "pipeline with id [some_ingest_pipeline] does not exist"

报错信息

迁移远程集群数据到当前环境

有时候需要跨集群迁移数据,例如把 A 集群的数据复制到 B 集群中,只要 A 集群的节点开放了 ip、端口,就可以使用 remote 参数。

B 集群中也需要设置白名单,在 elasticsearch.xml 文件中配置 reindex.remote.whitelist: otherhost:9200 参数即可,多个使用英文逗号隔开。

使用示例【如果有认证机制则还需要带上用户名、密码信息】:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
POST _reindex
{
"source": {
"index": "my-index-user",
"remote": {
"host": "http://otherhost:9200",
"username": "username",
"password": "password"
}
},
"dest": {
"index": "my-index-user-v2"
}
}

这里需要注意,对于复制在其他集群上的 index 数据来说,就不存在直接从本地镜像复制的便利【速度快】,需要从网络上下载数据再写到本地。默认的设置,buffersize100Mb,在 scroll size 是 1000 的情况下【默认值】,如果单个 document 的平均大小超过 100Kb,则会报错,数据过大。

因此在遇到非常大的 document 时,需要减小 batchsize【尽管会导致 batch 变多,迁移速度变慢,但是安全】,使用 size 参数【参考前面的 批次大小配置 小节】:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
POST _reindex
{
"source": {
"index": "my-index-user",
"remote": {
"host": "http://otherhost:9200",
"username": "username",
"password": "password"
},
"size": 100
},
"dest": {
"index": "my-index-user-v2"
}
}

返回体

在提交迁移数据任务后,如果耐心等待,会有执行的结果返回,正常情况下,返回的结果格式如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
{
"took": 9675,
"timed_out": false,
"total": 12505,
"updated": 12505,
"created": 0,
"deleted": 0,
"batches": 13,
"version_conflicts": 0,
"noops": 0,
"retries": {
"bulk": 0,
"search": 0
},
"throttled_millis": 0,
"requests_per_second": -1,
"throttled_until_millis": 0,
"failures": []
}

返回信息

下面挑选几个指标解释说明一下:

  • took,整个操作从开始到结束的毫秒数
  • total,已成功处理的文档数
  • updated,已成功更新的文档数
  • deleted,已成功删除的文档数
  • batches,由查询更新拉回的滚动响应数【结合 total 可以算出 scroll size】,与 scroll size 有关
  • version_conflicts,按查询更新的版本冲突数【涉及到版本的比较判断】
  • retries,逐个更新尝试的重试次数,bulk 是批量操作的重试次数,search 是搜索操作的重试次数
  • failures,如果在此过程中存在任何不可恢复的错误,发生 abort,则会返回故障信息数组【内容可能会比较多】

这里需要注意的是 failures 信息,如果里面的信息不为空,则表示本次 _reindex 是失败的,是被中途 abort,一般都是因为发生了 conflicts。前面已经描述过如何合理设置【业务场景可接受的方式,例如把 conflicts 设置为 proceed】,可以确保在发生 conflict 的时候还能继续运行。但是,这样设置后任务不会被 abort,可以正常执行完成,则最终也就不会返回 failures 信息了,但是通过 version_conflicts 指标可以看到具体的数量。

查看任务进度以及取消任务

一般来说,如果我们的 source index 很大【比如几百万数据量】,则可能需要比较长的时间来完成 _reindex 的工作,可能需要几十分钟。而在此期间不可能一直等待结果返回,可以去做其它事情,如果中途需要查看进度,可以通过 _tasks API 进行查看。

1
GET _tasks?detailed=true&actions=*reindex

返回结果:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
{
"nodes": {
"ietwyYpJRo-gz_C1tCbpgQ": {
"name": "dev4_xx",
"transport_address": "xx.xx.xx.204:9308",
"host": "xx.xx.xx.204",
"ip": "xx.xx.xx.204:9308",
"roles": [
"master",
"data",
"ingest"
],
"tasks": {
"ietwyYpJRo-gz_C1tCbpgQ:420711": {
"node": "ietwyYpJRo-gz_C1tCbpgQ",
"id": 420711,
"type": "transport",
"action": "indices:data/write/reindex",
"status": {
"total": 12505,
"updated": 0,
"created": 0,
"deleted": 0,
"batches": 5,
"version_conflicts": 4000,
"noops": 0,
"retries": {
"bulk": 0,
"search": 0
},
"throttled_millis": 0,
"requests_per_second": -1,
"throttled_until_millis": 0
},
"description": "reindex from [my-index-user] to [my-index-user-v2]",
"start_time_in_millis": 1580958992770,
"running_time_in_nanos": 1441736539,
"cancellable": true
}
}
}
}
}

查看任务状态

根据任务的各项指标,就可以预估完成进度,从而预估完成时间,做到心中有数。

注意观察里面的几个重要指标,例如从 description 中可以看到任务描述,从 tasks 中可以找到任务的 id【例如 ietwyYpJRo-gz_C1tCbpgQ:420711】,从 cancellable 可以判断任务是否支持取消操作。

这个 API 其实就是模糊匹配,同理也可以查询其它类型的任务信息,例如使用 GET _tasks?detailed=true&actions=*byquery 查看查询请求的状态。

如果知道了 task_id,也可以使用 GET /_tasks/task_id 更加准确地查询指定的任务状态,避免集群的任务过多,不方便查看。

如果遇到操作失误的场景,想取消任务,有没有办法呢?有,泼出去的水还是可以收回的,通过 _tasks API

1
POST _tasks/task_id/_cancel

这里的 task_id 就是通过上面的查询任务接口获取的,另外还需要任务支持取消操作【cancellabletrue】。

备注

特别注意,如果进行 reindex 的数据量很大,一时半会任务无法完成,记得不要退出浏览器窗口【耗时太长的记得设置后台运行】,否则任务就停止了【因为浏览器在等待请求返回信息,如果单方面关闭,连接超时,任务停止】。

当然,如果耗时太长,记得一定要设置后台运行,添加参数 wait_for_completion=false,这个技巧在我的另外一篇博客中也有说明:Elasticsearch 常用 HTTP 接口

参考官网:docs-reindex

虾丸派 wechat
扫一扫添加博主,进技术交流群,共同学习进步
永不止步
0%