es7.13.2平滑下线

2024-09-02 17:28
文章标签 下线 平滑 es7.13

本文主要是介绍es7.13.2平滑下线,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  1. 临时移除节点
    临时移除节点 的步骤是通过更新集群设置来排除特定节点,以便 Elasticsearch 不再在该节点上分配新的分片。你可以执行以下命令来排除 nodename3:
PUT /_cluster/settings
{"persistent": {"cluster.routing.allocation.exclude._name": "nodename3"}
}

这个命令会通知 Elasticsearch 不要将新的分片分配到 nodename3 上。这是平滑下线节点的第一步。

2.提高分片分配的优先级(可选)
如果希望加快分片重新分配的速度,可以临时提高集群的恢复优先级:

PUT /_cluster/settings
{"transient": {"cluster.routing.allocation.node_concurrent_recoveries": 4,"cluster.routing.allocation.node_initial_primaries_recoveries": 4}
}

这个配置将增加每个节点同时进行分片恢复的并发数,从而加快恢复速度。请注意,这可能会增加节点的负载。

集群转台变为green或者yellow,
如果希望撤销先前设置的 transient 配置,可以将这些配置重置为默认值。具体操作如下:

PUT /_cluster/settings
{"transient": {"cluster.routing.allocation.node_concurrent_recoveries": null,"cluster.routing.allocation.node_initial_primaries_recoveries": null}
}

将配置项的值设置为 null 会移除这些临时设置,恢复为默认值。

  1. 等待分片重新分配完成
    等待分片重新分配完成 是指在排除节点后, 需要监控集群的状态,确保分片已经从 nodename3 节点成功地重新分配到其他节点上。可以使用以下命令来检查集群的健康状态:
GET /_cluster/health?pretty
{"cluster_name" : "clustername","status" : "green","timed_out" : false,"number_of_nodes" : 2,"number_of_data_nodes" : 2,"active_primary_shards" : 24,"active_shards" : 48,"relocating_shards" : 0,"initializing_shards" : 0,"unassigned_shards" : 0,"delayed_unassigned_shards" : 0,"number_of_pending_tasks" : 0,"number_of_in_flight_fetch" : 0,"task_max_waiting_in_queue_millis" : 0,"active_shards_percent_as_number" : 100.0
}

关注以下字段:

unassigned_shards: 这个字段显示未分配的分片数量。它应该随着重新分配的进行而减少。
status: 集群的状态应该从 red 变为 yellow 或 green,表明分片已经成功分配。
此外, 还可以使用以下命令查看每个分片的状态和分配情况:

GET /_cat/shards?v
这个命令会列出所有分片及其当前状态,帮助你确认分片是否已经重新分配。

index                                     shard prirep state   docs   store ip             node
.transform-internal-007                   0     r      STARTED    3  25.9kb 192.168.43.63  nodename3
.transform-internal-007                   0     p      STARTED    3  25.9kb 192.168.43.50  nodename2
.kibana_7.13.2_001                        0     p      STARTED 1456   4.4mb 192.168.43.185 nodename1
.kibana_7.13.2_001                        0     r      STARTED 1456   4.4mb 192.168.43.63  nodename3
.kibana-event-log-7.13.2-000001           0     r      STARTED    7  22.7kb 192.168.43.185 nodename1
.kibana-event-log-7.13.2-000001           0     p      STARTED    7  22.7kb 192.168.43.50  nodename2
.security-7                               0     p      STARTED   55 269.2kb 192.168.43.185 nodename1
.security-7                               0     r      STARTED   55 269.2kb 192.168.43.50  nodename2
.ds-ilm-history-5-2024.08.10-000001       0     r      STARTED              192.168.43.185 nodename1
.ds-ilm-history-5-2024.08.10-000001       0     p      STARTED              192.168.43.63  nodename3
.kibana_task_manager_7.13.2_001           0     r      STARTED   11 290.9kb 192.168.43.185 nodename1
.kibana_task_manager_7.13.2_001           0     p      STARTED   11 241.9kb 192.168.43.50  nodename2
.apm-custom-link                          0     r      STARTED    0    208b 192.168.43.63  nodename3
.apm-custom-link                          0     p      STARTED    0    208b 192.168.43.50  nodename2
.ds-.slm-history-5-2024.08.24-000001      0     p      STARTED              192.168.43.185 nodename1
.ds-.slm-history-5-2024.08.24-000001      0     r      STARTED              192.168.43.63  nodename3
.tasks                                    0     r      STARTED    8  42.6kb 192.168.43.185 nodename1
.tasks                                    0     p      STARTED    8  42.6kb 192.168.43.50  nodename2
.fleet-policies-7                         0     p      STARTED    2   8.5kb 192.168.43.185 nodename1
.fleet-policies-7                         0     r      STARTED    2   8.5kb 192.168.43.63  nodename3
.apm-agent-configuration                  0     r      STARTED    0    208b 192.168.43.63  nodename3
.apm-agent-configuration                  0     p      STARTED    0    208b 192.168.43.50  nodename2
abc                                       3     p      STARTED    0    208b 192.168.43.63  nodename3
abc                                       3     r      STARTED    0    208b 192.168.43.50  nodename2
abc                                       5     r      STARTED    0    208b 192.168.43.185 nodename1
abc                                       5     p      STARTED    0    208b 192.168.43.63  nodename3
abc                                       8     r      STARTED    1   3.4kb 192.168.43.63  nodename3
abc                                       8     p      STARTED    1   3.4kb 192.168.43.50  nodename2
abc                                       2     r      STARTED    0    208b 192.168.43.185 nodename1
abc                                       2     p      STARTED    0    208b 192.168.43.50  nodename2
abc                                       4     r      STARTED    0    208b 192.168.43.63  nodename3
abc                                       4     p      STARTED    0    208b 192.168.43.50  nodename2
abc                                       1     p      STARTED    0    208b 192.168.43.185 nodename1
abc                                       1     r      STARTED    0    208b 192.168.43.50  nodename2
abc                                       9     p      STARTED    0    208b 192.168.43.185 nodename1
abc                                       9     r      STARTED    0    208b 192.168.43.63  nodename3
abc                                       6     p      STARTED    0    208b 192.168.43.63  nodename3
abc                                       6     r      STARTED    0    208b 192.168.43.50  nodename2
abc                                       7     r      STARTED    1   3.4kb 192.168.43.185 nodename1
abc                                       7     p      STARTED    1   3.4kb 192.168.43.63  nodename3
abc                                       0     p      STARTED    0    208b 192.168.43.185 nodename1
abc                                       0     r      STARTED    0    208b 192.168.43.50  nodename2
.transform-notifications-000002           0     p      STARTED              192.168.43.63  nodename3
.transform-notifications-000002           0     r      STARTED              192.168.43.50  nodename2
.kibana_security_session_1                0     r      STARTED              192.168.43.185 nodename1
.kibana_security_session_1                0     p      STARTED              192.168.43.50  nodename2
metrics-endpoint.metadata_current_default 0     r      STARTED    0    208b 192.168.43.185 nodename1
metrics-endpoint.metadata_current_default 0     p      STARTED    0    208b 192.168.43.63  nodename3
!!!如果集群状态依旧是红色,那么很有可能是有的索引是红色状态,
原因可能是这些红色状态的索引是没有副本的,会导致这些索引没办法重新分片,
这个时候只能删除索引然后重新索引,
然后集群才会变为绿黄色,也就是建立索引最好是加一个副本方便后面运维

3.集群的状态应该从 red 变为 yellow 或 green后,就可以把要下线的节点停机了,然后可以更改正常节点的 elasticsearch.yml,一个一个改过去,然后重启正常节点或者下次重启正常节点都可以

4.如果想用原来挂的节点ip加入集群,并且这个节点已经没有了原来的数据,那么可以使用如下命令:

PUT /_cluster/settings
{"persistent": {"cluster.routing.allocation.exclude._name": null}
}

在新的 nodename3 启动并加入集群后,执行以下命令来撤销之前的排除操作,允许 Elasticsearch 将分片重新分配到新的 nodename3 节点上:

这篇关于es7.13.2平滑下线的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1130599

相关文章

Golang支持平滑升级的HTTP服务

前段时间用Golang在做一个HTTP的接口,因编译型语言的特性,修改了代码需要重新编译可执行文件,关闭正在运行的老程序,并启动新程序。对于访问量较大的面向用户的产品,关闭、重启的过程中势必会出现无法访问的情况,从而影响用户体验。 使用Golang的系统包开发HTTP服务,是无法支持平滑升级(优雅重启)的,本文将探讨如何解决该问题。 一、平滑升级(优雅重启)的一般思路 一般情况下,要实现平滑

Golang服务平滑重启

与重载配置相同的是我们也需要通过信号来通知server重启,但关键在于平滑重启,如果只是简单的重启,只需要kill掉,然后再拉起即可。平滑重启意味着server升级的时候可以不用停止业务。 我们先来看下Github上有没有相应的库解决这个问题,然后找到了如下三个库: facebookgo/grace - Graceful restart & zero downtime deploy for G

友盟下线后,开发者该如何实现自动更新

开发者们可能都注意到,友盟从2016年开始大规模下线了他们的产品,例如:反馈功能、在线参数、自动更新。 原因可能是因为应用市场的进一步规范吧,笔者也就不瞎猜了。今天和大家分享一下在友盟“倒下”后,开发者们该如何实现自动更新功能。 其实自动更新的原理非常简单,就是通过检测服务器的最新版本号与当前版本号进行对比,若有更新则提示用户进行下载更新。 有能力的同学自己写一份代码其实也不

机器学习:opencv图像识别--图片运算、边界、阈值处理、平滑处理

目录 一、图片运算 1.加法 1.+ 2.add 3.加权相加 2.减法 二、图片边界 三、图像阈值处理 四、图像平滑处理 1.生成椒盐噪声 2.滤波器 1.均值滤波 2.方框滤波 3.高斯滤波 4.中值滤波 一、图片运算 1.加法 1.+ 直接将图片上每个像素点的值加上给定值或者两张图片的值相加相加之后超过255的,对256进行取模 import

如何从ActiveMQ平滑迁移到Kafka?

参考视频教程:    **python进阶训练营  ** 直入主题,不讨论为什么迁移,直接谈迁移方案。 既然是从AMQ(AtiveMQ的简称)迁移到kafka,那么迁移过程中肯定需要做到平滑迁移:对于业务没有影响,对于上下游系统没有依赖。由于系统一般会和多个上游,多个下游通过MQ中间件保持依赖关系,迁移的过程中,肯定要做到各个系统上线没有任何依赖。打个比方订单系统发送topic,会

Hinton等人最新研究:大幅提升模型准确率,标签平滑技术 2019-7-8

导读:损失函数对神经网络的训练有显著影响,也有很多学者人一直在探讨并寻找可以和损失函数一样使模型效果更好的函数。后来,Szegedy 等学者提出了标签平滑方法,该方法通过计算数据集中 hard target 的加权平均以及平均分布来计算交叉熵,有效提升了模型的准确率。近日,Hinton 团队等人在新研究论文《When Does Label Smoothing Help?》中,就尝试对标签平滑技术对

nginx平滑升级与回滚

华子目录 升级实验环境准备测试内容准备实验要求实验步骤1.解压包2.检测1.26版本的环境3.make编译4.备份之前的`nginx`启动脚本5.将1.26中的nginx启动脚本覆盖掉1.24中的6.`kill -USR2 旧主进程pid`7.`kill -WINCH 旧主进程pid` 实验测试 回滚1.`kill -HUP 旧主进程pid`2.`kill -WINCH 新主进程pid`3.

图像处理中锐化和平滑的操作

锐化: 增强高频分量,提高了噪声 平滑: 降低高频分量

Google Earth Engine:对NDVI进行惠特克平滑算法进行长时序分析

目录 简介 函数 ee.Array.identity(size) Arguments: Returns: Array transpose(axis1, axis2) Arguments: Returns: Array matrixMultiply(image2) Arguments: Returns: Image matrixSolve(image2) Arguments