Hazelcast系列(五):Multicast发现机制

2023-10-06 13:15

本文主要是介绍Hazelcast系列(五):Multicast发现机制,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系列文章

Hazelcast系列(一):初识hazelcast

Hazelcast系列(二):hazelcast集成

Hazelcast系列(三):hazelcast管理中心

Hazelcast系列(四):Auto-Detection发现机制

Hazelcast系列(五):Multicast发现机制

目录

前言

组播概念

        单播

        广播

        组播/多播

配置

配置元素

其他

总结


前言

Multicast 发现机制是多播,或者说组播,通过组播协议( IGMP 、PIM 、 MSDP 、 MBGP 等),找到目的组播地址,组播地址范围从 224.0.0.0 到 239.255.255.255 ,Multicast 组播地址默认为 224.2.2.3

Hazelcast 集群成员不需要知道其他成员的具体地址,因为它们只是多播给所有其他成员进行监听,通过集群名以及组播地址形成相应的集群。

组播概念

  • 单播

    • 说明:见名知意,两个主机一对一通信。如果数据相同,多个主机之间需要重复多次传输相同的内容
    • 优势:接受者能及时响应发送者,单对单便于发送特定数据
    • 劣势:服务器发送数据流如果过大,或者客户端过多,应用服务器不堪重负
  • 广播

    • 说明:同理,见名知意,无条件的一对多通信。解决了单播单对单发送消息的问题,但是新问题来了,它不管你需不需要,一股脑的都给你
    • 优势:设备和维护简单,不用单对单发送数据,极大的减少了服务器压力
    • 劣势:没有针对性,个人化通信不支持
  • 组播/多播

    • 说明:有条件的一对多通信
    • 优势:解决了单播的单对单和广播的无条件一对多问题

配置

  • XML
<hazelcast><network><join><multicast enabled="true"><multicast-group>224.2.2.3</multicast-group><multicast-port>54327</multicast-port><multicast-time-to-live>32</multicast-time-to-live><multicast-timeout-seconds>2</multicast-timeout-seconds><trusted-interfaces><interface>192.168.1.1</interface></trusted-interfaces></multicast></join></network>
</hazelcast>
  • YAML
hazelcast:network:join:multicast:enabled: truemulticast-group: 224.2.2.3multicast-port: 54327multicast-time-to-live: 32multicast-timeout-seconds: 2trusted-interfaces:- 192.168.1.1

配置元素

  • enabled:指定是否启用组播发现,true或者false。
  • multicast-group:组播组IP地址。当您想要在同一网络内创建集群时指定它。值可以介于 224.0.0.0 和 239.255.255.255 之间。其默认值为 224.2.2.3。
  • multicast-port:Hazelcast 成员侦听并发送发现消息的多播套接字端口。其默认值为 54327。
  • multicast-time-to-live:发出的组播数据包的生存时间值,用于控制组播范围。
  • multicast-timeout-seconds:仅当成员正在启动时,此超时(以秒为单位)指定成员等待其他成员的多播响应的时间段。例如,如果设置为 60 秒,则每个成员都会等待 60 秒,直到选出领导成员。它的默认值为 2 秒。
  • trusted-interfaces:包括受信任成员的 IP 地址。当成员想要加入集群时,如果它不是可信成员,则其加入请求将被拒绝。可以在 IP 地址最后一位数字上使用通配符 (*) 指定 IP 地址范围,例如 192.168.1.* 或 192.168.1.100-110。

其他

  • Multicast 组播在老版本为默认的发现机制,新版本默认发现机制 Auto-Detection 在找不到相关发现环境后,会采用 Multicast 发现机制,所以,这样来看新老版本都是默认使用
  • Multicast 需要协议层面的支持,所以协议被禁用了也没法使用
  • Multicast 最好在封闭且安全的环境下使用
  • 在发现机制中,Multicast 可以同 Auto-Detection 一起开启,但是同 TCP/IP、AWS等其他发现机制,只能同一时间单独存在

总结

Multicast 同 Auto-Detection 发现机制一样,上手快,在封闭且安全的环境中,可以采用。

这篇关于Hazelcast系列(五):Multicast发现机制的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/153144

相关文章

JVM 的类初始化机制

前言 当你在 Java 程序中new对象时,有没有考虑过 JVM 是如何把静态的字节码(byte code)转化为运行时对象的呢,这个问题看似简单,但清楚的同学相信也不会太多,这篇文章首先介绍 JVM 类初始化的机制,然后给出几个易出错的实例来分析,帮助大家更好理解这个知识点。 JVM 将字节码转化为运行时对象分为三个阶段,分别是:loading 、Linking、initialization

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

【编程底层思考】垃圾收集机制,GC算法,垃圾收集器类型概述

Java的垃圾收集(Garbage Collection,GC)机制是Java语言的一大特色,它负责自动管理内存的回收,释放不再使用的对象所占用的内存。以下是对Java垃圾收集机制的详细介绍: 一、垃圾收集机制概述: 对象存活判断:垃圾收集器定期检查堆内存中的对象,判断哪些对象是“垃圾”,即不再被任何引用链直接或间接引用的对象。内存回收:将判断为垃圾的对象占用的内存进行回收,以便重新使用。

flume系列之:查看flume系统日志、查看统计flume日志类型、查看flume日志

遍历指定目录下多个文件查找指定内容 服务器系统日志会记录flume相关日志 cat /var/log/messages |grep -i oom 查找系统日志中关于flume的指定日志 import osdef search_string_in_files(directory, search_string):count = 0

【Tools】大模型中的自注意力机制

摇来摇去摇碎点点的金黄 伸手牵来一片梦的霞光 南方的小巷推开多情的门窗 年轻和我们歌唱 摇来摇去摇着温柔的阳光 轻轻托起一件梦的衣裳 古老的都市每天都改变模样                      🎵 方芳《摇太阳》 自注意力机制(Self-Attention)是一种在Transformer等大模型中经常使用的注意力机制。该机制通过对输入序列中的每个元素计算与其他元素之间的相似性,

如何通俗理解注意力机制?

1、注意力机制(Attention Mechanism)是机器学习和深度学习中一种模拟人类注意力的方法,用于提高模型在处理大量信息时的效率和效果。通俗地理解,它就像是在一堆信息中找到最重要的部分,把注意力集中在这些关键点上,从而更好地完成任务。以下是几个简单的比喻来帮助理解注意力机制: 2、寻找重点:想象一下,你在阅读一篇文章的时候,有些段落特别重要,你会特别注意这些段落,反复阅读,而对其他部分

【Tools】大模型中的注意力机制

摇来摇去摇碎点点的金黄 伸手牵来一片梦的霞光 南方的小巷推开多情的门窗 年轻和我们歌唱 摇来摇去摇着温柔的阳光 轻轻托起一件梦的衣裳 古老的都市每天都改变模样                      🎵 方芳《摇太阳》 在大模型中,注意力机制是一种重要的技术,它被广泛应用于自然语言处理领域,特别是在机器翻译和语言模型中。 注意力机制的基本思想是通过计算输入序列中各个位置的权重,以确