Glusterfs之rpc模块源码分析(中)之Glusterfs的rpc模块实现(2)

2024-03-15 05:38

本文主要是介绍Glusterfs之rpc模块源码分析(中)之Glusterfs的rpc模块实现(2),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

http://blog.csdn.net/wanweiaiaqiang/article/details/7566757


第二节、rpc客户端实现原理及代码分析

rpc客户端主要发起一个rpc请求,执行完rpc请求以后就退出rpc,下面分析客户端rpc请求建立的整个过程。Rpc客户端请求建立的第一步是执行cli_rpc_init函数,主要实现代码如下:

        this = THIS;//取得本线程的xlator列表

        cli_rpc_prog = &cli_prog;//设置rpc调用过程集合(许多函数)

        options = dict_new ();//新建一个字典数据结构用于存放选项信息

        ret = dict_set_str (options, "remote-host", state->remote_host);//设置host

        if (state->remote_port)

                port = state->remote_port;

        ret = dict_set_int32 (options, "remote-port", port);//设置端口号

        ret = dict_set_str (options, "transport.address-family", "inet");//设置协议族为inet

        rpc = rpc_clnt_new (options, this->ctx, this->name);//新建一个rpc客户端对象

        ret = rpc_clnt_register_notify (rpc, cli_rpc_notify, this);//注册rpc请求通知函数

        rpc_clnt_start (rpc);//开始rpc

这段代码其实是glusterfs客户端程序启动时建立rpc请求的初始化过程函数,真正独立开始建立一个rpc请求的过程是从函数rpc_clnt_new开始的,下面就分析这个函数的功能,先看主要代码:

        rpc = GF_CALLOC (1, sizeof (*rpc), gf_common_mt_rpcclnt_t);//为客户端rpc对象分配内存

        pthread_mutex_init (&rpc->lock, NULL);//初始化锁

        rpc->ctx = ctx;//属于哪一个ctx

//新建请求内存池

        rpc->reqpool = mem_pool_new (struct rpc_req, RPC_CLNT_DEFAULT_REQUEST_COUNT);

        //保存帧数据的内存池

rpc->saved_frames_pool = mem_pool_new (struct saved_frame,

                                              RPC_CLNT_DEFAULT_REQUEST_COUNT);

        ret = rpc_clnt_connection_init (rpc, ctx, options, name);//初始化rpc请求连接

        rpc = rpc_clnt_ref (rpc);//客户端对象引用计数加1

        INIT_LIST_HEAD (&rpc->programs);//初始化程序集的链表

rpc客户端发送请求也需要装载相应的协议库,它主要使用协议库里面的初始化函数和链接函数,上面代码中rpc_clnt_connection_init函数主要完成协议库装载功能和链接选项的一些初始化功能,具体实现的主要代码如下:

        pthread_mutex_init (&clnt->conn.lock, NULL);//初始化锁

      conn->trans = rpc_transport_load (ctx, options, name);//装载协议库并执行初始化init

        rpc_transport_ref (conn->trans);//增加传输层的引用计数

        conn->rpc_clnt = clnt;//连接对象属于哪一个客户端对象

        ret = rpc_transport_register_notify (conn->trans, rpc_clnt_notify, conn);//注册通知函数

       conn->saved_frames = saved_frames_new ();//新建一个保存帧数据的对象

通过上面代码执行以后基本的初始化工作已经完毕,下一步就是建立于rpc服务的链接,此功能在函数rpc_clnt_start中实现,也就是在所有初始化工作完成以后调用此函数发起链接,主要代码如下:

rpc_clnt_reconnect (conn->trans);

继续跟踪函数rpc_clnt_reconnect

        pthread_mutex_lock (&conn->lock);//初始化锁

        {

                if (conn->reconnect)//如果重新链接正在进行

                        gf_timer_call_cancel (clnt->ctx, conn->reconnect);//取消正在的链接

                conn->reconnect = 0;//初始化为0

                if (conn->connected == 0) {//还没有完成链接

                        tv.tv_sec = 3;//时间三秒

//发起传输层的链接

                        ret = rpc_transport_connect (trans, conn->config.remote_port);

//设置重链接对象

                        conn->reconnect = gf_timer_call_after (clnt->ctx, tv,

                                                     rpc_clnt_reconnect, trans);

                } 

        }

        pthread_mutex_unlock (&conn->lock);//解锁

        if ((ret == -1) && (errno != EINPROGRESS) && (clnt->notifyfn)) {

//建立链接失败就通知rpc客户端对象(调用通知函数)

                clnt->notifyfn (clnt, clnt->mydata, RPC_CLNT_DISCONNECT, NULL);

        }

真正的链接是在具体的协议中的链接函数中执行,下面以tcp为例,看看它的链接函数的实现,主要代码如下:

//得到客户端协议族相关信息

        ret = socket_client_get_remote_sockaddr (this, SA (&sockaddr), &sockaddr_len, &sa_family)

        if (port > 0)

                ((struct sockaddr_in *) (&sockaddr))->sin_port = htons (port);//端口字节序转换

        pthread_mutex_lock (&priv->lock);

        {

                memcpy (&this->peerinfo.sockaddr, &sockaddr, sockaddr_len);//赋值sockaddr信息

                this->peerinfo.sockaddr_len = sockaddr_len;//地址长度保存

                priv->sock = socket (sa_family, SOCK_STREAM, 0);//创建socket

                setsockopt (priv->sock, SOL_SOCKET, SO_RCVBUF, &priv->windowsize,

                                sizeof (priv->windowsize)) < 0) ;//设置接收的系统缓冲区

                setsockopt (priv->sock, SOL_SOCKET, SO_SNDBUF, &priv->windowsize,

                                sizeof (priv->windowsize)) < 0);//发送缓冲区设置

                if (priv->nodelay) {

                        ret = __socket_nodelay (priv->sock);//设置是否延迟发送(等待一个完整的)

                 }

                if (!priv->bio) {

                        ret = __socket_nonblock (priv->sock);//设置非阻塞

                }

                if (priv->keepalive) {

                        ret = __socket_keepalive (priv->sock, priv->keepaliveintvl,

                                                  priv->keepaliveidle);//保存链接活动

                }

                SA (&this->myinfo.sockaddr)->sa_family =

                        SA (&this->peerinfo.sockaddr)->sa_family;//保存协议族信息

                ret = client_bind (this, SA (&this->myinfo.sockaddr),//根据协议族做适当的绑定

                                   &this->myinfo.sockaddr_len, priv->sock);

                ret = connect (priv->sock, SA (&this->peerinfo.sockaddr),//发起链接请求

                               this->peerinfo.sockaddr_len);

               priv->connected = 0;

                rpc_transport_ref (this);//传输对象引用加1

                priv->idx = event_register (ctx->event_pool, priv->sock,//注册epoll读写事件

                                            socket_event_handler, this, 1, 1);

        }

        pthread_mutex_unlock (&priv->lock);//解锁

整个链接过程的建立需要注意一点的就是会根据协议族的类型做适当的绑定,当发起链接以后就开始注册各种读写事件。处理这些事件发生的函数是socket_event_handler,主要代码如下:

        THIS = this->xl;//取得xlator

        priv = this->private;//取得私有数据

        pthread_mutex_lock (&priv->lock);//加锁

        {

                priv->idx = idx;//取得索引下表(对应的socket)

        }

        pthread_mutex_unlock (&priv->lock);

        if (!priv->connected) {//如果链接还没有建立先完成链接的建立

                ret = socket_connect_finish (this);//完成链接建立

        }

        if (!ret && poll_out) {//可写事件处理

                ret = socket_event_poll_out (this);

        }

        if (!ret && poll_in) {//可读事件处理

                ret = socket_event_poll_in (this);

        }

到此客户端rpc请求过程完全建立,当真正的发送一个rpc请求的时候就会响应相应的epoll的写事件,把包装好的数据帧发送到rpc服务器端,rpc客户端也会通过可读事件来接收rpc服务器端的响应信息。

总结:同rpc服务器端一眼,rpc客户端的建立也是比较复杂的过程,还是通过流程图加描述来展示一下整个rpc客户端的初始化过程,图如下:



这篇关于Glusterfs之rpc模块源码分析(中)之Glusterfs的rpc模块实现(2)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/810974

相关文章

使用Sentinel自定义返回和实现区分来源方式

《使用Sentinel自定义返回和实现区分来源方式》:本文主要介绍使用Sentinel自定义返回和实现区分来源方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Sentinel自定义返回和实现区分来源1. 自定义错误返回2. 实现区分来源总结Sentinel自定

Java实现时间与字符串互相转换详解

《Java实现时间与字符串互相转换详解》这篇文章主要为大家详细介绍了Java中实现时间与字符串互相转换的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、日期格式化为字符串(一)使用预定义格式(二)自定义格式二、字符串解析为日期(一)解析ISO格式字符串(二)解析自定义

opencv图像处理之指纹验证的实现

《opencv图像处理之指纹验证的实现》本文主要介绍了opencv图像处理之指纹验证的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录一、简介二、具体案例实现1. 图像显示函数2. 指纹验证函数3. 主函数4、运行结果三、总结一、

Springboot处理跨域的实现方式(附Demo)

《Springboot处理跨域的实现方式(附Demo)》:本文主要介绍Springboot处理跨域的实现方式(附Demo),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录Springboot处理跨域的方式1. 基本知识2. @CrossOrigin3. 全局跨域设置4.

Spring Boot 3.4.3 基于 Spring WebFlux 实现 SSE 功能(代码示例)

《SpringBoot3.4.3基于SpringWebFlux实现SSE功能(代码示例)》SpringBoot3.4.3结合SpringWebFlux实现SSE功能,为实时数据推送提供... 目录1. SSE 简介1.1 什么是 SSE?1.2 SSE 的优点1.3 适用场景2. Spring WebFlu

基于SpringBoot实现文件秒传功能

《基于SpringBoot实现文件秒传功能》在开发Web应用时,文件上传是一个常见需求,然而,当用户需要上传大文件或相同文件多次时,会造成带宽浪费和服务器存储冗余,此时可以使用文件秒传技术通过识别重复... 目录前言文件秒传原理代码实现1. 创建项目基础结构2. 创建上传存储代码3. 创建Result类4.

SpringBoot日志配置SLF4J和Logback的方法实现

《SpringBoot日志配置SLF4J和Logback的方法实现》日志记录是不可或缺的一部分,本文主要介绍了SpringBoot日志配置SLF4J和Logback的方法实现,文中通过示例代码介绍的非... 目录一、前言二、案例一:初识日志三、案例二:使用Lombok输出日志四、案例三:配置Logback一

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专

Python实现无痛修改第三方库源码的方法详解

《Python实现无痛修改第三方库源码的方法详解》很多时候,我们下载的第三方库是不会有需求不满足的情况,但也有极少的情况,第三方库没有兼顾到需求,本文将介绍几个修改源码的操作,大家可以根据需求进行选择... 目录需求不符合模拟示例 1. 修改源文件2. 继承修改3. 猴子补丁4. 追踪局部变量需求不符合很