本文主要是介绍前视声呐目标识别定位(九)-声呐驱动,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
前视声呐目标识别定位(一)-基础知识
前视声呐目标识别定位(二)-目标识别定位模块
前视声呐目标识别定位(三)-部署至机器人
前视声呐目标识别定位(四)-代码解析之启动识别模块
前视声呐目标识别定位(五)-代码解析之修改声呐参数
前视声呐目标识别定位(六)-代码解析之目标截图并传输
前视声呐目标识别定位(七)-代码解析之录制数据包
前视声呐目标识别定位(八)-代码解析之各模块通信
识别定位是需要声呐原始数据流,当时手头上的声呐为Oculus M750D,但我拿到时只有一个Oculus官网的Windows下的客户端,肯定是无法满足需求的,Oculus官网也没有相应的API或协议什么的。从采购员那拿到某个国内的代理供应商的联系方式,联系后只得到一句没有这种东西,商品售出后就不属于他们管的回复,然后无论说啥都不回复了。当时实在是气的不行。后续我只能在github上找的开源项目,修改调试后拿到数据。由于不是官方的程序,不确定使用是否有风险。
驱动是用ros neotic写的,经过测试可以将声呐数据以sensor_msgs/Image的topic格式发布出来,也能通过reconfigure动态调整声呐参数。为了满足识别模块位置解算需求,声呐的水平开角和量程数据写进了msg中header的frame_id中。
项目地址:GitHub - cabinx/oculus_m750d: oculus m750d forward looking sonar with ros neotic
其中oculus_sonar_node.py是前文提及的软件框架中使用的,添加了与center_server的通信。而oculus_sonar_node_origin.py是只有驱动程序,只发布Image topic。唯一需要注意的是在launch文件中声呐的IP地址需要设定好,我记得是可以通过客户端设定IP地址。
代码很久远了,现在我已经无法测试了,仅供参考吧。
这篇关于前视声呐目标识别定位(九)-声呐驱动的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!