本文主要是介绍Google Cardboard与Oculus IMU融合算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
最近重新整理了IMU融合相关的代码实现,目前开源并有很好的运行效果的有Oculus(很久之前的SDK,最新版本融合Camera和IMU的SLAM定位版本已经不开源)和Google Cardboard,为了可以在普通手机设备上运行和调试,已将Oculus和Cardboard中IMU融合的代码提取出来,并使用简单的opengl场景展示了姿态追踪效果,整个工程使用Android Studio编译,可直接在任意一款安卓手机运行,通过修改代码中的宏定义,可以切换Oculus和Cardboard的实现方式。
源码地址:
https://github.com/wzj5530/EKF_IMUFusion
运行效果图:
原理介绍:
1. Oculus的实现代码上复杂度比较低,使用了各种滤波来平滑加速度和角速度数据,参考代码完全可以看懂实现原理。
2. Cardboard使用的扩展卡尔曼滤波的方式,角速度数据作为状态转移控制,加速度数据作为观测值,预测状态为当前的手机旋转姿态; 整个推导过程可以参考下面的文章,非常详尽的推导了每一步实现:
https://www.cnblogs.com/ilekoaiq/p/8710812.html
这篇关于Google Cardboard与Oculus IMU融合算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!