本文主要是介绍Meta 推出Ego-Exo4D:一个研究视频学习和多模态感知的基础数据集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
最近,科技圈迎来了一则令人兴奋的消息——Ego-Exo4D数据集终于全面发布啦!去年12月份,这个项目的团队就向我们透露了一些初步的信息,从那时起,他们一直在加班加点,努力完善这个数据集。如今,他们终于把这份宝贵的资源全面呈现在了我们面前。
而且,为了让大家对Ego-Exo4D的潜力有更直观的理解,项目组还推出了两项新的挑战,将在CVPR 23的EgoVis工作坊上揭晓结果。这两项挑战分别聚焦于推进EgoPose(身体)和EgoPose(手部)的基准测试,无疑将激发该领域的新进展。
对于那些已经签署了许可协议的用户,现在就可以在visualizer 16中开始探索V2版本了,真是太酷了!
关于这次全面发布,重点来了:
- Ego-Exo4D数据集目前包含了1286.30小时的视频内容,跨越5035个片段,其中221.26小时采用了第一人称视角。
- 相较于V1版本,新增了1341个视频片段,总时长增加了254.8小时,其中包括44.4小时的第一人称视角内容。
- 几乎所有的视频片段(99%)都包含了眼动追踪(2D和3D)、移动轨迹数据和3D点云,为研究提供了丰富的信息。
- 为了确保数据集的高质量,每个视频片段都经过了严格的审核,确保任务ID标签的准确无误。
- 新增加的内容还包括对90%视频片段的最佳第三人称视角标签,以及精确的视频时间范围标注,帮助研究人员更准确地定位和分析数据。
显然,Ego-Exo4D的全面发布,不仅为研究人员提供了一份宝贵的资源,也为整个计算机视觉领域带来了新的激情和活力。期待看到更多基于这一数据集的突破性研究成果!
这篇关于Meta 推出Ego-Exo4D:一个研究视频学习和多模态感知的基础数据集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!