本文主要是介绍NAO学习第二周——NAOqi Audio,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
-
目标
-
深度对话
-
避障
- 看相关论文至少三篇
-
查阅资料
- 悉尼科技大学NAO机器人远程控制
- NAO的C++_python环境配置
- NAOqi Audio——官方文档
- 阿里云
- NAO深层开发的环境搭建(只需要安装python-2.7.10、pynaoqi-2.1.4.13.win32便可以开始使用Python编程啦!)
-
进展
1. 浏览总况
把NAOqi API文档大概浏览了一遍。惊讶于NAO拥有如此丰富的功能的同时,自卑于自己现在几乎全不能实现。
2.深度对话
这周主要研究NAOqi Audio(C:/ProgramFiles(x86)/AldebaranRobotics/ChoregrapheSuite2.1/share/doc/naoqi/audio/index.html)
-
Animated Speech——带动作地说话
默认情况下,当你让机器人通过这个模块说话时,他用身体语言来激活演讲。
"你好呀! ^start(animations/Stand/Gestures/Hey_1) 很高兴见到你!" #机器人说完你好,做动作,动作停止说很高兴见到你"你好呀! ^start(animations/Stand/Gestures/Hey_1) 很高兴见到你! ^wait(animations/Stand/Gestures/Hey_1)" #机器人说完你好,做动作,动作不停说很高兴见到你
身体语言模式是^mode(body_language_mode),其中body_language_mode 可以是 “disabled”, “random” or “contextual”。例如:
"你好. 看,我可以静止不动 ^mode(disabled) 我还可以恢复移动 ^mode(contextual), 看到了吗?"
Animations(生动化):
^run( animation_full_name ) Suspend the speech, run an animation and resume the speech.
^start( animation_full_name ) Start an animation.
^stop( animation_full_name ) Stop an animation.
^wait( animation_full_name ) Suspend the speech, wait for the end of the animation and resume the speech.#例子"^start(ani
这篇关于NAO学习第二周——NAOqi Audio的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!