对标GPT-4o,科大讯飞正以大模型重塑语音产业

2024-08-28 22:28

本文主要是介绍对标GPT-4o,科大讯飞正以大模型重塑语音产业,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

每个科技时代,都有每个时代的“入口”和“推手”。

在PC时代,浏览器和搜索引擎是主要入口,用户通过键盘和鼠标进行交互。移动互联时代,APP和应用商店成为典型入口,用户用手指和触摸屏进入互联网世界。而在眼下的AI时代,业内已经把语音交互当做重要入口,它提供了一种更为丰富、自然和便捷的交互体验。

纵观历史,每一个抓住入口、推动时代发展的企业,反过来也能掌握竞争主动权,获得长期发展动力。比如,PC时代的谷歌,移动互联时代的苹果等等。

因此,如今很多大厂都在围绕语音交互展开深度布局,力图抢占AI时代的战略要地。其中,就国外和国内而言,OpenAI和科大讯飞成为最受关注的两家企业。

今年5月,OpenAI 发布GPT-4o,展现出更为强劲的语音交互能力。比如,更快的响应速度、更自然的语音等等。但遗憾的是,GPT-4o目前还没有向国内用户开放,大部分人无法亲自感受各种体验。

很多人不知道的是,国内的科大讯飞不仅做到了对标GPT-4o的语音交互体验,而且还能让人抢先体验。

今年8月19日,科大讯飞发布了星火极速超拟人交互技术,在响应和打断速度、情绪感知情感共鸣、语音可控表达、人设扮演四个方面实现巨大突破。这项技术将于今年8月底在讯飞星火App上全民开放使用,普通用户也能亲自感知。

在最近的科大讯飞2024年上半年业绩说明会上,《一点财经》观察到科大讯飞董秘江涛亲自演示星火极速超拟人交互技术,由此更直观地看到了这项技术的操作体验。

不得不说,科大讯飞虽然在研发上大力投入,但在宣传上的力度着实不够。其实,这项技术能对行业变革产生深度影响。与此同时,科大讯也在积攒技术势能,未来预计会释放出强劲的发展动能。

语音交互的“理想”与“现实”

2014年,一部讲述人类与AI爱情的电影《Her》收获了超高人气,还获得了奥斯卡最佳原创剧本奖。

电影中,男主角西奥多的工作是给不善表达感情的人代写情书。他有语音操控的随身设备,能够直接用语音输入信件内容、进行打印等等。日常生活中,他还能通过语音收听歌曲、接收邮件和新闻。

让很多观众浮想联翩的是,西奥多遇到了一个AI机器人“萨曼莎”,她拥有温情的声线,不仅非常体贴还很懂西奥多。在跟“萨曼莎”的长期语音交流中,西奥多坠入爱河,开始了一段“人机恋”。

十年以来,这部电影里的科幻场景不断照进现实,各种语音交互产品和技术持续迭代,丰富着用户的语音交互体验。

不过,很多用户还是感觉跟想象中的体验有落差。因为市面上语音交互技术普遍存在痛点,包括响应迟钝、难以共情、个性化不足、端点检测困难等问题。

简而言之,现在许多语音交互技术机器的味道还是太重,拟人的感觉不足,没能提供足够的情绪价值。这一方面导致用户体验不佳,另一方面阻碍了行业发展,需要有企业来破除痛点,充当行业发展的推手。

目前来看,科大讯飞就是一个重要的推手。其推出的星火极速超拟人交互技术在四个方面极大提升了用户体验——“响应和打断速度、情绪感知情感共鸣、语音可控表达、人设扮演”,总结下来就是:

不仅在响应上有速度,而且在情感上有温度,能够提供更多的情绪价值。

1、响应上的速度

用户进行语音交互的过程中,都想获得更快的响应,达到“召之即来”的效果。并且在中途频繁打断的情况下,希望能够迅速重新响应。

然而,目前主流的语音交互应用中,从用户提出问题到应用响应大多需要2-2.5秒,会明显感觉到停顿,中途打断后响应的时间更长,这就会影响用户的交互节奏和智能体验。

而星火极速超拟人交互技术带给人的首个感受就是“快”,其让响应时间缩短到了0.9秒,几乎感觉不到停顿。另外,用户还可以随时打断、插话,它依然能做到迅速响应。

这意味着,通过星火极速超拟人交互技术,用户可以获得更加贴近日常对话的现实体验。

2、情感上的温度

在语音交互过程中,如果能够及时响应,但回应的却是冷冰冰的话语,用户的交互欲望和热情必然会降低,因为没有人愿意面对一个没有温度的机器。

传统指令型语音技术,只能通过对某些特定发音的识别给出响应,情绪感知能力不足,而星火极速超拟人交互技术进行了明显的提升。其不仅能够根据语音判断用户情绪,包括高兴、悲伤、生气、害怕等等,还能识别咳嗽、宠物叫声等非语言信号,跟用户之间产生更深层次的情感共鸣。

如果只能分别情绪,不能情绪化地回应,用户的感知度也不会很明显。星火极速超拟人交互技术在表达方式上更加灵活,可以根据用户的指令控制数十种情感、风格、方言,甚至自动调节语速、语气和情绪,让对话更有温度从而直入人心。

另外,星火极速超拟人交互还有一个优势就是能够“选角色”,其支持多种人设的任意切换,用户可以与孙悟空、蜡笔小新、小猪佩奇等角色进行互动,感受到跟不同角色对话的乐趣。

可以说,以往的语音交互技术体验起来更像机器,而星火极速超拟人交互更像人类,大大提升了用户体验。这种进化背后,在于科大讯飞进行了长期的技术研发和积累。

语音交互进化史:技术才是硬道理

语音交互进化史,就是一部技术迭代史。

最早的语音交互技术,可以追溯到上世纪60年代。当时的语音交互技术主要基于规则,也就是将语音按照语法等规则进行分析和生成,然后根据设定好的语句进行回应。

这种方法的智能度和灵活度都很低,只能进行某些特定任务,比如查询天气、订票等,稍微复杂一些的指令就无法操作。

上世纪90年代,语音交互技术进入新的阶段,也就是基于统计模型。这种方法不再依赖于固定规则,而是利用概率论建立交互模型,根据上下文生成最合适的回应。这种方法相对可以处理更多指令,也能适应不同的场景需求。

2006年,随着深度学习技术兴起,语音交互技术有了质的飞跃,可以自动学习语音信号的复杂特征,从而进入DNN(深度神经网络)时代。比如,RNN(循环神经网络)是一种能够处理序列数据的神经网络。它具有长期记忆能力,可以用于处理连续的语音特征,从而提高识别准确率。

此后,语音交互技术在持续进化,比如CNN(卷积神经网络)、DFCNN(深度全序列卷积神经网络)等等,用户体验也在持续升级。在技术进化浪潮中,科大讯飞一直站在潮头浪尖。

早在2012年,科大讯飞就将BN-feature和NDD-HMM两套深度学习方案上线了讯飞输入法和语音开放平台,由此成为国内首个上线深度学习语音识别商业系统的机构,将实际场景中语音识别的准确率从60%提升到了88%左右。

到现在,星火极速超拟人交互采用的是统一神经网络,直接实现语音到语音端到端建模,这是一种被验证为能力更强的技术方案。

因为传统的语音识别系统一般由多个模块组成,包括声学模型、语言模型和发音词典等。而端到端建模将这些模块合并为一个整体,实现了原始语音信号到最终文本的直接映射,这就给语音交互带来了许多提升。

首先,端到端建模简化了传统语音识别系统的复杂度、减少了模块之间的集成难度。其次,它可以更好地外理语音信号中的噪声和变异,提高了系统的鲁棒性,即抵御外界干扰和保持稳定的能力。此外,它还具有更快的训练和推理速度,适用于实时场景。

星火极速超拟人交互的技术优势背后,在于科大讯飞持续进行研发投入和积累。

根据科大讯飞最新发布的2024年上半年财报,报告期内其营收93.25亿元,比上年同期增长18.91%。值得注意的是,公司研发投入21.9亿元,同比增长32.23%,占营收比重达23.5%。

在企业发展因子中,营销、宣传等浅层次的是“快变量”。短期内,它们能够发挥一时的成效,但也会呈现不稳定和低门槛的特征。

深层次则是“慢变量”,比如技术、研发等等。它们前期需要大量的投入,就像推动一个静止的轮子,投入到一定程度后轮子会越转越快,从而迸发出“飞轮效应”,最终转化为出色的技术和产品以及坚固的护城河。此次,科大讯飞推出星火极速超拟人交互技术就是一个典型。有时候,“慢”反而意味着“快”。

其实,星火极速超拟人交互技术背后的大模型能力,同样具备庞大的想象空间。

眺望未来:大模型重塑语音产业

如今,“大模型+”就像当年的“互联网+”给与市场无限想象力。

在大模型的热风之下,许多产业都值得被重塑一遍,其中就包括汽车、机器人、消费电子、家电等领域。在大模型落地方面,科大讯飞通过星火大模型云边端一体化、软硬件一体化的全场景布局,这让其能够满足多个复杂场景对大模型的需求,进而摘取多元的产业红利。

先说汽车领域。今年上半年,中国汽车产销量分别达1389.1万辆和1404.7万辆,依然保持全球第一。出口总量达348万辆,同比增长25%,火热态势依旧。目前,中国汽车出海十强企业中,有8家企业和科大讯飞合作。未来,汽车的趋势必然是智能化。而大模型的赋能,可以提升智能座舱、智能驾驶等多个方面的用户体验,助力中国汽车产业的增长。

比如,自2011年科大讯飞率先完成汽车语音国产化,车载语音已经成为中国汽车市场的标配,但在海外仍受制于单一语种的制约。今年星火语音大模型发布72个语种/方言免切换对话,并通过云边端及软硬一体化解决方案可以大大提升智能座舱体验。另外,科大讯飞还研发出基于星火大模型的用车助手,能够实时监测理解车辆状况,精准解答用户对用车的问题。

科大讯飞方面透露,公司汽车智能化产品合作已覆盖90%以上的中国主流自主品牌和合资品牌车厂。最新财报显示,科大讯飞汽车业务也延续了强劲的增长势头,上半年实现营收3.5亿元,同比增长65.49%。

跟汽车一样,机器人同样是未来的重要趋势。

尤其是人形机器人的前景非常可观,据《人形机器人产业研究报告》预测,2024年中国人形机器人市场规模将达到约27.6亿元,到2029年达到750亿元,将占世界总量的32.7%,占比位居世界第一。

大模型的思维链推理能力,能够明显提升机器人对于复杂任务的理解能力,并提供符合常识的任务拆解与规划。尤其是具身感知模型与具身决策模型的结合,能够进一步提升人形机器人在真实场景下的多模态感知与理解能力。

在复杂任务拆解、开放场景物体识别、多模态感知与理解等方面,星火大模型明显提升了人形机器人的智能水平。在最近的在2024世界机器人大会,科大讯飞亮相了“大模型+具身智能”的人形机器人最新进展:

整体运动性能提升2倍,复杂任务拆解成功率超过95%,交互能力、运动性能进一步提升。

另外在产业赋能上,讯飞机器人超脑平台已赋能420家机器人企业,深度链接1.5万机器人开发者,与优必选、宇树科技、智元机器人、银河通用等人形机器人企业形成广泛合作,未来预计有着充足的想象空间和强劲的产业推动力。

除了机器人,大模型浪潮也正在向消费电子终端和家电领域蔓延。

包括智能手机、智能办公本、学习机等在内的消费电子终端的规模非常庞大,《2024年数字经济报告》显示到2029年全球物联网设备数量将增至390亿部。如果用大模型让每台终端都变得更智能,从而提升用户体验,也能创造更大的市场空间。中商产业研究院预测,2023年中国智能硬件市场规模将达到14031亿元,预计2024年增至达15033亿元。

以科大讯飞智能办公本X3为例,其搭载了最新的讯飞星火智能技术,实现语音转文字、智能笔记整理、多语种翻译等高效办公功能。用户只需简单操作,就能将会议内容、演讲要点等语音信息实时转化为文字记录。这不仅大大提高了用户工作效率,也助力了科大讯飞智能硬件业务的增长。根据最新发布的2024年半年报,科大讯飞智能硬件业务实现营收9亿元,同比增长56.61%,增速远超行业平均水平。

随着新一轮以旧换新热潮来袭,家电市场也迎来新的市场增量。而家电与大模型的结合,能够为用户创造更智慧的家居生活,也能为家电厂商、技术提供商带来新的增长点。

比如,搭载讯飞星火认知大模型的电视语音助手将升级为全能的家庭中心,能够轻松应对日程管理、智能家居控制等操作,也能让孩子跟电视语音助手直接对话,练习口语、获取知识等等,打造出新的教育场景。三星就结合讯飞星火认知大模型的能力,让电视语音助手具备深层次理解、内容生成和知识问答等能力,极大提升了用户体验。

如今,星火大模型正成为教育、医疗、能源、汽车、家电、机器人等多个重要领域落地的首选。其不仅为AI时代的入口探索出更多可能性,也在结合实际场景进行应用落地,为用户真正带来技术红利,为企业创造经济效益,其本身也能够获得发展动能。

结语

《底层逻辑》一书中提出“战略势能”的概念,形象地说把一块石头抬到较高的山顶上就储备了势能。石头向下滚动时,势能就转化为了动能。

现在的科大讯飞,正处在积蓄战略势能的时候,需要克服困难大量投入。随着各项技术的深入和落地,战略势能将持续转化为发展动能,其未来是值得期待的。

这篇关于对标GPT-4o,科大讯飞正以大模型重塑语音产业的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1116060

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

跨国公司撤出在华研发中心的启示:中国IT产业的挑战与机遇

近日,IBM中国宣布撤出在华的两大研发中心,这一决定在IT行业引发了广泛的讨论和关注。跨国公司在华研发中心的撤出,不仅对众多IT从业者的职业发展带来了直接的冲击,也引发了人们对全球化背景下中国IT产业竞争力和未来发展方向的深思。面对这一突如其来的变化,我们应如何看待跨国公司的决策?中国IT人才又该如何应对?中国IT产业将何去何从?本文将围绕这些问题展开探讨。 跨国公司撤出的背景与

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

4B参数秒杀GPT-3.5:MiniCPM 3.0惊艳登场!

​ 面壁智能 在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。 MiniCPM 3.0 MiniCPM 3.0 MiniCPM 3.0 目前的主要功能有: 长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费