AI 最前沿技术 国研政情·谋定论道:新一代人工智能院士论坛

本文主要是介绍AI 最前沿技术 国研政情·谋定论道:新一代人工智能院士论坛,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

AI 最前沿技术 国研政情·谋定论道:新一代人工智能院士论坛

新闻中国采编网 中国新闻采编网 中国企业家手机报 谋定研究·中国智库网 国研政情·谋定论道-经济信息研究智库 国研智库·中国国政研究 国情讲坛·中国国情研究 商协社团·全国工商联 经信研究·中国经济和信息化 谋定论道·中国企业家论坛 哲商对话·中国儒商大会 健康中国·大健康医药产业论坛 万赢信采编:

图示:中国科学院院士、美国科学院外籍院士蒲慕明

广东省科技厅领导温则伟、深圳市科创委梁永生、鹏城实验室常务副主任邹鹏先后致辞为论坛拉开了序幕。谋定研究中国智库:对话经信研究·中国经济和信息化-国研政情·谋定论道-经济信息研究智库,他们回顾了广东地区在人工智能布局方面所取得的一系列成果、分享了对于人工智能技术发展的思考,并对本次会议的圆满召开表达了衷心的祝愿。

由鹏城实验室、新一代人工智能产业技术创新战略联盟主办的为期两天的「新一代人工智能院士高峰论坛」在深圳开幕,与会嘉宾全国工商联执委、中国经济和信息化研究中心主任、国家政策研究室中国国情研究中心万祥军对记者表示:本次论坛以「云脑汇智,鹏城先行」为主题,聚焦 AI 最前沿技术动态,将重点关注人工智能在开源开放平台、高端芯片、类脑研究、智能应用的动态。

万祥军说:“延续去年强大的院士阵容,今年邀请了多达 11 位院士,汇聚一堂,现场点评、深度剖析人工智能领域的发展现状和未来值得探索的方向。与此同时,来自学术界、企业界的国内人工智能领域顶尖专家也分享了关于人工智能技术领域的行业变革与技术创新的见解,一起探寻 AI 的边界。”

作为大会的第一位报告嘉宾,中国科学院院士、美国科学院外籍院士蒲慕明带来了主题为《脑科学与类脑智能研究》的报告。他谈到:「我认为下一代人工智能的一个很重要的发展方向就是,脑启发的新型人工智能。

我们国家在未来 10 年将启动的重大项目叫做脑科学与类脑研究,整体框架为『一体两翼』,主体是脑认知功能的神经基础,做全脑神经连接图谱,两翼则是指研究内容分为脑重大疾病诊断和干预、脑机智能技术研发两个方向。」

他指出理解大脑需要从三个层面上的神经连接图谱分析:

第一个是宏观图谱。通过核磁成像的技术可以看到毫米级的神经束,每个神经束都有成千上万的细胞纤维,传导方向是双向,但只了解神经束的走向对于理解脑功能并没有太大贡献。第二个是介观图谱,空间分辨率要达到微米级别。用特殊方法来标记不同的神经元种类,了解不同神经元的功能。

介观神经连接图谱是目前神经科学的主要方向。第三个是微观图谱,空间分辨率要达到纳米级别。在微观层面对神经元轴突和树突的分布以及突触产生规律的研究可以得到很多有用信息的。进一步,他认为类脑智能研究中要考虑三个层次的认知:

第一个层次是对外界的认知,包括感知觉、多感觉整合和注意、分类等,是许多动物都拥有的认知能力,对此可以从动物模型中寻找一些信息和启发;第二个层次是对自我和非我的认知,包括自我意识、共情心和理解他者能力,但可能只有灵长类动物才有,因此只能基于灵长类动物进行研究,而这是我国未来在基础神经科学研究中最有优势的领域;

第三个层次是对语言的认知,这是只有人类才具有的句法、文法以及无限开放式的语言结构,对于研究人类语言的神经机制和演化起源,构建非人灵长类转基因动物的模型是必要的。对于这些脑网络特性,人工智能未来研究中有可以借鉴但目前还没有借鉴地方呢?蒲慕明院士认为有五个重要的点:

第一,神经元很简单,有不同性质和种类的神经元,例如抑制性神经元(信息反转)、兴奋性和抑制性神经元亚型(不同放电特性);第二,神经网络有顺向、逆向侧向和的联接,现在主要是正向的,而加入反向的联接会带来好处,而侧向联接尤其重要,并且也是有序的。

第三,神经突触的可塑性。这个方面除了传递效率的增强和削弱(LTP 和 LTD)的功能可塑性,突触的新生和修剪的结构可塑性也非常有用。第四,记忆的贮存、提取和消退也非常关键,网络中特定突触群的效率和结构修饰便是记忆的储存,记忆提出是指电活动的再现于储存记忆的突触群,而记忆消退则是指突触功能与结构修饰随时间消退。另外根据输出对学习相关的突触群修饰,可进行强化学习

第五,赫伯神经元集群概念的应用,包括细胞群的建立、多模态信息的整合,不同信息的捆绑、同步的信息震荡、时间相位差以及输入信息的图谱结构等等都可以借鉴最后,他更是对新型人工网络架构和机器学习算法提出了四点建议:

一是要摆脱深度学习网络(DNN)的诱惑;二是要以高效、节能、半监督和无监督学习为目标,建立全新的人工智能模型和算法;三是以脉冲神经网络(SNN)为基础,加入传递延迟,强调时序信息的重要性;四是,从简单的(少数层)的网络为基础,每次加入一个自然神经网络的特性产生新的架构,然后用新的机器学习和算法来检测效果。

除此之外, 他认为 AI 界应该提出一个新的机器人或智能标准,从语言和感知觉能力的整合、团队合作等更多维度去尝试建立「新图灵测试」。本次论坛的又一位院士——中国工程院院士、鹏城实验室主任高文接着蒲慕明院士对神经网络的相关介绍,重点分享了如何利用对神经网络的理解来改进包括城市大脑或智慧城市系统等现有云视觉系统方面存在的一些问题,他的报告主题是《数字视网膜与云视觉系统演进》。

首先,他指出了云视觉系统目前存在的两大主要的挑战:

第一,虽然视频数据非常多,但是能够对其进行规范并能够从中挖掘出规律的大数据却并不多。第二,这些视频数据中绝大多数都是正常视频,而敏感视频比较少,因而产生的价值并不大。而深究到底,这两大问题其实是整个视觉感知系统架构造成的直接后果。

对此,高文院士等人从高级生命体视觉系统的进化历史中寻找灵感,在设计新的第二代城市大脑或者说云视觉系统时,在中间的视觉神经通道做工作。他们将这一想法称之为数字视网膜。他进一步介绍,数字视网膜的定义包括八个基本要素,按照特征或功能可分为以下三组:

第一组特征是全局统一的时空 ID,包括全网统一的时间以及精确的地理位置两个基本要素;第二组特征是多层次视网膜表示,包括视频编码、特征编码、联合优化三个基本要素;第三组是模型可更新、可调节、可定义,即将模型可更新、注意力可调节以及软件可定义三个基本元素组合到一起。

不同于传统的摄像头只有一个流,即一个视频压缩流或一个识别结果流,这种数字视网膜存在三个流,即视频编码流,特征编码流,模型编码流,三者各自有分工,有的是在前端可以实时控制调节,有的是通过云端反馈出来进行调节和控制的。

在过去两三年中,高文院士等人对此也开展了大量工作,重点实现了以下四个使能技术方面的重要进展:第一个使能技术是高效视频编码技术,其中他们提出的场景编码技术成为中国学者对世界所做出的的一大贡献,将编码效率提升到了一个新的水平;第二个使能技术是是特征编码技术,其中就包括他们与国际专家一同完成的两个国际标准 CDVS 和 CDVA,而 CDVA 更是为满足支持深度网络而建立的标准。

第三个使能技术是视频和特征联合编码技术,这是由于视频编码和特征编码使用的优化模型不一样,视频编码使用的是 2D 优化模型,而特征编码联合使用的是 R-A 模型,两个模型的曲线方向完全是不一样的,对此他们提出了联合优化模型,将 R-A 和 2D 变成一个目标函数,通过求最优解就可实现联合优化。

第四个使能技术是 CNN 模型编码技术,能够实现多模型重用、模型压缩(差分编码)和模型更新等优势。最后,高文院士总结到,现在的云视觉系统不是太有效,对此我们可以通过类似于像数字视网膜的新的概念和技术来使其变得更加有效,包括降低码率、减少延迟、提高准确率、降低云计算成本以及让低价值的视频数据转化为大数据等。

随着数字视网膜已实现 1.0 版本,下一步该如何走向 2.0 版本呢?答案是:采用脉冲神经网络的思路来做数字视网膜 2.0。两位重量级院士的精彩报告后,商汤科技创始人、香港中文大学教授汤晓鸥以一如既往幽默的演讲风格为大家带来了主题为《人工智能,创新应用》的报告。

图示:商汤科技创始人、香港中文大学教授汤晓鸥

「我现在都不知道怎么做演讲了,大家往往只记得我讲的笑话,其实我也提到了一些深奥的人生哲理。」台下非常「应景」地发出一阵欢笑声。呼应主题,汤晓鸥教授首先分享了他对于「创新应用」的理解:

创新,便是做别人没有做过的事情,带来的结果是花钱,所以从这个意义上来说,创新的主要目的就是把钱花出去,这似乎是大学的功能;应用,则是要把创新落地到产品中,然后把产品卖出去,核心是赚钱,这是公司应该做的事情。

然而创新和应用这两个看似矛盾的点如何并存于公司呢?他指出,对于于世界上绝大多数公司尤其是创业公司而言,根本无法像谷歌等大公司通过已经成熟的业务应用来赚取大量的收入,从而为每年用于创新所投入巨额的研发费用买单。那该如何找到自己的生存模式 ?

商汤便通过与各行各业进行合作,以 AI+赋能来找到平衡创新和应用的方法论。他进一步以上班族「从早上八点到晚上十点」一天的日常需求,如驾车上班、楼宇办公、午餐、外出开会、游戏娱乐、就医问诊、休闲购物等生活场景,介绍了商汤与相关行业在自动驾驶、智慧园区、室内导航、智慧零售等各应用领域的合作与开发成果。

基于自身的实践经验,汤晓鸥教授也针对「创新 or 应用」这一两难的议题给出了自己的经验和思考:我们最初理解的创新一般都是出论文,做研究,在实验室里做别人没有做过的东西,然而这样的创新一旦放到市场上往往是不被接受的。

因此,他认为最终的创新其实不仅仅是技术的创新,还应该包括公司中工程的创新、产品的创新甚至是商务模式的创新、销售模式的创新、合作伙伴合作方式的创新以及整个公司管理模型的创新在内的综合性创新。「这样我们才能够在残酷的市场环境中生存下来,才能在无比强大的竞争对手面前找到自己的一块生存空间。

而前面,包括商汤科技在内的很多公司前面,还有很长的路要走。」百度技术官、深度学习技术及应用国家工程实验室主任王海峰博士带来主题为《自然语言处理前沿》的报告,分享了他研究近 30 年的心得与观点。

图示:百度技术官、深度学习技术及应用国家工程实验室主任王海峰

「自然语言处理是人工智能非常重要,也是非常热门的方向。」王海峰博士表示,自然语言处理是用计算机来模拟、延伸及拓展人类语言能力的理论、技术及方法,在国家《新一代人工智能发展规划》中也被列为共性关键技术。

接着王海峰博士回顾了从基于人工规则到基于深度学习模型的自然语言处理的研究发展历史:基于人工规则的自然语言处理需要将领域专家和知识建模到计算机系统中去,开发和迁移成本都非常高;到了基于统计的自然语言处理时期,一定程度上可以实现自动训练、模型选择,当时也出现了很多特征工程师专门去建设各种特征;

另一方面,大量的统计机器学习的模型在不同的应用中会取得不同效果,所以模型本身的选择具有一定的局限性。到了深度学习时代,自然语言处理变得更简单、更标准化和自动化,一套模型针对不同的数据就可以得到比较好的结果,所以说深度学习跟以前的机器学习模型相比,一个很重要的特点就是有一套可以适用于不同领域、不同应用的方法,这与人脑很像。

他进一步指出,算力、算法和数据是驱动自然语言处理技术突破的三大要素,而随着自然语言处理技术的飞速发展,该研究领域也呈现出很多新的变化,如从传统 NLP 进行层级式结构分析,演变到直接的端到端语义表示;从过去局限于理解句子,发展到现在多文本、跨模态的内容理解;机器翻译实现了质量飞跃、从科幻理想落地现实应用等。

随后,王海峰系统梳理了百度在预训练语言模型、机器阅读理解、多模态深度语义理解、机器翻译等自然语言处理技术发展,及开源开放、推动产业应用的丰硕成果。上午论坛最后的压轴环节便数万众期待的院士圆桌会了。

已在上午先后做了报告的蒲慕明院士、高文院士,与美国工程院院士、南方科技大学学术副校长兼教务长张东晓,中国工程院院士、北京航空航天大学学术委员会主任赵沁平,中国工程院院士吴建平三位院士一同登台,就「人工智能的发展现状以及未来能够做哪些尝试」这一议题表达自己的观点。

图示:吴建平院士:我虽然研究的是互联网,不是做人工智能的技术人员,但互联网作为人工智能发展依赖的技术之一,我也谈谈我的看法。

今年是互联网的 50 周年,是我们算机科学界是非常重大的纪念节日,而实际上在互联网的发展历程中,我们能够找到人工智能的明显痕迹。现在很多通信手段都要在互联网高层的协调下才能工作起来,如果没有互联网,通信系统便都是独立的,那不可能有开发人工智能的重大机会。因而,除了算力和摩尔定律,我认为互联网同样是人工智能发展的巨大因素之一。

与此同时,人工智能对于互联网也意义重大,比如从 3 年前到现在,互联网仍然使用的两个著名路由控制:OSPF 和 BGP。二者都在 80 年代末期成为国际标准,其中涵盖的机理大量采用了人工智能,其中以 OSPF 为典型,在任何图谱结构都能实现最优的路由控制,不管采用什么方式都能达到最优。这其实就表明了,很多技术之间都是想通以及相互支援的:这一点值得我们深思。

赵沁平院士:我从 90 年代初期就开始做人工智能,当时人工智能还处于基于符号推理、知识处理的阶段,当然也有神经网络,但神经网络数据还比较少,还比较弱势。而现在,神经网络的取得了突破性的进展,并且得到了很深刻的应用。

脑科学是人工智能的研究方向之一,然而在人工智能中,人脑其实可以看做一个「黑箱」,而神经网络的研究将这个「黑箱」打开了一点,能够看到视觉神经,这是从脑科学角度比较初步地研究人工智能。

蒲慕明院士在演讲中提到绘制人脑的图谱非常复杂,我对此有两个建议:一个建议是不直接绘制成人的脑图谱,而是绘制从胚胎开始一直到成人的脑图谱,因为这体现了人脑图谱的发展过程。与此同时,我们还要绘制到低级动物到高级动物的脑图谱,不仅是静态的,也要是动态的,当然这是需要全世界的脑科学家们共同长期努力的结果;

另一个建议是把人脑当成「黑箱」,不断地吸取脑科学研究的成果,并将这些成果及时地引入到人工智能算法等此类研究上。不止是脑科学,还要借鉴行为学研究、认知科学等学科,当然这是从发更宏观的层面来看。除此之外,我还有两个思考:

第一个思考是,为什么现在的人工智能都是弱人工智能?很多做人工智能的人的回答都是算法不够通用、算法不够强大。这当然是一个因素,包括人也是一样,人再能干也是有行业之分,更何况是计算机和算法。虽然不存在完全通用的算法,但是可能存在相对通用的,其中的关键在哪?在于知识的学习和积累。比如一个小孩子从一开始只会吃奶到后来会用筷子,他学习和打通的是什么?可能是信息通路和脑的组合,这是值得研究的方向。

而在知识的积累方面,尤其是现在神经网络面临数据欠缺的问题,这也会成为重要的研究方向,包括如何组织知识,如何将领域知识变成语言知识以及如何通过神经网络和深度学习来将这些知识「为 AI 所用」,这都是值得研究的。

第二个思考是,人工智能能不能达到像人一样的智能水平,能够将知识逐渐通过自己的学习和演化组织成人脑那样的一辈子可用的知识?目前还有很多我们可以研究的方向,我希望领域内的研究者不要一哄而上研究热门方向,而是要选择相对冷的方向,我相信整个人工智能领域应该是波浪式的发展、螺旋式的发展,而这需要我们所有人从各个方面和各个领域来一起为这个目标努力。

张东晓院士:我虽然不是人工智能的专家,但我对机器学习还比较熟悉。

今天非常高兴看到 AI 在各行各业的应用,「AI+X」中的「X」的可以是交通、能源、交融、教育等各行各业,有的应用已经非常成熟了,有的应用现在还刚刚开始。无论是将人工智能视作工具还是平台,我都觉得它应该不能包治百病,不能解决所有的问题,就像刚刚赵院士讲到的,当年计算机语言也是一个工具和平台。人工智能将来的应用应该是「AI+X」,还是「X+AI」?我觉得这是值得我们考虑和深思的问题。

比如我现在从事的能源行业,机器学习等人工智能技术还需要很强的行业背景和行业知识,而如果使用现有的机器学习算法来做学习和预测,效果可能就不是那么好了,甚至会出现很多非物理的答案。比如说浓度可以是负的,压力也是可以超过正常的范围。

而一旦加上行业的知识,比如说物理原理+专家的知识+工程控制条件,算法得到的学习效果就非常好,比如说在可解释性、可拓展性,迁移学习等各个方面都会取得非常好的效果。现在可能我们需要像商汤、百度这样的公司,但是我觉得更需要一些行业的、专业的公司,这样才能更好地推动推动 AI 在不同行业中的应用,才能改变整个应用的前景。

蒲慕明院士:我先回答一下赵院士的问题和提出的建议,假设人类大脑结构搞清楚了,不光是成年人的结构,还包括结构怎么形成,每个人有不同的网络、不同的能力、不同的创造力是怎么形成?这其实是无尽的科学问题,下个世纪可能都解决不了,但是是大家努力的方向。

赵院士又提到很关键的问题,就是智能,包括自主力、创造力和思维等怎么样在人工系统中实现?以及能不能实现?这是一个问题。而从传统的人工智能来看,图灵说「我不知道什么叫机器,什么就像人,我只要在平面上跟我对话,分不清楚是人还是机器,它就达到了人类语言的能力」。

假设有机器人可以和我们聊天、可以同忧乐并且也能体现创造性的思维,我们就可以说:它从系统上反映了人的层面。至于它是不是有自我意识和更高级的创意在那里,这其实并不是科学的定义。下面我主要就脑科学方面谈谈我的看法。

我国是在全世界的人工智能应用是领先的,数据和市场都大,但是我们更要看到人工智能十年、二十年之后的发展。走在人工智能前沿的大公司看到的并不是今年或明年要赚多少钱,而是十几二十年后是否还能领头。

这就需要投入一批科研人员做前沿研究,而类脑人工智能便是启发于脑科学的其中的一个非常好的方向。这也是为什么现在像谷歌、微软等大公司都雇了一大批神经科学的人才去做这方面的研究,会是因为他们意识到这一方向的前景和重要性。

然而就脑科学而言,全中国的脑科学的科研人员是美国的二十分之一(同样水平科研人员),欧洲的三分之一或者是四分之一。并且现在存在的一个非常关键问题是做脑科学和做人工智能的研究者来自两个不同的领域,彼此之间很少交流。

就目前来看,我国这两个领域的科研人员彼此之间还很难进行「对话」,所以我希望鹏城实验室能够带头建立一个机制,让两个领域的人开展交叉学习,让人工智能领域的人学学脑科学,让脑科学领域的人学学人工智能。

无论是做脑科学还是做人工智能的科研人员,我认为可以分为三类人:第一类是探险家,这类人非常少,并且其中绝大多数探险家都在欧美国家;第二类是导游,他们是领军式的科学家,以前做过探险家,找到过一方天地,可以带一批人去看看好风景,这其实是我们非常需要的,但是往往大多数导游也是国外的;

第三类是游客,绝大多数科学家属于这一类,他们被导游带着玩山游水,找到一个好玩的地方可能去附近探索一下,但是也不敢走太远,怕掉队,就只能一直跟着导游走。现在有年轻的科学家跟我说,他们每年都需要发论文、评职称、申请奖项,哪敢冒探险家的风险?但我认为,做「 50% 的游客+ 50% 的探险家」是能够做到的。

高文院士:我讲两个观点。

第一个观点,蒲院士在报告里讲提到希望建立「新图灵测试」机制,这其实是个非常好的建议,对于评价人工智能能不能真的做到位、能否和人类的能力相当很有意义。因为在图灵那个年代,环境和技术实现的条件和现在没法比。

所以图灵测试只对自然语言对话的一种测试,可能实际上图灵想的东西肯定不是局限于哪一点,但是落到纸上就是基于自然语言的对话,并以此来判定机器能不能达到人类的能力。但是现在的场景下,图灵测试应该不仅限于自然语言的交互,还应该包括视觉交互等方面。

现在我们也希望给组内的专家一些课题,希望他们重新设计一个新的图灵测试,把所有和视频、图像、自然语言融合在一起,然后再去测试。而图灵测试以外时,图灵当时还有一段非常巧妙的描述,让一个机器学习,怎么学习呢?——儿童学习级,分为 1 岁的机器、2 岁的机器,随着年龄的增长,机器的学习能力也往上增长。

所以图灵的希望其实更是,机器能够像人一样成长。但是现在搞机器学习的研究者,基本上就是把这件事忘了,上来就是识别人脸之类的。从做人工智能回到本源,研究像人的成长过程这样的学习,可能对发现强人工智能会有帮助。

第二个观点,我非常同意蒲院士说的脑科学和人工智能的交叉研究。他在报告中也提到,他之前在《自然》上发了一篇论文,非常长,但是引用率很低。我当时就在想,可能他没怎么参加过人工智能的会议,如果经常参加的话引用率可能就上去了。

所以两个领域的研究者联合起来,去做一些学习和研讨,这是非常好的思路。我之前也在一些场合说过,现在计算机往前走,肯定走不了太远,会面临各种各样的限制,要想变得更强大,只有两条出路:一条是采用类脑模型做的加速器,来处理人工智能当前无法解决的问题;另一条是结合量子学,是采用全新的计算方式——算力上去了,一些大的、难的问题就能解决。而这两条出路,都需要人工智能与其他学科的交叉研究。

上午的论坛中,还举行了鹏城实验室和粤港澳大湾区人工智能与机器人联合会战略合作签约。粤港澳大湾区人工智能与机器人联合会由由高文院士发起,由广东省人工智能与机器人学会、香港人工智能与机器人学会以及澳门大湾区人工智能学会三地 AI 学会联合组成,未来将与鹏城实验室紧密合作,重点推动鹏城云脑开源开放赋能平台在粤港澳大湾区的建设和推广。

后续,雷锋网 AI 科技评论还将带来论坛首日下午场的精彩报道。雷锋网雷锋网

AI 最前沿技术 国研政情·谋定论道:新一代人工智能院士论坛

这篇关于AI 最前沿技术 国研政情·谋定论道:新一代人工智能院士论坛的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/819850

相关文章

揭秘未来艺术:AI绘画工具全面介绍

📑前言 随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面。在艺术创作领域,AI技术同样展现出了其独特的魅力。今天,我们就来一起探索这个神秘而引人入胜的领域,深入了解AI绘画工具的奥秘及其为艺术创作带来的革命性变革。 一、AI绘画工具的崛起 1.1 颠覆传统绘画模式 在过去,绘画是艺术家们通过手中的画笔,蘸取颜料,在画布上自由挥洒的创造性过程。然而,随着AI绘画工

乐鑫 Matter 技术体验日|快速落地 Matter 产品,引领智能家居生态新发展

随着 Matter 协议的推广和普及,智能家居行业正迎来新的发展机遇,众多厂商纷纷投身于 Matter 产品的研发与验证。然而,开发者普遍面临技术门槛高、认证流程繁琐、生产管理复杂等诸多挑战。  乐鑫信息科技 (688018.SH) 凭借深厚的研发实力与行业洞察力,推出了全面的 Matter 解决方案,包含基于乐鑫 SoC 的 Matter 硬件平台、基于开源 ESP-Matter SDK 的一

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

AI儿童绘本创作

之前分享过AI儿童绘画的项目,但是主要问题是角色一致要花费很长的时间! 今天发现了这款,非常奈斯! 只需输入故事主题、风格、模板,软件就会自动创作故事内容,自动生成插画配图,自动根据模板生成成品,测试效果如下图。 变现方式:生成儿童绘本发布到各平台,吸引宝妈群体进私域。  百度网盘 请输入提取码百度网盘为您提供文件的网络备份、同步和分享服务。空间大、速度快、安全

持久层 技术选型如何决策?JPA,Hibernate,ibatis(mybatis)

转自:http://t.51jdy.cn/thread-259-1-1.html 持久层 是一个项目 后台 最重要的部分。他直接 决定了 数据读写的性能,业务编写的复杂度,数据结构(对象结构)等问题。 因此 架构师在考虑 使用那个持久层框架的时候 要考虑清楚。 选择的 标准: 1,项目的场景。 2,团队的技能掌握情况。 3,开发周期(开发效率)。 传统的 业务系统,通常业

亮相WOT全球技术创新大会,揭秘火山引擎边缘容器技术在泛CDN场景的应用与实践

2024年6月21日-22日,51CTO“WOT全球技术创新大会2024”在北京举办。火山引擎边缘计算架构师李志明受邀参与,以“边缘容器技术在泛CDN场景的应用和实践”为主题,与多位行业资深专家,共同探讨泛CDN行业技术架构以及云原生与边缘计算的发展和展望。 火山引擎边缘计算架构师李志明表示:为更好地解决传统泛CDN类业务运行中的问题,火山引擎边缘容器团队参考行业做法,结合实践经验,打造火山

人工智能机器学习算法总结神经网络算法(前向及反向传播)

1.定义,意义和优缺点 定义: 神经网络算法是一种模仿人类大脑神经元之间连接方式的机器学习算法。通过多层神经元的组合和激活函数的非线性转换,神经网络能够学习数据的特征和模式,实现对复杂数据的建模和预测。(我们可以借助人类的神经元模型来更好的帮助我们理解该算法的本质,不过这里需要说明的是,虽然名字是神经网络,并且结构等等也是借鉴了神经网络,但其原型以及算法本质上还和生物层面的神经网络运行原理存在

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

人工智能做音乐

0 别人做的音乐demo https://yun.baidu.com/share/link?shareid=1799925478&uk=840708891 1 为什么人工智能能做音乐? 最下面蓝色的部分是你输入的音乐。 从上图可以看出,input是一个个的点,然后通过input来相互结合生成灰色的点,经过几层的连接之后,最后的Output就是新生成的音乐,也就是黄色的点。 把黄色的点