耶鲁大学测试人类和AI一起工作 结果令人意外!

2023-11-03 14:40

本文主要是介绍耶鲁大学测试人类和AI一起工作 结果令人意外!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

640?wx_fmt=jpeg 640?wx_fmt=jpeg

选自:The Atlantic 翻译:网易智能 

参与:晗冰 编辑:定西


【网易智能讯 3月7日消息】《大西洋月刊》撰文指出,人工智能正在直接或间接地影响诸如爱情、友谊、合作以及教学等人类基本社会能力。


当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约,一种与机器而不是与他人相处的契约。


几十年来关于机器人如何改变我们生活,一直是科幻小说的惯常话题。20世纪40年代,当人类和人工智能之间的广泛互动还遥不可及之时,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)为了防止机器人伤害人类,就提出了著名的机器人三定律。由于清楚机器人可以通过直接互动影响人类,机器人三定律的第一点就是机器人不能伤害人类,也不能在人类受到伤害时袖手旁观。想想经典科幻小说中的那些描述:比如在《星球大战》中,C-3PO和R2-D2与叛军联盟合作挫败帝国;或者《2001太空漫游》中的HAL 9000和《机械姬》中的艾娃密谋杀害表面上的主人。


但是这些想象并没有集中在人工智能更广泛也更重要的潜在社会影响上:人工智能可以影响我们人类之间的互动方式。


当然,激进的创新此前已经一再改变了人类共同生活的方式。大约在5000到10000年前,城市的出现意味着游牧生活的减少和人口密度的增加。无论是人类个体还是集体,都对这种新的生活方式进行了适应。比如说我们可能已经进化出对可能由这些密集新环境造成感染的抵抗力。最近,包括印刷、电话和互联网在内的技术发明彻底改变了我们存储和交流信息的方式。


然而,尽管这些创新具有重大影响,但它们并没有改变人类社交属性的基本行为:这是我们经过数十万年进化而来的基本社会能力,其中包括爱情、友谊、合作和教学。在世界各地,这些人类行为的基本因素在世界各地保持着惊人的一致性,无论是在城市或者农村,无论人类社会中是否使用现代技术均是如此。


但在人类社会中间加上人工智能可能更具破坏性。特别是当机器被设计成和我们一样,并深深地渗入我们的生活时,它们可能会改变我们的爱情方式、交友方式或者人性。这一切不仅仅发生在我们与机器的直接互动中,而且发生在我们与他人的互动中。


耶鲁大学实验室里做的一些实验就是如此。在其中一个实验中,研究人员引导一小群人与人形机器人一起在虚拟世界中铺设铁轨。每个实验组由三个人和一个蓝白相间的小机器人组成,他们围坐在一张方桌旁,通过平板电脑完成任务。这个机器人被设定为偶尔会犯错误,并且会承认错误:“对不起,伙计们,这一轮我犯了错误。”“我知道这可能难以置信,但机器人也会犯错。”


结果证明,这个会作忏悔的笨拙机器人通过改善人类之间的沟通交流,帮助这些小组表现得更好。他们变得更放松,更健谈,安慰那些容易犯错的小组成员。与机器人只做平淡陈述的对照相比,有忏悔机器人的实验组成员之间合作得更好。


在另一项虚拟实验中,研究人员将4000名受试者分成20人左右的小组,并在小组内为每个人分配“朋友”;彼此之间的朋友关系形成了一个社交网络。然后,这些小组被分配了一项任务:每个人必须从三种颜色中选择一种,但是每个人所选择的颜色不能与被分配朋友所选色相同。在受试者不知情的情况下,研究人员为一些小组分配了一些被设定为偶尔会出错的机器人。实验显示,与这些机器人直接相关的人变得更加灵活,并且会避免陷入一个只适用于特定个人,但不适用于整个团队的解决方案。更重要的是,由此产生的灵活性会在整个小组中传播开来,甚至会影响到没有直接与机器进行交互的人。因此,分配有容易出错的智能程序的实验组始终优于那些没有出错智能程序的实验组,在表明,机器人有助于人类相互帮助。


这两项研究都表明,在所谓的“混合系统”中,也就是人与机器进行社交互动的系统中,合适的人工智能可以改善人与人之间的关系。其他研究结果也证实了这一点。例如人们在网上对他人发出谩骂,后政治学家凯文·芒格(Kevin Munger)指示特定种类的机器人进行干预。他指出,在某些情况下,机器人只是提醒谩骂者他们的目标是一个感情可能会受到伤害的人时,就能使谩骂者在一个多月的时间内不再攻击他人。


但是在我们的社会环境中加入人工智能也会使我们的行为不再那么有效率和道德。在另一个实验中,研究人员给了几千名受试者钱,让他们在多个回合的网络游戏中使用。在每一轮测试中,受试者被告知他们可以保留自己的钱,也可以将部分或全部钱捐给邻居。如果他们捐了钱,研究人员也会捐同样的钱给他们的邻居。在游戏初期,三分之二的人表现得无私。毕竟,他们意识到在第一轮对邻居慷慨可能会促使邻居在下一轮对他们慷慨,从而建立一种互惠准则。然而,从自私和短期的角度来看,最好的结果是保留自己的钱,并从邻居那里得到钱。在这个实验中,研人员发现在整个受试群体中加入一些假装人类玩家的自私机器人,就可以促使整个群体做出同样的自私行为。最终,参与实验的人彼此完全停止了合作。这些机器人就这样把一群慷慨的人变成了自私之徒。


合作是我们人类的一个重要特征,是社会生活必不可少的。信任和慷慨是区分成功和失败群体的关键。如果每个人都为了帮助群体而努力,那么都应该从中受益。然而,当这种行为失效时,公共利益的概念就消失了,每个人都会受到损害。人工智能可能会有效降低我们合作的能力,这一事实非常令人担忧。


我们已经遇到过现实世界中人工智能如何破坏真实世界人际关系的许多例子,而人工智能对社会产生简单影响这一事实每天都在我们身边上演。父母们看着自己的孩子对着Alexa或Siri等数字助理发出粗鲁的命令,开始担心这种粗鲁会渗入孩子对待他人的方式,或者担心孩子与人工智能机器的关系会干扰甚至抢占人际关系。麻省理工学院技术与社会专家雪莉·特克尔(Sherry Turkle)不久前指出,那些在人工智能环境中长大的孩子,可能不会有“同理心”。


随着数字助理变得无处不在,我们更习惯于和它们进行交谈,仿佛它们是有知觉的;朱迪思·舒列维兹(Judith Shulevitz)去年在相关文章中描述了我们中的一些人是如何开始把它们当作知己,甚至是朋友和治疗师。舒列维兹说,她自己向谷歌数字助理坦白了一些不会告诉丈夫的事情。如果我们能更自如地与电子设备亲密交谈,我们的婚姻和友情会发生什么样的变化呢?由于商业上的需要,设计师和程序员通常会设计出让我们感觉更好的设备,但这可能无助于我们进行自我反思。随着人工智能不断渗透进我们的生活,我们必须面对这样一种可能性:人工智能会抑制我们的情感,抑制我们与他人的深层联系,让我们彼此之间的关系变得不那么互惠,或者说更肤浅更自恋。


所有这些都可能以一种意想不到的方式改变人类社会。我们是否希望机器影响孩子们善良的天性?我们是否希望机器会影响成年人的性生活?


英国德蒙特福特大学(De Montfort University)人类学家凯瑟琳·理查森(Kathleen Richardson)就对后一个问题很担心。作为反对性爱机器人运动的主要人物,她警告说,性爱机器人会使人类失去人性,并可能导致用户远离真正的亲密关系。我们甚至可能会从把机器人当作满足性欲的工具,发展到以这种方式对待他人。其他观察家则认为机器人可以从根本上改善人类之间的性行为。


早在我们大多数人遇到如此亲密的人工智能难题之前,我们还会应对更多日常挑战。毕竟自动驾驶汽车的时代已经来临,这些车辆承诺将大大减少困扰人类驾驶员的疲劳和分心等问题,从而防止事故的发生。但是它们还会对人产生什么影响呢?驾驶是一种非常现代的社会互动方式,需要高度合作和社会协调。有人担心,自动驾驶汽车剥夺了人们行使这些能力的机会,可能会导致这种社交能力的萎缩。


这些车辆不仅将通过编程来接管驾驶职责,从而取代人类做出判断的权力,同时还将影响与它们没有直接接触的人类。例如,自动驾驶汽车以稳定不变的速度行驶一段时间后,驾驶员的专注度可能就会下降,反而增加了其接管驾驶时发生事故的可能性。或者,经验可能会证实,与完全符合交通法规的自动驾驶汽车并排行驶,实际上会提高人类驾驶员的表现。


不管怎样,如果我们不对这些社会溢出效应进行优先考虑,就不能不顾后果地推出新的人工智能形式。人类必须像为自动驾驶汽车技术开发硬件和软件那样,运用同样的努力和聪明才智来管理人工智能对汽车外部产生的潜在涟漪效应。毕竟要求车后安装刹车灯,不仅是为了车内人员的利益,而且主要是为了车后的其他人。


1985年,在艾萨克·阿西莫夫(Isaac Asimov)提出他的机器人定律大约40年后,他又在自己的清单上增加了一条:机器人永远不应该做任何可能伤害人类的事情。但他在如何评估这种危害方面遇到了困难。“人是一个具体的物体,”他后来写道,“对一个人的伤害是可以估计和判断的,但人性是一种抽象。”


特别关注社会溢出效应会有所帮助。其他领域的溢出效应导致了规则、法律和监督的要求。无论是污染水源的公司还是在办公楼里呼出二手烟的个人,一旦一些人的行为开始影响其他人,社会可能会介入。由于人工智能对人与人之间互动的影响是如此强烈而深远,而且发展迅速而广泛,在大规模部署之前必须系统地研究可能会出现什么样的效应,并讨论如何为了共同的人类利益来进行调节。


已经有一群不同的研究人员和实践者,比如说计算机科学家、工程师、动物学家和社会科学家等等聚集在一起开发“机器行为”领域,希望将人类对人工智能的理解建立在更坚实的理论和技术基础之上。在这个领域里,机器人不仅仅是人类制造的物品,而是一种新型的社会行为体。


一切迫在眉睫。在不远的将来,人工智能赋能的机器可能会通过编程或自主学习展现出与人类相比似乎奇怪的智能和行为形式。我们需要迅速将仅仅怪异的行为与真正威胁我们的行为区分开来。


人工智能最值得我们关注的是那些会真正影响人类社会生活核心的方面,因为这些核心特征使我们的物种在几千年的时间里得以生存延续。


启蒙哲学家托马斯·霍布斯(Thomas Hobbes)认为,人类需要一种集体协议,以防止我们变得杂乱无章。他错了。早在人类组建政府之前,进化就为人类装备了一套社会能力,使我们能够和平共处。在前人工智能时代,祖先遗传给我们的爱情、友谊、合作和教学能力继续帮助我们共同生活。


不幸的是,人类没有时间进化出与机器人相媲美的先天能力。因此,我们必须采取措施,确保他们能够与我们生活在一起,不受破坏。


当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约,一种与机器而不是与他人相处的契约。


640?wx_fmt=png

往期推荐

640?wx_fmt=png 

政府工作报告中 科技圈必须知道的12件事


640?wx_fmt=jpeg ▲点击图片观看

AI被吹上了天 但依然没4岁的小孩聪明


640?wx_fmt=jpeg

▲点击图片观看

孟晚舟起诉加拿大政府,任正非评论亮了!

640?wx_fmt=jpeg ▲点击图片观看

- 加入社群吧 -

网易智能AI社群(AI芯片、医疗AI、金融AI、电商AI、自动驾驶、教育AI、AIoT、机器人等12个社群)火热招募中,对AI感兴趣的小伙伴,添加智能菌微信 kaiwu_club,说明身份即可加入。

这篇关于耶鲁大学测试人类和AI一起工作 结果令人意外!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/338856

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

字节面试 | 如何测试RocketMQ、RocketMQ?

字节面试:RocketMQ是怎么测试的呢? 答: 首先保证消息的消费正确、设计逆向用例,在验证消息内容为空等情况时的消费正确性; 推送大批量MQ,通过Admin控制台查看MQ消费的情况,是否出现消费假死、TPS是否正常等等问题。(上述都是临场发挥,但是RocketMQ真正的测试点,还真的需要探讨) 01 先了解RocketMQ 作为测试也是要简单了解RocketMQ。简单来说,就是一个分

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

【测试】输入正确用户名和密码,点击登录没有响应的可能性原因

目录 一、前端问题 1. 界面交互问题 2. 输入数据校验问题 二、网络问题 1. 网络连接中断 2. 代理设置问题 三、后端问题 1. 服务器故障 2. 数据库问题 3. 权限问题: 四、其他问题 1. 缓存问题 2. 第三方服务问题 3. 配置问题 一、前端问题 1. 界面交互问题 登录按钮的点击事件未正确绑定,导致点击后无法触发登录操作。 页面可能存在

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学