本文主要是介绍关于“场景”、“情境”、“直觉”的对话,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
【这是一段两年前的对话,朝花夕拾,共享之】
Shifa 01:59直觉与是有是逻辑没有关系,存在逻辑性很强的直觉,也存在没有逻辑关系的直觉?? 02:02“非逻辑”的直觉才值得探讨Shifa 02:02@刘凯 直觉还不是预感,比如一件东西看起来直觉不错,不是预感不错,而是认为不错?? 02:04不是预感Shifa 02:0450人的一个班里,有两个人的生日是同月同日,直觉的可能性不高,但实际概率大于97%?? 02:06这应该叫“直观感觉”Shifa 02:07买彩票的人总觉得中奖很容易(也许是因为总在报纸上看到有人中奖),实际相反?? 02:08这些都不是真正的直觉Shifa 02:09真正的直觉是什么??? 02:09审美是“非逻辑”的直觉?? 02:10女性在某些时候直觉很强?? 02:11男性认为非常复杂的事情,她们非常容易?? 02:12根本不用思考王培 05:34我觉得“镜像神经元”的价值在于解释感知和运动在内在表示上有重合、共用之处(这也是纳思的做法),但如果在“我伸手”和“你伸手”中的“伸手”根本就是同一个概念,那这二者就无所谓“镜像”。模仿是学习的一种重要方式,但未必要用一种特殊神经元来解释。纽约老熊 05:46@王培 ,我比较认同。恐怕,所谓的镜像神经元,不过是重复使用的神经元。有无必要取名为镜像,我甚至怀疑。lyx 05:47中文 直觉 英文有两个翻译 intuition 和 instinct 实际区别很大[呲牙]纽约老熊 05:49是否instinct本能,就是说遗传来的多一些,而intuition从既往经验来的多一些?纽约老熊 05:50如果是那样,是否有更好的中文词?lyx 05:54不知道有没有更好的,讨论的时候约定好是什么意思就是了。刘伟 06:19曲别针可以变顾1、2、3、4、5、6、7、8、9和加减乘除,可以变成英文、拉丁文、俄文字母,于是天下所有语言能够表达的东西,曲别针都可以表达刘伟 06:38人类直觉的秘密在记忆,机械的存储不能实现灵活的类比的特征保留组合。存储是形式化的方式,失去了意向性的丰富自由~刘伟 06:42直觉本质上是 一种介于文字和数字(定性定量混杂)的快速表征刘伟 06:45@刘伟 用曲别针A不行,EFHKQTXY也不行标准的不行,模糊的、上下文的可以纽约老熊 06:52@刘伟 ,你说:“人类直觉的秘密在记忆,机械的存储不能实现灵活的类比的特征保留组合。”我看,恐怕过了。机械的东西未必就做不到。关键还是,现在我们不懂原理。陈 07:12直觉更近于模式或特征判断,例如他说的合情合理、有鼻子有眼,但直觉告诉我他在说谎。刘伟 07:14@纽约老熊 人类直觉的秘密在记忆,机械的存储不能实现灵活的类比的特征保留组合。记忆~意向性~主动性~自主性~直觉机器是存储,不是记忆,所以不能产生概率空间函数~因而没有意向性,只有表层的归纳演绎推理,很难产生深入的事件样本跨情境特征匹配整合,挂一漏万,非深度态势感知 而人则是: 记忆~意向性(跨情境特征选择整合)~主动性~自主性~直觉~深度态势感知人的记忆~保留原型(活的特征,可概率穿梭时空,随机应变组合,形成跨情跨境); 机的存储~数据模版(死的数字,机械呆板,就事论事,不能越雷池半步)陈 07:16例如他每次说谎都会皱起鼻纹,我的大脑观察到了这个现象,但我未必意识到。这次他又皱了,我虽然说不出什么缘由,但直觉他又说谎了。纽约老熊 07:26@刘伟 ,这些机械都可以做。且看!刘伟 08:42@纽约老熊 我想至少一点比较清楚了,那就是,事物有的性质,是随主观的情况而变动。而这是认知体的基本属性。不具备这个属性的,恐怕就不是独立的认知体。[强]纽约老熊 08:50@刘伟 ,完全同意。这点现在清楚了。应该感谢这里的讨论。或许这是认知体第一原则。不过,要体现在工程上,还有很大距离。刘伟 08:57@纽约老熊 对,随机应变第一原则纽约老熊 09:30@王培 ,你说的,我都同意。不过,我们是否有更深入一些的呢?例如,主观中的客观是什么?或者主观到什么程度?Shifa 13:30@刘伟 机器人高考的文章说“计算机现在最大的问题,或者说与人最大的不同是:它不知道它自己不知道什么!”。 我觉得计算机最大的问题是什么都不知道。计算机所谓的“知道”其实都是人知道,计算机输出字符、显示图像、发出声音,计算机一点都不知道自己在干什么。离开人,计算机其实什么都不知道。Shifa 13:42@刘伟 功能固着可能是人类认知能力的基础能力 -- 认定能力。深度学习不能边用边学,因为使用的时候没有带标注数据(强化学习除外),而人是能边用边学习,学习的依据是什么?就是认定,或者同一性认定。比如一个人偶然把杯子翻过来看它底部,他看到完全不一样的图像,这时他不会把杯子认为是别的东西,而是认为杯子还有这样的图像,并学习杯子的这面图像。人的这个能力靠认定,或者功能固着。刘伟 13:50@张世发 一是自动化二是人教机三是机助人四是人机互助五是机主人Shifa 14:07电脑的存储器数据本身不能成为智能系统的知觉、直觉、知识、记忆等,因为知觉这些东西都是动的,而存储器里的数据是不会动的。要使存储器里的数据动起来,就必须给它们配程序,类似面向对象的数据和方法集成。但面向对象的对象(数据+方法)还不能成为知觉的内容,因为类的方法是固定的,而知觉中的行为不是固定的,而是在观察体验中不断更新的。刘伟 14:26如何让数据动起来是规则和概率的事,如何让规则和概率动起来现在是人的事,未来希望机能做到~hjcai 14:51我计划今年在武汉大学组织召开一个“自我意识与人工智能”的国际会议,不知道群里哪几位愿意来参加?时间可以商量。刘伟 14:54@hjcai 好建议[强]有时间一定前去学习不知庐 15:00@hjcai [强]?? 19:28@张世发 “ 我觉得计算机最大的问题是什么都不知道。计算机所谓的“知道”其实都是人知道,计算机输出字符、显示图像、发出声音,计算机一点都不知道自己在干什么。离开人,计算机其实什么都不知道。” —— 说到关键了!?? 19:36计算机是图灵等价的逻辑电路,只能执行“机器码”(Machine Code)。?? 19:40任何(高级)程序语言都最终要“编译”(Compiling)成Machine code的。?? 19:41计算机是不可能用人的“知道”、“理解”、“认知”的。?? 19:43但是计算机还是可以有自己的“知道”、“理解”、“认知”的:?? 20:14计算机只“理解”(执行)machine code,不“理解”高级程序语言,例如Object-oriented language?? 22:14高级程序语言是让人(程序员)理解和使用的(例如,面向对象语言模拟人的日常思维,减少程序语言的“抽象性”),不要说machine code,即使是汇编语言,人写一段简单的程序也非常复杂。陈 22:29@hjcai 若有机会 很想去学习Shifa 22:38@林峰 同意你关于人的“理解”和计算机的“理解”的区分。 但这种计算机自己的“理解”是否解决了AI的“理解”的问题?应该还没有定论。我同意“意义是全部关系的总和”,“意义是由系统的相关经验确定的”。但我觉得“关系”应该不限于系统内表达的符号关系,而是外部物体间的关系,符号关系表达只是这些关系的一部分,只是完整关系的一个环节。完整关系还包括感觉运动甚至外部环境。 不过这也只是设想,我还没看到对关系的完整定义,更没有相关工程实现。?? 22:39面向对象(OOA, OOD, OOP)思维把“世界”看成是各种“东西”组成的,每种“东西”有状态和功能:被动地被别的“东西”使用,主动地使用別的“东西”的功能,或者当一些事件发生时如何处理(event)。?? 22:41计算机的这种“理解”显然没有解决人工智能的“理解”问题。?? 22:46至少不是人所期待的人工智能的“理解”?? 22:55正在看这本书。关于主体,叔本华是这样说的:认识一切而不为任何事物所认识的就是主体。凡是存在着的,就只是对于主体的存在。毎人都可发现自己就是一个主体,不过只限于它在认识着的时候,而?在它是被认识的客体时。Shifa 23:22计算机程序(包括OOD程序)一般都是通过表征、模拟外部对象的行为来“理解”外部对象。比如各种图形辅助设计软件、信息管理软件。 在AI系统里,不自觉地也用类似的办法来“理解”外部世界,问题是物体的表征不是真实物体,模拟物体功能不是物体真实的功能。 对AI系统来说重要是要“知道”外部物体,而不是表征外部物体。可是不用数据(或逻辑)把物体的各种关系表达出来,怎么做到“知道”? 用一定数据和逻辑来表达物体还是必要的,但“理解”不能停留在这些数据上,而是要回到外部物体上。怎样回去?不是要每时每刻都和物体直接打交道,而是要知道数据不是物体,所有在数据上的处理只是“想象”、“模拟”,而不是事实。?? 23:28到目前为止,计算机最多只能“理解”“数据”吧Shifa 23:29AI不能只盯着自己的数据,而要关注数据背后的现实世界,包括世界的过去、现在、和未来?? 23:30把现实世界转化为数据正是人工智能要做的Shifa 23:32不是人工智能要做的,而是人要做的[微笑]?? 23:33是 [微笑]?? 23:35这正好部分回答了为什么“数学在自然科学中不合理的有效性”?? 23:37自然科学的实验不也实验数据吗??? 23:58自然科学的实验不也是在实验数据吗?————— 2017-01-14 —————Shifa 00:03IBM尽吹牛,它的TrueNorth比Nvidia差不知道多少Shifa 00:046年搞一个不能用的芯片,Nvidia都不知道搞了多少代了Shifa 00:07两年前我还分析过TrueNorth的70mw功耗宣传,纯粹是骗人的,按晶体管数乘上最低漏电都不止这个数。Shifa 00:40神经网络也有迁移学习?Shifa 00:41定势,功能固着,认定,似乎是类似的lyx 00:42迁移学习的想法可以迁移到任何参数化的模型[坏笑]Shifa 00:50从一种数据学,然后用在别的数据上?lyx 01:04是 简单就是发现一些对应关系然后把参数进行变换。想要达到的效果是加速在新数据上的学习。目前不大可能在新数据上不经学习直接有非常好的效果。纽约老熊 01:27@张世发 ,我有些相信IBM的truenorth。我猜想功耗小是因为它的计算原理根本不同,不是计算循环,如传统,而是仅做比较少的计算步骤,但是很大程度的平行。如果真是如此,功耗的确应该小。lyx 01:34nvdia的优势在学习。没有看到truenorth怎么学习的。只是运行的话gpu是浪费。纽约老熊 01:35其实无论IBM怎样做,现有的神经网络是超级愚蠢的一种东西。其上的每个节点由一大堆实数和一个怪函数组成。要计算这个节点,必然计算量很大。这个设计肯定走不远。lyx 01:46@纽约老熊 truenorth paper 讲每个神经元只有整数加法,比较,和条件(乘法只和0/1)。lyx 01:47Simple spiked linear thresholdlyx 01:48所以我不知道这东西怎么学习。自己肯定做不了。lyx 01:49paper说offline没有更多细节lyx 01:50http://paulmerolla.com/merolla_main_som.pdflyx 01:55用了个simulator叫compass,然后CNN。学完了灌到truenorth。Shifa 02:30@纽约老熊 truenorth由256个计算神经网络优化的处理器核通过灵活互联网络连接起来,计算原理和一般处理器是一样的。增加本地存储也许缓解存储器访问瓶颈,但当本地存储容量不够怎么办? 还有TrueNorth用大金属壳封装,如果真的只有70毫瓦,这个封装设计者肯定脑袋进水了Shifa 02:32说错了,是4096个核,不是256个核纽约老熊 02:32@张世发 ,如果仍然是现在一样的CPU,那就没有什么意思了。再看看。纽约老熊 02:34但是不过这样讲,现在的那种人工神经网络是方向不对的。完全是彻底浪费。必须要有新方向。Shifa 02:43稍微有点不同是用模拟部件“计算”神经脉冲积分,但这样做节省不了多少能量,能量都耗费在提供数据和接收结果上lyx 03:19全数字的,所谓积分就是加法 “We implemented TrueNorth’s neurons using an all-digital approach, breaking path with previous mixed analog–digital approaches.”?? 05:29计算机的数值计算,属于计算数学。[微笑]刘伟 06:25人生最有价值的,说到底,都是那些“无用”的时光。刘伟 09:12“AlphaGO下围棋厉害,但并没有让我感到兴奋,”闵万里摸了摸脖子,“早在千年之前,算盘就超过了人,都是规律的游戏,最难的是挑战那些无规律的未知。”刘伟 09:15AI本质在试图解决一个经济学的根本问题:供需匹配,知识的affordance。刘伟 09:24无规律的秩序,非存在的有,模糊的清晰,默会的显性刘伟 09:25坚硬的稀粥刘伟 09:29有意识的形式化————— 2017-01-15 —————Shifa 01:41还是讨论直觉问题有意思[微笑]Shifa 02:00电脑或AI系统知道它在做什么吗?aphaGo知道它在下棋吗?,Watson知道它在看病吗?计算机知道它运行的程序吗?路由器知道它转发的报文吗?应该都不知道。 对比人,人不知道大脑如何做学习、推理、记忆,但人知道世界上的东西,和这些东西的规律。 还是那个问题,人能知道什么,不知道什么,为什么能知道?对机器,一样的问题,它知道什么?怎么知道的? 知道什么对智能系统非常重要,很难想象什么都不知道的东西会有智能。Shifa 02:04人在设计机器时,总是认为机器知道自己知道的东西,其实并不然。Shifa 02:13机器知道的东西必须放在机器之外,放在机器里面的数据机器不可能知道。虽然人觉得在机器里面的东西是机器的记忆、知识,也许是吧,但是关于外部东西的记忆和知识。目前的电脑并不知道它的数据和外部事物的关系。Shifa 02:22如何知道?这就是认识论的问题。现象学提供了一套理论,但没有得到工程验证。我想通过做自主行动的机器人小车,看能不能一定程度上验证现象学理论。罗军 04:40@张世发 确实,计算机如何工作不依赖于理解。传统的"解释器"等等术语是需要比较小心的地方。计算机科学领域里面的数学,逻辑,语义,语法,机制,规则等等术语和概念非常缺乏梳理。很多都是貌似显然,其实是历史流变下的想当然。Shifa 08:51人用编程语言编程序,似乎编译器理解编程语言语法,并能把程序翻译为机器语言。编译器真的理解语法吗?答案是否定的,事实是编译器设计者理解高级语言语法,编译器只是一个辅助数据处理的工具。Shifa 08:54类似的,计算机理解机器语言吗?其实也不理解,是机器设计者理解机器语言,机器只是数据处理辅助工具。?? 12:19@张世发 计算机按指令行事,只“理解”规则。?? 12:21编程语言不同于自然语言,语法也有不同意义。?? 12:39编译器是计算机程序,它按规则按“高级”语言转换为“中间”语言。。。Shifa 12:51@刘伟 那篇文章按“大脑信息加工的本体”的思路研究大脑恐怕要走弯路刘伟 13:01@张世发 且让他们试试看
这篇关于关于“场景”、“情境”、“直觉”的对话的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!