一年前 LLM AGI 碎片化思考与回顾系列⑤ · 探索SystemⅡ复杂推理的未知之境

本文主要是介绍一年前 LLM AGI 碎片化思考与回顾系列⑤ · 探索SystemⅡ复杂推理的未知之境,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

阅读提示:

本篇系列内容的是建立于自己过去一年在以LLM为代表的AIGC快速发展浪潮中结合学术界与产业界创新与进展的一些碎片化思考并记录最终沉淀完成,在内容上,与不久前刚刚完稿的那篇10万字文章 「融合RL与LLM思想,探寻世界模型以迈向AGI」间有着非常紧密的联系,可以说,这篇长篇文章中的很多内容也是基于这些碎片化的思考与沉淀,当然也正是这样的一个个碎片化的、看似玄幻大胆、step by step的探索过程,才促成我最终完成那篇看上去并不是特别易读的文章。
因此,这个系列文章将以笔记的形式,去重新回顾体会一下自己去年的这些碎片化思考与探索历程,并希望将这些碎片化的、step by step探索式的思考与历程分享给大伙。一方面去回顾、修正自己之前的思考和观点,一方面作为那篇长文阅读的补充参考,并在其中的内容中标注出与其相关的阅读指针与提示。
在内容记录形式上,因为一年前自己的思考历程按时间顺序记录呈现出一定的主题割裂与内容的碎片化,我将按照时间线顺序向大家呈现一年前自己的想法,内容上可能进行一些合并和整合但会尽量保持原文内容不变。
另外大伙需特别注意的是,因为保持了原始记录时内容的不变(仅修改笔记上的笔误与错字),一年前的想法跟当前的认知可能会有较大的差异和改变,也会存在一些不成熟观点,千万不要被我当时片面的观点所误导。主要是想给大家抛出一些过去技术进展当中存在的一些问题和关键点,当然坦率地说,自己确实也在回顾中针对某些想法有了新的思路!如果大家针对我过去或刚完稿的那篇文章有更有建设性的意见甚至批评指正那就更好了!
最后,为了不让这个系列笔记显得不那么单调,在每一篇内容中会附上一些过去自己经历的有趣的生活照片或的图片,有吃喝玩乐,有学术美图,也有搞笑娱乐。

「2023/06/11 · 探索System2复杂推理的未知之境」

背景提要 ↓

前几日在这篇回忆内容回顾和整理的时候,正好赶上了今年的高考,在大的时代发展背景之下,「人工智能」、「未知之境」空间探索等这个时代别具特色的创新技术快速发展作为本次部分语文考卷的作文题目,非常巧的是,这些题目又与自己近期针对AGI领域诸多问题的回顾与探索又是那么的相关,因此这次的笔记内容也稍微蹭一下“高考”的热点,选择新课标二卷的“未知之境”这一题目,结合近期系列笔记的思考与回顾,展开过去自己曾经对未知之境探索的回顾。

回到一年前,基于上一篇“慢思考下的暴力美学”仍然存在于心中的一些疑惑并尝试窥见触发到的一些碎片化灵感,本篇笔记将顺着system1与system2的一些本质问题继续通过慢思考的探索模式来尝试进行从上一期思维的扩散到归纳,并期待在其中过滤并把握住一些本质上的洞察。同时,大家可以结合本次记录和思考的内容,去翻阅那篇「融合RL与LLM思想,探寻世界模型以迈向AGI」文章的中篇第一小节「system2·慢思考本质阐释」,我想将会有一些不一样的体会吧,这也是这个系列分享目的之一。

记录正文 ↓

前天针对整个E2E的system2涉及的方方面面进行了一些“慢思考”的大胆猜想与尝试,对于复杂的长链推理而言,其复杂性不光涉及某一单一领域,而是可能覆盖了认知科学、数学、信息学、博弈、拓扑学等,甚至需要在某处上升到以哲学的视角来进行审视,当然未来可能也会通过对这一主题的研究诞生某一新的子学科也不一定。然而,造成这样一种局面的原因我想一方面来源于这一问题本身的复杂性,另一面可能也层面印证了我们当前对于这一领域理论基础认识的薄弱与探索的局限性。

也许在整个人工智能的探索路途中,当前只是迈出了一小步甚至只是打开了一扇窗,未来将任道重远,这个周末终于能在繁忙的工作之余,再次找到一个时间能静下心来思考这一当下未知之境:

① 对于一个system2认知推理过程中的思维概念链(当然这种思维链过程包含了整个思维过程中的前“因”后“果”和中间的推理步骤所涉及的诸多概念)与step by step表征并承载这种长链推理概念的认知模型中的动态传播形式感觉可与类比于群论中态射这种结构性映射(比如对于神经网络模型来说,其中间的神经网络层表征了真实世界推理过程中的诸多复杂结构性概念,前向传播过程表征了逻辑推理这一动态过程中的概念层级间的结构性变化)。

因此,对于一个基于system2的e2e LLM来说,其模型在最终生成的内容(token)前,模型网络中的前向传播(神经元信号激活传递)中蕴含着概念知识的复杂推理逻辑。

在训练过程中,如考虑增加过程学习,在反向传播的过程中,模型直觉上应该能够更好的学习这种推理模式。因此针对多样化的推理步骤,llm可以通过某种过程学习模式实现得到更贴近于真实概念优化目标的模型参数,比如以COT和TOT为代表的多步骤推理、子任务规划、反思、过程中引入知识增强模块等环节,这些本质上等同的思维模式,也许都可以通过SFT或最终的RLHF机训练机制(当然还有其他更适合的训练机制如某种RL)将上述复杂且多样化的推理模式或概念映射通过反向梯度传播进行模型参数更新。表面上来看,使得模型本身除了学习到了浅层知识外,还具备深层次的内涵抽象与深度推理模式(推理模式本身也是一种知识)。我想做到这一步才能说AI模型向人类认知又迈出了关键一步吧。当然这种模式是否也可以形成强AI的一条路径呢?

② 回顾前不久OpenAI联合创始人的报告,不管针对COT还是TOT这种多步骤思维链或树形决策思维链,又或者是autogpt这些融合了*OT模式的推理框架,在其报告中都没有体现出对这种E2E system2模式(非多步骤agent推理)的可能性说明和前瞻性展望,不知是出于什么原因...是保密?还是套路?…不得而知...这里其实是有点担心自己别跑偏了..

基于上述本质问题的思考,可能会对当前system1或以chatGPT为代表的llm的sft和rlhf范式带来较大的影响或畅想空间,甚至可能要重新规划pre training阶段对数据整体的分布,以满足面向system2的E2E训练范式,就像之前在chatGPT正式问世前所出现的Prompt learning,in-context learning,instructGPT,SFT,RLHF等同的多种模型learning范式。

同时,回归本质的尝试性思考:只要模型参数容量足够大、算力与数据准备的足够充分、训练范式足够完备,本质上,模型是可以容纳编码并解析生成包括COT、TOT、Self-consistency、Knowlege-Enhance一切事物的,因为MLP is everything-MLP可通过万能逼近能力去拟合多样化复杂的模式,即也意味着:可以对诸如COT、TOT、Self-consistency、Knowlege-Enhance这些抽象的中间推理与思维概念和最终的推理结果进行形式化符号表达和向量化表征,同时通过llm tokenize的next token predict 自回归生成模式,对于模型来说:既然生成了,就意味着经历了思考了,即在模型中进行多层神经元参数激活与信号传播了。


「本篇配图」

本次笔记的配图选择决定附上一道扬州的传统美食「扬州炒饭」,因为正好赶上本周在扬州出差,这是我时隔五年第二次来到扬州于当地品尝这道美食。

记得从小到大,就对家里长辈们做的普通鸡蛋炒饭情有独钟,如今又一次带着这种炒饭情节满怀期待的在扬州当地点上一份“豪华”版扬州炒饭,预期之高可想而知...果不其然,感觉这次并没有第一次那么的惊艳,也有可能是前菜吃的太过丰富,失去了一定的饥饿感所带来的吞咽满足欲。

但不管怎样,还是对炒饭这种烹饪手法和食材的混合充满好感。而这次之所以选择扬州炒饭,主要是因为这道美食从食材的选择到烹饪的手法也与这次笔记的所记录的内容有一定的相关性:比如对于所涉食材的多样性隐喻了对于system2这一认知推理所涉及的多学科与多种思想方法的交叉和融合,其烹饪过程与手法又与e2e的这种夹杂着繁琐步骤的一气呵成存在着些许相同。


「融合RL与LLM思想,探寻世界模型以迈向AGI」内容回顾与再版更新

融合RL与LLM思想,探寻世界模型以迈向AGI「上篇」

融合RL与LLM思想,探寻世界模型以迈向AGI「中/下篇」

融合RL与LLM思想,探寻世界模型以迈向AGI「下篇」

融合RL与LLM思想,探寻世界模型以迈向AGI「总结」

合集PDF版本v6.2已更新,大家可访问百度网盘地址自行下载:

https://pan.baidu.com/s/1dwuviZkL8J7afBhjEQqXqg?pwd=lm51

提取码: lm51

或扫码下载:

这篇关于一年前 LLM AGI 碎片化思考与回顾系列⑤ · 探索SystemⅡ复杂推理的未知之境的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1076729

相关文章

C++对象布局及多态实现探索之内存布局(整理的很多链接)

本文通过观察对象的内存布局,跟踪函数调用的汇编代码。分析了C++对象内存的布局情况,虚函数的执行方式,以及虚继承,等等 文章链接:http://dev.yesky.com/254/2191254.shtml      论C/C++函数间动态内存的传递 (2005-07-30)   当你涉及到C/C++的核心编程的时候,你会无止境地与内存管理打交道。 文章链接:http://dev.yesky

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

关于如何更好管理好数据库的一点思考

本文尝试从数据库设计理论、ER图简介、性能优化、避免过度设计及权限管理方面进行思考阐述。 一、数据库范式 以下通过详细的示例说明数据库范式的概念,将逐步规范化一个例子,逐级说明每个范式的要求和变换过程。 示例:学生课程登记系统 初始表格如下: 学生ID学生姓名课程ID课程名称教师教师办公室1张三101数学王老师101室2李四102英语李老师102室3王五101数学王老师101室4赵六103物理陈

探索蓝牙协议的奥秘:用ESP32实现高质量蓝牙音频传输

蓝牙(Bluetooth)是一种短距离无线通信技术,广泛应用于各种电子设备之间的数据传输。自1994年由爱立信公司首次提出以来,蓝牙技术已经经历了多个版本的更新和改进。本文将详细介绍蓝牙协议,并通过一个具体的项目——使用ESP32实现蓝牙音频传输,来展示蓝牙协议的实际应用及其优点。 蓝牙协议概述 蓝牙协议栈 蓝牙协议栈是蓝牙技术的核心,定义了蓝牙设备之间如何进行通信。蓝牙协议

探索Elastic Search:强大的开源搜索引擎,详解及使用

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 引入 全文搜索属于最常见的需求,开源的 Elasticsearch (以下简称 Elastic)是目前全文搜索引擎的首选,相信大家多多少少的都听说过它。它可以快速地储存、搜索和分析海量数据。就连维基百科、Stack Overflow、

JavaWeb系列二十: jQuery的DOM操作 下

jQuery的DOM操作 CSS-DOM操作多选框案例页面加载完毕触发方法作业布置jQuery获取选中复选框的值jQuery控制checkbox被选中jQuery控制(全选/全不选/反选)jQuery动态添加删除用户 CSS-DOM操作 获取和设置元素的样式属性: css()获取和设置元素透明度: opacity属性获取和设置元素高度, 宽度: height(), widt

C语言入门系列:探秘二级指针与多级指针的奇妙世界

文章目录 一,指针的回忆杀1,指针的概念2,指针的声明和赋值3,指针的使用3.1 直接给指针变量赋值3.2 通过*运算符读写指针指向的内存3.2.1 读3.2.2 写 二,二级指针详解1,定义2,示例说明3,二级指针与一级指针、普通变量的关系3.1,与一级指针的关系3.2,与普通变量的关系,示例说明 4,二级指针的常见用途5,二级指针扩展到多级指针 小结 C语言的学习之旅中,二级

JavaWeb系列六: 动态WEB开发核心(Servlet) 上

韩老师学生 官网文档为什么会出现Servlet什么是ServletServlet在JavaWeb项目位置Servlet基本使用Servlet开发方式说明快速入门- 手动开发 servlet浏览器请求Servlet UML分析Servlet生命周期GET和POST请求分发处理通过继承HttpServlet开发ServletIDEA配置ServletServlet注意事项和细节 Servlet注

神经网络第四篇:推理处理之手写数字识别

到目前为止,我们已经介绍完了神经网络的基本结构,现在用一个图像识别示例对前面的知识作整体的总结。本专题知识点如下: MNIST数据集图像数据转图像神经网络的推理处理批处理  MNIST数据集          mnist数据图像 MNIST数据集由0到9的数字图像构成。像素取值在0到255之间。每个图像数据都相应地标有“7”、“2”、“1”等数字标签。MNIST数据集中,