一年前 LLM AGI 碎片化思考与回顾系列⑤ · 探索SystemⅡ复杂推理的未知之境

本文主要是介绍一年前 LLM AGI 碎片化思考与回顾系列⑤ · 探索SystemⅡ复杂推理的未知之境,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

阅读提示:

本篇系列内容的是建立于自己过去一年在以LLM为代表的AIGC快速发展浪潮中结合学术界与产业界创新与进展的一些碎片化思考并记录最终沉淀完成,在内容上,与不久前刚刚完稿的那篇10万字文章 「融合RL与LLM思想,探寻世界模型以迈向AGI」间有着非常紧密的联系,可以说,这篇长篇文章中的很多内容也是基于这些碎片化的思考与沉淀,当然也正是这样的一个个碎片化的、看似玄幻大胆、step by step的探索过程,才促成我最终完成那篇看上去并不是特别易读的文章。
因此,这个系列文章将以笔记的形式,去重新回顾体会一下自己去年的这些碎片化思考与探索历程,并希望将这些碎片化的、step by step探索式的思考与历程分享给大伙。一方面去回顾、修正自己之前的思考和观点,一方面作为那篇长文阅读的补充参考,并在其中的内容中标注出与其相关的阅读指针与提示。
在内容记录形式上,因为一年前自己的思考历程按时间顺序记录呈现出一定的主题割裂与内容的碎片化,我将按照时间线顺序向大家呈现一年前自己的想法,内容上可能进行一些合并和整合但会尽量保持原文内容不变。
另外大伙需特别注意的是,因为保持了原始记录时内容的不变(仅修改笔记上的笔误与错字),一年前的想法跟当前的认知可能会有较大的差异和改变,也会存在一些不成熟观点,千万不要被我当时片面的观点所误导。主要是想给大家抛出一些过去技术进展当中存在的一些问题和关键点,当然坦率地说,自己确实也在回顾中针对某些想法有了新的思路!如果大家针对我过去或刚完稿的那篇文章有更有建设性的意见甚至批评指正那就更好了!
最后,为了不让这个系列笔记显得不那么单调,在每一篇内容中会附上一些过去自己经历的有趣的生活照片或的图片,有吃喝玩乐,有学术美图,也有搞笑娱乐。

「2023/06/11 · 探索System2复杂推理的未知之境」

背景提要 ↓

前几日在这篇回忆内容回顾和整理的时候,正好赶上了今年的高考,在大的时代发展背景之下,「人工智能」、「未知之境」空间探索等这个时代别具特色的创新技术快速发展作为本次部分语文考卷的作文题目,非常巧的是,这些题目又与自己近期针对AGI领域诸多问题的回顾与探索又是那么的相关,因此这次的笔记内容也稍微蹭一下“高考”的热点,选择新课标二卷的“未知之境”这一题目,结合近期系列笔记的思考与回顾,展开过去自己曾经对未知之境探索的回顾。

回到一年前,基于上一篇“慢思考下的暴力美学”仍然存在于心中的一些疑惑并尝试窥见触发到的一些碎片化灵感,本篇笔记将顺着system1与system2的一些本质问题继续通过慢思考的探索模式来尝试进行从上一期思维的扩散到归纳,并期待在其中过滤并把握住一些本质上的洞察。同时,大家可以结合本次记录和思考的内容,去翻阅那篇「融合RL与LLM思想,探寻世界模型以迈向AGI」文章的中篇第一小节「system2·慢思考本质阐释」,我想将会有一些不一样的体会吧,这也是这个系列分享目的之一。

记录正文 ↓

前天针对整个E2E的system2涉及的方方面面进行了一些“慢思考”的大胆猜想与尝试,对于复杂的长链推理而言,其复杂性不光涉及某一单一领域,而是可能覆盖了认知科学、数学、信息学、博弈、拓扑学等,甚至需要在某处上升到以哲学的视角来进行审视,当然未来可能也会通过对这一主题的研究诞生某一新的子学科也不一定。然而,造成这样一种局面的原因我想一方面来源于这一问题本身的复杂性,另一面可能也层面印证了我们当前对于这一领域理论基础认识的薄弱与探索的局限性。

也许在整个人工智能的探索路途中,当前只是迈出了一小步甚至只是打开了一扇窗,未来将任道重远,这个周末终于能在繁忙的工作之余,再次找到一个时间能静下心来思考这一当下未知之境:

① 对于一个system2认知推理过程中的思维概念链(当然这种思维链过程包含了整个思维过程中的前“因”后“果”和中间的推理步骤所涉及的诸多概念)与step by step表征并承载这种长链推理概念的认知模型中的动态传播形式感觉可与类比于群论中态射这种结构性映射(比如对于神经网络模型来说,其中间的神经网络层表征了真实世界推理过程中的诸多复杂结构性概念,前向传播过程表征了逻辑推理这一动态过程中的概念层级间的结构性变化)。

因此,对于一个基于system2的e2e LLM来说,其模型在最终生成的内容(token)前,模型网络中的前向传播(神经元信号激活传递)中蕴含着概念知识的复杂推理逻辑。

在训练过程中,如考虑增加过程学习,在反向传播的过程中,模型直觉上应该能够更好的学习这种推理模式。因此针对多样化的推理步骤,llm可以通过某种过程学习模式实现得到更贴近于真实概念优化目标的模型参数,比如以COT和TOT为代表的多步骤推理、子任务规划、反思、过程中引入知识增强模块等环节,这些本质上等同的思维模式,也许都可以通过SFT或最终的RLHF机训练机制(当然还有其他更适合的训练机制如某种RL)将上述复杂且多样化的推理模式或概念映射通过反向梯度传播进行模型参数更新。表面上来看,使得模型本身除了学习到了浅层知识外,还具备深层次的内涵抽象与深度推理模式(推理模式本身也是一种知识)。我想做到这一步才能说AI模型向人类认知又迈出了关键一步吧。当然这种模式是否也可以形成强AI的一条路径呢?

② 回顾前不久OpenAI联合创始人的报告,不管针对COT还是TOT这种多步骤思维链或树形决策思维链,又或者是autogpt这些融合了*OT模式的推理框架,在其报告中都没有体现出对这种E2E system2模式(非多步骤agent推理)的可能性说明和前瞻性展望,不知是出于什么原因...是保密?还是套路?…不得而知...这里其实是有点担心自己别跑偏了..

基于上述本质问题的思考,可能会对当前system1或以chatGPT为代表的llm的sft和rlhf范式带来较大的影响或畅想空间,甚至可能要重新规划pre training阶段对数据整体的分布,以满足面向system2的E2E训练范式,就像之前在chatGPT正式问世前所出现的Prompt learning,in-context learning,instructGPT,SFT,RLHF等同的多种模型learning范式。

同时,回归本质的尝试性思考:只要模型参数容量足够大、算力与数据准备的足够充分、训练范式足够完备,本质上,模型是可以容纳编码并解析生成包括COT、TOT、Self-consistency、Knowlege-Enhance一切事物的,因为MLP is everything-MLP可通过万能逼近能力去拟合多样化复杂的模式,即也意味着:可以对诸如COT、TOT、Self-consistency、Knowlege-Enhance这些抽象的中间推理与思维概念和最终的推理结果进行形式化符号表达和向量化表征,同时通过llm tokenize的next token predict 自回归生成模式,对于模型来说:既然生成了,就意味着经历了思考了,即在模型中进行多层神经元参数激活与信号传播了。


「本篇配图」

本次笔记的配图选择决定附上一道扬州的传统美食「扬州炒饭」,因为正好赶上本周在扬州出差,这是我时隔五年第二次来到扬州于当地品尝这道美食。

记得从小到大,就对家里长辈们做的普通鸡蛋炒饭情有独钟,如今又一次带着这种炒饭情节满怀期待的在扬州当地点上一份“豪华”版扬州炒饭,预期之高可想而知...果不其然,感觉这次并没有第一次那么的惊艳,也有可能是前菜吃的太过丰富,失去了一定的饥饿感所带来的吞咽满足欲。

但不管怎样,还是对炒饭这种烹饪手法和食材的混合充满好感。而这次之所以选择扬州炒饭,主要是因为这道美食从食材的选择到烹饪的手法也与这次笔记的所记录的内容有一定的相关性:比如对于所涉食材的多样性隐喻了对于system2这一认知推理所涉及的多学科与多种思想方法的交叉和融合,其烹饪过程与手法又与e2e的这种夹杂着繁琐步骤的一气呵成存在着些许相同。


「融合RL与LLM思想,探寻世界模型以迈向AGI」内容回顾与再版更新

融合RL与LLM思想,探寻世界模型以迈向AGI「上篇」

融合RL与LLM思想,探寻世界模型以迈向AGI「中/下篇」

融合RL与LLM思想,探寻世界模型以迈向AGI「下篇」

融合RL与LLM思想,探寻世界模型以迈向AGI「总结」

合集PDF版本v6.2已更新,大家可访问百度网盘地址自行下载:

https://pan.baidu.com/s/1dwuviZkL8J7afBhjEQqXqg?pwd=lm51

提取码: lm51

或扫码下载:

这篇关于一年前 LLM AGI 碎片化思考与回顾系列⑤ · 探索SystemⅡ复杂推理的未知之境的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1076729

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

【编程底层思考】垃圾收集机制,GC算法,垃圾收集器类型概述

Java的垃圾收集(Garbage Collection,GC)机制是Java语言的一大特色,它负责自动管理内存的回收,释放不再使用的对象所占用的内存。以下是对Java垃圾收集机制的详细介绍: 一、垃圾收集机制概述: 对象存活判断:垃圾收集器定期检查堆内存中的对象,判断哪些对象是“垃圾”,即不再被任何引用链直接或间接引用的对象。内存回收:将判断为垃圾的对象占用的内存进行回收,以便重新使用。

flume系列之:查看flume系统日志、查看统计flume日志类型、查看flume日志

遍历指定目录下多个文件查找指定内容 服务器系统日志会记录flume相关日志 cat /var/log/messages |grep -i oom 查找系统日志中关于flume的指定日志 import osdef search_string_in_files(directory, search_string):count = 0

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出 在数字化时代,文本到语音(Text-to-Speech, TTS)技术已成为人机交互的关键桥梁,无论是为视障人士提供辅助阅读,还是为智能助手注入声音的灵魂,TTS 技术都扮演着至关重要的角色。从最初的拼接式方法到参数化技术,再到现今的深度学习解决方案,TTS 技术经历了一段长足的进步。这篇文章将带您穿越时

GPT系列之:GPT-1,GPT-2,GPT-3详细解读

一、GPT1 论文:Improving Language Understanding by Generative Pre-Training 链接:https://cdn.openai.com/research-covers/languageunsupervised/language_understanding_paper.pdf 启发点:生成loss和微调loss同时作用,让下游任务来适应预训

利用matlab bar函数绘制较为复杂的柱状图,并在图中进行适当标注

示例代码和结果如下:小疑问:如何自动选择合适的坐标位置对柱状图的数值大小进行标注?😂 clear; close all;x = 1:3;aa=[28.6321521955954 26.2453660695847 21.69102348512086.93747104431360 6.25442246899816 3.342835958564245.51365061796319 4.87

Partical System

创建"粒子系统物体"(点击菜单GameObject -> Create Other -> Particle System) 添加"粒子系统组件"(点击Component -> Effects  ->Particle System) 粒子系统检视面板  点击粒子系统检视面板的右上角的"+"来增加新的模块。(Show All Modules:显示全部) 初始化模块: •