Vicarious发表Science论文:概率生成模型超越神经网络

本文主要是介绍Vicarious发表Science论文:概率生成模型超越神经网络,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

当前人工智能的兴起主要基于深度学习的发展,但是这种方法并不能让计算机像人类一样通过学习少量样本就能将知识泛化到很多种问题中去,这也意味着系统应用范围受限。最近,知名人工智能创业公司 Vicarious 在 Science 上发表的研究提出了一种全新概率生成模型。新的模型具有识别、分割和推理能力,在场景文字识别等任务上超过了深度神经网络。研究人员称,这种方法或许会将我们带向通用人工智能。


论文:A generative vision model that trains with high data efficiency and breaks text-based CAPTCHAs




论文链接:http://science.sciencemag.org/content/early/2017/10/25/science.aag2612


摘要:从少数样本学习并泛化至截然不同的情况是人类视觉智能所拥有的能力,这种能力尚未被先进的机器学习模型所学习到。通过系统神经科学的启示,我们引入了视觉的概率生成模型,其中基于消息传送(message-passing)的推断以统一的方式处理识别、分割和推理(Reasoning)。该模型表现出优秀的泛化和遮挡推理(occlusion-reasoning)能力,并在困难的场景文字识别基准任务上优于深度神经网络,且更具有 300 倍的数据效率(data efficient)优势。此外,该模型基本上打破了现代基于文本的验证码生成方案,即在没有具体验证码的启发式方法下分割目标。我们的模型在通向通用人工智能的路上可能是非常重要的,因为它强调了数据效率和语意合成性等特性。



图 1:人类在字母形式感知上的灵活性。(A)人类擅长解析不熟悉的验证码。(B)相同的字母可以有非常多的表现形式,上图都是「A」。(C)对形状的感知可以有助于将其解析为相近的目标。



图 2:RCN(Recursive Cortical Network)的结构。


上图(A)层级结构生成对象的轮廓,条件随机场(CRF)生成表面外观。(B)轮廓层级相同的两个子网络通过复制特定父结点的子结点特征并连接它们到该父结点的旁边分支(laterals)而保持独立的分支连接。图中绿色矩形的结点是特征「e」的复制。(C)表征正方形轮廓的三级 RCN,第二级特征表征着四个角,而每个角都使用四个线段的连接表示。(D)表征字母「A」的四级网络。



图 4:传播与特征学习的过程。


上图(A)中的 i 为前向传播(包括了侧面传播),生成多个字母的假设展示在输入图像中。PreProc 是一组类 Gabor 的滤波器,可以将像素转化为边缘似然度。ii 为后向传播和侧面传播(lateral propagation)创建的分割掩码,它可用来挑选前向传播的假设,上图掩码为「A」。iii 是错误的假设「V」正好拟合「A」和「K」的交叉点,错误的假设需要通过解析来解决。(iv)可以激活多个假设以产生联合解释来避免字母遮挡情况。(B)第二级特征上学习各种特征。彩色的圆圈表示特征激活,虚线圆圈表示提出的特征。(C)从轮廓领域学习边缘(laterals)。



图 5:用 RCN 解析验证码。


上图(A)为代表性的 ReCAPTCHA 解析方法所给出的前两个预测结果,它们的分割与标注由两个不同的标注者完成。(B)在受限的 CAPTCHA 数据集上 RCN 和 CNN 的词准率。在修改字符间距后,CNN 相比于 RCN 没有那么多的鲁棒性。(C)为不同 CAPTCHA 风格的准确率。(D)为代表性 BotDetect 解析和分割结果(使用不同颜色表示)。



图 6:使用少量样本进行训练的 MNIST 分类结果。


上图(A)为 RCN、CNN 和 CPM 的 MNIST 分类准确度。(B)为有损 MNIST 测试集上的分类准确度,图例展示了训练样本的总数。(C)为不同 RCN 配置的的 MNIST 分类准确度。



图 7:通过 RCN 生成、遮挡推理和场景文字解析。


这篇关于Vicarious发表Science论文:概率生成模型超越神经网络的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/336974

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

hdu4865(概率DP)

题意:已知前一天和今天的天气概率,某天的天气概率和叶子的潮湿程度的概率,n天叶子的湿度,求n天最有可能的天气情况。 思路:概率DP,dp[i][j]表示第i天天气为j的概率,状态转移如下:dp[i][j] = max(dp[i][j, dp[i-1][k]*table2[k][j]*table1[j][col] )  代码如下: #include <stdio.h>#include

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

poj 1287 Networking(prim or kruscal最小生成树)

题意给你点与点间距离,求最小生成树。 注意点是,两点之间可能有不同的路,输入的时候选择最小的,和之前有道最短路WA的题目类似。 prim代码: #include<stdio.h>const int MaxN = 51;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int P;int prim(){bool vis[MaxN];

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验