UC伯克利博士尤洋回国创业,曾破ImageNet纪录!已获超千万融资

本文主要是介绍UC伯克利博士尤洋回国创业,曾破ImageNet纪录!已获超千万融资,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

曾刷新ImageNet纪录的尤洋,回国创业了!

尤洋,何许人也?

他是LAMB优化器的提出者,曾成功将预训练一遍BERT的时间,从原本的三天三夜一举缩短到一个多小时。

作为一个通用的神经网络优化器,LAMB优化器无论是大批量还是小批量的网络都可以使用,也无需在学习率之外调试超参数。

据英伟达官方GitHub显示,LAMB比Adam优化器可以快出整整72倍。

微软的DeepSpeed,用的也是LAMB方法。

而这是尤洋在谷歌实习时作为论文一作提出的。

现在,他已经在UC伯克利获得了博士学位,带着LAMB方法回国,创立了潞晨科技。

公司主营业务包括分布式软件系统、大规模人工智能平台以及企业级云计算解决方案。

base北京中关村,目前已经获得由创新工场和真格基金合投的超千万元种子轮融资。

要高效率,也要低能耗

作为高性能计算领域的优秀青年学者,尤洋回国将在这一领域继续深耕。

事实上,高性能计算已经成为眼下前沿AI发展的必然选择。

随着AI模型的参数量越来越大,所需的算力也就越来越高,训练一次模型的时间也就变得十分漫长。

为此,科技巨头们纷纷部署了自己的集群和超算。

比如Google的TPU Pod,微软为OpenAI打造的1万GPU集群,英伟达的SuperPOD,以及特斯拉的Dojo计算机。

△谷歌数据中心

但是单纯地堆硬件,并不能解决所有问题。

一方面,当硬件数量达到一定量后,堆机器无法带来效率上的提升;

另一方面,中小企业往往没有足够的资金支持如此大规模的硬件部署。

因此,优化技术成为了绝佳选择。

潞晨科技就是旨在打造一个高效率低耗能的分布式人工智能系统。

它可以帮助企业在最大化提升人工智能部署效率的同时,还能将部署成本最小化。

而且潞晨打造的系统是一个通用系统,对大部分超大模型都有效。

就目前的Transformer应用而言,该系统在同样的硬件上相对业界最好的系统,可以提升2.32倍的效率。

而且随着机器数量的增长,这套系统的优势会越来越大。

考虑到现在的AI模型其实是往多维度发展的,尤洋在打造这套系统时还选择了动态模型并行技术。

这不仅能够适应现在模型的发展模式,还能极大提升计算效率。

那么,到底什么是AI模型的多维度发展呢?

比如,BERT是基于Transformer Encoder,GPT-3是基于Transformer Decoder,Switch Transformer和清华智源是基于混合专家系统。

同样,超算系统、联邦学习、跨云计算等硬件配置也会将系统复杂化。

这两者之间的自适应配置,将对整个训练系统的性能起着决定性影响。

为此,尤洋他们实现了2维网格参数划分、3维立体参数划分、以及2.5维通信最小化参数划分,极大提升了计算效率。

同时,他们还进行了逐序列划分数据,这可用于处理未来的大图片、视频、长文本、长时间医疗监控数据等方面的问题。

除了提升效率,尤洋他们还着重考虑了能耗问题。

事实上,能耗很可能会成为未来人工智能应用上的一个瓶颈。

根据Emma Strubell等人的研究,从纽约到旧金山每位旅客乘坐飞机产生二氧化碳排放量1,984 lbs。

然而,训练一个2亿参数的模型需要的能耗,就能达到626,155 lbs。

显而易见,低能耗计算十分必要。

尤洋他们在研究中发现,在不改变硬件设置的情况下,能耗主要来自于数据移动。

数据移动包括集群内服务器之间的通讯、GPU与CPU之间的通讯、CPU与磁盘的通讯等等。

为此,他们还实现了一套基于通讯避免算法的系统。可以在不增加计算量的情况下有效减少数据移动量,从而减少能耗。

核心技术

据尤洋介绍,以上他们打造的通用系统,依旧离不开LAMB方法。

LAMB的全称是Layer-wise Adaptive Moments optimizer for Batch training,和大家熟悉的SGD、Adam属于同类,都是机器学习模型的优化器(optimizer)。

之前我们也提到,LAMB无论是大批量还是小批量的网络都可以使用,也无需在学习率之外调试超参数。

靠着这一特点,此前尤洋等人将批大小由512扩展到了65536。

这也是第一次有研究用2000以上的超大批量来训练BERT。

带来的提升就是迭代次数会大大降低。

这让BERT-Large模型原本需要1000000次迭代才能完成预训练过程,有了LAMB加持用上大批量,只需要进行8599次迭代,这大幅缩短了预训练时间。

此外,尤洋等人最近提出的在线演化调度程序ONES,也是这套通用系统调用的一部分。

它可以根据批大小自动管理每个job,从而将GPU的利用率最大化。还能通过演化算法,不断优化调度决策。

评估结果表明,ONES与当前最先进的方法相比,在平均JCT(job completion time)上能够缩短45.6%的时间,优于现有的深度学习调度算法。

据悉,尤洋团队已经与多家企业展开合作。

他们表示,公司的战略是“先造锤子,再找钉子”。创业初期希望打造一个通用系统,1年内完成系统优化,用于中小型企业。

清华学子归国创业

说起尤洋,就不得不说一说他的“学霸史”了。

尤洋曾以第一名的成绩保送清华计算机系硕士。

后来在申请博士时,他从UC伯克利、CMU、芝加哥大学、UIUC、佐治亚理工、西北大学六所名校的全奖offer中,选择了UC伯克利。

读博期间,尤洋先后在Google Brain、英特尔实验室、微软研究院、英伟达、IBM沃森研究中心等知名企业、研究院实习,实习期间为TensorFlow、英伟达GPU上部署caffe、英特尔CPU部署caffe等大型知名开源项目作出了贡献。

△实习期间尤洋曾去老黄家开party

博士毕业时,尤洋还获得了颁发给UC伯克利优秀毕业生的Lotfi A. Zadeh Prize,并被提名为ACM Doctoral Dissertation Award候选人(81名博士毕业生中选2人)。

毕业后,他加入新加坡国立大学计算机系,担任校长青年教授 (Presidential Young Professor)。

在学术研究上,尤洋也同样战绩斐然。

他曾以一作的身份获得2015年国际并行与分布式处理大会(IPDPS)的最佳论文和2018年国际并行处理大会(ICPP)最佳论文奖。

其发表论文《Imagenet training in minutes》所提出的方法刷新了ImageNet训练速度的世界纪录。

2021年,他还被选入福布斯30岁以下精英榜 (亚洲)。

事实上,潞晨团队可不止尤洋一位大神。

其团队核心成员来自美国加州大学伯克利分校、斯坦福大学、清华大学、北京大学、新加坡国立大学、新加坡南洋理工大学等国内外知名高校。

核心团队在高性能计算、人工智能、分布式系统方面已有十余年的技术积累,并在国际顶级学术刊物或会议发表论文30余篇。

此外,还有美国科学院院士,工程院院士James Demmel教授担任团队顾问。

Demmel教授是加州大学伯克利分校前EECS院长兼计算机系主任、中关村战略科学家、ACM/IEEE Fellow,现任加州大学伯克利分校杰出教授。

目前,潞晨科技还在广纳英才。招聘全职/实习软件工程师,全职/实习人工智能工程师。

岗位职责主要有:

开发分布式人工智系统并部署到大规模集群或云端。从具体的场景和问题出发,研发和优化算法系统,产出解决方案应用到场景中。参与人工智能技术与现有工具的融合设计和优化,提高产品性能。撰写高质量的科技论文,有机会担任重要论文的第一作者 (未来换工作或升学的重要加分项)。任职要求为:

精通TensorFlow, PyTorch, Ray, DeepSpeed, NVIDIA Megatron,熟悉上述系统的内部运行机制。熟悉各类优化算法与模型架构,熟悉python或C++的优化算法库,包括各类基于梯度的经典算法与经典模型 (BERT, GPT-3, Switch Transformer, ViT, MLP-Mixer)。有较强的编程能力和工程实现能力。获得过编程竞赛奖或发表过高质量论文的优先录用。211、985、海外知名高校本科以上学位(或在读),计算机科学、软件工程,电子信息,自动化,数学,物理或其它人工智能相关专业。如果想入职潞晨,不知道现在恶补还来得及吗?

简历投递邮箱:luchen.tech@gmail.com

这篇关于UC伯克利博士尤洋回国创业,曾破ImageNet纪录!已获超千万融资的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/670537

相关文章

UE3脚本UnrealScript UC语法点滴

持续更新 目录 类定义修饰符  1.dependson(CLASSNAME) 2.config(ININAME) 3.native 4.notplaceable 5.inherits(CLASSNAME1[,CLASSNAME2,...]) 类对象实例创建 类默认属性设置 变量 1.声明 var local 2.修饰符 config  3.array 类型变量 以及

【文末附gpt升级秘笈】腾讯元宝AI搜索解析能力升级:千万字超长文处理的新里程碑

腾讯元宝AI搜索解析能力升级:千万字超长文处理的新里程碑 一、引言 随着人工智能技术的飞速发展,自然语言处理(NLP)和机器学习(ML)在各行各业的应用日益广泛。其中,AI搜索解析能力作为信息检索和知识抽取的核心技术,受到了广泛的关注和研究。腾讯作为互联网行业的领军企业,其在AI领域的探索和创新一直走在前列。近日,腾讯旗下的AI大模型应用——腾讯元宝,迎来了1.1.7版本的升级,新版本在AI搜

Tkinter和selenium结合实现登录UC后台,最后打包成exe

主要实现的功能:小号模式自动登录UC阿里汇川广告后台,屏蔽账号密码输入 主要用的技术:用Tkinter展示所有的广告账号界面,使用selenium控制谷歌浏览器,打开阿里汇川登录页,登录汇川后台。 第一次写,遇到的坑比较多,三天,搞定。给自己一个棒棒~☺️ import Tkinter as tk import osimport sysimport requestsfrom sel

纪录一些实用的小东西

多学习一下新的姿势! 16.4.7 Update __builtin_popcount(int Num) 用来精确计算32位整数二进制下有多少个0,常用于枚举子集同时要保证子集大小时使用。 next_permutation(int *Begin, int *End) prev_permutation(int *Begin, int *End) woc这个东西碉堡了,输入参数

开场演讲:百度X-Lib丁羽博士

丁羽博士做安全的,研究安全漏洞十多年,但是后来觉得解决不完,就想从源头杜绝漏洞,于是开始使用rust。 X-Lib明星产品 X-lib.对 rust 的贡献 开场演讲都比较简短,主要介绍,后面会有详细演讲。

宁波银行票据案例深度剖析:积极打造中小企业的融资绿洲

资金是企业经济活动的第一推动力,是企业生存和发展的保障。融资则是企业获得资金的重要途径,票据市场作为关键的短期资金融通渠道,其重要性愈发凸显。据国安大数据2024年1至5月数据追踪,票据承兑发生额达15.33万亿,同比增长达10.55%;贴现发生额为11.68万亿,同比增长达15.22%;转贴现交易量达42.69万亿,同比增长达12.01%,整体呈良好发展态势。面对不断升级的金融市场环境,在分析宁

利氪科技拿下C轮超级融资,国产智能底盘黑马奔向黄金时代

“智能驾驶遗珠,国产替代富矿。” 这是海通证券在最近一期研报中,描述线控底盘产业的用语。它很巧妙地点明了,这个藏在车身之下的部分,拥有何种特征——稳坐技术体系的核心点位,拥有前景广阔的市场。 事实上,大多数人都知道一个好的底盘有多重要,操控感、乘坐体验这些因素,一直都被绑定在底盘调教的概念上。但很少有人会特别关心底盘是怎么发展演变的,因为相比智驾这类话题,底盘更像一个没什么趣味的工科名词,更不

低成本创业新篇章:上门回收小程序的崛起与挑战

在当今这个快速变化的时代,低成本创业项目成为了许多创业者的首选。其中,上门回收小程序以其独特的商业模式和市场需求,成为了创业市场中的一股新势力。本文将深入探讨上门回收小程序作为低成本创业项目的崛起之路以及面临的挑战。 一、上门回收小程序的崛起 1. 市场空白与需求增长:在传统的回收行业中,存在诸多不便之处,如回收站点分散、服务时间受限等。而上门回收小程序通过移动互联网技术,实现了回收服务的

逃离北京回家创业--生存篇

创业的路上,并不总是激情和乐趣。当激情过了,就需要面对赤裸裸的现实。 首先要考虑团队的开销问题,虽然大家拿的工资并不高,但是四个人的工资加上房租水电,对于一个穷苦出身的程序员来说也是个不小的压力。为了给团队找个能够发展下去的持续动力,我想了挺多的办法。 我们在大学城里面创业,大学生是很好的资源。我首先想到的是办培训,我反复思考,我觉得想到了一个非常理想的运作模式。我们创业缺少的是两

逃离北京回家创业--团队组建篇

筹划好了自己的创业项目,然后就开始着手组建团队了。考虑到自己没有太多的资金支持,不能可能去社会上招经验丰富的员工,于是决定自己培养团队。 好在我技术选择的是nodejs和mongodb,前后端都用js开发起来学习成本相对较低。我选择办公地点在大学城,一方面是考虑到这里的房租相对便宜,另一方面这里周边有十几所大学,组建团队也比较方便。大学生虽然不像社会上招的熟练技术人员效率那么高,但是我坚信大学生