带你读懂AGI的进化编年史

发布时间:2023-03-01 22:20:54 【来源:虎嗅网】

    3月1日讯:AGI是Artificial General Intelligence的缩写,即通用人工智能。

 

AGI的目标是实现人类般的通用智能,这意味着AI可以像人类一样理解任意通用任务, 并以人类的智力水平执行完成。

 

基本上, 除了“自我意识”的生成,AGI就是人类对人工智能的终极梦想了。

 

(关于机器的“自我意识”话题,可以参考《ChatGPT离自我意识还有多远》一文)

 

无论是近一年来火爆的AI绘画,还是当红炸子鸡ChatGPT,AI研究应用的终极目标, 都是向着AGI通用人工智能的大一统目标在迈进。

 

读者是否有同感, 这几年各种AI大模型的发展和突破, 着实有让人眼花缭乱之感?

 

本文主要把现代到当下一些AI的重要节点做了时间线梳理和简单分析,或有助于大家来理清楚这些年AI发展的关键脉络。

 

1942年

 

时间回到80年前, 科幻泰斗阿西莫夫提出了著名的“机器人三定律”:

 

  1. 机器人不得伤害人类,或坐视人类受到伤害;

     

  2. 除非违背第一定律,否则机器人必须服从人类命令;

     

  3. 除非违背第一或第二定律,否则机器人必须保护自己。

     

这三个定律是人工智能和机器人技术的哲学基础,是对如何设计人工智能系统的基本原则的阐述,至今都有着重要的参考意义。

 

1950年

 

计算机科学之父艾伦·图灵(Alan Turing)发表了具有里程碑意义的论文《Computing Machinery and Intelligence(计算机器与智能)》。论文预言了创造出具有真正智能的机器的可能性,第一次提出图灵测试(The Turing test)的概念:

 

如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。

 

1956年

 

AI概念诞生。

 

美国的达特茅斯学院举行了一次具有传奇色彩的学术会议(Dartmouth Conference), 探讨用机器模拟人类智能的问题。计算机专家约翰·麦卡锡提出了AI“人工智能”一词。这被广泛认为是人工智能正式诞生的日子。参与会议的学者们是最早的AI研究先驱。

 

从1956年到现代,这几十年来AI研究的起伏,有兴趣的读者可以参考本号另一篇文章《从爆火的chatGPT讲起: 自然语言生成式AI的前世今生, 你想了解的一切》。

 

当今大众关于AI的记忆,或许是从1997年开始的。

 

1997年

 

5月11日, IBM公司的电脑“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫,成为首个击败国际象棋世界冠军的AI系统。

 

1998年

 

现代卷积神经网络CNN诞生。

 

1980年,日本学者福岛邦彦(Kunihiko Fukushima)模仿生物的视觉皮层(visual cortex),设计了人工神经网络“neocognitron”,这是现代卷积神经网络的雏形。

 

经过多年前赴后继的研究,1998年杨立昆(Yann LeCun,现任Meta首席人工智能科学家)基于前人基础,构建了更加完备的卷积神经网络LeNet-5,在手写数字的识别问题中取得了成功。LeNet-5被认为是现代卷积神经网络的基本结构。

 

卷积神经网络CNN是当今“深度学习”AI模型的计算基础架构。一直到2017年Transformer架构横空出世后,CNN才被取代。

 

2003年

 

Yoshua Bengio在2003年发表了《A Neural Probabilistic Language Model》,这是第一篇基于人工神经网络打造自然语言模型的论文,提出了具有奠基意义的NNLM“神经网络语言模型”。它在得到语言模型的同时也产生了副产品“词向量”。

 

2006年

 

杰弗里·辛顿(Geoffrey Hinton)在science期刊上发表了重要的论文《Reducing the dimensionality of data with neural networks》,提出深度信念网络(Deep Belief Networks,DBNs),“深度学习”正式诞生。

 

2009年

 

李飞飞主导的Image Net正式发布,有超过1000万数据,两万多个类别。为全世界的AI学者提供了开放的标注图像大数据集。

 

2010年开始,Image Net大规模视觉识别挑战赛(ILSVCR)开始举办,全世界图像领域深度学习的专家们同台竞技和交流,从此拉开了计算机视觉的新篇章。

 

2012年

 

Google的吴恩达和Jef Dean使用1.6万个CPU(那时的GPU生态还在婴幼儿阶段)训练了一个当时世界上最大的人工神经网络,用来教AI绘制猫脸图片。训练数据是来自youtube的1000万个猫脸图片,1.6万个CPU整整训练了3天。

 

对于计算机AI领域,这是一次具有突破性意义的尝试。AI第一次“生成”了一个图像内容:一张模糊的猫脸。

 

 

2013年

 

Google的托马斯·米科洛夫(Tomas Mikolov)带领研究团队发表了论文《Efficient Estimation of Word Representations inVector Space》,提出了Word2Vec。

 

Word2Vec可以根据给定的语料库,通过优化后的训练模型可以快速有效地将一个词语表达成高维空间里的词向量形式,为自然语言处理领域的应用研究提供了新的工具。

 

2014年1月

 

谷歌斥资400亿美元收购了位于伦敦的明星人工智能企业DeepMind。

 

2014年12月

 

GAN(对抗式生成网络)诞生。

 

2014 年,Lan Goodfellow从博弈论中的“二人零和博弈”得到启发 ,创造性的提出了生成对抗网络(GAN,Generative Adversarial Networks),他在2014年的NIPS会议上首次发表了相关论文,用两个神经网络即生成器(Generator)和判别器(Discriminator)进行对抗。在两个神经网络的对抗和自我迭代中,GAN会逐渐演化出强大的能力。

 

作者在最早的文章里形象的把GAN比喻为伪造者和警察:伪造者总想造出以假乱真的钞票,而警察则努力用更先进的技术去鉴别真伪。在博弈过程中,双方都不断提升了自己的技术水平。

 

GAN号称21世纪最强大的算法模型之一,“Gan之父”Ian Goodfellow也一跃成为AI领域的顶级专家。

 

2015年12月

 

OpenAI公司于美国旧金山成立。

 

OpenAI诞生的原因是很有趣的:DeepMind被Google收购的消息震动了硅谷,如果发展下去,DeepMind很有可能成为最早实现AGI通用人工智能的公司。为了打破GoogleAI技术的垄断,在一次私人聚会后,大佬们一拍即合成立了OpenAI。

 

其中包括,钢铁侠Elon Musk,当时已是著名创业孵化器 Y Combinator 的负责人现在成为OpenAI CEO的Sam Altman,以及著名天使投资人 Peter Thiel等硅谷大佬。

 

OpenAI作为一个非营利性组织运营,并立志要做DeepMind和Google无法做到的事情:开放和共享AI技术。

 

从今天的眼光看,尽管OpenAI后来的商业模式有所变化,但绝对实现了它诞生的最大愿景之一:狙击Google和DeepMind。

 

ChatGPT的推出加上微软Bing的推波助澜搞得Google实在是狼狈不堪。

 

2015年

 

11月, Google开源了重要的深度学习框架Tensor Flow;

 

同年,还是Google,开源了用来分类和整理图像的 AI 程序 Inceptionism,并命名为 DeepDream。尽管还很初级,但DeepDream被认为是第一个现代的AI绘画应用。

 

2016年

 

3月,Google的AlphaGo战胜围棋世界冠军李世石;

 

4月,Google深度学习框架TensorFlow发布分布式版本;

 

9月,Google上线基于深度学习的机器翻译;

 

2015到2016年,Google的AI能力可谓是风头一时无两。

 

2017年1月

 

Facebook人工智能研究院(FAIR)开源了PyTorch。PyTorch和tensorFlow从此成为了当今两大主流深度学习框架。

 

2017年7月

 

Facebook联合罗格斯大学和查尔斯顿学院艺术史系三方合作得到新AI绘画模型,号称创造性对抗网络(CAN,Creative Adversarial Networks)

 

CAN在测试中,有53%的观众认为AI作品出自人类之手,这是类似的图灵测试历史上首次突破半数,这是AI绘画模型小小而扎实的一步。

 

Facebook在AI领域其实耕耘了很久,做过很多贡献,可惜后面搞Metaverse连公司名字都改成Meta了, 差点错过了当下这波AI的浪潮。

 

不过最近小札醒悟过来,终于官宣要All in AI。Meta还是很有实力的,奋起直追应为时未晚。

 

2017年12月

 

颠覆性的Tranformer架构出世了!

 

Googl机器翻译团队在年底的顶级会议NIPS上发表了里程碑式的论文《Attention is all you need》,提出只使用自注意力(Self Attention)机制来训练自然语言模型,并给这种架构起了个霸气的名字:Transformer

 

所谓“自我注意力”机制,简单说就是只关心输入信息之间的关系,而不再关注输入和对应输出的关系。和之前大模型训练需要匹配的输入输出标注数据相比,这是一个革命性的变化。

 

Transformer彻底抛弃了传统的CNN和RNN等神经网络结构。在这篇论文发布之前,主流AI模型都基于CNN卷积神经网络和RNN循环神经网络(recurrent neural network); 而之后,便是Transformer一统天下。

 

Transformer架构的详细描述不在本文范围,读者只需要知道它具有两点无敌的优势:

 

1. 自我注意力机制,让模型训练只需使用未经标注的原始数据,而无需再进行昂贵的的人工标注(标注输入和对应输出)

 

2. 并行效率是之前的AI模型结构被一直诟病的地方。抛弃了传统CNN/RNN架构后,基于Transformer架构的大模型训练可以实现高度并行化,这大大提高了模型训练的效率;

 

从此,大模型大数据大算力,大力出奇迹,成为了AI领域的标配。

 

感慨一下,Google首先发明了划时代的Transformer架构,但在5年后的今天,却被OpenAI打得喘不过气。这是命运的偶然吗?

 

2018年6月

 

OpenAI发布了第一版的GPT(Generative Pre-training Transformers)系列模型 GPT-1。

 

同时,OpenAI发表了论文《Improving Language Understanding by Generative Pre-training》

 

从论文里可以了解到,GPT-1具有1.17个参数,采用了12层的Transformer 解码器结构,使用5GB的无标注文本数据,在8个GPU上训练了一个月,然后再进行人工监督的微调。

 

不过,GPT-1并不是当年的明星,因为同年,Google的BERT大模型也发布了(当时的Google就是强啊)

 

2018年10月

 

谷歌发布3亿参数的BERT(Bidirectional Encoder Representation from Transformers),意思即“来自Transformers的双向编码表示”模型。

 

GPT和BERT的诞生意味着预训练大模型(Pre-trained Models)成为了自然语言处理领域的主流。

 

和GPT相比,BERT最大的区别就是使用文本的上下文来训练模型,而专注于“文本生成”的GPT-1,使用的是上文。

 

基于“双向编码”的能力让BERT的性能在当时明显优异于第一代的GPT-1。

 

幸好,Open AI 并没有那么容易放弃,一直坚持只用上文训练的“单向编码”纯生成模式。直到GPT-3,神功初成。

 

2018年底

 

在共同创立公司三年后,钢铁侠马斯克辞去了Open AI董事会职务,原因是“为了消除潜在的未来冲突”。

 

实际情况是,2017年6月,马斯克挖走了OpenAI的核心人员Andrej Karpathy,担任Tesla的AI部门主管并直接向自己汇报,负责构建特斯拉的自动驾驶系统。

 

所以,确实是存在人才竞争“潜在冲突”的。

 

有趣的是,根据前不久的最新消息,ChatGPT大火之后,Andrej Karpathy同学又离开了Tesla回到了OpenAI。这是所谓“鸟择良木而栖”。

 

而马斯克放出了声音,要打造OpenAI的竞争者。不知首富同学是否遗憾当年不得不放走了OpenAI。

 

2019年2月

 

OpenAI发布了GPT-2。

 

GPT-2有48层Transformer结构,使用40GB文本数据训练,参数量突破到了15亿。

 

在同时发布的论文 《Language Models are Unsupervised Multitask Learners》 中,OpenAI描述了GPT2在经过大量无标注数据生成式训练后,展示出来的零样本(zero-shot)多任务能力。

 

所谓零样本学习就是用很大的通用语料去训练模型,然后不再需要做特定任务的训练,大模型就可以直接完成一些具体任务。

 

一个典型例子是翻译。GPT-2具备了良好的语言翻译能力; 而有趣的是,专门做翻译的模型通常使用标注好的语料(即两个不同语言的匹配数据)来训练。但GPT-2并没有使用这类数据,翻译效果还超过了很多专职翻译的小模型。

 

GPT-2揭示了一个有趣的现象,仅作为生成式任务来训练打造的大模型,开始具备了多种通用任务能力,比如GPT-2所具备的阅读理解和翻译等等。

 

2019年3-7月

 

3月份,OpenAI正式宣布重组,成为一家“利润上限(caped-profit)”的公司,规定了投资收益的上限。这是一个很特别的架构。

 

而近期披露的OpenAI最新投资架构也再次揭示了这个公司股权结构的与众不同。简单的说,OpenAI把自己租借给了微软,赚到1500亿美金后,将重新变为非营利性组织——至少说是这么说的。

 

5月,Sam Altman辞去了 YC总裁的工作,开始担任新 OpenAI 的CEO。

 

7月,重组后的OpenAI拿到了微软包括Azure云计算资源在内的10亿美金投资, 微软将作为“首选合作伙伴”,今后可获得OpenAI 技术成果的独家授权。

 

自此,OpenAI后续技术成果不再承诺开源。

 

2020年5月

 

OpenAI发布了GPT-3。

 

GPT-3的初始版本在内部代号为“davinci”,使用45TB文本数据训练,有1750亿参数。根据公开信息,模型的训练费用是1200万美金。因为太贵,只训练了一次。

 

随后,OpenAI发表了近70页的论文《Language Models are Few-Shot Learner》。这篇论文阐述了大模型的各种新能力,而最重要的就是标题所指出的小样本(few-shot)学习能力。

 

“few-shot”是一个专业术语,理解起来也简单,就是通过少量的几个例子就能学习一个新的任务。人们发现,GPT-3开始具有类似人类的能力,只要在提示里展示特定任务的几个示例,GPT-3就能完成新示例的输出。而无需进行针对性的额外微调训练。这也被称之为“上下文学习”(in context learning)

 

2020年6月

 

对AI绘画有重要意义的论文 《Denoising Diffusion Probabilistic Models》发表, 引入了DDPM模型。 作为领域的奠基之作,这篇论文第一次把2015年诞生的Diffusion“扩散模型”用在了图像生成上。

 

用扩散模型生成图像的过程,简单理解,就是我们熟知的图片“降噪”:把一幅全部是噪点的随机图像通过AI算法反复“降噪”到最清晰,一个图像便生成了。

2 吨级 eVTOL 首架机 3 月下线二季度首飞,空中出行创新企业御风未来获加轮融资
为了抢占市场抖音不仅将扣点压到极致,还会给予相关商家不同程度流量倾斜
HMD 计划今年Q3季度在欧洲建厂 将在欧洲生产 5G 设备
特斯拉投资者活动日来了,你需要关注这些
九号公司和科沃斯跨界进入草坪赛道,一些躬身入局的初创企业希望能在草坪上博一番天地
要算总账的,不要认为养老问题还有拖延机会
算法正在谋杀新闻,各种日报带头摆烂
别让《乌梅子酱》的火,烧了李荣浩
[ 最新资讯 ]

带你读懂AGI的进化编年史

3月1日讯:AGI是Artificial General Intelligence的缩写,即通用人工智能。AGI的目标是实现人类般的通用智能,这意味着AI可以像人类 ...

腾讯回应针对 ChatGPT 成立「混元助手」项目组,打造腾讯智能大助手

3月1日讯:日前有报道称,腾讯针对类ChatGPT对话式产品已成立「混元助手(HunyuanAide)」项目组,该项目组Owner为张正友,PM分别为俞栋 ...

天味食品领投“马路边边”母公司墨比优创获亿元融资

3 月 1 日讯:墨比优创 ×天味食品× 梅花创投 × 嘉兴品创投资战略合作签约仪式暨新品牌发布会在成都举办。墨 ...

戴尔发布 XPS 15/17 笔记本,搭载英特尔 13代酷睿处理器和英伟达 40 系显卡

  3月1日讯:戴尔更新了其部分旗舰笔记本电脑产品线,将戴尔 XPS 15 和 XPS 17 升级到第 13代英特尔酷睿处理器和英伟达的 GeForc ...

戴尔发布 XPS PC 8960,最高配备酷睿 i9-13900K CPU 和英伟达 GeForce RTX 4090 GPU

  3 月 1 日讯:戴尔在 MWC 2023 大展上推出了新款 XPS 桌面 PC 8960,最高可以配置英特尔第 13 代酷睿 i9-13900K CPU 和 ...

联想发布 Geek Pro G5000 游戏本,配备 RTX 4050独显 95W 性能释放

  3 月 1 日讯:据联想发布的最新预热信息,Geek Pro G5000 游戏本将搭载 RTX 4050 独显。  根据官方海报,Geek Pro G5000 ...