「大模型时代」即将结束,OpenAI CEO 宣布转向

发布时间:2023-04-19 21:04:28 【来源:钛媒体】

  4月19日讯:虽然在这个月几乎每周都至少有一家科技大公司入局训练大模型,但OpenAI 却突然改变了方向声称,大模型时代已经要结束了。

  上周末在麻省理工学院,OpenAI 的 CEO 在演讲中警告称:我们已经处在大模型时代的尾声,并表示如今的 AIGC 发展中,将数据模型进一步做大,塞进更多数据的方式,已经是目前人工智能发展中最后一项重大进展,并且还声称目前还不清楚未来的发展方向何去何从。

  消息传出,立即引发很多外界的质疑,OpenAI 本身已经是大模型技术领域最前沿的研究机构,为何会说出这种能让研究方向180度掉头的论调?

  在如今的生成式 AI 背后的技术,称其为大模型甚至已经不够准确,这些模型所需的参数数量已经是天文数字,称其为「巨型模型」或许更加准确。

  OpenAI 最早的语言模式是 GPT-2,于 2019 年公布,发布时就有 15 亿个参数,此后随着 OpenAI 研究人员发现扩大模型参数数量能有效提升模型完善程度,真正引爆 AI 行业浪潮的 GPT-3 发布时,参数数量已经达到了 1750 亿个。

  截至目前,OpenAI 并没有公布最新迭代版本 GPT-4 所用的参数数量。但外界普遍估算其包括的参数量已经达到了 GPT-3 的二十倍 —— 3.5万亿个参数。

  但人类互联网历史上被保留下来的各种高质量语料,已经在 GPT-3 以及后续发布的 GPT-4 的学习中被消耗殆尽。大模型参数数量仍然可以继续膨胀下去,但对应数量的高质量数据却越来越稀缺,因此增长参数数量带来的边际效益愈发降低。这如同 AI 行业的「摩尔定律」一般。

  除了大模型本身的技术发展方向,Altman 提到的另一个问题:购买大量 GPU 以及建设数据中心的物理限制以及高昂的成本,或许才是更多 AI 大模型开发公司现在所面临的切肤之痛:运营巨型数据服务中心成本高昂已经是行业公认,但如果是用于 AI 大模型训练则更是贵上加贵,无论是对电力还是水力的消耗都极其巨大。

  即使是 GPT-4 或 New Bing,也多次因为算力不足不得不公开宣布短时间内暂停访问。算力已经成为限制 AIGC 进一步拓展使用场景的关键桎梏。Altman 的说法的根据,或许也有很大一部分来源于 OpenAI 所面临的现实原因。

  在今年三月,英伟达专用于大模型参数计算、采用专用 Transformer Engine 架构的英伟达 H100NVL 系列发布之后,从中嗅到商机的黄牛也开始借机炒价,售价已经飙升至四万美元。但这些在当下大模型技术巨大的风口面前似乎都不值一提,目前 H100NVL 系列仍然处于一货难求的状态。马斯克也在 Twitter 上惊呼「似乎每个人和他们的狗都在抢购 GPU」。

  不过吐槽归吐槽,即便是马斯克也不得不为了自己新成立的 AI 公司而买买买:据《商业内幕》报道,马斯克已经购入了一万组英伟达最新发布的 GPU 并运至数据中心。并在 Twitter 上声称将开发 TruthGPT 来挑战 ChatGPT。

  尽管 Altman 同时还在演讲中表示「OpenAI 目前没有在开发 GPT-5」。但在 AI 大模型发展狂奔的路上,没有人愿意真的成为「落后六个月」的那个。

  根据分析机构 SemiAnalysis 估算,如果按照目前 ChatGPT 的运算处理效率,想要承担 Google 搜索目前在全球全部访问流量,至少需要 410 万张英伟达 A100 GPU。即使只是训练出目前 ChatGPT 能力的大模型,也需要超过 10000 个 GPU 来完成,后续运营维护还需要更多。

  这也是如今几乎你能见到的每个大模型产品都需要「内测邀请码」的原因:不仅训练这些大模型烧钱,运营起来更加烧钱。

  这种对于计算硬件极度迫切的需求,推动着英伟达成为这个市场最大的垄断者。如今英伟达已经占据了计算卡 88% 的市场份额,其他选项 —— 例如 Google 开发的 Tensor TPU,甚至不提供对外售卖的选项。

  但正如马斯克「嘴上说暂停训练半年,实际光速成立 AI 公司」一样,在很大程度上,这也只是 Altman 的一家之言。如今很多后来者的技术发展程度都还远未到能说出「AI 发展不能靠无脑计算」的程度。但 Altman 所说的确实已经成为如今头部大模型开发公司正在/即将要面对的棘手问题。

  「一味不计成本地堆砌硬件不是未来」已经成为越来越多业内人士的共识。

  现在的 AI 发展阶段,甚至很多地方都有着互联网发展早期时代的即视感:AI 行业的发展也已经出现了「摩尔定律」,训练大模型所需的大量 GPU 组成的硬件训练集群,与世界上第一台计算机并没有本质上的区别。

  人工智能也需要一次「半导体革命」,探索未来也需要更加高效的方式:或许对大模型参数数量的精简,以及利用多个较小的模型实现处理能力的提升,会是大模型时代结束之后,AIGC 行业的下一个发展方向。

  在 ChatGPT 发布之初,针对参数量过高以及关于道德伦理方面的问题,OpenAI 曾公开过一项新的研究:使用一种通过人类反馈来强化学习 (RLHF) 的技术,对模型数据进行微调。

  经过超过一年的测试,OpenAI 由此生成了 InstructGPT,其模型参数量仅有 13 亿,只不到原版 ChatGPT 的百分之一,但这个迭代款不仅表现出更准确的回答能力,甚至在回答中关于事实核查以及负面内容的表现,要好于 ChatGPT 本身。

  此外,同样近期大火的 AutoGPT:使用 GPT-4 作为底层技术,加入了从网页中抽取关键信息的能力,根据返回的结果进一步执行命令,帮你自动完成任务处理。突破了只能处理文本相关内容任务的限制。

  由此诞生的结果,就是用户在 AutoGPT 的实际使用中都能明显感受到,要智能的多的结果,甚至完完全全改变了原本 ChatGPT 常规的使用方式,比如 AutoGPT 能自动完成一整个网页的代码实现,甚至还有网友发现 AutoGPT 为了完成最初的任务目标,自行在招聘网站上发布了招聘广告,吸引其他人来辅助完成。

  这些在应用层面的创新,除了能为大模型技术探索更多的应用场景,也是在 AI 领域探索现有算力之下发展的可能。基于人类反馈实时修改结果的最直观体验,就是让人工智能变得更加聪慧,同时也是真正意义上能实现「一个人就是一个团队」的技术。

  宏观来看,即使当下大模型技术对于 AIGC 的发展至关重要,但长远来讲,AI 绝不会永远依赖大模型的参数提升以及堆砌算力来构建未来,开发更小更精准的模型,以及更加具体的应用场景,或许已经是下一个时代真正的方向。

  届时,或许是大模型时代的结束,却是人工智能时代真正的开始。

食疗老品牌陷入“困局”,新品牌加速“内卷”‍‍‍‍‍‍
AI
大学生特种兵抖音“奇袭”三线城市,淄博烧烤、洛阳汉服、云南泼水节
扎包的徽章和玩偶上万元,“谷圈”里的“痛包”买卖
捷途汽车有“昆仑”,入局越野赛道
浪潮信息韧性应对变化,减少单一供应商依赖
淄博旅游之外,转型聚焦科技是这座城市的必选项
微博加大引入站外视频创作者,计划提升“金V”变现效率
[ 最新资讯 ]

「大模型时代」即将结束,OpenAI CEO 宣布转向

  4月19日讯:虽然在这个月几乎每周都至少有一家科技大公司入局训练大模型,但OpenAI 却突然改变了方向声称,大模型时代已经要结束了。 ...

“水泥茅”海螺水泥亿元罚单被起底,年报中只字未提,恐涉信披违规

  4月19日讯:海螺水泥(600585 SH)摊上麻烦事,在年报披露后不久被起底亿元罚单。近日有媒体爆料,海螺水泥下属6家子公司因涉嫌行业垄 ...

金贵银业前脚刚“脱帽摘星”,后脚便踏入了业绩亏损“泥潭”

  4月19日讯:金贵银业所处行业为有色金属冶炼,从事的主要业务为高纯银、电解铅、黄金、电积铜、银制品等有色金属及贵金属产品的冶炼和 ...

争夺固态电池的领先主导权,或应该是国内大厂必要的一种觉悟

  4月19日讯:日前,在第二届世界动力电池大会云上宜宾高端论坛中,中国科学院院士、清华大学教授欧阳明高提到新能源汽车的一个重要趋势 ...

超大规模数据中心时代来临:好事还是坏事

  4月19日讯:拉斯·瑞特是荷兰西北部城市荷兰克朗市议会的议员,也是当地居民反对微软兴建超大规模数据中心抗议运动的代表人物。  瑞 ...

绿景中国和华侨城“杠”上了,涉及2764平方米用地面积

  4月19日讯:近日,绿景中国地产(00095 HK,以下简称绿景)与华侨城A(000069 SZ,以下简称华侨城)发生了摩擦。  钛媒体APP了解到, ...