开源“原驼”爆火 iPhone都能微调大模型了,跑分达ChatGPT的99% 人类难以分辨

发布时间:2023-05-25 18:40:36 【来源:36氪】

  5月25日讯:自动测试分数达到ChatGPT的99.3%人类难以分辨两者的回答……

  这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。

  更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到<48GB

  开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。

  以Meta的美洲驼LLaMA为基础,得到原驼650亿参数版只需要48GB显存单卡微调24小时330亿参数版只需要24GB显存单卡微调12小时

  24GB显存,也就是一块消费级RTX3090或RTX4090显卡足以。

  不少网友在测试后也表示,更喜欢它而不是ChatGPT。

  英伟达科学家Jim Fan博士对此评价为:大模型小型化的又一里程碑。

  先扩大规模再缩小,将成为开源AI社区的节奏。

  而新的高效微调方法QLoRA迅速被开源社区接受,HuggingFace也在第一时间整合上线了相关代码。

  GPT-4做裁判,原驼得分达到ChatGPT的99.3%

  论文中,团队对原驼总共做了三项测试,自动评估、随机匹配和人类评估。

  测试数据来自小羊驼Vicuna和Open Assistant。

  自动评估由大模型天花板GPT-4当裁判,对不同模型的回答进行打分,以ChatGPT(GPT3.5)的成绩作为100%。

  最终原驼650亿版得分达到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

  随机匹配,采用棋类专业比赛和电子竞技同款的Elo记分机制,由GPT-4和人类共同做裁判。

  原驼650亿和330亿版最终得分超过ChatGPT(GPT3.5)。

  人类评估,则是把原驼650亿版的回答和ChatGPT的回答匿名乱序放在一起,人类来盲选哪个最好。

  论文共同一作表示,研究团队里的人都很难分辨出来,并把测试做成了一个小游戏放在Colab上,开放给大家挑战。

  这里节选其中一个问题(附中文翻译),你能分辨出哪个是ChatGPT回答的吗?

  问题:How can I improve my time management skills?(如何提高时间管理技能?)

(完整测试地址在文末)

  总的来说,原驼的优势在于不容易被问题中的错误信息误导,比如能指出地球从来没有被科学界认为是平的。

  以及擅长心智理论(Theory of Mind),也就是能推测理解他人的心理状态

  但原驼也并非没有弱点,团队发发现它不太擅长数学,以及容易用提示注入攻击把要求保密的信息从它嘴里套出来。

  也有网友表示,虽然一个模型能在某个数据集上无限接近ChatGPT,但像ChatGPT那样通用还是很难的。

  全新方法QLoRA,iPhone都能微调大模型了

  原驼论文的核心贡献是提出新的微调方法QLoRA

  其中Q代表量化(Quantization),用低精度数据类型去逼近神经网络中的高精度浮点数,以提高运算效率。

  LoRA是微软团队在2021年提出的低秩适应(Low-Rank Adaptation)高效微调方法,LoRA后来被移植到AI绘画领域更被大众熟知,但最早其实就是用于大语言模型的。

  通常来说,LoRA微调与全量微调相比效果会更差,但团队将LoRA添加到所有的线性层解决了这个问题。

  具体来说,QLoRA结合了4-bit量化和LoRA,以及团队新创的三个技巧:新数据类型4-bit NormalFloat分页优化器(Paged Optimizers)和双重量化(Double Quantization)。

  最终QLoRA让4-bit的原驼在所有场景和规模的测试中匹配16-bit的性能

  QLoRA的高效率,让团队在华盛顿大学的小型GPU集群上每天可以微调LLaMA 100多次……

  最终使用Open Assistant数据集微调的版本性能胜出,成为原驼大模型。

  Open Assistant数据集来自非盈利研究组织LAION(训练Stable Diffusion的数据集也来自这里),虽然只有9000个样本但质量很高,经过开源社区的人工仔细验证。

  这9000条样本用于微调大模型,比100万条指令微调(Instruction Finetune)样本的谷歌FLAN v2效果还好。

  研究团队也据此提出两个关键结论:

  数据质量 >> 数据数量

  指令微调有利于推理,但不利于聊天

  最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作Tim Dettmers估计以iPhone 12 Plus的算力每个晚上能微调300万个单词的数据量。

记者深度调查揭露盗刷链,神秘黑产盯上你的iPhone账号
“乐视 门 徒”海外现身,只要肯看广告、电视就能免费
我被裁员了,画的没有AI好
Ampere它能撼动市场既有格局吗,192核Arm服务器芯片发布
ChatGPT助推必应上位,百度暂别国内第一大桌面搜索引擎宝座
“新能源”、“数字化”成增长关键词,剖析成都A股13家“百亿军团
华语乐坛看钱说话,打折还是溢价
不妨跟欧洲球队上一节门票课,中超票务问题引热议
[ 最新资讯 ]

开源“原驼”爆火 iPhone都能微调大模型了,跑分达ChatGPT的99% 人类难以分辨

  5月25日讯:自动测试分数达到ChatGPT的99 3%,人类难以分辨两者的回答……  这是开源大模型最新成果,来自羊驼家族的又一重磅成员— ...

英特尔公布AI大模型Aurora genAI,参数是ChaGPT的近6倍 具备1万亿参数

  5月25日讯:英特尔公布AI大模型Aurora genAI 具备 1 万亿参数  据 wccftech 报道,英特尔近日公布了旗下生成式 AI 大模型 A ...

在AI领域 这件事微软都说难,微软CTO对谈ChatGPT背后的男人

  5月25日讯:微软在西雅图召开一年一度的Build开发者大会,微软CEO萨提亚·纳德拉宣布,在Windows11中加入一个名为Copilot的AI助手。此 ...

海外new things|「Mitiga」帮助企业规避气候风险,完成1440万美元A轮融资

  5月25日讯:当前人类面临着巨大的气候挑战,全球变暖正在削弱传统自然灾害风险建模的有效力,这些基于过去经验而建立的概率模型开始失 ...

筹划资产置换投身文创产业园,“中国日化第一股”不想努力了

  5月25日讯:广州浪奇在行业转型期未能抓住成长时机,市场份额被其他品牌迅速蚕食,日化业务也成为了连年亏损的不良资产。近几年,广州 ...

呐喊式带货走到尽头了,董洁、章小蕙相继出圈

  5月24日讯:章小蕙在小红书上开启了个人直播首秀。6小时的直播,章小蕙直播间GMV达到了6亿元,观看人数近百万。或许连章小蕙自己都没预 ...