首页 新闻内容详情

国产大模型被抄袭事件告终 斯坦福团队致歉并撤下模型 面壁:知错能改,善莫大焉

2024-06-06 828 区块链百科
国产大模型被抄袭事件告终 斯坦福团队致歉并撤下模型 面壁:知错能改,善莫大焉

站点名称:国产大模型被抄袭事件告终 斯坦福团队致歉并撤下模型 面壁:知错能改,善莫大焉

所属分类:新闻

官方网址:

SEO查询: 爱站网 站长工具

进入网站

站点介绍

文章来源: 网易科技 原文链接:https://mp.weixin.qq.com/s/qxdHa4-vm6N4SuB3Slv-Og

 

出品|网易科技《度》

 

作者|丁广

 

 

斯坦福Llama3-V团队于向面壁智能团队正式道歉。

 

事情起于5月29日,斯坦福大学的一个研究团队发布了一个名Llama3V的模型,号称只要500美元就能训练出一个 SOTA 多模模型,且效果比肩 GPT-4V、Gemini Ultra 与 Claude Opus。

 

时间备受关注,AI团队背景豪。3名作者有斯坦福大学、特斯拉、SpaceX的名校和企背景。

 

 4b2a5d2160ce89f920330ac0487b5aba_Fh4poeyWzHqnlEvTJwS0bY8JTBMw.jpg

 

人大跌眼的是,Llama3V与中国AI企面壁智能在5月布的8B多模开源小模型MiniCPM-Llama3-V 2.59高度重合。

 

6月2日,有人在 Llama3-V的 Github 目下提出疑,但留言很快被除。而后,事件引起面壁智能团队注意。

 

面壁团队过测试发现斯坦福大模型目Llama3-V与MiniCPM一,可以识别出“清华简国古文字,“不仅对得一模一连错得都一模一

 

最后,斯坦福Llama3-V团队的两位作者Siddharth Sharma和 Aksh Garg在X上就抄向面壁智能团队正式道歉,并表示会将Llama3-V模型撤下。

 

 

 

事件各方表

 

 

面壁智能CEO李大海针对斯坦福团队的Llama3V目与面壁小炮的相似案例到,这项工作是团队同学耗数个月,从卷帙浩繁的清华简中一个字一个字描下来,并逐一行数据注,融合模型中的。更加tricky的是,两个模型在高斯扰动验证后,在正确和错误方面都高度相似。

 

 87bdcf5ee9c7f507397b2f4714557346_Fu0E2j8HiAFTsiiSBLjin2b5HhYl.jpg

 

 

李大海无奈的道,技术创新不易,每一工作都是团队夜以日的果,也是以有限算力全世界技术进步与展作出的真奉献。我希望团队的好工作被更多人关注与可,但不是以种方式。

 

“我们对这件事深表憾!一方面感慨也是一种受到国际团队认可的方式,另一方面也呼吁大家共建开放、合作、有信任的社区境。一起加油合作,世界因AGI的到来得更好!”

 

此,面壁智能始人、首席科学家刘知也作出回

 

刘知表示,已确信Llama3-V是MiniCPM-Llama3-V 2.5套壳,比有意思的据是MiniCPM-Llama3-V 2.5研发时内置了一个彩蛋,就是华简识别能力。是我从清华简逐字描并注的数据集,并未公开,而Llama3-V展出了一模一的清华简识别能力,例都一

 

“人工智能的展离不开全球算法、数据与模型的开源共享,可以站在SOTA的肩上持。我们这次开源的 MiniCPM-Llama3-V 2.5就用到了最新的Llama3作为语言模型基座。而开源共享的基石是开源协议的遵守,其他献者的信任,前人成果的尊重和致敬。”

 

刘知指出,Llama3-V团队无疑重破坏了一点。他在受到疑后已在Huggingface删库该团队三人中的两位也只是斯坦福大学本科生,未来有很的路,如果知能改,善莫大焉。

 e6d0b9c240659ad77f3e55f27275afc4_FmWItcD0aWBsZzVsRgOagPxIqVKN.jpg

 

 

刘知远谈到,次事件还让我感慨的是去十几年科研经历的斗星移。回想2006年我,大家的主要目标还是能不能在国际顶级文;到2014年我开始做老师时,就只有得国著名会的最佳文等重要成果,才有机会登上系里的新;2018年BERT出来,我们马上看到了它的革意,做出了知预训练模型ERNIE在ACL 2019上,当站到国前沿了;2020年OpenAI布了1700+亿参数GPT-3,清醒认识到与国际顶尖成果的差距,知耻而后勇开始了“大模型”的探索;2022年底OpenAI推出的ChatGPT,大众真切感受到AI域国内外的差距,特是2023年Llama等国开源模型布后,开始有“国外一开源、国内就自研”法;而到了2024年的今天,我应该看到国内大模型团队如智-GLM、阿里Qwen、DeepSeek和面壁-清OpenBMB正在通的开源共享,在国上受到了广泛的关注和可,次事件也算面反映我新成果也一直受到国关注。

 

他提到,从横向来看,我们显然仍与国际顶尖工作如Sora和GPT-4o有著差距;同,从向来看,我从十几年的nobody,快速成长为人工智能科技新的关者。面向即将到来的AGI代,我们应该更加自信极地投身其中。

 

 

面壁小

 

 

今年5月,面壁小炮 MiniCPM 系列,再次推出最多模模型 MiniCPM-Llama3-V 2.5,且支持30+ 多种言。

 

 60050eeee3fe01de933a5bd9e41064c0_FmWDWG_87i2ZbFN9Hd3ZrOIsuRXQ.jpg

 

MiniCPM  是以「以小博大」著称的旗模型,也不断推新端多模能力天花板—— MiniCPM-Llama3-V 2.5实现了「以最小参数,撬性能」的最佳平衡点。

 ee8276279f650522417ce1ecd9102b20_FpsxGHM0rMZEBcRM-45IqnkI05sB.jpg

 

OpenCompass 单变示小参数、高性能模型成为趋势

评测结果看,MiniCPM-Llama3-V 2.5以8B 端模型参数量献了惊的  OCR(光学字符识别)SOTA 成,以及端模型中的最佳多模态综合成与幻能力水平。

 

 61a2140ec55397f472d9f2fceaf9585a_FnICDg0AshMD2v0OgMTbtxfvTK9D.jpg

 

评测权威平台 OpenCompass 上,MiniCPM-Llama3-V 2.5以小博大,合性能超越多模巨无霸” GPT-4V 和 Gemini Pro。

 

OCR(光学字符识别)是多模大模型最重要的能力之一,也是考察多模态识别与推理能力的硬核指。新一代 MiniCPM-Llama3-V 2.5在 OCR 合能⼒权威榜 OCRBench 上,越超越了 GPT-4o、GPT-4V、Claude 3V Opus、Gemini Pro 等杆模型,实现了性能 SOTA。

 

估多模大模型性能可靠性的重要指——幻能力上,MiniCPM-Llama3-V 2.5在 Object HalBench 榜上超越了 GPT-4V 等众多模型(注:目应为0)。

 

在旨在估多模模型的基本现实世界空理解能力的 RealWorldQA 榜上,MiniCPM-Llama3-V 2.5再次超越 GPT-4V 和 Gemini Pro,这对8B 模型而言能可

 

得注意的是,模型首次行端加速,MiniCPM-Llama3-V 2.5已高效部署手机。

 

编码方面,面壁首次整合 NPU 和 CPU 加速框架,并存管理、编译优化技,在 MiniCPM-Llama3-V 2.5编码方面实现了150倍加速提升。

 

言模型推理方面,目前开源社区的果中,Llama 3言模型在手机端的解速度在0.5 token/s 上下,相比之下,多模大模型的端运行面着更大的效率挑经过 CPU编译优化、存管理等化方式,面壁将 MiniCPM-Llama3-V 2.5在手机端的言解速度提升到3-4 token/s。

 

 cf428946af1e8c1c39a6c152f93fb86b_FtvwvLqcBg9h9b-NpF0AT5s2_yEN.jpg

 

于常的中英双模型,MiniCPM-Llama3-V2.5可支持30+ 多种言,包括德、法、西班牙、意大利、俄等主流言,基本覆盖一一路国家。

 

总结起来就是,通一系列自研技,小炮系列开的高清识别(1344 * 1344分辨率)、大 OCR 能力等,仍得到延。8B 体量的新一代 MiniCPM-Llama3-V 2.5,仍来一系列惊亮点。

 

- 多模态综合性能:超越多模巨无霸 Gemini Pro 、GPT-4V

- OCR 能力 SOTA!180万像素更清晰,难图长图长文本精准识别

- 量化后8G存,4070松推理,并可在手机端以6-8tokens/s 速度高效运行;

- 编码快150倍!首次端统级多模加速;

- 支持30+ 多种

 

面壁小炮系列的最新模型,MiniCPM-Llama3-V 2.5在主流评测基准的多模态综合性能达到了 GPT-4V 水平,具有秀的 OCR 能力、任意长宽比高清理解能力、可信回答能力和多言交互能力。

 

面壁方面表示,通一系列端侧优化技模型可以在手机端部署及高效运行。MiniCPM-Llama3-V 2.5展示出了端多模大模型的巨大潜力,相信在不久的将来,会有更多更加力的大模型出在用端,提供可靠安全的智能服,提升用生活工作效率,惠及更多景。

 

本文接:https://www.aixinzhijie.com/article/6845972

转载请注明文章出


浏览统计(最近30天)