首页 > 资讯中心 > 李开复回应大模型套壳LLaMA:受益于开源也贡献开源

李开复回应大模型套壳LLaMA:受益于开源也贡献开源

时间:2023年11月16日 分类:资讯中心 浏览量:61

DoNews11月16日消息,针对近日零一万物被质疑完全使用 LLaMA 架构,只对两个张量(Tensor)名称做修改,李开复在朋友圈进行了回应。

IT之家报道,李开复表示:“全球大模型架构一路从 GPT2 –> Gopher –> Chinchilla –> Llama2 –> Yi,行业逐渐形成大模型的通用标准,就像做一个手机 App 开发者,不会去自创 iOS、Android 以外的全新基础架构。01.AI 起步受益于开源,也贡献开源,从社区中虚心学习,我们会持续进步。”

创新工场董事长兼 CEO 李开复于 2023 年创办了 AI 大模型创业公司“零一万物”,该公司已推出 Yi-34B 和 Yi-6B 两个开源大模型,号称对学术研究完全开放,同步开放免费商用申请。

然而在 Yi-34B 的 Hugging Face 开源主页上,开发者 ehartford 质疑称该模型使用了 Meta LLaMA 的架构,只对两个张量(Tensor)名称进行了修改,分别为 input_layernorm 和 post_attention_layernorm。

零一万物开源团队总监 Richard Lin 回应称,这一命名问题是开发人员疏忽导致,开发人员在代码中进行了几次重命名,以满足实验要求。但是开发人员“忘记将张量名称修改回 LLaMA”,开发人员对此感到抱歉。

值得一提的是,原阿里首席 AI 科学家贾扬清吐槽国内某一新模型中用的其实是 LLaMA 架构,仅在代码中更改了几个变量名引发网络热议。在被指大模型回应并发布训练模型过程后,贾扬清最新发文,表示开源领域“魔改”要不得。

15日,零一万物官方对 Yi-34B 训练过程进行了说明,表示大模型持续发展与寻求突破口的核心点不仅在于架构,而是在于训练得到的参数。

文章来源:DoNews

本站声明:网站内容来源于网络,如有侵权,请联系我们,我们将及时处理。

标签:

最新文章