开源大模型的“源”到底是什么?

13次阅读

共计 297 个字符,预计需要花费 1 分钟才能阅读完成。

我们都知道开源指的是开放源代码,理论上来说,任何人都可以通过源码仓库实现自构建、自部署、自托管,做出跟原作者类似的应用。
那么大型语言模型的“源”指的是什么?

英文太烂看不懂 hugging face 里的说明😂
我目前理解的只有数据集(一大堆结构化的文本),其他的诸如参数、训练方法、预训练模型具体指的是啥?除了前述这些,还有遗漏的吗?

巧合的是那年 Llama 在 2 月开源,百度文心、阿里通义和腾讯混元都先后实现了“全链路自研”,我比较好奇 Llama 自己是依赖哪位前者?它有声明学习对象吗?

更想引出一个一直疑惑的点,各种五花八门的开源许可证到底是国际通用的、具有实际效力的条款文件,还是纯粹的“君子协议”?😂

正文完
 0