72_LLMs_对比篇
文章目录
扫码 查看更
LLMs 训练数据 和 数据量 对比如何?
模型 | 训练数据 | 数据量 | C | |
LLaMA | 以英语为主 的拉丁语系 | 1T/1.4T tokens | ||
LLaMA2 | 以英语为主 的拉丁语系 | 2T tokens | ||
Falcon | 英语、法语 | 1.5T tokens | ||
Bloom | 46种自然语 言和13种编 程语言 | 350B tokens | ||
ChatGLM -6B | 中英双语 中英文比例 为1:1 | 1T tokens | ||
ChatGLM 2-6B | 中英双语 中英文比例 为1:1 | 1.4T tokens | ||
balchuan | 中英双语 | 1.2T | ||
tokens |
文章作者 大模型
上次更新 2025-03-09