- 代码仓
- 专用模型
- 通用大模型
- 一个模型对应多种任务、多种模态
- 超长上下文
- 模型在20万token 上下文中,几乎完美实现“大海捞针”
- 综合性能全面提升
- 推理、数学、代码提升显著
- InternLM2-Chat-20B 在重点测评上比肩ChatGPT
- 优秀的对话和创作体验
- 精准指令跟随,丰富的结构化创作,在AlpacaEval2超越GPT-3.5 和Genimi Pro
- 工具调用能力整体升级
- 可靠支持工具多轮调用,复杂智能体搭建
- 突出的数理能力和实用的数据分析功能
- 强大内生计算能力,加入代码解释后,在GSM8K 和MATH 达到和GPT-4 相仿水平
- 在经典评测集、大规模榜单上整体的效果
- 考虑业务场景是不是复杂, 复杂的话需要微调
- 全参微调
- 部分参数微调
- 在业务系统里面,是否有一些外部的API或者工具需要去做交互
- 需要的话,进一步构建智能体
-
数据
- 书生 · 万卷
- 1.0
- CC
- 2013-2023
- 2TB 数据 , 涵盖多模态与任务
- opendatalab
- 书生 · 万卷
-
预训练
-
微调
-
部署
-
评测
-
应用