开源之路
书生·浦语是致力于大模型研究与开发工具链的开源组织,旨在为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及。
- 2023.06.07:发布浦语系列首个千亿参数模型
- 2023.07.06:InternLM-7B开源免费商用,发布全链条开源工具体系
- 2023.09.20:InternLM-20B开源,开源工具链全线升级
- 2023.09.27:开源书生·浦语灵笔(InternLM-XComposer),首个图文混合创作大模型
- 2024.01.17:开源InternLM2,性能超最新同量级开源模型
- 2024.01.23:发布InternLM2-Math,首个同时支持形式化数学语言及解题过程评价的开源模型
- 2024.01.29:发布书生·浦语灵笔2(InternLM-XComposer2),支持个性化高质量图文创作和对话
- 2024.05.24:开源InternLM2-Math-Plus,刷新开源数学模型性能上限
- 2024.06.04:开源InternLM2-WQX,以20B参数在2024高考中取得接近GPT-4o的成绩
- 2024.06.30:发布InternLM2.5-1.5B、7B、20B等模型
开源工具链
书生开源了一系列大模型工具,涵盖了数据收集、预训练、微调、部署和评测全链条流程。
- 万卷-CC:从CommonCrawl提取的1T tokens高质量英文网络文本数据集
- InternEvo:轻量级大模型预训练框架,旨在训练时能摆脱安装大量库及处理复杂依赖关系
- XTuner:集成主流PEFT参数高效微调方法的轻量化微调工具
- LMDeploy:大模型轻量化部署与高效服务化
- OpenCompass:全面、客观、中立、可复现的大模型评测工具与榜单