一、模型介绍
InternLM 是一系列多语言基础模型和聊天模型。
InternLM2.5 系列,具有以下特点:
- 出色的推理能力 :数学推理性能达到世界先进水平,超越 Llama3、Gemma2-9B 等模型。
- 1M 上下文窗口 :在 1M 长上下文中几乎完美地找到大海捞针,在 LongBench 等长上下文任务上具有领先的性能。尝试使用 LMDeploy 进行 1M 上下文推理。更多详细信息和文件聊天演示请参见此处。
- 工具使用能力更强 :InternLM2.5 支持从 100 多个网页收集信息,相应的实现将很快在 Lagent 中发布。InternLM2.5 在指令跟踪、工具选择和反思方面具有更好的工具利用相关能力。参见示例。
二、模型搭建流程
1. 创建容器实例
(1)进入算家云的“应用社区”,点击搜索找到"internlm/1.8b",点击“创建应用”,即可进入容器平台
(2)点击进入之后会自动匹配模型,选择显卡,点击“立即创建”即可创建实例
也可以点击”专业创建“,自主选择 GPU 型号、计费方式等配置
2. 启动项目
等待实例启动完成,在“项目实例”页面点击对应实例的“Web SSH”操作。
3. 终端操作
进入命令操作页后,输入或者复制粘贴一下命令
cd /InternLM/
conda activate internlm
streamlit run ./chat/web_demo.py --server.port 8080
4. 开启外部访问
返回“项目实例”列表,选择并点击对应实例的“更多”-“开放端口”操作。
5. 获取访问地址,并开始使用
打开浏览器,在地址栏 Ctrl+V 粘贴复制的访问地址进行访问,即可开始使用InternLM。
以上就是在算家云搭建 InternLM 的流程,具体使用方式可进入算家云应用社区查看该模型的使用说明。
复制下方网址,进入算家云,选择模型,一键开启 AI 之旅!
算家云应用社区 www.suanjiayun.com/container/#/mirror