简要介绍
随着人工智能技术的快速发展,AI大模型DeepSeek部署需求日益增长。然而,在享受AI技术带来便利的同时,我们也不能忽视其背后潜在的安全风险。
近期有关DeepSeek本地部署存在安全风险事件的报道引发了关注,其中Ollama服务作为一个重要的开源框架,因其配置导致的安全风险受关注。本文将分析这一问题,并提供安全加固方案。
安全风险原因
什么是Ollama?
Ollama是一个开源框架,用于快速部署和运行大型语言模型(LLM)。用户可以轻松、方便地在本地、公有云、私有云部署、运行AI模型。然而,这种便利性也带来了潜在的安全风险。
安全风险的核心问题
有些部署Ollama服务将IP地址绑定到0.0.0.0地址,并开放TCP 11434端口。这意味着任何能够访问该IP地址的,都可以通过网络连接到你的模型。
攻击者可以利用以下方式,发现暴露在互联网上Ollama服务端口:
使用网络空间测绘、漏洞扫描、端口扫描工具等。
安全风险:暴露在互联网上Ollama服务端口
安全风险自查
方法一
检查Ollama启动时执行命令:
set OLLAMA_HOST=0.0.0.0
方法二
检查Ollama的config配置文件
"host":"0.0.0.0"
方法三
检查系统环境变量
OLLAMA_HOST
0.0.0.0
提供以上三种方法,进行安全自查。如果发现host=0.0.0.0,即判定存在安全风险,需要做相关的安全加固。参考下文:
安全加固
方法一
修改IP地址
把Ollama host 地址改为本机或者内网IP地址,比如:127.0.0.1、192.168.x.x。
方法二
Windows操作系统
运行wf.msc
Windows Defender 防火墙
右键"入站规则" → "新建规则"
选择"端口" → TCP → 特定本地端口:11434
选择"阻止连接" → 应用到配置文件
方法三
Debian Ubuntu Kali 操作系统
使用 iptables
sudo iptables -A INPUT -p tcp --dport 11434 -j DROP
方法四
RedHat CentOS 操作系统
使用 firewall-cmd
sudo firewall-cmd --permanent --add-rich-rule='rule family="ipv4" port port="11434" protocol="tcp" reject'
sudo firewall-cmd --reload
提供以上Windows系统和Linux系统相关方法,实现关闭11434服务端口,仅供参考。
如果需要对特定IP地址开放11434服务,请自行编写相关命令。
总结
通过实施以上安全加固措施,可以显著降低本地部署DeepSeek服务的安全风险,构建一个更加安全可靠的AI模型运行环境。以下是我个人的几点建议:
1、遵循最小化原则:仅开放必要的网络端口,并限制访问范围。
2、定期检查与更新:保持对Ollama版本的持续关注,即时更新版本。
3、多层防护策略:结合防火墙、IP白名单等手段,构建多层次安全防护体系。