您的位置:首页 > 文旅 > 旅游 > 建网站选服务器_做展馆的公司有哪些_培训中心_网络营销推广方式包括

建网站选服务器_做展馆的公司有哪些_培训中心_网络营销推广方式包括

2025/4/5 11:01:25 来源:https://blog.csdn.net/GentelAi/article/details/146982729  浏览:    关键词:建网站选服务器_做展馆的公司有哪些_培训中心_网络营销推广方式包括
建网站选服务器_做展馆的公司有哪些_培训中心_网络营销推广方式包括

SafeLLMDeploy:保护本地大语言模型安全部署的“守护者”

在AI技术飞速发展的今天,大语言模型(LLM)如GPT、DeepSeek等正以前所未有的方式改变着我们的工作和生活。然而,本地部署这些强大的AI系统在带来便利的同时,也伴随着不容忽视的安全隐患。数据泄露、未授权访问、恶意攻击——这些威胁让企业和开发者在本地部署LLM时如履薄冰。

如何在享受AI红利的同时,确保本地模型的安全稳定运行?SafeLLMDeploy应运而生,专注于本地AI部署中的安全问题,为LLM的安全部署提供了一套全面、易用的解决方案!

为什么需要SafeLLMDeploy?

随着LLM在各行各业的广泛应用,越来越多的用户选择在本地部署模型,以保护数据隐私、降低延迟并实现更灵活的控制。然而,本地部署LLM服务同样面临诸多安全风险:

  • 数据泄露:本地存储的敏感数据可能因配置不当或漏洞被窃取。

  • 未授权访问:缺乏有效的访问控制,本地服务可能被非法用户或恶意软件访问。

  • 恶意攻击:本地服务可能遭受暴力破解、DDoS攻击等威胁,导致服务中断或数据损坏。

Ollama 信息泄露漏洞(CVE-2024-39719)

高危(CVSS评分7.5)

Ollama 0.3.14 及之前版本存在信息泄露漏洞,该漏洞源于/api/create端点对路径参数处理不当。攻击者可以通过发送包含不存在的文件路径参数的恶意请求,利用该漏洞确定服务器上文件的存在性,从而可能泄露敏感信息。

Ollama DNS 重绑定漏洞(CVE-2024-28224)

高危(CVSS评分8.8)

Ollama 在 0.1.29 版本之前存在一个 DNS 重绑定漏洞,可能允许远程访问完整 API,从而让未经授权的用户与大型语言模型聊天、删除模型或导致拒绝服务(资源耗尽)。

Ollama 拒绝服务漏洞(CVE-2024-39721)

高危(CVSS评分7.5)

Ollama 在 0.1.34 版本之前存在一个拒绝服务漏洞,该漏洞存在于Ollama的/api/create端点中,CreateModelHandler函数未对用户控制的req.Path参数进行适当验证。攻击者可以通过向该端点发送包含特殊文件路径(如/dev/random)的POST请求,使程序进入无限循环,耗尽系统资源,最终导致拒绝服务。

Ollama 拒绝服务漏洞(CVE-2024-39720)

高危(CVSS评分8.2)

在 Ollama 0.1.46 之前的版本中发现了一个漏洞。攻击者可以利用两个 HTTP 请求上传一个仅包含以 GGUF 自定义魔术头开始的 4 个字节的畸形 GGUF 文件。通过利用一个包含指向攻击者控制的 blob 文件的 FROM 语句的自定义 Modelfile,攻击者可以通过 CreateModel 路由使应用程序崩溃,导致段错误。

特别是,目前使用最为广泛的本地部署工具Ollama,虽然简化了LLM的部署流程,但其安全性配置往往需要用户手动处理,稍有不慎便可能埋下隐患。SafeLLMDeploy项目正是在这一背景下诞生的,托管于GitHub(https://github.com/IFRC-ZJU-Edu/SafeLLMDeploy),专注于解决本地AI部署中的安全挑战,尤其是Ollama部署本地大模型时遇到的安全问题。通过自动化脚本和配置文件,该项目帮助用户快速、简便地为本地LLM服务部署一套坚固的安全防护体系,让企业用户、开发者以及研究人员在本地部署LLM时高枕无忧。

SafeLLMDeploy如何保护您的本地LLM?

图片

SafeLLMDeploy针对本地AI部署中的安全痛点,特别是ollama等工具在部署LLM时可能面临的风险,提供了直接或间接的解决方案,包括但不限于以下几个方面:

  1. 自动化安全配置:项目提供了一系列自动化脚本,负责安装和配置防火墙、访问控制和安全服务,确保本地LLM服务在启动时即受到保护,降低因手动配置失误带来的风险。

  2. 精细的访问控制:通过集成nftables防火墙,用户可以轻松设置IP和端口白名单,确保只有授权的客户端能够访问本地LLM服务,有效防止未授权访问。

  3. 服务保护与监控:项目集成了Fail2Ban等工具,能够自动检测并阻止恶意登录尝试和异常流量,保护本地服务免受暴力破解或DDoS攻击的威胁。

  4. 灵活适配本地需求:SafeLLMDeploy采用模块化设计,用户可以根据具体的本地部署场景灵活调整安全策略,确保解决方案切实可行。

Quick Start:三步搞定SafeLLMDeploy部署!

图片

想让本地大模型(LLM)部署既安全又简单?SafeLLMDeploy就是您的最佳选择!无论您是AI新手还是老司机,只需轻松三步,就能为您的本地LLM服务加上一层坚实的安全保护。以下是超清晰的Quick Start指南,跟着走,3分钟上手!

第一步:下载项目到本地

打开终端(目前对于mac用户和linux有较好的支持),输入以下命令,把SafeLLMDeploy“搬”到您的设备上:

git clone git@github.com:IFRC-ZJU-Edu/SafeLLMDeploy.git
cd SafeLLMDeploy

这步很简单,就是把项目代码下载下来,并进入项目文件夹,为下一步做好准备。

第二步:设置您的安全“门禁”

安全第一!在运行脚本之前,您需要告诉SafeLLMDeploy,谁能访问您的服务,哪些端口可以用。操作如下:

  • 打开nftables/目录下的whitelist_ips.txt,每行输入一个允许访问的IP地址(比如192.168.1.1)。

  • 打开whitelist_ports.txt,每行输入一个允许的端口号(比如11433)。

小贴士:

  • 不确定怎么填?可以参考项目文档里的示例,或者先用默认设置试试。

  • 记得根据自己的网络环境调整,避免拦住“自己人”!

第三步:一键启动安全保护

配置好了?现在只需运行脚本,SafeLLMDeploy就为您保驾护航了!在终端输入:

chmod +x scripts/install.sh
sudo ./scripts/install.sh

注意:

  • 需要管理员权限,所以别忘了加sudo(Linux/Mac用户)或以管理员身份运行(Windows用户)。

  • 脚本跑完后,防火墙、Fail2Ban等安全服务会自动启动,您的LLM就有了“安全铠甲”!

特别加分:完美适配ollama

SafeLLMDeploy 对 Ollama 的部署环境进行了特别强化。Ollama 默认使用 11434 端口进行服务通信,但该端口默认暴露在公网环境下,存在一定的安全风险。

SafeLLMDeploy 自动将来自公网的对 11434 端口的请求通过安全代理转发到本地的 11433 端口,配合防火墙(nftables)、访问控制(Fail2Ban)和密钥访问机制,实现以下安全策略:

[公网访问:11433] ---> [Nginx反向代理+ACL+密钥访问] ---> [本地:11434(Ollama服务)]
  • 拒绝未授权访问 11434 端口;

  • 拒绝错误密钥访问;

  • 只允许通过白名单 IP 访问安全代理端口 11433

  • 提供对可疑访问的自动封禁机制;

  • 避免直接暴露 LLM 服务核心端口,提升部署安全性。

你无需修改 Ollama 的默认设置,只需运行本项目的安装脚本,即可获得增强的部署防护。

图片


部署小提醒

  • 权限:没用sudo可能会报错,记得检查权限哦!

  • 白名单:IP和端口没设好,可能连不上服务,建议提前确认。

  • 服务管理:想手动开关服务?用scripts/start.sh就行。

为什么选SafeLLMDeploy?

  • 超简单:三步部署,小白也能上手!

  • 超安全:专为本地LLM打造,保护您的模型不被“偷窥”。

  • 超贴心:开源免费,支持社区随时答疑。

访问https://github.com/IFRC-ZJU-Edu/SafeLLMDeploy,可克隆项目。

结语

在AI时代,安全是技术进步的基石。SafeLLMDeploy不仅是一个工具,更是一套理念:让LLM的安全部署变得触手可及。


内容来源:IF 实验室

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com