这场攻击的核心目标直指AI开发的关键基础设施。作为连接开发者与OpenAI、Anthropic等上百个语言模型的适配层,LiteLLM在GitHub拥有超4万星标,月下载量达9700万次。其独特价值在于将不同API统一为标准格式,使开发者能用一套代码调用多个模型。更关键的是,许多企业将其作为"AI网关"管理模型调用权限和成本追踪,这种枢纽地位使其成为黑客的完美目标。
攻击者采用极具隐蔽性的技术手段实现渗透。通过获取PyPI账号权限后,他们未直接修改核心代码,而是植入名为litellm_init.pth的特殊文件。这种以.pth结尾的文件在Python环境中具有最高执行优先级,能在解释器启动时自动运行。恶意代码被隐藏在Base64编码中,启动后会扫描系统环境变量、配置文件等,窃取OpenAI密钥、云服务凭证、SSH密钥等敏感信息。
目前官方已删除被污染的1.82.7和1.82.8版本,但风险仍未完全解除。已安装这两个版本的开发者需立即手动回滚至1.82.6,因为.pth文件特性使恶意代码可能持续运行。更严峻的是,这种攻击模式可能引发连锁反应——任何依赖LiteLLM的工具或框架,包括OpenClaw等AI Agent平台,都可能成为二次传播渠道。
供应链攻击的防范面临结构性挑战。攻击成本与收益的严重失衡使此类事件难以杜绝:一行恶意代码通过高频依赖可影响数万项目,而防御方需为每个依赖项付出审计成本。这种不对称性迫使行业探索新解决方案,如沙箱隔离、权限最小化、运行时审计等机制开始在OpenClaw等平台应用。
开发者社区正形成新的安全共识。越来越多人采用沙箱模式运行AI工具,通过Docker实现环境隔离,严格执行最小权限原则,并定期轮换API密钥。这种转变标志着开发者从"默认信任"转向"默认怀疑",在追求功能创新的同时,将安全防护置于同等重要地位。




