JFrog 安全团队在 AI 模型共享平台 Hugging Face 上发现了至少 100 个恶意 AI ML 模型,部分恶意模型能在受害者机器上执行代码,提供持久后门。安全研究人员扫描了平台上的 PyTorch 和 Tensorflow Keras 模型,发现了 100 个含有恶意功能的模型,如名叫 baller423 的用户上传的模型能指定主机 210.117.212.93 建立反向 shell,该模型已被删除。研究人员表示部分恶意模型可能是出于安全研究的目的上传的,旨在发现漏洞获取赏金。
https://www.bleepingcomputer.com/news/security/malicious-ai-models-on-hugging-face-backdoor-users-machines/