HuggingFace 是展开目前最热门的模型托管平台 ,
网络安全研究人员 Karlo Zanki 就注意到该平台出现两个包含恶意代码的攻击机器学习模型 ,
所以各位在网上下载模型时也需要提高警惕 ,蓝点
对提取出来的黑客含恶内容进行分析后,分析发现模型包含的传包恶意负载会连接到某个硬编码的 IP 地址 ,因此也总有些黑客试图通过该平台展开攻击。意代#人工智能 黑客在 HuggingFace 上传包含恶意代码的码的模型 AI 模型对开发者展开攻击,尽可能选择经过认证的对开公司 / 开发者 。
具体来说黑客创建的这些模型通过 PyTorch 格式存储,这些模型通过技术手段绕过 HuggingFace 的攻击安全性检测 。但被识别出来的这两个恶意模型使用 7z 格式压缩。但此次黑客使用的方式可以绕过检测。
HuggingFace 使用名为 Picklescan 的工具检测恶意模型,这是压缩的 pickle 文件,应该是利用 shell 收集信息并对开发者展开攻击。该工具本质是就是用来检测可疑的 Pickle 文件 ,默认情况下 PyTorch 使用 ZIP 格式进行压缩 ,另一方面也要确认模型的发布者 ,借助 shell 收集设备信息并对开发者展开攻击 。
这两个恶意模型名称:
glockr1/ballr7
who-r-u0000/0000000000000000000000000000000000000