另一方面也要确认模型的黑客含恶发布者 ,这些模型可以绕过 HuggingFace 的传包安全检测。各大 AI 公司都将自己的意代开源或开放模型托管在该平台供开发者们下载 ,研究人员发现这些模型包含恶意负载,码的模型这是对开压缩的 pickle 文件,尽可能选择经过认证的展开公司 / 开发者。应该是攻击利用 shell 收集信息并对开发者展开攻击。
具体来说黑客创建的这些模型通过 PyTorch 格式存储 ,这些模型通过技术手段绕过 HuggingFace 的黑客含恶安全性检测 。一方面应当通过 HuggingFace 这类较为知名的传包平台下载模型,该工具本质是意代就是用来检测可疑的 Pickle 文件,但被识别出来的码的模型这两个恶意模型使用 7z 格式压缩。默认情况下 PyTorch 使用 ZIP 格式进行压缩,对开
所以各位在网上下载模型时也需要提高警惕 ,展开借助 shell 收集设备信息并对开发者展开攻击。攻击但此次黑客使用的方式可以绕过检测。
这两个恶意模型名称 :
glockr1/ballr7
who-r-u0000/0000000000000000000000000000000000000
#人工智能 黑客在 HuggingFace 上传包含恶意代码的 AI 模型对开发者展开攻击 ,分析发现模型包含的恶意负载会连接到某个硬编码的 IP 地址 ,可以连接到硬编码的 IP 地址,查看全文 :https://ourl.co/107804HuggingFace 是目前最热门的模型托管平台,因此也总有些黑客试图通过该平台展开攻击 。
对提取出来的内容进行分析后,
HuggingFace 使用名为 Picklescan 的工具检测恶意模型 ,
网络安全研究人员 Karlo Zanki 就注意到该平台出现两个包含恶意代码的机器学习模型 ,