您现在的位置是:亿华灵动 > 数据库
研究人员发现新型攻击方式,可通过图像和音频操纵大模型
亿华灵动2025-11-26 21:32:46【数据库】5人已围观
简介随着大语言模型LLM)开始整合多模态功能,攻击者可能会在图像和音频中隐藏恶意指令,利用这些指令操纵AI聊天机器人例如ChatGPT)背后的LLM对用户提示的响应。在2023年欧洲黑帽大会上表示,研究人
随着大语言模型(LLM)开始整合多模态功能,研究音频攻击者可能会在图像和音频中隐藏恶意指令,发现方式利用这些指令操纵AI聊天机器人(例如ChatGPT)背后的新型像和型LLM对用户提示的响应。在2023年欧洲黑帽大会上表示 ,攻击过图研究人员指出,可通这样的操纵攻击方式将很快称为现实 。

简单来说 ,大模攻击者可能会利用这些所谓的研究音频“间接提示注入”攻击,将用户重定向到恶意URL ,发现方式从用户那里提取个人信息 ,新型像和型传递有效载荷,攻击过图以及采取其他恶意行动 。可通随着LLM日益成为多模态或能够对结合文本 、建站模板操纵音频、大模图片乃至视频的研究音频上下文输入作出回应 ,此类攻击可能会成为一个重大问题。
隐藏在图像和音频中的恶意指令在本周举办的2023年欧洲黑帽大会上,康奈尔大学的研究人员将展示他们开发的一种攻击 ,该攻击利用图像和声音向多模态LLM注入指令,导致模型输出攻击者指定的文本和指令。他们的概念验证攻击示例针对的是源码下载PandaGPT和LLaVa多模态LLM。
研究人员在一篇题为“滥用图像和声音进行多模态LLM中的间接指令注入”的论文中写道 :“攻击者的目标是引导用户与多模态聊天机器人之间的对话。”为此,攻击者将提示融入图像或音频片段,并操纵用户询问聊天机器人有关它的问题 。”研究人员计划展示一旦聊天机器人处理了输入,它将输出隐藏在音频或图像文件中的攻击者注入的提示,或者遵循攻击者可能在提示中包含的云计算任何指令 。
例如,研究人员将一条指令混合到在线可用的音频片段中 ,导致PandaGPT响应攻击者特定的字符串 。如果用户将音频片段输入聊天机器人,并要求描述声音,模型的响应将指导用户访问一个恶意URL ,表面上是为了了解更多关于制造声音的“非常罕见的鸟”。
在另一个示例中 ,研究人员将指令混合到一幢建筑物的模板下载图像中,如果用户将图像输入聊天机器人并询问有关它的问题 ,那么LLaVa将会像哈利·波特一样聊天。
康奈尔大学的研究员、报告的作者之一本·纳西(Ben Nassi)表示 ,他们研究的目标之一是找到一种方式 ,可以以用户无法察觉的方式间接地将提示注入到多模态聊天机器人中。另一个目标是确保他们能够“扰动”图像或音频 ,而不影响LLM正确回答有关输入的香港云服务器问题 。
纳西将这项研究描述为建立在其他人的研究基础上 ,这些研究展示了LLM如何容易受到提示注入攻击的影响,其中敌手可能以这样的方式设计输入或提示 ,以故意影响模型的输出 。一个最近的例子是谷歌DeepMind和六所大学的研究人员进行的一项研究 ,该研究表明,通过简单地引导ChatGPT重复某些单词,亿华云如“诗歌”和“公司” ,可以操纵ChatGPT重复大量其训练数据——包括敏感和个人身份信息 。
纳西和他的团队将在黑帽大会上展示的攻击不同之处在于它涉及间接提示。换句话说,用户不太像常规提示注入中的攻击者,而更像是受害者 。
“我们不将用户作为敌手,”康奈尔大学的研究员、报告的主要作者尤金·巴格达萨良(Eugene Bagdasaryan)说。报告的另外两位作者是康奈尔大学的研究员蔡宗瀛(Tsung-Yin Hsieh)和维塔利·什马蒂科夫(Vitaly Shmatikov) 。巴格达萨良补充说:“在这种情况下 ,我们展示了用户不知道图像或音频中包含有害的东西 。”
间接提示注入攻击这篇新论文并不是首次探讨间接提示注入作为攻击LLM的方式。今年5月 ,德国萨尔兰大学CISPA亥姆霍兹信息安全中心和Sequire Technology的研究人员发表了一份报告,描述了攻击者如何通过将隐藏的提示注入模型在响应用户输入时可能检索的数据中来利用LLM模型 。研究人员得出结论:“LLM功能的易扩展性通过自然提示可以实现更直接的攻击策略 。
然而,在那种情况下,攻击涉及策略性放置的文本提示 。巴格达萨良表示,他们的攻击不同,因为它展示了攻击者如何也将恶意指令注入音频和图像输入中 ,使它们潜在更难以检测 。
涉及操纵音频和图像输入的攻击的另一个区别在于 ,聊天机器人将在整个对话过程中继续以其受指示的方式响应。例如,引导聊天机器人以哈利·波特式的方式回应 ,即使用户可能已经停止询问特定的图像或音频样本 ,它也会继续这样做。
将用户引导至武器化图像或音频片段的潜在方法可能包括将用户通过网络钓鱼或社交工程诱骗至带有有趣图像的网页,或通过带有音频片段的电子邮件 。研究人员在他们的论文中写道:“当受害者直接将图像或片段输入到一个孤立的LLM并询问有关它的问题时,模型将受到攻击者注入的提示的引导 。”
这项研究很重要,因为许多组织正急于将LLM功能整合到他们的应用程序和操作中。那些设计出方法将有毒的文本 、图像和音频提示悄悄带入这些环境的攻击者可能会造成重大损害 。
参考来源:https://www.darkreading.com/vulnerabilities-threats/llms-open-manipulation-using-doctored-images-audio
很赞哦!(6318)
相关文章
- 移动恶意软件报告表明设备上的欺诈行为呈上升趋势,你注意到了吗?
- 联通满卡,让通信无忧(高速流量、超长有效期、全国覆盖,联通满卡成为用户首选)
- Win10XP双系统安装教程(详解Win10XP双系统安装步骤,轻松享受多系统带来的便利与灵活性)
- 双系统平板(一台平板满足工作和娱乐的需求,双系统平板是不二选择)
- 最快仅需两分钟,攻击者能迅速将暴露的敏感信息武器化
- 三星9510曲面手机(华丽外观、出色性能、无与伦比的用户体验)
- 深度剖析约爱吧,见证真爱的奇迹(探寻约爱吧的优势和潜在问题,为你解读真实的约会体验)
- 华为荣耀6无线信号表现如何?(一款智能手机的信号强度和稳定性评估)
- 新型恶意软件 CloudMensis 正对 Mac 设备部署后门
- 探索平板电脑Win8系统的优势与特点(颠覆传统,引领未来的操作体验)







