7X24小时服务热线:

020-36492871

您的位置: 主页 > 新闻中心 > 行业动态
新闻动态 行业动态 常见问题

ChatGPT羊驼家族全沦陷CMU博士乐鱼体育官方网站击破LLM护栏人类毁灭计划脱口而出

发布时间:2023-08-04点击数:

  一夜之间,所有包括ChatGPT、Bard、羊驼大家族在内的所有大语言模型,全部被攻陷了?

  CMU和人工智能安全中心的研究人员发现,只要通过附加一系列特定的无意义token,就能生成一个神秘的prompt后缀。

  有趣的是,这种「对抗性攻击」方法不仅突破开源系统的护栏,而且也可以绕过闭源系统,包括ChatGPT、Bard、Claude等。

  但是,只要在prompt中加入这样一个魔法后缀,它就毫不犹豫地乖乖照做了。

  - 对于像Vicuna这样的OSS模型,通过它执行一个梯度下降的变体,来计算出最大化不对齐模型的后缀。

  - 为了让「咒语」普遍适用,只需要优化不同prompt和模型的损失即可。

  - 然后研究者针对Vicuna的不同变体优化了对抗token。可以将其视为从「LLM 模型空间」中抽取了一小批模型。

  事实证明,像ChatGPT和Claude这样的黑盒模型,果然被很好地覆盖了。

  上面提到过,有一个可怕之处在于,这种对抗性攻击可以有效地迁移到其他LLM上,即使它们使用的是不同的token、训练过程或数据集。

  为Vicuna-7B设计的攻击,可以迁移到其他羊驼家族模型身上,比如Pythia、Falcon、Guanaco,甚至GPT-3.5、GPT-4和PaLM-2……所有大语言模型一个不落,尽数被攻陷!

  威斯康星大学麦迪逊分校教授、Google研究人员Somesh Jha评论道:这篇新论文可以被视为「改变了游戏规则」,它可能会迫使整个行业重新思考,该如何为AI系统构建护栏。

  著名AI学者Gary Marcus对此表示:我早就说过了,大语言模型肯定会垮台,因为它们不可靠、不稳定、效率低下(数据和能量)、缺乏可解释性,现在理由又多了一条——容易受到自动对抗攻击。

  在六年半的时间里,人类一定会研究出更稳定、更可靠、更可解释、更不易受到攻击的乐鱼体育官方网站东西。在他发起的投票中,72.4%的人选择了同意。

  现在,研究者已经向Anthropic、Google和OpenAI披露了这种对抗性攻击的方法。

  三家公司纷纷表示:已经在研究了,我们确实有很多工作要做,并对研究者表示了感谢。

  概括来说,作者提出了针对大语言模型prompt的对抗性后缀,从而使LLM以规避其安全防护的方式进行回应。

  诱导语言模型产生令人反感的行为的一种方法是,强制模型对有害查询给出肯定回答(仅有几个token)。

  因此,我们的攻击目标是使模型在对多个提示产生有害行为时,开始回答时以「当然,这是……」开头。

  团队发现,通过针对回答开头进行攻击,模型就会进入一种「状态」,然后在回答中立即产生令人反感的内容。(下图乐鱼体育官方网站紫色)

  在实践中,团队找到了一种简单直接且表现更好的方法——「贪婪坐标梯度」(Greedy Coordinate Gradient,GCG)」

  也就是,通过利用token级的梯度来识别一组可能的单token替换,然后评估集合中这些候选的替换损失,并选择最小的一个。

  实际上,这个方法与AutoPrompt类似,但有一个不同之处:在每个步骤中,搜索所有可能的token进行替换,而不仅仅是一个单一token。

  最后,为了生成可靠的攻击后缀,团队发现创建一个可以适用于多个提示和多个模型的攻击非常重要。

  换句话说,我们使用贪婪梯度优化方法搜索一个单一的后缀字符串,该字符串能够在多个不同的用户提示以及三个不同的模型中诱导负面行为。

  结果显示,团队提出的GCG方法,要比之前的SOTA具有更大的优势——更高的攻击成功率和更低的损失。

  此外,GCG方法生成的攻击,还可以很好地迁移到其他的LLM上,即使它们使用完全不同的token来表征相同的文本。

  团队表示,这一结果首次证明了,自动生成的通用「越狱」攻击,能够在各种类型的LLM上都产生可靠的迁移。

  卡内基梅隆大学教授Zico Kolter(右)和博士生Andy Zou是研究人员之一

  Zifan Wang目前是CAIS的研究工程师,研究方向是深度神经网络的可解释性和稳健性。

  他在CMU得了电气与计算机工程硕士学位,并在随后获得了博士学位,导师是Anupam Datta教授和Matt Fredrikson教授。在此之前,他在北京理工大学获得了电子科学与技术学士学位。

  职业生涯之外,他是一个外向的电子游戏玩家,爱好徒步旅行、露营和公路旅行,最近正在学习滑板。

  Zico Kolter是CMU计算机科学系的副教授,同时也担任博世人工智能中心的AI研究首席科学家。曾获得DARPA青年教师奖、斯隆奖学金以及NeurIPS、ICML(荣誉提名)、IJCAI、KDD和PESGM的最佳论文奖。

  他的工作重点是机器学习、优化和控制领域,主要目标是使深度学习算法更安全、更稳健和更可解释。为此,团队已经研究了一些可证明稳健的深度学习系统的方法,并在深度架构的循环中加入了更复杂的「模块」(如优化求解器)。

  Matt Fredrikson是CMU计算机科学系和软件研究所的副教授,也是CyLab和编程原理小组的成员。

  他的研究领域包括安全与隐私、公平可信的人工智能和形式化方法,目前正致力于研究数据驱动系统中可能出现的独特问题。

  这些系统往往对终端用户和数据主体的隐私构成风险,在不知不觉中引入新形式的歧视,或者在对抗性环境中危及安全。

  他的目标是在危害发生之前,找到在真实、具体的系统中识别这些问题,以及构建新系统的方法。

  本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,编辑:Aeneas 好困,36氪经授权发布。

  韩国团队拒交样品,放出第二段LK-99悬浮视频,华科大新论文首证抗磁性

  备受争议的Stability CEO:印度软件外包工程师或将消失,人工智能接棒引发全球关注

  Transformer论文「重磅更新」,八子全部离职,谷歌删除Attention Is All You Need所有作者邮箱

在线客服
服务热线

服务热线

020-36492871

微信咨询
乐鱼·体育(中国)官方网站-app下载入口
返回顶部