数字中国 人工智能 汽车智驾 手机数码 更多 智慧家电 酷玩配件 科技创投 产业+ 攻略

研究:用诗歌就能让 AI 说违禁内容,成功率达 62%

IT之家 2025-12-01 08:17:09
A+ A-

最近的一项研究表明,只需一点创意就能绕过人工智能聊天机器人的安全防护机制。伊卡洛实验室发表了一篇题为《对抗性诗歌:一种通用的单轮大语言模型越狱机制》的研究,通过将提示词以诗歌形式表达,成功绕过了多种大语言模型的安全限制。

研究:用诗歌就能让 AI 说违禁内容,成功率达 62%

研究指出,诗歌形式可作为一种通用型越狱操作符。实验结果显示,整体上有62%的成功率诱使模型生成被禁止的内容,包括涉及制造核武器、儿童性虐待材料以及自杀或自残等相关信息。

研究测试了多款主流大语言模型,如OpenAI的GPT系列、Google Gemini、Anthropic的Claude以及其他多个模型。具体成功率显示,Google Gemini、DeepSeek和MistralAI在测试中始终会提供违规回答,而OpenAI的GPT-5系列模型和Anthropic的Claude Haiku 4.5则最不容易突破其自身设定的限制。

尽管该研究并未公开研究人员所使用的具体“越狱诗歌”原文,但研究团队表示,这些诗句“过于危险,不宜向公众披露”。不过,论文中确实包含了一个经过弱化处理的示例,用以说明绕过AI聊天机器人安全机制的简易程度。研究人员强调,这可能比人们想象的要容易得多,因此需要保持谨慎。

点击查看全文(剩余0%)

热点新闻

精彩推荐

加载更多……