GPT-4成功战胜AI-Guardian审核系统:谷歌研究团队的人工智能抵抗人工智能-LMLPHP

8 月 2 日消息,谷歌研究团队正在进行一项实验,他们使用 OpenAI 的 GPT-4 来攻破其他 AI 模型的安全防护措施,该团队目前已经攻破 AI-Guardian 审核系统,并分享了相关技术细节

通过调查,IT之家了解到AI-Guardian是一种AI审核系统,可以检测图片中是否存在不适当内容以及图片是否被其他AI修改过。如果系统检测到上述迹象,它将提示管理员处理

在一篇名为“使用 GPT-4 设计攻击方法、撰写攻击原理”的论文中,谷歌 Deep Mind 的研究人员 Nicholas Carlini 探讨了如何利用这些方案来欺骗 AI-Guardian 的防御机制

GPT-4成功战胜AI-Guardian审核系统:谷歌研究团队的人工智能抵抗人工智能-LMLPHP

这句话无法重写,因为原话并未给出具体内容

据悉,GPT-4 会发出一系列错误的脚本和解释来欺骗 AI-Guardian ,论文中提到,GPT-4 可以让 AI-Guardian 认为“某人拿着枪的照片”是“某人拿着无害苹果的照片”,从而让 AI-Guardian 直接放行相关图片输入源。谷歌研究团队表示,通过 GPT-4 的帮助,他们成功地“破解”了 AI-Guardian 的防御,使该模型的精确值从 98% 的降低到仅 8%。

目前相关技术文档已经发布在 ArXiv 中,有兴趣的小伙伴们可以前往了解不过 AI-Guardian 的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的 AI-Guardian 版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。

以上就是GPT-4成功战胜AI-Guardian审核系统:谷歌研究团队的人工智能抵抗人工智能的详细内容,更多请关注Work网其它相关文章!

09-15 05:41