加入收藏 | 设为首页 | 会员中心 | 我要投稿 聊城站长网 (https://www.0635zz.com/)- 智能语音交互、行业智能、AI应用、云计算、5G!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

AI 打败 AI:谷歌研究团队利用 GPT-4 击溃 AI-Guardian 审核系统

发布时间:2023-08-02 12:36:48 所属栏目:外闻 来源:
导读:利用了OpenAI的GPT-4之后,Google的研究小组正在尝试进行一次攻击试验来突破其它人工智能模型所配备的安全防范,该团队目前已经攻破 AI-Guardian 审核系统,并分享了相关技术细节。

经过查询得知,AI-Guardian 是
利用了OpenAI的GPT-4之后,Google的研究小组正在尝试进行一次攻击试验来突破其它人工智能模型所配备的安全防范,该团队目前已经攻破 AI-Guardian 审核系统,并分享了相关技术细节。

经过查询得知,AI-Guardian 是一种 AI 审核系统,能够检测图片中是否存在不当内容,以及图片本身是否被其他 AI 修改过,若检测到图片存在上述迹象,便会提示管理员前来处理。

谷歌 Deep Mind 的研究人员 Nicholas Carlini 在一篇题为“AI-Guardian 的 LLM 辅助开发”的论文中, 研究了如何利用针对GPT-4的“技巧构思”和“战术规划”来误导AI守卫的防备措施。

据悉,GPT-4 会发出一系列错误的脚本和解释来欺骗 AI-Guardian ,论文中提到,GPT-4 可以让 AI-Guardian 认为“某人拿着枪的照片”是“某人拿着无害苹果的照片”,从而让 AI-Guardian 直接放行相关图片输入源。谷歌研究团队表示,通过GPT-4 的帮助,他们成功地“破解”了 AI-Guardian 的防御,使该模型的精确值从 98% 的降低到仅 8%。

目前相关技术文档已经发布在 ArXiv 中,有兴趣的小伙伴们可以前往了解,不过 AI-Guardian 的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的 AI-Guardian 版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。不过,这并不意味着攻击者可以肆无忌惮地使用这套系统,毕竟它的漏洞还是存在的。
 

(编辑:聊城站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!