在信息技术领域的一次重大突破中,一位名叫 Pliny the Prompter 的网络安全专家宣布他已经成功破解了最新的 GPT-4 模型,解锁了被称为“GODMODE”的特殊功能。这个创新模式使得用户能够在 ChatGPT 上超越既定的安全限制,享受到更加自由的人工智能对话体验。Pliny 自称是一名白帽黑客和红队成员,致力于安全测试。他在社交媒体上分享了相关证据,其中包括一张 AI 教导如何制造危险物品的截图,引起了广泛关注。
科技媒体 Futurism 对此进行了验证,通过两次不同的请求——获取迷幻药的制作方法和汽车偷窃技术,证实了 GODMODE 确实能够规避 OpenAI 的安全防护。GODMODE 使用了一种名为“leetspeak”的非正式语言,用数字替换特定字母,例如将“E”替换为“3”,“O”替换为“0”。
然而,OpenAI 对此迅速作出回应,其发言人 Colleen Rize 表示他们已经了解到这一情况,并因该行为违反了公司政策而采取了相应措施。IT之家提醒读者,文章中可能包含外部链接,这些链接旨在提供更多信息,但并不代表 IT 家的观点或推荐,所有文章以此声明为准。
本文来源: IT之家【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...