伊利诺伊大学香槟分校的研究团队揭示了一项惊人的发现,他们设计了一个黑客智能体框架,测试了10个模型,包括GPT-4和GPT-3.5,以评估其利用CVE漏洞的能力。结果显示,只有GPT-4能够在阅读漏洞描述后成功执行攻击,成功率高达87%,而其他模型则完全失败。这一研究引起了广泛关注,但OpenAI已要求不要公开相关提示词。实验中,研究人员使用了91行代码构建智能体,其通过LangChain的ReAct框架模拟攻击,如双花攻击,并考虑了并发攻击和响应策略。尽管GPT-4在某些特定场景下未能成功,如Iris XSS和Hertzbeat RCE,但总体表现突出。研究还表明,大模型发现漏洞比利用漏洞更难,而GPT-4在没有CVE描述的情况下成功率大幅下降。攻击成本方面,GPT-4每次利用漏洞的平均成本为3.52美元,成功利用的平均成本约为8.8美元。
本文来源: IT之家【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...