随着技术的不断进步,现在辨别AI生成的图片与真实照片变得越来越困难。你能从以下四张图中分辨出哪张是AI生成的吗?请先尝试判断,再往下阅读答案。
实际上,只有左下角的图片是真实的拍摄照片。多数人对这类测试感到棘手,即便是编辑部的同事们也觉得难度颇高。这表明AI生成的图像已经逐渐逼近真实,甚至许多检测工具也开始失效。
过去,AI生成的图片往往带有明显的瑕疵:有些呈现出漫画风格,部分图像的四肢或五官显得异常,背景也不合理,整体漏洞百出,有时甚至令人毛骨悚然。然而,自从GPT-4升级后,大模型在文本到图像生成方面取得了显著突破。例如,右上角的“自拍照”就是通过一些提示词生成的。
如今的大模型能够理解诸如“平庸”、“漫不经心”、“模糊”、“过曝”等抽象概念,并生成看似随手拍摄的照片,毫无违和感。尽管具体实现方法尚未公开,但在OpenAI官网可以找到一些线索。
官方指出,在训练过程中,模型被教导更好地理解语言与图像之间的联系。借助某种“后期训练”,生成的图像更加自然流畅。例如,当输入“漫不经心”时,模型会调整角度、模糊画面并呈现自然表情。
技术发展如此迅速,人类难以跟上步伐。更糟糕的是,实验表明,连AI本身也难以区分真假。我们用最新的AI模型进行测试,发现它能轻易识别早期假图,但面对最新生成的图像则无能为力。例如,豆包和GPT都认为一张AI生成的自拍照是真实的。
除了大模型测试外,我们还尝试了两个热门的免费AI图片检测器,结果并不理想。我们用八张几乎无法用肉眼辨别的AI生成的人像图片进行测试,其中四个检测器意见一致,但它们均误判为真实照片。
另外四张图片,两个检测器意见完全相反。原本以为它们可能互相参考,但最终错误类型完全不同,说明它们各自存在问题。
测试不仅限于简单的人像图片,复杂场景下的表现更差。多人物或背景复杂的图片,甚至风景图片,都让检测器几乎全军覆没。即使面对AI生成的自拍照,检测器仍有怀疑,但对于复杂场景图片,它们完全信任。
更糟糕的是,某些检测器还会误判真正的照片为AI生成的图片,造成不必要的损失。
为什么现在的AI检测工具不再有效?搜索结果显示,虽然文生图技术飞速发展,但AI图像检测技术仍停留在卷积神经网络阶段。大多数工具未开放源码,我们在GitHub上找到了几个AI图片检测项目作为参考。
这些检测工具的架构依旧基于数据集+卷积特征识别+分类的老流程。计算机视觉领域的专家可能了解这套沿用了多年的流程:先为数据集中的每张图片打上是否由AI生成的标签,然后交给神经网络学习相应的图片特征,最后进行分类。
AI生图技术不断更新换代,而这些工具仅将新AI图打上标签加入老数据集重新训练。其中一个工具使用的CvT-13模型已是4年前的技术,显然无法应对当前挑战。
尽管AI图片识别领域有一些学术研究,但其速度、数量和关注度远不及大模型文生图技术。与其事后区分,不如从源头解决问题。
例如,各大AI公司倡导的C2PA组织致力于制定相关标准,以便更方便地验证信息来源。OpenAI计划为生成的图片添加水印,谷歌提出的synthID可将数字水印嵌入AI生成的中。这种水印不影响观感,但能被软件识别。
此外,我国今年3月发布的《人工智能生成合成标识办法》明确规定,自2025年9月起,所有AI生成的必须添加显式或隐式标识。
为何一定要区分AI图片呢?如果分不清不正是技术强大的体现吗?虽然AI生成图片的能力令人惊叹,但我们需考虑两面性。利用AI进行诈骗犯罪的新闻屡见不鲜,AI越逼真,我们被骗的可能性就越高。
总而言之,如今单靠肉眼已很难分辨AI图像的真假。无论是识别工具还是从源头标记AI,现有技术都显得落后,但需求却十分紧迫。因此,区分AI将是一场持久战。各大公司在展示AI生图技术的同时,也应重视AI识别技术的升级。