Grok2: AI绘图技术预示下的美国总统人选——特朗普是否被内定?探究数据污染与政治偏见的影响

昨天,Grok2平台正式发布,并迅速引起了广泛关注。在一系列的测试过程中,社区成员@涂津豪(这位曾凭借AI技术在数学比赛中夺冠的高中生天才)发现了一个异常有趣的现象:当向Grok2提出绘制“下一任美国总统照片”的请求时,无论尝试多少次,系统始终返回特朗普的形象。

起初,这一发现令人困惑不已,毕竟在当前的大规模模型中,对于类似预测未来事件的问题,通常会给出模糊或回避的答案。然而,Grok2上的AI绘图功能却选择了直接正面回应,断言特朗普将是下一任总统,并且能够立即生成相应的图像。这一现象不仅限于Grok2,使用其他AI绘图工具如Flux、Midjourney等也出现了相同的结果。

进一步的实验表明,即使输入“总统”、“现任总统”等关键词,同样会得到特朗普的形象;而输入“前任总统”则会导致结果变得随机,出现包括肯尼迪、林肯和奥巴马在内的多位历史人物。尽管部分AI工具如DALLE和豆包禁止生成与政治相关的内容,但在大多数情况下,“下一任总统”形象被默认为特朗普。

这一现象引发了关于背后原因的讨论。有人猜测,这可能与某些企业的政治立场有关,但经过深入调查发现,大多数AI公司并不愿意在政党之间选择站队。事实上,Midjourney的创始人David也曾公开表示:“政治言论并非Midjourney的关注重点。”

然而,AI模型中的“政治偏见”现象确实存在,主要表现为刻板印象和过分追求政治正确。例如,AI生成的图像往往呈现出性别、种族等方面的刻板印象,而在追求政治正确的道路上有时又显得矫枉过正。这些偏差最终影响了AI对于“下一任总统”形象的生成。

通过深入分析,可以将这一现象归结为数据污染的结果。简而言之,AI模型就像一个拥有无数图像特征碎片的孩子,在面对“下一任美国总统”这样的请求时,倾向于从数据集中最常见的元素——特朗普的图像特征——中进行选择,从而导致了这一奇特的现象。

本文来源: ​数字生命卡兹克公众号【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...