在当前的人工智能领域,AI系统的偏见问题日益凸显,尤其是在大语言模型和图像生成工具中。以谷歌的Gemini为例,该图像生成器曾因拒绝描绘白人并产生错误的性别、种族图像而引发争议。最近,Meta的AI图像生成器也暴露出类似的问题,无法准确地生成反映不同种族组合的图像,特别是涉及亚洲男性与白人女性或亚洲女性与白人男性的场景。The Verge进行了一系列测试,发现无论怎样调整提示词,Meta的图像生成器仍然倾向于生成亚洲人形象,甚至在某些情况下,南亚女性会被默认穿上纱丽。这一现象揭示了AI在处理多元文化图像时的局限性和潜在偏见,可能是由于训练数据不足或刻板印象的存在。Meta的图像生成工具之前也曾因生成不恰当的暴力和裸露图像而受到批评。这些事件提醒我们,AI系统的创造者和训练者需要更加注意数据集的多样性和公平性,以避免无意识的偏见和刻板印象影响到技术的应用。
本文来源: iFeng科技【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...