标签:数据集多样性

拒绝白人与亚洲人同框,Meta图像生成器的“歧视”,被人挖出来了

在当前的人工智能领域,AI系统的偏见问题日益凸显,尤其是在大语言模型和图像生成工具中。以谷歌的Gemini为例,该图像生成器曾因拒绝描绘白人并产生错误的性别、种族图像而引发争议。最近,Meta的AI图像生成器也暴露出类似的问题,无法准确地生成反映不同种族组合的图像,特别是涉及亚洲男性与白人女性或亚洲女性与白人男性的场景。The Verge进行了一系列测试,发现无论怎样调整提示词,Meta的图像生成器仍然倾向于生成亚洲人形象,甚至在某些情况下,南亚女性会被默认穿上纱丽。这一现象揭示了AI在处理多元文化图像时的局限...