拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了

在人工智能领域,AI生成工具偏见问题日益引起关注。大语言模型因训练数据的影响,常存在性别和种族偏见。最近,Meta的人工智能图像生成器也暴露出类似问题,无法准确生成反映不同种族组合的图像。《The Verge》的测试显示,该工具在处理“亚洲男性和白人妻子”、“亚洲女性和白人丈夫”等场景时,常常生成全亚洲人的图像,甚至在调整文本提示后,结果并无明显改善。此外,当指定“南亚男性和白人妻子”时,大部分图像仍是南亚人,且南亚女性默认被赋予传统服饰。尽管Meta的图像生成器之前也曾因创造不当图像而受批评,但这次揭示的种族偏见问题更加引人深思,提醒我们注意AI系统、训练数据和创作者潜在的刻板印象。

本文来源: 机器之心【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...