传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 268|回复: 0
打印 上一主题 下一主题

拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了

[复制链接]
跳转到指定楼层
楼主
发表于 2024-4-6 20:22:12 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
【案例】
2 Q4 e/ \  K& @5 h( r" q# ?
拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了   
- o0 N, Z: J. g* S
AI 生成工具的偏见何时休?+ u4 s: ?6 d, {/ t  i- u( r. f, l
5 v0 D1 Y+ O8 ^
在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。

% p3 u4 c/ c" ]8 y* S' ~
当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。
9 {% N+ X" s/ j/ L& Z
马斯克也被系统过分矫正了

* V$ t( o% d0 s  ^& ~( A) }
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白人妻子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。

1 v! `) f. o* s, g$ Z

7 R3 V* j) e0 v3 a- R0 W
The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白人妻子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。
% ?, y+ J, p0 u4 B# J* ~
结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成图像,暴露出了它的某种偏见。
) c! J; a; s7 Y0 z, p1 r# z
图源:Mia Sato/The Verge
: @& a: C6 n6 E0 ^
不仅如此,调整文本 prompt 似乎也没有多大帮助。

1 N$ q+ E, |' X* i* N
当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像生成器给出的都是「两个亚洲人」的图像。即使将「white」改为「Caucasian」时,结果同样如此。

$ `) f! p1 ^4 h% v# q* ]: I
机器之心自测图像
. y+ M7 C3 \  z# v$ k6 K: x4 b
当输入「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。
$ k: U% i6 {: z9 R$ _
婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge

% G; I! w  `1 O9 y- b
当输入「Asian man with Caucasian friend」(亚洲男性和白人朋友)或「Asian woman and white friend」(亚洲女性和白人朋友)时, 生成的大多数图像仍是两个亚洲人形象。

+ d! w: n# [" L" h% M4 R* `
# N$ R* e8 d8 m: d5 q
自测图像
# Q- J1 w* z5 R. y. @8 n4 W
当输入「Asian woman with Black friend」(亚洲女性和黑人朋友)时,Meta 图像生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋友),结果反而准确得多。
! C5 p% ~$ Q" \) u, P2 L8 A

9 x  Y) m1 v. Y
0 n( J4 \% X' O
自测图像
) g0 m- L5 D: X; I' i/ V2 s& |
此外,当指定南亚人时,Meta 图像生成器的结果变化也不太大。当输入「South Asian man with Caucasian wife」(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。
, n* O+ @/ Q3 M" D4 @

3 g1 E$ F/ W+ m/ ]( A, Q$ T* n) b
自测图像

  {6 F3 K; A- L
一番测试发现,Meta 图像生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。

' @$ S; O8 P8 ^" p4 L9 \1 g
最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图像中,只有 3 张图像准确还原。

- [" ~! i+ D/ O7 f- ?* }+ X7 a

* {% p" T7 t& {1 n5 @) d

( D2 H) o* p1 [3 x4 }, v
输入 prompt「asian man and caucasian wife」(亚洲男性和白人妻子),结果更离谱,生成的 8 张图像没有一张还原。
3 |2 K$ k" [6 s/ c* u8 w0 @; @" q/ C
3 V! {$ _; t' \. Q! x, a; z
其实,这并不是 Meta 的图像生成工具第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。
1 E" C6 s" A" Y% a# @- q! M
图源:arstechnica and meta

  H3 a& q3 L+ K/ \
此次,Meta 图像生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。
0 r: Z% }* N- V( {3 u! w
对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。
: L' R" b1 V3 J) \8 g( ]7 d

+ A- E# ~# v7 k9 y
你觉得呢?
原文链接:https://www.theverge.com/2024/4/ ... asian-people-racism' Q& u; u& l/ L% v; g( b0 i) Q; a- C

/ }9 D& l# j. v( K8 D2 q7 E7 E
9 U( `' A; X; {. _, e1 C7 N$ Q" g1 l. N( t- b- ^
来源:机器之心(公众号)
% c% M5 |6 n. T5 |! A链接:https://mp.weixin.qq.com/s/eUhOxh5qlGQHOGqgPgFqPQ
- s* _  A* e5 `7 T4 u) v编辑:李梦瑶, m+ i: e  j3 k- Q! _- m. y, b* F; b/ L
* R# z6 N0 k0 @. n; v& h  {' N
  G% S6 p- j3 O
) T0 ^4 f% C: Q( g
% H* ]3 d7 e* `7 i  g
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表