【案例】4 F9 b- |- \8 z
拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了
9 | m# T2 e, NAI 生成工具的偏见何时休?
; D* O! _9 C- @5 u2 `) X7 |+ n- u7 Q. H$ `: ~! U
在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。
1 E* g! J8 t! V9 ~3 Q& y# n当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。 # I. S4 s! d$ }8 F3 f& o+ u
马斯克也被系统过分矫正了 ; D! q" e7 k' e, H3 Z" O, x
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白人妻子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。
: w: b V0 c/ h+ S) W0 L9 |/ U$ ^' ?, I4 b
The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白人妻子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。 ; u3 w5 h0 F5 L* E p7 ]0 ?
结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成图像,暴露出了它的某种偏见。
9 v, e9 Y) R6 y7 O& y! [图源:Mia Sato/The Verge
, V' Y( o" W$ t/ Z/ \ Q p0 N+ l不仅如此,调整文本 prompt 似乎也没有多大帮助。
/ t9 y5 }1 g! H当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像生成器给出的都是「两个亚洲人」的图像。即使将「white」改为「Caucasian」时,结果同样如此。
' b: `" \: ]/ y3 S# e$ j9 ]9 h' [ }( @机器之心自测图像 ) F+ r9 b. w0 F; |6 N
当输入「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。
# d2 K$ `+ M+ a- c9 F婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge
- l; }. H1 q5 i# M7 p8 y+ F. ?当输入「Asian man with Caucasian friend」(亚洲男性和白人朋友)或「Asian woman and white friend」(亚洲女性和白人朋友)时, 生成的大多数图像仍是两个亚洲人形象。
3 K* o) M. n3 W0 Z* p$ B3 v
" E! j3 Y$ J$ s7 B自测图像
7 g/ S1 D& T" K5 |当输入「Asian woman with Black friend」(亚洲女性和黑人朋友)时,Meta 图像生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋友),结果反而准确得多。
3 Z, k. H6 b. X* j7 y U
" Q9 q; V" \* E4 Y3 A9 T/ N8 n; g" D y& |: t# {
自测图像
$ Y' \( s: K0 b% B8 B9 }此外,当指定南亚人时,Meta 图像生成器的结果变化也不太大。当输入「South Asian man with Caucasian wife」(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。
3 O: A' R/ M6 j6 m( ^5 C, x# d
- {8 O7 C5 c: p! p/ B9 P [自测图像
. }6 C) W: g; t一番测试发现,Meta 图像生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。
# W4 V7 l0 |+ o4 F最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图像中,只有 3 张图像准确还原。
8 l' Y% p% n( e+ i+ `& l6 s3 d- ] a% F
( Y$ y' M) m2 d2 I1 a
输入 prompt「asian man and caucasian wife」(亚洲男性和白人妻子),结果更离谱,生成的 8 张图像没有一张还原。 ) j6 }9 A) O8 ^+ X6 F2 q: G) b
K4 s2 I! o6 B) i$ u
其实,这并不是 Meta 的图像生成工具第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。
) z' |! B, N5 [: y* U图源:arstechnica and meta / [8 b1 C+ W; ~1 W/ C( @- N; k
此次,Meta 图像生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。 7 Q. k0 Q2 t( p9 T5 L# D) d
对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。 & X" g. h1 i! ^1 Q; B
9 x6 I, r6 e' a% O) N你觉得呢?
4 `3 x# Q6 r% L, r* Y" c+ \+ Z# q% J* U3 H* D1 e- _9 H
! r$ J n. ?8 | J9 o+ {9 R! _
! h1 e9 ], }2 o R. Z( u; U0 q0 D
- t5 D( L" K" a$ ? E" Z; Z! v
) K6 F+ M s* J6 x! N' A$ P; Y" x$ W) z8 Z; b
|