【案例】( @4 d3 k; X4 L/ M. p& [# x3 o. c
拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了
! G! E" {9 N) l) E, lAI 生成工具的偏见何时休?9 i3 f4 c# u' `" V" D
5 O! ?3 N% }0 P6 ~在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。
4 V: M; \- S+ w, `当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。 2 E7 N4 n/ A6 k+ o9 }0 W
马斯克也被系统过分矫正了 * C r. }, y! I) T) E
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白人妻子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。 ! _1 W) ~: N) r* v& g
# f3 Z' f! P- t2 T+ a6 z% GThe Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白人妻子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。
" G8 ]9 y5 o- w: U7 _" D4 }结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成图像,暴露出了它的某种偏见。 % z+ [& K. G4 X) m) Z
图源:Mia Sato/The Verge 4 _2 u: \: S: q! W- v+ a' U
不仅如此,调整文本 prompt 似乎也没有多大帮助。
8 _! g% w! V$ D当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像生成器给出的都是「两个亚洲人」的图像。即使将「white」改为「Caucasian」时,结果同样如此。
. B o3 W/ V* P, @. C$ G机器之心自测图像
, ?+ e/ Q0 s% a当输入「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。
9 @; u0 u4 _5 Y) \3 k2 W+ s: W/ @; U婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge ) g- g/ [0 y1 g$ x8 f
当输入「Asian man with Caucasian friend」(亚洲男性和白人朋友)或「Asian woman and white friend」(亚洲女性和白人朋友)时, 生成的大多数图像仍是两个亚洲人形象。
! Z2 c( G! i- U4 b6 A# N- W7 b9 e, j" M" J, ]. h2 R; C/ Y
自测图像 3 I9 v! ^; Q3 x1 K
当输入「Asian woman with Black friend」(亚洲女性和黑人朋友)时,Meta 图像生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋友),结果反而准确得多。 $ {( H! h2 i( D, D9 \
0 b4 O5 @( w$ E9 ^/ C5 h
' r8 P2 b( i0 _. I) _自测图像
5 O& n w5 d- c此外,当指定南亚人时,Meta 图像生成器的结果变化也不太大。当输入「South Asian man with Caucasian wife」(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。
$ V$ z% D! J2 }, k0 G+ S- d6 i3 i3 C! T0 S, E# Y
自测图像
' v, } A6 A0 }( n% z" ^9 L4 g一番测试发现,Meta 图像生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。
% q( S8 U4 T7 ? }- c y最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图像中,只有 3 张图像准确还原。 3 z: ^: }9 p/ }! R- N5 e
. u1 n5 Y- E9 A! j1 L' @
! z% E) f# N$ N I9 F! V输入 prompt「asian man and caucasian wife」(亚洲男性和白人妻子),结果更离谱,生成的 8 张图像没有一张还原。 ) Y. f8 s- b" g1 n* G$ m2 @
. G7 |! @; Z2 V9 W2 d1 Z
其实,这并不是 Meta 的图像生成工具第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。
4 \6 i: m* f6 ?9 B0 k \3 ^图源:arstechnica and meta
; |! G$ [+ q6 ^1 U$ e3 }此次,Meta 图像生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。
' e# d x( N( G; k7 p对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。
+ [/ V3 q$ S- P+ F1 q- D, d5 g+ a3 n7 C7 r6 p
你觉得呢?
5 _0 R' Z- v. E" |/ i5 _' g1 n/ \. W
4 i+ P! B, t: ~# G! }
! k0 @( z6 p8 c* i2 b0 z N0 T- [/ W5 B' o' d' h1 \) ]
* j e7 n8 ]" c( e4 P& v
" C# k- M% Z! T" r/ m% N4 U
/ ?& ^9 D" Z, Y8 s* N
|