传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 109|回复: 0
打印 上一主题 下一主题

拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了

[复制链接]
跳转到指定楼层
楼主
发表于 2024-4-6 20:22:12 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
【案例】4 F9 b- |- \8 z
拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了   

9 |  m# T2 e, NAI 生成工具的偏见何时休?
; D* O! _9 C- @5 u2 `) X7 |+ n- u7 Q. H$ `: ~! U
在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。

1 E* g! J8 t! V9 ~3 Q& y# n
当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。
# I. S4 s! d$ }8 F3 f& o+ u
马斯克也被系统过分矫正了
; D! q" e7 k' e, H3 Z" O, x
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白人妻子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。

: w: b  V0 c/ h
+ S) W0 L9 |/ U$ ^' ?, I4 b
The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白人妻子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。
; u3 w5 h0 F5 L* E  p7 ]0 ?
结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成图像,暴露出了它的某种偏见。

9 v, e9 Y) R6 y7 O& y! [
图源:Mia Sato/The Verge

, V' Y( o" W$ t/ Z/ \  Q  p0 N+ l
不仅如此,调整文本 prompt 似乎也没有多大帮助。

/ t9 y5 }1 g! H
当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像生成器给出的都是「两个亚洲人」的图像。即使将「white」改为「Caucasian」时,结果同样如此。

' b: `" \: ]/ y3 S# e$ j9 ]9 h' [  }( @
机器之心自测图像
) F+ r9 b. w0 F; |6 N
当输入「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。

# d2 K$ `+ M+ a- c9 F
婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge

- l; }. H1 q5 i# M7 p8 y+ F. ?
当输入「Asian man with Caucasian friend」(亚洲男性和白人朋友)或「Asian woman and white friend」(亚洲女性和白人朋友)时, 生成的大多数图像仍是两个亚洲人形象。

3 K* o) M. n3 W0 Z* p$ B3 v

" E! j3 Y$ J$ s7 B
自测图像

7 g/ S1 D& T" K5 |
当输入「Asian woman with Black friend」(亚洲女性和黑人朋友)时,Meta 图像生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋友),结果反而准确得多。

3 Z, k. H6 b. X* j7 y  U

" Q9 q; V" \* E4 Y3 A9 T/ N8 n; g" D  y& |: t# {
自测图像

$ Y' \( s: K0 b% B8 B9 }
此外,当指定南亚人时,Meta 图像生成器的结果变化也不太大。当输入「South Asian man with Caucasian wife」(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。

3 O: A' R/ M6 j6 m( ^5 C, x# d

- {8 O7 C5 c: p! p/ B9 P  [
自测图像

. }6 C) W: g; t
一番测试发现,Meta 图像生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。

# W4 V7 l0 |+ o4 F
最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图像中,只有 3 张图像准确还原。

8 l' Y% p% n( e+ i+ `
& l6 s3 d- ]  a% F
( Y$ y' M) m2 d2 I1 a
输入 prompt「asian man and caucasian wife」(亚洲男性和白人妻子),结果更离谱,生成的 8 张图像没有一张还原。
) j6 }9 A) O8 ^+ X6 F2 q: G) b
  K4 s2 I! o6 B) i$ u
其实,这并不是 Meta 的图像生成工具第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。

) z' |! B, N5 [: y* U
图源:arstechnica and meta
/ [8 b1 C+ W; ~1 W/ C( @- N; k
此次,Meta 图像生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。
7 Q. k0 Q2 t( p9 T5 L# D) d
对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。
& X" g. h1 i! ^1 Q; B

9 x6 I, r6 e' a% O) N
你觉得呢?
原文链接:https://www.theverge.com/2024/4/ ... asian-people-racism# M' {6 I8 g/ V6 v$ q+ q8 u; d

4 `3 x# Q6 r% L, r* Y" c+ \+ Z# q% J* U3 H* D1 e- _9 H
! r$ J  n. ?8 |  J9 o+ {9 R! _
来源:机器之心(公众号)( s& ?8 p0 ?# O
链接:https://mp.weixin.qq.com/s/eUhOxh5qlGQHOGqgPgFqPQ5 G5 g8 q4 R3 \/ v& _) n3 b
编辑:李梦瑶* z% m+ G' Q2 N7 o1 C
! h1 e9 ], }2 o  R. Z( u; U0 q0 D

- t5 D( L" K" a$ ?  E" Z; Z! v
) K6 F+ M  s* J6 x! N' A$ P; Y" x$ W) z8 Z; b
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表