传媒教育网

标题: 350专家联署警告:AI威胁相当核战、疫症 [打印本页]

作者: 刘海明    时间: 2023-6-1 16:35
标题: 350专家联署警告:AI威胁相当核战、疫症
【明报专讯】全球超过
350名科技业界高层主管、相关专家和研究人员周二(5月30日)联署的声明警告,各国应致力降低人工智能(AI)技术所带来的「人类灭绝」风险,并将应对AI带来的人类灭绝风险「与应对疫情大流行和核战,视为同级的全球优先要务」。联署者包括AI聊天机械人ChatGPT母公司OpenAI行政总裁奥尔特曼、有「AI教父」之称的电脑权威欣顿,以及两名香港的大学学者等。
AI聊天机械人ChatGPT可依据简短指令编写文章、诗歌和对话,去年底面世后一炮而红,成功带动AI领域数以十亿美元计的投资,但质疑者和业界人士多次警告,AI发展有危险倾向,其冒起可能导致假消息充斥、带有偏见的演算法可能产出种族主义内容,AI驱动的自动化也可能摧毁一些行业等。
AI教父、OpenAI总裁有份
包括ChatGPT母公司OpenAI行政总裁奥尔特曼(Sam Altman)、有「AI教父」之称的电脑权威欣顿(Geoffrey Hinton)、香港大学哲学系助理教授萨拉丁(Nathaniel Sharadin)和香港浸会大学宗教及哲学系教授皮耶塔里宁(Ahti-Veikko Pietarinen)在内的超过350名专家,周二在以确保AI安全为宗旨的非牟利组织「AI安全中心」(Center for AI Safety)网页发表简短声明。声明只有一句,未详细说明AI可能带来的潜在生存威胁,只说「各国应该视减少AI带来的人类灭绝风险,与对付其他社会级风险如疫症大流行和核战般属同一级别」。
萨拉丁昨向本报表示,他认为AI的发展并不一定带来灾难结果,甚至可造福人类,惟关键在于全球尽快合力设立有效管理制度,以防范风险(见另稿)。
促各国降「人类灭绝」风险
今次并非首次有专家公开质疑AI危险性,但《卫报》引述牛津大学教授奥斯本(Michael Osborne)说,有这么多专家联署,反映业界愈来愈认知到AI带来灭绝风险的忧虑。
奥尔特曼5月曾警告,先进AI系统的风险已严重到政府必须干预的程度,并呼吁对AI的潜在危害作监管。3月时亿万富豪马斯克(Elon Musk)和数以百计专家也曾发表公开信,呼吁在确定安全前暂缓AI研发工作,但当时有专家质疑「AI威胁社会和文明崩溃」是杞人忧天。
来源:(法新社/金融时报/卫报/纽约时报)
链接:https://news.mingpao.com/pns/%E5%9C%8B%E9%9A%9B/article/20230601/s00014/1685556252017/350%E5%B0%88%E5%AE%B6%E8%81%AF%E7%BD%B2%E8%AD%A6%E5%91%8A-ai%E5%A8%81%E8%84%85%E7%9B%B8%E7%95%B6%E6%A0%B8%E6%88%B0-%E7%96%AB%E7%97%87
编辑:程博






欢迎光临 传媒教育网 (http://47.106.15.148/) Powered by Discuz! X3.2