【案例】
去年底推出的ChatGPT令用户见识到了生成式AI的威力,但此类模型虽说有助于启发第一缕灵感,却终究是不能信赖的。
2023年1月4日 英国《金融时报》社评
再见,加密货币!你好,生成式人工智能(AI)!凭借着他们这一行特有的选择性健忘症,风险投资家已经放下了他们与暴雷的加密货币交易所FTX倒霉的短暂情史,转而爱上了“下一个大热点”。他们说,今年将是AI的破局之年。如今可能年年都有人发出这样的断言,但这一次他们是说真的。
我们有相当充分的理由相信这一次的断言可能会应验。去年11月,OpenAI推出了语言生成模型ChatGPT,它有着惊人的能力,能够非常迅速地生成具有说服力的文本段落,令用户见识到了生成式AI的威力。像ChatGPT这样的大型语言模型是以来自互联网的海量数据为素材训练出来的,几乎是瞬间就能识别并复制各种文本、图像、计算机代码、视频和音频。还没有人能确切地知道这个领域的杀手级应用会是什么样子的,但已经有160多家初创公司怀着探索这个答案的目的问世。
生成式AI带给人们的希望是,它能提高创意行业工作者的生产率,如果不是彻底取代他们的话。就像工业革命中机器增强了肌肉的力量一样,AI也能在认知革命中增强人类的脑力。对于绞尽脑汁的广告策划、程序员、编剧以及因为不能按时交作业而着急的学生们来说,这或许是特大喜讯。但它也可能会对形形色色的领域——客户服务自动化、营销材料、科研和数字助理等——都产生重大影响。一个耐人寻味且尚无定论的问题是,它将增强现有的搜索引擎——比如谷歌(Google)——的支配性地位,还是会取代它们?
生成式AI是一个很好的例子,它折射出了一个更大的趋势:一些强大的技术不再是只有专家能玩转的领域,寻常用户也逐渐能涉猎其中。对许多企业来说,技术使用上的民主化可能会产生巨大影响,并创造出不同寻常的机遇。例如,随着“低代码/无代码”软件平台的日渐流行,越来越多的非专家级用户将能够自己打造功能强大的手机和网络应用。产品经理再也不用非得仰赖技术团队来制定开发计划。
除了机遇,这显然也蕴含风险。最大的风险之一是生成式AI输出的结果经常是错误的,或者让人误以为是真的。此类模型有时会对同样的问题作出不同的回答,这取决于人类输入的指令和用于训练模型的数据。如果是确定性技术,比如袖珍计算器,当你输入19乘以37时,答案永远是一样的。但如果是概率性技术,比如生成式AI,答案就只能是在统计上存在可能的一个近似值。正如前谷歌研究员蒂姆尼特•格布鲁(TimnitGebru)所形容的,它们是“随机的学舌者”(stochastic parrot)。出于这个原因,面向程序员的问答网站Stack Overflow已禁止使用ChatGPT来生成答案,因为这样的答案是不可信的。
由于生成式AI具有这个明显的缺点,正在开发此类模型的人负有一项特殊的责任,他们应考虑清楚这些模型可能会遭到什么样的滥用,之后才能发布出去任人使用。但考虑到这些模型发展之快,这事是越来越难了。用户是可以从使用这些模型中得到乐趣并从中获利,但他们也应该始终慎重地对待它们。生成式AI或许有助于启发第一缕灵感,但它们终究是不能信赖的。
来源:知乎 编辑:陶鹏辉
|