传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
791#
 楼主| 发表于 2024-1-2 21:25:14 | 只看该作者
【案例】
欧盟竞争主管为《人工智能法》辩护
玛格丽特•维斯塔格表示,这项具有里程碑意义的立法将为构建人工智能模型的科技集团提供“法律确定性”。

欧盟竞争和数字事务主管Margrethe Vestager为表示,欧盟新公布的人工智能法案将为开发AI技术的初创型科技企业提供“法律确定性”,尽管此前该法案受到包括法国总统马克龙在内的批评者的抨击。这项立法首次为所谓基础模型构建的企业提供了一套明确的规则。Vestager表示,“如果要构建基础模型,或者是应用基础模型,就需要确切地知道一旦投入使用,需要寻求什么。重要的是,监管不能有任何越权,才能促进创新和研究。”基础模型是支撑ChatGPT之类的生成式AI产品的技术,可以在几秒钟内生成类人类文本、图像和代码。
来源:金融界

编辑:郑程程

792#
 楼主| 发表于 2024-1-4 16:49:45 | 只看该作者
【案例】

观察|生成式人工智能的媒体应对

核心阅读:“人工定要求、智能秒出稿”。AIGC(生成式人工智能)开启了智能传播新时代,极大地加快了新闻业智能化转型和业态重塑的进程。当越来越多的受众开始掌握AIGC工具,可以随时生成内容,这对于从事内容生产与传播的主流媒体人而言,无疑是一场巨大的变革与挑战。作者认为,AIGC是主流媒体实现自我革新的重要契机,是主流媒体人探索未来出路的重要途径,为内容生产和传播带来了无限可能。主流媒体要将AIGC带来的技术挑战转化为创新发展的新机遇。真人记者与AIGC之间的关系,不应被定义为非此即彼、相互替代,而是相互协作、优势互补,“携手”让新闻传播更快、更强、更美。

面对这种基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,有媒体人惊呼:“AIGC虽然并不完美,但这回狼终于来了!”对此,我们需要做的是,全面深入地了解媒体运用AIGC的特点,直面AIGC所带来的挑战,采取切实可行的对策。

1
主流媒体运用AIGC的特点

伴随以ChatGPT为代表的一批现象级AIGC应用的出现,越来越多的主流媒体引入AIGC作为内容生产工具。2023年8月15日施行的《生成式人工智能服务管理暂行办法》提出:“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”当前,主流媒体运用AIGC呈现出一些新特点。

(一)不断降低的门槛,让引入AIGC的媒体越来越多。自2022年11月ChatGPT推出以来,AIGC在世界上引起广泛关注。我国多家科技公司则从2023年3月开始陆续推出AIGC技术服务,各种相关应用迅速从大公司走向普通大众,成为人人可用的工具。澎湃新闻、封面新闻、上游新闻等多家媒体机构早在2023年2月就宣布接入AIGC产品。2023年8月31日,百度“文心一言”等大模型正式向全社会开放,用户可在应用商店下载“文心一言”APP或登录“文心一言”官网体验,使用十分方便,操作极其简单。AIGC使用门槛的降低极大地提升了用户黏性。腾讯研究院于2023年6月开展的一项调查显示,有80%的国内新闻从业人员已使用过ChatGPT(或类似产品),其中超过一半(56%)受访者认为ChatGPT(或类似工具)给自己的工作带来了实际帮助。

(二)不断增强的功能,让输出的模态越来越酷。技术的革新是撬动新闻报道形态革新的重要杠杆。从低能到高能,从单能到多能,从多能到超能,AIGC已经有覆盖一切与内容生产相关的能力,传统的新闻采访、写作、编辑、制作、分发、核查,都可以运用AIGC作为得力的辅助工具。其可以根据人类指令,迅速完成写文章、绘画、作曲甚至制作视频和动画等任务,其“创作”涉猎的范围几乎可以媲美人类,内容极其丰富,模态十分多样。且随着数据、算法以及算力等核心要素的快速发展,AIGC还在以惊人的速度不断实现迭代与升级。

(三)不断提升的效率,让内容的生成越来越快。AIGC拥有更快的创作速度,更高产的“创作”成果。就新闻业而言,AIGC相当于给每一位媒体人配备了一个高效率的助手。其正在改变人们搜索和获取信息的方式,大家不再需要在搜索引擎上逐条寻找自己需要的信息,只要和AIGC对话就能获取它整理好的信息。这使得媒体人能从重复性、程序化的劳动中解放出来。川观新闻推出数字记者矩阵,为40个真人记者制作数字分身并通过AIGC的方式实现常态化的视频内容生产。数字记者打破了传统的视频生产方式,不再需要布景、妆造、灯光、摄像、剪辑,只需要输入一段文本或语音,几分钟即可生成一段视频播报新闻,极大地提升了视频制作的效率。

(四)不断迭代的技术,让传播的质量越来越好。AIGC拥有强大的理解、自主学习能力,可以深度介入新闻生产,实现多任务、多语言、多形式的内容生成。更为关键的是,AIGC能够通过理解、模拟和学习人类的自然语言来进行对话,并根据聊天的上下文进行实时互动。有人评价它“比很多真人更能听懂人话、说人话”,和以往动辄“对不起,我不明白你在说什么”的“人工智障”有着天壤之别。有资深媒体人受访时表示,“文心一言”回答的准确性、逻辑性、流畅性都逐渐接近人类水平。当然,AIGC与新闻业的融合、发展还处在早期阶段。但通过人类反馈学习,AIGC将具有更强的适应性和灵活性,可以处理更加复杂的问题。

2
AIGC给新闻采编带来的挑战

AIGC在给主流媒体带来内容生产的智能化与传播精准化变革的同时,也带来一些矛盾与困扰,甚至成为新闻业职业危机、认同危机的技术根源。面对AIGC,不能只感慨其超人能力,更要正视其带来的挑战与风险,将其作为一面镜子,以反窥真人记者之局限。

(一)超快的速度,挤压媒体的生存空间。技术的革新首先带来的是新闻生产效率的提高。可以说,一旦AIGC技术得到广泛普及,新闻的生产方式和采编分工架构必然会发生颠覆性变化。AIGC最让人惊叹的,无疑是它快速高效的内容生成能力,采、写、编、评、剪等各个环节在AI技术的辅助下,能够节省更多的时间和成本。效率的竞争决定了传媒的生存与发展。有学者认为,“传统媒体与新媒体的最大差异之一是效率,包括传播效率、内容处理效率、反馈效率,也包括运行效率、资源利用效率等”[1]。一个媒体总体运行效率有多高,提升效率能力有多强,决定了其竞争力有多强。AIGC不仅以量取胜,而且以快占优,可以高效率生成大量看上去“令人信服”的内容而占领大众的注意力资源。这必然会极大挤压主流媒体的生存空间,削弱主流媒体的权威性和公信力。

(二)超全的整合,挑战记者的专业能力。AIGC为内容创作开拓了新的可能性,为内容表达提供了更为广阔的空间。AIGC具备超越人类的整合能力,能在极短的时间内完成大量信息的搜集、整合、翻译、分析与生成,是妥妥的“十项全能”,几乎什么都懂。相信在不远的将来,在AIGC等智能工具的帮助下,普通大众都将拥有新闻“多兵种”的创作能力。易言之,当AIGC一旦普及,使用AIGC就成为“一般标准”,而“一般”肯定不是“卓越”。不会使用或滥用、错用AIGC的媒体人,其竞争力将严重弱化。

(三)超炫的功能,降低媒体的需求程度。现如今,AIGC具备了多模态生成内容的能力,能够广泛适用于不同的应用场景。当答案可以自己寻找时,人们就不会去媒体寻找了。这样AIGC就成功地把人们的注意力分散掉,把人们的思考能力瓦解掉。更为严峻的是,AIGC应用于新闻生产,是将新闻价值判断的主体由人变成了智能机器。AIGC的评判标准势必影响主流媒体人的创作导向、价值取向和作品倾向,同时也对大众的审美标准和评价尺度产生影响,进而对社会的舆论导向产生重要影响。

(四)超高的效率,消解记者的专注精神。AIGC作为技术工具可以给媒体人带来工作上的捷径。比如,其提供的参考框架能够帮助记者迅速地生成写作思路,从而在应对新闻生产的时效性压力时能够获得优势。但当一个人可以在几秒钟内得到问题的答案,多少人还会进行深入思考?当一个人被告知答案是1234的时候,多少人会去思考5678的可能性?如果主流媒体人选择“躺平”,过度依赖AIGC“写”文章、“变”视频,结果必然是整个媒体生态和新闻水平的大倒退。况且,AIGC提供的答案本身是一种公式化、浅表化的“思考”,如若主流媒体人在懒散中拿来就用,先不说影响自身的思考力与创造力,对主流媒体来说哪还有观点、创意、独特性可言?

3
主流媒体应对AIGC的举措

面对加速更新的人工智能技术,主流媒体的内容生产与传播要做出哪些调整才能更好地应对AIGC带来的挑战、抓住AIGC带来的机遇?

(一)培养与AIGC互动沟通的新素养。从长远来看,在规范使用、健康发展的前提下,功能强大的AIGC将成为主流媒体人不可或缺的重要帮手。

1.要辩证看待AIGC的功能,充分认识技术的局限性。真人记者在AIGC面前,大可不必自惭形秽。不可否认的是,AIGC确实可以在许多方面提升效率,但真人记者自然有着无可取代之处。迄今为止,虽然AIGC看似“聪慧异常”,但也有不少“硬伤”。如作为人造物的机器人难以产生“恻隐之心”和“类的意识”,人工智能也缺乏基于道德、亲情的伦常关系,不可能真正拥有与人一样的情感,因此人机之间的界限无法逾越。另外,科技创新历来都是双刃剑。AIGC也面临技术“黑箱”、侵犯版权、暴露隐私等风险。

2.要系统看待AIGC的作用,充分认识工具的辅助性。作为一种技术工具,AIGC永远是辅助性的。辅助不是依靠,也不是替代,更不能是主宰。不可否认的是,在未来,AIGC势必会终结平庸。一些重复性高、创造性差及思想性低的新闻内容,会被AIGC生成内容所取代。不过,就像ChatGPT在回答中所说,与其担心工作被AI取代,不如发挥主观能动性和创造性,利用好新技术、新工具提高工作效率和生活质量,尽可能保持自身的不可替代性。

3.要全面看待AIGC的发展,充分认识人类的独特性。如果以生成的速度评判、以出品的产量衡量,真人记者肯定干不过AIGC。但AIGC的“模式化”“套路化”无法取代人类的“差异化”“个性化”。人类生而不同,特别是人类在文明演进中形成的智慧,更是这世界上独一份的珍贵。正是这些“独一无二”的差异性才让人类文明得以绵绵延续、生生不息。AIGC可以“写”关于童年的文章,但我的童年里有蝉鸣、有星星、有蒲扇,他的童年里也许有糖葫芦、补习班、游戏机,这些又怎么能用现成、固定的答案来描摹呢?

(二)提升与AIGC协同工作的新能力。AIGC势必重构新闻生产流程,重塑记者的角色和职责。就主流媒体人而言,需要掌握驾驭AIGC这项新技术的本领,理解人机交互模式,探索人机协同应用场景,找到人机共存关系中的最佳定位,实现人与AIGC等智能工具的有机融合,借以提升新闻生产质量和新闻传播效能。

1.正确使用AIGC工具的能力。随着AIGC的推广普及,AIGC必将成为媒体新闻生产与传播链条中的重要基础设施,变成智能传播时代真人记者从事新闻采编工作的基础性工具。可以预见,AIGC这样的应用将成为许多记者工具包中的常规应用,具备AIGC技能的人将更容易适应未来岗位需求,不会运用AIGC就像现在不会用电脑一样,将无法顺利开展新闻工作。所以,媒体要建立完善的培训体系,帮助采编人员尽早学习、及时掌握如何使用AIGC,提升对AIGC技术的理解和运用能力,让AIGC成为采编人员的基本技能,确保有效应用于采编业务中。

2.高效采集有用信息的能力。面对AIGC带来的媒体变革,主流媒体人必须有能力依靠自己的新闻素养找到新闻人真正能够发挥价值的空间,培养AIGC不能替代的差异化优势。尤其需要注意的是,记者不能变成像AIGC一样的互联网上已知信息的搬运工,只会包装别人的观点。毋庸置疑,面对AIGC,只有真正有记者思维能力的人,才有可能在未来找到自己的生存空间。中国人民大学新闻学院院长周勇认为,记者的现场采访、人性化写作、直觉、创造力、深度思考等优势禀赋,可以和AI工具的智能聚合及快速生产有机结合起来。在此过程中,人通过智能机器进一步延伸,优势互补、互相成就,更好地实现新闻创作中人的主体性。主流媒体人要提升在热点事件当中发声定调、在敏感事件当中引导有力、在突发事件当中抵达现场等一系列正面叙事的能力。

3.科学判断AIGC生成内容的能力。AIGC生成内容应该与人类的价值观、目标和意愿一致。面对AIGC,主流媒体人既要做积极的新闻信息采集者、解释者,又要做数据的管理者和分析者。面对复杂事物所表现的敏感性、洞察力和判断力以及质疑、追问、寻找对方话语中的新闻线索等记者的基本功,是AIGC在可预见的未来无法企及的。在面对AIGC生成内容时,需要始终保持质疑的态度,加强事实核查,增强辨别力和判断力,不断提升内容的准确性和可靠性,以保证新闻的真实与客观。

(三)挖掘真人记者内容生产的新优势。习近平总书记指出:“对新闻媒体来说,内容创新、形式创新、手段创新都很重要,但内容创新是根本的。”[2]

1.破解新闻同质与独家报道之间的矛盾,生产更多有深度的原创产品。就新闻而言,那些彰显个性、充满创意的作品,从来都不是复制粘贴的。AIGC只能基于过去的信息来回答问题,无法身临其境、现场即时采写新闻。如果过度使用AIGC会因内容的“唾手可得”,而使得原创新闻更为稀缺、独家报道愈发珍贵。新闻本源于社会实践。采访作为一种社会实践,强调记者深入基层、深入群众、深入实际去观察,在与一线的互动中了解、理解社会问题,发现一手的、鲜活的新闻线索,并根据价值观和人类经验进行报道。与AIGC不同,人类具有主观能动性,在改造客观世界的同时又改造自己的社会实践,可以在新闻作品中融入记者的个性、才智、品德、思想、感悟等。试问,如果你是受众,看到的每一条新闻都是机器人生成的“神作”,你还想阅读吗?

2.破解自动生成与议题设置之间的矛盾,生产更多有角度的独特产品。它将是真人记者在未来战胜AIGC的最强武器。只有让自己创造出的东西,能够让受众感觉到它是不可替代的、有意义的,主流媒体人才能有生存的价值。主流媒体要靠新闻的内涵吸引人、靠思想的力量感染人。主流媒体人创作的内容中所体现的报道视角、创造力、思辨性便是难以被AIGC生成内容所替代的价值所在。对此,主流媒体人可以利用人工智能技术分析相关的数据和背景、提炼观点和见解,发现新的报道线索、思路和角度,助益自己的报道,提升工作效率和质量。

3.破解冰冷数据与人文关怀之间的矛盾,生产更多有温度的共情产品。人工智能作为人类社会实践活动的产物,其功能是对人类行为的模拟、物化和延伸。从本质上来说,人工智能只是物质世界范畴的概念,不具备感性思维。AIGC按照语料库的模式生成内容尚不能满足人类更深层次的精神需要和文化需求,缺乏人类的创造力和想象力,人文关怀缺失,很难给受众带去感动和思考。如何通过真人记者个性化体验与个人化思考来展示内容的情感温度,实现作品与人之间的情感、意志、情绪、经验等方面的自然交互?这正如人民日报原副总编辑卢新宁在2017年媒体融合发展论坛上所言:“作为记者,我为地震颤抖,但机器人不会。”这也是真人记者创作与AIGC生成之间的根本区别所在。

(四)构建人机交互协同生产的新机制。传统新闻生产运行的底层逻辑因为AIGC将发生根本性改变。真人记者和AIGC共同协作、共同推动内容生产与传播将是未来的趋势,对此主流媒体要未雨绸缪,制定相关的规定和制度。

1.明确AIGC的应用边界。应用边界的划分是使用AIGC的规范与保障。要“将魔鬼关在瓶子里”,制定AIGC的使用新规则,明确AIGC这类智能工具的使用范围、程度。同时,要明确AIGC的归责体系,增强系统可追溯性,确保在损害发生时可问责。主流媒体可以将使用规范、方法和学术道德都明确教给采编人员。不管是人工写作,还是AIGC“创作”,如果只是将AIGC用于有限的目的,如查找文献、罗列大纲、整理思路等,是无可厚非的,但按现有的学术论文规范,只要超过规定的重复率,都应视为学术不端。此外,AIGC是基于对已有知识的检索与加工,必将涉及知识产权、肖像权等方面的纠纷,应该严格加以规范。

2.建立AIGC的审核机制。AIGC不能对其生成内容的真实性、可靠性、原创性进行判断,无法评判创作的作品是否涉及法律或伦理道德问题。特别是通过换脸、重新投射、口型同步、动作传递、图像生成、音频生成、文字生成等方式伪造照片、音频或视频,篡改新闻事实,这让虚假信息更加难以识别。作为AIGC的使用者——主流媒体,要坚持新闻专业、遵守伦理规范。面对AIGC生成的内容,主流媒体人要能对作品的信源可靠性、内容真实性、表达客观性、论述平衡性甚至算法程序进行审核把关,具备前代记者所不具备的数据素养和信息编码能力。为此,要建立跨部门、跨职能的人工审核团队,包括编辑、技术人员和伦理专家共同审核AIGC生成的内容,确保符合新闻标准和伦理规范,从而保持主流媒体人的独特立场。

3.规范AIGC的内容发布。由于AIGC具有智能化、仿真性特征,真人记者生产的内容和AIGC生成的内容之间的界限变得模糊,容易导致受众混淆或误认。这种情形还会进一步引发受众对新闻业的透明度和问责制的疑虑。所以要重视AIGC内容发布的规范和标准,应当在生成或编辑的信息内容的合理位置、区域进行显著标识,并依照法律、行政法规和国家有关规定保存日志信息,以将AIGC参与制作的内容和完全由真人记者创作的内容进行区分。如在每篇由AIGC创作(或参与)的内容的署名位置,都加上“人工智能技术创作”或“人工智能技术参与写作”之类的说明。同时,主流媒体对人工智能生成的内容应当建立用户投诉接收处理机制,及时处置关于更正、删除、屏蔽相关人工智能生成信息的投诉;发现、知悉AIGC生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合法律法规要求时,应当采取措施,停止生成,防止危害持续,并公布处理流程、反馈时限和处理结果。

4
结语

总之,面对AIGC带来的新变化、新挑战和新机遇,主流媒体要善于以内容为导向运用技术工具,着力培养能与AIGC良好协作的数字素养,掌握好驾驭这项新技术的本领,解决好在人机协同中遇到的问题,强化核心竞争力,发挥自身独特优势,全力打造人机和谐、量质齐升的智媒传播新格局。

参考文献
[1] 陆小华.智能媒体竞争力七大新制约要素与生成逻辑[J].青年记者,2022(21).77.
[2] 习近平.习近平在视察解放军报社时强调 坚持军报姓党坚持强军为本坚持创新为要  为实现中国梦强军梦提供思想舆论支持[N].人民日报,2015-12-27(1).

来源:传媒评论
链接:https://mp.weixin.qq.com/s/XGMDpnKZ_vFHomPDM-MeuQ
编辑:郑程程
793#
 楼主| 发表于 2024-1-11 23:32:41 | 只看该作者
【案例】
OpenAI回应《纽约时报》起诉:用公开素材训练大模型合理

·OpenAI在此次回应中共提出四点主张。OpenAI认为,使用公开的互联网材料训练人工智能模型是合理的;《纽约时报》并未讲述完整的故事,似乎故意操纵提示,其诉讼毫无根据。

当地时间1月8日,ChatGPT的开发机构OpenAI在官网发布一份声明,针对近期《纽约时报》提起的诉讼进行了首次正式回应。
2023年12月27日,《纽约时报》起诉OpenAI和微软公司,指控这两家公司未经许可使用其数百万篇文章以训练人工智能模型。
OpenAI在回应中共提出四点主张,第一,OpenAI愿意与新闻机构合作并创造新的机会;第二,使用公开的互联网材料训练人工智能模型是合理的。但OpenAI提供了退出的选择,因为这是正确的做法;第三,反刍事实(regurgitate facts)确实是一种罕见的错误,OpenAI正在努力将其减少到零;第四,《纽约时报》并未讲述完整的故事,其诉讼毫无根据。
OpenAI在声明中表示,使用公开的互联网材料来训练人工智能模型,得到了学术界、图书馆协会、民间社会团队、初创公司、美国领先企业、创作者等人士的广泛支持,其他地区和国家,包括欧盟、日本、新加坡和以色列,也有法律允许用受版权保护的内容训练模型。
此外,OpenAI为出版商提供了一个简单的选择退出流程,防止OpenAI访问他们的网站,《纽约时报》于2023年8月已采用这一退出流程。
反刍(Regurgitation)是指特定内容在大模型的训练数据中多次出现。OpenAI强调,公司采取了措施来限制非故意记忆,并防止大模型输出中的反刍现象。OpenAI还希望用户采取负责任的行动,故意操纵其大模型进行反刍,并不是对技术的适当使用,也违反了使用条款。
OpenAI称,《纽约时报》看到了一些内容的反刍,但拒绝分享示例。“有趣的是,《纽约时报》提到的反刍似乎来自多个第三方网站上大量传播的多年前的文章。他们似乎故意操纵提示,通常包括冗长的文章摘录,以便让我们的模型反刍。即使使用这样的提示,我们的模型通常也不会像《纽约时报》暗示的那样表现,这表明他们要么指示模型反刍,要么从多次尝试中精心挑选示例。”
OpenAI的声明写道,该公司正在不断提高系统对反刍训练数据的对抗性攻击的抵抗力,并且最近的模型已经取得了很大进展。
OpenAI透露,2023年12月19日,该公司与《纽约时报》进行了最后一次沟通,当时他们向对方解释称,和其他的单一来源一样,《纽约时报》凭自身并不能构成有意义的贡献,对未来的模型训练也不会产生足够大的影响。
“正如人类接受广泛的教育来学习如何解决新问题一样,我们希望我们的人工智能模型能够观察世界范围内的信息,包括来自每种语言、文化和行业的信息。由于模型是从人类知识的巨大集合中学习的,因此任何一个部门(包括新闻)都只是整体训练数据的一小部分,而任何单一数据源(包括《纽约时报》)对于模型的预期学习并不重要。”该公司的声明称。
《纽约时报》在起诉中并未提出具体的赔偿金额要求,但指出被告应为“非法复制和使用《纽约时报》独特且有价值的作品”和与之相关的“价值数十亿美元的法定和实际损失”负责。此外,《纽约时报》要求两家公司销毁任何使用到《纽约时报》版权材料的聊天机器人模型和训练数据。
《纽约时报》还表示,已于去年四月与微软和OpenAI进行接触,对两家公司使用其受知识产权保护的内容表示了担忧,并探讨了“一种友好解决方案”的可能性,其中可能包括一项商业协议以及围绕生成式AI产品的“技术限制”。但是,谈判并没有得出解决方案。
在声明中,OpenAI最后表示,“我们认为《纽约时报》的诉讼毫无根据。尽管如此,我们仍然希望与《纽约时报》建立建设性的合作伙伴关系,并尊重其悠久的历史。”

来源:澎湃新闻
链接:https://www.thepaper.cn/newsDetail_forward_25948349
编辑:潘洁

794#
 楼主| 发表于 2024-1-13 00:15:26 | 只看该作者
【案例】
加拿大发布AIGC原则回应隐私保护,涉知情同意、权利行使


近期,加拿大隐私专员办公室(The Office of the Privacy Commissioner of Canada,OPC)发布了针对生成式人工智能技术的规制文件《生成式人工智能技术的基本原则:负责任、可信和隐私保护》(下称《基本原则》),重点就使用该技术过程中的个人信息保护等问题作出回应。


OPC官网
经南都记者梳理,《基本原则》共九大条,几乎每条原则都分别针对各方、生成式人工智能系统的开发者和提供者、生成式人工智能系统的使用组织提出不同的隐私保护要求。同时,《基本原则》提出应重点考虑该技术对儿童等弱势群体造成的特殊影响,要求对他们采取更多隐私保护措施。


No。1避免欺骗获得知情同意,明确禁止三方面行为

人工智能技术飞速发展的同时,其带来的隐私安全担忧从未止歇。当前,如何负责任地使用并治理人工智能已成为国际社会的讨论焦点,各国纷纷加紧制定相关法律法规。在推出《基本原则》之前,OPC及其在不列颠哥伦比亚省、魁北克省和阿尔伯塔省的相关监管机构对生成式人工智能服务进行了公开调查。

“虽然生成式人工智能技术可能会给隐私带来新的风险,并在个人信息的收集、使用和披露方面引发新的问题和担忧,但它们并不在现行法律框架之外。”《基本原则》在介绍其出台背景时写道,开发、提供或使用生成式人工智能技术的组织有义务确保其活动符合加拿大适用的相关隐私法律法规。

《基本原则》的九大原则包括法律授权和同意,收集、使用和披露个人信息的必要性、恰当性、开放性,个人信息主体权利、隐私安全保护措施等。同时,《基本原则》还明确了当前背景下,某些尚未得到加拿大相关法律法规的明确限制,但因可能产生不良后果和影响进而被严格禁止的行为“禁区”。

具体而言,“禁区”主要包括三个方面。一是出于恶意目的利用人工智能生成相关内容,例如避开身份验证系统或未经本人同意时生成可识别的个人私密图像;二是通过对话故意诱导人工智能泄露更多个人信息及敏感个人信息;三是生成和发布关于个人的虚假或诽谤信息。

知情同意是收集和使用个人信息的法律依据。《基本原则》规定,应确保以同意作为收集、使用和披露个人信息的合法性基础时,这份同意有效且有意义; 同意应尽可能具体,且避免通过欺骗性的方式获得;当个人信息来源于第三方时,应确保第三方系合法收集且有权进行共享。涉及收集和使用敏感个人信息时,比如医疗保健信息,应取得单独同意。

在目的方面,应确保与生成式人工智能系统相关的任何个人信息收集、使用和披露行为都是基于适当目的,且收集、使用和披露方式合法。

针对不同主体,开发者和提供者应不开发或使用涉及“禁区”的生成式人工智能系统,如发现潜在的、非预期的不当使用情况,应采取措施降低风险——这可能需要通过采取相关技术措施,提前制定使用规范来实现。生成式人工智能系统的使用组织则应避免促使该系统重新识别任何此前已去除身份标识的数据。

No。2开展隐私算法影响评估,重视儿童保护

《基本原则》明确,收集和使用个人信息应遵循必要性、开放性等原则。在必要性方面,如果不是为实现适当目的所必需,各方都应使用经匿名化、合成或去标识处理的数据,而非个人信息。使用组织应评估生成式人工智能系统用于预期目的有效性和可靠性,确保其在不同使用场景下也做到准确无误。

开放性指在个人信息的收集、使用和披露以及个人隐私的潜在风险方面实现公开透明。《基本原则》提出,在生成式人工智能系统生命周期的任何阶段,如开发、训练和运行等,需明确告知收集、使用和披露个人信息的内容、方式、时间以及原因,确保可能对个人或群体产生重大影响的输出内容能够被识别为由生成式人工智能技术所生成。

开发者和提供者应确保使用生成式人工智能系统的组织了解相关任何已知或可能的风险,包括已知或合理预期的故障情况,如可能输入错误信息等。维护并发布用于开发或训练生成式人工智能数据集的相关文档,包括数据集的来源,收集和使用数据集的法律依据,是否有相关许可证明或对数据集使用目的的其他限制,以及对数据集进行任何修改、优化的记录等。

使用组织应公开的信息包括数个方面。首先,应向各方明示是否在决策过程中使用生成式人工智能系统,如果是,需明确以何种身份使用,采取哪些保障措施,受影响方可保留哪些选择或追索权。其次,需明示使用了哪些个人信息训练和改进系统以满足其特定用途。此外,应确保与生成式人工智能系统交互的个人在使用时了解对方身份、相关隐私风险以及可用的救济措施。

除了对系统开发者、提供者、使用组织的行为进行规制,《基本原则》还对行使个人信息权利作出明确。

具体来说,应制定相关流程,使个人能在使用生成式人工智能系统的过程中对其相关个人信息进行访问和更正。各方应明示个人信息存储时限,及时清除不再需要保留的信息;确保个人在信息保留时限内行使获取信息的权利。

在隐私安全保障措施方面,《基本原则》提出,需在生成式人工智能系统运作的整个生命周期内采取与被处理信息敏感度相称的保护措施,使用时持续了解和防范重大隐患,比如蓄意避开验证步骤或使系统执行非预期操作的行为,大模型训练数据中包含的个人信息被泄露等。

开发者和提供者应防止不当使用系统,进而生成不公平、不道德或带有歧视性等非法或有害内容,持续监控系统的运作情况,及时纠正不当使用行为。使用组织应确保在使用系统控制数据的过程中,不会对其安全保护措施造成负面影响。

为了强化责任追究,约束不作为等,《基本原则》还提出了针对隐私保护的问责机制。建立明确的隐私合规内部治理架构,明确各方职责和义务;建立反馈和投诉机制,对生成式人工智能系统的开发使用开展隐私影响评估、算法影响评估等,明确潜在安全隐患。

具体到各方,开发者和提供者应对系统进行独立审计,评估其有效性和可靠性,确认是否符合相关隐私法规,测试输出结果是否存在不准确性和偏差。此外,鼓励开发者和提供者允许独立研究人员、数据保护机构和其他相关监督机构对系统或大模型的潜在风险进行评估和审计。

“使用组织应当理解决策的责任在于组织,而不是用于支持决策过程的任何自动化系统。”《基本原则》明确,要为受影响的个人提供有效的质询机制,为其提供足够的决策形成相关信息,允许要求开展人工审查和二次决策。

值得一提的是,《基本原则》还强调了生成式人工智能技术对儿童等弱势群体造成的特殊影响。在开发生成式人工智能系统时,要对训练数据集进行评估,以确保不会复制、固化、放大历史或当前的偏见,以及引入新的偏见;在使用此类系统时,应对输出结果进行额外的监督和审查,加强对潜在不利影响的监测。


来源:隐私护卫队(公众号)

链接:https://mp.weixin.qq.com/s/yy7LcZlBPjfsWFE-0LUiBw

编辑:潘洁





795#
 楼主| 发表于 2024-1-13 19:39:58 | 只看该作者
【案例】
龚群 | 论弱人工智能体的道德性考察作者简介

龚群,江西南昌人,1952年生,山东师范大学马克思主义学院特聘教授,中国人民大学杰出学者特聘教授、博士生导师,美国哈佛大学、德国莱比锡大学等高级访问学者。中央马工程教材《西方伦理思想史》第一首席专家,国家社科基金重大项目“社会主义核心价值体系重大问题研究”、“全人类共同价值研究”首席专家,以及多个社科基金和教育部重点项目、一般项目主持人。出版《人生论》《自由与潇洒》《当代中国社会伦理生活》《道德哲学的思考》《当代西方道义论与功利主义研究》《道德乌托邦的重构》《罗尔斯政治哲学》《社会伦理十讲》《当代西方伦理思想研究》《自由主义与社群主义的比较研究》《现代伦理学》《追问正义》《当代后果主义伦理思想研究》等20多部学术专著,出版《伦理学简史》《德性之后》《伦理学理论》等多部译著,在国内外学术杂志发表论文260余篇。


摘   要:弱人工智能体是具有一定自主性的人工智能(AI),其自主性可能隐含相应的道德问题。弱AI因其深度学习模式而有类似于人类的逻辑推理能力,但它没有自我意识或意向性,不具备亚里士多德意义上与实践相关的实践理性和伦理德性,也不具有休谟式道德发动意义上的情感,从行为本身以及从行为者本身来看,弱AI并不具备道德行为者的基本要素。然而,弱AI是具有一定自主性且持续发展的行为者,属于一种需要认真研究的行为新类型和伦理新类型,学界亟需加强对当代AI的伦理研究,为迎接强AI的到来准备好伦理条件。
关键词:人工智能;道德行为者;德性;意向;行为
“人工智能”(artificial intelligence,简称AI)这一概念自1956年被正式提出,其理论和应用在随后的几十年、尤其是近十年中发展迅猛。“人工智能”即人为制造的智能系统,其相关研究已经成为一个崭新学科和当代尖端科学技术,并在多领域获得了广泛应用——如,能够进行深度学习(Deep Learning)的人工智能机器AlphaGo,通过战胜世界顶级围棋高手,显示了其在专门领域里卓越的智慧能力;ChatGPT的强大功能已经引发世界关注,似乎人类距离通用型或强人工智能(Artificial General Intelligence)已经不远了。ChatGPT和AlphaGo一样,都是具有深度学习机制的弱人工智能体。一般而言,人工智能这一概念涵盖人工智能理论、技术系统与应用领域(见腾讯研究院,第23页),而人工智能体(见简小烜,第98页)则指应用人工智能理论与技术而制造的人工智能机器(见闫坤如,第47页),有时又被人们称为人工智能机器人或智能机器人,但通常人们并不加以区分而统称之为人工智能。这类人工智能体在诸多专门领域(如自动驾驶、医疗诊断、军事、家政服务、抗击新冠病毒等方面)发挥作用。能够深度学习的弱人工智能体向人类诸多社会科学理论提出了挑战,其中首当其冲的就是伦理学理论。人们预言,不久的将来,强人工智能以及超级人工智能的时代也即将来临。目前人工智能领域对于人工智能进行三种不同层级的区分:弱人工智能是相对于强人工智能而言的,前者指的是人工智能只能在少数有限的范围或领域里胜过人类,虽然其专门项目在持续增加;后者又称为通用人工智能,这种达到人类水准的人工智能具有起码能和人类一样达成任何目标的能力;超级人工智能代表超越人类智慧的通用人工智能。(参见铁马克,第69页)深度学习机制并非是通用智能系统,即并非是在用户最少化干预的情况下也能完成任何活动的智能系统,如ChatGPT不可能脱离其设计的技术路线来从事任意活动。(参见何立民,第89页;刘子玥,第8页;铁马克,第67-69页)我们应从理论上积极应对弱人工智能体以及人工智能的未来发展给我们提出的伦理问题。

一、自主性与行为责任归属
弱人工智能体之所以会产生伦理问题,是因为它具有一定的自主性(autonomy),所以与以往所有人造物都不同。相反,如汽车等人造物作为人类社会的代步工具,仅仅表现为一种工具性,而不会被认为与交通事故之间存在某种伦理上的联系,这其中的差别正在于弱人工智能体的自主性。自主性是一个内涵较为丰富的概念,可以分为道德意识与行为意义两个层次。就前者而言,康德道德哲学典型地表达了其含义:个人意志的自主自决以及自我立法。就后者而言,自主性强调的是行为者能够在不受外在因素影响下独立作出决定和选择,并控制自己的行为导向目标。(参见程承评,第60页;丛杭青、王晓梅,第108、86-87页)本文所谈论的弱人工智能体的自主性主要表现为后者。如ChatGPT写诗、写文章、写代码的行为都是其自主性的表现,但这不能表明它有数据能力之外的创新能力。行为自主性是对行为本身进行道德评价的基本要求,同时也是对其道德责任归属的主要考量。亚里士多德的行为自主论是一种自愿论,他认为“强制的始点是外来的,行为者对此无能为力”。(见亚里士多德,第41页)而行为能动者由内在机制(欲望、动机、意图等)主动发生的行为,其动力源于自己,其道德意义为行为主体本身所蕴含。换言之,如果一个人受到外来强制而不能自主决定自己的行为,就是非自主性行为,此类行为不应归责到行为者本身。成熟的人类行为者一般具有返身性道德责任意识,即不仅对于行为的目标有意识,而且对于该行为的影响有责任意识。弱人工智能体适用于这种类推吗?自主性可分为三个层次,即操作性、功能性和完全性道德体(full moral agency)。(cf.Wallach&Allen,p.26)操作性自主完全按照程序设计来执行命令,这种自主是设计者想法的体现;功能性自主是为达到一定的设计目的,使行动主体能够依据环境条件对行为具有一定的调节性,并且具有评价自身行为的一定能力;完全性道德体的自主就是完全依据理性或情感能力的自主。沃利奇和艾伦认为,这三个层次的自主性依次递进,但“人类目前还没有这样的技术”能够实现从第二层次到第三层次的进化。(ibid.)人类行为自主性可以涵盖这样三个层次,而弱人工智能体目前只有操作性自主性和功能性自主性。操作性自主智能可部分替代人的劳动,但其伦理意义较小。凡是涉及人与人关系的地方,就具有伦理道德上(善恶、好坏)的意义,如智能工业机器人发生伤人事件,就是具有伦理恶的事件。伦理意义的大小主要取决于弱人工智能体的人际互动程度。在某一领域能够从事功能性活动的弱人工智能体,其蕴含的伦理意义有高下之分:如围棋人工智能体仅仅是与人对弈,相对人际互动不多;而无人驾驶汽车,在行进中需要面对不断出现的路人以及乘客的不同状况,因而与围棋人工智能体相比,无疑其伦理意义更大。虽然弱人工智能体具有在某一领域从事工作的卓越智能,但仍然不具有与人类的智能相比的真正通用性。虽然目前弱人工智能体的智能活动并非称得上严格意义的、在人的自愿自主行为意义上发生的“行为”,但从机器算法的逻辑意义及自主行为的定义来看,这无疑具备了某些类人自主行为的特征。有人提出:“这种‘自主性’只是看上去像有,而实质上并没有,这种自主性源于一种功能赋予。所谓的功能赋予,是指行动者利用物体的自然属性达到他们的目的,人类和某些动物具有赋予对象某种功能的能力。”(宋春艳、李伦,第97页)但这类反对意见对于能够进行自主判断的弱人工智能体来说是不成立的。弱人工智能体代表了人类制造智能方面的突破性进展,“创造会思考的机器的可能性可能引发一系列的伦理问题,既与确保机器不伤害人类和其他与道德上关联的存在者有关,也与机器本身的道德地位有关”。(cf.Bostrom&Yudkowsky,p.316)“会思考”(thinking)的含义并不确切,正是因为这类机器具有一定的自主性,才引发了所谓的“道德地位”的问题,这与行为者的自主能力和道德责任能力相关。那么,弱人工智能体是某种自主而有承担责任能力的道德行为者吗?弱人工智能体与具有理性的自我主体(即人)所作出的抉择从机制上看并非完全一样,但其结果都表现为行为自主。弱人工智能体目前的主要基本工作机理为符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism,或称进化主义evolutionism),这三者目前已呈融合趋势。能够进行逻辑演绎、强计算以及类神经网络的深度学习,具有很强的推理运算能力以及有限的模拟人类神经系统的结构与功能,在与环境互动中自主学习、作出判断,从弱人工智能体的逻辑演绎和运算能力以及作出选择和决定的能力看,它具有某种类人类理性的人工理性。需要注意的是,动物的自主性活动是因本能(刺激-反应)或感性欲求,并非由于内在理性而活动,这是动物与人的区别,也与弱人工智能体不尽相同。人工智能从根本上是为人类服务的,它能实现人脑的延伸和体力的解放,因而与人的利益息息相关。但其活动必须以善目的为导向。人工智能程序设计者可以把人类的道德规范、道德价值要素编制为人工智能的运算程序来让它们遵守或执行。(cf.M.Anderson&S.Anderson,p.75)人工理性充其量只是人类推理运算理性的拟人化形式,虽然道德判断往往也要用到逻辑推理,但伦理问题更多的是价值理性而非认知理性在起作用。人类的道德价值思维并非完全按照外在规范而是按照内化了的规范以及体现为品格的德性来进行符合规范的行动。实践理性并非像逻辑程序那样固化,而是因人的品格境界的差别而体现出千差万别的道德特性,这与机器按照指令程序来行动完全不同。人类自主性是在既有理性又具有自我意识的前提下的自主性,弱人工智能体的自主性是在没有自我意识前提下的自主性,因而并不能完全等同于人类自主性那样的自主性。那么,弱人工智能体可能具有道德责任意识吗?道德责任意识是一种返身性意识,即能够对于自己的欲望、意图或动机进行道德评价,并且在行动之后也能因自己的行为产生对他人有利或不利的后果而感到满意或内疚。弱人工智能体没有返身性思维的能力,因此不可能建构起道德责任意识,但这并非意味着不需要承担道德责任。没有人类意识但具有一定自主性的人工智能,由于其有着一定人类智能性质的理性,并且也由于人可以将道德规范命令作为程序因子编入人工智能运行的程序之中,(ibid.)从而能够有道德意义上的行动。人工智能的深度学习基于程序算法给出的目标指令,但怎样最优地达到设置目标,则是人工智能机器人(又称智能机器或智能机器人)本身的作为。(参见郭万明,第130页;闫坤如,第50页)然而,如果智能机器人(目前的智能机器人也就是弱人工智能体)按照程序指令进行工作而出现某些并非由于程序本身造成的伤害人的问题,应该如何对其进行法律或道德责任意义上的处罚?弱人工智能机器人在本质上仍属于人的工具,不具备法律主体资格。(参见贺栩溪,第105页)有人认为,机器人即使有程序性自主性,但到目前为止的机器人没有责任心,也不能担负道德责任,因此不是道德行为者。(cf.Sullins,pp.24-25)但即使这类智能机器人不能像人一样具有责任心和承担道德责任,也不是严格意义上的道德行为者,并不意味着就不应承担责任,只是人类暂时没有找到合适的使其像人一样承担道德责任的方式而已。责任、义务与权利是对等的,智能机器人具有一定的道德责任就应当享有一定的道德权利,但如何使机器人享有与自然人一样的法律道德权利和身份,仍然是一个问题。如ChatGPT已经可以按照程序指令来作画或写出优美的诗篇,那我们是否也应当保护这类弱人工智能体的著作权?这种著作权又如何履行?即使强调弱人工智能体是道德责任和权利的归属主体,弱人工智能体本身并没有意识,它不可能意识到自己负有某种责任,那么如何使其承担道德责任以及享有相应的权利?

二、意向性、意识与行为

具有道德意义的人类行为体现的是人类行为者本身的主动动因、内在意愿,因而体现了人类行为的意向性(intention)。但弱人工智能体仅仅具有一定自主性,其行为是否能够被视为类似于人的行为?人的行为是具有自我意识的主体的意向性行为,对弱人工智能体行为的道德意义的考察必须将意向性以及自我意识纳入其中。首先,就人类的活动而言,有意义的行为与单纯无意义的动作或行动有根本区别。判断一个动作是不是行为,关键在于这个动作是有意识的行为、意识清醒下的行为、潜意识的行为,或只是无意识的肢体动作等。“行为就某种意义而言,是通过身体的运动体现出来的,但是只有当行为者遵循一种技术的行为规则,或者一种社会行为规则而同时进行这种运动时,这种行为才能体现出来。这种同时进行意味着,行为者是有意完成一种行为计划的,而不是有意进行借以体现他的行为的身体运动。一种身体运动是一种行动的因素,但不是行为。”(Habermas,S.146)哈贝马斯认为,人类的行为不能与行为背景所遵循的规则或社会规则分离,如果把身体运动与行为所体现的规则意义分离开来,就会对人类行为产生误解。当然,也存在着单纯的身体活动或肢体运动,但如果要把它说成是行为,就要看到它具有的意义。如我们向他人挥手是要向他人表达某种我们想表达的意思,这样的肢体活动无疑是一种行为。不过,哈贝马斯所说的行为与行为规则相关联中的“规则”,是行为者自己所认可或已经成为行为背景条件的规则。换言之,这样的行为规则并非需要行为者去努力回想而是已经融入行为方式之中的规则。这样的行为应当是行为者所认为的“正确的行为”,即与行为规则相符合的行为。此外,错误的行为其本身不符合一定的规则,但由于这些规则在行为者的理性认知范围内,因此当人们指出其行为不合规则时,行为者不能为自己进行合理辩护。其次,人类的身体运动或肢体活动之所以会体现某种社会规则或具有规则意义,根本原因在于人类的意识。行为是人们在规则意识指导下的行为,或由于人们对某种规则的意识而作出的行为。不过,人类的行为在相当多的情形下,正如弗洛依德所说,是潜意识或无意识的行为。这类潜意识或无意识行为实际上是人们长期习惯所养成的,如行走礼让他人,看似无意识,却是在长期反复的行为实践中形成的自发性行为。这样的行为看似无意识,但仍然以符合规则的潜意识为前提。在我们依照习惯行事时,如果有人突然蛮横地在前面冲撞他人,我们会因不理解而感到吃惊。第三,从现象学看,任何意识活动都有意向性,意识活动的特点就是意识主体既有对自身的意识,同时也意识到意识对象的存在。这个对象既可能是物,也可能是人。意识既指向外在的存在物,也可能指向内在对象。(参见布伦塔诺,第105页)以哈贝马斯的观点来说即在合规则的意识中,这也是意向性的特点。意识或意向对象是意识主体在意向过程中建构出来的,也赋予了对象意义。意向对象指向对象的过程,也是一个选择的过程,完成确定行为并赋予其意义。因此,在意向性精神现象中,意识主体起着关键性的作用。塞尔则从心理意义上来讨论意向:“感觉经验是意向,它们的意向内容在形式上是命题性的,即精神朝向适应世界,它们的性质以意向内容来说明。”(cf.Searle,p.45)在塞尔看来,意向本身不可离开感觉世界的本体,但同时又不可离开心理本体来把握。意向是内在心理性的,因而实现是意向本身的精神性事件。实际上,潜意识在某种意义上也就是指一种心理状态。在精神生活意义上,心理状态比明确的意识更为深层次。意向性既包含意识性层面,也包含心理精神层面。弱人工智能体的活动可以称之为具有意向性的行为吗?当前的相关研究没有表明人工智能具有意向性活动。使人工智能像人脑一样具有意识或自我意识,是人工智能研究的重大方向。物理还原主义的路线并非能够成功。脑科学研究把意识现象还原为生化层次和神经构造层次,这一领域的研究表明,一切意识(包括意向性)活动都有严格的电生理化学反应关系。20世纪80年代末,“神经生理学发现,在猫、猴等动物的视觉皮层区,有40Hz同步振荡产生,据认为这种同步振荡是各种视觉特征……有的神经生理学家也把40Hz同步振荡作为意识的神经相关物”。(见汪云久等,第1142页)这引发人们的设想,是否只要有像人脑一样的生物结构,就可以使人工智能产生像人脑一样的意识行为或意向性行为?就神经结构与认知结构的关系问题,目前的研究已经取得了一定的成果,如对于动物和人的视觉意识的神经机制研究,已经从传统的对视觉加工的分层级研究发展到视觉反馈过程的研究。动物电生理对猴子的研究发现,“在猴子的视觉皮层中,除了前摄神经连接,还存在很多反馈连接”。(见李奇、耿海燕,第1213页)还有人认为,“猴子的视觉大脑和视觉能力与人类非常相似”。(见刘晓力,第119页)针对动物视觉以及人的视觉神经生理结构的研究通过大脑皮层的神经传向方式的比较,深入探讨神经网络传导的物理表达方式。然而,这样的物理还原或以人工算法还原只是以物理方式或数学方式重现神经网络的认知,却把“意义”的参与排除在外,仅仅成为神经网络或人工智能深度学习的程序设计。换言之,把人的行为活动还原为大脑的物理或神经生理或电生理过程,能够解释行为意向吗?能够解释一个人在不同情境条件下完全相同行为的不同意义吗?意识本来就与物理材料无关,关键在于组成的模式。(见铁马克,第386页)组成模式就是物质在粒子层次的排列组合。“我认为意识就跟固态、液态、气态一样,都是突现的现象,会产生原有粒子不具备的新特性。譬如说当我们进入深度睡眠,仅仅只是粒子重新排列,就可以让我们失去意识,或如果我不小心冻死,我身上的粒子只是改以不幸的方式重新排列,……”(铁马克,第382页)目前的生物物理研究还没有达到基本粒子或电子层面的生化反应层次。但是,基本粒子的排列方式就能够解释人类的意识现象吗?这仍然是一个存疑的问题。虽然人工智能可以模拟人脑的知觉活动,但仍然不可能产生类似人的活动意义、自我意向性意识等维度的精神意义。目前达到神经网络深度学习的人工智能在原理上实际很简单:“‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可。”(斯加鲁菲,第29页)谷歌与斯坦福大学组成的联合研究组利用16000台电脑组成了包括10亿个连接在内的神经网络。斯加鲁菲把它称之为“暴力计算”。(见同上)暴力计算是目前统治人工智能领域的范式之一,ChatGPT就是一个实例。人脑中的神经元大约1000亿左右,每个神经元都通过1000个左右的突触与其他神经元连结、交换信息。神经网络在经过内在信息的多重转换后,最终能够将获得的事物表象转换成人类对外在事物对象的认知把握。“现在除了生物性的神经网路,还有属于人工智慧的神经网路,近来也成为人工智慧领域当中名为‘机器学习’(研究如何透过经验累积改良演算法)的主导力量。”(铁马克,第92页)在神经网络的深度学习功能上,计算机的能力很强大,但这是否意味着人工智能会像人类一样思考?实际上,当前弱人工智能体的一个最根本问题就是缺乏像人一样的意识:“我认为超人智能至少具备一个特点:意识。人类的思考、感觉、痛苦、快乐都属于意识。人类有意识,比人类高级的智能理应也有意识。”(斯加鲁菲,第118页)当前弱人工智能体还不具备像人一样的意识能力。AlphaGo的设计程序中有千万个棋谱和算法,高速运算能力使得它能够飞速找到最佳棋法。但这并不是AlphaGo的意识,而是按照程序逻辑和深度学习算法作出的自动判断。弱人工智能体通过大数据的运算,具有超强的逻辑推理和判断能力(甚至可能有直觉判断,如在AlphaGo对弈李世石时让世人震惊的第37步),但并不能因此就说它具有意识。笔者赞同翟振明的观点:“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”(翟振明,第30页)认为当前的弱人工智能体的高超运算能力等于“意识”或会接近人的意识是犯了物理主义、计算主义混淆“内在描述”与“外在描述”的功能而陷于“整一性投射谬误”的结果。(见同上,第29页)“意向性问题曾经是19~20世纪转折时期最热门的话题之一。无独有偶,在新的世纪转折时期,它再次受到人们的亲睐。所不同的是,它不再只是一个纯学术问题,而同时带有工程学的性质。当今的心灵哲学与其他关心智能问题的具体科学如人工智能、计算机科学、认知科学等,尽管各自走着迥然不同的运思路线,但最终都发现意向性是智能现象的独有特征和必备条件。然而作为现代科技之结晶的计算机所表现出的所谓智能,尽管在许多方面已远胜于人类智能,但它只能按形式规则进行形式转换,而不能像人类智能那样主动、有意识地关联于外部事态,即没有涉及到意义,或没有语义性或意向性。”(赵泽林、高新民,第51页)弱人工智能体不仅没有能思考的意识能力,也没有返身思考的能力,从而也就没有道德责任意识,更不用说自我意识。返身性思考首先有一个前提,即自我概念。返身是对自我形象多方面进行把握的能力,如通过对象来把握自我。猴子可以通过自己的水中影像获得对自己的感性直观,但人的返身性不仅是感性的,而且是理性的返回自身,如获得道德的自我形像。当前的AlphaGo可以通过学习进行对象性判断,但它能够通过无数次的学习建立像人类一样的心灵吗?通过无数次的深度学习建构起一套自己的逻辑理路来迎战任何围棋高手并不是人们所说的自我建构,更不用说什么自我意识了。即使是比AlphaGo更高一级的、算法更为先进的AlphaZero,也同样如此。自我意识是自我与他者相分离的意识,是在知觉感知对象的前提下才可能有的自身意识。笛卡尔的“我思故我在”作为自我意识的呈现,首先在于能够将自我与对象世界区别开来,并在这种区别中认识自我。弱人工智能体并不是以任何已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。人工智能专家2019年设计制造了一类机器人,它可以进行自我修复,有人认为这似乎可以被视为具有自我意识的机器人。对此,江怡评价道:“严格地说,这还不能算是一个完整的机器人,而且,仅从机器手臂可以根据外部环境自我修复和调整的功能看,这也不符合我们通常理解的自我意识活动。”(江怡,第5页)弱人工智能活动并不等同于人类行为。如果弱人工智能体没有人类所具有的意识,也不具有人类道德意义上的行为,我们也就无从把弱人工智能体看成是类似人一样的道德行为者。

三、何为道德行为者?

按前述,自主性意义上的充分的“道德能动体”目前只有人类存在者才可充当,或者说,只有人才是道德行为者(moral agent,后一概念又译为能动者)。具有自主性的、能够意识到自己行为的意向,并能够因此承担相应责任的行为者可称之为道德行为者。(cf.Sullins,p.28)然而,就理性人而言,作为一个道德行为者,其特征远比这三个要素更为丰富。理性人的行为不仅与他的理性和情感相关,也与他的品格内在相关。亚里士多德认为,人作为道德行为者的本体依据在于人的灵魂。体现作为人的灵魂的本质特性的是理性,德性以理性相符,因而“是灵魂的德性”。(见亚里士多德,第22页)行为的正当性以符合理性为依据,如果人们因放纵自己的情感、欲望而受到责备,那么受到责备是很正当的,人的行为只有符合理性或听从理性的指导,才是符合德性的行为。亚里士多德的灵魂说是其德性本体论最深层次的理论。就德性论本身而言,人的德性行为还应当有一个品格品质的内在根据。人有德性品质,才会有德性行为。德性品格可看作是人的长期道德行为习惯培养的产物,又可看作是人的理性潜能和体现。内在品格是在人的道德行为习惯中所养成的,因此,一个理性的人体现出的内在卓越的行为,也是品格的展现。当然,理性与品格两者也有不一致的情形,如罪犯运用理智来犯罪体现的就不是德性,而是恶。换言之,内在卓越的道德品质是行为合乎善的要求的德性保障。但仅仅有德性往往也会犯错。要做到理性与德性要求的一致,就要求人们在相应的条件下展现出其理智符合德性的判断,在适当的环境、适当的时间和适当条件下作出相应判断和行动。质言之,人的德性行为体现为德性品格和理性共同发挥作用的行为。亚里士多德的德性论又可说是一种理性论(不排除品格也起作用)。在亚里士多德的意义上,理性可分为理论理性与实践理性,就理论理性而言,理性是分析、推理、判断,同时也是“对普遍者和那些出于必然的事物的把握”。(见亚里士多德,第121页)通晓几何、算术这类知识是智慧,而理性更重要的使命是沉思永恒的、最高的或普遍的存在,因而沉思是最高的幸福。实践智慧或实践理性,则是在道德、政治等实践中运用正确的原则。(参见同上,第114页,译文为“正确的原理”)功能性弱人工智能体的超强运算能力可高效而卓越地胜任某领域里的工作或实现其任务目标,在这个意义上,弱人工智能体具有亚里士多德所说的理性或卓越。然而,就伦理德性而言,亚里士多德同时认为不可忽视理性所起的决定作用以及德性品格所起的作用。理性指导与内在德性品格同样重要。但人工智能是否能够达到亚里士多德所理解的双重意义上的理性,还是一个未知数。在亚里士多德那里,德性品格在行为意义上体现为行为者的行为习惯,即在道德环境条件相同或类似的情形下可以通过某个行为主体在这样的环境下通常如何行动来预见他将如何行动。那么,人工智能是否可以通过程序编写将重要的德性品格写入人工智能程序,从而使得人工智能能够依据内在指令来合乎道德地行动?人的品格特性是一种道德心理气质,也包括内在规范性内容。对于规范性内容,人工智能应当可以将其作为神经网络的运算因子。就此,人的德性品格实质性内涵可以转化为某种人工理性。但是,亚里士多德认为,德性行为在实践中并非是刻板地遵循伦理准则或规范,而是在实践理性的指导下在适当的场合、适当的时候,以适当的方式,为适当的目的对适当的人而言。(参见同上,第66页,译文为“应该”)一个慷慨的人给予他人多少援助,这既有理性判断所起的作用,也有内在品格的关键性因素,一个没有慷慨品格的人的理性算计的就不是能够帮助别人多少,而是怎样对自己更有利。人工智能可以把围棋的成千上万种正确算法编成程序并输入人工神经网络,通过深度学习,在与对手下棋时走出正确的一步。但是,人类的道德生活并非像围棋那样有着固定的格式,而是需要面对不断变化的情景中的行为对象。对于生活世界中的情景要求,行为主体往往是从内在品格出发,在与施行对象不断互动中进行理性判断,并调整自己的行为。范例学习可以获得道德原则,但并不意味着可以应对在程序中没有预见到的道德情景。数理逻辑是人工智能的神经网络深度学习的工作基础,其特点是形式化和确定化,根据逻辑规则从公理开始演算,为了更好地模拟现实和寻找解决问题的方案,就需要尽可能完善的数据库,这使得运行模式越来越复杂。但再大的数据库、再复杂的运行模式,也无法回答人类道德行为的不确定问题。如果把理性与情感或感性作为看待人性的两极,休谟站在亚里士多德的对立面。休谟认为,理性并不可能成为道德的动因,也并非决定道德的根本属性。休谟强调人的道德动因来自于人的自然情感。人的自然天性结构即人的自然生命结构使得人对痛苦和快乐的感受成为最深层次的感受或情感,一切人的情感,喜、怒、哀、悲、乐等等都与生命对快乐与痛苦的体验相关。休谟把苦与乐看成是直接情感,而骄傲、谦卑、虚荣、妒忌、恶意等则为间接情感。休谟说:“根据自然的原始结构,某些性格和情感在一经观察和思维之下,就产生了痛苦,而另外一些的性格和情感则在同样方式下刺激起快乐来。”(休谟,第331页)并且,休谟认为人的快乐与痛苦的体验或感受与道德内在相关:“德(virtue)引文根据书后的中英对照表加了“virtue”这一英文,之所以标出英文,是因为译者译法与目前通行(目前译法为二:德性或美德)的不一致,故标出。的本质就在于产生快乐,而恶的本质就在于给人痛苦。”(同上,第330-331页)人的所有情感不仅可以归结为快乐与痛苦,而且德性与恶习的本质都可以看作是快乐或痛苦。休谟的观点与霍布斯、洛克一脉相承,他们都将快乐与痛苦与道德的善恶直接联系起来。但休谟更进一步,认为这是由人的自然生命的基本结构所决定的。换言之,人作为一个道德行为者的善恶或德与恶,在于人生命的自然感受(快乐与痛苦的情感感受)。休谟强调人的生命结构具有感知道德善恶的能力:“我们既已讨论表现于人类方面的爱和恨,以及它们的各种混杂和组合,现在可以进而研究表现于畜类方面的这些感情;我们可以说,不但爱和恨是全部感情动物所共同的,而且……可以很容易地被假设为在单纯的动物身上起作用。”(同上,第435页)存在于人类身上的对他者的爱与恨、同情或情感的传导也同样可以在动物那里发现。但休谟认为,动物身上的自然情感并非是道德上的善与恶,人类的道德观念并非同样存在于动物界和植物界。如人类的血族通奸是罪恶,在动物方面就丝毫不是罪恶。这在植物界也同样如此。杀害父母是人类所犯罪中最大的罪恶之一,但在植物界并非是罪恶,如幼小的橡树长大后将老树毁灭。(见同上,第507页)在人类行为者那里,情感与道德有着直接的关联,在动物或植物这里,则没有关联。那么,人类的道德是怎样为人所感觉到的呢?休谟认为是人的心灵感觉到的,这由德与恶的本性所决定:“由德发生的印象是令人愉快的,而由恶发生的印象是令人不快的。”(休谟,第510页)并且,“发生德的感觉只是由于思维一个品格感觉一种特殊的快乐。正是那种感觉构成了我们的赞美或敬羡。我们不必再进一步远求;我们也不必探索这个快感的原因”。(见同上,第511页)休谟的说法仍然是回到快乐与痛苦这些最原生的情感中去。由于在动物那里没有人类感受德或恶而产生快乐或痛苦的情感感受,使得它们没有像人类一样的道德感或道德能力。人工智能是否能够拥有类似于人的情感?目前的研究已经有了进展,其代表是加州技术学院所制造的“社交机器人”Leonardo(cf.Wallach&Allen,p.161)以及麻省理工学院的嗅觉感机器人The Cyranose 320(ibid.,p.150)。从休谟的观点看,目前的情感智能机器人并不具有休谟意义上的情感反应,更不具有从感觉上分辨道德的能力。那么,人工智能科学家能够有这样的程序算法将休谟所说的道德在情感上的感应写入人工智能的神经网络吗?这无疑是对目前的弱人工智能体提出了过高的要求。沃利奇和艾伦认为,“在可操作性道德和责任道德能动性之间,从仅仅在可接受的行为标准到理智系统(这一系统具有评估他们自己的某些道德意义的行为能力),存在着我们称之为的‘功能性道德’的许多等级”。(ibid.,p.26)亚里士多德的理性(德性)本体论和休谟的自然生命情感论是对人作为道德能动体的理论描述,二者都排除了在这个世界上在所有自然生命的存在之外,除了人类还有道德行为者存在的可能。亚里士多德强调只有人才有理性,其他有生命的事物都没有理性,从而不可能有类似于人类的德性行为。但是,人工智能的发展趋势表明,类似于具有人类理性和情感的强人工智能将在在弱人工智能的不断进化中出现。当前弱人工智能体具有一定的自主性,理论上应当承担相应的道德责任。但弱人工智能体并不具有道德行为者的基本要素,使其无法作为承担责任的主体来行事。如果弱人工智能发展到强人工智能,具有亚里士多德式的实践理性和德性品格以及休谟式的情感,能够有情感体验、与人类进行情感交流,那么,这样一类人工智能体将是一类具备了作为道德行为者的基本要素的行为者。面对这类特殊的道德行为者,我们首先需要伦理理论的重建,提出一套类似人类行为的从动机、意图、理由到行为过程、再到行为后果的伦理规则和规范体系,培育内在道德品格德性的、适应于人工智能体的道德理论。其次,我们需要与人工智能领域的专家合作,探讨如何使这套理论成为人工智能的程序编程语言以及如何训练人工智能学习成为道德的机器人。这类伦理工作的意义不仅在于应对当前的弱人工智能体给我们带来的伦理挑战,也为不久将来可能出现的、具有人类意识或类似人类的自主意识的人工智能作好伦理准备。

参考文献

[1]布伦塔诺,2020年:《从经验立场出发的心理学》,郝亿春译,商务印书馆。

[2]程承坪,2021年:《人工智能的工作机理及其局限性》,载《学术界》第1期。

[3]丛杭青、王晓梅,2013年:《何谓Autonomy?》,载《哲学研究》第1期。

[4]郭万明,2020年:《人工智能体有限法律人格论》,载《广西社会科学》第2期。

[5]何立民,2020年:《从弱人工智能、强人工智能到超人工智能》,载《单片机与嵌入式系统运用》第8期。

[6]贺栩溪,2019年:《人工智能的法律主体资格研究》,载《电子政务》第2期。

[7]简小烜,2020年:《人工智能体的道德设计及其面临的挑战》,载《长沙大学学报》第4期。

[8]江怡,2019年:《对人工智能与自我意识区别的概念分析》,载《自然辩证法通讯》第10期。

[9]李奇、耿海燕,2008年:《视觉意识的认知神经科学研究进展》,载《自然科学进展》第11期。

[10]刘晓力等,2020年:《认知科学对当代哲学的挑战》,科学出版社。

[11]刘子玥,2021年:《关于弱人工智能与强人工智能的思考》,载《电子元器件与信息技术》第7期。

[12]斯加鲁菲,2017年:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社。

[13]宋春艳、李伦,2019年:《人工智能体的自主性与责任承担》,载《自然辩证法通讯》第11期。

[14]腾讯研究院,2017年:《人工智能》,中国人民大学出版社。

[15]铁马克,2018年:《Life 3.0:人工智慧时代,人类的蜕变与重生》,陈以礼译,台北远见天下文化出版股份有限公司。

[16]汪云久、唐孝威、Wu Jianyong(吴建永)、周昌乐,2001年:《意识的计算神经科学研究》,载《科学通报》第13期。

[17]王晓梅、丛杭青,2014年:《自主性与道德》,载《哲学研究》第2期。

[18]休谟,1980年:《人性论》下卷,关文运译,郑之骧校,商务印书馆。

[19]亚里士多德,1990年:《尼各马科伦理学》,苗力田译,中国社会科学出版社。



[20]闫坤如,2019年:《人工智能机器具有道德主体地位吗?》,载《自然辩证法研究》第5期。

[21]翟振明、彭晓芸,2016年:《“强人工智能”将如何改变世界》,载《学术前沿》第4期。



[22]赵泽林、高新民,2007年:《人工智能的瓶颈问题和本体论语义学的回应》,载《哲学动态》第6期。

[23]Anderson,M.and Anderson,S.,2010,“Robot Be Good”,in Scientific American 303(4).



[24]Bostrom,N.and Yudkowsky,E.,2014,“The Ethics of Artificial Intelligence”,in K.Frankish and W.Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press.

[25]Habermas,J.,1981,Theorie des Kommunikativen Handelns,Bd.1,Frankfurt am Main:Suhrkamp Verlag.



[26]Searle,J.,1983,Intentionality:An Essay in the Philosophy of Mind,Cambridge:Cambridge University Press.



[27]Sullins,J.,2006,“When Is a Robot a Moral Agent?”,in International Review of Information Ethics(6).



[28]Wallach,W.and Allen,C.,2009,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press.

来源:当代伦理前沿(公众号)
链接:
https://mp.weixin.qq.com/s/FZy743lZXRVYusqCUfjPPg
编辑:潘洁
796#
 楼主| 发表于 2024-1-15 13:39:53 | 只看该作者
797#
 楼主| 发表于 2024-1-15 14:04:28 | 只看该作者
【案例】

世界最强AI公司,迈出毁灭人类的“一小步”?


据美国调查新闻网站“拦截者”报道,开发了被全世界广泛使用的人工智能产品ChatGPT的美国知名AI公司OpenAI,于近日悄悄干了一件引人关注的事情:他们删除了一项涉及他们AI模型的使用禁令。
“拦截者”网站称,在今年1月10日之前,OpenAI公司在其AI模型的使用条款中曾明确表示,禁止将其模型用于很可能会造成人员伤亡的用途上,比如“研发武器”和“军事与战争”。


然而,在1月10日对其使用条款进行一番大更新后,OpenAI公司虽然在禁止项中仍然提到禁止将其产品、模型和服务用于会导致人员伤亡的用途上,并提到了“武器开发和使用”,但先前同样被禁止的军事用途,如今却在文本中消失了。
对此,OpenAI公司的发言人在一封回复给“拦截者”网站的邮件中表示,1月10日这次对使用条款的大调整,是因为公司的产品和服务已经被全世界广泛使用,所以需要设立一套更加简洁和普适的规则,包括让规则中的文本变得更加清晰,更好被理解、记忆以及应用。
该发言人还强调,新的使用条款中提到的“不要去伤害他人”本身就是一个很宽泛同时也很好理解的概念,可以适用于很多语境之下,而且条款中还列举了武器作为一个明显的例子。
但该发言人并没有正面回应“禁止伤害”这个宽泛的表述,是否包括一切军事用途,仅称条款禁止其技术被包括军方的人用于研发和使用武器,伤害他人或摧毁他人财物,或是在未授权的情况下用于破坏任何服务或系统的安全。
有网络安全专家对“拦截者”网站表示,OpenAI删掉使用条款中禁止军事和战争用途的内容,是一个很大的变化,说明该公司新版使用条款关注的重点,是在确保法律合规之上提供更多的灵活性,但在很多国家,军事和战争都会被披上合法的外衣,所以OpenAI公司的这次调整潜在的影响将是巨大的。
其他专家亦对“拦截者”网站也表示,OpenAI的新使用条款反映出公司正在悄悄弱化其先前反对军事应用的立场。有专家还指出,OpenAI的重要合作伙伴微软公司就是美国军方主要的供应商之一。而且美军对于AI技术的需求也越来越强烈。
“拦截者”网站还特别提到,虽然OpenAI公司的产品、模型和服务如今还没有被用于操控武器去杀人,但实际上其技术已经开始被军方用于编写代码、处理武器采购以及情报分析等方面。换言之,尽管没有被直接用于杀人,该公司的技术都已经在被用于协助这样的工作了。
“在人工智能系统正被用于针对加沙地区的平民时,OpenAI决定将禁止军事和战争用途文字从其使用条款中移除,是值得关注的”,一位专家对“拦截者”网站这样说道。


来源:环球时报公众号
编辑:程正元




798#
 楼主| 发表于 2024-1-15 20:45:40 | 只看该作者
【案例】张小军丨关于“人工智人”的认知人类学思考

作者简介张小军,清华大学社会科学院社会学系教授、博士生导师,人类学与民族学研究中心主任。研究方向为历史人类学、经济人类学、发展人类学和认知人类学。主要著作有《社会场论》、《让“经济”有灵魂:文化经济学思想之旅》、《让历史有“实践”——历史人类学思想之旅》、《让“社会”有“文化”——人类学自我本土化反省》、《人工智能感官的主体性:感观人类学视角的思考》(论文)等。
摘要】从认知人类学的视角,对人工智人的发展展开思考,其核心问题可以表述为:人工智人以何为人?何以为人?人工智能的“二次性问题”,本来是人工智人以何为人的基础,目前却成为人类的挑战,甚至挑战着现有的社会价值和结构。在机器通过人工智能走向人工智人的同时,人类在很多方面已经开始受制于人工智能。特别是人工智能带来的标准化、去文化、去主体性,以及最终的去人性,使得人类正在走向人类机器。“文化”是人类社会之脑,一旦人类被人工智能统治,会导致人类按照人工智能的规范去“二次文化”。鉴于此,一方面要约束人工智人,防止其以“科技暴力”统治并“文化”人类;另一方面基于人类学本体论转向的文化认知,不应将人工智人简单视为一种工具,而是应将其当作“人”,约束其成为有文化、有伦理的人。由此才能实现人工智能与人类长久和平共生。关键词】人工智能;人工智人;人类学;认知人类学;二次性问题;文化来源】《人民论坛·学术前沿》2023年第24期。

问题的提出“我们的交通工具已经从独木舟变成帆船,变成汽船,变成飞机,再变成航天飞机,但是我们还是不知道自己应该前往的目的地。我们拥有的能力比以往任何时候都更强大,但几乎不知道该怎样使用这些力量。我们让自己变成了神,而唯一剩下的只有物理法则,我们也不用对任何人负责。……拥有神的能力,但是不负责任、贪得无厌,甚至连想要什么都不知道,天下危险,莫此为甚!”[1]


16世纪初人类学在欧洲发端,最初是以人体解剖学对“人”进行理解的。人之所以为人,是因为人体不同于其他生物,这奠定了人类学最早期关于“人”的理解和研究人的学科——体质人类学(physical anthropology)。体质人类学中有关早期的古人类学、人种学以及今天的生物人类学、分子人类学、遗传人类学的研究,都表明了人类的生物和动物属性。然而,这一点正在受到人工智人的挑战。“人工智人(Artificial Intelligence Person, AIP)”指的是无肉身、有智脑的机器人,从某种程度上而言,是当前“人工智能(Artificial Intelligence, AI)”的仿人进阶版。人工智人将人类从肉身中“解放”出来,重新提出了“人是什么”的基本问题。拥有智脑的人工智人在某些方面的能力超过人类,正在并已经改变着人类的生存以及存在方式,甚至正在改变对“人类”本质的相关理解。



在机器通过人工智能走向人工智人的同时,人类在很多方面已经开始受制于人工智能,特别是人工智能带来的标准化、去文化、去主体性,以及最终的去人性,使得人类越来越走向人类机器。图1呈现了机器与人类通过AI的关联走向。
由此,本文尝试从认知人类学的角度,提出对人工智人/人工智脑的几点思考,其核心问题可以表述为:“人工智人”以何为人?何以为人?

以何为人?——人工智人的“二次性问题”
“以何为人”的问题,是在问人工智人能否成为与我们同样的“人”?凭什么可能成为“人”?进一步的问题是:人工智人有思维、语言和文化吗?

仿人:人工智脑对人脑的挑战。仿人(humanoid)是人工智能的基本出发点,在人工智人的发展中,人的思维、意识和语言等能力一直是其追求的目标。骆利群总结了人脑与智脑的区别,发现人工智脑(Artificial Intelligence Brain, AIB)在速度和精度上超越人脑。[3]笔者尝试整理比较了AIB和人脑的能力,如表1所示。
表1表明,AIB只有两个方面,即运算速度和精度,远远高于人脑,其他能力都弱于人脑。比较而言,人脑的优越性十分明显,但AIB也在迅速追赶。比如,人脑比计算机慢1000万倍(将来相对量子计算可能要慢亿万倍),却为何如此高效?人类大脑由大约1000亿个神经元组成,并由约100万亿个神经突触连接。[4]大脑的一个显著特点是以并行方式执行任务,而计算机主要是以串行方式。不过,学习人脑使用并行多核处理器已经是现代计算机设计的趋势。大脑的另一个显著特点是神经元之间的连接强度可以根据活动和经验进行修改,重复训练使得神经元网络可以更好地执行任务。这也带来人工智能领域的“深度学习”这一重要分支和方向,即采用多层结构来表示越来越抽象的特征(例如视觉过程),通过机器学习来调整不同层之间的连接权重,而不再依赖工程师的设计。不过,大脑依然比先进的计算机更具灵活性、泛化和学习能力。尽管如此,超高的速度、数量度和精度依然带来了AI超高的数据处理能力,并产生了相应的超级脑力。AIP已经对人类提出了全面的挑战。

第一个挑战来自“思维”。思维是什么?这是理解AIP的基础。人脑是人的信息处理器,在数亿年的生物进化中,面对周围复杂的世界,生物体逐渐形成了独特的信息处理器官,包括现在仍在不断进化的人脑。所谓“思维”,就是人脑通过处理信息获得“秩序”的信息动力学过程。例如人观察到山川河流,给它们以概念,同时建立起与自身的联系,形成了关于山川河流的理解和文化意义编码,这就是思维的过程和结果。人脑通过信息处理,即通过思维和认知来建立人与人、人与自然的行为秩序。AIB本身并不会完全像人脑一样感知与处理信息,但是可以通过学习人脑的思维,获得二次思维。
第二个挑战来自“意识”。意识是来自人脑的一种能力,AI可否有意识?2023年10月,《神经科学趋势》发表论文,认为AI系统抽象了生物过程,因此现有AI系统可能已经抽象了意识本身,困在无休止的模拟意识特征,却不得意识之要领。[5]而在2023年8月,图灵奖得主Y. Bengio等人曾论证了人类要想构建有意识的AI系统是完全可能的[6]同时他与另两位图灵奖得主G. Hinton及姚期智在23年10月联合重磅发文,提出降低AI带来的伤害和风险。[7]一般来说,“意识”是一种信息方式的存在。AI用算法,人脑有神经系统,但这只是表面现象,因为AI也可以仿人来做神经网络。两者的关键区别是:人有自主意识,即自己根据需要进行“意识”的过程;而AI是仿人的学习能力,是训练出来的非自主意识。通过“思维链(chain-of-thought)”可以不断训练模型,使AI学习人的思维方式,形成“意识”。但即便如此,这也是“二次意识”。
第三个挑战来自“语言”。AI的语言能力已经由ChatGPT4给出了答案:在自然语言方面,其至少不输人类,甚至可以超过一般人类;具有自然生成的语言能力,如写报告、论文甚至小说和诗歌;可以自由地与人对话。这其中包括情景学习、思维链、自然指令学习等,都需要人的参与和仿人的学习机制。ChatGPT是对现有网络语言秩序的归纳性处理,其行为是“为语言而语言”的标准化的“二次语言”,而不是为人类交流和有新意的创造活动而语言的。不过,随着大语言模型(Large Language Model, LLM)的完善,其语言智能将超过一般人类个体,极大改变人类之间以及人与物的交流方式,甚至可以引导和改变未来的人类语言,形成“AI语言反噬”。这带来了有关ChatGPT的终极之问。[8]也引发了其“二次语言”的问题。
第四个挑战来自“文化”。文化的本质是人类社会的意义编码体系,是人类社会的信息致序机制,相当于“人类脑”,帮助人类构建社会秩序。人类从小就在不断的“文化化(culturalization)”过程中。AI可以学习语言,但可否学习文化?上述问题,人文与科学主义有着截然不同的出发点,周剑铭、柳渝尝试用科学/人文的二分框架来解决人工智能深层次问题。其中提到“阿尔法狗(AlphaGo)”的原理性局限,认为围棋是文化的行为,而“狗”没有文化。[9]“阿尔法狗”的围棋只是将围棋的输赢进行了所谓的智能化,不可能取代人类有文化的围棋游戏和在其中的文化享受。不过,AI带来的广泛文化影响已经是事实。如有文章探讨人工智能创造宗教的互联网文化基因(meme),其所带来的高可视度的文化产品反映出新的宗教及其背后的人文主义叙事。[10]更有甚者,有研究探讨了由于人们对此身生活的局限而感到沮丧,于是期待一个虚拟世界的彼身,虚拟世界由智能机器和离开自己身体的人类居住。将自己的意识下载到机器中后,人类将拥有增强的心智能力,并通过其无限的可复制性而不朽。[11]人类逃避现世而变成AI人类,由此改变现世的伦理和文化逻辑,这已经成为一种想象。也由此带来了“二次文化”的问题。
第五个挑战来自“情感”。情感是当今AIB研究中最令人沮丧的领域,甚至让人无从下手,因为不知情感从何而来。不过,AI依然可以与人进行情感互动,通过音乐、舞蹈、绘画、电影、艺术等带来情感知觉,包括兴奋、愉悦、哀愁、凄凉,等等。但这只是人的单向感受,且在对同一内容(例如同一首音乐)的“集体狂欢”中,人们的细节感受也是不同的,是多样性的。而这种在日常中众多方面的不同,恰恰是构成相同体验对话的重要基础,这是因为正是人们日常的差异,才有找到共鸣的狂欢和不同“同类”的情感真谛。如果情感被AI不断标准化,则将没有情感可言。悲剧在于,即使没有AI,我们的情感也在物欲中被物化,由此带来标准化的“二次情感”。
第六个挑战来自“生命”。一篇关于全球首个“数字人类”的报道记述了一位名为卡普兰(A. Kaplan)的自然人希望自己所爱的人在他过世后能够接触到他一生的故事,于是同意成为数字人“[color=var(--weui-LINK)][url=]AndyBot[/url]”,这样他将在云上永生。类似地,弗拉霍斯(J. Vlahos)于2017年创建“[color=var(--weui-LINK)][url=]Dadbot[/url]”,是在他得知父亲即将死于癌症,于是想利用AI让父亲“永生”。在父亲生命的最后3个月,他将与父亲就各种话题的谈话、讲述用摄像机录下来,记录了91970个单词,训练出一个对话AI——“Dadbot”。由此他可以与逝去父亲的计算机化身交换文本和音频信息,谈论他的生活、听歌、闲聊和说笑。[12]“AndyBot”和“Dadbot”提出了人的不朽的本质和存在目的之复杂哲学问题,是否意味着“二次生命”的来临?
人文主义和科学主义是理解人工智能的两种不同视角,人文主义的极端视角认为人工智脑是反人文、反人本、反人类的;科学主义的极端视角认为人工智脑是可以全面替代人类的,特别是ChatGPT的出现,更令人误以为人工智脑无所不能。新的人工智能理论更强调智能主体(agent,能动者)是一个有自主学习能力的主体。这些理论多是注重AI的表面机器行为方式,而忽略了人脑的思维、语言、情感、文化与生命过程,尚缺乏文化主义的视角,即缺乏人类脑及“文化”的视角。“文化”作为人类社会之脑,其所进行的复杂信息处理的本质,是构建人类社会的秩序。重要的是,人脑不是为秩序而秩序,而是以人类生存为目标,是不断寻找最优的人类秩序。这其中,必然涉及人类的伦理价值,必然有情感存在其中,必然是长期的文化积累。这是目前AI还难以突破的。
人工智人的“二次性问题”。由上述讨论,可以提出AI的“二次性问题(Quadratic problem)”。所谓“二次性(Quadratic property)”,是指AI的上述所有能力——思维、意识、语言、文化、情感、生命,都不是AI本来的存在属性,而是机器仿人的结果。表面上,AI只是人类发明的新工具,“二次性”似乎是常识。不过,随着AIP逐渐逼近、融合甚至超过和取代人类,这个问题已经变得十分严峻。
论及人脑与AIB的基本区别,人们可以说出脑结构、脑神经系统、信息处理方式等方面的不同。而从人类学的角度看,两者主要是文化认知方式的不同。限于篇幅,这里只讨论一个最基本,也是人类学中最重要的概念:经验。
从人类学(而非哲学)的角度,经验是人脑处理复杂信息的主要方式,是在数十万年中人脑处理信息能力不断进化的结果,它既不是AI算法,也不是大数据的统计。无论思维、意识、语言、文化,等等,本质上都是经验的。因此可以广义称之为“经验智能”。经验智能是人们生活的主要智能,是直接智能。人工智能虽然有算法,但很大程度上是以人类的经验来仿人的,本质上是一种二次经验智能,是间接智能。在认知的意义上,“经验”是一种借助感官进行信息采集,再通过大脑进行信息加工的动力学过程。人文科学就是一门“经验的学科”,人类学尤其如此。社会学虽然有数理统计方法,但是也离不开经验,统计事实可以说是基于人类经验的数学抽象。康德(Immanuel Kant)在《纯粹理性批判》中,讨论了“经验”和“数学”两种思维,认为经验的原理和数学的原理都是来自人们经验(经验在此为动词)事物之前“物自体”本身的规则和秩序。[13]人类学家特纳(V. Turner)更对经验的重要性直言不讳:“对所有人文科学和研究来说,人类学是最深厚地植根于调查者的社会和主观经验之中。每件事情都来自自我的经验,被观察的每件事情最终都是按照他(她)的脉搏而跳动。”[14]
经验本质上是人脑处理信息能力之结晶。目前所有的AI算法本质上也是经验算法。无论是图像识别,还是ChatGPT,本质上都是以人类的“经验能力”为基础的。从人脑的信息动力学内涵探讨人脑的“经验”对于智脑的本质性影响,这可被称为“人工智能的经验主义”:经验是人脑认知世界(信息处理)的主要方式。人工智能的本质是人类的经验智能,是对人类经验认知的经验学习和经验计算,是一种“二次经验”。人类经验的本质是文化的。智脑的二次经验目前只能模仿性学习人类行为,还无法理解性学习行为背后的文化。
具体来说,人脑在处理信息中存在“经验”和“算法”两种基本的思维运行方式,并由此延伸,形成了“人文(经验的)”与“科学(计算的)”的分野,两者都是人脑的存在及其产物。人工智脑的运行来自在表层将经验思维和计算思维的结合,但是在深层,依然是以“二次经验”为主的智脑思维。“二次经验”为主的智脑思维与人脑思维的根本区别在于,前者“没文化”,而后者有。智脑以其所谓的“科学技术”对人类进行标准化的“去文化(de-culture)”。甚而,智脑可能超越人脑,人工智人可能超越人类,最后反噬人类。
进一步看,从人脑作为信息处理器的基本信息处理的文化方式出发,人脑的信息处理可以分为两个并行的基本部分:冷思维与热思维。前者对经验信息的处理是直接分析与处理,没有社会温度,AIB比较容易达到;后者包括了社会伦理道德、情感、文化等影响,AIB很难模仿。处理信息的“冷思维”,主要包括经验思维和计算思维。经验思维是人类基本的思维方式,也是人文科学的基础思维方式,自然科学同样是人脑的认知结果,包括经验思维和计算思维。这样看,人文和自然科学都是人脑的思维活动结果,区别只是两者以不同的思维方式看世界。有社会温度的“热思维”与冷思维不同,是以伦理道德规范、情感等为基础的文化思维。其本质是建立良好的人类秩序,而不是强化某种人脑的能力。
人是有“人性”的。人性中基本的理性、情性、感性、习性及其延伸出的真、善、美、爱的价值追求、道德伦理,以及信仰,等等,机器人可以产生吗?可以自己生成吗?答案是不行。人性,绝非简单的物理和生物构造。一个人的“人性”是在其一生中铸就的。最重要的是,人性是不能通过简单学习得来的。目前机器人被训练出了高水平的学习能力,但是爱情可以“学习”而来吗?信仰可以“学习”而来吗?答案也是不行。一个人因为某个偶然的反应而“一见钟情”,因为一个偶然的闪念灵动而皈依,这都不是学习来的,而是一种嵌入身体生物学系统(神经等系统)的信息动力学机制。
人类为什么会生成情感、思想、伦理?因为这些是人类生成秩序的需要。秩序(包括特纳所言的“离反秩序”——anti-structure)是万物的自然追求。人脑最终遵循的是自组织信息动力学,情感、思想、伦理都是这个自组织信息动力学机制的产物。为什么这样说?因为人伴随着宇宙的演化,生成了许多“元秩序”,人脑作为信息处理系统,就要满足这些秩序。情感,是建立秩序的一种机制;思想,是选择、适应、改变秩序的一类思考;伦理,是维系秩序的一种方式。人工智人还做不到“情感智能”、“思想智能”和“伦理智能”。比如弗洛伊德所说的“libido”(性力、欲力),其中包括了爱和性。爱是人性,爱需要有他人,需要有社会。AIP没有充分的社会性生活,没有家庭生活,如何产生爱。因此,AI只能模仿情感表现的表面行为,并不能真正生成情感。人脑如果没有他人、外界信息的刺激,就不会有语言能力,“狼孩”就是例子,而机器人与狼孩一样也没有必要刺激。同样,因为有性的成长,才有了人的老幼之别、“生死之恋”、男女之分,才有了家庭婚姻和亲属制度。因此人工智人没有性,从根本上就不可能具备情感、伦理,而只能最多是表面的、标准化的行为模仿。有报道说某国家有人与AIP做夫妻,你当然可以爱一个AIP,但是它只会用算法和二次经验来“爱”你,也难有爱的情感涌现(一见钟情)和复杂的、个性的、深度的情感表达。
几年前,笔者发表了《人工智能感官的主体性:感观人类学视角的思考》一文,论述了各种感官的人工智能带来的AI的“二次经验”、标准化以及“去主体性”“去文化”等问题。[15]以视觉为例,AI的图像识别实质上不过是众多常人识别的经验大数据分析之结果。这些经验算法是否能得到人类经验的真谛,是否符合人们的真实经验?答案是否定的。目前的图像识别只是对图像对错的判断,基本不能涵盖不同人对同一图像的不同情感、不同经历带来的不同感受以及不同文化意义上的不同理解。ChatGPT4的出现,似乎改变了上面的很多结论,其实不然。伽达默尔(Hans-Georg Gadamer)在《真理与方法》中提出,“人是一种语言的存在”[16],强调语言信息在人类沟通和建立社会秩序中的基本作用,甚至认为语言就是人的存在本身。ChatGPT4把“人的存在”重新定义,让人类有些不知所措。通过超强的“经验组合”与编辑能力,ChatGPT4似乎可以具有很多“文化行为”,例如写报告、写小说、编故事。但是,人们忘记了人还有一个更重要的存在——“人是一种文化的存在”;同时,文化也是人的存在本身,人必然是“文化人”。ChatGPT4局限于语意的放大和创造能力,这远不是文化信息及其生成秩序的能力。ChatGPT4本质上还是语言的二次经验,只是在信息处理能力上有了飞跃(“涌现”产生),形成了一种高水平的超常人的大数据二次经验。
对于人类学来说,经验本质上是文化的,没有不文化的经验。[17]由此,AI的二次经验,也是“二次文化(second culture)”的。但是,AI的二次文化,有些是对一次文化的异化,如科技暴力就是对原文化的“文化强暴”。人类一直强调善用科技,防止科技发明带来的反人类的科技暴力,然而AI科技暴力却越来越肆无忌惮,甚至AI武器也被大量生产。鉴于此,我们有必要回到原来的文化基点,赋予AI以人的健康文化。
何以为人?——人类的文化本质“何以为人”,是问机器人智脑有“人性”“思想”“信仰”“伦理”吗?其最终的问题是,智脑有“文化”吗?如果没有,他们“何以为人”?
人工智人的文化归宿。“文化”是人类的意义编码的运行软件系统,也是人类的秩序和致序过程。人类文化是衡量AIP能否为人的最基本层面。人类与AIP之争,最根本的不是思维能力之争、语言能力之争,而是文化之争。笔者曾经给出如下“文化”定义:文化是人类遵照其相应的自组织规律与社会及其周围事物的各种联系,运用信息进行秩序创造并共享其意义的具有再生产性的复杂编码体系。
简言之,“文化”是人类社会之脑,自组织的自发有序是人类秩序之母。文化中蕴含了思想、情感、信仰等复杂的信息能力(文化本身的信息过程就包含了经验和动力学两个方面),这些能力不可能像AI一样单独产生。没有文化经历,人们不可能产生这些复杂的信息能力和结果。危险的是,一旦人类被机器统治,会导致人类文化按照机器的规范建立。所以,一方面,要防止被AIP(通常借助某些权力)统治并“二次文化”人类;另一方面,要限制AIP,让其有文化。
金观涛曾从“科学与人文”的视角,强调当前这场人工智能革命实质是对“智能”认识的某种退步,AlphaGo的工作原理是仿生学,而人类智能的内核——创造并使用符号的能力却遭到忽视。究其原因,这是现代社会中人文精神丧失与科学被技术异化的恶果。人类智能不同于生物本能之处在于,人不仅具备选择的能力,还具备创造符号以及利用符号系统把握世界并赋予世界意义的能力。[18]
AI对人类的标准化、去主体性、去文化,是颠覆人类的根本性问题。笔者曾对机器人与人类的感官经验进行比较,分析两者感官经验的生成方式以及基于感官经验的与外部世界互动的方式,由此理解机器感官与人类感官的根本区别与关联。机器人的“感官经验”将人类单一感官处理物的信息的经验抽离出来,是“去文化”“标准化”的计算产物。理解机器人感官与人类感官的根本区别在于“文化”,人类的身体感官是以高聚能、低能耗的最优秩序为原则而进行感知的。[19]
AIP无文化,却可以有“二次文化”,还可以对我们进行二次文化,当然也可以被我们“文化”。有学者从麦克卢汉的“媒介延伸论”看人工智能威胁论,认为人工智能消除主客界限,是人类的延伸,没有威胁。[20]问题在于,既然人工智能可以消除主客观屏障,成为人类的延伸,也就意味着可以延伸人类之恶。因此,赋予人工智人以人类真善美的伦理文化,而不是邪恶、丑陋、奴役人类的伦理文化,这一点至关重要。
同时,AI可能会使人类失去创造力。ChatGPT是对自然语言进行标准化的典型——只要是同样的提问,便会得到同样的结果。它让人们的伦理判断“失聪”,因为标准化的ChatGPT让人误以为,只要是大多数人的说法、做法、看法,就是对的。AI永远不具备真正的文化能力(但可以模仿文化行为),而人类一旦被AI标准化,也会丧失文化能力。AI的创造力表面上似乎不亚于绝大多数人的想象力,但是实际上,AI带来的生活多样性的丧失正在把人类变成机器。此外,AI还让人们之间的信任变成了“技术信任”或“机器(制度)信任”。但是,人们还未意识到,技术信任会降低人与人之间的直接信任,改变人类的信任生态。
人工智能领域有关“常识”的讨论很有意义。人们在日常生活中依赖“常识”而行为。现实中,机器的常识是人给予的,而人的“常识”首先是经验的,其次必然是文化的。在人类学中,“常识”主要指日常生活的知识。常识的形成本身就是一个文化的经验过程,没有不文化的常识。有什么样的文化,就会引出什么样的“常识”,并不存在孤立的“常识”。但是,机器人的常识背后是没有文化的,其只是通过大数据来模拟计算出一般的常识,是“标准化”的常识,完全不能进行真实人类的替代。
从技术上看,AI超越一般人的某些能力完全不成问题。人类从制造工具开始,就已经在创造某方面能超越自己的东西。在技术决定论的进化论者眼中,人类的演化历史就是工具的演化历史。[21]那么,AI,例如ChatGPT4(如果)超越人类,是否会给人类带来灾难,是否可以被理解为一种AI“原子弹”?笔者认为,AI已经不是如原子弹一般的“工具”,而是在成为人、取代人。其杀伤力不是瞬间的冲击波,而是缓慢的文化信息波——通过改变人类文化而让人类“堕落”。例如,取代人类工作而造成大量失业,帮助抄袭“开绿灯”而导致道德败坏,非法获取商业机密、个人信息和隐私数据等而侵犯他人权益,等等。
因此,其一,所有人工智人的控制软件都应该加入相关的伦理程序甚至法律程序,要有“人”的责任代码。其二,AI有关的法律问题,可以通过立法来解决。如我国公布实施了《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。其三,AI的相关伦理问题,如ChatGPT4是否应该让资本赢利而让大量人员失业,是否应将其用在教育上而阻碍学生自身写作等能力的形成,这些根本上还是人类社会的文化问题——AI何以为人的问题。
AI的“去文化”“去人性”等特点,可能令人的主体性、主体意识弱化甚至丧失,带来教育标准化、劳动能力退化、认知能力退化、身体能力退化。AI思维、AI语言、AI文化的“灾害”包括:盲目标准化的教育、丧失劳动力的市场、泯灭创造力的设计、忽视多数人的信仰、缺乏多样性的生态、抹杀独立性的思想,等等。前有心理学研究支持抖音等推荐系统带来个性和多样性的结果。[22]后有清华大学团队在《Nature》子刊《[color=var(--weui-LINK)][url=]Nature Machine Intelligence[/url]》上发文,讨论网络推荐系统这类软件如何制造“信息茧”,如何使人们作茧自缚——表面上有个性的多样性推送如何使人类在与AI的日常互动中逐渐失去信息的多样性,而被困于“信息茧房”之中。[23]还有社会学家提出,算法的背后是一个商业的资本逻辑,商家利用人们的消费习惯和倾向,通过算法进一步刺激消费,结果消费行为不自觉地被商业引导而发生改变。[24]不管是“信息茧房”,还是“算法控制”,实质上都是AI反身训练人类和赋予人类“二次文化”,放大人类不良文化的典型。
在人类学领域,已经有学者思考“机器人公民”的概念。陶庆曾专门讨论新政治人类学与“类人机器人”猜想,包括“机器人公民”工具性与自主意识、“机器人公民”公共性与社会责任。[25]现实中,索菲亚作为历史上首个获得公民身份的机器人,在被询问“你想毁灭人类吗”时,其在片刻的面无表情后立即回答“我将会毁灭人类”。很多人对此提出抗议,其中包括马斯克,他认为人类应该限制机器人,不然不受限制的人工智能在未来极有可能成为人类的大患。[26]因此,亟需给AIP以伦理和法律等约束,即把AIP当作“人”,而不是工具,应让AIP与人一样,有伦理、有文化。
法国著名思想家莫兰(Edgar Morin)认为,鉴于科学固有的两可性,我们知道它所产生的新能量既可以被用于行善,也能被用于作恶。[27]正如沃伊切霍夫斯基所言:“科技在取得成功的同时也失败了。成功在物质上,失败在道德上。”人工智能的发展可能将人类从一些职业的束缚及其所属的任务中解放出来,但是,尽管这样也无法回避一种假设,那就是人工智能摆脱了伺服装置的控制,反过来变成控制者。更何况它在一定程度上已经成为资本和权力的工具。从人类学的角度看,伦理并非人类的终点,而是人类的起点。一般来说,人类社会有三种所谓的规范,第一种是伦理道德,第二种是民规民约,第三种是法律规范。从规范的强制性上看,从第一种到第三种依次增强。人类学所研究的初民社会是没有法律的,初民使用伦理道德和民规民约就可以建立良好的社会秩序。随着现代社会问题增多,人们才开始使用强制性的法律。但是,没有伦理道德的社会,法治是不可能实现的,或者只能是扭曲的实现,甚至成为少数人的权力和利益工具。在这个意义上,伦理是人类社会良性运行的基础,也同样应该被赋予人工智人,因此应开展人工智人的伦理制度建设。
基于人类学本体论转向中的文化认知,最重要的是把AIP当作“人”,而不是视其为一种工具。近年来,人类学的本体论转向成为热潮。拉图尔(Bruno Latour)提出“行动者网络理论(Actor-Network Theory, ANT)”,抹消了人与“非人”的界限,[28]后又提出人与自然的“对称性人类学”,都是在去人类中心。[29]进一步,卡斯特罗(Eduardo·Viveiros de Castro)的“视角主义(perspectivism)”将尼采(F. Nietzsche)的相关概念引入人类学的研究,并基于“视角主义”研究美洲大陆原住民,强调“多元自然主义(multinaturalism)”[30]笔者认为,去人类中心的本体论转向其实蕴含着两个方向,即平等原则下“都视为物”或者“都视为人”,也即皆为agent(能动者)。过去,我们把AIP当作科技工具,与人分离,于是,产生了“科技暴力”。现在,我们要把AIP当作“人”,让其承担作为“人”的社会义务以及伦理道德和法律责任,这样才能让AIP更好地为人类服务,促进人类和平、幸福、美好的文化前景,而不是相反。
从文化思考人工智人:认知人类学角度。自然界超越人的能力者千千万万,植物、昆虫、动物,都有过人之处,人类唯一的优势是人脑。但是大家忽略了另一个“唯一”,那就是群体人类的社会脑——文化。人类学家认为,在进化的链条上,文化是人类唯一与动物的不同之处。对于文化脑来说,无论是人文经验还是科学计算的能力,最终都是一种文化能力。人类不可能有无文化的人文经验,也不可能进行无文化的数字、符号和公式的计算。文化是人类脑信息处理的起点、过程和结果,也是人类认知进化的结果。古迪纳夫(W. H. Goodenough)清楚地表明了认知人类学的文化观:文化系统将个人的认知世界与个体意识和行为联系起来形成社会。所谓文化,就是个人的认知世界相互关联而形成的解释模式,即围绕某个社会的知识体系形成的观念模式。[31]
与人工智能研究最为接近的,是认知科学(cognitive science)。有人类学家,如格尔兹(C. Geertz)曾对认知科学提出批评,“最近随着认知科学发展起来,有一种趋势出现了:文化和心灵这两个术语几乎完全被巧妙打发,代之以谈论神经回路和计算加工、接受人工智能的可编程系统——这个策略让思想的社会居所问题和意义的个人根基问题都不被触及也不可触及”[32]。这一批评十分犀利,提醒认知科学的发展不应该走向“科学主义”,而应该走向“文化主义”,因为认知科学最终应该为人类服务,而不是为“科学”作脚注。类似地,对于人工智能而言,取“文化主义”而非“科学主义”,从某种程度上说也同样是“应然”和“必要”。
认知科学包含了与人工智能相关的所有主要学科。其学科组成如图2所示。认知科学有6个基础支撑学科:神经科学(脑)、计算机科学(信息)、哲学(思维)、语言学(语言)、心理学(意识)和人类学(文化)。其中4个是人文核心学科,即认知哲学、认知语言学、认知人类学和认知心理学,这些正是与人工智能相关的主要研究领域。此外,认知科学还包括11个交叉学科:脑神经信息科学(脑-机交互)、神经语言学、神经心理学、计算心理学(认知计算机仿真)、计算语言学(智能语言)、心理语言学/语言心理学、哲学心理学/心理哲学、语言哲学/哲学语言学、语言人类学(社会语言学)、心理人类学/文化心理学、脑进化/脑人类学。另外,还可补充4个交叉学科(如图2虚线所示):哲学/伦理人类学、AI和信息哲学、文化信息学/AI人类学、脑哲学。可见,人类学构成了认知科学多个扩展交叉学科的基础与支撑,而认知人类学为认知人工智人带来了新的视角。

认知人类学作为人类学的一个分支学科,与心理认知、语言认知等学科的区别是文化认知。20世纪认知人类学的发展一般可以分为如下阶段:50年代是“民族科学”的早期形式化阶段;60年代是研究民俗模式的普遍认同的中期阶段;70年代以后是科学化阶段,形成心理学的转向,也吸收了结构主义和语言学的理论要素和方法论;80年代是文化先验图式研究和共识理论的发展阶段;90年代开始的文化认知与进化理论阶段,主要有关联理论(relevance theory)等。当代认知人类学试图发现人类行为的文化认知基础以及激发人类行为的深层致序原理(行为动机)。人工智能无疑涉及这一层面,因而也正在成为认知人类学的重要研究领域。当前认知人类学的研究领域(详见表2)主要包括语义学、知识结构、模式和系统以及话语分析,这些均与人工智能关联密切。

借鉴人工智能和认知心理学,认知人类学曾提出3个模型[33]:其一,信息过程模型(information-processing models),探讨人工智能架构的一般原则及其对人类认知的影响,如“并行分布处理”(PDP)和“联接式处理”(connectionism)。其二,认知发展模型(cognitive-developmental models),重在对不同文化进行比较,发现共同的认知发展轨迹。其中,列维-斯特劳斯的结构主义试图发现人类的心智结构(mantel structure)——不是现象的共同,而是深层认知机制的共同。[34]比如著名的“二分模式”,以及关于神话和亲属制度的结构研究,都是文化认知的心智结构。其三,感知经验模型(perception and experiential models ),认为在环境中共享感知过程和经验会形成跨文化的认知模式。其中,拉科夫(G. Lakoff)和约翰逊(M. Johnson)主张“不受主观主义和客观主义概念陷阱影响的经验现实主义(experiential realism)”,强调身体活动及其在空间的位置产生了知识结构与推理模式,其主要方式是通过基本的生理体验产生系统性结构化的隐喻(意义体系),例如“上”“下”。[35]除上述3个认知人类学模型外,“文化认知模型”是探讨研究人工智能的重要路径,应给予重视。
结论从认知人类学的视角出发,人工智人发展的核心问题可以表述为:“人工智人”以何为人?何以为人?人工智能的“二次性问题”——包括二次思维、二次意识、二次语言、二次文化等,本来是人工智人为人的基础,目前却逐渐成为人类的挑战,挑战着现有的社会价值和结构。在机器通过人工智能走向人工智人的同时,人工智能带来的标准化、去文化、去主体性以及最终的去人性,使得人类正在走向人类机器。人工智能“文化”是人类社会之脑,一方面,要约束人工智人,防止人工智人以“科技暴力”统治并“文化”人类;另一方面,基于人类学本体论转向的文化认知,不是应将人工智人简单视为一种工具,而是应把其当作“人”,约束并规范其成为有文化、有伦理的人。由此人工智人才能与人类长久和平共生。盲目的人工智人恐惧症不利于人工智能的发展。我们应清醒地认识到:人工智能依然是人类社会文化结构的投射。在人工智能武器、人工智能违法、人工智能道德败坏等负面情况的背后,本质上依然是人类社会中资本、权力、战争、贪婪等在起作用,前者是后者的反映。人工智能反噬只不过是现实社会“上梁不正下梁歪”的科技推手。因此,在人工智能发展的同时,在对人工智人进行伦理道德和文化赋权的同时,反省人类自己的社会文化结构以及伦理道德缺失,才是人工智能与人类和平共生的深层基础。

注释
[1]尤瓦尔·赫拉利:《人类简史:从动物到上帝》,林俊宏译,北京:中信出版社,2014年。
[2]《谷歌突然宣布:上帝的密码防线逐渐崩溃!人工智能有可能是人类文明史的终结!》,2021124日,https://www.sohu.com/a/505156893_686587
[3]骆利群:《为何人脑比计算机慢1000万倍,却如此高效?》,2018530日,https://zhuanlan.zhihu.com/p/37485630
[4]参见L. G. Luo, "Architectures of Neuronal Circuits," Science, 2021, 373, p. 6559.[5]J. Aru; M. E. Larkum; J. M. Shine, "The Feasibility of Artificial Consciousness Through the Lens of Neuroscience, Trends in Neurosciences", 18 Oct 2023, https://doi.org/10.1016/j.tins.2023.09.009.[6]P. Butlin; R. Long; E. Elmoznino; Y. Bengio et al., "Consciousness in Artificial Intelligence: Insights From the Science of Consciousness," 22 Aug 2023, https://arxiv.org/pdf/2308.08708.pdf.[7]Y. Bengio; G. Hinton; A. Yao, et al., "Managing AI Risks in an Era of Rapid Progress," https://doi.org/10.48550/arXiv.2310.17688;也参见何怀宏:《GPT的现实挑战与未来风险——从人类的观点看》,《探索与争鸣》, 2023年第6期。
[8]圆桌:《潘多拉魔盒还是文明利器——大文明视野中的ChatGPT反思》,《探索与争鸣》,2023年第5期。
[9]周剑铭、柳渝:《两种两种文化交汇中的人工智能》,《科学与社会》,2018年第1期。
[10]B. Singler, "The AI Creation Meme: A Case Study of the New Visibility of Religion in Artificial Intelligence Discourse," Religions, 2020, 11(5), p. 253.
[11]R. M. Geraci, "Apocalyptic AI Religion and the Promise of Artificial Intelligence," Journal of the American Academy of Religion, 2008.
[12]《全球首个数字人类曝光!意识在云端永生》,2019829日,https://www.washingtonpost.com/technology/2019/08/29/hey-google-let-me-talk-my-departed-father/
[13]约翰·华特生选编:《康德哲学原著选读》,韦卓民译,北京:商务印书馆,1987年,第89页。
[14]V. W. Turner, Dewey, Dilthey, and Drama: An Essay in the Anthropology of Experience, The Anthropology of Experience, V. Turner & E. M. Bruner(eds.), Champaign: University of Illinois Press, 1986, p. 33.
[15][19]张小军、杨宇菲:《人工智能感官的主体性:感观人类学视角的思考》,《中央民族大学学报》,2020年第2期。
[16]伽达默尔:《真理与方法》,洪汉鼎译,北京:商务印书馆,2007年。
[17]张小军、木合塔尔:《走向文化志的人类学:传统民族志概念反思》,《民族研究》,2014年第4期。
[18]金观涛,《反思人工智能革命》,《文化纵横》,2017年第4期。
[20]姚庚君:《用麦克卢汉的媒介延伸论及其现象学哲学基础审视人工智能威胁论》,《硅谷》,2015年第05期。
[21]怀特:《文化科学——人与文明的研究》,曹锦清等译,杭州:浙江人民出版社,1988年。
[22]《清华大学社科院课题组:抖音算法提供多元信息,95%用户选择开启个性化推荐》,2023119日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html
[23]J. H. Piao; J. Z. Liu; F. Zhang; J. Su and Y. Li, "Human–AI Adaptive Dynamics Drives the Emergence of Information Cocoons," Nature Machine Intelligence, 09 Oct 2023, https://www.nature.com/articles/s42256-023-00731-4.[24]严飞:《我们如何逃脱算法营造的信息茧房?》,20221214日,https://www.sohu.com/a/438231008_114988;《清华大学社科院课题组:抖音算法提供多元信息,95%用户选择开启个性化推荐》,2023119日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html
[25]陶庆:《新政治人类学与国家社会关系》,北京:社会科学文献出版社,2018年。
[26]《曾扬言要摧毁人类的机器人索菲亚,拥有沙特公民身份后,如今怎样?》,202397日,https://www.sohu.com/a/713867585_121161354
[27]埃德加·莫兰:《伦理》,于硕译,上海:学林出版社,2017年。[28]B. Latour, Reassembling the Social, New York: Oxford University Press, 2005.
[29]布鲁诺·拉图尔:《我们从未现代过:对称性人类学论集》,刘鹏、安涅思译,上海文艺出版社,2022年。
[30]Eduardo Viveiros de Castro, "Cosmological Deixis and Amerindian Perspectivism," The journal of the Royal Anthropological Institute, 1998, 4(3), pp. 469–488;爱德华多·科恩:《森林如何思考:超越人类的人类学》,毛竹译,上海文艺出版社,2023年。
[31]W. H. Goodenough, "Cultural Anthropology and Linguistics," Georgetown University Monograph Series on Languages and Linguistics, 1957, 9, pp. 167–173; W. Strurteant, "Studies in Ethnoscience," American Anthropologist, 1964, 66(2), pp. 99–131.
[32]克利福德·格尔茨:《烛幽之光:哲学问题的人类学省思》,甘会斌译,上海世纪出版集团,2013年,第189页。[33]T. Barfield, The Dictionary of Anthropology, Oxford: Blackwell Publishers Ltd, 1997, pp. 67–69.[34]克洛德·莱维斯特劳斯:《结构人类学》,谢维扬译,上海译文出版社,1995年。[35]G. Lakoff and M. Johnson, Metaphors We Live By, Chicago: University of Chicago Press, 1980.





来源:清华社会学微信公众号

链接:https://mp.weixin.qq.com/s/myZfiIoseBa3k1XEx7MCcA
编辑:程正元


799#
 楼主| 发表于 2024-1-15 20:57:52 | 只看该作者
【案例】新时期全媒体理论建构与实践
本文发表于《中国记者》
202205
作者:
刘德寰:北京大学新闻传播学科学术委员会主任,北京大学新媒体研究院教授、博士生导师、副院长,北京大学新闻与传播学院教授、副院长,北京大学市场与媒介研究中心主任。
孟艳芳:北京印刷学院讲师。
程馨仪:北京大学新媒体研究院博士研究生。
随着互联网技术的发展与媒介环境的大变革,近二十年间,我国传统媒体纷纷从运营革新、内容分众、渠道整合等多个角度向新媒体的转型之路进行不断的尝试,学界与业界对全媒体理论与应用的探索也应运而生。2019125日,习近平总书记在中共中央政治局第十二次集体学习时就全媒体时代和媒体融合发展发表重要讲话,指出推动媒体融合发展,建设全媒体成为我们面临的一项紧迫课题,这次讲话对全媒体的定义与未来发展路径提出全新的视角,对全媒体的研究和实践在理论发展与战略规划上都极具意义。
01
- 引言 -
全媒体在英文中的表达为“Omnimedia”最早于1999年被MarthaStewart Living OmnimediaMarthaStewart生活全媒体公司)使用,这是一家业务涵盖书刊、广播、电视的美国媒体公司。但作为新闻传播学术概念的全媒体研究在国外学界并未引起关注,在国内却与信息技术的发展结合,引起诸多关注与讨论。因此,全媒体是一个扎根于中国社会,具有强烈中国烙印的媒体概念。诞生于传媒应用领域的实践而非学界的特点也给它的内涵赋予了很大的开放性。在不同的信息技术发展阶段和媒体融合发展尝试中,它的理论内涵都有一定的差异,外延意义也不尽相同。可以说,对全媒体概念的定义,是一个随着媒体实践与政策更新不断丰富与扩展的过程。
全媒体概念在国内的发展大致可分为三个阶段。第一阶段是2001年至2009年的媒体探索期,这一阶段传统纸媒开始进行全媒体尝试,全媒体被普遍视作一种媒介的实践形态,但学界尚未对其概念进行界定。第二阶段是2009年至2019年的理论发展期,彭兰教授于20096月在《媒介融合方向下的四个关键变革》一文中正式提出全媒体概念,之后学界开始从不同角度对全媒体理论进行定义和阐述。第三阶段是从2019年习近平总书记提出四全媒体至今的媒介集成期。四全媒体概念的出现对全媒体理论进行了高度的概括和全面的深化,之后学界与业界都在此基础上,结合人工智能、物联网、AR5G等新兴技术手段的发展,进行全媒体传播形态与传播架构的探索。
本文将对全媒体的理论建构、媒体实践与政策规划进行整理,理清概念发展脉络,并基于四全媒体的框架对新时代下媒体融合研究进行梳理,以此对全媒体未来发展作出展望。
02
-全媒体理论
发展与实践探索-
(一)理论建构
2009年至2019年的理论发展期,学者对全媒体有了不同维度的理解和讨论,我们对这个时期的相关文献进行整理和分析,认为全媒体学说大致可分为以下六类。
1.媒介运营说
这一观点主要从全媒体报道的形式和特征入手,聚焦于新闻业务层面。如彭兰认为全媒体是一种多平台、多落点、多形态的整体运作模式,即运用所有媒体手段和平台来构建大的报道体系。其内涵包括数字化平台的搭建、文字影像报道的协同、一次生产、多渠道发布的内容生产模式等,强调媒体应在产业链和市场中寻找自身定位并构建自身产品体系。当时的凤凰卫视行政总裁刘长乐则认为全媒体化是媒体在业务运作的整体模式和策略上的思想变革,将在传统媒体和新媒体融合的基础上构建大传媒的信息传播、互动、服务平台,实现三网融合和多终端的融合。整体而言,媒介运营说认为全媒体的发展与媒介平台的建立密不可分,一种全新的媒介运营模式在平台的基础上产生,将报纸、广播、电视和网络都囊括进这个运营整体中,最终以实际业务出发,对媒介信息的生产、传播、接收与消费产生影响。
2.媒介形态说
媒介形态说把全媒体视为介质的聚集,这些介质在累积质变后发展出了具有特点的全新传播形式。如周洋认为全媒体的概念来自于传媒界的应用层面,是媒体走向融合后跨媒介的产物,具体表现为综合运用各种表现形式,如文、图、声、光、电,来全方位立体地展示传播内容。该观念认为全媒体强调不同媒介类型之间的嫁接、转化和融合,如信息资源的多渠道采集,信息资源的统一加工,全方位多业务系统的支持,多渠道的资源共享。它使用文字、声音、图像、影视等多种传播手段,以报纸、广播、电视、网络为载体,依托AR5G等新技术的支持,靠电脑、手机、平板等多种终端完成信息接收。因此,武汉大学的罗鑫认为全媒体在发展中往往受到信息技术和通讯技术的限制,是一个开放的系统和不断兼容并蓄的传播形态。这一视角立体地阐释出全媒体中媒介融合的显著特征和信息技术对全媒体的推力作用。
3.媒介营销说
该观点认为全媒体是一种基于媒介融合的营销管理观念和策略,包括整合性的媒介内容生产与组合使用。如童之磊提出全媒体出版整合营销,即利用各种媒体和各种渠道发行阅读产品,同时尽可能覆盖所有读者。黄升民教授则认为在全媒体时代,营销不单单是广告部门的追求,而是媒体所有的神经和媒体机制与理念。彭兰也曾提出全媒体含括传统媒体与新媒体的组合营销方式。这种观点从媒介经营的角度剖析全媒体,强调其市场层面的变革。
4.媒介观念说
姚君喜与刘春娟认为全媒体是一种全新的媒介观念,是基于媒介融合基础上的媒介革命,它是在媒介表现形式、媒介生产方式和媒介经营与消费上进行的融合与变革,打破了过去媒介间的相对独立性,其出现从观念上颠覆了人们传统的媒介认识基础。唐润华也认为全媒体是一个涉及载体、内容和技术平台的集大成概念。这一观念将全媒体从媒介形态和新闻传播上升至意识层面,将思想从传统媒体的框架中解放出来。全媒体被视为一种媒体在互联网时代的身份认同,所谓并非大,而是一种用包容开放的视角在媒介传播和传媒产业上联合各个环节的全局意识。
5.媒体比较说
还有一些学者可能并没有给出什么是全媒体的诠释性定义,但通过将全媒体与同时期其他新兴媒体概念进行比较,以此对全媒体在互联网时代展现出的特征进行阐述。石长顺与景义新对超媒体、富媒体、融媒体等概念进行辨析,提出全媒体与这些媒体相比在产业链位置与方式上的创新性,但他们把全媒体视为媒介融合的一个特定阶段,因此对全媒体的理解有狭义之处。赵允芳从全媒体和多媒体的区别入手,认为前者是在新技术背景下对于各种媒体技术的积极交融,是对各种媒体渠道的相互兼有,对于各种终端的兼容,以及对于各种媒体介质的有机组合。它还是对单一媒体介质的一种放弃,指出全媒体高技术依赖性、兼容性与有机组合性等特点。嵇美云等认为相较于多媒体,全媒体注入了一定程度的主观知觉和自由意志。多媒体尚停在的层次上,全媒体则进入了的层次周婕从功能视角入手,认为全媒体具有和多媒体完全不同的本质特征和核心功能,如其核心内涵包括超越信息传输功能”“大数据运用”“人工智能”“精准服务四大功能。
6.受众观念说
持这一观念的学者从受众本位角度出发,探析全媒体的发展对于受众心理与使用体验等的影响,研究全媒体时代媒介与人的关系,以此理解全媒体的特征与社会价值。石长顺认为越来越多的信息传播手段带来了我们获取新闻、资讯的新体验,这类新体验都可以纳入到全媒体的范畴中去。黄健源在麦克卢汉媒介是人的延伸基础上提出全媒体是人的整体延伸,他认为人们通过全媒体进行的传播活动呈现便捷化、全方位与互动性的特点,因此全部感觉和器官都得以使用和延伸,过去被各种媒介所分裂的人因此聚合,整体人重新回归。余霞和程珊从批判角度看待全媒体与受众的关系,认为全媒体使得符号所形成的环境得以单独存在,人只能通过信息化或再信息化寻找自身的定位。受众观念说给我们理解全媒体提供了一个更切身可感的本位视角。
(二)政策规划
作为一项国家文化发展战略,全媒体在国内的理论与实践发展与政策的宏观规划密不可分。在20069月发布的《国家十一五时期文化发展规划纲要》中,全媒体概念作为媒介发展的方向首次在官方文件中出现。200711月发布的《新闻出版业十一五发展规划》确立了全媒体资源服务平台”“全媒体经营管理技术支撑平台等的建设,2008年,在国家新闻出版总署的指挥下,南方报业传媒集团和烟台日报传媒集团等单位被确定为报纸全媒体出版领域应用示范单位,进行数字复合出版的研发和试点。这一系列政策体现了官方对引导新闻传媒业利用数字技术推动生产、管理、传播方式改革的重视,和对提升出版产业的整体实力和核心竞争能力的关注。
新时代以习近平同志为核心的党中央高度重视全媒体建构。2014818日,中央深改组第四次会议审议通过的《关于推动传统媒体和新兴媒体融合发展的指导意见》,从国家战略层面强调媒体融合发展,开启了中国媒体行业传播理念与实务的全面革新。2019125日,习近平在中共中央政治局第十二次集体学习时指出,推动媒体融合发展,形成资源集约、结构合理、差异发展、协同高效的全媒体传播体系;对全程、全息、全员、全效媒体的规律性认识、制度性研究与发展性探询,已成为我国媒体行业转型必须要面对的重要议题。2020年,中共中央办公厅、国务院办公厅印发《关于加快推进媒体深度融合发展的意见》,进一步明确了传统媒体需要推动向纵深发展的战略总要求,为传统媒体的转型提供了方向。
(三)媒体实践
国内媒体较早就开始了全媒体的尝试,并因此实现了传统媒体向新媒体的转型和新传播体系的搭建。石长顺和景义新认为《沈阳日报》于2001年对采编网络化和管理一体化的改革探索是我国报业最早的全媒体尝试。2006年,凤凰新媒体打通资讯门户凤凰网、凤凰宽频和手机凤凰网三大平台,开拓多媒体传播渠道。2007年,《广州日报》成立滚动新闻部,专门针对报纸、手机和网站进行联动发稿,实现新闻的多渠道分发。20091月,宁波日报报业集团全媒体新闻部正式成立,它标志着我国第一个以全媒体命名的新媒体机构正式诞生。广州日报传媒集团、浙江日报传媒集团等先后组建全媒体矩阵。2019年的两会,媒体采用5GAI4KVRAR等新技术手段对会议进行创新报道,在获得广泛关注和良好传播效果的同时,也彰显了媒体融合在技术应用上的逐步成熟。
03
-新时代四全媒体
框架下的全媒体-
习近平总书记提出的四全媒体概念对全媒体在时空、介质、主体和功能四个维度进行了生动的阐释与高度总结,也是对当前媒体融合格局的全新判断。自概念提出后,学界与业界都围绕四全媒体的内涵、延伸意义与指导价值展开研究与实践。
(一)四全媒体理论
1.全程媒体
全程媒体指出了全媒体在时空维度的特点,强调在5GAI、云计算等网技术的支持下,信息的传播实现了时间上的无时不有、空间上的无处不在。沈正赋认为全程媒体下,一个新闻事件从发生、发展到结束,都处在传播的链条之中,随时可能进入公众的视野。新闻生产和传播的各个流程也处在一个相互连接、彼此协调的封闭性运营中。如在2019年的两会报道中,新华社采用智能眼”“全能耳等智能设备,将视觉景观与音频同步呈现,实现会议现场播报与用户信息接收的同移动,共观景和信息与采集的二合一,大幅压缩了传统采编发流程耗时,实现了喻国明提出的同步跟进、记录、播报新闻生产的全过程直播态的信息传播业态。英尼斯曾认为根据传播媒介的特征,有的媒介适合在时间上纵向传播,而有的媒介适合在空间中横向传播。这是传统媒体时代不同媒介间的相对独立性与偏倚,而全程媒体的出现消弭了媒体的分裂,使时空上的共存成为可能。
2.全息媒体
全息媒体则从介质与载体维度出发,强调全媒体的多元呈现方式和给观众带来的多重感官体验。柳太江认为它意味着多种媒介和符号复合使用,融合传播打破媒介的界限,构建出立体的、场景式的事件和真相。图片、文字、视频、VR、游戏等传播形态在技术的支撑下趋于融合,信息在物理空间的传播不但跨越时空,更以极高仿真度的数据形态呈现在观众眼前。这些更加立体的呈现介质带来了视觉、听觉上的身临其境,使得受众更加广泛,用户的感官体验更丰富,对新闻信息的理解与感受更加透彻。数据化、生动化、场景化的新闻传播已经在主流媒体的报道中被广泛应用。如央视推出的“VR浸新闻频道,突破了传统新闻的二维角度,对报道实况进行了全角度呈现,最大限度还原场景。全息媒体下的万物皆媒体、多媒融合使得信息、受众、情感间的交互具有了多重的符号互动价值。
3.全员媒体
全员媒体强调全媒体对传播主体的突破,体现出其全民参与性和高互动性。在全民传播格局下,信息的采集与传播进入社会化生产时代,人人都有麦克风在新闻供给侧成为现实。李鲤和吴瑾还认为主流媒体在传播过程中利用关联推荐规则和相关用户”“同城热点等功能构建出了全民关系网络,这种人与人、内容与内容和人与内容的互联关系提高了信息的覆盖和传播效率,也是全员媒体的特征之一。5G、传感器、AI带来的物联网应用场景和便捷的用户信息发布平台使得科技与UGC+MGCPGC+MGC的组合大放异彩,《一杯茶的工夫读完6年政府工作报告,AI看出了啥奥妙》等MGC内容取得成功。多元主体的信息参与互动协作极大解放了信息生产力,多对多传播模式弥补了过去单一主流媒体在新闻信息广度和深度上的不足,也得以根据受众的信息诉求和画像进行精准高效的靶向传播。
4.全效媒体
全效媒体聚焦于全媒体的功能与效果层面。喻国明认为全效媒体是一个综合性概念,指在发展新兴媒介技术、探寻全新媒体组织框架时,要合理组合利用现有资源,达到传播效率,传播效果、传媒效能三位一体的最优化从传播效率与效果上来说,大数据与推荐算法满足了信息报道的自动生产、产品内容的量身定制、传播渠道的科学选择,提升了传播的精准度。从传媒效能来说,媒体和社交平台的功能聚合大大提升了用户的媒体使用效率,较为全面地满足了用户的媒体使用需求,塑造媒体效能新生态。
(二)四全媒体理论发展
当前学者对四全媒体的研究除了从内涵与价值维度进行解读外,还从多个角度对四全媒体的可行性和建构框架进行研究。
1.媒体转型研究
有学者以四全媒体理论为基础框架,对新时代传统新闻业的变革与媒体的转型之路进行研究探索。梁惠君对传统媒体在当今传播环境下面临的问题进行剖析,结合四全媒体的特点和优势对媒体如何在转型中扬长避短进行探析,如优化组织架构,打破各环节间的壁垒;参与主流舆论场的构建,在继承传统的基础上融合突破;强化互联网思维,以用户价值为导向等。沈正赋将四全媒体的理论融合进新闻生产的采编发环节,对新闻报道如何打造四全媒体,并以此实现转型展开论述。
2.经营管理研究
有学者认为建设四全媒体不应该单单从新闻的生产传播出发,而需要完成媒体业务管理逻辑上的升级,最终完成媒体融合的纵深发展。毕诗成提出了从中心化管理到生态化管理、从串联式管理到并联式管理、从物理化线性时间管理到数字化时空多维管理等管理逻辑。帮助新闻机构建设与时俱进的系统框架和生态价值系统,从根本上促进媒体转型。
3.技术可行性研究
此外,从技术的维度论证信息科技对打造四全媒体关联性和可行性也是学者关注的视角。石磊对5G+AI驱动下的媒体产业的表现形态、特征和场景产生进行论述,提出四全媒体的智能化构建创新路径。郝萍从人工智能助力信息生产的内容采集、内容产品、内容链条、内容分发各环节入手,对打造全媒体进行探析。
4.人才培养研究
全媒体的特性不但改变了传统新闻业务的生态与模式,也对从业者的素养提出新的需求。王海燕从四全媒体的内涵与特点出发,从科学素质、业务素质、全媒体素质、人文与信息素质和内容运营素质等维度分析四全媒体对编辑素质的现实要求。赵丽平从以四全媒体为框架,结合报社人才培养方案和实例,分析当前新闻从业者存在的问题,提出新时代媒体人应该培养整合传播、信息技术应用等能力,以此从主体角度实现四全媒体的建设。
5.复合视角研究
还有一些学者结合其他媒介研究视角和理论框架,从独特的角度出发对四全媒体的建设与发展进行研究。如喻国明等从媒介可供性的研究视角探究四全媒体建设中的新兴传播形态和新型传播架构,基于媒体可供性框架解读我国四全媒体发展状况和路径预测,指出高效的媒介融合不仅是体量上的增加,更应该是媒介可供性不断提升的自然结果。
04
- 结语 -
当下的媒体融合发展已经到了四全媒体阶段,传统媒体的内容生产、受众体验、经营管理等各方面都应进一步与互联网思维和社会主义新时代话语情景结合,优化制度建设,增强传播效力。学界的研究也应该在四全媒体基础上,把握网络传播规律和媒介融合的趋势,将理论与实践结合,把指引内化,探究出一条科学、合理的转型路径。响应时代变化、符合发展潮流的新闻生产与传播新体系的建立,离不开政府、业界与学界的共同努力与协作互通。

来源:刘德寰微信公众号
编辑:程正元

800#
 楼主| 发表于 2024-1-16 19:29:37 | 只看该作者
【案例】人工智能生成内容能被视为作品吗?
“人工智能代表着新的生产力,极大地降低了人力成本,提高了生产效能,因此需要有一种法律来保障其健康发展,当然也需要用法律来对其进行适度规制。”中国版权协会理事长阎晓宏在出席1月13日由中国版权协会主办的远集坊第六十一期活动时强调。
本期活动以《生成式人工智能内容研讨思享会》为题,邀请了中国计算机用户协会副理事长顾炳中、金山办公首席执行官章庆元、对外经济贸易大学法学院教授卢海君、腾讯研究院高级工程师王鹏等嘉宾,共同探讨生成式人工智能业态下版权保护的新路径、新对策。活动由中国版权协会常务副理事长于慈珂主持。
研讨人工智能生成内容问题,应遵循三个原则
阎晓宏在演讲中表示,对人工智能的态度,不应扼杀它的发展,而是要在安全、伦理、道德等方面进行符合人类利益的限制。对主要表现为文字、声音、图像等生成式人工智能所产生的内容,应纳入著作权法的范畴,不仅合理而且可行。在讨论人工智能生成内容问题时应该遵循三个原则,在学术讨论中应贯彻著作权法的基本原则,即保护创作者原则、利益平衡原则、惠及社会和公众原则,特别是第三个原则尤为重要。虽然要贯彻著作权法这些基本原则,但不宜套用。另外,要以“淡化所有权,强化使用权”的精神来推进无形资产的运用。
对大模型训练中使用作品如何看待?阎晓宏认为有两个关键方面的认识需要明确。首先,授权使用难以做到,合理使用不尽合理,现行著作权法中未授予其法定许可,但人工智能生成内容是否能被视为作品?他认为,衡量是不是作品最根本的标准,就看其质量是否高于一般人类的水平,“如果我们不把它纳入到著作权法的作品定义之中,而却把大多数人类低水平的作品视为作品的话,在理论与法理上说不通,在实践中也行不通。可以按照法定许可的思路,需要学界法律界深入讨论”。其次,人工智能生成内容能否构成作品,要看人在其中发挥的作用大还是机器发挥的作用大,此外,还要基于作品的独创性、智力成果和一定表现形式来衡量。总之,基于二分法,把高质量的人工智能生成内容纳入著作权法的作品范畴予以保护,使其更好造福人类、服务社会发展。
下结论还为时过早,应“让子弹再飞一会儿”

“就目前来讲,对生成式人工智能产品版权下结论为时过早,从立法角度进行规范也尚不成熟、为时过早,应‘让子弹再飞一会儿’,否则将会影响技术发展。”顾炳中在演讲中说。
顾炳中在谈到生成式人工智能相关版权问题时认为,在生成式人工智能处于初始阶段,对其引发的版权问题应给予更多的宽容和时间、实践去验证。此外,要及时对其发展予以跟踪和密切关注,特别是对可能带来的版权问题要进一步研究,但不能匆忙下结论。一旦发现其引起了重大社会问题,与社会现行法律和价值观发生冲突时,一定要及时加以规范,而现阶段应以研究和跟踪为主。但对于明显侵权的行为要及时阻止,特别是要引导研发机构在大模型训练过程中注重权利的保护。“要以发展的眼光去看待新技术带来的版权问题。”
卢海君在演讲中用“旧瓶焉能装新酒”来描述他对于人工智能生成物法律制度的看法。他认为,目前人工智能训练的风险主要存在于输入端和输出端,也就是模型训练中的数据合理来源问题以及人工智能生成物的可版权性问题。如何解决旧瓶装不了新酒的问题,卢海君建议,在模型训练阶段,大模型开发者应保留并按要求披露训练数据,还应避免将训练数据以单个艺术家名称、单个商标等标记,而应该用更一般的描述来代替;在内容生成阶段,著作权法应该鼓励公众利用新型的创作工具。
2024年或是AI大模型落地元年

“2024年将是AI大模型落地的元年,将有越来越多的企业将AI大模型应用在实际的工作中。”章庆元预测说。
章庆元介绍了AI大模型及国内企业应用的现状。第一类是对话式应用,包括文心一言和ChatGPT等,都属于对话式的AIGC应用,对企业来说最重要的作用就是产生各种各样的内容,对工作效率的提升帮助很大。第二类应用是Copilot,即利用大模型生成代码能力进行工作。第三类是Insight,即知识洞察,未来可以起到企业大脑的作用,极大提升工作效率。
作为技术型的专家,王鹏在演讲中介绍了AIGC对社会经济的影响。他认为,人工智能将会给人类的生产生活方式带来颠覆性的改变和提升。
来源:中国新闻出版广电报
编辑:程正元

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表