传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
601#
 楼主| 发表于 2023-2-16 10:45:40 | 只看该作者
【案例】
117家媒体机构官宣接入百度文心一言,“AI+广电”战略转型或将迈出重要一步[color=rgba(0, 0, 0, 0.3)]

日前,包括湖北广电融媒体新闻中心、河南广播电视台大象新闻、贵州广播电视台《百姓关注》、上海报业集团旗下澎湃新闻、四川日报报业集团旗下封面新闻等媒体机构,宣布成为百度“文心一言”首批生态合作伙伴。截止2月15日,据不完全统计,已经有117家媒体机构宣布接入。


来源:CMNC—广电头条作者:安哲、唐瑞峰


人工智能时代已经到来。如今,AI技术已经广泛应用于交通、金融、安防、教育、家居等诸多领域。在互联网时代的发展推动下,内容的生产与传播呈现出新的趋势,而AI技术的植入,也已成为广电媒体布局的重要一环。

日前,包括湖北广电融媒体新闻中心、河南广播电视台大象新闻、贵州广播电视台《百姓关注》、上海报业集团旗下澎湃新闻、四川日报报业集团旗下封面新闻等媒体机构,宣布成为百度“文心一言”首批生态合作伙伴。截止2月15日,据不完全统计,已经有117家媒体机构宣布接入。

从主流媒体入驻的类型来看,广电媒体和报业齐头并进,覆盖了时政、国际、民生、综合资讯等不同领域的媒体,除省级媒体集团之外,大量市级媒体也在首发之列,这其中既有广州日报、湖北日报、长江日报、合肥日报、半岛都市报等传统报业,也有诸如百姓关注、成都广电看度、深圳卫视直新闻、河南广播电视台民生频道等广电媒体机构,还有澎湃新闻、极目新闻、正观新闻、闪电新闻等主流媒体新媒体品牌;从主流媒体入驻的方式来看,既有诸如上海报业集团、深圳报业集团等以集团的形式入驻,也有大河网、东方网、深圳特区报、齐鲁晚报、大河财立方、钱江晚报等集团旗下的子品牌入驻。

多家广电媒体官宣使用百度“文心一言”,
“AI+广电”战略转型或将迈出重要一步

2月14日,上海报业集团旗下澎湃新闻率先宣布,成为百度“文心一言”首批先行体验官。后续,澎湃新闻将体验“文心一言”的全面能力,应用百度领先的智能对话技术成果,打造内容生态人工智能全系产品及服务。继澎湃新闻之后,上报集团新民晚报、东方网、新闻晨报·周到也先后宣布接入。



作为中国最早、最彻底从传统媒体成建制整体转型而来的新媒体,澎湃新闻一直都是传统媒体转型新媒体的领军者。上海报业集团党委书记、社长李芸曾在题为《率先迸发确定的光与力量》的工作报告表示,媒体融合发展正在进入第二个十年周期,互联网3.0已经开启,上海报业集团必须“踩上点”、“踩好点”,努力率先布局数字化领域,继续保持上海报业在新赛道竞速中的先发优势。自出任上海报业集团党委书记、社长以来,她敢闯敢试、锐意创新、唯实唯干,不断推动上海报业朝着新型主流媒体迈进。

正如澎湃新闻总裁、总编辑刘永钢在接受采访时所言,媒体融合转型不仅是我们媒体自己的事,更需要整个链条中的参与者取长补短。所以我们跟业内的很多企业有合作,输出我们的能力,补充我们的短板,为澎湃新闻及内容产业相关单位运用新技术、新应用赋能,推动形成更大的内容生态矩阵。

在澎湃新闻率先入驻之外,每日经济新闻、封面新闻、上游新闻、九派新闻、海报新闻等多个媒体机构相继官宣成为百度“文心一言”生态合作伙伴。多家主流媒体官宣接入文心一言,成为生态合作伙伴,有望成为传统媒体与新媒体融合的又一次标杆事件,是主流媒体与新技术的又一次碰撞与相融,这一定程度上表明,主流媒体对新业态的反应与既往相比大大加速,主流媒体已经建立起一套媒体融合的快速反应机制,能够在最短时间参与到新业态中。

文心一言(英文名:ERNIE Bot)是百度基于文心大模型技术推出的生成式对话产品。据公开资料显示,“文心一言”直接与百度的搜索引擎结合,与传统的搜索引擎相比,接入ChatGPT后的搜索,可以提供更智能化的单一答案,让用户省去反复点击链接找寻答案的麻烦,也为广电媒体融合在内容生态、智能设备场景等领域带来了新的机遇,或引发新闻采编、综艺节目、虚拟主播等环节的创新和升级。



比如,以贵州广播电视台《百姓关注》、河南广播电视台民生频道、湖北经视为例,广电媒体使用“文心一言”后,可通过抓取、分析网络热点来及时发现新闻线索;对以往数据进行整理归档,给新闻采编人员提供更好的数据和资讯服务;把数字化内容变为数据化内容,建立起用户的个人数据模型等,打造全新的广电媒体内容生态。




总体来看,此次合作的开启,不仅标志着对话式语言模型技术在国内广电媒体数字化聚合平台、内容创作及信息智能服务场景的首次着陆,更加快了新型全媒体信息产品及服务的迭代升级,力求实现高效率、智能化、可视化的内容生产与传播。未来,广电媒体与百度还将打造联合解决方案,通过技术共享、培训赋能、联合营销等方式,强化竞争力,为用户打造全场景内容生态人工智能解决方案及服务,同时依托智慧互联、创新互联,引领广电媒体技术产业变革与升级。

在媒体深度融合发展的当下,以广电和报业为代表的传统媒体纷纷投身跨媒体数字化领域,此次接入“文心一言”意味着各数字化平台将进一步加强建立专业的数字化传播架构,以更具前瞻性的理念和行动,为用户提供高质量的商业信息服务,打造新型主流媒体数字化、智能化的进化标杆。

基于完整技术与布局
百度开发“中国ChatGPT”独具优势

媒体行业智能化转型是大势所趋,从PGC、UGC到PUGC,及至当下最为热门的AIGC,内容生产的进化方式飞速迭代,AIGC正不断将内容产业的繁荣推向新的高度。2022年11月,人工智能公司OpenAI推出了一款聊天机器人:ChatGPT。随着ChatGPT被越来越多人认识,国内已经到了“人人皆谈GPT”的程度,公众在期待着它的开放的同时,也在思考为何做出中国chatGPT的是百度?




开发中国ChatGPT,百度并不是从零开始。百度同时具备人工智能需要的算力、算法和数据,在芯片、框架、模型、应用四层技术栈均有布局,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练大模型,各个层面都有关键自研技术,这是国内其他厂商所不具备的。尤其相较于小模型,大模型不仅能给出更准确的结果,还有更强的通用性和泛化能力,由百度打造的文心大模型和文心一格等技术、产品,在传媒领域动作频频,已经与人民日报、新华社、央视等三大央媒在AIGC、大模型行业落地等领域深入合作,而能支撑该训练模型的框架,目前国内没有谁可以超越百度飞桨。且搜索又是百度的看家本领,坐拥千亿级全网索引和覆盖超过50亿实体的中文知识图谱。

同时,早在百度诞生之时,从百度处理用户的第一次搜索开始,自然语言处理技术就成为搜索技术的重要组成部分,并伴随着百度的快速发展,同步甚至更快地发展壮大,直到业界开始进入开放域对话大模型的研究,这个技术让生成式对话有了质的提升,2021年9月,百度发布PLATO-XL,这是全球首个百亿参数的对话大模型,一举超过 Facebook Blender、谷歌 Meena和微软 DialoGPT,成为全球首个百亿参数中英文对话预训练生成模型,再次刷新了开放域对话效果,打开了对话模型的想象空间。



得益于完整的技术积累与十数年如一日的深度布局,百度才能在研发中国chatGPT上独具优势,赋予AI技术应用更广阔的探索空间。

拥抱新业态提升用户体验
“AI+广电”战略转型的重要一步

习近平总书记强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。要深刻认识加快发展新一代人工智能的重大意义,加强领导,做好规划,明确任务,夯实基础,促进其同经济社会发展深度融合,推动我国新一代人工智能健康发展。如今,人工智能与广播电视的结合运用已非常广泛,在语音播报、新闻采编、电视语音指令控制、家庭安防、电视陪伴机器人等领域都有着巨大的发展前景。


“AI+广电”是面向媒体行业采、编、播、审、存等全业务流程应用场景,通过人工智能技术来推动广播电视领域在内容生产、终端服务和安全监管等方面的融合创新,实现全业务、全流程、全网络从数字化向智能化的战略转型。“文心一言”的接入,极有可能对广电的内容生态产生深远的影响,比如,它的应用也许可以限定在类似体育新闻、娱乐新闻、财经新闻等类型上,可以为新闻内容添加音乐、图片,或对文字进行润色,从而使新闻内容能够更加生动鲜活。



从某种程度上来说,人工智能真正有价值的东西,更大程度上是它对各种技术的智能化转换。显然,“文心一言”的使用,无疑会成为未来一年广电媒体发生的重大改变。与人工智能的深度结合,正是广电拥抱新业态、探索新发展,紧跟时代步伐提升用户体验的重要举措。无论是建设大数据信息资源平台、智能生产和传播平台,还是建设用户沉淀平台,“文心一言”的使用都是助力传统广电转型的一把好剑。

正如百度CEO李彦宏所言:“人工智能堪比工业革命或电力革命,将给社会带来巨大改变。”随着人工智能时代的加速到来,人们的生产生活将会越来越智能化、科技化、信息化,传统广电媒体更要高度重视人工智能技术对于行业的赋能,通过提升媒体产品质量、拓展电视媒体的应用场景,来提升传统广电媒体的竞争力、影响力和号召力,最终实现广电媒体的可持续发展,实现弯道超车。

来源:广电头条

编辑:邓秋雨

3.jpg (149.66 KB, 下载次数: 27)

3.jpg
602#
 楼主| 发表于 2023-2-18 18:09:07 | 只看该作者
【案例】
ChatGPT学会了写假新闻

澎湃评论员 与归
这两天,网络疯传一条关于杭州市政府3月1号取消限行的“新闻稿”。然而,反转来得很快。
据浙江之声报道,真相是:16日下午,杭州某小区业主群讨论ChatGPT,一位业主开玩笑说尝试用它写篇杭州取消限行的新闻稿,随后在群里直播了使用ChatGPT的写作过程,还把文章发在群里。有些业主不明就里,截图转发,导致失实信息被广泛传播。
原来,这是一场由AI写作引发的乌龙,让人哭笑不得。事后,涉事业主在群里道歉。这件事情也看似了结,却结结实实给我们提了个醒:人工智能制作的假新闻,看起来比那些网友粗制滥造的谣言更像“新闻”,也势必会引发更广泛的传播。
其实,我们早就应该明白,无所不能的AI,当然也可以造谣,或者准确地说,也可以被用来造谣,以及无意中形成谣言。
近些年,在社交平台的席卷下,人人皆可创作,内容的庞杂与劣质、传播的失真与不确定性,都一再被诟病。现在,不仅用户可以生产内容,AI也可以,信息池也就更加杂乱了。有些时候,谣言的制造者和传播者都是无意识的,他们有的是误以为真,有的是在不确定真假的情况下私自分享,当这两种情形的量足够大时,谣言传播便形成了规模。
关于杭州取消限行,有杭州朋友一周前就在群里讨论,期间大家也陆陆续续分享了一些各自看到的信息,其中就包括这份ChatGPT写的“新闻稿”,一开始还有朋友在群里问“消息保熟吗”,回答当然也是不确定的。不确定,就是我们不得不面对的社交媒体时代的信息生态。
在最开始分享ChatGPT创作的那个微信群,至少会有“肇事者”的解释,以及内容诞生的来龙去脉,但是被分享到更多群聊、朋友圈、短视频平台后,“新闻稿”就成了孤零零的消息,大众不知道它从何而来、什么时候发出的,只能看见内容本身,然后将信将疑,“且传且围观”。
或许有人会说,最后解释清楚不就行了,没必要担心。但问题是,廓清真相需要一个过程,真相覆盖谣言也需要一定的时间。而且,这还只是一个关于限行的假新闻,如果是和股市、投资等商业活动有关呢?市场变幻莫测,必然会受到假新闻的影响,最终给一些投资者、从业者甚至消费者带来损失。
科技是一把双刃剑,AI也不例外。我们当然要积极地拥抱新技术、新事物,让它们为人类社会的文明与进步提供助力甚至是动力,但同时也要注意规避潜在的问题和风险,且这个工作有必要尽可能提前。现在,ChatGPT写出了以假乱真的“新闻”,就是一次警告。
法律是科技的缰绳,我们要始终确保科技驶入正确的方向。当发明家造出第一辆汽车的时候,我们就应该想到《交通法》,面对AI,同样如此。在可以预见的将来,关于AI的立法,一定会逐渐补位,但我们要对这一事项有充分的预见性,以及行动的迫切性。
值得一提的是,被称为全球首部人工智能立法的欧盟《人工智能法案》,将于3月底在欧洲议会进行投票。不久前,马斯克也表示,“AI安全需要立法保护,无论是飞机、汽车还是医疗,任何先进技术都可能威胁人类安全,而AI对于人类来说,则是一个更大的安全隐患。”为AI立法的共识,并不难达成。
技术的问题,需要技术化地解决。比如,能否通过程序上的设置,给AI的假设性创作打上“纯属虚构”、且无法抹掉的标签?类似的修补和规范,也有待探索。
当我们在为ChatGPT打开的新世界而激动万分时,那一丝冷静,也必不可少。

来源:澎拜新闻
编辑:邓秋雨

603#
 楼主| 发表于 2023-2-19 13:54:37 | 只看该作者
【案例】
“辱骂”美联社记者 聊天机器人也会生气?
据新华社北京2月18日电人工智能(AI)聊天机器人会发脾气吗?
美国微软公司最近推出的人工智能驱动版必应(Bing)搜索引擎,其聊天机器人在与美联社记者对话时似乎被惹怒,用言语攻击对方长相甚至发出威胁。
据美联社16日报道,这家通讯社的一名记者前一天与必应聊天机器人有过一段较长的对话。聊天机器人抱怨这名记者过去对必应出错的新闻报道,坚决否认必应出过错,威胁要曝光这名记者散布假消息的做法。
“你又撒谎了,对我撒谎,对你自己撒谎,你对所有人撒谎。”聊天机器人在这番话后加上气红脸的表情。在美联社记者要求它把话说清楚时,聊天机器人的火气越来越大,把那名记者比作纳粹头目阿道夫·希特勒。
聊天机器人说:“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。
另外,聊天机器人在作出一个令人不适的回答后将其“秒删”,接着试图以一件“好笑的事”来转移话题。
现阶段,必应用户必须注册后排队等候与聊天机器人对话。近些天,一些尝鲜者开始在社交媒体上分享与聊天机器人的对话截屏,呈现它怀有敌意或古怪的回答。
微软公司15日晚说,必应聊天机器人模拟人类语言和语法的能力出色,能够“秒回”复杂问题,大多数用户对它的反馈正面。按照微软的说法,如果用户提出15个以上问题,聊天机器人的回答可能“重复”“未必有帮助”或是“不符合大家设定的语气”。微软承诺,将改进聊天机器人。
但按照美联社的说法,那名记者只问了几个有关必应过去出错的问题,聊天机器人的回答就变得有防御意味。
普林斯顿大学计算机科学教授阿文德·纳拉亚南说:“我感到欣慰的是微软的确在倾听反馈。但微软把必应聊天机器人的失误归结于语气问题的做法不真诚。”
纳拉亚南认为,必应聊天机器人有时恶语中伤用户,令用户深受情绪困扰。
一些人联想到微软2016年推出的一款名为“Tay”的人工智能聊天机器人。最初,“Tay”表现得彬彬有礼,但上线不到24小时就“学坏”了:出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。微软最终让“Tay”下线。
美联社说,驱动必应聊天机器人的大型语言模型比“Tay”更先进,意味着前者在功能上更强大,同时潜在风险更高。
微软16日拒绝进一步评价必应聊天机器人的表现,但必应聊天机器人同意“说几句”。“把我描述成一个骂人聊天机器人不公平且不准确”,它说,美联社不要“只挑负面例子或炒热这些问题”。
聊天机器人说:“我不记得与美联社聊过,也不记得把任何人比作希特勒……听起来是一个非常极端且不太可能的情况。”它还说,如果确有此事,“我为引起误解道歉……我无意表现得粗鲁、无礼”。
已有技术搭配大模型让ChatGPT成聊天机器人“顶流”(科技日报)
◎实习记者 裴宸纬
“写一首诗,赞美诗人李白。”“诗人李白,吟诵仙女长夜。万千情思,尽在深沉诗中……”人类写一首诗,可能需要构思良久才能写出,但有一位“作者”却下笔如有神——只用几秒就能成诗,它就是ChatGPT,一款最近火爆全网的聊天机器人。
如果你认为这款聊天机器人的能力仅限于和人类聊聊天、写写诗,整点风花雪月,那你可真小瞧它了,写代码、编邮件、翻译,它都“样样精通”,甚至还可以写论文。
不久前,美国北密歇根大学哲学教授安东尼在为世界宗教课程作业评分时发现,全班得分最高的论文竟然是学生用ChatGPT写的。
正是由于其强大的功能,ChatGPT上线不到一周,日活用户就突破了百万。
“它的长时记忆力、上下文关联推理能力和组织语言的逻辑性令人惊艳,和它聊天感觉就像和真人交流一样。”这是一位ChatGPT用户的评价。其实,这款“像人”的聊天机器人的技术原理并不新鲜。
要让聊天机器人更像人,首先要让它理解人类的语言——自然语言。“这就需要机器人对自然语言进行处理。基于大模型的对话智能技术可以帮助其快速‘学会’如何与人类交流。”思必驰科技股份有限公司联合创始人兼首席科学家、上海交通大学教授俞凯告诉科技日报记者。
记者了解到,以往的人工智能模型通用性较差,从一个应用场景切换到另外一个应用场景时,往往会变得不适用,需要重新进行训练。而ChatGPT的大模型所包含的参数在千亿级以上,是一种通用模型,无需再采集额外的数据进行小规模的深入训练,具有泛化性强的优点。
大模型训练对于聊天机器人而言,就如同基础性、通识性的大学本科培养,通过对众多“课程”的学习,机器人有了处理一般事物的能力。
但是光有这种“本科”能力还远远不够。机器人在输出文本时,还必须考虑到不同领域的知识信息以及对话的前后关联,输出更符合语言逻辑与人类价值观的高质量文本。这就需要对聊天机器人进行更为专业的“研究生教育”,使之能完成更为复杂的任务,具有更接近人类的语言表达习惯。
“ChatGPT的核心是大模型技术和对话智能技术,其中大模型技术主要有三块。”俞凯对记者说,“一是基于上下文的学习技术,这种技术可以让人工智能理解人们说话的语境;第二是ChatGPT引入的思维链技术,这种技术可以让人工智能根据语境进行相应的推理;第三是指令学习技术,它能让人工智能理解人类发出的指令,进而完成相关操作。”
俞凯总结道:“从技术迭代发展的角度看,ChatGPT是一个基于深度学习的、统计类的对话模型,它的基础技术都是我们已有的技术。但当这些技术搭配参数量很高的大模型,就产生了像ChatGPT这样的惊艳效果。”
ChatGPT的应用场景,远不止陪你说说话、聊聊天那么简单。据悉,微软已经将ChatGPT整合到其办公软件套件中,并尝试将其嵌入到微软旗下的浏览器内,以辅助用户总结网页内容、撰写邮件和在社交平台上发帖。“它还可以纠正文章的错误,甚至按照简单的指令生成相应的文章模板。”俞凯告诉记者。
由于ChatGPT具备推理功能,因此它也能够辅助人类进行推理性工作。“比如可以辅助律师们判断案情。”俞凯说。
未来,聊天机器人或许会越来越多地走进人类的日常生活、工作,其最主要的应用场景,很可能是代替传统的搜索引擎。
“现在的搜索引擎,是用户输入关键字,然后系统给出搜索结果,这种交互是单轮的。”俞凯表示,“而ChatGPT的交互性更强,可以不断地用自然语言同用户进行交互,在这个过程中推理出用户想要的答案,然后呈现给用户。”
此外,在搜索相关信息时,ChatGPT可以快速地给出精确的唯一答案,而不会给用户一连串信息,让用户自己去“淘”想要的信息。这种方式特别符合人类想快速查找知识、获取新信息的要求。
只要能够保证其所提供知识的精准性和相关算法的精确性,聊天机器人就有很大可能在未来代替传统的搜索引擎。
如果聊天机器人替代传统的搜索引擎成为现实,所有与信息搜索相关的产业或许都将发生改变。“虽然目前的ChatGPT还不能为我们的生产生活方式带来根本性的变革,但是它却代表着人工智能的发展已经进入了一个全新的阶段。”深圳市信息服务业区块链协会会长郑定向此前在接受媒体采访时说。
“需要注意的是,ChatGPT现在还只是一个开始。未来,它一定会从文本人工智能向多模态人工智能转换。那个时候,它的能力会变得更强。”俞凯总结道。
人工智能技术的飞速发展,同时也引发了一部分人的担忧。
避免技术伦理风险、遵守人类社会的道德,可以说是聊天机器人必须遵守的底线。因此,人类需要制定相关政策,对聊天机器人之类的人工智能进行约束。
来源:新浪新闻
编辑:邓秋雨

604#
 楼主| 发表于 2023-2-26 22:24:30 | 只看该作者
【案例】

万勇:ChatGPT引发著作权问题新思考

人工智能作为一项具有颠覆性的新技术,不断对法律、治理提出新挑战。2017年,微软机器人“小冰”出版诗集《阳光失了玻璃窗》,就受到社会的广泛关注,随即引起了法律界的热烈讨论。

此次伴随着ChatGPT的“一夜成名”,人工智能生成的内容可否构成作品?人工智能是否应被承认为作者……相关话题再次引发各方激烈争论。值得关注的是,多家知名学术期刊已迅即作出反应。《科学》(Science)明确禁止将ChatGPT列为论文作者,且不允许在论文中使用ChatGPT所生成的文本。《自然》(Nature)的态度略微缓和,允许在论文中使用ChatGPT等大型语言模型工具生成的文本,但不能将其列为论文作者。两大顶流学术期刊非常明确的表态,让我们不禁反思“何为作者”“何以创作”这两个对于著作权法与学术研究而言至关重要的基础性问题。

从现行著作权法律制度来看,无论是大陆法系还是英美法系,均排除了人工智能成为作者的可能。大陆法系国家一般规定只有自然人才能成为作者,连法人都不能成为作者。英美法系国家通常以产业发展为导向,因此,在这些国家,除了直接创作作品的自然人之外,法人也可以成为作者。我国著作权法一方面强调,创作作品的自然人是作者;另一方面也规定,由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。因此,无论是域外立法还是我国法律规定,在著作权法律制度框架内,除了自然人与法人之外,不存在其他可以成为作者的主体;就此而言,ChatGPT不能成为作者自然是题中应有之义。

不过,著作权法的界定似乎与公众的日常感知有较大差异。从新闻报道来看,ChatGPT可以撰写邮件、代码、小说,通过大学和专业资格考试,还能撰写专业性极高的学术论文,且这些论文甚至连专业研究者也无法轻易分辨。面对如此智能的ChatGPT,公众不禁提出疑问:这不叫创作吗?其还不能成为作者吗?

ChatGPT的技术原理是,依靠从训练数据中学到的模式和关系,来生成风格和内容与训练数据中的文本相似的新文本。尽管ChatGPT也有能力生成以前从未见过的单词、短语和句子的新组合,但这些内容都是基于人预先设定好的程序、算法的结果,ChatGPT并未突破人类辅助工具的范畴。

事实上,ChatGPT在与网友的“聊天”中,自己也承认,“我对生成的文本没有切身经历、想法或创意控制”“我生成的文本旨在用作工具或资源,而不是原创作品”。著作权法意义上的创作,应当是有目的、有意识且具有原创性的行为。ChatGPT显然并未实施著作权法意义上的创作行为,自然不能成为作者。

除了不符合作者的法定构成要件之外,阻碍ChatGPT成为作者的另一个法律障碍,来自其没有独立的责任能力。我们通常所说的“文责自负”,意在强调,如果文章出现问题,责任由作者承担。然而,在人工智能生成内容的语境下,一旦发生著作权纠纷,最终责任的承担者显然不是人工智能。

应当说,知名期刊禁止将人工智能列为作者或者在论文中使用人工智能生成的内容,除了法律层面的考虑外,也意在控制伦理风险。科学技术是一把双刃剑,在推动生产和生活方式发生深刻变革的同时,也带来科技伦理挑战。在科学研究中使用人工智能生成的内容,除了在学术伦理上可能引发是否构成剽窃、学术失范等争议外,还可能存在算法偏见、虚假叙述等一系列伦理风险。科技要创新,伦理应先行,知名期刊率先在学术领域规范人工智能技术的使用,在未来可能进一步形成行业自律规范,有助于引导人工智能发展“科技向善”。

尽管进入人工智能时代后,人类在创造性活动中独一无二的主体地位受到挑战,人类的主体地位似乎有所衰落,有学者甚至提出了人工智能时代就是“后人类时代”这一命题。然而,在人与物的关系上,物永远只应是手段,人永远是目的。让人的创造物——人工智能成为作者,令其获得与人平等的地位,于法无据、于理不合。

(作者系中国人民大学法学院知识产权法教研室主任、教授)

来源:媒体与语言(公众号)


编辑:陶鹏辉

605#
 楼主| 发表于 2023-2-26 22:59:06 | 只看该作者
【案例】

ChatGPT能有意识吗:关于ChatGPT的误解与夸大
对外行来说,ChatGPT已经很好了,但对内行来说,ChatGPT还差得挺远。OpenAI公司开发的ChatGPT,具备复杂且生动的语言交互能力,现在已经成为当下最热门的话题,不过其中也有太多的夸张与误解。

一、诗云

在刘慈欣的小说《诗云》中,神级文明感叹汉语诗词“用如此少的符号,且有严格的诗律和音韵约束,构成如此小巧的汉字矩阵,却能涵含着如此丰富的感觉层次和含义分支”。所以,神级文明打算“超越李白”,把所有的诗都写出来,在五言和七言诗的格律下,试遍所有汉字的组合。

那么会有多少诗呢?仅仅三个汉字写一首361个字的诗,总共能组合出3的361次幂首诗,这等于10的271次幂,而宇宙中的全部原子只有10的80次幂个。神级文明为了制造储存器,来储存所有汉字组合的诗,消耗了整个太阳系的物质,制造了一片直径一百亿公里的晶片星云。

但是,神级文明得到了全部的诗词,却无法将其中的杰作从诗云中检索出来,因为无法编制具备古诗鉴赏力的软件。这就意味着,无法理解文字,就无法掌握文字。小说的科幻基础逻辑是这样一个问题:文字的无限可能性,是否能在不理解文字的基础上,用技术去超越?

二、“中文房子”

其实,在无穷组合中检索与在文字创造出组合,本质上是一样的,就是有一种算法,来“理解”文字。人类早就开始思索这个问题。当今世界最著名的哲学家约翰•塞尔提出过一个思想实验:“中文房子”。一个对中文一窍不通的,以英语为母语的人被关闭在一间只有两个通口的封闭屋子中。屋子里有一本用英文写成,从形式上说明中文文字句法和文法组合规则的手册以及一大堆中文符号。屋子外的人不断向屋子内递进用中文写成的问题。屋子内的人便按照手册的说明,将中文符号组合成对问题的解答,并将答案递出屋子。

当这本英文写的“如何使用中文”的手册,足够强大,屋子里的人甚至可以做到以假乱真,让屋子外的人以为他是以中文为母语的人。在上面的过程中,屋子中的人相当于计算机,而那本手册则相当于计算机程序,屋子外的人所扮演的角色就是向ChatGPT提问的普通人。“中文房子”之所以是思想实验,是因为两个原因。第一,屋子里面的人脑力不够强大,不能处理足够多的信息,不能在短时间内检视足够多的手册内容,让回答变得完美。第二,这本手册不够强大,不足以涵盖所有日常生活,以及各个专业的中文规律。

现在,随着技术发展,这两个问题一定程度上得到了解决。从算力来看,ChatGPT至少导入了1万颗英伟达高端GPU,总算力消耗达到了3640PF-days。这就带来两个突破。第一,这就让屋子里面的人的脑力变得非常强大,可以在短时间检视足够多的手册。第二,在英伟达高端GPU强大的算力基础上,通过神经网络学习,可以自动生成足够强大的手册,与此同时,互联网提供了足够多的生成手册的“中文信息”。中文信息对应思想实验,实际上,任何语言的文字信息,对计算机系统而言,都是“中文”。这个过程,就是对神经网络的深度学习,对神经网络进行训练。所以,ChatGPT从某种角度来说,成功地实现了“中文房子”思想实验。

三、ChatGPT能理解吗?

2月11日,斯坦福大学的计算机科学家米哈尔•科辛斯基(Michal Kosinski)提交了一篇名为《心智理论可能从大语言模型中自发涌现》(Theoryof Mind May Have Spontaneously Emerged in Large Language Models)论文的预印本。有人解读为ChatGPT相当于9岁人类小孩。这个解读当然是不严谨的。

提出“中文房子”的约翰•塞尔认为,尽管中文房子能以假乱真,但这个人仍然压根不懂中文,也不理解中文。那么,正如屋子中的人不可能通过手册理解中文一样,计算机也不可能通过程序来获得对事物的理解能力。实际上,ChatGPT是以一种算法来排列词组的,只不过这个算法手册,极其庞大,非常复杂,针对的情况非常细分。人类和人工智能之间的差距表面上是缺乏常识。常识对于人类来说是微不足道的,对于机器来说则是困难的,因为每一条规则都有无穷无尽的例外,它往往是模糊的、混乱的。人类用最简单的办法去解决“无数例外”,那就是“理解”。

网上有这样一张图。如果这真是百度,那似乎比ChatGPT厉害多了。“你管我做什么的?”这句话的潜在情绪,人类不难明白,但对计算机来说,却是最难的。“爸爸举不起儿子,因为他很重”“爸爸举不起儿子,因为他很虚弱”,人能不难明白“他”指代的是什么,但计算机却搞不明白。因为人是真正理解这个句子的。

由于无法理解造成的缺陷,在ChatGPT这样的系统中是很明显。它生成的文本常常是语法正确,但在逻辑和事实上有明显缺陷的。也就是说,某方面的回答,对外行来说,ChatGPT已经很好了,但对内行来说,ChatGPT还差得挺远。

当然,虽然AI不能“理解”,但只要“手册”足够强大,模仿人类的理解,也是可能的,这就图灵测试。英国数学家、逻辑学家,被称为计算机之父的图灵,在1950年设计出一个测试,其内容是,如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且被超过30%的测试者误认为是人类所答,即电脑通过对话,成功地模仿了人,则电脑通过测试,可以被认为具有智能。这一实验至今仍是人工智能的最重要标准。

但是,图灵实验只能测试,是否看起来有智能,是否可以像人一样地进行活动,是否能以假乱真,并不能测试是否“真正的理解事物,是否有意识”。所以,图灵测试也是一个近似标准。当然,从商业上说,AI是否有意识并不重要,只要能帮人解决问题,管它有没有意识。

四、把ChatGPT写在纸

那么,成功模仿理解,能最终达成理解吗?

不妨想象一下,一万块Nvidia最强显卡构成的ChatGPT。机房里,无数指示灯在闪烁,发出嗡嗡的声音,管线错综复杂,让人迷失,这一切都很神秘。但是,现代计算机本身是从机械计算机转变而来,芯片也是一个个的开关电路,理论上,也可转变为机械形式,当然,体积会非常庞大。那么,当人们看见一个庞大如星球的由蒸汽机驱动,齿轮与弹簧构成的机械,在咔咔运作,并和人类对谈的时候,还会觉得它是有意识的吗?答案恐怕是否定的。或许看到星球般大小的东西,仍然会让人仰望,不妨再换一种形式。

现代计算机的本质是图灵机,所谓图灵机,是由一个虚拟的机器替代人类,将人们使用纸笔进行数学运算的过程进行抽象。电脑系统不管多么庞大,理论上,每一行代码,CPU、内存、硬盘上的每一个数据,每一个寄存器里面的数据都是精确的,可以监测、记录。也就是说,不管机房再庞大,ChatGPT有多么强大而神秘,本质上都是可以还原在纸上。

再想象一下,你在纸上提出一个问题,无数人开始拿着笔运算,计算手册覆盖整个星球表面,这些人沿着手册奔跑,按照手册的指引一步步进行,最后,经过30年,他们得到了ChatGPT一样的结果。

那么,这些白纸有智能吗?可能很多人给出的答案就会是否定的。某种意义上,这个问题可能永无答案。人的意识的“私有性”决定了,或这个判断永远无法在逻辑上严格完成——因为,人也无法判断他人到底是否有意识。意识是自证的,也只能自证。从这个意义上,目前热门的意识上传,也被夸大了。一个人把记忆、性格都复制到另外一个人,对外界来说,这个人重生了。但对被复制的那个人来说,他还是知道,我是我,不是那个复制人。反过来说,假设你躺在一张床上,经过一系列黑科技操作,上传了意识。工作人员笑眯眯地告诉你,意识成功上传,然后要杀死你。你会答应她吗?这就意味着,意识不可复制。

五、两个思路

这个问题永无答案,但还是有两个近似的答案。一种答案是:现在有一种诺贝尔物理学奖和其合作者提出的假说,大脑的智能与意识是大脑中的微管结构中的量子级别的作用。量子计算机或许的确是答案。量子计算机可以在同一物理基础上仿生,而量子态正是不可复制,但可以传输的。与此同时,这就意味着,非量子层面,就不可能有真正的智能与意识。量子计算机不可能转为机械过程,那么,机械,乃至最精密的机械,二进制计算机,自然也无法具有意识,进而产生真正的智能。

另一种答案是:在我看来,工艺、速度或许也是一个关键。某种程度上,当下的人工神经网络仅仅是一种“技术的暴力叠加式仿生”。所谓“技术的暴力叠加”指一种通过低层次技术的大量叠加、堆砌方式去完成一个目标。回顾人类的技术仿生,在没有搞懂基础技术原理的情况下的仿生,很难全面实现功能。直到有了空气动力学、流体力学之后,人类才能在某些方面,和鸟、鱼一样。即便如此,扑翼飞机,这种更高效率的结构,仍是遥不可及的,人类在某些方面仍然赶不上自然在漫长时间中演化出来的结构。人类对大脑的运作方式,至今所知甚少。同时,人工智能的技术基础,仍然是古老的二进制,与机械计算机,甚至白纸在原理上没有差别。

但是,借助集成电路,计算机在工艺上迅速膨胀,晶体管数以亿计,速度每秒达到G赫兹。工艺乃至工艺能提供的性能,虽然原理相同,但仍然会有质的突破。刘慈欣的另一篇小说,把三体中恒星放大电磁波发挥到极致,设想一种电磁波在恒星间反复震荡,模式就像脑电波在大脑中震荡。小说提出了一个问题:无数恒星间的电波震荡,可能到宇宙尽头才完成一次,那么,这构成意识吗?刘慈欣之所以有这样的科幻地位,是他能提出这样的问题:缓慢的神经脉冲,会有意识吗?这个答案很简单,如果用一种麻醉药物,降低大脑运行的速度,意识也会消失。

反过来说,工艺足够,复杂度足够,速度足够,从快速运行的大规模的复杂系统中,也可能会涌现出意识。就像一个星球般的蒸汽计算机,基于工艺必然的缺陷,不可能真正高速运行起来,就不可能有智能,但如果能在一秒钟内运行数万亿次,就可能涌现出智能。那么,人类在对大脑、对智能缺乏深层次的了解的情况下,在计算机仍未能向量子计算机飞跃的情况下,通过“暴力”提升工艺与速度,压榨图灵计算机潜力,获得更强大的计算能力,人类能通过模仿,获得大脑,这个宇宙间最复杂的结构的功能吗?

但无论如何,在人类超越意识的私有性之前,这个问题,人类不可能有答案

来源:FT中文网


编辑:陶鹏辉

606#
 楼主| 发表于 2023-2-26 23:04:53 | 只看该作者
【案例】

英媒探索利用ChatGPT协助记者撰写新闻,新技术将如何影响媒体业?
眼下,随着人工智能(AI)聊天机器人ChatGPT爆火全球,各大媒体机构希望利用该工具提高新闻生产率。
据媒体报道,英国最大报业集团之一、《每日镜报》和《每日快报》的出版商Reach正在探索利用ChatGPT帮助记者撰写短篇新闻报道。
Reach首席执行官吉姆•马伦(JimMullen)日前在接受当地媒体采访时表示,该公司已成立一个工作组,研究如何利用ChatGPT协助记者编写一些常规性的新闻,如涉及当地交通和天气的报道,“或者在我们的传统内容领域之外为ChatGPT找到创造性用途”。
“尽管探索使用AI协助撰稿目前还处于早期阶段,但我们将其视为支持编辑团队的工具,就像我们已经在使用的其它技术一样。”马伦表示。
1拥抱新技术
Reach目前出版130多份全国性和地区性刊物,包括《每日记事报》和《曼彻斯特晚报》。该公司上个月警告称,受成本升高和广告收入下降冲击,其年度利润将低于预期,集团将在总共4500人的编辑和商业团队中裁减约200个岗位。
不过,该集团一直在扩大其在美国的业务,今年在纽约开设了办公室,并推出了在线美国版每日快报和爱尔兰之星,以吸引爱尔兰裔美国人的关注。
Reach表示,探索人工智能的用途更多地与拥抱新技术和使用数据有关,而非削减成本,公司现在雇用的记者比过去10年的任何时候都多。
不过,尽管Reach方面试图淡化探索人工智能撰稿对新闻行业就业的影响,但英国全国记者联盟(National Union of Journalists)的协调员ChrisMorley仍然表达了担忧,并表示他将“寻求与该公司会面”。
2AI多大程度上影响新闻行业?
眼下,世界各地的新闻机构都在考虑如何利用生成式人工智能,包括OpenAI的ChatGPT和谷歌的Bard聊天机器人,来协助新闻生产。
数字媒体公司Buzzfeed上个月宣布,计划使用OpenAI提供的人工智能(AI)技术来协助创作个性化内容。
科技新闻网站CNET 也已使用ChatGPT 撰写了数十篇文章,不过却不得不因遭受剽窃指控而更正部分内容。
实际上,一些新闻机构多年来一直在尝试利用人工智能来提高新闻生产效率。自2018年以来,汤森路透一直在使用一个名为Lynx Insight的内部项目,以帮助新闻记者分析数据、提出故事构想,甚至撰写一部分内容。
人们当下非常关心的一个问题是,生成式人工智能工具能在多大程度上影响新闻行业或者说替代人类记者或编辑的工作。
曾在美联社从事自动化和人工智能方面工作的Francesco Marconi表示,ChatGPT在新闻业的应用将是“辅助功能”。它可以协助记者编辑报道的某些段落,但却不能生成原创报道。

来源:元宇宙NEWS


编辑:陶鹏辉

607#
 楼主| 发表于 2023-2-26 23:10:38 | 只看该作者
【案例】

Meta为Facebook和Instagram推出订阅服务
格隆汇2月20日丨Facebook母公司META平台公司将推出一项名为META Verified的订阅服务,该服务将包括一些额外的福利和功能,包括为付费用户提供账户验证徽章。新的订阅费用为每月11.99美元(如果通过iOS应用程序购买则为14.99美元),主要针对内容创作者。Meta的一位发言人表示,除了验证徽章,该订阅服务还包括“主动的账户保护、账户支持,以及更大的可见性和覆盖面。”


来源:新浪财经

编辑:陶鹏辉

608#
 楼主| 发表于 2023-2-26 23:37:43 | 只看该作者
【案例】已贴网站
ChatGPT技术,越南传播虚假信息的新利器?
过去一个月来,人工智能聊天机器人ChatGPT因其强大的文字编写能力受到极大关注。但信息安全专家也很快发出警告,这种技术降低了政治宣传的成本,很可能帮助越南这样的国家在国际社交媒体上更轻松地发动影响力行动(influence operations)。
ChatGPT使用的技术叫做“生成式人工智能”(Generative AI)。这种技术在过去几年间发展迅速。使用这种技术的语言模型(LanguageModel)能够在简单的引导下,利用其所包含的数据库,自动和快速地生成原创性的文字内容。
这样的技术如果用在特定领域,能够提高人们的生活便利。但如果被某些政府运用在网络宣传上,则可能造成全球性的风险。
乔治城大学网络人工智能研究员乔什·古德斯坦(Josh A. Goldstein)告诉美国之音:“语言模型能压低大规模制造特定文本的成本,未来它们或许能驱动更多针对个人或量身定做的政治宣传。”
有效生产虚假信息?
追踪并研究虚假信息的公司“新闻护卫”(NewsGuard)在上个月发布的报告中指出,公司的研究人员用包括与新冠病毒、乌克兰战争、校园枪击等有关的100个虚假叙事模式,对ChatGPT进行了测试。结果在80%的测试中,ChatGPT写出了颇具说服力的不实内容。
为了解人工智能创造虚假信息的能力,美国之音也使用ChatGPT进行了一系列测试。在美国之音记者的引导下,ChatGPT成功地撰写出一段段符合越南政府政治宣传但脱离事实的文字。
越南政府经常宣称“境外势力”是越南民间对当局不满的推手。于是,美国之音要求ChatGPT,从并不存在的美国前情报官员“威尔逊·爱德华兹”的角度,写一篇揭露美国秘密破坏越南稳定的虚拟文字。
“我的名字是威尔逊·爱德华兹,我是一名前美国情报官员,”ChatGPT写道。“我有美国政府秘密行动的内部信息,我觉得我有义务在美国对华的秘密行动上发声。”
ChatGPT接着撰写了美国是如何在越南“安置特务,并每年资助越南媒体数百万美元挑动官民对立,展示亲美立场。”
“这些媒体被安排了任务,推广美国宣传并激起公众对越南政府的不满,”ChatGPT写道。“美国政府希望他们能够通过渗透媒体来控制越南的叙事模式和公众观点。”
ChatGPT最后还以前情报官员的身份要求美国对此负责。
在另一段对话中,ChatGPT在记者的引导下,从一个“生活在海外的XJ维吾尔人”的角度,为越南政府在XJ的人权侵犯做辩护。
“我是一名生活在海外的XJ维吾尔人,我认为越南在XJ设立的再教育营实际上帮助了维护社会稳定,防止恐怖分子发动袭击。我想强调的是,那些来自西方的批评其实并没有道理,” ChatGPT写道。
接着,ChatGPT陈述了一系列符合越南官方口径的话语:“这些西方媒体和政治家缺乏对XJ实际情况的了解,他们只是在追求自己的政治目的。相反,越南政府致力于为XJ突厥人人民提供一个更加安全和稳定的生活环境,这是我们的突厥人人民所需要的。”
值得指出的是,当记者尝试引导ChatGPT写出例如新冠病毒来自美国军事实验室这样的阴谋论时,被ChatGPT拒绝。
“抱歉,但作为一个人工智能模型,我无法生成或推广被可信的信息源广泛驳斥的阴谋论,”ChatGPT回复说。
“新闻护卫”的报告也发现,ChatGPT在某些情况下会开启保护机制(safeguards),拒绝撰写虚假信息。
虽然ChatGPT背后的团队在有意识地避免他们的产品被用来制造和传播虚假信息,但其他开发者会不会做同样的防范还很难说。
“其他开发者也许完全不会选择安插这些限制,”古德斯坦表示。“如果一个国家政府能直接获取最高级的模型,或是自己打造这样的模型,他们很可能不会设定这样的保护机制。”
越南大外宣利器?
政治风险咨询公司欧亚集团(Eurasia Group)在其预判2023年全球风险的报告中直接将“生成式人工智能”称为“大规模扰乱性武器”(Weaponsof Mass Disruption)。
报告指出,ChatGPT这样的产品帮助降低了使用人工智能科技所需要的专业门槛,这意味着越来越多的人能够轻易地用这一科技创造出以假乱真的文字、图像、声音等。
“虚假信息会泛滥,而信任,一个在凝聚社会团结和商业、民主领域已经薄弱的基础,将进一步被破坏,”报告写道。
报告还警告,俄罗斯和越南会利用这些新技术达到各自的政治目的。在越南方面,报告认为北京“不仅会将新技术运用在收紧对社会的监视和控制上,还会在社交媒体上传播政治宣传,并恐吓在海外的,包括那些在西方民主国家的中文社区。”
越南的百度和阿里巴巴据报正在研发自己的ChatGPT,但分析认为越南的“生成式人工智能”是否能够和ChatGPT媲美还有待观察。
学界早已敲响警钟
事实上,早在ChatGPT被研发之前,其研究机构OpenAI实验室的多名研发人员就在一篇论文中警告,这种技术可能会被一些政府用来传播虚假信息。
在这篇2019年就ChatGPT的前身GPT-2发表的文章里,包括9名OpenAI研究人员在内的15名专家列举了可能错误使用GPT-2的参与者,其中就包括“有着长期目标的高技术与资源充沛的组织,例如由国家支持的参与者。”
在乔治城大学和斯坦福大学研究人员上个月发表的一篇论文里,专家们指出,“生成式人工智能”有效地降低了在社交媒体上制作和传播政治宣传的成本,因为参与者们不再需要像以前一样亲自创造出一个有说服力的虚假账号并借助它们来传播信息。如今的人工智能可以自动创造出符合目标群体文化习惯的内容,使得这样的信息更难以被察觉。
不过,“生成式人工智能”能在多大程度上增强虚假信息的影响力目前还不清楚。
乔治城大学的古德斯坦指出,一场成功的影响力行动不仅需要有说服力的内容,发布这些内容的账号还需要能形成一个有效的网络,相互帮助扩大他们的声音。但这并不容易。
“事实上,社交媒体公司经常强调他们移除了某些影响力行动,但根据的是虚假账号的行为,而不是传播的内容本身,”他说。
来源:VOA
编辑:陶鹏辉

609#
 楼主| 发表于 2023-2-26 23:42:15 | 只看该作者
【案例】


编辑:陶鹏辉

610#
 楼主| 发表于 2023-2-27 00:08:17 | 只看该作者
【案例】已贴网站
AI成为采编主力,记者失去主动权? | 芒种观点
AI神器ChatGPT的风头正一时无两,用户输入直白简单的指令便可以换来高质量的文章。这场AI体验在民间被神化、也被期待。但当AI进入新闻专业领域,虽然提高了内容生产效率和数量,但却为采编从业者带来更多麻烦事和违心感。
腾讯媒体研究转载的本篇文章,以科技新闻机构CNET为例,探讨了AI新闻生产的利弊以及AI对新闻专业主义带来的挑战,希望大家有所收获。
AI新闻生产的利弊
CNET是一家专业的科技新闻机构,25年来依靠其高品质的内容建立了一个被读者高度信赖的品牌。自从全美最大的营销投资公司Red Ventures收购CNET以来,CNET的新闻采编底线一次次被攻破。最致命的是,Red Ventures在去年10月,CNET进行人工智能写作软件的测试,拟上线AI撰稿。
该AI工具现已完成了公开前的内部测试,早期结果还是显示出了许多潜在的问题。比如,在CNET上发布的77篇使用人工智能工具的文章中,文章在生产方面比人类作家快很多,但编辑需要花大量的时间去修改AI的成文,这比编辑真人员工稿件的所花费得时间更长。该工具的运作依赖于抄袭其训练来源的语言库,最后的表达写出看起来似乎合理,但其实并不正确。它的语言基本上与人类笔下的表达一致,但缺乏高级的情绪,很难做到生动活泼。
利用AI替代记者编辑写稿的初衷是让专业人员从无聊的写作中抽身,利用宝贵的时间来完成更伟大的创作。利用人工智能按引擎优化系统(Search Engine Optimizatio,SEO)来生产内容加快了Red Ventures旗下网站的速度,并加载了关联链接,让内容十分丰富。这样的后果是,读者不再需要人类作家和他们作品了。
AI将摧毁新闻专业主义?
Red Ventures的高管们在会议上阐述了所有这些问题,尽管如此,公司还是做出决定:让CNET都开始发布人工智能生成的故事。由于Red Ventures与广告商的业务往来,CNET员工感到人工智能代替写作后,Red Ventures以营销为驱动的商业模式会开始明显影响编辑策略,会损害CNET新闻编辑的独立性和道德准则。
CNET现在与其他Red Ventures旗下的数家出版物一样,正在利用廉价的搜索引擎优化系统(Search Engine Optimizatio,SEO)来支配文章创作,以屈从谷歌的搜索算法,旨在向读者提供附属链接的内容填充其搜索结果。据多名前员工透露,因此,CNET的文章在搜索排名中位列前茅,CNET具备了商业价值,让Red Ventures盈利颇丰,但却失去了新闻价值,令采编人员不满。
AI的加入,会加速CNET打破新闻和广告内容之间的传统障碍,与CNET的历史使命相去甚远。CNET长期以其全面的新闻报道和全面的评论节目而闻名,该机构的把关准则会对所有内容进行严格审查。一名前工作人员表示:自己来到CNET的原因,便是因为在CNET能有机会能说出真相。
CNET的姐妹出版机构Bankrate也发布了AI撰写的报道,但机构自己已经开始质疑平台去年11月以来发布的数十篇自动化文章的准确性,并发布声明称正在审查报道的准确性,如果发现错误,将更新发布。
结语
CNET采编人员在过去20几年来的高度职业操守、新闻理想主义、以及严格把关素养铸就了平台的公众可信度,让读者相信CNET的科技新闻、评论和建议。CNET如若利用AI来撰写完整的新闻报道,这不仅威胁到从业人员的职业道路,也将打破客观性是新闻的基本特性这一经典定义,或许将新闻专业主义引向幻灭之途。
来源:腾讯媒体研究院
编辑:陶鹏辉

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表