传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

2024级硕士程正元学术日志

[复制链接]
71#
 楼主| 发表于 3 天前 | 只看该作者
6.29.2025
周日,晚上八点,假期结束,看看几篇论文。尤其关注智能信任方面内容。准备明天的高强度写作。
《知识生产视域下生成式人工智能信任的复合框架、作用机制与未来进路》:暗知识理论可以直接用进论文。
“在人机交互的过程中,用户作为认知主体,对生成式人工智能的信任也因此呈现出涵盖技术信任、准人际信任、系统信任以及自我信任的复合结构。”
“我们也应注意到,生成式人工智能技术所依托的联结主义技术路径,由于摆脱了符号主义对规则与逻辑的依赖,也引发了诸多不可言明的解释困境。例如,伴随着模型的不断增大,模型对现实世界的幻觉感知非但没有减小,反而越发严重,对弱势群体的刻板认知也呈现同样规律”(ZHOU L,SCHELLAERT W,MARTÍ NEZ-PLUMED F,e t a l. L a rg e r and more instructable language models be c ome le s s re li a ble . Na tu re,2024(10):1-8.)
参考文献直接用进第一部分最后一章。
“在智能技术迅猛发展的当下,生成式AI 因其模拟人类对话、逻辑推理、道德认知等能力,展现出前所未有的类人特质,在某种程度上成为与人类等同的交流伙伴。人类主体有可能与机器共同协作完成任务,亦可能对机器主体产生心理依赖与情感需求[7]”
“例如,公众会对一家具有数据资源更雄厚、技术团队更专业、更遵守行业规范的科技组织所研发的生成式AI 产品抱有更高的信任水平。”
这样的举例方式值得学习。
“生成式AI 与用户基于交互的内容生产模式决定了信任客体的边界正在变得模糊[13]。在此模式下,人类用户自身的提问与引导也将影响生成式AI 的思考模式与输出内容,人类的作用深刻嵌入人机交互的知识生产链条中。由此,人类对生成式人工智能的信任不再是对独立分离的客体的信任,也融入了对自我的信任。”
“但盲目的系统与技术信任亦对知识生产的良性循环构成威胁。吉登斯曾言,个人对抽象
系统所给予的信任是“产生于在无知或缺乏信息时的‘盲目信任’”[15]。对生成式AI 技术机制与特性,以及相关组织系统运作逻辑的“绝对无知”引发的盲目信任作用于知识生产环节,可能形成用户对机器的认知或想象与机器实际特性的错位,进而导致逾越生成式AI 技术能力与规则范围的误用、滥用。由此,低质、错误甚至有害的知识可能渗透进人机协同的知识生产环节中,并可能作为生产的“伪知识”被挟带进入机器的下一次知识获取环节中,进而对知识生产的良性循环构成威胁。”
“在人机协同的知识生产过程中,生成式AI 的灰知识并不一定是知识的最终形态,用户有必要以AI 生成的灰知识为“证据”,结合相关理论和方法进行演绎和推理,对机器生成内容的知识价值作进一步评估和检验,实现知识的最终生产。”
(直接套:记者编辑。)
学习本文这种论述一下用一两句引用的写法非常好。
再找些英文文献,直接套。
AI就是很原始的研究领域,越原始的研究领域越公平。
睡前娱乐看会中国娼妓史话和党史。
6.30.2025
周一,感冒。上午十点四十开始,看一篇论文,改论文初稿。
《我国主流媒体应用AI大模型的现状与影响因素分析_徐鸿晟》
“2024 年全国两会期间,人民日报、人民网、央视制作和发布大量AI 大模型辅助制
作的新闻产品,这对其他等级媒体机构具有重要的导向性作用”
(这句话可以直接用)
“在实际新闻业务实践中,全能型记者实现的难度非常大,并不是所有从业人员都有能力完成多模态内容生成。但是目前AI 大模型的多模态内容生成,可以有效赋能新闻从业者实现全能型记者转型,尤其在稿件润色、内容配音、文生图、拍摄分镜头脚本生成等方面对新闻从业人员赋能较为明显”
“第三,大模型的内容产生“幻觉”会影响从业者对AI 技术的信任吗?大模型会根据技术逻辑来编制一些没有准确信息来源的内容,这些内容并不符合实际情况,学者们称之为“一本正经的胡说八道”,这就是大模型的“幻觉”问题。研究发现,AI 大模型生成的错误信息会影响从业人员对大模型的技术信任,在功能性信任这一维度下,从业人员对于大模型的不同方面呈现差异化的信任程度。调查数据显示,从业人员普遍对大模型所提供的错误信任问题反应较为强烈,其均值和标准差(AVG = 2.46,SD = 1.08,最高 5 分,最低1 分)显示出较低的信任水平,这表明在使用过程中,一旦出现错误相关的情况,比如生成内容存在事实性错误、逻辑漏洞或给出的答案不准确等,会极大地损害媒体机构与从业人员对该AI 大模型的整体信任。因此,为确保AI搜索提供的选题来源的真实性与内容生成的准确性,从业人员要进行信源与生成内容的事实核查,主流媒体机构“把关人”角色进一步得到明确。也就是说,主流媒体从业者对大模型具有批判意识,并不是简单地信任与依赖人工智能。”
补充想法:偏见信息的虚假属性——事实本身不具有偏见,休谟:价值判断与事实判断。
“简言之,大模型在主流媒体的应用主要包括三个层面:第一个层面,大模型被用于内容生产,比如辅助制作视频和撰写稿件;第二个层面是传播产品的制作,包括内容生产、分发和消费整个生态系统,能够形成有传播力的传播产品;第三个层面是构建一个基于大模型应用的传播平台。这三个层面各有其特点”
《媒体信任危机的历史与辨证思考》
真实性贯穿媒体信任危机的发展:
历史上,真实性危机始终是造成媒体信任危机的重要因素。
“自媒体诞生以来 ,由虚假信息引发的媒体信任危机就不曾停止过。纵观历史 ,从资产阶级廉价报纸时期 ,就有媒体为争取读者 、扩大发行而进行有 目的有计划的虚假报道 ,如美国1833年创办 的首家成功的廉价报纸《太 阳报》在 1835年发表关于月球人的连续 报道 ,在当时引起 巨大轰动 ,其直接结果为《太 阳报》一跃成为世界发行量最大的报纸 ,报社每天连续印刷 l0个小时都供不应求 。但当这一骗局被揭穿之后 ,即遭到同行的强烈谴责。现代报业崛起后 ,这种虚假报道依旧不能消失。美国黄色报纸大王赫斯特 1898年在其创办 的《纽约新闻报》上为煽动美西战争 ,而大量刊登未经证实的消息 ,鼓动不明真相的群众鼓噪政府对西班牙开战 ;后又刊登文章教唆暴徒暗杀总统麦金来,这种恶行 ,引起公愤 ,人们在公共场所吊死报主赫斯特 的模拟像 ,并广泛抵制《纽约新闻报》,并烧毁像 ,而使其不得不将报纸改名为《纽约美国人与新闻报》。由此可见 ,早期的媒体危机主要来 自虚假报道 ,而这种虚假报道大多是主观人为制作而成。”
“从媒体发展的历史来看,造成媒体信任危机的最直接最主要的原因是报道了虚假新闻,只不过从开始时的报纸高层的主动策划报道到后来的因为失误等客观原因而报道了虚假新闻。可以说,从媒体诞生那天起,虚假新闻就成为诱发媒体信任危机的最原始也是最基本因素。这种因素一直伴随着媒体的发展而存在,并损害媒体的健康发展。”
11:40:搜论文,看论文,并搞清楚:智能新闻是什么?智能新闻的信任和传统的媒体信任有什么区别?
下午看这方面的几篇论文,并整理提纲。难?难所以才值得做,才有意义。
《人机协作叙事:生成式人工智能与新闻叙事的“智能转向”_刘涛》
“2023 年 4 月25 日,《人物》杂志公众号发布了一篇完全由ChatGPT 主导写作的稿件《ChatGPT 会让人变懒吗?》。该文章的事实素材来自三位采访对象,人类记者完成了前期的采访工作,随后将共计3 万字的访谈记录切分成多个1000 字左右的片段,逐一“投喂”给 ChatGPT,由其整理成 6000 字左右的材料。接着,记者按照 ChatGPT 所生成的写作框架,将三段访谈材料拆分重组后再次输入 ChatGPT,由其完成最后的文字生成、润色工作。然而,在同时刊出的编后语中,记者指出 ChatGPT 在采访素材的预处理、材料有机融合、写作真实性方面仍有很多不足,尤其是在人机合作效率和新闻写作伦理上依旧存在一定问题。”
“2025年,主流媒体纷纷接入 DeepSeek,通过与其“沟通”获得选题灵感,采集数据资源,甚至直接生成新闻内容。正如《南方都市报》的这些新闻——《DeepSeek 解读2025 广州卫生健康“双十行动”》《数描广州见义勇为群英像,DeepSeek 这么说》《AI 眼中的国产威士忌: 本土化创新成关键词,营销需长期主义》所揭示的那样,生成式 AI 已然成为新闻生产活动中的一个行动者,不仅直接参与新闻内容的生成,而且嵌入新闻叙事的内部世界,深刻地影响着新闻故事的呈现方式和框架结构,如记者依据 DeepSeek 提供的答案来确立新闻叙事的要点、篇章和框架。”
“按照贝尔纳·斯蒂格勒( Bernard Stiegler) 的技术哲学观点,人和技术之间是一种共生进化关系,技术不仅仅是人类身体官能的外在化“延伸”,更是作为一种实质性的“替补”,代际性地作用于人类的内在演变,并接通了人与非人的世界。这一观念与将智能体视为主体和客体相统一的“中介体”观念不谋而合。简言之,在斯蒂格勒那里,技术被视为一种“中介体”———中介了主体与客体,亦中介了人与世界。然而,在 AIGC 的世界里,生成式 AI 超越了“中介体”的内涵与范畴,其并非人类官能的简单“外化”,而是作为一种不透明的智能装置,将人类的价值智能与 AI 的计算智能统合在一起,并以“对话”为协作基础,建立了一种全新的智能形式——人机混合智能。”
“国内主流媒体纷纷试水大语言模型开发,形成了一系列代表性的大模型产品,如新华社的大语言模型 MediaGPT、央视的央视听媒体大模型( CMG Media GPT) 、界面财联社的财跃 F1 金融大模型、浙江日报报业集团的传播大模型等。”
今天是6.30,2025的中间一天,研一的结束的中间时间段,研究生毕业的中位数(我是大四上进入刘门的,相当于研究生读四年)。一定要抓紧时间做出成果。
阅读文献,善用AI整理框架。
下午先看个三篇智能新闻方面的:刘涛老师的、张志安老师的、刘海明老师的。
《从公共传播到智能传播:新闻实践及实务教学的范式变革_张志安》
“公共传播语境下,新闻行动者的边界日益模糊、角色更加多元,不同的新闻行动者以专业化媒体报道和社会化传播交织的方式,在当下媒体生态环境中进行角色流动与多元节点的新闻实践,“随机新闻行动”可能从边缘走向中心(张志安、王惠玲,2019)。“随机新闻行动”的主体大多是面向特定机构或特定行业人员、提供行业资讯的垂直机构媒体,长期观察所在行业动态发展,挖掘诸如社会救助体系、大学生求职、疫苗、保健品等宏大的社会议题,在报道手法上聚焦偶发性事件,从个体视角展开叙事,强化个人命运与社会治理的关系,以明确价值指向形成网络舆论”
“受数字化浪潮的影响,社会不断交织演变出新形态,“一种新媒介的长处,将导致一种新文明的产生”(哈罗德·伊尼斯,2003:28),社会通常能够适应技术的变化,并出现新的机会。马歇尔·麦克卢汉(2000:20)在《理解媒介》中曾预言:“我们正在迅速逼近人类延伸的最后一个阶段——从技术上模拟意识阶段”。生成式人工智能(Generative AI)技术的应用,使传统以人为主体的新闻生产快速迭代至人机交互、协作乃至共生的新闻生产,伴随公共传播迈向智能传播的新阶段,新闻实践及新闻实务教学面临着更加深刻的第二次范式更新。”
(学习模仿这种语言的写法。)
弱化媒体公共性:
“新闻业在依赖这项技术带来生产效率等福利的同时,也存在让渡更多话语权、弱化新闻公共性等隐忧。当下人工智能技术的发展和完善需要庞大的资金和技术支持,能够支撑自行研发数字新闻人的媒体较少,大部分媒体与人工智能企业采取跨界合作,以获得技术支持。如此一来,智能内容生产的质量、平台信息安全性与稳定性都会受到第三方平台的影响,受到培养和调教生成式人工智能的工程师的限制,媒体的话语权则存在进一步被削弱的可能(周培源,2023)。”
揭示了人工智能引发的真实性困境与公众信任的关系:
“2023年3月,美国首批针对OpenAI制定使用政策的杂志WIRED的主编表示,尽管记
者可以使用人工智能来生成社交媒体上的标题、文本以及生成故事创意,但不会使用生
成式人工智能来编辑或撰写故事,因为“在一个一切都可以伪造的世界里,最有价值的
商品就是信任”(Wired,2023)。”
偏见和幻觉的关系,或者幻觉直接导致偏见:
“2021年9月,《华尔街日报》披露Facebook允许错误信息、虚假信息和毒性信息的传播,导致种族暴力、性别侵害,以及破坏新冠疫苗接种的努力(Sam,Jeff & Emily,2021)。其中隐含的危险性在于,倘若新闻业无法在当下社会维护岌岌可危的信任,未来的可持续发展将成严重问题。”
停止阅读论文,开始整理思路。
*晚上至少再看并学习5篇论文的思路提纲,再读书(逻辑学、金岳霖),明天再正文动笔。
*今晚还是看论文,看书,积累思路。明天要正式高强度动笔。
翻消息找到以前的一些论文:
European Com mission. Ethics Guidelines for Trust worthy AI〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guide-lines.
[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2):530-549.
[5] Ryan ,M.(2020) In AI we trust:Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5):2749-2767.
[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,  19(4):7-11.
[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence:Review of empirical research. Academy of Management Annals, 14(2):627-660.
《The link between changing news use and trust: longitudinal analysis of 46 countries》:
“首先,信任构成了受众(托管人)和新闻机构(托管人)之间的关系(Bl
72#
 楼主| 发表于 3 天前 | 只看该作者
6.29.2025
周日,晚上八点,假期结束,看看几篇论文。尤其关注智能信任方面内容。准备明天的高强度写作。
《知识生产视域下生成式人工智能信任的复合框架、作用机制与未来进路》:暗知识理论可以直接用进论文。
“在人机交互的过程中,用户作为认知主体,对生成式人工智能的信任也因此呈现出涵盖技术信任、准人际信任、系统信任以及自我信任的复合结构。”
“我们也应注意到,生成式人工智能技术所依托的联结主义技术路径,由于摆脱了符号主义对规则与逻辑的依赖,也引发了诸多不可言明的解释困境。例如,伴随着模型的不断增大,模型对现实世界的幻觉感知非但没有减小,反而越发严重,对弱势群体的刻板认知也呈现同样规律”(ZHOU L,SCHELLAERT W,MARTÍ NEZ-PLUMED F,e t a l. L a rg e r and more instructable language models be c ome le s s re li a ble . Na tu re,2024(10):1-8.)
参考文献直接用进第一部分最后一章。
“在智能技术迅猛发展的当下,生成式AI 因其模拟人类对话、逻辑推理、道德认知等能力,展现出前所未有的类人特质,在某种程度上成为与人类等同的交流伙伴。人类主体有可能与机器共同协作完成任务,亦可能对机器主体产生心理依赖与情感需求[7]”
“例如,公众会对一家具有数据资源更雄厚、技术团队更专业、更遵守行业规范的科技组织所研发的生成式AI 产品抱有更高的信任水平。”
这样的举例方式值得学习。
“生成式AI 与用户基于交互的内容生产模式决定了信任客体的边界正在变得模糊[13]。在此模式下,人类用户自身的提问与引导也将影响生成式AI 的思考模式与输出内容,人类的作用深刻嵌入人机交互的知识生产链条中。由此,人类对生成式人工智能的信任不再是对独立分离的客体的信任,也融入了对自我的信任。”
“但盲目的系统与技术信任亦对知识生产的良性循环构成威胁。吉登斯曾言,个人对抽象
系统所给予的信任是“产生于在无知或缺乏信息时的‘盲目信任’”[15]。对生成式AI 技术机制与特性,以及相关组织系统运作逻辑的“绝对无知”引发的盲目信任作用于知识生产环节,可能形成用户对机器的认知或想象与机器实际特性的错位,进而导致逾越生成式AI 技术能力与规则范围的误用、滥用。由此,低质、错误甚至有害的知识可能渗透进人机协同的知识生产环节中,并可能作为生产的“伪知识”被挟带进入机器的下一次知识获取环节中,进而对知识生产的良性循环构成威胁。”
“在人机协同的知识生产过程中,生成式AI 的灰知识并不一定是知识的最终形态,用户有必要以AI 生成的灰知识为“证据”,结合相关理论和方法进行演绎和推理,对机器生成内容的知识价值作进一步评估和检验,实现知识的最终生产。”
(直接套:记者编辑。)
学习本文这种论述一下用一两句引用的写法非常好。
再找些英文文献,直接套。
AI就是很原始的研究领域,越原始的研究领域越公平。
睡前娱乐看会中国娼妓史话和党史。
6.30.2025
周一,感冒。上午十点四十开始,看一篇论文,改论文初稿。
《我国主流媒体应用AI大模型的现状与影响因素分析_徐鸿晟》
“2024 年全国两会期间,人民日报、人民网、央视制作和发布大量AI 大模型辅助制
作的新闻产品,这对其他等级媒体机构具有重要的导向性作用”
(这句话可以直接用)
“在实际新闻业务实践中,全能型记者实现的难度非常大,并不是所有从业人员都有能力完成多模态内容生成。但是目前AI 大模型的多模态内容生成,可以有效赋能新闻从业者实现全能型记者转型,尤其在稿件润色、内容配音、文生图、拍摄分镜头脚本生成等方面对新闻从业人员赋能较为明显”
“第三,大模型的内容产生“幻觉”会影响从业者对AI 技术的信任吗?大模型会根据技术逻辑来编制一些没有准确信息来源的内容,这些内容并不符合实际情况,学者们称之为“一本正经的胡说八道”,这就是大模型的“幻觉”问题。研究发现,AI 大模型生成的错误信息会影响从业人员对大模型的技术信任,在功能性信任这一维度下,从业人员对于大模型的不同方面呈现差异化的信任程度。调查数据显示,从业人员普遍对大模型所提供的错误信任问题反应较为强烈,其均值和标准差(AVG = 2.46,SD = 1.08,最高 5 分,最低1 分)显示出较低的信任水平,这表明在使用过程中,一旦出现错误相关的情况,比如生成内容存在事实性错误、逻辑漏洞或给出的答案不准确等,会极大地损害媒体机构与从业人员对该AI 大模型的整体信任。因此,为确保AI搜索提供的选题来源的真实性与内容生成的准确性,从业人员要进行信源与生成内容的事实核查,主流媒体机构“把关人”角色进一步得到明确。也就是说,主流媒体从业者对大模型具有批判意识,并不是简单地信任与依赖人工智能。”
补充想法:偏见信息的虚假属性——事实本身不具有偏见,休谟:价值判断与事实判断。
“简言之,大模型在主流媒体的应用主要包括三个层面:第一个层面,大模型被用于内容生产,比如辅助制作视频和撰写稿件;第二个层面是传播产品的制作,包括内容生产、分发和消费整个生态系统,能够形成有传播力的传播产品;第三个层面是构建一个基于大模型应用的传播平台。这三个层面各有其特点”
《媒体信任危机的历史与辨证思考》
真实性贯穿媒体信任危机的发展:
历史上,真实性危机始终是造成媒体信任危机的重要因素。
“自媒体诞生以来 ,由虚假信息引发的媒体信任危机就不曾停止过。纵观历史 ,从资产阶级廉价报纸时期 ,就有媒体为争取读者 、扩大发行而进行有 目的有计划的虚假报道 ,如美国1833年创办 的首家成功的廉价报纸《太 阳报》在 1835年发表关于月球人的连续 报道 ,在当时引起 巨大轰动 ,其直接结果为《太 阳报》一跃成为世界发行量最大的报纸 ,报社每天连续印刷 l0个小时都供不应求 。但当这一骗局被揭穿之后 ,即遭到同行的强烈谴责。现代报业崛起后 ,这种虚假报道依旧不能消失。美国黄色报纸大王赫斯特 1898年在其创办 的《纽约新闻报》上为煽动美西战争 ,而大量刊登未经证实的消息 ,鼓动不明真相的群众鼓噪政府对西班牙开战 ;后又刊登文章教唆暴徒暗杀总统麦金来,这种恶行 ,引起公愤 ,人们在公共场所吊死报主赫斯特 的模拟像 ,并广泛抵制《纽约新闻报》,并烧毁像 ,而使其不得不将报纸改名为《纽约美国人与新闻报》。由此可见 ,早期的媒体危机主要来 自虚假报道 ,而这种虚假报道大多是主观人为制作而成。”
“从媒体发展的历史来看,造成媒体信任危机的最直接最主要的原因是报道了虚假新闻,只不过从开始时的报纸高层的主动策划报道到后来的因为失误等客观原因而报道了虚假新闻。可以说,从媒体诞生那天起,虚假新闻就成为诱发媒体信任危机的最原始也是最基本因素。这种因素一直伴随着媒体的发展而存在,并损害媒体的健康发展。”
11:40:搜论文,看论文,并搞清楚:智能新闻是什么?智能新闻的信任和传统的媒体信任有什么区别?
下午看这方面的几篇论文,并整理提纲。难?难所以才值得做,才有意义。
《人机协作叙事:生成式人工智能与新闻叙事的“智能转向”_刘涛》
“2023 年 4 月25 日,《人物》杂志公众号发布了一篇完全由ChatGPT 主导写作的稿件《ChatGPT 会让人变懒吗?》。该文章的事实素材来自三位采访对象,人类记者完成了前期的采访工作,随后将共计3 万字的访谈记录切分成多个1000 字左右的片段,逐一“投喂”给 ChatGPT,由其整理成 6000 字左右的材料。接着,记者按照 ChatGPT 所生成的写作框架,将三段访谈材料拆分重组后再次输入 ChatGPT,由其完成最后的文字生成、润色工作。然而,在同时刊出的编后语中,记者指出 ChatGPT 在采访素材的预处理、材料有机融合、写作真实性方面仍有很多不足,尤其是在人机合作效率和新闻写作伦理上依旧存在一定问题。”
“2025年,主流媒体纷纷接入 DeepSeek,通过与其“沟通”获得选题灵感,采集数据资源,甚至直接生成新闻内容。正如《南方都市报》的这些新闻——《DeepSeek 解读2025 广州卫生健康“双十行动”》《数描广州见义勇为群英像,DeepSeek 这么说》《AI 眼中的国产威士忌: 本土化创新成关键词,营销需长期主义》所揭示的那样,生成式 AI 已然成为新闻生产活动中的一个行动者,不仅直接参与新闻内容的生成,而且嵌入新闻叙事的内部世界,深刻地影响着新闻故事的呈现方式和框架结构,如记者依据 DeepSeek 提供的答案来确立新闻叙事的要点、篇章和框架。”
“按照贝尔纳·斯蒂格勒( Bernard Stiegler) 的技术哲学观点,人和技术之间是一种共生进化关系,技术不仅仅是人类身体官能的外在化“延伸”,更是作为一种实质性的“替补”,代际性地作用于人类的内在演变,并接通了人与非人的世界。这一观念与将智能体视为主体和客体相统一的“中介体”观念不谋而合。简言之,在斯蒂格勒那里,技术被视为一种“中介体”———中介了主体与客体,亦中介了人与世界。然而,在 AIGC 的世界里,生成式 AI 超越了“中介体”的内涵与范畴,其并非人类官能的简单“外化”,而是作为一种不透明的智能装置,将人类的价值智能与 AI 的计算智能统合在一起,并以“对话”为协作基础,建立了一种全新的智能形式——人机混合智能。”
“国内主流媒体纷纷试水大语言模型开发,形成了一系列代表性的大模型产品,如新华社的大语言模型 MediaGPT、央视的央视听媒体大模型( CMG Media GPT) 、界面财联社的财跃 F1 金融大模型、浙江日报报业集团的传播大模型等。”
今天是6.30,2025的中间一天,研一的结束的中间时间段,研究生毕业的中位数(我是大四上进入刘门的,相当于研究生读四年)。一定要抓紧时间做出成果。
阅读文献,善用AI整理框架。
下午先看个三篇智能新闻方面的:刘涛老师的、张志安老师的、刘海明老师的。
《从公共传播到智能传播:新闻实践及实务教学的范式变革_张志安》
“公共传播语境下,新闻行动者的边界日益模糊、角色更加多元,不同的新闻行动者以专业化媒体报道和社会化传播交织的方式,在当下媒体生态环境中进行角色流动与多元节点的新闻实践,“随机新闻行动”可能从边缘走向中心(张志安、王惠玲,2019)。“随机新闻行动”的主体大多是面向特定机构或特定行业人员、提供行业资讯的垂直机构媒体,长期观察所在行业动态发展,挖掘诸如社会救助体系、大学生求职、疫苗、保健品等宏大的社会议题,在报道手法上聚焦偶发性事件,从个体视角展开叙事,强化个人命运与社会治理的关系,以明确价值指向形成网络舆论”
“受数字化浪潮的影响,社会不断交织演变出新形态,“一种新媒介的长处,将导致一种新文明的产生”(哈罗德·伊尼斯,2003:28),社会通常能够适应技术的变化,并出现新的机会。马歇尔·麦克卢汉(2000:20)在《理解媒介》中曾预言:“我们正在迅速逼近人类延伸的最后一个阶段——从技术上模拟意识阶段”。生成式人工智能(Generative AI)技术的应用,使传统以人为主体的新闻生产快速迭代至人机交互、协作乃至共生的新闻生产,伴随公共传播迈向智能传播的新阶段,新闻实践及新闻实务教学面临着更加深刻的第二次范式更新。”
(学习模仿这种语言的写法。)
弱化媒体公共性:
“新闻业在依赖这项技术带来生产效率等福利的同时,也存在让渡更多话语权、弱化新闻公共性等隐忧。当下人工智能技术的发展和完善需要庞大的资金和技术支持,能够支撑自行研发数字新闻人的媒体较少,大部分媒体与人工智能企业采取跨界合作,以获得技术支持。如此一来,智能内容生产的质量、平台信息安全性与稳定性都会受到第三方平台的影响,受到培养和调教生成式人工智能的工程师的限制,媒体的话语权则存在进一步被削弱的可能(周培源,2023)。”
揭示了人工智能引发的真实性困境与公众信任的关系:
“2023年3月,美国首批针对OpenAI制定使用政策的杂志WIRED的主编表示,尽管记
者可以使用人工智能来生成社交媒体上的标题、文本以及生成故事创意,但不会使用生
成式人工智能来编辑或撰写故事,因为“在一个一切都可以伪造的世界里,最有价值的
商品就是信任”(Wired,2023)。”
偏见和幻觉的关系,或者幻觉直接导致偏见:
“2021年9月,《华尔街日报》披露Facebook允许错误信息、虚假信息和毒性信息的传播,导致种族暴力、性别侵害,以及破坏新冠疫苗接种的努力(Sam,Jeff & Emily,2021)。其中隐含的危险性在于,倘若新闻业无法在当下社会维护岌岌可危的信任,未来的可持续发展将成严重问题。”
停止阅读论文,开始整理思路。
*晚上至少再看并学习5篇论文的思路提纲,再读书(逻辑学、金岳霖),明天再正文动笔。
*今晚还是看论文,看书,积累思路。明天要正式高强度动笔。
翻消息找到以前的一些论文:
European Com mission. Ethics Guidelines for Trust worthy AI〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guide-lines.
[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2):530-549.
[5] Ryan ,M.(2020) In AI we trust:Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5):2749-2767.
[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,  19(4):7-11.
[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence:Review of empirical research. Academy of Management Annals, 14(2):627-660.
《The link between changing news use and trust: longitudinal analysis of 46 countries》:
“首先,信任构成了受众(托管人)和新闻机构(托管人)之间的关系(Bl

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表