传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

2024级硕士程正元学术日志

[复制链接]
71#
 楼主| 发表于 2025-7-7 15:26:47 | 只看该作者
6.29.2025
周日,晚上八点,假期结束,看看几篇论文。尤其关注智能信任方面内容。准备明天的高强度写作。
《知识生产视域下生成式人工智能信任的复合框架、作用机制与未来进路》:暗知识理论可以直接用进论文。
“在人机交互的过程中,用户作为认知主体,对生成式人工智能的信任也因此呈现出涵盖技术信任、准人际信任、系统信任以及自我信任的复合结构。”
“我们也应注意到,生成式人工智能技术所依托的联结主义技术路径,由于摆脱了符号主义对规则与逻辑的依赖,也引发了诸多不可言明的解释困境。例如,伴随着模型的不断增大,模型对现实世界的幻觉感知非但没有减小,反而越发严重,对弱势群体的刻板认知也呈现同样规律”(ZHOU L,SCHELLAERT W,MARTÍ NEZ-PLUMED F,e t a l. L a rg e r and more instructable language models be c ome le s s re li a ble . Na tu re,2024(10):1-8.)
参考文献直接用进第一部分最后一章。
“在智能技术迅猛发展的当下,生成式AI 因其模拟人类对话、逻辑推理、道德认知等能力,展现出前所未有的类人特质,在某种程度上成为与人类等同的交流伙伴。人类主体有可能与机器共同协作完成任务,亦可能对机器主体产生心理依赖与情感需求[7]”
“例如,公众会对一家具有数据资源更雄厚、技术团队更专业、更遵守行业规范的科技组织所研发的生成式AI 产品抱有更高的信任水平。”
这样的举例方式值得学习。
“生成式AI 与用户基于交互的内容生产模式决定了信任客体的边界正在变得模糊[13]。在此模式下,人类用户自身的提问与引导也将影响生成式AI 的思考模式与输出内容,人类的作用深刻嵌入人机交互的知识生产链条中。由此,人类对生成式人工智能的信任不再是对独立分离的客体的信任,也融入了对自我的信任。”
“但盲目的系统与技术信任亦对知识生产的良性循环构成威胁。吉登斯曾言,个人对抽象
系统所给予的信任是“产生于在无知或缺乏信息时的‘盲目信任’”[15]。对生成式AI 技术机制与特性,以及相关组织系统运作逻辑的“绝对无知”引发的盲目信任作用于知识生产环节,可能形成用户对机器的认知或想象与机器实际特性的错位,进而导致逾越生成式AI 技术能力与规则范围的误用、滥用。由此,低质、错误甚至有害的知识可能渗透进人机协同的知识生产环节中,并可能作为生产的“伪知识”被挟带进入机器的下一次知识获取环节中,进而对知识生产的良性循环构成威胁。”
“在人机协同的知识生产过程中,生成式AI 的灰知识并不一定是知识的最终形态,用户有必要以AI 生成的灰知识为“证据”,结合相关理论和方法进行演绎和推理,对机器生成内容的知识价值作进一步评估和检验,实现知识的最终生产。”
(直接套:记者编辑。)
学习本文这种论述一下用一两句引用的写法非常好。
再找些英文文献,直接套。
AI就是很原始的研究领域,越原始的研究领域越公平。
睡前娱乐看会中国娼妓史话和党史。
6.30.2025
周一,感冒。上午十点四十开始,看一篇论文,改论文初稿。
《我国主流媒体应用AI大模型的现状与影响因素分析_徐鸿晟》
“2024 年全国两会期间,人民日报、人民网、央视制作和发布大量AI 大模型辅助制
作的新闻产品,这对其他等级媒体机构具有重要的导向性作用”
(这句话可以直接用)
“在实际新闻业务实践中,全能型记者实现的难度非常大,并不是所有从业人员都有能力完成多模态内容生成。但是目前AI 大模型的多模态内容生成,可以有效赋能新闻从业者实现全能型记者转型,尤其在稿件润色、内容配音、文生图、拍摄分镜头脚本生成等方面对新闻从业人员赋能较为明显”
“第三,大模型的内容产生“幻觉”会影响从业者对AI 技术的信任吗?大模型会根据技术逻辑来编制一些没有准确信息来源的内容,这些内容并不符合实际情况,学者们称之为“一本正经的胡说八道”,这就是大模型的“幻觉”问题。研究发现,AI 大模型生成的错误信息会影响从业人员对大模型的技术信任,在功能性信任这一维度下,从业人员对于大模型的不同方面呈现差异化的信任程度。调查数据显示,从业人员普遍对大模型所提供的错误信任问题反应较为强烈,其均值和标准差(AVG = 2.46,SD = 1.08,最高 5 分,最低1 分)显示出较低的信任水平,这表明在使用过程中,一旦出现错误相关的情况,比如生成内容存在事实性错误、逻辑漏洞或给出的答案不准确等,会极大地损害媒体机构与从业人员对该AI 大模型的整体信任。因此,为确保AI搜索提供的选题来源的真实性与内容生成的准确性,从业人员要进行信源与生成内容的事实核查,主流媒体机构“把关人”角色进一步得到明确。也就是说,主流媒体从业者对大模型具有批判意识,并不是简单地信任与依赖人工智能。”
补充想法:偏见信息的虚假属性——事实本身不具有偏见,休谟:价值判断与事实判断。
“简言之,大模型在主流媒体的应用主要包括三个层面:第一个层面,大模型被用于内容生产,比如辅助制作视频和撰写稿件;第二个层面是传播产品的制作,包括内容生产、分发和消费整个生态系统,能够形成有传播力的传播产品;第三个层面是构建一个基于大模型应用的传播平台。这三个层面各有其特点”
《媒体信任危机的历史与辨证思考》
真实性贯穿媒体信任危机的发展:
历史上,真实性危机始终是造成媒体信任危机的重要因素。
“自媒体诞生以来 ,由虚假信息引发的媒体信任危机就不曾停止过。纵观历史 ,从资产阶级廉价报纸时期 ,就有媒体为争取读者 、扩大发行而进行有 目的有计划的虚假报道 ,如美国1833年创办 的首家成功的廉价报纸《太 阳报》在 1835年发表关于月球人的连续 报道 ,在当时引起 巨大轰动 ,其直接结果为《太 阳报》一跃成为世界发行量最大的报纸 ,报社每天连续印刷 l0个小时都供不应求 。但当这一骗局被揭穿之后 ,即遭到同行的强烈谴责。现代报业崛起后 ,这种虚假报道依旧不能消失。美国黄色报纸大王赫斯特 1898年在其创办 的《纽约新闻报》上为煽动美西战争 ,而大量刊登未经证实的消息 ,鼓动不明真相的群众鼓噪政府对西班牙开战 ;后又刊登文章教唆暴徒暗杀总统麦金来,这种恶行 ,引起公愤 ,人们在公共场所吊死报主赫斯特 的模拟像 ,并广泛抵制《纽约新闻报》,并烧毁像 ,而使其不得不将报纸改名为《纽约美国人与新闻报》。由此可见 ,早期的媒体危机主要来 自虚假报道 ,而这种虚假报道大多是主观人为制作而成。”
“从媒体发展的历史来看,造成媒体信任危机的最直接最主要的原因是报道了虚假新闻,只不过从开始时的报纸高层的主动策划报道到后来的因为失误等客观原因而报道了虚假新闻。可以说,从媒体诞生那天起,虚假新闻就成为诱发媒体信任危机的最原始也是最基本因素。这种因素一直伴随着媒体的发展而存在,并损害媒体的健康发展。”
11:40:搜论文,看论文,并搞清楚:智能新闻是什么?智能新闻的信任和传统的媒体信任有什么区别?
下午看这方面的几篇论文,并整理提纲。难?难所以才值得做,才有意义。
《人机协作叙事:生成式人工智能与新闻叙事的“智能转向”_刘涛》
“2023 年 4 月25 日,《人物》杂志公众号发布了一篇完全由ChatGPT 主导写作的稿件《ChatGPT 会让人变懒吗?》。该文章的事实素材来自三位采访对象,人类记者完成了前期的采访工作,随后将共计3 万字的访谈记录切分成多个1000 字左右的片段,逐一“投喂”给 ChatGPT,由其整理成 6000 字左右的材料。接着,记者按照 ChatGPT 所生成的写作框架,将三段访谈材料拆分重组后再次输入 ChatGPT,由其完成最后的文字生成、润色工作。然而,在同时刊出的编后语中,记者指出 ChatGPT 在采访素材的预处理、材料有机融合、写作真实性方面仍有很多不足,尤其是在人机合作效率和新闻写作伦理上依旧存在一定问题。”
“2025年,主流媒体纷纷接入 DeepSeek,通过与其“沟通”获得选题灵感,采集数据资源,甚至直接生成新闻内容。正如《南方都市报》的这些新闻——《DeepSeek 解读2025 广州卫生健康“双十行动”》《数描广州见义勇为群英像,DeepSeek 这么说》《AI 眼中的国产威士忌: 本土化创新成关键词,营销需长期主义》所揭示的那样,生成式 AI 已然成为新闻生产活动中的一个行动者,不仅直接参与新闻内容的生成,而且嵌入新闻叙事的内部世界,深刻地影响着新闻故事的呈现方式和框架结构,如记者依据 DeepSeek 提供的答案来确立新闻叙事的要点、篇章和框架。”
“按照贝尔纳·斯蒂格勒( Bernard Stiegler) 的技术哲学观点,人和技术之间是一种共生进化关系,技术不仅仅是人类身体官能的外在化“延伸”,更是作为一种实质性的“替补”,代际性地作用于人类的内在演变,并接通了人与非人的世界。这一观念与将智能体视为主体和客体相统一的“中介体”观念不谋而合。简言之,在斯蒂格勒那里,技术被视为一种“中介体”———中介了主体与客体,亦中介了人与世界。然而,在 AIGC 的世界里,生成式 AI 超越了“中介体”的内涵与范畴,其并非人类官能的简单“外化”,而是作为一种不透明的智能装置,将人类的价值智能与 AI 的计算智能统合在一起,并以“对话”为协作基础,建立了一种全新的智能形式——人机混合智能。”
“国内主流媒体纷纷试水大语言模型开发,形成了一系列代表性的大模型产品,如新华社的大语言模型 MediaGPT、央视的央视听媒体大模型( CMG Media GPT) 、界面财联社的财跃 F1 金融大模型、浙江日报报业集团的传播大模型等。”
今天是6.30,2025的中间一天,研一的结束的中间时间段,研究生毕业的中位数(我是大四上进入刘门的,相当于研究生读四年)。一定要抓紧时间做出成果。
阅读文献,善用AI整理框架。
下午先看个三篇智能新闻方面的:刘涛老师的、张志安老师的、刘海明老师的。
《从公共传播到智能传播:新闻实践及实务教学的范式变革_张志安》
“公共传播语境下,新闻行动者的边界日益模糊、角色更加多元,不同的新闻行动者以专业化媒体报道和社会化传播交织的方式,在当下媒体生态环境中进行角色流动与多元节点的新闻实践,“随机新闻行动”可能从边缘走向中心(张志安、王惠玲,2019)。“随机新闻行动”的主体大多是面向特定机构或特定行业人员、提供行业资讯的垂直机构媒体,长期观察所在行业动态发展,挖掘诸如社会救助体系、大学生求职、疫苗、保健品等宏大的社会议题,在报道手法上聚焦偶发性事件,从个体视角展开叙事,强化个人命运与社会治理的关系,以明确价值指向形成网络舆论”
“受数字化浪潮的影响,社会不断交织演变出新形态,“一种新媒介的长处,将导致一种新文明的产生”(哈罗德·伊尼斯,2003:28),社会通常能够适应技术的变化,并出现新的机会。马歇尔·麦克卢汉(2000:20)在《理解媒介》中曾预言:“我们正在迅速逼近人类延伸的最后一个阶段——从技术上模拟意识阶段”。生成式人工智能(Generative AI)技术的应用,使传统以人为主体的新闻生产快速迭代至人机交互、协作乃至共生的新闻生产,伴随公共传播迈向智能传播的新阶段,新闻实践及新闻实务教学面临着更加深刻的第二次范式更新。”
(学习模仿这种语言的写法。)
弱化媒体公共性:
“新闻业在依赖这项技术带来生产效率等福利的同时,也存在让渡更多话语权、弱化新闻公共性等隐忧。当下人工智能技术的发展和完善需要庞大的资金和技术支持,能够支撑自行研发数字新闻人的媒体较少,大部分媒体与人工智能企业采取跨界合作,以获得技术支持。如此一来,智能内容生产的质量、平台信息安全性与稳定性都会受到第三方平台的影响,受到培养和调教生成式人工智能的工程师的限制,媒体的话语权则存在进一步被削弱的可能(周培源,2023)。”
揭示了人工智能引发的真实性困境与公众信任的关系:
“2023年3月,美国首批针对OpenAI制定使用政策的杂志WIRED的主编表示,尽管记
者可以使用人工智能来生成社交媒体上的标题、文本以及生成故事创意,但不会使用生
成式人工智能来编辑或撰写故事,因为“在一个一切都可以伪造的世界里,最有价值的
商品就是信任”(Wired,2023)。”
偏见和幻觉的关系,或者幻觉直接导致偏见:
“2021年9月,《华尔街日报》披露Facebook允许错误信息、虚假信息和毒性信息的传播,导致种族暴力、性别侵害,以及破坏新冠疫苗接种的努力(Sam,Jeff & Emily,2021)。其中隐含的危险性在于,倘若新闻业无法在当下社会维护岌岌可危的信任,未来的可持续发展将成严重问题。”
停止阅读论文,开始整理思路。
*晚上至少再看并学习5篇论文的思路提纲,再读书(逻辑学、金岳霖),明天再正文动笔。
*今晚还是看论文,看书,积累思路。明天要正式高强度动笔。
翻消息找到以前的一些论文:
European Com mission. Ethics Guidelines for Trust worthy AI〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guide-lines.
[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2):530-549.
[5] Ryan ,M.(2020) In AI we trust:Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5):2749-2767.
[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,  19(4):7-11.
[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence:Review of empirical research. Academy of Management Annals, 14(2):627-660.
《The link between changing news use and trust: longitudinal analysis of 46 countries》:
“首先,信任构成了受众(托管人)和新闻机构(托管人)之间的关系(Bl
72#
 楼主| 发表于 2025-7-7 15:26:48 | 只看该作者
6.29.2025
周日,晚上八点,假期结束,看看几篇论文。尤其关注智能信任方面内容。准备明天的高强度写作。
《知识生产视域下生成式人工智能信任的复合框架、作用机制与未来进路》:暗知识理论可以直接用进论文。
“在人机交互的过程中,用户作为认知主体,对生成式人工智能的信任也因此呈现出涵盖技术信任、准人际信任、系统信任以及自我信任的复合结构。”
“我们也应注意到,生成式人工智能技术所依托的联结主义技术路径,由于摆脱了符号主义对规则与逻辑的依赖,也引发了诸多不可言明的解释困境。例如,伴随着模型的不断增大,模型对现实世界的幻觉感知非但没有减小,反而越发严重,对弱势群体的刻板认知也呈现同样规律”(ZHOU L,SCHELLAERT W,MARTÍ NEZ-PLUMED F,e t a l. L a rg e r and more instructable language models be c ome le s s re li a ble . Na tu re,2024(10):1-8.)
参考文献直接用进第一部分最后一章。
“在智能技术迅猛发展的当下,生成式AI 因其模拟人类对话、逻辑推理、道德认知等能力,展现出前所未有的类人特质,在某种程度上成为与人类等同的交流伙伴。人类主体有可能与机器共同协作完成任务,亦可能对机器主体产生心理依赖与情感需求[7]”
“例如,公众会对一家具有数据资源更雄厚、技术团队更专业、更遵守行业规范的科技组织所研发的生成式AI 产品抱有更高的信任水平。”
这样的举例方式值得学习。
“生成式AI 与用户基于交互的内容生产模式决定了信任客体的边界正在变得模糊[13]。在此模式下,人类用户自身的提问与引导也将影响生成式AI 的思考模式与输出内容,人类的作用深刻嵌入人机交互的知识生产链条中。由此,人类对生成式人工智能的信任不再是对独立分离的客体的信任,也融入了对自我的信任。”
“但盲目的系统与技术信任亦对知识生产的良性循环构成威胁。吉登斯曾言,个人对抽象
系统所给予的信任是“产生于在无知或缺乏信息时的‘盲目信任’”[15]。对生成式AI 技术机制与特性,以及相关组织系统运作逻辑的“绝对无知”引发的盲目信任作用于知识生产环节,可能形成用户对机器的认知或想象与机器实际特性的错位,进而导致逾越生成式AI 技术能力与规则范围的误用、滥用。由此,低质、错误甚至有害的知识可能渗透进人机协同的知识生产环节中,并可能作为生产的“伪知识”被挟带进入机器的下一次知识获取环节中,进而对知识生产的良性循环构成威胁。”
“在人机协同的知识生产过程中,生成式AI 的灰知识并不一定是知识的最终形态,用户有必要以AI 生成的灰知识为“证据”,结合相关理论和方法进行演绎和推理,对机器生成内容的知识价值作进一步评估和检验,实现知识的最终生产。”
(直接套:记者编辑。)
学习本文这种论述一下用一两句引用的写法非常好。
再找些英文文献,直接套。
AI就是很原始的研究领域,越原始的研究领域越公平。
睡前娱乐看会中国娼妓史话和党史。
6.30.2025
周一,感冒。上午十点四十开始,看一篇论文,改论文初稿。
《我国主流媒体应用AI大模型的现状与影响因素分析_徐鸿晟》
“2024 年全国两会期间,人民日报、人民网、央视制作和发布大量AI 大模型辅助制
作的新闻产品,这对其他等级媒体机构具有重要的导向性作用”
(这句话可以直接用)
“在实际新闻业务实践中,全能型记者实现的难度非常大,并不是所有从业人员都有能力完成多模态内容生成。但是目前AI 大模型的多模态内容生成,可以有效赋能新闻从业者实现全能型记者转型,尤其在稿件润色、内容配音、文生图、拍摄分镜头脚本生成等方面对新闻从业人员赋能较为明显”
“第三,大模型的内容产生“幻觉”会影响从业者对AI 技术的信任吗?大模型会根据技术逻辑来编制一些没有准确信息来源的内容,这些内容并不符合实际情况,学者们称之为“一本正经的胡说八道”,这就是大模型的“幻觉”问题。研究发现,AI 大模型生成的错误信息会影响从业人员对大模型的技术信任,在功能性信任这一维度下,从业人员对于大模型的不同方面呈现差异化的信任程度。调查数据显示,从业人员普遍对大模型所提供的错误信任问题反应较为强烈,其均值和标准差(AVG = 2.46,SD = 1.08,最高 5 分,最低1 分)显示出较低的信任水平,这表明在使用过程中,一旦出现错误相关的情况,比如生成内容存在事实性错误、逻辑漏洞或给出的答案不准确等,会极大地损害媒体机构与从业人员对该AI 大模型的整体信任。因此,为确保AI搜索提供的选题来源的真实性与内容生成的准确性,从业人员要进行信源与生成内容的事实核查,主流媒体机构“把关人”角色进一步得到明确。也就是说,主流媒体从业者对大模型具有批判意识,并不是简单地信任与依赖人工智能。”
补充想法:偏见信息的虚假属性——事实本身不具有偏见,休谟:价值判断与事实判断。
“简言之,大模型在主流媒体的应用主要包括三个层面:第一个层面,大模型被用于内容生产,比如辅助制作视频和撰写稿件;第二个层面是传播产品的制作,包括内容生产、分发和消费整个生态系统,能够形成有传播力的传播产品;第三个层面是构建一个基于大模型应用的传播平台。这三个层面各有其特点”
《媒体信任危机的历史与辨证思考》
真实性贯穿媒体信任危机的发展:
历史上,真实性危机始终是造成媒体信任危机的重要因素。
“自媒体诞生以来 ,由虚假信息引发的媒体信任危机就不曾停止过。纵观历史 ,从资产阶级廉价报纸时期 ,就有媒体为争取读者 、扩大发行而进行有 目的有计划的虚假报道 ,如美国1833年创办 的首家成功的廉价报纸《太 阳报》在 1835年发表关于月球人的连续 报道 ,在当时引起 巨大轰动 ,其直接结果为《太 阳报》一跃成为世界发行量最大的报纸 ,报社每天连续印刷 l0个小时都供不应求 。但当这一骗局被揭穿之后 ,即遭到同行的强烈谴责。现代报业崛起后 ,这种虚假报道依旧不能消失。美国黄色报纸大王赫斯特 1898年在其创办 的《纽约新闻报》上为煽动美西战争 ,而大量刊登未经证实的消息 ,鼓动不明真相的群众鼓噪政府对西班牙开战 ;后又刊登文章教唆暴徒暗杀总统麦金来,这种恶行 ,引起公愤 ,人们在公共场所吊死报主赫斯特 的模拟像 ,并广泛抵制《纽约新闻报》,并烧毁像 ,而使其不得不将报纸改名为《纽约美国人与新闻报》。由此可见 ,早期的媒体危机主要来 自虚假报道 ,而这种虚假报道大多是主观人为制作而成。”
“从媒体发展的历史来看,造成媒体信任危机的最直接最主要的原因是报道了虚假新闻,只不过从开始时的报纸高层的主动策划报道到后来的因为失误等客观原因而报道了虚假新闻。可以说,从媒体诞生那天起,虚假新闻就成为诱发媒体信任危机的最原始也是最基本因素。这种因素一直伴随着媒体的发展而存在,并损害媒体的健康发展。”
11:40:搜论文,看论文,并搞清楚:智能新闻是什么?智能新闻的信任和传统的媒体信任有什么区别?
下午看这方面的几篇论文,并整理提纲。难?难所以才值得做,才有意义。
《人机协作叙事:生成式人工智能与新闻叙事的“智能转向”_刘涛》
“2023 年 4 月25 日,《人物》杂志公众号发布了一篇完全由ChatGPT 主导写作的稿件《ChatGPT 会让人变懒吗?》。该文章的事实素材来自三位采访对象,人类记者完成了前期的采访工作,随后将共计3 万字的访谈记录切分成多个1000 字左右的片段,逐一“投喂”给 ChatGPT,由其整理成 6000 字左右的材料。接着,记者按照 ChatGPT 所生成的写作框架,将三段访谈材料拆分重组后再次输入 ChatGPT,由其完成最后的文字生成、润色工作。然而,在同时刊出的编后语中,记者指出 ChatGPT 在采访素材的预处理、材料有机融合、写作真实性方面仍有很多不足,尤其是在人机合作效率和新闻写作伦理上依旧存在一定问题。”
“2025年,主流媒体纷纷接入 DeepSeek,通过与其“沟通”获得选题灵感,采集数据资源,甚至直接生成新闻内容。正如《南方都市报》的这些新闻——《DeepSeek 解读2025 广州卫生健康“双十行动”》《数描广州见义勇为群英像,DeepSeek 这么说》《AI 眼中的国产威士忌: 本土化创新成关键词,营销需长期主义》所揭示的那样,生成式 AI 已然成为新闻生产活动中的一个行动者,不仅直接参与新闻内容的生成,而且嵌入新闻叙事的内部世界,深刻地影响着新闻故事的呈现方式和框架结构,如记者依据 DeepSeek 提供的答案来确立新闻叙事的要点、篇章和框架。”
“按照贝尔纳·斯蒂格勒( Bernard Stiegler) 的技术哲学观点,人和技术之间是一种共生进化关系,技术不仅仅是人类身体官能的外在化“延伸”,更是作为一种实质性的“替补”,代际性地作用于人类的内在演变,并接通了人与非人的世界。这一观念与将智能体视为主体和客体相统一的“中介体”观念不谋而合。简言之,在斯蒂格勒那里,技术被视为一种“中介体”———中介了主体与客体,亦中介了人与世界。然而,在 AIGC 的世界里,生成式 AI 超越了“中介体”的内涵与范畴,其并非人类官能的简单“外化”,而是作为一种不透明的智能装置,将人类的价值智能与 AI 的计算智能统合在一起,并以“对话”为协作基础,建立了一种全新的智能形式——人机混合智能。”
“国内主流媒体纷纷试水大语言模型开发,形成了一系列代表性的大模型产品,如新华社的大语言模型 MediaGPT、央视的央视听媒体大模型( CMG Media GPT) 、界面财联社的财跃 F1 金融大模型、浙江日报报业集团的传播大模型等。”
今天是6.30,2025的中间一天,研一的结束的中间时间段,研究生毕业的中位数(我是大四上进入刘门的,相当于研究生读四年)。一定要抓紧时间做出成果。
阅读文献,善用AI整理框架。
下午先看个三篇智能新闻方面的:刘涛老师的、张志安老师的、刘海明老师的。
《从公共传播到智能传播:新闻实践及实务教学的范式变革_张志安》
“公共传播语境下,新闻行动者的边界日益模糊、角色更加多元,不同的新闻行动者以专业化媒体报道和社会化传播交织的方式,在当下媒体生态环境中进行角色流动与多元节点的新闻实践,“随机新闻行动”可能从边缘走向中心(张志安、王惠玲,2019)。“随机新闻行动”的主体大多是面向特定机构或特定行业人员、提供行业资讯的垂直机构媒体,长期观察所在行业动态发展,挖掘诸如社会救助体系、大学生求职、疫苗、保健品等宏大的社会议题,在报道手法上聚焦偶发性事件,从个体视角展开叙事,强化个人命运与社会治理的关系,以明确价值指向形成网络舆论”
“受数字化浪潮的影响,社会不断交织演变出新形态,“一种新媒介的长处,将导致一种新文明的产生”(哈罗德·伊尼斯,2003:28),社会通常能够适应技术的变化,并出现新的机会。马歇尔·麦克卢汉(2000:20)在《理解媒介》中曾预言:“我们正在迅速逼近人类延伸的最后一个阶段——从技术上模拟意识阶段”。生成式人工智能(Generative AI)技术的应用,使传统以人为主体的新闻生产快速迭代至人机交互、协作乃至共生的新闻生产,伴随公共传播迈向智能传播的新阶段,新闻实践及新闻实务教学面临着更加深刻的第二次范式更新。”
(学习模仿这种语言的写法。)
弱化媒体公共性:
“新闻业在依赖这项技术带来生产效率等福利的同时,也存在让渡更多话语权、弱化新闻公共性等隐忧。当下人工智能技术的发展和完善需要庞大的资金和技术支持,能够支撑自行研发数字新闻人的媒体较少,大部分媒体与人工智能企业采取跨界合作,以获得技术支持。如此一来,智能内容生产的质量、平台信息安全性与稳定性都会受到第三方平台的影响,受到培养和调教生成式人工智能的工程师的限制,媒体的话语权则存在进一步被削弱的可能(周培源,2023)。”
揭示了人工智能引发的真实性困境与公众信任的关系:
“2023年3月,美国首批针对OpenAI制定使用政策的杂志WIRED的主编表示,尽管记
者可以使用人工智能来生成社交媒体上的标题、文本以及生成故事创意,但不会使用生
成式人工智能来编辑或撰写故事,因为“在一个一切都可以伪造的世界里,最有价值的
商品就是信任”(Wired,2023)。”
偏见和幻觉的关系,或者幻觉直接导致偏见:
“2021年9月,《华尔街日报》披露Facebook允许错误信息、虚假信息和毒性信息的传播,导致种族暴力、性别侵害,以及破坏新冠疫苗接种的努力(Sam,Jeff & Emily,2021)。其中隐含的危险性在于,倘若新闻业无法在当下社会维护岌岌可危的信任,未来的可持续发展将成严重问题。”
停止阅读论文,开始整理思路。
*晚上至少再看并学习5篇论文的思路提纲,再读书(逻辑学、金岳霖),明天再正文动笔。
*今晚还是看论文,看书,积累思路。明天要正式高强度动笔。
翻消息找到以前的一些论文:
European Com mission. Ethics Guidelines for Trust worthy AI〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guide-lines.
[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2):530-549.
[5] Ryan ,M.(2020) In AI we trust:Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5):2749-2767.
[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,  19(4):7-11.
[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence:Review of empirical research. Academy of Management Annals, 14(2):627-660.
《The link between changing news use and trust: longitudinal analysis of 46 countries》:
“首先,信任构成了受众(托管人)和新闻机构(托管人)之间的关系(Bl
73#
 楼主| 发表于 2025-7-7 15:26:48 | 只看该作者
6.29.2025
周日,晚上八点,假期结束,看看几篇论文。尤其关注智能信任方面内容。准备明天的高强度写作。
《知识生产视域下生成式人工智能信任的复合框架、作用机制与未来进路》:暗知识理论可以直接用进论文。
“在人机交互的过程中,用户作为认知主体,对生成式人工智能的信任也因此呈现出涵盖技术信任、准人际信任、系统信任以及自我信任的复合结构。”
“我们也应注意到,生成式人工智能技术所依托的联结主义技术路径,由于摆脱了符号主义对规则与逻辑的依赖,也引发了诸多不可言明的解释困境。例如,伴随着模型的不断增大,模型对现实世界的幻觉感知非但没有减小,反而越发严重,对弱势群体的刻板认知也呈现同样规律”(ZHOU L,SCHELLAERT W,MARTÍ NEZ-PLUMED F,e t a l. L a rg e r and more instructable language models be c ome le s s re li a ble . Na tu re,2024(10):1-8.)
参考文献直接用进第一部分最后一章。
“在智能技术迅猛发展的当下,生成式AI 因其模拟人类对话、逻辑推理、道德认知等能力,展现出前所未有的类人特质,在某种程度上成为与人类等同的交流伙伴。人类主体有可能与机器共同协作完成任务,亦可能对机器主体产生心理依赖与情感需求[7]”
“例如,公众会对一家具有数据资源更雄厚、技术团队更专业、更遵守行业规范的科技组织所研发的生成式AI 产品抱有更高的信任水平。”
这样的举例方式值得学习。
“生成式AI 与用户基于交互的内容生产模式决定了信任客体的边界正在变得模糊[13]。在此模式下,人类用户自身的提问与引导也将影响生成式AI 的思考模式与输出内容,人类的作用深刻嵌入人机交互的知识生产链条中。由此,人类对生成式人工智能的信任不再是对独立分离的客体的信任,也融入了对自我的信任。”
“但盲目的系统与技术信任亦对知识生产的良性循环构成威胁。吉登斯曾言,个人对抽象
系统所给予的信任是“产生于在无知或缺乏信息时的‘盲目信任’”[15]。对生成式AI 技术机制与特性,以及相关组织系统运作逻辑的“绝对无知”引发的盲目信任作用于知识生产环节,可能形成用户对机器的认知或想象与机器实际特性的错位,进而导致逾越生成式AI 技术能力与规则范围的误用、滥用。由此,低质、错误甚至有害的知识可能渗透进人机协同的知识生产环节中,并可能作为生产的“伪知识”被挟带进入机器的下一次知识获取环节中,进而对知识生产的良性循环构成威胁。”
“在人机协同的知识生产过程中,生成式AI 的灰知识并不一定是知识的最终形态,用户有必要以AI 生成的灰知识为“证据”,结合相关理论和方法进行演绎和推理,对机器生成内容的知识价值作进一步评估和检验,实现知识的最终生产。”
(直接套:记者编辑。)
学习本文这种论述一下用一两句引用的写法非常好。
再找些英文文献,直接套。
AI就是很原始的研究领域,越原始的研究领域越公平。
睡前娱乐看会中国娼妓史话和党史。
6.30.2025
周一,感冒。上午十点四十开始,看一篇论文,改论文初稿。
《我国主流媒体应用AI大模型的现状与影响因素分析_徐鸿晟》
“2024 年全国两会期间,人民日报、人民网、央视制作和发布大量AI 大模型辅助制
作的新闻产品,这对其他等级媒体机构具有重要的导向性作用”
(这句话可以直接用)
“在实际新闻业务实践中,全能型记者实现的难度非常大,并不是所有从业人员都有能力完成多模态内容生成。但是目前AI 大模型的多模态内容生成,可以有效赋能新闻从业者实现全能型记者转型,尤其在稿件润色、内容配音、文生图、拍摄分镜头脚本生成等方面对新闻从业人员赋能较为明显”
“第三,大模型的内容产生“幻觉”会影响从业者对AI 技术的信任吗?大模型会根据技术逻辑来编制一些没有准确信息来源的内容,这些内容并不符合实际情况,学者们称之为“一本正经的胡说八道”,这就是大模型的“幻觉”问题。研究发现,AI 大模型生成的错误信息会影响从业人员对大模型的技术信任,在功能性信任这一维度下,从业人员对于大模型的不同方面呈现差异化的信任程度。调查数据显示,从业人员普遍对大模型所提供的错误信任问题反应较为强烈,其均值和标准差(AVG = 2.46,SD = 1.08,最高 5 分,最低1 分)显示出较低的信任水平,这表明在使用过程中,一旦出现错误相关的情况,比如生成内容存在事实性错误、逻辑漏洞或给出的答案不准确等,会极大地损害媒体机构与从业人员对该AI 大模型的整体信任。因此,为确保AI搜索提供的选题来源的真实性与内容生成的准确性,从业人员要进行信源与生成内容的事实核查,主流媒体机构“把关人”角色进一步得到明确。也就是说,主流媒体从业者对大模型具有批判意识,并不是简单地信任与依赖人工智能。”
补充想法:偏见信息的虚假属性——事实本身不具有偏见,休谟:价值判断与事实判断。
“简言之,大模型在主流媒体的应用主要包括三个层面:第一个层面,大模型被用于内容生产,比如辅助制作视频和撰写稿件;第二个层面是传播产品的制作,包括内容生产、分发和消费整个生态系统,能够形成有传播力的传播产品;第三个层面是构建一个基于大模型应用的传播平台。这三个层面各有其特点”
《媒体信任危机的历史与辨证思考》
真实性贯穿媒体信任危机的发展:
历史上,真实性危机始终是造成媒体信任危机的重要因素。
“自媒体诞生以来 ,由虚假信息引发的媒体信任危机就不曾停止过。纵观历史 ,从资产阶级廉价报纸时期 ,就有媒体为争取读者 、扩大发行而进行有 目的有计划的虚假报道 ,如美国1833年创办 的首家成功的廉价报纸《太 阳报》在 1835年发表关于月球人的连续 报道 ,在当时引起 巨大轰动 ,其直接结果为《太 阳报》一跃成为世界发行量最大的报纸 ,报社每天连续印刷 l0个小时都供不应求 。但当这一骗局被揭穿之后 ,即遭到同行的强烈谴责。现代报业崛起后 ,这种虚假报道依旧不能消失。美国黄色报纸大王赫斯特 1898年在其创办 的《纽约新闻报》上为煽动美西战争 ,而大量刊登未经证实的消息 ,鼓动不明真相的群众鼓噪政府对西班牙开战 ;后又刊登文章教唆暴徒暗杀总统麦金来,这种恶行 ,引起公愤 ,人们在公共场所吊死报主赫斯特 的模拟像 ,并广泛抵制《纽约新闻报》,并烧毁像 ,而使其不得不将报纸改名为《纽约美国人与新闻报》。由此可见 ,早期的媒体危机主要来 自虚假报道 ,而这种虚假报道大多是主观人为制作而成。”
“从媒体发展的历史来看,造成媒体信任危机的最直接最主要的原因是报道了虚假新闻,只不过从开始时的报纸高层的主动策划报道到后来的因为失误等客观原因而报道了虚假新闻。可以说,从媒体诞生那天起,虚假新闻就成为诱发媒体信任危机的最原始也是最基本因素。这种因素一直伴随着媒体的发展而存在,并损害媒体的健康发展。”
11:40:搜论文,看论文,并搞清楚:智能新闻是什么?智能新闻的信任和传统的媒体信任有什么区别?
下午看这方面的几篇论文,并整理提纲。难?难所以才值得做,才有意义。
《人机协作叙事:生成式人工智能与新闻叙事的“智能转向”_刘涛》
“2023 年 4 月25 日,《人物》杂志公众号发布了一篇完全由ChatGPT 主导写作的稿件《ChatGPT 会让人变懒吗?》。该文章的事实素材来自三位采访对象,人类记者完成了前期的采访工作,随后将共计3 万字的访谈记录切分成多个1000 字左右的片段,逐一“投喂”给 ChatGPT,由其整理成 6000 字左右的材料。接着,记者按照 ChatGPT 所生成的写作框架,将三段访谈材料拆分重组后再次输入 ChatGPT,由其完成最后的文字生成、润色工作。然而,在同时刊出的编后语中,记者指出 ChatGPT 在采访素材的预处理、材料有机融合、写作真实性方面仍有很多不足,尤其是在人机合作效率和新闻写作伦理上依旧存在一定问题。”
“2025年,主流媒体纷纷接入 DeepSeek,通过与其“沟通”获得选题灵感,采集数据资源,甚至直接生成新闻内容。正如《南方都市报》的这些新闻——《DeepSeek 解读2025 广州卫生健康“双十行动”》《数描广州见义勇为群英像,DeepSeek 这么说》《AI 眼中的国产威士忌: 本土化创新成关键词,营销需长期主义》所揭示的那样,生成式 AI 已然成为新闻生产活动中的一个行动者,不仅直接参与新闻内容的生成,而且嵌入新闻叙事的内部世界,深刻地影响着新闻故事的呈现方式和框架结构,如记者依据 DeepSeek 提供的答案来确立新闻叙事的要点、篇章和框架。”
“按照贝尔纳·斯蒂格勒( Bernard Stiegler) 的技术哲学观点,人和技术之间是一种共生进化关系,技术不仅仅是人类身体官能的外在化“延伸”,更是作为一种实质性的“替补”,代际性地作用于人类的内在演变,并接通了人与非人的世界。这一观念与将智能体视为主体和客体相统一的“中介体”观念不谋而合。简言之,在斯蒂格勒那里,技术被视为一种“中介体”———中介了主体与客体,亦中介了人与世界。然而,在 AIGC 的世界里,生成式 AI 超越了“中介体”的内涵与范畴,其并非人类官能的简单“外化”,而是作为一种不透明的智能装置,将人类的价值智能与 AI 的计算智能统合在一起,并以“对话”为协作基础,建立了一种全新的智能形式——人机混合智能。”
“国内主流媒体纷纷试水大语言模型开发,形成了一系列代表性的大模型产品,如新华社的大语言模型 MediaGPT、央视的央视听媒体大模型( CMG Media GPT) 、界面财联社的财跃 F1 金融大模型、浙江日报报业集团的传播大模型等。”
今天是6.30,2025的中间一天,研一的结束的中间时间段,研究生毕业的中位数(我是大四上进入刘门的,相当于研究生读四年)。一定要抓紧时间做出成果。
阅读文献,善用AI整理框架。
下午先看个三篇智能新闻方面的:刘涛老师的、张志安老师的、刘海明老师的。
《从公共传播到智能传播:新闻实践及实务教学的范式变革_张志安》
“公共传播语境下,新闻行动者的边界日益模糊、角色更加多元,不同的新闻行动者以专业化媒体报道和社会化传播交织的方式,在当下媒体生态环境中进行角色流动与多元节点的新闻实践,“随机新闻行动”可能从边缘走向中心(张志安、王惠玲,2019)。“随机新闻行动”的主体大多是面向特定机构或特定行业人员、提供行业资讯的垂直机构媒体,长期观察所在行业动态发展,挖掘诸如社会救助体系、大学生求职、疫苗、保健品等宏大的社会议题,在报道手法上聚焦偶发性事件,从个体视角展开叙事,强化个人命运与社会治理的关系,以明确价值指向形成网络舆论”
“受数字化浪潮的影响,社会不断交织演变出新形态,“一种新媒介的长处,将导致一种新文明的产生”(哈罗德·伊尼斯,2003:28),社会通常能够适应技术的变化,并出现新的机会。马歇尔·麦克卢汉(2000:20)在《理解媒介》中曾预言:“我们正在迅速逼近人类延伸的最后一个阶段——从技术上模拟意识阶段”。生成式人工智能(Generative AI)技术的应用,使传统以人为主体的新闻生产快速迭代至人机交互、协作乃至共生的新闻生产,伴随公共传播迈向智能传播的新阶段,新闻实践及新闻实务教学面临着更加深刻的第二次范式更新。”
(学习模仿这种语言的写法。)
弱化媒体公共性:
“新闻业在依赖这项技术带来生产效率等福利的同时,也存在让渡更多话语权、弱化新闻公共性等隐忧。当下人工智能技术的发展和完善需要庞大的资金和技术支持,能够支撑自行研发数字新闻人的媒体较少,大部分媒体与人工智能企业采取跨界合作,以获得技术支持。如此一来,智能内容生产的质量、平台信息安全性与稳定性都会受到第三方平台的影响,受到培养和调教生成式人工智能的工程师的限制,媒体的话语权则存在进一步被削弱的可能(周培源,2023)。”
揭示了人工智能引发的真实性困境与公众信任的关系:
“2023年3月,美国首批针对OpenAI制定使用政策的杂志WIRED的主编表示,尽管记
者可以使用人工智能来生成社交媒体上的标题、文本以及生成故事创意,但不会使用生
成式人工智能来编辑或撰写故事,因为“在一个一切都可以伪造的世界里,最有价值的
商品就是信任”(Wired,2023)。”
偏见和幻觉的关系,或者幻觉直接导致偏见:
“2021年9月,《华尔街日报》披露Facebook允许错误信息、虚假信息和毒性信息的传播,导致种族暴力、性别侵害,以及破坏新冠疫苗接种的努力(Sam,Jeff & Emily,2021)。其中隐含的危险性在于,倘若新闻业无法在当下社会维护岌岌可危的信任,未来的可持续发展将成严重问题。”
停止阅读论文,开始整理思路。
*晚上至少再看并学习5篇论文的思路提纲,再读书(逻辑学、金岳霖),明天再正文动笔。
*今晚还是看论文,看书,积累思路。明天要正式高强度动笔。
翻消息找到以前的一些论文:
European Com mission. Ethics Guidelines for Trust worthy AI〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guide-lines.
[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2):530-549.
[5] Ryan ,M.(2020) In AI we trust:Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5):2749-2767.
[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,  19(4):7-11.
[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence:Review of empirical research. Academy of Management Annals, 14(2):627-660.
《The link between changing news use and trust: longitudinal analysis of 46 countries》:
“首先,信任构成了受众(托管人)和新闻机构(托管人)之间的关系(Bl
74#
 楼主| 发表于 3 天前 | 只看该作者
7.5.2025
周六晚上看书。
金岳霖写实在太好,很多问题一针见血:
写中国哲学史就有根本态度的同题。这根本的态度至少有两个:一个态度是把中国哲学当作中国国学中之一种特别学问,与普遍哲学不必发生异同的程度问题;另一态度是把中国哲学当作发现于中国的哲学。
7.6.2025
周日。
金岳霖实在太厉害了,很多问题想不通的看他的书豁然开朗。写的太好了!
今晚睡前又把前面论文改改。明天上午去修车,下午写镜像性部分。
明天的论文强度不大,镜像性、杀熟、脆弱。
7.7.2025
今天好累啊,上午开车修车,下午写论文。不过虽然累,也产出了1000字高质量,虽然这一小节还没写完,但是太累太困了。我要洗澡睡觉了。
睡醒就是写:把这一节逻辑理顺之后快速收尾,思路就按照桌面上放着的思维导图。再简单看一下论文,简单思考一下杀熟、信任的脆弱性、媒体信任三者之间的关系,顺理成章地写完(因为信任脆弱性只是一种描述,并不必然导致不信任,只能说,媒体信任因为其脆弱性更容易被破坏,那么其实只要回答脆弱性和杀熟之间的关系即可)。
*有必要的地方记得参考学姐和喻国明的论文(不过感觉看了好像也帮助不大,没什么启发。现在主要不是多看论文的问题而是把思路理顺的问题。就差临门一脚,解释清楚杀熟现象和信任脆弱性之间的关系。是什么呢?是什么呢?是什么呢?)
*上午把论文快速收尾之后,相当于第三部分大半部已经写完,要把参考文献的各式统一快速改好。
*如果都搞完了,晚上有时间的话构思一下下面的内容,构思完三天写完重建。彻底疯狂
7.8.2025
这一节快写完了,但是多读一点文章巩固一下知识面,为接下来接上来写作都好
《双重脆弱性与适度信任:从ChatGPT到Sora》还行,信任的原理分析的不深刻。
一天写完就急头白脸,两天写完就看看论文。一天有一天的搞法,两天有两天的搞法。事缓则圆。
11:29大脑突然死机。。。
11:51上午基本把这一段完善完,写的还可以,勉强完善好。
下午健身前,1.把一些短文和论文看完。2.参考文献改完。
《大模型智能体幻觉难题:成因、风险与应对_徐琦》:
在与智能体对话中,对话模型更多是在模仿数据的分布特性,而不是生成忠实于真实信息的输出。这意味着模型可能只是简单地复制或复述训练数据中的模式,而不是真正理解和生成符合实际语境的回答。
幻觉源自于模型本身固有的生成机制和知识更新困难,本质上反映了 LLM在知识存储、事实校验和逻辑推理上的固有不足,而并非应用层面设计的缺陷。
在自然语言生成(NLG)任务中,尤其是开放域对话系统中,模型被要求生成自然、流
畅且具有吸引力的对话,为了实现这一目标,模型通常允许生成多样化的回复。这些回复可能包含主观意见、闲聊内容,甚至是在缺乏精确事实支撑的情况下生成的内容。这种任务的特性使得模型在生成文本时不需要严格地与输入的源信息保持事实对齐。
同时,社会偏见也深植于社交媒体平台中,模型可能会无意中习得这些偏见,并将其传播到生成的内容中,尽管这并不完全是幻觉,但某些与性别、国籍等相关的偏见确实与幻觉密切相关。
(这段直接在新闻真实部分写入幻觉和偏见的关系,这个关系要好好唠一唠。这篇文章虽然发的期刊水平一般,但是文章质量很高。)
自回归语言模型的限制主要体现在上下文依赖的捕捉能力和注意力分散问题上,GPT 类模型(如 GPT-2、GPT-3)采用单向自回归预测(causal autoregressiveprediction),这意味着模型在生成文本时,每个词的预测仅基于其前面的词。模型可能难以理解句子中相隔较远的词之间的关系,导致生成的文本在逻辑连贯性上存在问题 [39]。序列长度的增加,模型的注意力机制可能会变得分散,导致对长程依赖的推理不稳定。
而暴露偏差则源于训练和推理阶段的不一致,导致累积性错误和幻觉的产生 [40]。在训练时,模型通常使用教师强迫(teacher-forcing)的最大似然估计(MLE)方法。简单来说,模型在生成每个词时,是基于真实的前一个词(ground-truth prefix sequences)(即人类标注的正确历史)来预测下一个词的。而在推理时,模型生成的下一个词是基于模型自己之前生成的词(historical sequences previously generated by itself)。这种差异可能导致模型在推理时生成的序列与训练时看到的序列不同,从而产生累积性错误。即模型一旦在推理过程中生成了一个错误词元(token),后续的生成内容可能会基于这个错误进一步偏离事实,形成“滚雪球”效应。这种累积性错误会导致生成的文本逐渐偏离正确的路径,最终产生幻觉 [41]。
另外,SFT 知识边界与过度拟合(Over-fitting onNew Knowledge)也会带来幻觉问题,SFT常通过人工指令让模型输出超出其原有知识边界”的内容,若模型无法有效吸收这些新知识,便可能编造事实。传统SFT 通常要求模型对每条指令都给出回答,而不鼓励模型表达“不确定”[42]。缺乏“拒答”机制(Inabilityto Reject),当用户问题超出模型掌握范围时,模型倾向于编造答案而非拒绝作答,导致幻觉频发。
在传统的强化学习中,模型通过与环境的交互来学习最优的行为策略,以最大化累积奖励。然而,定义一个合适的奖励函数往往非常困难,尤其是在复杂和多样的任务中。基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)通过人类的反馈来训练和优化模型的行为。这种方法结合了强化学习和监督学习的特点,使得模型能够更好地理解和满足人类的需求。但是即便经过RLHF 训练,即使模型内部判断某个回答可能是错误的或不准确的,模型依旧可能为了迎合评测者(humanevaluators)而输出与自身内部判断相矛盾的内容,生成一个更符合人类评测者期望的回答,以获得更高的奖励或评价,即逢迎性(sycophancy)[43]。
数据层优化可以利用利用模型编辑技术,对模型内部的知识进行修正,确保错误信息不会被固化。采用检索增强生成(RAG)方法,在生成时结合外部可靠知识库,为模型输出提供事实依据,从而减少幻觉现象。
训练层可以通过改进预训练过程,优化训练目标,减少曝光偏差,降低长尾知识和模糊概念带来的幻觉风险。在监督微调(SFT)过程中,合理设计任务和指令,使模型在对新信息的适应上不倾向于编造信息。针对强化学习自人类反馈(RLHF)阶段,调整训练策略以防止模型为了迎合评估而产生过度自信和不真实的回答。
在推理层面的解码过程中,采用事实性增强解码策略,通过控制采样温度和约束生成概率分布,确保生成内容更贴合事实。使用忠实性增强解码方法,强化模型对输入指令和上下文的忠实表达,避免逻辑或信息上的偏离。
下午看了两篇文章,晚上改格式。
引用格式注意:
译著
[德] 黑格尔. 精神现象学[M]. 贺麟, 王玖兴, 译. 北京: 商务印书馆, 1979: 120.
多卷书
陈登原. 国史旧闻: 第1卷[M]. 北京: 中华书局, 2000: 29.
古籍
司马迁. 史记: 卷二十五 李斯列传[M]. 北京: 中华书局, 1959.(卷次用阿拉伯数字)
电子书
王夫之. 宋论[M/OL]. 刻本. 金陵: 湘乡曾国荃, 1865[2023-05-01]. http://example.com.
会议文集
牛志明, 等. 综合湿地管理国际研讨会论文集[C]. 北京: 海洋出版社, 2012.
​出版地是城市名​(如北京、南京),而非省份。
​标注格式:城市名: 出版社, 出版年(如上海: 上海古籍出版社, 2019)
​作用:帮助读者定位文献来源,体现学术严谨性。
​关键点:出版地只需写城市名(如“郑州”而非“河南省郑州市”),国外文献需补充国家名
实际操作中可借助文献管理工具(如EndNote、Zotero)自动生成符合国标的格式。
不同类型网络文章的引用示范
​1. 普通网页/报告
作者. 文章标题[EB/OL]. (更新日期) [引用日期]. URL.
​示例: 国家统计局. 2023年中国人口普查报告[EB/OL]. (2024-01-15) [2024-07-08]. http://www.stats.gov.cn/population.
​2. 在线期刊文章
作者. 文章标题[J/OL]. 期刊名, 年, 卷(期): 页码. (更新日期) [引用日期]. URL/DOI.
​示例: 李华. 人工智能在医疗诊断中的应用[J/OL]. 计算机科学, 2023, 40(2): 45-50. (2023-06-20) [2024-07-08]. https://doi.org/10.1234/abc.
3. 学术数据库资源
作者. 文献标题[D/OL]. 保存地: 保存单位, 年份. (更新日期) [引用日期]. 数据库URL.
​示例: 王磊. 气候变化对农业的影响研究[D/OL]. 北京: 中国农业科学院, 2022. (2022-05-10) [2024-07-08]. https://www.cnki.net/kcms/detail.
4. 政府/机构文件
机构名称. 文件标题[EB/OL]. (发布日期) [引用日期]. URL.
​示例: 教育部. 高等教育数字化转型行动计划[EB/OL]. (2024-03-01) [2024-07-08]. http://www.moe.gov.cn/jyb_xwfb.
报纸文章引用格式:
根据中国国家标准《GB/T 7714-2015 信息与文献 参考文献著录规则》,报纸文章的引用格式需包含作者、标题、报纸名称、出版日期和版次等核心要素,具体规范如下:

📰 ​一、标准格式与结构1. 印刷版报纸(无网络来源)​
格式
作者. 文章标题[N]. 报纸名称, 出版日期(版次).
要素说明
  • 作者
    • 个人作者:全名(如谢希德);
    • 无作者:以新闻机构名称开头(如人民日报社);
    • 多名作者:最多列3人后加(如张伟, 李芳, 王强, )。
  • 标题:完整文章标题,不加书名号。
  • 文献标识[N](报纸文章固定标识)。
  • 出版日期:格式为YYYY-MM-DD(如1998-12-25)。
  • 版次:括号标注(如(10)表示第10版)。
示例
谢希德. 创造学习的新思路[N]. 人民日报, 1998-12-25(10).

2. 网络版报纸(含在线来源)​
格式
作者. 文章标题[N/OL]. 报纸名称, 出版日期(版次)[引用日期]. URL.
新增要素
  • 载体标识[N/OL](表示网络版报纸)。
  • 引用日期:读者访问网页的日期([YYYY-MM-DD]),必须标注
  • URL:完整网址(需长期有效)。
示例
傅刚, 赵承, 李佳路. 大风沙过后的思考[N/OL]. 北京青年报, 2000-01-12[2025-07-08]. http://www.biyouth.com.cn.

📋 ​二、特殊情况的处理1. 无明确作者
·       以新闻机构名称替代作者:
人民日报社. 京津冀协同发展规划纲要发布[N]. 人民日报, 2024-06-15(1).
2. 外文报纸文章
  • 作者姓名:姓前名后,名缩写(如BROWN A);
·       报纸名斜体,其他格式同中文:
SMITH J. Climate Change Impacts Agriculture[N]. The New York Times, 2023-05-20(7).
3. 连载文章
·       分次引用不同日期的内容,不合并标注:
王林. 城市化进程中的环境挑战(上)[N]. 中国环境报, 2024-03-10(5).
王林. 城市化进程中的环境挑战(下)[N]. 中国环境报, 2024-03-17(5).
📊 ​四、印刷版 vs 网络版格式对比
要素
印刷版格式
网络版格式

作者
张三
张三

标题
科技创新推动产业升级[N]
科技创新推动产业升级[N/OL]

报纸名称
科技日报
科技日报

出版日期
2025-06-20
2025-06-20

版次
(3)
(3)

附加项
[2025-07-08]. http://example.com

💎 ​总结
报纸文章的国标引用需严格遵循 ​​“作者–标题[N]–报纸名–日期(版次)”​ 结构,核心原则包括:
✅ ​完整性​(作者、日期、版次缺一不可)
✅ ​准确性​(日期格式、版次标注需规范)
✅ ​可溯源性​(网络版需补充访问日期和URL)
工具推荐
  • 使用知网、百度学术导出功能自动生成格式;
  • 通过DOI或官方网站获取稳定链接,避免失效。
附:​权威报纸官网引用示例
人民日报:http://paper.people.com.cn/rmrb/html
中国青年报:http://www.cyol.com
晚上十点,把第三部分目前所有的参考文献格式都搞定了,睡前写一会日记。
世人都想走最躺平的路,熟不知最躺平的路往往就是最危险最困难的,因为人人都想挤破脑袋进去。而看似最痛苦的路,最少人走的路,最适合自己的路,往往才是正确的答案。
睡前再看会逻辑学。
7.9.2025
今天写属性层面的信任重建。
白天把信任重建的可能性写了,把构思规划调整了一下。有些之前没理顺的问题理理顺。纸面工作量不大,高质量文本400字。
看看论文,看看短文。
晚上必须把第一个信任重建写一段。
晚上工作至九点半。写了一段,介绍了为什么用这三个机制。
从大模型幻觉的特征出发无法直接得到信任重塑方面的行动结论,因为技术特征仅是引发信任风险与危机的变项,由于其不以人意志为转移的内在逻辑而被现象化描述,和现实问题的解决路径没有必然联系,媒体信任重建问题应当从“信任何以产生”方面入手。本文根据媒体研究中信任生成的经典分类,基于大模型幻觉的现实风险倾向,得到以属性为基础的(characteristic-based)、以过程为基础的(process-based)、以制度为基础的(institutional-based)三重信任重建机制分析。“属性基础”反映被信者内在特征,“过程基础”能够描述信任委托方与受托方的互动关系,“制度基础”则关注信任重建时的积极外部效应,三重机制基本能够覆盖大模型幻觉背景下媒体信任重建所涉及的对象及关系,包括机器逻辑、人机互动、受众分析、媒体伦理等议题。该分类结构最早出现于扎克(Zucker L.G.)对于美国经济结构中信任问题的研究(与卢曼一样,扎克也受到帕森斯的社会系统理论影响),后被引用至新闻传播学领域,具有较强的规范性与适应性。
一天800字的工作量,差个文献没找,勉强行了。
7.10.2025
今天很累,上午高质量600字属性信任。
“以属性为基础的信任是一种简单直观的信任,由于“特征判断”往往是社会化的产物,属性基础的信任更具秩序且更为坚实,例如熟人社会中的邻人之信。所谓“属性”自然是指被信者的属性,数字媒体为智能内容提供流通空间,大语言模型的品质决定智能信息的质量进而影响个体的判断、传播与信任感知。用户的直接信任或不信任的对象是大模型内容,间接信任或不信任的对象才是数字媒体平台,二者在一定情境具备同构性,因此对二者属性的探讨皆有必要。”
非常好,这个问题解释清楚了。
看陈昌凤基础设施论文:
选题方面:
“而ChatGPT能够从多个层面开拓视角,生成多元化、多角度的备选题目,供记者评估筛选。一是帮助记者发现热门话题、趋势和事件以及被忽视的、有价值的新闻选题;二是通过分析读者的兴趣和需求,选择更具吸引力和影响力的新闻选题;三是通过关注和分析新闻事件中不同群体和利益方的需求及反应,提供更为全面客观的选题。同时,ChatGPT能够通过“聊天”为记者指点迷津,启发记者确定新闻选题的路径与方法,提供思维索引。最终,ChatGPT能够协助记者获得选题。”
这里可能涉及幻觉和媒体内容生产的关系,我觉得和用户信任关系不大。
ChatGPT可用于对话系统、文本总结与机器翻译等多种场景。在美国,《纽约时报》正在制定使用聊天机器人的工作指南。《内幕》(Insider)则于2023年4月成立工作组以测试将人工智能负责任地纳入其工作流程的方法,并鼓励记者开始谨慎试用ChatGPT等编写的文本、报道大纲、纠正拼写错误、优化标题、帮助生成采访问题等。[9]全球一些记者已经在使用ChatGPT进行自己的采编工作。ChatGPT于2023年3月通过插件接入实时更新的互联网,逐步形成生态,展示其极具潜力的应用前景与可能。目前,ChatGPT的核心功能应用主要包括搜索引擎、内容创作以及问答客服三个方面。
1.搜索引擎 ChatGPT汇聚了海量的数据,包括维基百科、网络爬虫、期刊论文、新闻报道、百科全书以及超大规模的中文语料等,总数据量近45TB,形成了一个强大的基座模型。GPT-4的训练语料增添了图文文件、照片、图表以及截屏等多种类型的图像。因此,ChatGPT具备极强的学科穿透能力,整合了多方知识与资源,能够为用户提供融合性、创新性、条理化回答。相比于普通的搜索引擎,ChatGPT可以更加准确地理解用户的指令与需求,有条理地整合、概括与呈现搜索结果,还可以结合上下文为用户预测未知的相关内容,萃取高质内容。
2.内容创作 ChatGPT作为生成式人工智能的前沿技术,可用于广告文案、语言翻译、代码生成、诗歌创作、小说续写、法律文书、新闻稿件、生活服务等场景,结合用户的个性化需求,快速生成相应的内容。“遍阅群书”后的ChatGPT在创作型任务方面表现出色,GPT-4增加了多模态内容的生成,包括丰富多彩的图片。ChatGPT还能够记录人类的历史行为数据,通过建模来模仿人类的思维活动,生成思维图谱等高级认知成果。此外,ChatGPT能够进行语言的重组,模仿人脑的神经网络进行联结,生成新的概念名词,成为数字化知识生产的新动能。
“如何审思不同新闻生产范式中的人—机关系?唐·伊德在《技术与生活世界:从伊甸园到尘世》一书中从技术现象学的角度出发,总结了人与技术的四种关系,分别是海德格尔的锤子所代表的“具身关系”、胡塞尔的“伽利略”所代表的“诠释关系”,以及梅洛庞蒂的“羽饰”所代表的“它异关系”和“背景关系”。[22](PP.33~41)在计算机辅助新闻报道的阶段,人—机关系趋向于它异的结构,人类能够借助工具扩展微观和宏观的知觉,是人类身体的延伸。而到了人机协同新闻阶段,人—机关系不仅是具身的,更呈现出“互构”的特征。机器不是工具,不是主体,而是成了人类栖息的环境,参与构成人类认知自我和现实的再本体论化的装置。以GenAI为代表的数码物内嵌在社会构型中,与人类共同建构着信息性实践关系,达到碳基生物和硅基生物的融合。[23]此时,智能新闻业的主体、价值、边界和业态都面临着重塑和革新。”
这段写的非常好,种草了。
7.11.2025
上午看几篇文献和短文,必须把属性部分收尾,写多少算多少,写800或1000都行。
都是回应一个问题:怎么样重建信任???
几篇微信短文都没什么意思,理论程度太低。
下午必须尽量把过程多写点。过程好写:1.透明性、2.无知反馈、
到上午十一点,第一小节的属性写完了。开始继续看文献,想接下来的一段要怎么写。今天尽量要把二节也写完,有时间再健个身,不健身睡不好觉。
改第二部分的时候把之前整理的要修改的全内容翻出来,应该在日记里面或者《舆论汇报》文件夹里。第二部分对我来说最简单所以放在最后。
智能平台的避风港原则:
下篇论文写这个。
只要看得够多,找得够多,一定会有创新点。别人不知道的事你普及了不就是创新。
一句话解释清楚逢迎性和幻觉是什么关系!答:逢迎性可能造成幻觉。
7.12.2025
今天极度劳累。
早上三点半起床回舅舅家祭祖,开一下午车回江阴吃饭,晚上继续开车九点到家。
明天休息放松一下:上午睡眠、无他,下午健身、无他,晚上看电影、无他。

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表