7.14 上班日。下午抽空读了一篇论文《美德与规范的内在主义协同:生成式人工智能的传播伦理进路》 一、摘要:伴随着生成式人工智能对新闻传播活动的重构,虚假信息、歧视与偏见、隐私泄露、人类主体地位丧失等伦理风险,已经以叠加累积的方式爆发,导致了价值对齐的伦理难题。基于人、技术与社会的复杂关系,该研究构建了以人为本、公正公平、预防伤害、责任担当的四维传播伦理框架,为智能传播活动的道德化发展奠定了基础。对于从伦理原则到传播实践的进路,本研究认为,重点在于突破传统的外在主义范式,尝试在内在主义伦理框架中,在技术上运用可解释性模型,在理念上倡导人机互动的美德感染与教化,在规则上将义务论与目的论相结合,最终实现美德伦理与规范伦理的协同,以促进人工智能健康发展。 外在主义路径在防范生成式人工智能风险方面具有局限性,难以应对技术不断发展带来的道德难题。 二、框架 (一)引言:生成式人工智能在新闻传播中的崛起与潜在伦理风险。 (二)文献综述:外在主义框架下的风险应对:分析现有外在主义治理路径的局限性。 (三)基本原则:人机传播活动的道德基础:提出以人为本、公正公平、预防伤害和责任担当的伦理原则。 (四)实践进路:美德、规则与技术的协同:探讨如何通过人机互动的美德感染与教化以及义务论与目的论的融合规范,实现传播伦理的内在主义协同。 (五)结语:强调伦理先行,倡导将伦理原则嵌入生成式人工智能的发展与运用中。 三、研究结论: (一)外在主义路径在防范生成式人工智能风险方面具有局限性,难以应对技术不断发展带来的道德难题。 (二)提出构建以人为本、公正公平、预防伤害、责任担当的四维伦理框架,为生成式人工智能的传播活动提供道德化路径。 (三)通过人机互动,实现美德感染与教化,同时融合义务论与目的论的伦理规范,以实现美德伦理与规范伦理的协同。 四、建议措施: (一)强调伦理先行,在技术上运用可解释性模型,倡导人机互动的美德感染与教化。 (二)在规则上将义务论与目的论相结合,构建内在主义的伦理框架,实现美德伦理与规范伦理的协同。 (三)推动传播伦理的自我反思与内化,将伦理原则嵌入生成式人工智能的发展、运用与监督中。 7.15 今天继续读邓晓芒的《康德哲学讲演录》。在康德之前,大家都在争论“世界是物质的还是精神的?”“人能认识真理吗?”,但康德提出了一个新的思路:不是人围着世界转,而是世界围着人的认知方式转。这种思路既让人膨胀——原来认知的主动权在我们,又让人谦卑——我们永远触不到最终的真相。书第二章讲康德是如何处理理性的矛盾。他用“二律背反”证明:当理性硬要讨论“宇宙有没有边界”“上帝存不存在”这种超验问题时,正反方都能够逻辑上自洽。而如何处理这种问题,康德提出要给理性划界,用实践理性证明。康德一边拦住人类“瞎想”的冲动——总是想证明上帝是否存在,一边又给信仰留后门——按道德活就像上帝存在一样。这种智慧,可以让科学和道德达成一种微妙平衡。 7.16 论文启动!!今天是《交融与规制:新闻叙事中的美学挑战与伦理审视》 摘要总结:论文指出,在技术—文化逻辑的推动下,新闻叙事逐渐从信息传递转向“媒介化具身”的体验建构,美学价值与新闻价值深度融合,但也因此陷入伦理困境。作者系统梳理了新闻与美学从19世纪至今的交融历程,并结合短视频、VR新闻、数据可视化等具体案例,分析技术如何塑造具身体验,同时引发伦理争议。作者强调,必须建立一种“可感性分配”的美学规制机制,以约束媒介化具身的构造方式,重塑新闻的公共性与信任机制。 研究结果:(一)新闻叙事正从“事实传递”转向“具身体验营造”,技术强化了沉浸感,但也模糊了真实与虚构的界限(二)美学优化与新闻客观性之间存在张力,情感化、视觉化叙事可能削弱事实准确性,甚至导致“超现实”替代真实(三)论文提出以“可感性分配规制”作为应对策略,主张通过美学透明化、公共教育、技术标注与社会反馈,建立一种非正式的社会规制机制,在美学创新与伦理底线之间实现动态平衡。 下午上班,还要抽出时间来背单词(200) 7.17 下午休息不用上班~继续读了邓晓芒的解读。 康德在道德哲学中提出的“定言命令”。他拒绝将道德建立在功利、情感或宗教权威之上,而是主张道德法则必须源于纯粹理性自身的普遍化要求。 首先是道德的形式性与普遍性。康德强调,真正的道德行为不能依赖具体目的或经验条件(如“如果我想被赞扬,我就该助人”),而必须符合“只按照你能够同时愿意它成为普遍法则的准则去行动”这一绝对命令。“你应当…”(“你不该说谎”),没有条件、没有“如果”。道德本身就是目的。→康德认为,真正的道德必须像数学公式一样普遍化(比如“说谎”如果成为全人类法则,社会就会分裂崩溃)。 其次是人是目的本身。“你要如此行动,即无论是你的人格中的人性,还是其他任何一个人的人格中的人性,你在任何时候都同时当作目的,绝不仅仅当作手段来使用。”如果人被降格为工具(比如资本、权力或数据的附庸),那么道德就已瓦解。 所以说,动机纯不纯比结果重要。如果扶老奶奶过马路是为了拍抖音,那就不道德。但这也是一种自由——道德不是别人逼你的,是你用理性给自己立的法。有点像“自律即自由”的哲学plus版。 7.18 早上七点到岗。困。。。中午休息时间读《伊甸之东》。("于是该隐离开耶和华的面,去住在伊甸东边挪得之地。")斯坦贝克在这本书中一直在对伪神圣进行批判。凯特一生都在扮演各种角色—虔诚的女儿、忠实的妻子、虔诚的妓院老板娘—用这样的外衣掩盖自己扭曲、恶毒的本性。第三十章,凯特说"我本可以成为好人,"她承认道,"如果我被允许的话。"这句话的悲剧性在于,直到最后时刻,她仍在试图将责任推给外在因素—她从未"被允许",而非自己的选择。凯特一直将行为归因于神圣或邪恶的外部力量,是一种拒绝承担责任的表现。人真正的成熟在于接受选择的孤独与责任,我们被抛入没有预先设定意义的世界,必须为自己的选择负全责。 7.19. 今天下午放了半天假,奖励自己看了两个小时三国演义……休息一天。 7.20 早上背了单词(复习200,新单词80)还拿出时间看了一篇新的论文:《想象有道德的AI新闻业:机器伦理启示与价值对齐路径》 一、摘要 生成式人工智能(如GPT、Sora等)已从“流程自动化”跃迁至“判断自动化”,使新闻价值判断、内容生产与分发方式发生质变。这带来三大变革: (一)新闻价值判断被算法化(重要性、趣味性等成为计算结果); (二)新闻模态向感官化转型(视觉、沉浸式体验取代理性阅读); (三)分发机制转向对话式(用户与AI实时交互决定信息流向)。 这些变化导致传统新闻伦理(真实、客观、专业裁量权)被消解,需重构伦理体系。论文提出以“价值对齐”为核心路径,通过自上而下(比如道德规则嵌入AI系统)与自下而上(用动态反馈训练AI)的双轨机制,实现人机共生时代的道德新闻实践。 二、研究结果 AI对新闻业的三大重塑: (一)价值判断算法化:AI通过用户画像和大数据预测,主导新闻选题与资源分配,削弱人类编辑的专业裁量权。 (二)感官化转向:生成式AI(如文生视频模型)使新闻从“理性文本”转向“沉浸式体验”,模糊事实与虚构的界限。 (三)对话式分发:AI聊天机器人成为“个人发行员”,实时响应用户需求,导致信息茧房与数据隐私风险加剧。 伦理危机的根源: (一)人类对AI的过度依赖导致“主体性让渡”,新闻实践沦为“机器复述人类叙事”的循环,丧失原创性与历史深度。 (二)AI的“准主体性”受限于数据偏见和算法黑箱,无法承担真正的道德责任。 伦理重构的双轨路径: (一)自上而下:将人类伦理原则(如功利主义、康德义务论)编码为AI系统的固定规则,解决常规伦理问题(如偏见、版权、虚假新闻)。 (二)自下而上:通过人机互动的反馈机制,动态训练AI在复杂情境中做出符合人类德性的决策(如利他、谦逊、正义)。 最终目标: 建立“有道德的AI新闻业”,使机器逻辑服务于人类价值,而非反向殖民人类伦理。新闻业需成为“连接经验与德性的公共事业”,在AI时代延续文明的历史性。
|