传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索

媒体与版权案例集锦

查看数: 166896 | 评论数: 724 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2010-9-25 18:16

正文摘要:

本帖最后由 admin 于 2012-3-3 11:07 编辑 【案例】 美联社CEO:需控制网络新闻无授权使用 2010年09月25日01:44  新浪科技   新浪科技讯 北京时间9月25日凌晨消息,据国外媒体报道,美联社总裁兼 ...

回复

刘海明 发表于 4 天前
【案例】

总台2026年度公开招聘工作人员公告

中央广播电视总台
2026年度公开招聘来啦
↓↓↓




来源:央视新闻(公众号)


编辑:张家乐

刘海明 发表于 4 天前
【案例】

读卖率先开火、日经朝日跟进:衰落的日本纸媒帝国向AI宣战

AI导读
日本三大报业巨头联手起诉AI公司Perplexity,这场诉讼不仅是传统媒体对流量流失的反击,更是全球首次为AI生成内容设定版权边界的标志性事件。在发行量腰斩、广告收入锐减的绝境中,版权成了纸媒最后的救命稻草——它不再是附属权利,而是决定谁有权分配"答案经济"价值的新宪法条款。
AI给出答案,但谁来分配答案的价值?日本的诉讼,也许能替全世界写下第一条AI版权注脚

作者 杰罗姆
东京,几名律师拎着厚厚的卷宗走进地方法院。卷宗里不是传统的证物,而是一段段由人工智能生成的新闻摘要——删掉了细节,保留了结论,却让出版商感到刺痛。
对日本三大报纸来说,这些被压缩的段落不仅是技术实验的副产品,更是流量和生意的直接损失。于是,读卖、日经和朝日决定把一家名叫 Perplexity 的美国创业公司告上法庭。
这是日本报业的第一次大规模AI行动。但在一个报纸发行量二十年间几乎腰斩的国家,这也像是一次迟来的自救
一、从“报业帝国”到“失速王国”
曾几何时,日本是全球纸媒帝国的代名词。
读卖新闻(Yomiuri Shimbun):1990 年代巅峰期日发行量超过 1000 万份,连续多年保持世界第一。
朝日新闻(Asahi Shimbun):2002 年仍有 810 万份,位列世界前列。
日经新闻(Nikkei):作为财经旗舰,长期依赖高价订阅模式,甚至在 2015 年斥资 13 亿美元收购《金融时报》(FT),试图扩展全球影响力。
但近十年,日本报业遭遇断崖式下滑。根据日本报业协会 2023 年数据:
《读卖》跌至约 600 万份;
《朝日》不足 350 万份;
全国纸媒总发行量自 2000 年的 5370 万份,骤降至 2023 年的 2390 万份,几乎腰斩。
广告收入更惨烈:1990 年代,报纸广告占日本广告市场三分之一;到 2022 年,已跌至 不到 9%,而网络广告独占 55% 以上(来源:日本电通《广告费用报告》)。
换言之,日本报业在发行广告双重战场全线溃退。
二、老龄帝国的代际断裂
为什么日本报业衰得特别快?
一个重要原因是人口结构。
根据总务省 2022 年通信动向调查,60 岁以上人群仍是报纸主力读者,而 40 岁以下读者比例跌破 20%
年轻人已转向 TwitterX)、YouTubeTikTok 获取新闻。
于是,日本报纸变成了一个老龄帝国:在纸面上维系庞大印刷、配送体系,却与年轻世代彻底脱节。失去未来用户,就意味着失去未来的广告与订阅。
三、为什么日本媒体会对 AI 反应最激烈?
在这样的背景下,AI 平台的出现被视作压垮骆驼的最后一根稻草
内容被摘要 用户无需点击原文,直接消费答案。
广告与订阅模式遭破坏 原有商业逻辑彻底坍塌。
声誉风险 一旦 AI 摘要出错,媒体不仅没获得流量,还可能被错误归因
因此,版权就成了唯一可用的武器。正如日经在20258月的起诉状中强调的:Perplexity 未经许可复制、存储并再分发新闻内容,构成版权与数据库权利的侵犯。
而读卖新闻更早出手(2024 年),本质是出于保命直觉
对报业来说,版权不是附加权利,而是最后的饭碗。
这也是为什么日本会比美国、欧洲更快、更激烈地集体把 AI 平台拖上法庭。
四、为何盯住 Perplexity,而不是 OpenAI Google
更容易取证:Perplexity AI 搜索+摘要型产品,用户能直观看到“AI 把新闻讲完了。这种侵权链条比 OpenAI 训练争议Google 外链争议更好诉。
更容易打赢:作为创业公司,Perplexity 缺乏 Google/微软的法务和政治保护伞,属于理想的突破口
先例价值:一旦在东京地方法院拿下胜诉,就能形成“AI 摘要未经许可即侵权的司法判例,成为全球可参考的标准。
一句话总结:日本选择 Perplexity,不是因为它最坏,而是因为它是软柿子,最容易拿捏。
五、三大战场的全球呼应
日本并不是孤军作战,而是全球战线的一个分支:
美国:《纽约时报》2023 年底起诉 OpenAI & Microsoft,指控其系统性盗用新闻内容训练模型。无进展。
欧洲:出版商联盟正游说欧盟立法,要求 AI 公司支付邻接权使用费。无下文。
日本:读卖、日经、朝日集体起诉 Perplexity,试图率先打赢“AI 摘要官司。突破概率较高。
这三条路径互为支撑:
美国判什么,日本教怎么判,欧洲写进法。
最终目标是:把答案经济重新绑定到新闻供给侧的价值分配上。
六、未来可能的结果矩阵
若媒体胜诉:AI 搜索需强制外链+署名,摘要不得替代全文;并可能出现按摘要分流率收费的新分账模式。
若平台胜诉:AI 摘要合法化,新闻机构被迫转型为机器可消费的摘要即服务
和解模式:大媒体结成联盟,向 AI 平台打包出售授权;类似 Spotify 当年与唱片公司的交易。
七、尾声:答案经济的制度化之战
这场官司的核心,并非单纯的版权争执,而是对 答案经济制度化 的抢夺:
AI 想要建立答案优先的新秩序;
媒体要捍卫点击分发的旧逻辑。
日本的诉讼,既是一个老龄化报业帝国的自救,也是为全世界设定一条新的制度边界。
它传递出一个清晰信号:在新闻主权的问题上,版权不再是附属法条,而是新的宪法性条款。
参考数据与资料
日本报业协会:《报纸发行量年报》(2000–2023)。
电通:《2022 年日本广告费用报告》。
总务省:《2022 通信利用動向調査》。
Financial Times 报道:Nikkei 收购 FT2015
The New York Times vs OpenAI 诉状,2023
Yomiuri ShimbunNikkeiAsahi News Perplexity 起诉公告,2024–2025


来源:杰罗姆新新媒体观察(公众号)

编辑:张家乐

刘海明 发表于 2025-12-11 11:35:22
【案例】
惊讶!四川靠诉讼为生的小微公司居然代理了重庆主流媒体业务



起初以为是遇到了“骗子”呢,一家2023年才成立、注册资金50万的小微公司居然代理了重庆主流媒体的业务。2025年12月10日,一家自称是上游新闻版权代理公司的人士致电,添加微信自称是“重庆上游新闻版权运营方邱老师”。



他告知重科城微报于2025年11月7日所发《科学城两条轨道线路直达!这个高铁站下月开工!》一张图片侵权,并随即发来了相关授权协议及相应资料。该文是纯公益宣传,并不涉及任何商业行为,尽管如此,重科城微报还是第一时间删除了图片。对方提出索要赔偿,重庆法院判例按照1000元,协商最低700元。在了解了对方协商方案后,重科城微报决定对对方提供的资料及其公司情况进行了解。不查不知道,一查吓一跳。原来,该公司虽然成立才短短两年,但战绩斐然:公开可查的开庭信息超过1000条,分散在全国各地。




成为被告的企业五花八门,但是也不乏官方媒体机构,如上图中的上海奉贤区广播电视台、上海市奉贤区融媒体中心、上海奉贤报社。此外,还有解放日报社、宣城市广播电视台、锦州州新闻媒体集团(锦州日报、锦州广播电视台、锦州融媒体中心)、锦州日报社、东光县广播电视台、东光县融民法院媒体中心、武夷山市融媒体中心、敦化市融媒体中心、敦化广播电视台、高密市融媒体中心、山东齐鲁壹点传媒有限公司、延边日报社、滨州传媒集团有限公司等媒体机构。另外还有潍坊滨海经济技术开发区作家协会、扬州市江都区社会福利中心、深州长江中学、上海科普教育促进中心、广东省工业园区协会、辽宁省沈阳市于洪区北陵街道中海城北苑社区居民委员会、兰溪市疾病预防控制中心(兰溪市卫生监督所)、台州市路桥区金清镇经济建设服务中心等组织、单位。



当然,重庆企事业单位也未能幸免,其中就包括重庆市南岸区巴渝公益发展中心、重庆市永川区科学技术协会、重庆市大渡口区老年大学、学平慈铭奥亚(重庆)门诊部有限公司、重庆天翼宝医疗管理有限公司、重庆嘉华医院有限公司、重庆市泰和祥大药房连锁有限公司、重庆广电纪实传媒有限责任公司、重庆乔木研学旅游服务有限公司等。



仅从2025年3月份到2025年12月10日,已经有超过100起诉讼。



经重科城微报查询,四川谊联扬创数字传媒有限公司成立于2023年04月18日,注册地位于成都市成华区双店路66号1幢16层16号,注册资本为50万(元)。



然而,就是这样一家在成都成立才两年多的小微企业,接连起诉了包含重庆企事业单位在内的数十家媒体、数十家事业单位及数百家企业,可谓战果辉煌。面对该公司的诉讼,也有被告方奋起反击,并发文对其行为进行揭露。2025年7月22日,某公众号发布《再次曝光:对滥用诉权的“四川谊联扬创数字传媒有限公司”大声说"NO"!“钓鱼式维权”的社会垃圾,有关部门该管管了!》



该文对“四川谊联扬创数字传媒有限公司”的诉讼行为表达了强烈的愤慨,以下是部分原文:
“早上9:00接到法院电话,说四川谊联扬创数字传媒有限公司撤诉了,这已经是第二次了闹腾了,我无语!
以下是我第二次应诉的补充说明:
01、本案号(2025)闽0206民初12491号与(2025)闽0206民初5210号案件相同,之前我已写过《民事答辩状》与《应诉状》,后因起诉方没交费用,撤诉了,真没想到会再来告一次。
02、从本司之前的答辩状早就能看出:公众号转载的文章,早于2024年12月17日即已删除,对方所提的所谓“证据”,完全是“钓鱼式维权”,完全是“碰瓷式维权”。
03、有一个很大的疑问:明知道这是“钓鱼式维权”,法院为什么要一再浪费公共资源,受理这种案子?明知道对方干的是害人的勾当,成立不到两年的公司,告了900多家机构,这样的垃圾公司,当地工商部门、市场管理等部门,能任其胡作非为,不管管?
04、重复下本司的答辩请求。


再次呼议:滥用诉权的“四川谊联扬创数字传媒有限公司”大声说"NO"!“钓鱼式维权”的社会垃圾,有关部门该管管了!”
而在该文章下面的留言区,也是同样气愤:


在文章展示的《民事答辩状》中,作为被告的作者发布了应诉内容:
事实与理由:
一、原告主张的“权利基础”存在重大瑕疵
1. 权属证明不完整
原告虽提交《作品登记证书》,但根据《最高人民法院关于审理著作权民事纠纷案件适用法律若干问题的解释》第七条,作品登记证书仅为初步证据,不能单独作为权属依据。
2. 存在“恶意抢注”嫌疑
原告通过批量登记网络匿名图片并实施维权,明显不符合正常著作权人“先创作后保护”的行为逻辑,涉嫌违反《反不正当竞争法》第二条的诚信原则。
二、答辩人使用行为符合“合理使用”或“无过错免责”
1. 无主观侵权故意
  • 涉案图片来源于微信公众号文章,发布时未标注版权信息;
  • 答辩人使用图片系出于【个人学习/公益科普/】非商业目的,符合《著作权法》第二十四条“合理使用”情形。

2. 已尽必要注意义务  
  • 收到原告通知后,答辩人立即删除涉案图片并留存记录(证据见附件3);
  • 若原告认为侵权,应优先通过平台投诉解决,而非直接起诉索赔,其行为明显超出必要限度。

三、原告索赔金额显失公平,涉嫌滥用诉权
1. 虚高索赔无依据
原告主张赔偿伍仟元,其诉求远超实际损失,违反《著作权法》第五十四条“与实际损失或侵权人获利相当”的原则。
2. 批量诉讼消耗司法资源
根据公开数据,原告近三年在全国发起同类诉讼【894件】(证据见附件5),其行为已非正当维权,而是以诉讼为业的商业性维权,法院应依法予以遏制。据百度网站查询,原告已然是臭名昭著,如过街老鼠,人人深恶痛绝!
根据《著作权法》第五十九条,“无侵权故意”且“使用行为合法”,可主张不承担赔偿责任。
遭遇了两次起诉、两次撤诉,被牵扯了过多精力的被告虽以原告撤诉而告终,但也因此投入大量精力和时间,影响了正常工作。
在经过一定的了解后,重科城微报疑惑的是,作为一个以版权保护为名滥用诉讼权且备受诟病的四川小微企业为何能跟重庆主流媒体媒体签约合作?
就是这家起诉了全国数十家党媒的外地小微企业,摇身一变成为重庆主流媒体上游新闻的版权代理公司,确实过于突兀。
同时,该公司邱老师还表示该公司不仅是上游新闻的版权代理公司,还是重庆日报的版权代理公司。
这就更忍不住疑惑:一家外地的靠起诉数十家媒体为生的小微企业怎么就能攀上重庆主流媒体“重庆日报”及上游新闻的高枝?
希望重庆日报及上游新闻对该合作予以彻查,并查一下四川谊联扬创数字传媒有限公司否具备条件和资格,同时也评估一下该公司的行为会给重庆日报及上游新闻带来什么样的负面后果和社会影响。
由于合作双方实力及身份对比实在是过于悬殊,还想来一句灵魂拷问:这里面是否涉及到“特殊关系”或“特定人”方面的合作?



来源:重科城微报
编辑:杨泓艳


刘海明 发表于 2025-11-6 21:23:20
【案例】
谢寿光 王誉梓 | 人机协作的知识生产:生成式人工智能辅助学术出版的知识产权归属与伦理规制
作者简介:谢寿光系哈尔滨工程大学人文社会科学学院教授,哈尔滨工程大学智能社会科学实验室首席专家;王誉梓系清华大学社会学系2023级博士研究生。
内容摘要:以大语言模型为代表的生成式人工智能技术正深刻重塑知识生产模式,并引发了知识产权归属、作者身份认定等复杂问题。面对这些困境,判断知识产权归属的核心标准应从“生成过程”转向对“归责主体”的探讨。知识产权应明确归属于能够且必须对学术成果的准确性、严谨性和伦理合规性承担最终责任的人类学者。人类在人机协作全过程中通过意图设定、迭代修正与批判性审核所体现的主体性智力劳动,是其作为“归责主体”的核心论据。一套基于“公开性”的实践框架,通过使用声明、提示词元数据公开和人工审核记录,可有效重构人机协作下的学术伦理。《魁阁学刊》的实践案例验证了该透明化机制在明确责任归属、提升学术诚信与可检验性方面的可行性。为生成式人工智能辅助知识生产提供可行的伦理规范与操作指南,有助于构建一个更负责任、公正和创新的新范式。
目录
一、生成式人工智能背景下的知识重构与伦理挑战
二、文献回顾
(一)生成式人工智能:技术原理与学术应用现状
(二)知识产权与作者身份:传统视角与人工智能影响
(三)理论基础:人机关系的审视与工具论的逻辑确立
三、人机协作下的知识归属与价值创造
(一)提示工程的创造性与人类主体性
(二)人工智能作为工具的本质与类比深化
(三)知识生产的归责主体与人类审核
四、重构学术伦理:基于公开性的实践框架
(一)公开性:学术诚信与可检验性的基石
(二)公开性实践框架的构成要素
(三)《魁阁学刊》的实践:一个透明化人机协作的案例
五、结论与讨论
一、生成式人工智能背景下的知识重构与伦理挑战
近年来,以大语言模型(Large Language Models,LLMs)如ChatGPT为代表的生成式人工智能(Generative AI)技术取得了突破性进展,其在文本、代码、图像乃至其他复杂内容生成方面的能力,正以前所未有的速度渗透并重塑着人类社会的方方面面。这种技术浪潮对学术界的影响尤为深远,它不仅革新了科研工具,更深刻改变了知识的生产、传播与评估模式。从辅助文献综述、数据分析、实验设计,到直接参与论文撰写、润色,人工智能(Artificial Intelligence,AI)技术正逐步成为学术研究不可或缺的组成部分,预示着一场深刻的学术范式变革正在到来。
伴随生成式人工智能在学术领域的广泛应用,一系列关于知识产权归属、作者身份认定和学术诚信的复杂问题也随之浮现。当前学术界对于人工智能生成内容的所有权归属尚存巨大困惑和争议:人工智能能否被视为论文的作者?如果不能,那么由人工智能辅助生成的内容,其知识产权究竟应归属于谁?面对这些新挑战,全球学术界正积极探索应对之策。例如,《自然》(Nature)杂志在2023年1月明确指出,大型语言模型工具不能被列为论文作者,它们无法承担作者的责任。同时,美国版权局(U.S. Copyright Office)也在其指导文件中强调,由人工智能独立生成的内容不具备版权保护资格,版权仅保护人类作者的原创性贡献。在中国,学术出版界同样对生成式人工智能的使用持审慎态度并迅速作出回应。中国社会科学杂志社在2025年5月发布的启事中明确规定,其期刊、报纸和网站不接受由生成式人工智能工具署名或直接撰写的稿件。该启事还进一步细化了生成式人工智能工具的使用规范,规定其应用仅限于语言润色、文献检索、数据整理与分析等非核心研究环节。然而,亦有学术机构提出了截然不同的探索路径。例如,华东师范大学在2025年发起的“AI驱动教育研究论文写作”征文活动中,便要求人工智能在研究和写作中发挥主要作用,并应被列为论文的第一作者,而人类学者则作为共同作者或通讯作者。尽管这些不同方向的尝试为规范人工智能使用提供了初步指引,但由于缺乏统一、可操作的国际标准,相关讨论和行动仍处于探索阶段。这种规范的未完善状态可能对学术界的信任基础造成影响,阻碍人工智能技术在学术领域的健康发展。
鉴于此,本文主张将生成式人工智能定位为一种高级智能工具,而非独立的创造主体。在学术产出中,人工智能的角色始终是辅助而非替代人类创造。因此,本文的核心论点即,人工智能生成内容的知识产权应明确归属于能够且必须对最终成果承担完整学术、法律和伦理责任的人类学者。在此基础上,本研究致力于作出两项创新贡献。一方面,我们将对人工智能在知识生产中的地位进行深层次的理论重构,明确其作为人类智能延伸的本质。另一方面,我们将详细阐述并构建一套旨在保障人工智能辅助知识生产透明性与可检验性的公开性实践框架。该框架旨在为学术出版领域建立新的伦理规范和操作指南,以负责任的方式引导人工智能技术的应用。
二、文献回顾
(一)生成式人工智能:技术原理与学术应用现状
生成式人工智能的崛起,尤其是大语言模型的飞速发展,标志着人工智能领域一个重要的里程碑。其核心技术原理在于基于海量数据的统计学习和模式识别。不同于传统编程依赖明确规则,大语言模型通过Transformer架构等深度学习模型,学习文本中的词汇、语法、语义及语篇结构模式,从而能够预测和生成连贯、有逻辑甚至富有创造性的内容。但这种生成过程本质上是基于概率的模式匹配和序列补全,而非真正意义上的理解或意识。大语言模型通过对训练数据中知识的内化,实现了对人类语言复杂性的模仿,使其能够执行从简单到复杂的文本生成任务。
在学术研究领域,生成式人工智能的应用已呈现出多维度、深层次的渗透。最初,人工智能主要作为辅助工具,如完成语法检查、实时翻译和文献管理等,旨在提升研究效率和语言质量。然而,随着人工智能能力边界的拓展,其角色已从单纯的辅助工具向更具创造性的生成性工具转变。例如,研究人员正尝试利用人工智能进行文献综述的初步生成、实验设计方案的构思、复杂数据集的可视化,甚至撰写研究论文的初稿或优化现有稿件的表达。尽管这些应用仍处于探索阶段,但它们已然揭示了人工智能在加速知识生产、降低某些重复性劳动的强度方面的巨大潜力,并预示着未来科研工作流程的深刻变革。
(二)知识产权与作者身份:传统视角与人工智能影响
前文揭示的困境,其根源在于生成式人工智能对传统的知识产权框架构成了严峻挑战。因此,有必要首先回顾现有知识产权法,特别是版权法对原创性(originality)和作者身份(authorship)的传统定义。各国版权法的核心原则之一是人类主体性原则(human authorship principle),即只有人类创作的作品才能获得版权保护,因为版权旨在激励人类的独创性智力劳动。作品的原创性通常要求具备独立创作非复制和一定程度的创造性选择与编排,而非纯粹的事实或公共领域内容的简单组合。在传统语境下,作者无疑是完成智力创作并对作品内容承担责任的自然人。
然而,生成式人工智能的出现对这一传统框架构成了严峻挑战。当人工智能生成的内容达到足以乱真甚至超越人类创作的水平时,这些作品是否具有原创性?谁应被视为作者?如果将人工智能视为独立作者,则与现有法律体系的根本逻辑相悖;如果否认其原创性,又可能忽视其生成过程的复杂性。对人工智能“作者”身份的争议也仅仅是问题的开端,学术界对人机协作下的学术成果是否具有原创性也存在广泛争议。许多教育机构对学生使用人工智能辅助完成的作业持否定态度,甚至将其视为学术不端并给出较低分数。这种现象表明,学术界对人工智能的担忧已从人工智能代笔这一极端情况,延伸至对人类作者在人机协作中创造性是否被稀释。
更为核心的法律挑战在于人工智能的非人化原创性。法律对原创性的认定通常包含思想的表达(expression ofideas)和创作意图(creative intent)。针对人工智能的“构思”问题,有学者提出应将构思决定论引入人工智能作品版权保护,要求人类作者的独创性构思必须是人工智能生成最终表达的有效原因,通过“受控固定”来维系思想与表达二分法的有效性。这实质上坚持了人类对创作过程的控制权是版权授予的前提。此外,法学界的核心争议聚焦于如何平衡各方主体权益。一方面,有研究明确区分了人工智能生成物的演绎作品和非演绎作品,主张对于非独立生成即有人类实质性投入的人工智能产出,版权应归属于人类使用者。另一方面,人工智能的衍生性带来了训练数据源的版权风险,学者指出人工智能创作依赖于庞大的、来源复杂的训练数据,其产出不可避免地带有衍生性。这种“影子般的存在”使得传统的版权追溯变得异常困难,甚至引发了传统版权内容产业与人工智能新技术产业间的利益博弈。当前法律和学术界对人工智能生成内容的谨慎态度,是对原创性本质和人类创作主体地位的深刻反思与坚守,亦是对作者所承载的责任、贡献和学术诚信要求的坚守。
(三)理论基础:人机关系的审视与工具论的逻辑确立
当前,世界各国在有关人工智能生成内容能否受到著作权法保护方面的司法实践存在差异,其根本分歧在于对人的创造性与人工智能工具属性的关系存在不同看法。因此,有必要对学界关于人机关系的研究进行回顾,以厘清本研究的理论定位。有研究系统梳理了人机协同创作的范式演变,将机器视为人类智力的延伸,强调创作的主导权在于人类。另有观点借鉴行动者网络理论(Actor-Network Theory,ANT),关注人与机器之间平等视角,认为二者并无泾渭分明的主客体之差。还有研究从技术哲学的角度关注人机关系的互构与边界融合,甚至讨论了脑机接口时代人机深度纠缠的黑箱模式,认为这进一步模糊了人的主体性界限。此外,有学者侧重于法律规制,主张在技术发展中确立“局部替代人类、整体增强人类”的价值理念,并据此构建法律责任机制。
本研究认为,无论人机关系的流派如何定位人工智能的自主程度,当涉及学术诚信和法律责任时,问题的焦点必须回归人类自身的主体性。坚持人类主体地位,是解决人工智能作品责任问题的唯一有效路径。在法学界,赋予人工智能主体地位的理论会导致“责任真空”,即非人格实体的人工智能无法承担法律责任,进而引发知识产权归属和学术不端追究的彻底混乱。因此,本研究坚守工具论(Instrumentalism)的逻辑起点,将人工智能视为辅助人类完成特定任务的手段。工具论为我们提供了重要的分析框架。从人类文明的伊始,工具便是人类能力延伸的关键。从石器、车轮到印刷机、计算机,工具的演变始终伴随着人类认知和创造力的拓展。著名传播学家马歇尔·麦克卢汉(Marshall McLuhan)曾提出“媒介即人的延伸”的观点,这一思想在智能时代依然具有启发意义。生成式人工智能可被视为人类智力工具的最新形态,它极大增强了人类处理信息、生成内容的能力,但它本质上依然是辅助人类完成特定任务的手段,而非独立的存在。
更重要的是,从社会学视角来看,知识的生产本身就是一种社会建构,这种建构依赖于人类社群的批判性思维、同行评审和共识达成。人工智能生成的内容是基于统计模式和概率的信息,但其能否转化为具有合法性、可靠性和影响力的学术知识,则取决于人类的批判性审视与社群的集体认证。在人工智能辅助知识生产的链条中,人类作者通过将人工智能的产出提交给同行评审、接受质疑与反馈,从而使得知识获得了社会性的认可与合法性。人类的不可替代性,体现在对知识的“价值判断、伦理恪守和责任承担”上,这超越了人工智能仅能提供的函数性输出,因此,人类不可能沦为人工智能生成知识的工具。将人工智能视为辅助工具,更能反映知识生产的社会属性和人类在其中的核心主体地位。
工具论的采用,旨在确立一个清晰、单一的法律责任主体——人类使用者。将人工智能定位为工具,并不排斥人类在实践中与人工智能进行人机协作(Human-Computer Collaboration)。这种协作模式,是以人类主导为前提的增强智能模式:人类提供核心的洞察、判断和伦理指导,人工智能则提供高效的计算和模式识别能力。工具论与人机协作理论的结合,旨在确保工作流程是“协作”的,但法律主体和责任归属必须是唯一且完全由人类承担的。
三、人机协作下的知识归属与价值创造
(一)提示工程的创造性与人类主体性
在人机协作的知识生产模式中,提示工程(Prompt Engineering)是一项高度复杂的创造性技能。它成为连接人类思想与人工智能能力的关键桥梁,是人类智力劳动在数字时代的全新表现形式。然而,在具体实践中,人类通过提示工程所注入的智力劳动存在不同层次,我们既要看到以知识共创为目标的高度复杂的智力活动,也要承认以任务委托为目标的简单指令。但无论在哪一个层次,人类的主体性都贯穿始终。在复杂的知识共创层面,高质量的提示词凝结了提问者在特定领域的专业知识与领域理解。研究人员需要精准地定义问题、设定约束条件、提供上下文信息,以引导人工智能锁定有效且相关的生成路径。例如,在医学研究中,一个有效的提示需要研究人员精确定义疾病模型、限定干预措施、指定研究对象特征,以引导人工智能在海量生物医学文献中找到有效且相关的实验设计或综述框架。这种对专业知识的深度运用,使得人工智能的产出具有极强的针对性和有效性,而这些价值正是源于人类对领域范式的积累。
在这种复杂的交互中,提示工程也深刻体现了提问者独有的批判性思维与问题意识。一个好的提示词往往源于对现有研究的深入理解、对理论前沿的精准把握,以及对未知领域突破性探索的渴望。它能提出超越表面信息、直指核心的深度问题,引导人工智能进行更深层次的分析、联想,甚至在看似不相关的概念之间建立新的联系。这正是人类在科研中不可替代的核心价值:识别关键矛盾、提出原创性假设。人工智能尽管能处理大量信息,却无法像人类那样产生真正的问题意识,其回答的质量完全取决于提问的深度和广度。与此同时,我们必须承认,对于一些简单的任务委托型提示,例如“请帮我总结这篇文章”,其初始指令本身的创造性是有限的。但即便如此,人类的主体性依然体现在意图设定和目标规划上——是人类决定了需要总结哪篇文章,以及为何要进行总结。更重要的是,无论初始提示的复杂度如何,人类的主体性最终是通过主导整个人机交互的全过程来确立的。
提示工程还包含着一个智力接力的动态过程。人类并非一次性给出完美提示,而是通过迭代、追问、修正和细化,与人工智能进行多轮交互。这种交互不仅仅是指令的简单传递,更是一种认知循环:人类根据人工智能的初步产出进行评估和反思,识别不足之处,发现新的可能性,然后再次优化提示,引导人工智能进行方向性调整。例如,当人工智能生成初稿时,人类会对其逻辑连贯性、论证严谨性、数据准确性甚至遣词造句的学术风格进行细致审阅。此轮反馈和调整,都注入了人类的专业判断、经验积累和个性化思考,将人工智能的初步生成物逐步塑造成符合学术标准和作者意图的最终作品。这个迭代过程本身就是复杂智力活动的体现,它要求人类具备灵活的思维、快速的问题识别能力和持续优化的决心。在这一接力过程中,人类始终扮演着决策者和修正者的角色,确保最终产出与自身的学术愿景和标准实现一致。
人类的审美判断与风格偏好也通过提示词得以体现,并贯穿整个交互过程,影响着人工智能生成内容的呈现形式、语言风格和叙事结构。无论是文本的流畅度、图像的构图,还是代码的简洁性,人类作者都能通过精细的提示和反复的调整,将个人的风格和对高质量产出的追求融入其中。这确保了最终的学术成果不仅内容符合严谨的学术规范,形式上也契合作者独特的表达风格和预期受众的需求,使其更具传播力和影响力。因此,从初始的意图设定,到贯穿始终的迭代修正与批判性审核,整个人机交互的全过程构成了人类智力劳动的重要组成部分。其创造性贡献和对最终成果的决定性影响力,是知识产权归属于人类的关键论据。它强调了人类的意图在创作中的核心地位,而人工智能仅是实现这一意图的功能载体,其自身不具备主动的创作意图和知识产权。
(二)人工智能作为工具的本质与类比深化
将生成式人工智能视为工具是对其技术底层逻辑与存在本质的深刻洞察。与传统的写作工具如笔、纸,计算工具如计算机乃至更复杂的统计分析软件相比,生成式人工智能的独特之处在于其具有强大的生成与知识聚合能力。然而,它本质上仍是复杂算法与海量训练数据的产物,并非拥有独立意识、情感或原创思想的实体。人工智能的学习过程基于概率模型和模式识别,它通过分析数据中的统计规律来预测并生成下一个词、图像像素或代码片段,其生成过程仅仅是这一预测机制的持续执行。它不具备人类意义上的理解能力,无法真正洞悉语义的深层含义,更没有自主的创作意图或哲学层面的自由意志。这种内在机制决定了人工智能的产出是其训练数据的函数,是既有知识的衍生与重组,而非独立智力活动的产物。
因此,将人工智能比作一个能迅速处理复杂运算的高级计算器、一个能高效检索并重组信息的巨型图书馆,或一个提供多种智能选项的辅助助手,更能准确反映其在知识生产中的真实角色。它极大地扩展了人类处理信息、生成初稿的效率边界,但其背后的驱动力始终是人类的指令和需求。如同印刷术极大地提升了文字的传播力,但印刷机本身不拥有任何书籍的版权;相机能捕捉影像,但其生成图像的版权归属于摄影师而非相机本身。生成式人工智能亦复如是,它是一个高度进化的“媒介”,其功能性远大于其主体性。从认知科学的角度看,人工智能完成的是人类认知过程中的特定子任务,例如模式识别、信息检索和初步的文本合成,而最终的概念整合、批判性评估和决策仍完全依赖于人类。
这种工具属性反驳了“人工智能拥有版权”的观点。版权法的核心在于保护人类的独创性智力劳动,其立法初衷是激励人类的创造力并赋予其相应的权利和责任。而人工智能的学习和生成是基于现有数据模式的组合与预测,其行为是机械性、算法驱动的,与人类从零到一的创造性活动存在本质区别。例如,美国版权局在处理人工智能生成作品时,明确区分了由人工智能独立创作的部分和由人类实质性修改或指导的部分,仅授予后者版权。这表明,法律实践已倾向于将人工智能视为一种辅助工具,其作品的版权归属于对内容进行原创性贡献和最终决策的人类主体。人工智能无法承担作为作者所必须承担的法律责任如侵权诉讼,道德责任如学术不端,以及学术责任如对数据准确性、论证严谨性的最终把关。如果承认人工智能的版权,不仅将颠覆现有知识产权体系赖以维系的人类中心原则,更可能带来一系列难以解决的法律与伦理困境。例如,当人工智能生成内容涉及诽谤或侵犯隐私时,责任应由谁承担?这些问题都指向一个明确的事实:缺乏意图和责任承担能力的人工智能,无法成为知识产权的主体。
(三)知识生产的归责主体与人类审核
生成式人工智能展现的涌现能力正促使我们对知识产权语境下的“原创性”进行更为深刻的审视。当模型在复杂提示下能够生成跨学科的新研究框架或构思出创新性的实验设计时,其表现已超越了对现有数据的简单聚合与重组。面对这一技术现实,若将讨论局限于“生成主体是否为人类”的二元对立,将难以有效界定人机协作成果的知识归属。一个更合适的分析框架是将审视的焦点从“生成过程”转向“责任归属”,即探寻在知识生产流程中,谁是承担最终学术、法律和伦理责任的归责主体。
人工智能在技术上展现的生成性,可被视为一种功能性创造。它本质上是一种复杂的、基于其庞大训练数据和算法架构的函数性输出,其核心是响应指令,进行高效的模式匹配、推理和内容生成。尽管其产出可能新颖,但这一过程缺乏创作意图、价值判断和责任意识。人工智能可能会生成看似合理但实际存在错误,甚至完全虚构的信息,例如编造不存在的引用或虚假的事实,也无法为其承担责任。与之相对,人类的创造则是一种意图性原创。它源于学者内在的问题意识、批判性思维、学术追求和伦理考量。在人机协作的知识生产链条中,人类学者扮演着核心角色:提出初始问题、设定目标框架、甄别人工智能产出的谬误与偏见、对关键论点进行深化和修正,并最终将成果置于学术共同体的审视之下。正是这一系列复杂的智力活动,将一个新颖的文本字符串转化为一项具有学术价值和知识产权归属的智力成果。这个转化过程,是人类主体性的决定性体现。
因此,在人工智能辅助的学术出版中,判断知识归属的核心标准,应是责任由谁承担。知识产权不仅是权利,更是一系列责任的集合,包括对内容真实性的担保、对方法论严谨性的辩护,以及对潜在侵权或学术不端行为的法律和道义责任。人工智能作为一种强大的工具,其本身无法成为这些责任的承载者。唯有能够且必须承担全部责任的人类学者,才是合格的归责主体,从而也是知识产权的合法所有者。这一原则不仅与现有知识产权体系的人类中心原则保持一致,更是维护学术诚信和知识生产秩序的根本要求。
这种作为“归责主体”的资格,并非一个抽象的法律标签,而是通过在学术产出中承担最终责任与执行具体审核的实践来确立的。在任何学术产出中,最终责任和把关权始终在于人类学者。无论生成式人工智能生成了何种内容,其准确性、严谨性和伦理合规性都必须由人类作者来全权负责。这一过程是人工智能辅助下的知识从原始素材转化为合格学术成果的关键环节,也是最终赋予其学术价值的决定性步骤。人类对人工智能生成内容进行筛选、验证、修改、补充和整合,确保其符合既定的学术标准、不侵犯他人版权、不传播偏见或错误信息。这不仅是维护学术诚信的基本要求,更是人类独有的判断力、道德责任感的体现。人工智能不具备主观意识,无法承担复杂的伦理和法律责任,因此,知识产权也无法归其所有。
从法律和伦理的视角看,责任与权利是紧密相连的。版权的授予通常伴随着对其作品内容所产生影响的责任。当人工智能可能生成不准确、带有偏见甚至诽谤性的内容时,追溯责任的唯一路径就是指向其人类使用者。例如,如果一篇由人工智能辅助撰写的论文包含了虚假数据或剽窃内容,学术界和法律体系追究的仍是人类作者的责任,而非人工智能模型本身。这种“最终责任原则”(UltimateResponsibility Principle)是确保学术成果可靠性和维护学术秩序的基石。
此外,人类作者对人工智能产出的审核涉及深层次的批判性审视和知识重构。作者需要运用其专业洞察力,甄别人工智能可能产生的幻觉或不准确信息;需要将人工智能生成的片段融入自身的宏大叙事和论证体系中,确保逻辑的连贯性和理论的深度;还需要根据研究的最新进展和同行评审的意见,对人工智能生成的内容进行迭代优化。这个过程是人类智力活动起主导作用的体现,是对人工智能提供的原材料的再创造。只有当人类作者对人工智能产出进行深度干预、注入自身的原创性判断并以自身名义发表时,其才承担起相应的责任,从而使得该作品具备了知识产权的法律和伦理基础。这种人类对人工智能产出的最终掌控与责任承担,无疑证明了知识产权归属于人类学者的观点。
四、重构学术伦理:基于公开性的实践框架
(一)公开性:学术诚信与可检验性的基石
在现代科学研究中,透明度(transparency)和可重复性(reproducibility)被公认为确保学术诚信和知识可靠性的两大核心原则。它们要求研究方法、原始数据、分析过程以及最终结果都必须公开透明,以便其他研究者能够独立地检验、验证,甚至复现研究结论。将这一根深蒂固的理念引入生成式人工智能辅助的知识生产过程中,不仅是重构学术伦理的关键,更是应对人工智能技术挑战、将其转化为提升学术质量机遇的必然选择。
倡导公开性,即明确披露人工智能在学术工作中的使用情况,能够带来多重积极效应。首先,它显著提升了学术成果的可信度与可检验性。当读者、审稿人以及更广泛的学术共同体清楚了解人工智能在研究中的具体参与程度时,他们就能更准确地评估论文的原创性、可靠性及潜在的局限性。这使得学术评价更加公正,也为知识的有效传播奠定了基础。其次,公开性能够明确责任归属,从而有效避免因人工智能参与而产生伦理模糊地带。人类作者可以清晰地界定其自身贡献与人工智能辅助的部分,并为最终发表内容的准确性、严谨性和伦理合规性承担全部责任,这正是学术责任制的核心。再次,它促进了对人工智能工具本身的理解与评估。通过公开人工智能的使用方式和场景,学术界可以共同积累经验,深入探讨哪些是人工智能的有效应用场景,其最佳实践是什么,以及哪些是潜在的风险领域或不适合人工智能介入的环节。这种集体智慧的汇聚,将有力推动人工智能工具的负责任开发与在学术领域的优化应用。最后,公开性能够有效预防潜在的学术不端行为。当人工智能的使用成为一个公开的、可追踪的环节,如洗稿等利用人工智能进行的不当行为将更难隐藏。透明化的实践为学术共同体提供了监督机制,有助于维护学术生态的健康与纯洁性。
(二)公开性实践框架的构成要素
为了将上述公开性理念切实落地,本文提出一个包含三个核心要素的实践框架,旨在为人工智能辅助下的学术知识生产提供明确的操作指南和伦理规范。
1.人工智能使用声明
传统的论文声明通常涵盖作者贡献、利益冲突、资金来源等信息,往往未能充分体现人工智能工具在研究和写作过程中的具体使用情况。为了弥补这一空白,我们建议学术期刊和机构强制要求作者提交一份细致且规范化的人工智能使用声明。提供这份声明的目的是超越简单的“我使用了人工智能”这一模糊表述,转而提供清晰、可验证的信息。声明应明确指出:论文中哪些部分(例如,引言、方法论、数据分析、讨论或结论)使用了哪些特定的生成式人工智能工具(例如,GPT-4、Claude3、GeminiAdvanced),包括其模型名称和版本,以及这些工具的具体使用目的。例如,作者可以声明:“本文的引言部分由GPT-4(版本X.X)生成初稿,经作者进行深度编辑、逻辑重构与多轮修改。数据分析部分的Python代码由GitHub Copilot(版本Y.Y)辅助生成,并经作者调试与验证。摘要部分主要使用Grammarly AI(版本Z.Z)进行语言润色和表述优化。”这种高度透明且细致的声明标准,具有多重积极意义。它不仅为审稿人和读者提供了清晰的参照依据,使其能够更准确地评估论文的原创性与可靠性,也有助于区分人类作者的独立贡献与人工智能辅助的部分。更重要的是,它为作者提供了一种自我规范和负责任地展示贡献的工具,从而强化了学术责任制,促进了学术界对人工智能工具应用的集体认知和有效管理。
2.提示词元数据
在人机协作的知识生产模式中,提示词是人类智力输入与人工智能产出之间的关键桥梁,其质量与独创性直接决定着人工智能生成内容的价值与方向。因此,我们建议对人工智能辅助生成内容的关键环节,引入提示词元数据的公开机制。具体而言,对于论文中具有核心原创性或关键推导过程的内容,例如研究假设的初步构思、核心论证的框架草拟、实验设计细节或数据解释的初始分析等,作者应在论文的附录或补充材料中公开其用于生成内容的核心提示词。在某些情况下,为保护商业机密、专利信息或个人隐私,可以提供提示词的匿名化或经适当处理的版本,以平衡透明性与合法权益。这一做法的核心目的在于实现可复现性检验。通过公开关键提示词,其他研究者和审稿人能够通过相同的提示,在相似的人工智能模型上进行验证或再现,从而更深入地探究人工智能的生成过程,并评估人类作者在提示工程中的创造性贡献。这种透明度不仅有助于识别作者在引导人工智能过程中的创新性思维,也能揭示人工智能模型本身的特点和局限性。它为学术共同体提供了一个新的维度来审视研究的严谨性,同时这种机制也有助于在学术界建立起对高质量提示词的共识和标准,推动提示工程作为一门新兴学科的发展与成熟。
3.人工审核与修改记录
人工智能生成的内容只是知识生产的一个起始点,人类的审核、修正和最终定稿才是将人工智能的原始素材转化为合格学术成果的决定性环节。为了充分体现人类作者在这一关键流程中的不可替代性贡献,我们倡导作者在适当情况下,采用现代版本控制工具,如Git、Overleaf的版本历史功能或文档修订模式记录对人工智能生成内容的修改轨迹。这些详细的修改痕迹,如文字的增删改、逻辑结构的重塑、概念的深化、数据的校正或语言风格的优化,都将作为人类智力投入和创造性贡献的有力证明。通过呈现这些修改记录,作者能够清晰地展示自己如何运用批判性思维、专业判断和领域知识,对人工智能的初步产出进行精简、甄别和重构,从而将其塑造为符合学术规范、具有严谨性和原创性的最终成果。例如,研究人员可以展示如何纠正人工智能可能产生的幻觉信息,如何将人工智能生成的片段融入自身的独特论证体系,以及如何根据最新的研究进展调整人工智能给出的建议。这种透明化的修改记录,不仅强化了人类作者对作品的最终所有权和责任,也为学术共同体评估人工智能辅助研究的质量和贡献提供了具体的依据,从而进一步夯实了知识产权归属于人类学者的伦理与法律基础。
(三)《魁阁学刊》的实践:一个透明化人机协作的案例
在生成式人工智能辅助知识生产的伦理规范和实践路径在全球范围内仍处于探索阶段之际,中国学术界涌现了勇于先行、积极拥抱新技术的典范。《魁阁学刊》在以“人工智能应用场景下的社会学知识生产”为主题的2023年第2期中的实验,便是其中富有启发意义的一项实践。该学刊不仅在发刊词中明确倡导“拥抱新技术,拥抱新时代,才是吾辈学人所应为、当为之举”,更以实际行动在学术出版中探索并践行了人机协作的透明化路径。
《魁阁学刊》的开创性体现在其征稿和出版的整个流程中。其征稿函明确要求投稿人必须使用ChatGPT等国内外生成式人工智能参与论文写作过程,并“另外用专门的篇幅说明技术实现的过程”,甚至鼓励作者对不同人工智能工具进行比较,并分享具体的使用体验。这从源头上引导了学者负责任地使用人工智能并进行自我披露。在2023年第2期《魁阁学刊》中,编辑部对论文采取了极高的透明度策略:公开作者与人工智能工具的完整聊天记录,并对论文文本中人工智能生成的内容和人类作者的修改部分进行了详细的标注。这种“过程化、透明化”的审稿流程和内容呈现方式,是对传统学术出版规范通常只关注最终成果而非创作过程的一次大胆尝试。
该案例的实践意义和示范效应体现在多个层面。
一是对“人机分工”的具象化与责任的明确界定。《魁阁学刊》的实践体现了人工智能在知识生产中的工具属性和人类的核心主体地位。论文中对人工智能辅助进行文献综述、数据初步分析、语法润色乃至全文生成等具体应用场景的说明,以及人类作者对人工智能初稿进行的深度编辑、逻辑重构、数据验证和思想升华,共同勾勒出人机协作的动态且分层的图景。这不仅验证了本研究核心论点中“提示工程的创造性与人类主体性”的重要性,即人类通过精准提示赋予人工智能方向和意图,也具象化了“知识生产的归责主体与人类审核”的必要性,人类在筛选、验证、修改人工智能产出过程中的不可或缺性,以及对最终内容的质量和真实性负有的责任。
二是对学术信任与可检验性的积极提升。在人工智能辅助写作背景下,学术界普遍担忧的代笔和原创性稀释问题,可能导致读者对论文可信度的质疑。然而,《魁阁学刊》通过展示人机协作的完整过程——从最初的提示词、人工智能的回复到人类的修订轨迹,反而显著增强了论文的可信度和透明度。这种“过程公开”的模式,使同行审稿人和广大读者能够检验知识的生成路径,而非仅仅是最终的静态成果。这种机制有效打消了潜在的学术不端疑虑,它证明公开性不仅是应对伦理挑战的防御性策略,更是构建新时代学术信任和促进集体知识生产的有效策略。这种透明度促使作者更为审慎地使用人工智能,也促使读者更为明智地评估人工智能辅助产出。
三是为智能时代的学术出版规范提供了可操作的范本。《魁阁学刊》的实验为其他学术期刊和出版机构提供了实践经验和可复制、可操作的参考范例。通过确定明确的人工智能使用披露要求,并鼓励作者以元数据形式公开关键提示词和修订痕迹,不仅在技术上可行,而且能够有效管理人工智能辅助研究带来的伦理挑战。这种制度层面的创新,为学术共同体探索人工智能时代下的新常态提供了一条可行路径。它有助于推动学术界形成关于人工智能辅助写作的共识,并逐步建立起一套兼顾效率、伦理和原创性的新型学术生产规范。
《魁阁学刊》此举作为一项先行探索,在实际落地中也存在一些困惑和复杂性。本文在此提出是使其作为“可供学习的实践”的价值所在。一是对作者“信息披露成本”的内在反思。严格要求作者完整记录并公开所有提示词和修订过程,无疑增加了作者的工作量,构成了对效率的挑战。这种信息披露的烦琐,也引发了关于“提示词所蕴含的独有研究思路是否属于个人智力资产”的边界困惑,需要出版界在保障公开性的同时,探索减轻作者披露负担的机制。二是对同行评审中“透明度与客观性”平衡的自省。审稿专家在面对完整披露了人工智能使用过程的稿件时,如何平衡对最终成果的质量判断和对过程细节的关注,是学术界普遍面临的伦理挑战。这种“过程公开”可能引发的“技术偏见”,即因为披露了人工智能使用而对稿件产生不同对待,要求学术共同体必须建立更精细化的评审标准和机制,以确保评审始终聚焦人类作者的创造性贡献和学术价值本身。三是对实践模式“普适性”的自我检验。这种高度透明的模式能否在所有学科、所有类型的期刊中普适性推广,也存在讨论空间。例如,在商业竞争激烈的应用领域,对提示词的完全公开可能损害研究的先行优势。这些实践中的困惑和挑战提醒我们,伦理规制的建立必须同时关注效率、可行性、作者权益保护以及学术共同体的共识与接受度,从而推动学术出版规范从单一的理想模型,走向一个兼顾理想与现实的动态优化系统。
五、结论与讨论
本文系统探讨了生成式人工智能在学术出版领域的知识产权归属问题,主张将生成式人工智能视为一种强大的辅助工具,而非独立创作主体,其在学术产出中的知识产权应明确归属于提供创造性输入并对最终成果负责的人类使用者。为支撑这一核心论点,本文深入剖析了提示工程所蕴含的人类专业知识、批判性思维与创新能力,强调其作为人类智力劳动新形式的关键性。同时,通过对人工智能作为工具的本质解构,以及对人类在知识生产中承担最终责任的论证,进一步夯实了知识产权归属于人类学者的理论基础。在此基础上,本文提出了一个基于公开性的实践框架,包括细化的人工智能使用声明、提示词元数据公开以及人工审核与修改记录。通过分析《魁阁学刊》的实践案例,本文验证了这些透明化机制在增强学术诚信、明确责任归属和提升可检验性方面的可行性与积极作用,为人工智能辅助下学术伦理的重构提供了具体路径。
尽管上述框架为人工智能在学术出版中的负责任应用提供了可行路径,但仍将面临诸多挑战。实践层面,隐私保护与提示词泄露的风险不容忽视,尤其在涉及商业秘密或敏感研究时,如何在透明度与数据安全间取得平衡是复杂的议题。同时,建立统一的标准化规范,如如何量化人类修改的实质性贡献以及如何避免由此给作者带来额外工作量,都是亟待解决的现实问题。对此,我们建议推动人工智能工具内置元数据记录功能的技术解决方案;成立由多方参与的行业联盟,共同确立具有国际共识的可操作标准;加强科研人员的伦理教育和人工智能工具使用培训,使其将“公开性”内化为新的学术习惯。
更深层次的伦理困境与社会影响亦不容忽视。人工智能生成内容可能带来的洗稿与原创性边界模糊、人工智能模型训练数据中固有的偏见与错误信息的传播,都对学术界界定原创性和确保研究公正性提出了挑战,要求学术界开发更先进的查重工具,并强化人类作者的核查责任。此外,人工智能工具的普及可能加剧知识鸿沟,使掌握先进技术和资源的群体获得不公平优势,而人工智能深度伪造的潜力也对学术信任体系构成潜在冲击,需要更强的真实性验证机制。我们应以积极且审慎的态度展望学术出版的未来,未来的学术生态将不可避免地走向一种人机共生的深度协作模式。人工智能将演变为科研流程中的智能助理,从而使学者能将更多精力集中于概念创新、批判性思维和复杂问题解决等人类独有的高阶智力活动。这种模式有望极大提升科研效率,促进跨学科研究的突破,并催生互动式报告、动态数据模型等多样化的知识生产模式。
展望未来,随着生成式人工智能对个体学者行为轨迹和历史知识成果的深度学习与集成,每一位学者都可能很快拥有一个数字孪生体(digital twin)。这一数字孪生体将爆发出强大的创作和文本生成能力,其产出的知识产权归属将成为一个全新的哲学和法律难题。这是否意味着数字孪生体是独立于自然人的存在?其产出的知识产权归属又该如何界定?笔者认为,数字孪生体与自然人主体始终是一体的,其所有产出都应被视为自然人智力劳动的延伸,所有的责任都应由自然人承担,所有的知识产权都应由自然人享有。这一原则的坚守源于对人类自身创造性本质的理解,人类的创造性不仅体现在对人工智能的精准提示上,更在于在长期与人工智能的互动过程中产生的新的思想和独特的洞察。至于真正意义上人工智能的自我独立创作能力,至少在今天和可预见的未来都不可见,人工智能的创作始终无法脱离人类的意图和引导。唯有通过人与机器的深度协作、公开透明的实践,并构建完善的治理体系,我们才能真正融入这场深刻的技术变革,共同构建一个更为公正、可靠和具有创新活力的未来学术生态。
引用格式参考:

GB/T 7714-2015 谢寿光,王誉梓.人机协作的知识生产:生成式人工智能辅助学术出版的知识产权归属与伦理规制[J].现代出版, 2025(10): 1-13.
CY/T 121-2015 谢寿光、王誉梓:《人机协作的知识生产:生成式人工智能辅助学术出版的知识产权归属与伦理规制》,《现代出版》2025年第10期,第1页至13页。
MLA 谢寿光,王誉梓."人机协作的知识生产:生成式人工智能辅助学术出版的知识产权归属与伦理规制." 现代出版.(10)2025: 1-13.
APA 谢寿光,王誉梓.(2025).人机协作的知识生产:生成式人工智能辅助学术出版的知识产权归属与伦理规制.现代出版,(10), 1-13.



来源:现代出版
编辑:杨泓艳


刘海明 发表于 2025-10-23 22:39:03
【案例】

公告|关于处理学术不端行为的声明

尊敬的各位作者:
我刊近期又处理了一起投稿抄袭事件。加上之前的两次,已经是第三次。鉴于作者认错态度诚恳,出于对其善意保护,本刊再次决定以退稿以及私下警告的方式处理,不予公开通报,以期教育挽救。
然而,事不过三。本刊郑重声明,自本次公告发布之日起,如再发现来稿有严重学术不端行为,本刊将采取最严厉的措施,包括但不限于:立即退稿;将违规行为正式通报作者所在单位;在本刊及官方网站上予以实名公告批评。至于这是否会导致作者失去工作或遭受更严重的打击,不在(也不应在)本刊考虑范围之内。
我们呼吁广大作者自觉遵守学术规范,共同珍惜学术声誉,维护风清气正的学术环境。
《清华西方哲学研究》编辑部谨启
2025年10月23日


来源:清华西方哲学研究(公众号)

编辑:张家乐

刘海明 发表于 2025-10-16 12:53:27
【案例】

好莱坞多家公司怒批Sora:这是剥削,会对明星艺人造成风险


[url=]传媒头条 [/url]
20251015
来源丨IT之家

据美国 CNBC 报道,当地时间周四,创新艺人经纪公司严厉批评 OpenAI 的新视频生成应用 Sora,称这款产品对旗下艺人及其知识产权构成“严重威胁”。
IT之家从报道中获悉,创新艺人经纪公司代理的艺人包括 Doja Cat、斯嘉丽・约翰逊、汤姆・汉克斯等。
该公司对 OpenAI 提出质疑:是否真正认为,作家、艺术家、演员、导演、制片人、音乐家和运动员应当因自己的劳动成果获得报酬与署名?“还是说 OpenAI 自以为可以任意窃取这些内容,公然无视全球版权原则,漠视创作者及出资方的合法权益?在我们看来,答案不言而喻。”
创新艺人经纪公司称,愿意听取 OpenAI 提出的解决方案,目前正与知识产权领域专家、工会、立法者及全球政策制定者合作推进相关工作。“对作品使用的控制权、授权权及报酬,是创作者的基本权利。任何不保障这些权利的做法都无法接受。”
Sora 于上周上线,仅一周下载量便突破 100 万,用户可借助其生成包含知名品牌与角色的 AI 视频。OpenAI 最初采取“默认使用、可选择退出”的机制,也就是说,除非工作室或经纪公司主动要求,否则其受版权保护的素材可能被用于生成内容。
OpenAI CEO 奥尔特曼随后在博客中表示,公司将赋予版权所有者“更细化的角色生成控制权”。
美国联合人才经纪公司同样批评 Sora 滥用受版权保护素材的做法“是剥削而非创新”。“在以人类才华为核心的行业中,没有任何技术可以取代创作者。我们将继续奋力争取客户的权益。无论是 OpenAI Sora,还是任何企图从客户知识产权与肖像中牟利的平台,我们都将坚定地与艺术家站在一起。”
OpenAI 当天回应称,公司已设置防护机制,防止生成知名角色,并正在清理现有 Sora 视频中违反新政策的内容。OpenAI 媒体合作副总裁 Varun Shetty 表示:“我们正从 Sora 的公共内容中移除生成角色,并将很快推出更新,让版权所有者能更好地掌控角色使用及粉丝创作方式。”
另外据《洛杉矶时报》报道,威廉・莫里斯奋进经纪公司在内部备忘录中表示,已正式通知 OpenAI,要求“所有威廉・莫里斯奋进经纪公司的客户从最新的 Sora AI 更新中退出”,无论他们所关联的版权方是否提出过退出申请。
知情人士透露,迪士尼上周致函 OpenAI,明确表示公司从未授权 OpenAI Sora 复制、传播、公开展示或演出任何包含迪士尼受版权保护作品与角色的图像或视频。该人士补充称,迪士尼还指出,公司没有义务通过“选择退出”机制来维护其在版权法下的权利。
当地时间周二,美国电影协会发表声明,敦促 OpenAI 立即采取“强有力且果断的行动”,制止利用 Sora 制作侵犯版权的视频。
来源:传媒头条
编辑:梅镕缨




刘海明 发表于 2025-10-14 14:37:27
【案例】

Sora阳谋:用分钱模式,破解AI版权的死结

[url=]腾讯新闻派 [/url]
20251013
以下文章来源于腾讯科技 ,作者李昀锴
930日,OpenAI发布其迄今最强大的视频生成模型Sora 2.0,惊艳效果震撼科技圈,但是,它也迅速点燃了积怨已久的AI版权危机。
网络上一度涌现大量用户利用Sora生成知名IP(如皮卡丘、马里奥)的AI同人视频,相关视频内容获得了广泛传播及使用。
这一现象的背后,是Sora最初采用的选择退出”(Opt-out)机制。风口浪尖之上,104日,OpenAI一改选择退出Opt-out)模式,宣布了一项关键的战略转向:Sora将采用主动同意Opt-in)的新政策,未来将引入IP分成的收益机制,与授权使用其角色的版权方共享平台收益的商业模式。
这个新的模式,真的能从根本上解决备受争议的AI视频版权争议吗?
本期腾讯新闻派分享的文章将从知识产权律师的角度,对Sora版权分成新政进行法律拆解,探寻其背后的利益分配格局。
作者|李昀锴 天元律师事务所合伙人
来源|腾讯科技
930日,OpenAI发布其迄今最强大的视频生成模型Sora 2.0,惊艳效果震撼科技圈,上线不到五天下载就破了百万,比ChatGPT当年没限制时速度还快。但是,它也迅速点燃了积怨已久的AI版权危机。
网络上一度涌现大量用户利用Sora生成知名IP(如皮卡丘、马里奥)的AI同人视频,相关视频内容获得了广泛传播及使用。
好莱坞三大经纪公司联手反击Sora,统一撤出客户资源并要求建立授权分成机制;迪士尼等巨头与行业协会同步施压,要求OpenAI承担侵权责任。
这一现象的背后,是Sora最初采用的“选择退出”(Opt-out)机制。该机制默认允许生成受版权保护的内容,除非版权方主动要求下架。这一政策将维权责任完全推给了版权方,被指可能引发系统性侵权。
风口浪尖之上,104日,OpenAI一改“选择退出”(Opt-out)模式,由其CEO萨姆·奥特曼(Sam Altman)宣布了一项关键的战略转向:Sora将采用“主动同意”(Opt-in)的新政策,未来将引入IP分成的收益机制,与授权使用其角色的版权方共享平台收益的商业模式。这一举动,无异于在AI公司与版权巨头之间紧张对峙的棋局中,下出了一步出人意料的新棋。
它标志着行业头部玩家开始尝试将矛盾从法庭交锋转向商业合作,试图为AI版权这一房间里的大象寻找一条生态共建的新出路。但是,这个新的模式,真的能从根本上解决备受争议的AI视频版权争议吗?
本文将从知识产权律师的角度,对Sora版权分成新政进行法律拆解,探寻其背后的利益分配格局。
图:AI生成的皮卡丘、马里奥形象
01
Sora 2背后的法律困境
要理解Sora新政的意义,必须先厘清当前AI公司面临的法律困境。
Sora版权风波的背后,是生成式AI自诞生以来便悬而未决的核心法律问题:未经授权,使用海量受版权保护的作品训练商业化AI模型,是否构成版权侵权?这个问题可以进一步拆解为“输入端”的训练数据合法性问题及“输出端”的生成相似性内容的侵权风险。
首先,关于“输入端”的训练数据的原罪。AI模型的强大能力建立在对海量数据的学习之上,而这些数据中不可避免地包含了大量受版权保护的图片、视频和文字。AI公司普遍主张其抓取和使用这些数据进行模型训练属于合理使用(Fair Use),但这一抗辩在司法实践中面临极大挑战。
近年来,各大版权方已发起多轮诉讼,从图片库Getty Images起诉Stable Diffusion,到好莱坞六大制片厂联合起诉Midjourney,再到华纳兄弟就AI生成的超人形象提起著作权侵权诉讼,其焦点均指向未经授权使用版权内容进行模型训练的行为,截至目前,各方都还在等待法院对合理使用原则在AI时代的适用做出权威判决。
与此同时,部分企业已开始寻求诉讼外的解决方案。
不久前,在多位作者对Anthropic提起的集体诉讼案件中,AI模型Claude所属Anthropic公司同意支付高达15亿美元与作者及出版方达成和解告终,也侧面反映出AI公司在训练数据这一根本问题上,仍缺乏坚实的法律立足点。
其次,是“输出端”的生成内容的侵权风险。即便跨过了训练数据的门槛,AI生成的具体内容也可能构成对现有作品的侵权。Sora 2初期能够生成高度逼真的皮卡丘或炭治郎(漫画《鬼灭之刃》主角)视频,这极易被认定为未经授权复制了角色形象,或创作了侵权的衍生作品,属于典型的著作权侵权行为。
图:使用Sora2生成的火影忍者、海贼王、鬼灭之刃
例如,杭州互联网法院在2024年就认定某AI平台因允许用户上传奥特曼图片训练LoRA模型并生成相似侵权内容构成帮助侵权,广州互联网法院在2024年则判定另一AI平台AI绘画功能可稳定生成与奥特曼形象实质性相似的图片,构成直接侵权。
Opt-out政策将识别和移除侵权内容的责任推给了版权方。这种做法在法律上相当被动,一旦版权巨头(如任天堂、迪士尼等)发起诉讼,平台方将承担巨大的法律和赔偿风险。
因此,Sora 2Opt-out政策,使其同时暴露于上述两种法律风险之中。OpenAI的迅速转向,与其说是商业模式的创新,不如说是出于规避法律风险的现实考量。面对成千上万用户生成的《宝可梦》或《鬼灭之刃》等二创视频,继续实行宽松政策无异于默许甚至鼓励侵权,这在当前的司法环境下是难以为继的。
图:使用Sora 2生成的Sam Altman为主角的视频截图
02
Sora 2版权分成模式及利弊
面对法律上的不确定性与商业上的巨大压力,OpenAI没有选择在法庭上进行旷日持久的拉锯战,而是打出了一张精明的商业牌:Sora的新方案的核心是从堵到疏,试图将版权方从诉讼对手变为合作伙伴。
该方案大致为:将用户生成内容定义为互动式同人创作;承诺为版权方提供更精细化的IP控制权,版权方可以自主决定其角色是否、以及如何被Sora使用(例如,可以生成日常场景,但禁止暴力内容),甚至可以完全禁止某些核心IP;提出IP分成收益机制,允许用户使用其角色的版权方,可以从平台的相关收入中获得分成。
该政策能够为版权方创造全新的增量收入,也可以协助版权方进行IP宣传及价值挖掘。
OpenAI描绘的IP分成蓝图,类似于YouTube的版权收益共享模式,前景十分诱人。设想创作者制作一段“悟空大战钢铁侠”的视频,平台能自动识别IP归属,并将产生的收益按比例分配给相应的版权方。这将极大激发二次创作的热情,也为版权方开辟了新的变现渠道,形成多方共赢。然而,这一商业模型的设计仍存在不容忽视的问题与风险:
1、商业模式尚不明确。OpenAI承认,具体的分成模式仍需反复试验才能确定。如何与全球成千上万的IP持有者协商授权,如何为不同的IP设计公平合理的定价体系,分成比例、计费方式、透明度如何保证,都将是未来谈判的焦点和难点。如果采取逐一授权谈判模式,可能更有利于拥有强大议价能力的头部IP巨头。广大中小型创作者的权益如何得到有效保障,仍是一个未知数。
2、技术实现的复杂性。AI生成过程具有一定的黑箱特性。如何精确、透明地追踪和识别生成内容中的每一个版权元素(角色、场景、音乐等),并进行准确的价值归因与收益分配,是一项艰巨的技术挑战。YouTubeContent ID系统花费了十余年时间才逐步完善,Sora要构建类似的版权识别模块只会更加复杂。在版权方明确要求移除相关IP角色时,如果Sora未能尽到管理义务,可能依然需要承担法律责任。
3、治标不治本。SoraIP分成机制主要解决了输出端的侵权问题,对于“使用受版权保护的数据进行初始模型训练是否合法”这一根本性的法律问题,仍未给出直接答案。这才是行业面临的核心症结,即如何处理训练数据的原罪。当前,立法者及学者仍在探讨集体许可模式、市场化交易模型、立法豁免模式等多种方案,仍未达成有效意见。因此,目前Sora方案本质上是一种商业层面的绕道,从决策上非常理性和务实,但一旦未来出现不利的立法规定或司法判例,整个商业模式的合规性根基仍将动摇。
03
AI版权争议的本质与未来
从迪士尼、华纳兄弟等IP巨头的四处起诉,到Sora的版权分成政策,AI版权争议的本质,与其说是法律对错之争,不如说是一场由技术变革引发的利益分配问题。
生成式AI利用既有的人类知识成果创造出新的巨大价值,而争议的核心在于:这块新蛋糕,应该由谁来切,又该如何分配?
Sora的方案之所以具有借鉴意义,它回归问题的本质及知识产权的初衷,通过激励创作者获利,来鼓励更多创意IP内容诞生。这种从一次性授权到按使用量分成的思路,或许更适应AI时代内容生成边际成本低、用户需求个性化的特点。
然而,要让这套体系真正运转起来,除了完善上述商业模式和技术监管的细节外,还需要解决数据来源合法性、价值评估标准化、法律框架更新等更深层次的问题,才能为AI训练、生成和使用等环节提供更清晰、可预测的指引。
综上所述,OpenAISora设计的这套新版权规则,虽非解决所有问题的“银弹”,但这预示着AI行业将从野蛮生长阶段进入付费许可阶段。它启示我们,面对技术带来的颠覆性挑战,能解决问题的,或许不只是更严苛的法条,更是能让多方共赢的、更巧妙的制度设计。这或许才是AI浪潮中,我们最应关注的Next Level的思考。
来源:腾讯新闻派
编辑:梅镕缨




刘海明 发表于 2025-10-11 19:47:22
【案例】

关于我社刊发组诗《穿过季风的缝隙》被质疑为AI写作的调查报告

近日,我社刊发组诗《穿过季风的缝隙》被部分读者质疑为AI写作。我社对此高度重视,立即进行了审慎核查,并邀请诗界权威参与评判。我们认为,此事关涉的不仅是单篇作品的认定,更是新技术环境下文学创作、评判标准及写作伦理所面临的全新挑战。现将核查与处置情况报告如下:
一、 该诗刊发过程
该组诗作系自由来稿,经编辑部三审通过,予以采用。原稿共有十三首,最终选定九首定稿刊发。该诗责编恪尽职守,在编辑过程中与作者就作品的选择与修改进行了不厌其烦的沟通与交流,记录皆在,可供查证。我社主编生于农村,有多年的农事经历和劳动经验,该诗中对四时节气的观察、对物候变化的捕捉、对农耕生活的感悟,触动了其过往记忆并引发共鸣,因此决定刊用。
二、 AI检测结果
我社获知质疑后,立即通过两家主流AI文本检测平台——知网AI检测系统、朱雀AI检测助手——对该组诗作进行检测。经过多轮检测,结果均显示:AI生成率为0%。即以现有智能算法与标准,该作品未被判定为AI生成文本。
在技术层面,这两份检测报告是目前较为科学的判断依据。但我们也注意到,AI文本检测技术尚未完全成熟,在现阶段,该报告应作为一个重要的客观参考,而非绝对的裁决标准。

(中国知网的检测结果)

(朱雀的检测结果)

三、 诗界专家态度
争议发生后,我社联系了五位诗歌界资深前辈、评论家和学者,邀请他们从专业角度对该诗进行研判。其中三位判断应为作者独立书写,二位认为有AI加工的嫌疑。诸位老师均表示,AI写作是当下文学界共同面临的新课题,目前尚无公认的评判标准和操作机制,传统的文学理论与审美判断在这一新问题面前存在某种程度的适用性局限,在缺乏普适体系和可信赖鉴别技术的情况下,任何断言都可能产生偏误与不公。基于学术伦理和在场责任,诸位老师均保持审慎态度,不具名出具报告。这是严谨与负责的态度,我社对此表示尊重并理解。这一情形也进一步凸显了建立评判标准与形成业界共识的重要性与紧迫性。
四、 我社处置意见
基于以上情况,出于对学术规范、作者权益与公众关切的同等尊重,经慎重研议,我社作出如下处置决定:
(一)处置原则:
对自身:不回避,不推责。
稿件采用与否由主编决定,失察之愆,在于主编。若该诗果为AI代写,主编承担全部责任。
对作者:不纵容,不冤枉。
我社支持并欢迎对文学真伪与创作伦理进行有价值的讨论乃至争论,但若因为作品中出现某些被指认为AI常用的词汇和意象,或行文疑似有AI特征,而简单判定其为AI写作,似乎也不尽公允。“AI写作是所有诗人共同面临的时代难题,在理论上,每一个诗人也都存在被人指控作品有AI嫌疑的可能。这种有罪推定的逻辑若被泛化,将可能导致创作环境的恶化,使创作者都因难以自证而陷入人人自危的境地。当每一个诗人都可能是潜在的受害者时,对任何一个可能的受害者的轻率定罪,都是对诗人这一群体的粗暴伤害。
因此,我社认为,在秩序未定、标准模糊、且两个平台AI检测结果均为零的情况下,既要坚定维护原创尊严,绝不姑息任何形式的剽窃和AI代写,也须避免伤及无辜,不宜在客观证据并不充分的前提下武断定谳,从而伤害作者的合法权益和个人名誉。
(二)处置结果:
基于以上原则,我社决定:1.暂不对该作品作出最终定性,待建立具有公信力的评判标准、或出现更具权威性的检测工具后再予评判。2.暂缓发放稿酬,将该稿酬转交中国版权保护中心,待学术标准建立或检测技术成熟,并对该诗做出公允评判后,若被认定为个人创作,即将该稿酬支付作者;若经认定为AI代写,则扣发该稿酬并公开通报处理。
五、 后续行动与倡议
我社将加强编辑团队对AI写作特征的学习与研判,持续提升专业鉴别力,以期能够更审慎、更准确地判断作品属性。同时呼吁文学同仁共同推动制定可操作的评判标准与伦理规范;建请学界及时开展关于“AI文体识别”“AI写作判定等专题研究,为相关标准的建立提供学术支持和实操判据;并期待AI鉴别技术尽快迭代成熟,真正做到以AIAI,使我们的研判有最科学的依据和最客观的结果。
AI是人类伟大的文明成果,在极大促进文明进步的同时,无疑也会带来这样那样的问题。我社认为,技术的进步不应成为扼杀创作活力、制造信任危机的缘由,而应促使我们更深入地思考文学的本质、评价的维度和写作的伦理。相关争议的目的,也不应止步于对某些作者和作品的质疑或挞伐,而应落脚于推动建设性对话,促使业界共同直面困境和难题,尽快制定因应之策和解决方案。感谢广大文友对我社的关注与监督,让我们共同努力,在此人机混沌、大浪淘沙的时代,一起维护创作的纯粹与文学的尊严!

莽原杂志社
20251010

来源:莽原杂志社
编辑:何璇祺

刘海明 发表于 2025-10-10 17:31:56
【案例】

中国作家圈再发大地震”——鲁奖提名作家丁燕被爆大面积异曲同工


要地位有地位,要身份有身份——中国作协会员、中国报告文学学会理事、广东省作协报告文学创作委员会副主任、广东省报告文学学会副会长。
要成绩有成绩,要奖项有奖项——作品曾获全国鲁迅文学奖提名奖、文津图书奖、百花文学奖、徐迟报告文学奖、《亚洲周刊》年度十大华文非虚构奖、《中国作家》鄂尔多斯文学奖、中国传记文学学会优秀作品奖、广东省鲁迅文学艺术奖、荷花文学奖等多个奖项。
正是这样一个有名有气,有头有脸的女作家,在小红书博主的曝光下,其文学人设彻底崩塌——
1.丁燕长篇小说《工厂爱情》和苏童、张爱玲、黎紫书、严歌苓、朱天文、陈雪异曲同工之妙:


特别说明以上对比图来自小红书博主抒情的深林,感谢文坛打假人。
丁燕在她的工厂系列小说中就已经很有口碑了,直到获得鲁奖提名,这无疑是达到自己的文学巅峰。
不过从顶端到跌落泥潭,也就剩下这些异曲同工之妙在永恒的网络记忆当中。中国文坛不会忘记这些裁缝作家,东一块西一块拼凑成这里的文学帝国,读者也不会忘记这些崩塌的文学人设,她们的泡沫文学终究在自己的异曲同工之妙中灰飞烟灭……

来源:读一首好诗
编辑:何璇祺

刘海明 发表于 2025-9-19 21:45:55
【案例】

媒体已被自媒体秒成渣,你却还在上班打卡

我认识一位旅行生活方式的头部自媒体人,姐们学播音主持出身。十多年前,因为受不了体制内的束缚,又生性爱玩,她从电视台裸辞。四处游历时,她琢磨着找份能光明正大“旅游”的事业,没想到竟意外踩中了短视频的时代风口。
对电视台主持人来说,搞短视频简直是降维打击。加上前些年企业营销预算充足,自媒体正处流量红利期,没多久她就组建了自己的拍摄团队。凭借稳定输出的优质内容,她靠口碑不断获得新合作,渐渐拥有了稳定的客户和业务。
口罩前她生意不要太好,法国波尔多就去了十几回,每回出场费8到10万打底,商务舱往返;这两年媒体一片低迷,她的变现能力依旧能打:团队里的专职摄影师,月薪平均能拿到5万;就连兼职摄影师,在她这月收入也有2-3万。
这样的收入,让绝大多数“媒体老师”自愧不如。事实上,收入反映的只是一种结果,当机构媒体被自媒体全方位超越,年轻和中年媒体人该何去何从?


01
傲慢:正在消失的媒体光环
传统媒体人的傲慢,似乎是刻在骨子里的。这种既傲且慢,除了媒体大厂title之外,更深层的根源,在于曾经牢牢掌握的媒介话语权。
从解决户口到社交体面、头顶光环登堂入室,光鲜亮丽的媒体人曾是被外界仰视的对象。像我当年毕业就进了新华社,一到两会采访的都是省长副省长,明星大腕企业家进了大会堂都得夹着尾巴走。
可现在呢?除了少数政务新闻口的记者保留有类似“特权”,绝大多数的媒体在发行量和观看量、资讯报道和议题设置、舆论引导和社会监督功能上,都早已被自媒体取而代之。
固然主流媒体的权威性仍在,但当身处其中的媒体人发现:第一现场不是你的,选题方向不是你的,公众讨论平台不是你所在的,阅读观看量还要倚仗外部平台流量池推送的时候——那份傲慢,从何而来?
开头提到的那位旅游博主,一年有300天在路上,被各种政府、平台和企业邀请做拍摄。她自己既是老板、又是IP、还是商务BD——有商单就直接内容变现,没费用就做原创探访或植入其他品牌,早已形成一套成熟的个人IP团队化运作。
她能根据不同的合作体量,灵活安排相应的版面和调整客户权益,再按比例给合作的摄影师和后期团队分成。因为收入和项目直接挂钩,团队积极性特别高——遇到时效性强的商片,当天拍摄,当晚就能剪辑出片。
对比之下,我感觉自己弱爆了,这并非关乎个人能力,而是路线选择问题。对于大多数主流媒体从业者而言,在面对行业资源和团队利益分配时,往往无权做出任何决定。
据我所知,绝大多数主流媒体的记者编辑,连出国出差都不能自己决定,甚至护照都由单位统一保管,走一次境外差旅审批恨不得找8个领导盖章;有时出于维护资源的目的,多做的内容产出,反而可能成为领导和其他部门“弹劾”自己的把柄。
一个项目做完,对于团队里辛苦参与的伙伴,也没有权限及时兑现相应的奖励和支持——只因为一切资源都不是你的,是平台赋予的。
在传统媒体时间久了,眼瞅着同样垂类的自媒体风生水起,自己却佛性本空事不关己,还要给团队洗脑——我们不是自媒体,不是什么都做。这倒真应了沈腾小品里那句“多做多错,不做不错”。
02
营收:割据模式,留不住客户
早早看清媒体畸形生态的人,已经跳出来单干了。之前我在《为什么媒体干不过自媒体》这篇里也谈过机构媒体的被动与低效,很大程度上是由变现分配模式决定的。
在主流媒体,因为某种通行规范或管理标准,采编和商务是严格分开的,做内容的采编人员不碰钱,跑客户的销售不碰内容。
曾经我坚定地认为,这种制度性规定是保证媒体客观公正的必要前提,但如今很难不怀疑:机构对这种规定的坚持,是不是出于上层对人力可替代性的考量——毕竟在大厂和机构里,人人都是一颗可替换的螺丝钉。
这种模式导致了两个问题:一是采编人员在KPI设置上缺乏有效的利益驱动,对商业化内容不上心,甚至排斥;二是广告销售经常过度承诺客户,可实际执行中,因为不掌握内容制作发布权限,承诺往往难以兑现。
自媒体时代已经让这两种情况悄悄弥合。营收下滑的生存压力,迫使采编人员不得不重视内容变现;而销售为了“舔”客户,争取面谈机会,也开始尝试开账号做自媒体。
可船大难调头,传统媒体早已形成路径依赖。自媒体抢走了不少业务,而采编经营分开的拧巴模式,导致内容交付的效率和质量低下,进一步加速了客户流失。
现在的客户越来越不好糊弄了。尤其在经济下行周期,企业更追求营销转化;但机构媒体的广告形式单一,甚至连带货链接都无法植入,动辄上百万的营销报价,让企业转头就把预算投给了更接地气的自媒体。
自媒体博主虽没有大厂光环加持,却在自媒体平台“人人皆可发声”的新生态里,伊们掌握了新的话语权。再加上可通过内容付费、品牌植入、电商带货、销售分成、咨询服务等实现多元化变现,不仅能拿到比肩机构媒体的资源,更赚到了在机构媒体永远赚不到的钱。
03
转型:找到自己的“闭环”
多年前,西方学界就有观点认为:主流媒体的衰落不可避免。那时正值电视的巅峰,门户的崛起,几乎没有人相信,有一天我们会不看电视不开电脑上网,而是全民低头盯着手机屏幕里的小哥哥、小姐姐。
    今年早些时候,我去新加坡《联合早报》总部参观访问,得知这家在华语世界极具影响力的传媒,面对自媒体冲击,也在依靠政府补贴维持运营。因为“一个国家总需要客观公正的声音。”
    话虽如此,媒体人再有理想,不可能“为爱发电”一辈子。传统媒体的深度调查性报道在经济上普遍难以维持,得到的一点公关费对比庞大的机构开支,不过是杯水车薪。
那么,对有志于新闻传媒业或已踏上这条船的普通人而言,面对残酷的生存现实,该如何选择?
    是忍受清贫和限制,挤去靠政府拨款的传统媒体上一个班;还是去平台做牛马,等待35+被边缘、被优化?看起来好绝望对不对?
    我在前两篇文章里有探讨过新闻传媒类文科生的出路问题,今天我建议大家从“国企改革”的视角重新看待这一问题。
    上世纪90年代的国企下岗潮,背景是国企面临宏观经济增速放缓和民企外资竞争加剧,更核心的是国家要从计划经济向市场经济转型。曾经垄断话语权的传统媒体,不正如计划经济时代垄断了棉花资源的纺织厂、垄断技术渠道资源的家电厂吗?
    既然这种傲慢且畸形的生态一经打破就很难回头,媒体从业者必须做好市场化的准备,学会为自己做战略规划,创造自己的生态闭环。
对年轻人来说,刚入职场资源有限,去机构媒体学习专业技能、积累资源依然很有必要;当人到中年,成为大厂中高层后更应当警惕,不能满足于沦为“上传下达”的听命者,要随时保持一种离开单位也能单干的能力与勇气。
最后我想说,人都有惰性,只要头上的大厂光环一天不消散,就很难面对孤军奋战的艰辛、承受长夜痛哭的压力。
上班打工只是为生活兜底的权宜之计,人生的终局,从来不会被打卡机和四面摄像头所围困——你当像楚门冲破虚拟叙事的束缚,你当像鸟儿飞过你的山。


来源:Mulan(公众号)

编辑:张家乐

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表