传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: admin
打印 上一主题 下一主题

新闻真实案例库

  [复制链接]
591#
发表于 2024-9-19 18:11:46 | 只看该作者
【案例】
AI生成内容以假乱真如何甄别?网信办新规公开征求意见,专家:防范AI造假风险
近日,国家网信办公布了《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《征求意见稿》),并面向社会公开征求意见,意见反馈截止时间为10月14日。
《征求意见稿》提出,人工智能生成合成内容是指利用人工智能技术制作、生成、合成的文本、图片、音频、视频等信息。人工智能生成合成内容标识包括显式标识和隐式标识。网络信息服务提供者应当按照有关强制性国家标准的要求进行标识。服务提供者提供生成合成内容下载、复制、导出等方式时,应当确保文件中含有满足要求的显式标识。提供网络信息内容传播平台服务的服务提供者应当采取措施,规范生成合成内容传播活动。包括提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容等。
▲国家网信办发布的征求意见通知(部分截图)
专家认为,这一规定的出台既能有效规避AI造假,也将推动AI生成内容检测算法的发展。律师表示,目前已有不少AI生成内容带来的刑事案件和民事纠纷,新规能有效遏制侵权行为。有AI创作者认为,新规的出台将对生产“深伪”内容的创作者带来冲击。
专家:
防范AI内容造假潜在风险
推动AI生成内容检测算法发展
南开大学人工智能学院教授刘杰认为,这一规定的出台非常有必要,因为如今AI生成的文本、音频、视频的逼真程度、自然程度越来越高,网络上传播的AI内容已经很难去辨别真实性。有人刻意传播一些AI伪造的事件、人物讲话时,会对公众造成误导。新规要求AI内容添加标识,是对这些潜在问题的防范。
在《征求意见稿》中,对提供生成服务的平台和发布平台都提出了要求,通过双层机制,确保每一个生成内容都能被合理地标识出来,保证内容安全,避免误导。如今AI生成内容快速发展,带来了新的产业变化,在此场景下,有必要出台相应规定来保障技术的合理应用和行业的健康发展,避免不当信息的传播影响整个行业的发展。
▲资料图片 图据图虫创意
刘杰告诉红星新闻,按照新规的要求,生成内容的平台需要有相关技术来添加相应标识,内容传播平台也需要能够检查到内容中是否存在相应标识。对于没有标识的AI生成内容,传播平台也需要有一套精准的算法来进行判别。这对算法有很高的要求,新规的出台将推动AI生成内容检测算法的发展。
刘杰认为,目前的AI生成内容识别规定在执行层面可能会面临一些问题。比如在生成环节添加的显式、隐式标识,可能会被人为删除;AI生成内容和真实内容混合存在时,应当如何标识等。
刘杰还提到,AI生成内容以假乱真的能力和对生成内容检测算法的能力是一个长期互相竞争发展的过程。在这个过程中,难免会出现部分AI生成内容无法被精准识别的现象,可能会对浏览这些内容的用户造成困惑。
有创作者称“深伪”内容生产者将受冲击
律师:新规能有效遏制侵权
AI领域创作者“土豆人”告诉红星新闻,他非常支持这一标识规定的出台。一方面AI生成内容以假乱真、难以识别,另一方面大量数字仿品的出现对创意产业破坏很大,版权保护跟不上技术进步的话,会影响整个行业的生态。但他也担心,AI内容在未来生活中几乎无处不在,过度标注可能会干扰用户认知,对AI技术产生抵触。
“土豆人”认为,对于他们这种带有明确AI创作者标签的人来说,这一规定的影响非常有限,真正受到影响的是那些生产“深伪”内容的创作者,强制标识后将明显影响他们在各个平台的传播效果。
北京天元律师事务所合伙人律师、“AI著作权第一案”当事人李昀锴告诉红星新闻,未来这一强制标准出台后,将要求所有工具、传播平台都要有标注义务,能有效遏制AI滥用现象。一方面能方便社会公众进行明确辨别区分,另一方面在AI内容出现问题后有利于监管者进行追溯调查。
李昀锴表示,目前已经有不少因AI生成内容导致的直接或间接纠纷。利用AI伪造内容进行的诈骗案件已经发生过多起,强制的标识可以方便主管机关追溯欺诈主体,也能追查哪些平台在监管上存在问题。在民事领域相关问题也很多,比如学生用AI生成论文,带来学术不诚信、影响学习研究能力等问题;比如公司、平台购买一些创作内容,往往是基于人工制作进行的定价,但会面临创作者用AI生成“糊弄了事”。目前,对于这类问题购买者缺乏识别和举证的手段,未来如果强制性的标识得以推广,能有效遏制这种侵权行为。
李昀锴认为,这条新规本质上是压实平台的合规义务,增加平台的合规成本和投入,传播平台也要加强审核和提示。目前,不少大的传播平台都会对AI生成内容进行识别,并提示用户疑似AI内容。但这是基于大平台的高标准意识,并没有强制性,未来国家标准的发布能够强制全面推行,会要求所有平台都要提高合规管理的措施和技术。
红星新闻记者 付垚 实习记者 刘亚洲
编辑 张莉 责编 官莉

来源:红星新闻(公众号)
编辑:王晨雅

592#
发表于 2024-10-3 19:30:18 | 只看该作者
【案例】
中央网信办部署开展“清朗·整治违规开展互联网新闻信息服务”专项行动




为进一步规范互联网新闻信息服务活动,提升主流新闻舆论影响力,营造清朗网络空间,近日,中央网信办印发通知,部署开展为期3个月的“清朗·整治违规开展互联网新闻信息服务”专项行动。  

中央网信办有关负责人表示,本次专项行动针对违法违规开展互联网新闻信息服务行为,集中整治五类突出问题。一是编发虚假不实新闻信息,使用与新闻信息内容严重不符的夸张标题,或者恶意篡改、断章取义、拼凑剪辑、合成伪造新闻信息,误导社会公众。二是借舆论监督名义,通过采编、发布、转载、删除新闻信息,干预新闻信息呈现或搜索结果等手段,威胁、要挟他人提供财物、开展商业合作,谋取不正当利益。三是仿冒、假冒新闻网站、报刊社、广播电视机构、通讯社等新闻单位,或者擅自使用“新闻”“报道”等具有新闻属性的名称、标识开设网站平台、注册账号、发布信息。四是未经许可或超越许可范围开展互联网新闻信息采编发布服务、转载服务、传播平台服务。未取得互联网新闻信息采编发布服务资质,违规开展新闻采访、发布新闻信息。五是伪造、倒卖、出租、出借、转让互联网新闻信息服务许可资质。出售、出租或以其他形式委托第三方主体运营互联网新闻信息服务频道等。通过不正当手段、虚假材料等取得互联网新闻信息服务许可。  

中央网信办有关负责人强调,各地网信部门要切实提高政治站位,加强对专项行动的组织领导,确保整治工作取得实效。要指导网站平台优化公众账号类别设置,专设“新闻类账号”,并将审核许可资质作为开设新闻类公众账号前置条件。要切实推动“持证亮牌”,通过网站平台、公众账号、应用程序、网络直播等各类形式向社会公众提供互联网新闻信息服务,均应在获批服务形式的显著位置明示主体名称、许可证编号。要督促网站平台优化算法模型和推荐机制,对新闻类账号发布的高质量新闻信息优先推送。要拓宽投诉举报渠道,积极受理、核查处置相关违法违规问题线索,对典型案例公开曝光。


来源:网信中国(公众号)
编辑:徐思凡


593#
发表于 2024-10-4 20:12:27 | 只看该作者
【案例】
胜利也同属于伊拉克

编辑:徐思凡

594#
发表于 2024-10-11 14:55:29 | 只看该作者
【案例】

果然什么都逃不过网友的火眼金睛!!网友发现韩剧《造后者》最后一集墙上的海报明明是重庆,却被剧方用来冒充首尔,还给重庆p了一座山以免太明显。









来源:星综屏影
链接:https://weibo.com/5612278337/OB0um736N
编辑:刘诗扬

595#
发表于 2024-10-16 20:25:24 | 只看该作者
【案例】



来源:微信分享
编辑:程正元
596#
发表于 2024-10-24 21:53:25 | 只看该作者
“成都大规模拆迁”网络谣言 揭示AI技术滥用风险



近期,IP地址显示为四川的网民集中在社交媒体上“分享”各自获得的拆迁补偿情况:“拿到900多万”“给了17套房,还有三年房租”等。一夜之间,#成都大规模拆迁#话题火了。#成都拆迁# #成都拆迁地图上新#等相关话题接连登上各平台热搜榜单。




话题数据详情

10月17日,成都警方通报称,“四川启动2.15万亿拆迁项目”为利用AI软件生成的虚假信息,违法行为人闫某某等4人因虚构事实扰乱公共秩序,已被公安机关依法给予行政处罚。




成都市公安局的警情通报揭示了AI技术滥用所引发的严重风险,亟需社会各界的关注和治理。

最直接的舆情风险当属虚假信息的迷惑性更高,制造和传播变得更加容易和迅速

在此案中,违法者拼凑网传相关话题信息内容,运用AI技术生成“权威性”文本,而后借由社交媒体平台使得虚假拆迁补偿信息得到迅速广泛的传播。这种现象在当下信息高效传播的环境中,可能会对真实情况造成严重误导,形成虚假信息的“真相”传播,给公众带来错误的认知反应。


其次,当公众频繁接触到虚假信息时,官方信息的受信任度会受到冲击

尤其是涉及政府政策、社会保障等重大公共事务,虚假信息的泛滥将导致民众对官方信息的质疑,使社会的认知结构形成恐慌和误解。这种对公信力的侵蚀不仅影响政策的有效传播,还可能给政府公信力和社会稳定性带来严重挑战。


最后,舆情长尾效应可能波及市场经济秩序层面

虚假信息的广泛传播可能会在一定程度上引发市场的非理性反应,导致价格异常波动,继而加重市场的供需失衡。这种不稳定因素不仅扰乱了市场秩序,还可能引发投资者的恐慌情绪,从而引发更大范围的市场干扰风险。


鉴于AI技术的滥用及其带来的舆情风险,社会各界必须加强对AI技术的道德和法律监管。除了建立起相应的法律规范和政策框架,以约束和引导AI技术的合理应用外,舆情应对处置层面还可尝试以下做法:

01
引导社交媒体平台加强信息审核与监管机制

社交媒体平台应积极建立信息审核机制,加强对内容的审查与监管。在信息发布过程中,平台应对材料真实性进行初步筛查,以减少虚假信息的传播。同时,利用AI技术进行内容监测和识别,及时发现并封堵不实信息。此外,平台应设立投诉机制,鼓励公众报告虚假信息,增强社会共同治理的能力。

02
倡导透明且及时的信息发布

政府与相关机构应积极采取透明、及时的信息发布原则,形成定期向公众通报真实信息的相关机制。特别是在涉及公众利益的大事件中,及时的官方信息披露能够有效对抗谣言的传播,强化公众对官方信息的信任。除了自有发布渠道及传统主流媒体外,政府也可借由权威性的网络媒体平台和政务自媒体,增强信息发布的及时性和便利性,以满足公众的信息需求。

03
培养和提升公众的媒体素养

在面对信息传播的多元化背景下,提高公众的媒体素养显得尤为重要。通过教育和宣传,提高人们对虚假信息的辨别能力,使其能更加理智地分析和判断所接触的信息,减少虚假信息引发的社会混乱与恐慌。建议在社区街道等基层一线开展有关鉴别网络信息真伪的宣教,帮助公众理解和掌握辨识信息来源、验证网络流言的方法,建立对谣言的批判性思考。

作者:武汉人民在线主任舆情分析师 刘衍

编辑:李娅琦 | 责编:朱明刚




   来源:人民网舆情数据中心(公众号)
   链接:https://mp.weixin.qq.com/s/SnDSmX1xcNRIW9Fl1ncDfg
    编辑:李梦瑶





发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表