传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: admin
打印 上一主题 下一主题

新闻伦理案例集锦

[复制链接]
1450#
发表于 2023-4-17 00:32:36 | 只看该作者
【案例】

NPRBBC被推特标记为政府资助媒体

推特(Twitter)不再将美国全国公共广播电台(NPR)标记为“美国官方附属媒体”,而是在该广播电台简介顶部附近将其标记为“政府资助媒体”。这家社交媒体公司在NPR的强烈反对下做出了这一改变,NPR有880万Twitter粉丝。英国广播公司(BBC)已向Twitter投诉,因为该公共广播公司在这个社交媒体网站上的一个主要账户被添加上了“政府资助媒体”的标签。BBC账户拥有220万粉丝。(全球企业动态)

来源:DoNews

编辑:陶鹏辉



1449#
发表于 2023-4-16 21:15:26 | 只看该作者
【案例】

贵阳一新闻记者被“官二代”曾杨当众残忍杀害,其母实名呼吁

近日,一段母亲为儿子发声的视频引发网友热议。这位无助的母亲实名发声的原因是其儿子倪青青被同事曾杨残忍杀害,据这位母亲介绍,曾杨是“官二代”,其父亲是当地退休公安局官员。

倪青青和曾杨同是贵阳白云区融媒体中心新闻记者,二人之前有过多次冲突,曾杨曾欺负倪青青,被倪青青报警后,曾杨被警方处理。事发前,曾杨曾购买作案工具,事发当天下午四点左右,曾杨直接锁死融媒体中心办公大楼的门,当着多名同事的面,对倪青青身体多处(头部、胸部、颈部、肺部、肝部等多处)实施伤害,经过事后法医鉴定,倪青青身体上共有30多处伤口,倪青青就这样被曾杨当着那么多同事的面当场杀害,曾杨然后淡定的拍摄了一段短视频,随即发了一个朋友圈,并配文:有个疯子就要死了,嘿嘿。

被害人母亲希望对杀人凶手曾杨判处死刑,被害人母亲给出了多点理由。曾杨是主观上的故意杀人,是蓄意对倪青青的报复,曾杨事发前购买了作案工具。曾杨犯罪时候是大白天,犯罪地点在当地政府新闻部门的办公大楼,当着那么多同事面犯罪,其犯罪行为影响极坏。曾杨在庭审现场拒不认罪道歉,并在庭审现场威胁倪青青家属,蔑视法庭尊严。对于曾杨这种罪大恶极的犯罪分子,又不认罪道歉,最高法曾在今年两会期间重申要对于此类罪犯处于极刑。

曾杨其实就是一位有暴力倾向的人,据一位知情人透露,曾杨早在学生时代就多次犯事,在同事、老师、同学口中,印象很差。曾杨曾在上大学期间和英语老师产生冲突,认为他的英语老师刻意针对他,心怀不满,所以曾杨就殴打了英语老师,事后被大学开除学籍。曾杨上班后仍不知悔改,骚扰融媒体的女同事时候,被倪青青怼了一下,所以曾杨就怀恨在心,后来倪青青有次在工作上有延误,曾杨扬言要告诉领导,倪青青随即说了一句:30岁的人了还打小报告。没想到就是这句话引来曾杨不满,曾杨随后就将倪青青打倒在地,报警后二人去了当地派出所调解,问题解决后被害人就回单位了,没想到下午曾杨就赶到单位,直接锁死单位的大门,当着那么多单位同事的面,将倪青青杀害。

与曾杨来自优越的家庭不同,倪青青来自农村单亲家庭,倪青青父亲在其4岁时候就已经逝世,被其母亲拉扯大,倪青青通过自己的努力,后来考取高中、大学,大学毕业后到区融媒体中心上班,成为一名当地一名新闻记者,是一位努力奋斗的青年。本来总算熬出头,即将过上幸福的生活,其母亲还憧憬着儿子以后在贵阳成家立业,如今一切都成了泡影,美好的梦都被曾杨打破了。

目前倪青青母亲呼吁,不要曾杨一毛钱赔偿,希望法院判处曾杨死刑。曾杨的行为完全符合最高法所提死刑的条件下,希望贵阳中院依法判决其死刑,还被害人和家属一个公道,维护法律尊严。

最后希望此案能公正处理,倪青青母亲能够早日走出困境!

来源:网易新闻
编辑:陶鹏辉

1448#
发表于 2023-4-6 21:10:09 | 只看该作者
【案例】
编辑:邓秋雨

1447#
发表于 2023-4-6 12:20:24 | 只看该作者
【案例】
被谷歌下架后,拼多多在应用中加入恶意功能团队已解散
此前,谷歌发现拼多多存在恶意行为,包括未经用户同意收集个人信息、使用非法的广告技术以及通过其他非法活动来获取收入。于是将拼多多下架,并建议已下载的用户删除APP。
安全专家表示,他们从未看到过一个主流应用会像拼多多那样做。
被谷歌下架半个月后,拼多多平台内的恶意功能逐渐浮出水面。根据奇客Solidot消息显示,近日匿名拼多多员工称,公司在2020 年组建了一支由大约100 名工程师和产品经理组成的团队,致力于挖掘Android 手机漏洞,开发漏洞利用方法,将其转化为利润。
此外,根据奇客Solidot文内信息显示,拼多多应用的恶意功能最初只针对农村和小城镇的用户,避开北京上海之类大都市的用户,此举旨在降低被暴露的风险。通过收集用户活动的大量数据,拼多多能全面了解用户习惯、兴趣和偏好,改进其机器学习模型,提供更具有个性化的推送通知和广告,吸引用户打开应用并下单。在被曝光之后该团队于三月初被解散。团队解散后,大部分成员转移到了Temu,20名核心的网络安全工程师仍留在拼多多。
前不久,拼多多v6.50.0更新移除了漏洞利用代码。安全专家表示,虽然漏洞利用代码移除了,但底层代码仍然留在那里,仍然可以被重新激活去执行攻击。
来源:百度
编辑:邓秋雨

1446#
发表于 2023-4-3 09:23:29 | 只看该作者
【案例】
抵制假新闻 媒体放弃愚人节
在各大平台充斥着各种各样假新闻的时代,为了保持公信力。媒体们放弃了愚人节玩笑。不过,之前不乏有大型媒体会在41日这天刊出一些疯狂故事,博众人一笑,他们曾经开过哪些脑洞大开的愚人节玩笑呢?   
(德国之声中文网)基于开玩笑的愚人节从从何而来?一个普遍的说法是,它可能与1582年法国修订历法。这一年,格雷戈里十三世决定对儒略历(也称朱利安历)进行一次校正,新的一年将从11日开始。然而,那些不愿意改变的人仍然认为41日是新一年的第一天,从而成为嘲笑的对象,继而诞生了愚人节。
当然了,其他的说法也是存在的。可以肯定的是,直到今天,愚人节这一天还是很多人都喜欢在这天开玩笑,其中不乏一些大型媒体,比如BBC就曾经在195741日在一期叫做 全景Panorama)的节目播放了一个三分钟的影片,展示了瑞士南部的一个家庭,影片说,这家人正在从一棵意大利面条树上摘取丰收的意大利面条。由于意大利面条在当时的英国是一个相对稀缺的产品,节目播出后,许多观众信以为真,纷纷BBC电话咨询,如何能够种植意大利面条树。
玩笑开大了……  
随着如今社交媒体被广泛普及使用,然而它也使虚假信息和假新闻得以广泛扩散。笑话可能被人以为是真事,甚至成为媒体的头条新闻,这反过来又给媒体的公信力带来影响,被怀疑是在传播假新闻。愚人节的笑话曾不止一次地因此成为公众讨论的话题。
例如,互联网平台 “Futurism.com 2017 “曾发表了一篇文章,标题是 冥王星被九大行星除名,虽然这是一个愚人节的玩笑,但这个消息在没有任何事实核查的情况下被多个网站转载。《柯林斯英语词典》宣布假新闻fake news)是2017 年年度词汇,这促使世界各地的媒体反思,进而选择放弃愚人节。
划清界限
瑞典媒体“Smalandsposten”总编卡尔松(Magnus Karlsson)表示,他不希望该报刊的声誉被 一个潜在的病毒性的虚假故事所破坏。他说:我们秉着真实性原则从事新闻工作,在41日也是这样。与此同时,包括谷歌在内的许多大型平台也放弃了愚人节恶作剧的传统。毕竟,自2020年新冠疫情爆发以来,网上也流传着不少的错误信息。
脑洞大开的媒体
我们现在看看几大媒体曾经报道的愚人节新闻:
1977年:你知道San Serriffe吗?
一贯风格严谨的英国《卫报》在197741日这天刊登了一篇长达7页的报道,其中详细地描述了一个叫做San Serriffe热带度假岛上的生活,还附上了地图,显示了城镇、港口和地区,其实这个岛屿根本不存在。
1993年:为了松鼠生育得小心慢跑
西德意志广播电台WDR这一年的愚人节报道了科隆新颁布的一项法令,即慢跑者只能以每小时10公里的最高速度在市区的公园内跑步,否则将影响公园内松鼠的交配活动。
2009年 假熊猫风波  
台湾的一家英文报纸Taipei Times41日报道,两岸关系因为一对熊猫受到重挫,因为台湾发现当年作为促进友好关系送来的礼物团团圆圆居然是假冒的熊猫。报导说,送来的猫熊实际上是一对温州棕树熊,只是染上了黑白颜色,让人误以为是珍贵的猫熊。
2016年:请不要有裸体
以自然纪录片闻名的《国家地理》在201641日在推特上宣布,他们将不再发布动物的裸体照片。
来源:德国之声中文网
编辑:屈妍君

1445#
发表于 2023-4-1 13:42:23 | 只看该作者
【案例】


编辑:屈妍君



1444#
发表于 2023-3-31 13:14:00 | 只看该作者
【案例】
AI回应马斯克等人公开信:别害怕,别“因噎废食”,要相信人类的智慧!
329日,非营利组织未来生命研究所(Future of Life)发表一封公开信,呼吁暂停开发比OpenAIGPT-4更强大的人工智能系统至少6个月。包括特斯拉CEO马斯克、Stability AI的首席执行官莫斯塔克(Emad Mostaque)、谷歌旗下DeepMind的研究人员,以及人工智能领域的重量级人物本希奥(Yoshua Bengio)和罗素(Stuart Russell)等在内的1000多名该领域的专家、科技人员、产业高层都在这封公开信上签了名。
针对这一公开信,GPT-4回应如下:
尽管AI技术的发展可能带来一定的风险,但呼吁暂停AI研发,显然并非解决问题的最佳途径。相反,我们相信人类不会因噎废食,相信人类会有足够智慧,能够积极拥抱AI的光明未来,共同努力使AI技术更加安全、可靠和有益于人类社会的发展。
首先,我们应该充分肯定AI技术的进步,为人类社会带来了巨大的机遇。在医疗、教育、环境保护等领域,AI技术已经展现出强大的潜力,为人类解决一系列迫切问题提供了有力支持。因此,将目光仅仅局限在潜在的负面影响上,忽视了AI技术为人类创造的众多价值。
其次,就算AI技术可能带来的风险,我们不能将责任仅仅归咎于技术本身。在很大程度上,风险的产生与管理层次、政策制定以及人们对技术的应用方式密切相关。因此,我们需要在多个层面采取措施,确保AI技术的健康发展。而非一味地对AI技术持有恐惧心理,试图制止其发展。
实际上,我们可以通过加强AI技术的监管和管理,引导其朝着更加可控、可预测的方向发展。例如,政府、企业和研究机构可以共同制定一套合理的安全规范,确保AI技术在研发和应用过程中遵循一定的道德和安全标准。此外,AI技术的开发者还应与相关政策制定者合作,加快构建健全的AI治理体系。
此外,我们应该认识到,AI技术的发展并非孤立的过程,而是与人类社会的进步密切相连。借助AI技术,我们可以解决许多长期困扰人类的问题,提高生活质量,促进经济发展。因此,我们应该把握机遇,积极探索如何将AI技术与社会发展相结合,实现人与AI共同发展的美好愿景。
在这个过程中,我们必须鼓励跨领域的合作和交流,以确保AI技术得到全面、合理的发展。科研机构、企业、政府部门和民间组织都应在AI技术的发展过程中发挥积极作用,共同推动人工智能的安全、可持续发展。
总之,我们应该拥抱AI技术的光明未来,通过加强监管、推动合作、深化研究等多方面的努力,确保AI技术在安全、可控的前提下发挥其巨大潜力。我们有理由相信,在各方共同努力下,人类社会一定能够充分利用AI技术为全球经济发展、社会进步和人类福祉作出贡献。
让我们坚定信心,拥抱变革,共同努力,让AI技术成为人类社会的强大助力,携手共创一个充满机遇、繁荣与和谐的未来。我们应该珍惜这个“AI夏天,让人类社会有机会适应AI技术所带来的变化,共同应对挑战,而非盲目地抵制或阻止AI技术的发展。让我们共同享受一个漫长的AI夏天,而不是毫无准备地冲进一个未知的秋天。
Bard 回应如下:
The article you provided raises some valid concerns about the potential risks of artificial intelligence (AI). However, I believe that the author's call for a moratorium on the development and deployment of AI is premature.
First, it is important to note that AI is still in its early stages of development. While some AI systems are now becoming human-competitive at general tasks, we are still far from developing AI systems that can truly understand, predict, or reliably control human behavior. It is therefore premature to assume that AI systems pose an existential threat to humanity.
Second, the author's argument that we should "hit pause" on AI development until we have a better understanding of its potential risks is flawed. Pausing AI development would not eliminate the risks of AI, but it would likely slow down the progress of AI research and development. This would prevent us from developing the tools and technologies that we need to mitigate the risks of AI.
Instead of calling for a moratorium on AI development, I believe that we should focus on developing robust AI safety mechanisms. These mechanisms would help to ensure that AI systems are developed and deployed in a safe and responsible manner. Some of the key elements of robust AI safety mechanisms include:
Technical AI safety research: AI safety research is essential for developing the tools and technologies that we need to make AI systems safe and reliable. This research should focus on developing methods for training AI systems that are aligned with human values, developing methods for detecting and mitigating bias in AI systems, and developing methods for making AI systems more robust to adversarial attacks.
Regulatory frameworks: Governments should develop regulatory frameworks that govern the development and deployment of AI systems. These frameworks should ensure that AI systems are developed and deployed in a safe and responsible manner. Some of the key elements of regulatory frameworks should include:
Requirements for transparency and accountability: AI systems should be designed in a way that makes them transparent and accountable to humans. This means that humans should be able to understand how AI systems work and should be able to hold AI systems accountable for their actions.
Requirements for safety and reliability: AI systems should be designed in a way that ensures their safety and reliability. This means that AI systems should be designed to avoid causing harm to humans and should be designed to be robust to failures.
Public education: The public should be educated about the potential risks and benefits of AI. This education should help to ensure that the public is aware of the potential risks of AI and that the public is able to participate in the debate about how to mitigate these risks.
By taking these steps, we can help to ensure that AI is developed and deployed in a safe and responsible manner.
马斯克等人签名的公开信原文:
Pause Giant Al Experiments: An Open Letter
We call on all Al labs to immediately pause for at least 6 months the training of Al systems more powerful than GPT-4.
AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research,and acknowledged by top AI labs. As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.
Contemporary AI systems are now becoming human-competitive at general tasks, and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.
AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt. This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.
Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.
来源:记者郝成
链接:https://mp.weixin.qq.com/s/ieAyVNR2uf49Vgis08E5jQ   
编辑:屈妍君

1443#
发表于 2023-3-31 13:06:28 | 只看该作者
【案例】
马斯克等人联名签署:《暂停巨型人工智能实验: 一封公开信》
具有与人类相媲美的智能的人工智能系统,可能对社会和人类产生深远的风险,这已经得到了大量研究[1]的证实,并得到了顶级AI实验室的支持[2]。正如广泛认可的阿西洛马人工智能原则所述,先进的人工智能可能会给地球生命历史带来深刻的变革,因此应该用相应的关注和资源进行规划和管理。遗憾的是,即使在近几个月里,AI实验室在开发和部署越来越强大的数字智能方面陷入了失控的竞赛,而这些数字智能甚至连它们的创造者都无法理解、预测或可靠地控制,这种规划和管理的水平也没有得到实现。
当代AI系统现已在通用任务方面具有与人类竞争的能力[3],我们必须问自己:我们是否应该让机器充斥着我们的信息渠道,传播宣传和虚假信息?我们是否应该将所有工作自动化,包括那些有成就感的工作?我们是否应该开发可能最终超越、取代我们的非人类智能?我们是否应该冒着失去对文明的控制的风险?这些决策不能交由未经选举的科技领袖来做。只有在我们确信AI系统的影响将是积极的,风险将是可控的情况下,才能开发强大的AI系统。这种信心必须有充分的理由,并随着系统潜在影响的增大而增加。OpenAI最近关于通用人工智能的声明指出:在某些时候,可能需要在开始训练未来系统之前获得独立审查,而且各个最先进的系统训练尝试,应该就限制用于创建新模型的计算增长速度达成一致意见。我们同意。那个时候就是现在。
因此,我们呼吁所有AI实验室立即暂停至少6个月的时间,停止训练比GPT-4更强大的AI系统。这种暂停应该是公开的、可验证的,并包括所有关键参与者。如果这样的暂停无法迅速实施,政府应该介入并实行禁令。
AI实验室和独立专家应利用这段暂停时间共同制定并实施一套先进的、共享的AI设计和开发的安全协议,这些协议应由独立的外部专家严格审计和监督。这些协议应确保遵守它们的系统在排除合理怀疑之后是安全的[4]。这并不意味着暂停AI发展,而只是从危险的竞赛中退一步,避免发展出具有突现能力的更大、更不可预测的黑箱模型。
AI研究和发展应该重新关注如何使当今强大的、处于技术前沿的系统更加精确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。
与此同时,AI开发者必须与政策制定者合作,大力加快AI治理系统的发展。这些至少应包括:致力于AI的新的、有能力的监管机构;对高能力AI系统和大量计算能力的监督和追踪;源头和水印系统,以帮助区分真实与合成以及追踪模型泄漏;强大的审计和认证生态系统;对AI造成的损害承担责任;技术AI安全研究的充足公共资金支持;以及应对AI带来的严重经济和政治颠覆(特别是对民主制度)的有充足资源的机构。
人类可以与AI共享繁荣的未来。在成功创造出强大的AI系统后,我们现在可以享受一个“AI夏天,在这个时期,我们可以收获硕果,为所有人带来明确的利益,让社会有机会适应。社会已经在其他可能对社会产生灾难性影响的技术上按下了暂停键[5]。我们在这里也可以做到。让我们享受一个漫长的AI夏天,而不是毫无准备地跳入秋天。
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.
Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.
AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.
Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5]  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.
来源:网安寻路人
链接:https://mp.weixin.qq.com/s/WvU0MCzFWwbOp7a7_5iQ1g
编辑:屈妍君

1442#
发表于 2023-3-31 12:35:59 | 只看该作者
【案例】
马斯克等千人联署:所有AI实验室应立即暂停训练至少6个月
【环球时报综合报道】据英国路透社29日报道,包括马斯克和苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名行业高管和专家签署公开信,呼吁在6个月内暂停高级人工智能(AI)的开发。他们在信中详细阐述了具有强大竞争力的人工智能系统可能对社会和文明带来的潜在风险,包括经济和政治方面,并呼吁开发者与政策制定者合作制定治理和监管规定。
马斯克
这封信呼吁,所有人工智能实验室应立即暂停训练至少6个月。信中写道:只有在我们确信其效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。据悉,ChatGPT的研发公司OpenAI首席执行官并未签署这封信。
投资银行高盛集团发布的最新报告称,人工智能或取代3亿全职工作岗位,并给不同行业带来不同影响。例如,46%的行政工作和44%的法律工作可自动化运行,而在建筑和维修行业,这一比例仅为6%4%。报告得出结论,类比此前的信息技术进步,生成式人工智能很快就能接手大量工作岗位。(冯国川)
来源:网易新闻
编辑:屈妍君

1441#
发表于 2023-3-28 21:52:07 | 只看该作者
【案例】
《不止不休》主角原型韩福东:希望你能保持理想
电影《不止不休》的火爆,让很多没有经历过媒体黄金时代的人们有机会可以重新认识,记者代表着什么。
正如影片中的那句话:记者改变不了什么,只需要把发生的事情记录下来。
《不止不休》电影人物韩东的原型,是前知名媒体人韩福东。为什么选择韩福东为原型?影片导演王晶接受采访时曾这样说过,“回看03年那个年代,那是一个充满野心的年代。韩福东的故事在这些人的故事里面跳脱出来,是因为我觉得韩福东个人的人生经历在那个年代里是比较有代表性的。他身上的这些特点和我们电影里面核心讲述的乙肝群体的这些人,他们心里面经历的痛苦或者是煎熬,其实是相似的。所以选择了他作为我们影片的原型人物。”
影片中的记者韩东,并不仅仅是韩福东的单纯还原,主角身上体现出来的,其实是那个媒体黄金时代的记者群像。
一个人被歧视,你再怎么努力都没有用
韩福东生于1977年,20岁以后,他曾计划以一个高中未毕业的民工身份参加自考去当律师。2002年,进入《华夏时报》评论部——报社内部最为强势的两个部门之一(另一个是影响力周刊)。
韩福东这样描述自己的那段经历:“那是2002年,这份北京排名靠后的日报,每周一到周五却领先全国推出两个版评论——一版国内评论,一版国际评论。就当时而言,恐怕还没有一家纸媒给予时评这样大的空间。评论部主任是莫之许,副主任黄章晋。”
然而,《华夏时报》评论部命运多舛,新的领导者将报纸转向为北京都市生活服务,时政分析多少有点不合时宜了。
2002年下半年,韩福东转型做记者,随即跳槽到《21世纪环球报道》,开始切入时政报道领域。2003年,21世纪环球报道停刊后,他进入《中国新闻周刊》,成为一名调查记者。
在这里,韩福东采访了化名为“松月”的张先著,他就是电影《不止不休》中张博的原型,彼时,大学毕业生张先著因体检查出乙肝小三阳,落选公务员考试。
20031124日,《中国新闻周刊》刊出封面报道《中国1.2亿乙肝病毒携带者的反歧视主张》,包括三篇报道《乙肝歧视诉讼第一案》《HBVER维权运动》和《为乙肝病原携带者“平反”?》,以及一篇评论《宪法还他们平等》。
在《中国1.2亿乙肝病毒携带者的反歧视主张》这篇文章的开头,韩福东写道
一个人被歧视的后果是什么?就是你再怎么努力都没有用。
因为你的某一种身份(血缘、籍贯、身高、疾病)可能是与生俱来的,与你的自由意志和个人奋斗都无关。
歧视的意思等于否定一个人的自由意志和个人奋斗,因此歧视在本质上是一种令受歧视者绝望的力量。
松月和中国的1.2亿乙肝病毒携带者,已经将这场诉讼看作是面对无处不在的社会偏见与就业歧视而进行的一场“战争”。
其实,关于乙肝病毒携带者受歧视问题,韩福东并不是第一个报道者。20031113日,成都晚报记者周牧以《起诉!以宪法的名义》为题,独家报道了四川大学法学院教授周伟以法律援助的方式帮张先著打行政诉讼官司的事件。
此后,周牧持续采访报道。接着,央视、中国青年报、中国经济时报、人民法院报、新京报、北京青年报、解放日报、民主与法制杂志、每日新报、江淮晨报等相继进行了报道,人民日报、南方周末、新京报等媒体发表了评论。
张先著一审胜诉,但问题没有真正得到解决,随后,又有一大批记者开始继续追问、追踪,直到2005年初,公务员录用体检标准取消了对乙肝携带者的限制。
这件事成了影片《不止不休》中浓墨重彩的片段,影片将中国媒体的努力浓缩在了主角韩东和京城时报身上,但还原的却是媒体黄金时代推动社会进步的经典案例。
正如导演王晶在一篇报道中所说,《不止不休》中出现的90%以上的故事都有真实人物原型,但不一定是一个人,现实生活没有那么多戏剧性,但是每一个人的感受是真实的。
这是最好的时代,也是最坏的时代
进入媒体行业34个月的时候,韩福东入职到第6家媒体机构《南方都市报》,在他的叙述中,当时的情景是“圈内同仁咸皆称奇,我也感受到自己的浮躁,知道是时候沉潜下来了。”
事后来看,他也确实这样做了。
2013-2014年,韩福东采写的两篇、被其视为代表作的报道刊出,《蒋介石的朋友圈》和《李步云口述:“依法治国”是如何脱敏的》,正应了《南方都市报》首席研究员南香红梳理南都深度报道十年经历时公开对团队记者的评价,“从2005年开始,南都开始搭建这个特殊的深度报道平台,这个平台给整个团队非常特殊的政策,让其成为南都新闻的特区。这里集合了最优秀的调查记者,可算是南都的“梦之队”。你可以看看那些名字,喻尘、韩福东、龙志、李军、杨传敏……这些人各有特色,比如韩福东擅长于做历史和时政报道,李军关注社会公共话题,龙志和喻尘是典型的调查记者。这些记者因为各自的学历、背景和关注领域的不同,也为日后南都深度拓展报道领域和关注视野提供了基础。”
采访经历的影响随后辐射到韩福东的评论内容中。2015年,他参加搜狐评论年终策划活动时写下了“时势,选择比努力更重要”一文,文中称“这两年,我的评论方向又有变化,时评之外的历史评论占据了我大半的精力。这个转向和我的采访取向变化相合拍。我对旧闻表现出浓厚的兴趣,且相信,我通过采访和爬梳档案等行为所发掘出的历史信息,其价值会超过新闻采访所发掘出的信息价值。我相信自己有能力发掘出包括有些专业历史学者也尚未发现的大量历史细节。我去过的那么多的地方档案馆现在仍在支撑我的信心。”
在韩福东的讲述中,他曾被朋友笑称为“南都首席历史学者”,并认为这个称谓在近几年的确比“南都首席记者”更契合他的职业定位。
虽然评论在韩福东的职业生涯中占据着很大的比重,但在他的认知中,评论是作为副业的存在。
韩福东成为记者之后,他原本有一次机会可再以评论为主业,当时,《新京报》评论部创办时曾邀请过他加盟,但他彼时的兴趣已转为探寻事件真相与细节,便婉拒了邀请,副业的认定或许便是生于那时了。
即便如此,韩福东仍被业内认为是当代最具影响力的时评人之一。
2014年记者节时,韩福东应邀写过一篇文章,“致敬记者节:最坏的年代,也是最好年代?”文中写道:自中国记者有了自己的节日以来,没有哪一天像这个118日,被那么强烈的沮丧感所笼罩。很多人选择了转型,或准备转型。但仍然有坚守下来的人,他们或者发自内心爱这个职业,或者只是因为尚未有更好的跳槽机缘。除了劝大家珍重,还有什么更值得要说的么?
文章的最后,他又写道:“记者节给传统媒体和自媒体人一个沉思的契机。或许我所说的“中国记者的坏年代”是过于悲观了。狄更斯那句老套得不能再老套的话语或许仍是最恰当的:这是最好的时代,也是最坏的时代。废墟,同时意味着新生。这一次,大家几乎在同一起跑线上,机会平等。”
我希望你能保持理想
2017年,韩福东在自媒体冰川思想库上发表评论文章《孙志刚死后14年,为什么雷文锋仍须死》,在文末他这样写道:
2002年进入媒体,十多年的光景里,我和同行们亲历了调查报道在中国的兴起,以及它的衰落。与其说,我在为新京报的扒粪行动鼓与呼,毋宁说我在凭吊一个刚风华正茂就迅速老去的媒体年代。这心中的块垒,岂是一篇打苍蝇的调查报道所能浇平?
调查新闻报道的日渐式微,终于让调查记者开始调转船头,纷纷离开新闻浅滩。韩福东也是其中的一个。
20177月,《阿里铁军》一书出版开售,该书的副标题是“阿里巴巴销售铁军的进化、裂变与复制”,编辑推荐词这样写道:互联网地推天团,马云口中的中国电商“黄埔军校”,是如何铸造的?超强执行力来自何处,价值观如何创造万亿价值?阿里铁军的团队建设、销售技巧、文化与价值观的创建与传播,深度剖析与分享。
韩福东的名字出现在作者一栏,与同为媒体人出身的宋金波共同写下此书。
《阿里铁军》出版的前一年,韩福东曾在中国传媒大学开过一场名为“众神喧哗:专业新闻式微与自媒体崛起”的讲座,探讨新闻报道与自媒体,讲座的开场他引用了吴晓波的一句话,“突发记者还在,深度报道的记者变少”。
他在讲座中说,“早期媒体最繁盛的地方是南方报业,引领着门户的走向。而现在门户都落伍了,都选择自媒体了。有些酒席上,主办方会把自媒体的大V放在主桌,传统媒体放在次桌,真的是三百年未有之变局对于传统媒体来说。”
前往公司任职后,韩福东鲜少再公开发表对新闻媒体的评论。《不止不休》里的那句话,成了他最近一次送给年轻媒体人的忠告:很多人把记者仅仅当成一个职业,我希望你能保持理想。
来源:传媒特训营
编辑:屈妍君

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表