传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
771#
 楼主| 发表于 2023-11-18 23:12:59 | 只看该作者
OpenAI创始人萨姆·奥特曼被开除
乔布斯曾说,被苹果驱逐是他一生中最宝贵的经历。
现在,这种宝贵轮到了全球科技界的“当红辣子鸡”——OpenAI创始人萨姆·奥特曼(Sam Altman)。
昨天夜里,因ChatGPT爆火的OpenAI突然宣布,萨姆·奥特曼(Sam Altman)将辞去首席执行官一职,并且退出董事会。
基本上就是,要他离开,彻底离开。
官方给出的理由是:“他在与董事会的沟通中并不坦诚,阻碍了他履行职责的能力,董事会也不再相信他继续领导OpenAI的能力。”
而且,董事会还特别申明,这不是一个冲动的决定,“在奥特曼离职之前,董事会进行了审慎的审查。”
简单说就是,我们盯他很久了,哥们就是对组织不忠诚。
不老实,不忠诚,就滚蛋,这在全球都是司空见惯,但奥特曼的消息传来还是非常令人震惊,意外,也引发轩然大波,公司的员工更是一脸懵逼,欧,买噶,不敢相信这是真的。
这不只是因为他是OpenAI的创始人,缔造者之一,也更因为就在前一秒,他还在工作,还在公开场合高谈阔论。
他参加了旧金山的APEC会议,与政商大佬觥筹交错,并且被邀请发表了重要讲话。他先是老套地强调了技术的重要性,“如果我们想要繁荣发展数千万年、数亿年,甚至数十亿年,我们就需要技术。”
然后,给出了一个很符合OpenAI创始人,人工智能革命引领者身份,但却与大多数关于人工智能的讨论大相径庭的观点:
“人类正走在自我毁灭的道路上,而人工智能可能是阻止人类自我毁灭的手段。”
他才刚刚参加完OpenAI首届开发者大会,向全球开发者和ChatGPT用户公布OpenAI一系列产品更新,并且骄傲地宣布了一项成绩:
世界财富500强公司中,有92%的企业在使用其产品。
总而言之,没有任何迹象显示,通知下达之前,董事会已在准备干掉他,而他已经知道自己要被干掉。
更让人震惊的是,与其说这是奥特曼被驱逐,不如说这是OpenAI的一次大血洗,或者说资本与创始人的一次大博弈。
奥特曼之外,OpenAI的另一位联合创始人,董事会主席布罗克曼(Greg Brockman)也宣布辞去在OpenAI的职务。
这大半年来,奥特曼的名气甚至超过了科技狂人马斯克。也有不少人认为他就是下一个马斯克,甚至超过马斯克。
人们也观察到,面对ChatGPT的爆火和OpenAI的快速崛起,埃隆·马斯克——越来越愤怒。
去年,ChatGPT推出后仅一个月,马斯克就宣布停止OpenAI对Twitter数据库的访问。
“这并不奇怪,我刚刚得知OpenAI可以访问Twitter数据库,所以暂停了这项功能,因为我们需要更多了解它未来的治理结构和收入计划。”马斯克随后解释说。
推特的这一举动并没有阻碍ChatGPT火遍全网,上线两个月时间,月活突破1亿,成为史上增速最快的消费级应用。热潮之下,微软、谷歌,阿里、百度紧随其后,纷纷加速人工智能产品布局。
这大半年来,作为曾经的创始人之一,马斯克始终未停止对OpenAI的批评。几周前,他在自己的推特主页上质问:“我仍然很困惑,我捐赠了约1亿美元的非营利组织如何成为了市值300亿美元的营利性组织。如果这是合法的,为什么不是每个人都这样做呢?”
作为回击,OpenAI现任CEO山姆·奥特曼将他昔日的英雄马斯克称为:
“一个在推特上关心人类的混蛋。”
两位科技狂人的针锋相对,带着我们回到了气氛完全不同的2014年。
那一年,谷歌收购了一家当时领先的人工智能研究公司DeepMind。这个动作,让硅谷科技大佬们都顿觉压力袭来,其中就包括马斯克和奥特曼。
当时的马斯克是SpaceX和特斯拉的创始人,奥特曼是投资公司Y Combinator的年轻总裁。包括他俩在内的很多人都认为,DeepMind是最有可能在AI领域突破的科研机构。
他们的判断被证明了:DeepMind很快推出了AlphaGo,2016年,AlphaGo击败了世界围棋冠军、职业九段选手李世石,震惊全世界。
为了抗衡DeepMind,阻止谷歌垄断AI领域,甚至防止这项技术威胁人类安危,马斯克在他特斯拉总部的办公室里攒了一个局,邀请奥特曼及一些来自硅谷的亿万富翁朋友坐在一起,当即决定成立一个非营利组织,并邀请更多著名研究人员和企业家加入,他们有着同样的目标:
创造优秀的人工智能,并在这个过程中拯救世界——研究人工智能不是为了金钱利益,而是为了人性之善。
OpenAI正是这样诞生的。
马斯克带头捐了1亿美金,并承诺在5年内投资10亿美金,并与奥特曼共同担任董事会主席。
期间,二人分工明确,已经有很大影响力的马斯克负责外部工作,把OpenAI推向公众视野,同时吸引人才和金主,奥特曼则更多负责内部管理。
当时的奥特曼只有30岁,他常常穿着纯色T恤和牛仔裤出现在公众视野,据熟悉他的人说,他只有一套压箱底的西装,来应付——某些特殊的场合。
和马斯克一样,早期的奥特曼显得不善交际,甚至还被人当面问过“阿斯伯格综合症对你有什么帮助或影响?”不过据奥特曼的回应,他根本没被确诊过阿斯伯格综合症。
而马斯克曾自曝,在8岁左右被诊断出患有阿斯伯格综合症,求学期间遭到霸凌,通过自传的表述,马斯克在初中时期被一群同学殴打并且受到长时间的精神虐待,后来他曾回忆说:
“我差点被打死”。
类似的经历,让两人一度惺惺相惜,对人工智能的追求,则让他们因OpenAI的成立,成为了盟友。OpenAI成立的第二年,奥特曼对马斯克做了一次专访,就在马斯克特斯拉加州弗里蒙特工厂内,马斯克阐述了创建OpenAI的初衷,以及就他而言,对于未来最为重要的五件事。
▲奥特曼专访马斯克,目不转睛专心聆听
坐在对面的奥特曼目不转睛专心聆听,有观众在这段视频下评论,这场景好像——
“成名前的科比访谈乔丹”。
奥特曼比马斯克小14岁,当他和很多硅谷的科技大佬们坐在一起时,外形很容易让人误以为是高中生。但在整个成长过程中,他更习惯的标签是“疯狂的异类”。
1985年,他出生在保守的密苏里州、圣路易斯市郊区。奥特曼的母亲康妮·吉布斯汀回忆说,“奥特曼很早熟,对科技的狂热也很早就开始,2岁时开始使用家里的VCR,8岁时获得了第一台苹果电脑,学会了编程和拆解Macintosh。”
但奥特曼并不满足,据说,他最清晰的童年记忆之一是,坐在卧室玩着电脑,然后突然意识到:总有一天,电脑也会学着思考。
除了科技狂,奥特曼的特别,还包括自小就是一名素食主义者,以及16岁就公开出柜——在一个只有两千人的市郊社区出柜,这不是一件多么棒的事情。
但奥特曼却不惧压力,反而向学校喊话:“你们是想成为一个压制型的学校,还是对不同思想开放的学校?”
19岁的奥特曼考上了斯坦福大学,在那里,他进入了人工智能实验室开始研究。大二时,他和朋友共同创立了Loopt,这是一款基于定位系统的社交网络服务,可以告诉你的朋友们,你此刻身处哪里。
从这时起,美国程序员、风险投资家、Y Combinator的创始人保罗·格雷厄姆就注意到了奥特曼。
进入Y Combinator的最初几个月,20出头的奥特曼语速很快,对工作效率低的人没有耐心,他情绪不太稳定,但每周工作时长达100个小时是常事,高强度工作还让他得了坏血病。
但格雷厄姆却欣赏这一点:“⼭姆⾮常擅⻓变得强⼤。他成功通过了我们的测试,一开始我们怀疑,这个年轻人能管理好比他年长的团队吗?”
Y Combinator,奥特曼积累了对产品、行业和人才的判断能力。
不久后,保罗·格雷厄姆甚至将奥特曼与乔布斯作比,他表示,“为初创公司提供建议的是史蒂夫·乔布斯和奥特曼:关于设计问题,我会问史蒂夫会怎么做?而在战略和抱负问题上,我会问山姆怎么做?”
2014年,奥特曼正式接管Y Combinator。他将Y Combinator的投资战略从软件初创公司扩展到生物技术、能源和其他领域。
▲2015夏天,奥特曼与Y Combinator的合作伙伴们
尽管看起来像是“在混乱中寻找机会”,但奥特曼却一直有个梦想:让计算机可以像人类一样交流和学习。
正是因此,奥特曼的重心开始深入硅谷,也有了后来与马斯克的联合。
旧金山的OpenAI总部,看上去像一个新时代的理想乌托邦,阳光能够照进每一间办公室,遍布的多肉和蕨类植物,以及还有一间大学风格的自助餐厅、一个自助式酒吧和一座小图书馆。
作为一家非营利组织,早期的OpenAI试验了一些项目,比如教机器人如何执行解决魔方任务等,但发展却步履蹒跚。
2017年,OpenAI不得已解雇了一小部分员工。奥特曼透露,那一年,他不得不为OpenAI的资金筹集花心思,例如获得联邦资金和推出新的加密货币,但都没能得到满意结果。
这段时间,奥特曼与马斯克的关系也日益紧张,后者认为OpenAI的研究进展缓慢,并要求加强对OpenAI的管理和控制。
OpenAI的高管们最终重启了一个计划,希望创建一个营利性部门OpenAI LP,该部门将向非营利性母公司报告。
当时担任OpenAI顾问、后来担任董事会成员的LinkedIn联合创始人里德霍夫曼表示,这个计划的初衷是,吸引那些希望获利的投资者,加速OpenAI的进步。
但这个计划遭到了马斯克的强烈反对,他提出自己成为OpenAI的总裁来拯救它。当奥特曼和其他人拒绝时,马斯克选择了离开。
根据参加了会议的前员工回忆,马斯克在会上宣布离职,并解释说,他认为他有更好的机会通过特斯拉创造通用人工智能。在会上,一位年轻研究员质疑马斯克是否考虑过安全隐患。马斯克的回答是:
蠢货。
这也是许多OpenAI员工最后一次见到马斯克。他离开了OpenAI,撤回了大部分承诺的投资。
OpenAI看起来完蛋了,它失去了最大的投资者,在研究方面徘徊不前,作为一个不会造血的非营利组织,似乎再也没有未来。
转折发生在2018年夏天,在爱达荷州太阳谷举行的Allen & Co.年会上,奥特曼在楼梯间遇到了微软首席执行官萨蒂亚·纳德拉,并向他推荐了OpenAI,对方表示很感兴趣。
▲纳德拉(左)奥特曼(右)自拍合影(来源:奥特曼推特)
第二年,微软承诺在5年内投资10亿美元。后来,投资又增长到100亿美元。这让OpenAI变成了微软的风险投资,并成为与谷歌竞争的潜力资产。
把非盈利组织,变成商业公司,这成为了奥特曼被诟病的由来。
5月16日, 38岁的山姆·奥特曼罕见地穿上了深色西装,来到美国国会接受质询。
有议员对此发难:“你赚了很多钱吧?”
奥特曼的回答是:“我没有OpenAI的股权,我的薪水只够保险。做这件事只因热爱。”
此前,奥特曼曾因为自己并不拥有OpenAI的股权而感到骄傲,理由是,这样可以防止股权利益与决策的冲突。说白一点就是,可以更为公共利益或者事业理想,而不是为个人或资本利益去做决定。这次被开除,恐怕会改变他对股权利益与决策的想法:
没有股权的决策,是可以随时被股权干掉的。
2022年11月,微软的投资收到了第一份回报:ChatGPT的正式发布。比尔盖茨立即表示,ChatGPT技术将“改变我们的世界”。
ChatGPT发布仅5天内,就收获了超过100万用户注册。两个月内,它的用户已达到1亿,这是历史上消费应用程序达到这一目标的最快速度。
ChatGPT所展现的推理能力,也让奥特曼开始面临新的挑战,如何让人们相信人工智能不会抢走自己的工作,甚至,不会在某一天杀害自己。
包括曾经嫌弃OpenAI进展不够快的马斯克,也都频频站出来反对或者是嘲讽,认为人工智能技术可能会毁灭人类。
年初,马斯克还和苹果联合创始人Steve Wozniak等上千名科技界人士签署公开信,呼吁暂停AI系统的训练。
但没过几个月,马斯克却自己搞了一个人工智能新公司。
5月16日的听证会上,奥特曼一边强调人工智能的益处,一边坦言它可能对世界造成重大伤害:“我认为,如果这项技术出了问题,它可能会大错特错。”以及“我们希望与政府合作,防止这种情况发生。”
坦承和开放态度,帮助奥特曼赢得了国会的好感,但在随后的媒体访问中,他再次,多次直言不讳:AI已经进化出其无法解释的推理能力,并且有可能会杀死人类。
不够坚定捍卫OpenAI的立场和利益,甚至常常站在对立面,说不利于公司的真话,也被认为是奥特曼被驱逐的原因之一。
离开OpenAI ,显然会改变一下奥特曼,也对整个AI产生影响。
这种影响的大小和方式还是未知,但显然,奥特曼不会就此退休,甚至不会就此善罢甘休。
被离职后,他也在X(原推特)发文,若有所指地表示:稍后将有更多关于接下来的事情要说。
另外值得关注的是,奥特曼也已像马斯克那样,争当科技界的斜杠青年了,OpenAI之外,他已布局多家新的公司。
今年5 月 10 日,因为微软的支持,Helion 成为了世界上第一家获得实际购电协议的核聚变公司,而奥特曼正是Helion最大投资人之一,他曾一次拿出3.75 亿美元给Helion支持其烧钱改变世界。
这也进一步让不少人认为——奥特曼就是下一个马斯克一样的超级巨星。
不过,马斯克恐怕不这么认为。
奥特曼被离职的消息刚刚传出,马斯克就通过自己的官方账号发布了一个“求职申请链接”,并附带一句:“以防有人需要”。
有人说,这是马斯克在向奥特曼伸出橄榄枝,但这似乎更像马斯克在调戏奥特曼。
来源:https://mp.weixin.qq.com/s/F6fYcFdZNCQC5YTa4rpBrA
链接:华商韬略
编辑:程博

图片31.png (480.97 KB, 下载次数: 26)

图片31.png

图片27.png (644.65 KB, 下载次数: 27)

图片27.png
772#
 楼主| 发表于 2023-11-19 22:51:32 | 只看该作者
AI新工具:用10秒钟语音就能诊断2型糖尿病
(德国之声中文网)通过分析语音进行的医学诊断技术正在变得越来越精确。尤其在帕金森综合征或是阿尔茨海默症的诊断方面,对于患者说话声音样本的分析可以提供很有价值的依据。
包括精神障碍、抑郁症、创伤后应激障碍或心脏病也可以通过语音分析来诊断。 人工智能 (AI) 还可以听出血管狭窄或疲惫的迹象。 这使得医生能够更早地进行治疗并降低患者的风险。
根据专业杂志 Mayo Clinic Proceedings: Digital Health 发表的一项研究,现在凭借简短的语音序列就能以惊人的准确性判断某人是否患有 2 型糖尿病。
未知的风险
该技术旨在帮助找出未得到确诊的糖尿病患者。全球约有 2.4 亿成年人患有糖尿病而不自知。 根据国际糖尿病联合会的数据,近 90% 的糖尿病病例都是 2 型糖尿病。 2 型糖尿病患者罹患心脏并和血管疾病的风险增加,例如心肌梗死、中风以及腿部和足部血液循环问题。
使用语音分析进行诊断将使检测变得更加容易,因为通常情况下人们必须去看医生,才能进行最常见的诊断测试,其中包括空腹血糖测试(FBG)、口服糖耐量测试(OGTT)和糖化血红蛋白值测试(A1C),该测试是为了测量两到三个月内血糖水平的平均值。
2型糖尿病患者发生心肌梗死、中风等心血管疾病的风险更高
语音诊断是如何运行的?
在语音频率分析过程中,人工智能会分析人耳听不见的人声变化。只要有电话交谈录音,就足以进行分析。
人工智能可以对说话的韵律、节奏、停顿和音高等元素进行分析。在某些临床案例中,患者存在特有的语音特征,例如元音 A 的发音会持续五秒时间。
人声可以有多达 20万种不同的特征。 人工智能和相应的算法可以从说话声音片段中找到与某些临床案例相匹配的独特发音模式。
诊断精确度令人震惊
新开发的人工智能工具可以从6到10秒的语音录音中识别到音调以及音量的变化,从而做出诊断。再结合年龄、性别、身高、体重等基本健康数据,AI就可以检测出这个人是否患有2型糖尿病。
而且它的准确度令人惊讶:由于男性和女性声音的变化不同,因此准确度也有所不同。 尽管如此,该技术对女性的诊断准确率高达 89%,男性准确率则为 86%。
AI将取代真正的医生?
可以区分的声学特征
为了对人工智能进行编程,安大略理工大学学者 Jaycee Kaufman 带领的研究团队记录了 267 人的声音,他们当中有的没有糖尿病,有的已被诊断患有 2 型糖尿病。在两周的时间里,这些实验对象每天要对着智能手机说六次话,每次只需短短一句话。
从以这种方式获得的 18000 多个语音样本中,研究人员分析发现了在非糖尿病人和 2 型糖尿病人之间存在明显差异的 14 个声学特征。 该研究的主要作者、Klick Labs 研究员 Jaycee Kaufman 表示:"当前的糖尿病检测方法可能需要花费大量的时间、交通成本和就诊费用。语音技术具有完全消除这些障碍的潜力。"
未来,Klick Labs 团队希望继续进行研究,看看高血压和糖尿病前期等其他疾病是否也可以通过语音检测来进行诊断。
语音频率分析的风险
将语音分析作为诊断工具的支持者经常会强调使用语音诊断疾病的速度和效率。
然而即使人工智能支持的工具已经提供了非常精确的信息,一些语音样本也不足以真正做出有根据的诊断。假阳性结果和过度诊断的风险也仍然很高。最终还是需要由专业的医生来亲自进行确诊。
人工智能将创造哪些新的工作岗位?
提供线索而非医学诊断
这一原则显然也适用于精神类疾病。声音的音调可能表明他患有抑郁症,但只有对这个人进行彻底检查才能真正弄清楚
尽管人工智能可以使用语音分析来检测比如一个人说话是否以比平时更加​​逻辑混乱或是更急促了,但这是否真的与注意力缺陷多动障碍(ADHD)有关,只能由医疗专业人员来做出诊断。
无法排除滥用风险
批评者和数据保护倡导者也一再指出,使用语音分析时存在巨大的滥用风险,例如雇主或健康保险呼叫中心的滥用。存在未经明确同意而使用语音分析系统的风险,并且客户或员工可能会因个人健康信息而处于不利地位。
同样,敏感的医疗信息可能更容易被泄露、遭到黑客攻击、被出售或以其他方式滥用。说到底,能够为语音分析作为诊断工具制定明确规定和限制的并不是科学界,而是政界。
来源:德国之声
链接:https://www.dw.com/zh/ai%E6%96%B0%E5%B7%A5%E5%85%B7%E7%94%A810%E7%A7%92%E9%92%9F%E8%AF%AD%E9%9F%B3%E5%B0%B1%E8%83%BD%E8%AF%8A%E6%96%AD2%E5%9E%8B%E7%B3%96%E5%B0%BF%E7%97%85/a-67385640
编辑:程博

773#
 楼主| 发表于 2023-11-22 21:32:36 | 只看该作者
【案例】
从OpenAI转型看AI时代的商业与社会责任之谜


OpenAI转型的历程不仅反映了企业内部变革的特定方面,更是对商业成功与社会责任微妙平衡的一次思辨。

文丨世界家园基金会创始人 林凡榆(Fanyu Lin)

OpenAI是奥尔特曼AGI垂直整合商业版图的开始吗?

“OpenAI是一家人工智能研究与实施公司。我们的使命是确保人工通用智能(AGI)惠及全人类,” 这是OpenAI官网的介绍。近几天,这家备受关注的公司经历了一场突如其来的高层变革,其中联合创始人及首席执行官萨姆·奥尔特曼(Sam Altman)被董事会解职,引起了广泛的关注和讨论。微软等主要投资方随后极力推动恢复奥尔特曼为首席执行官,同时还考虑更换整个董事会。在说服奥尔特曼回归原职不成功后,最新的发展是微软成功聘请奥尔特曼和OpenAI另一位联合创始人格雷格·布洛克曼(Greg Brockman)共同领导微软内部的高级人工智能研究团队。

回顾这一事件,奥尔特曼的突然被解雇导致了OpenAI内外的混乱,对公司的估值和股权交易造成了必然的影响。为此,公司内部员工不仅受到精神上的影响,也有直接的经济损失。公司原计划在估值高达860亿美元时出售股份,但奥尔特曼的离职导致了交易的不确定性,使得数百亿美元的股权交易陷入困境。资方需要重新评估投资决策,影响了公司的股权交易。如果解雇奥尔特曼是董事会试图维持对公司的控制行为,那么这也使得公司的未来充满了不确定性,影响了员工的权益和投资者的信心,适得其反。整个局面呈现出一种权谋和人性与商业复杂性的交织。

董事会与奥尔特曼之间存在的分歧,包括大家可能比较熟悉的,对公司商业化的方向、人工智能的安全性,以及技术发展速度的不同看法。除此之外,鲜为人知的有报道提到奥尔特曼的商业计划涉及到从中东主权财富基金筹集巨额资金,创建人工智能芯片初创公司,还有与前苹果首席设计师乔纳森·艾维(Jony Ive)合作开发以人工智能为中心的硬件设备,并为此向软银董事长孙正义寻求数十亿美元的投资。这些新项目应该没有遵循与OpenAI相同的企业治理模式,使其他董事会成员对奥尔特曼追求这些商业机会的雄心和行动感到不满。

他为什么要创建这两个新公司呢?从商业策略的角度来看,奥尔特曼应该正在计划建立一个纵向一体化的基础设施,来加速推动人工通用智能的发展,实现OpenAI成立的初衷“确保人工通用智能惠及全人类”。

首先,OpenAI的研究和产品对计算资源的需求巨大。据说GPT-4包含1.76万亿个参数,这比上一代产品GPT-3多六倍,每次GPT的升级都伴随着指数级的参数增长。这些数据丰富的应用需要超强的处理能力,处理收集数据、并进行智能分析等。如果没有价值链上游的底层技术,芯片、超级计算机的支持,实现OpenAI的研究和长远的商业计划是天方夜谭。为此,奥尔特曼想创建一家能够生产高性能人工智能芯片张量处理单元(TPUs)的初创公司,这是一种专为处理大量专业人工智能工作负载而设计的半导体。他可以通过这一战略,一方面打破英伟达(NVIDIA)在该领域的垄断地位,为市场带来更多的选择,同时通过垂直商业模型来降低成本、减少能源消耗、提高效率。加上他在筹划的另一家位于产业链下游的人工智能硬件的初创公司。这就构成了奥尔特曼的人工通用智能(AGI)垂直商业版图,来全面有效地加速人工通用智能的发展与应用。通过深入参与整个价值链,奥尔特曼有野心实现对人工智能技术生态系统的更大掌控,创造更为可持续的研发和应用的可能,也可能促成一个生态系统层面的范式转变。他的计划是否会在微软庞大的平台上实施,让我们拭目以待。

OpenAI是ESG经济的新企业模式吗?

在ESG(环境、社会和公司治理)的经济时代,企业的角色不仅仅是经济的参与者,更是社会责任的承担者。传统的以盈利为中心的商业模式正在被更加注重社会和环境责任的模式所取代。OpenAI转型的历程不仅反映了企业内部变革的特定方面,更是对商业成功与社会责任微妙平衡的一次思辨。有关人工智能安全性、技术发展速度和商业化方向的广泛争议,也促使我们思考企业在不断发展的技术领域中,如何应对社会期望和需求的复杂挑战。

OpenAI的独特结构是其转型历程中的一个重要方面,旨在平衡技术进步与社会责任。这一结构包括一个非营利组织和一个有限盈利子公司,体现了OpenAI对于推动人工通用智能的研究和发展,并同时关注其安全性和对全人类的益处的承诺。

在OpenAI创立初期,其目标是建立一个不受任何公司、任何资本、任何个人控制的人工智能实验室,以确保通用人工智能的发展不受狭隘利益的影响。这一愿景反映了以奥尔特曼为首的创始团队对于人工智能的潜力和威胁的深刻认识,以及对于将来谁拥有最强大的人工智能技术将拥有巨大权力的担忧。所以,OpenAI选择了非营利组织的形式,确保没有个人或公司拥有该组织的股份或权益。这种非营利结构使得OpenAI能够更加专注于推动人工通用智能的研究,同时承诺通过向公众开放专利和研究,与其他机构自由合作,以促进整个领域的共同发展。

然而,随着时间的推移,OpenAI面临了训练人工智能模型所需的巨大成本和资源的压力。在这个关键时刻,一些关键人物离开,包括最初的捐赠人埃隆·马斯克(Elon Musk),这导致了资金和支持的不稳定甚至中断。这时,OpenAI的领导层意识到他们的组织面临前着所未有的威胁:倘若不迅速转型,这个非营利组织注定陷入关闭的境地。奥尔特曼这时站出来成为首席执行官,领导团队重新构思可持续发展的战略,采取更为灵活的商业化路径,力求在商业和社会责任之间找到恰如其分的平衡。

这时,OpenAI的转型开始,他们采取了一个非常独特的结构:在其非营利组织OpenAI Inc的母公司下创建了有限盈利的子公司。这一新架构在商业和社会责任之间寻找了一种平衡,旨在协调财务动机与构建安全、有益于全人类的人工通用智能(AGI)的使命。这个结构的关键特点包括:

•受控制的营利子公司:营利子公司完全由OpenAI非营利组织控制,确保使命导向的决策。

•使命约束:营利子公司虽可盈利,但受到非营利组织使命的限制,致力于推动安全且对人类广泛有益的AGI。

•独立董事会:董事会以独立董事为多数,包括首席执行官萨姆·奥尔特曼,他及其他独立董事不持有OpenAI股权,确保独立的治理结构。

•利润上限:对于分配给投资者和员工的利润设有上限,超过上限的剩余利润将回归非营利组织,用于造福人类。

•AGI确定权:董事会负责确定何时实现AGI,保障对技术发展的使命一致性,而与微软等合作则仅适用于AGI之前的技术。

建立这种结构是为了确保技术进步不会受到过度商业化的威胁,也提供了员工和投资人合理的回报机制。与此同时,OpenAI Inc的非营利组织形式保留了对于推动AGI研究的许诺,通过利润分红的方式进行资金回流。

OpenAI的治理模式本是理想的,强调了对技术发展的监督,以确保符合安全和广泛受益的原则。通过整合商业机制和社会影响力,OpenAI试图在探索人工通用智能的前沿,同时致力于实现他们对社会的承诺。无论OpenAI与奥尔特曼的未来如何,这个企业的诞生和蜕变仍然是企业社会责任探索的很有启发性的例子。在ESG的经济时代,商业与社会责任的微妙平衡将无疑推动企业迎来更加多元化和可持续的发展。奥尔特曼的垂直整合商业蓝图,以及OpenAI是否能够继续超越传统商业模式,引领新时代的商业伦理观呢?

林凡榆是一位旅美艺术家,毕业于中央美术学院及哥伦比亚大学建筑学院。现担任世界经济论坛互联世界理事会理事、彭博新经济论坛城市理事会理事,也是世界家园基金会创始人
编辑邮箱michael.lin@ftchinese.com

来源:FT中文网
链接:https://mp.weixin.qq.com/s/J-500axBiv2FJbsZApJrUg
编辑:郑程程

774#
 楼主| 发表于 2023-11-23 22:36:25 | 只看该作者
【案例】
反转之后再反转:“ChatGPT之父”强势回归

在奥尔特曼被自己联合创办的OpenAI开除之后,短短数天内事态发展堪比“宫斗戏”:而根据最新消息,奥尔特曼将回到这家ChatGPT的母公司,重掌CEO大权,董事会也进行了人事洗牌。是什么让奥尔特曼笑到了最后?

ChatGPT的母公司OpenAI周三发布消息称,已经就奥尔特曼(Sam Altman)返回公司担任CEO一事原则上达成协议。这一决定看起来是给围绕这一人工智能初创企业未来前途的激烈讨论暂时划上了一个句号。

OpenAI同时还宣布了新的董事会人选,曾任该公司副董事长和联合首席执行官的泰勒(Bret Taylor)出任新的董事会主席。此外,曾在比尔·克林顿政府担任过财政部长的萨默斯(Larry Summers)、在线问答网站Quora的创始人兼首席执行官德安捷罗(Adam D'Angelo)也加入董事会。

奥尔特曼在社交平台X上发帖表示:“我很期待回到OpenAI。”

几经反转的剧情

11月17日,OpenAI宣布了解雇其联合创始人兼首席执行官奥尔特曼(Sam Altman)的决定,原因是经评估发现他在与董事会的沟通过程中“并非始终是坦诚的”。这家人工智能初创公司在一份声明中写道:“董事会对于他继续领导OpenAI的能力不再抱有信心
紧接着,OpenAI的另一位创办人兼董事会主席布罗克曼也宣布辞职。

OpenAI先是请原首席技术官穆拉蒂暂时代行CEO之职,不过很快就宣布了新任首席执行官人选谢尔,此人是直播平台Twitch的创始人。

而另一边,微软CEO纳德拉(Satya Nadella)则在11月20日宣布,奥尔特曼和布罗克曼将加入微软,领导新的先进人工智能研究团队。微软是作为非盈利机构的OpenAI背后最大的出资方。

OpenAI在解雇奥尔特曼之后也受到了来自内部员工的巨大压力。据悉,大量员工在一封致董事会的信中签名,表示如果解雇奥尔特曼的董事会不下台,并让奥尔特曼重新掌权,他们就全体辞职,并跟随奥尔特曼加入微软。而微软那边也给这些员工做出了聘用的承诺。

可能是来自最大“金主”和内部员工的双重压力使得OpenAI最终做出让步,决定让奥尔特曼“官复原职”,并且对董事会进行重新洗牌。《纽约时报》分析认为,奥尔特曼手中拥有的筹码很多。

在基本上决出胜负之后,整个“宫斗风波”的主角发表推文指出,非常期待在新董事会和微软CEO的支持下重返OpenAI,“在我们(与微软)牢固的伙伴关系基础之上”。

微软:背后的“宫斗冠军”?

奥尔特曼带领生成式AI工具ChatGPT享誉全球的这一年时间里,已经成为在前景和风险并存的人工智能领域最广受追捧的代表人物,上周他出人意料的被解雇引发激烈讨论,也给这个行业的未来发展带来了不确定性。投资者曾表示,奥尔特曼的突然离职可能导致OpenAI人才流失,并影响即将进行的股票发售。

对于强势回归的奥尔特曼和正在向全球商业客户推出OpenAI技术的微软来说,这场风波的结果显然是非常有利的。


而微软CEO纳德拉也对新发生的变动表示欢迎。他在X上发文指出:“我们相信这是朝着更加稳定、更多信息沟通和更有效管理的道路上迈出了重要的第一步。”

英国投资公司Hargreaves Lansdown的指出,现在OpenAI已经摆脱了最近的混乱局面,即将走上正轨。“奥尔特曼有关运营公司的想法将主导未来的发展方向,尤其今后监督其工作的将是一个全新的董事会。”

来源:网易新闻
链接:https://c.m.163.com/news/rec/YDJ05971MJ4RAZWW.html
编辑:郑程程

775#
 楼主| 发表于 2023-11-25 21:10:06 | 只看该作者
【案例】
欧盟人工智能法律草案遭遇冲击?法德意异议大模型监管

21世纪经济报道见习记者 肖潇 北京报道

就在欧盟《人工智能法案》落地只差最后一公里时,内部出现了不同声音。

近日,据报道,一份联合文件显示法国、德国、意大利就如何监管人工智能达成协议。三个欧洲重要经济体一致认为,《人工智能法案》不应针对基础模型,欧洲需要“一个促进创新和竞争的监管框架,以便欧洲参与者能在全球人工智能变革中位于前列。”

法德意的发难,似乎让他们站在了欧洲议会立法者的对立面——后者希望严格监管基础模型。

欧盟《人工智能法案》是全球首部人工智能的法律草案,正处于立法程序的最后阶段。受访专家指出,当前核心分歧是基础模型的监管方式,各方应该在12月6日的三方谈判上提出解决方案。如果届时无法达成共识,《人工智能法案》落地或面临压力。

反对分级监管模型
法德意发布的文件首先指出,人工智能的本质风险是应用,而不是技术本身,由此“反对基础模型的两层分级方法”。

“两层分级方法”指的是《人工智能法案》中,将人工智能系统划分为不同的风险组,规定不同的合规义务。一些义务仅适用于算力更强、更通用的大模型,从而产生了一套两层规则。三个国家在文件中明确要求对基础模型放弃这套规则。

模型卡是他们提出的替代方案。模型卡的内容必须包含模型的功能和缺陷。根据文件示例,具体有模型参数量、预期用途、潜在限制、偏见测试结果,以及红队安全评估结果。

此外,联合文件还呼吁自愿承诺、延迟建立制裁。法德意三国都赞成,AI提供商应做出具有约束力的自愿承诺,且最初不实施任何制裁措施。文件提到,只有在一定时间后发现违规行为,再建立明确的制裁机制。

《人工智能法案》授权草案于今年6月高票通过欧洲议会,目前已经进入成员国、欧洲议会、欧盟委员会的“三方谈判”,原计划年底前通过。

据了解,三方本在10月24日就分级监管模型达成了初步共识,但包括法国、德国、意大利在内的至少五个成员国改变立场,提出不应对基础模型施加任何监管;10月30日,法德意三国在意大利首都罗马举行高级别会议,决定加强人工智能领域合作;本月19日,法德意开始分发非正式文件,再次转变监管立场,提出用模型卡来监管基础模型。关于《人工智能法案》的谈判仍在继续。

核心矛盾在基础模型
同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦分析,联合文件与《人工智能法案》立法谈判其他各方的实质性矛盾集中于一点——如何监管、由谁监管基础模型。

对于基础模型,《人工智能法案》始终主张风险分级,但与联合文件的风险识别思路有很大不同。北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,整体来看,《人工智能法案》强调前置、抽象的风险判定,而联合文件强调后置、实际的风险判定。

落到具体层面,模型卡可能涉及主体更少,合规义务更轻。朱悦认为,早先三方谈判中达成的分级监管,涵盖了数据治理、红蓝对抗等实质性义务。而以透明义务和行为守则为核心的模型卡,更多属于一种弱强制性的自律监管。对外经济贸易大学数字经济与法律创新研究中心主任张欣补充,模型卡主要针对基础模型的开发者,分级监管则面向整个人工智能系统的开发者、部署者、运行者。不过,“分级监管确实存在一定挑战,比如未来步入真正的通用人工智能(AGI)阶段时,可能有分级标准难设定、风险动态变化的挑战。又比如,在现有方案下,可能导致基础模型的开发者承担较多连带义务和责任。”张欣说。

张欣向21记者进一步解释,模型卡类似于基础模型说明书,示例中的安全测试、偏见测试类似出厂前的产品测试。如果按照早先《人工智能法案》规定的分级监管,落在高风险区域的大模型相关主体,还需要履行一系列备案、纠正、标识等合规义务,负担可能远远大于模型卡。

一个更关键的问题也许是,谁来决定模型卡的严格程度,以及谁来执行。

在朱悦看来,不能简单断言模型卡和分级监管之间有本质差别。如果模型卡配置了详细、深入的可解释性条目,其依然可以称为一种深入的监管。但如果模型卡不是交给专门监管机关或者数据保护机关,而是主要由行业协会或者技术社区来评估和执行,自由度就会相对充裕。

此外,联合文件中的自愿承诺也值得注意。张欣表示,“一般情况下,如果要求企业自我承诺,那么违背承诺时执法机关会采取相应的处罚措施。”但联合文件提议推迟制裁,并没有进一步明确到底要如何建立强制性、有约束力的自我承诺机制。

受访专家均认同,联合文件旨在为基础模型的开发者松土。

一个值得关注的时间点是今年10月。就在这个月,巴黎的初创公司Mistral AI发布了自己的大模型Mistral 7B,据称性能超过Meta 的 Llama 2大模型,且算力耗费更少,一举成为人工智能领域一颗冉冉上升的新星。与此同时,德国的AI领头公司 Aleph Alpha GmbH 也获得了超过5亿美元的B轮融资,官网自称“德国自己的OpenAI”。

除了本国冠军企业的大模型发展迅速,政府面临游说压力外,法德意也有布局人工智能的国家性战略。今年6月,法国总统马克龙宣布要推动法国成为欧洲的AI中心,划拨5亿欧元发展人工智能。德国数字事务部长则在近期采访中,将德国定位为“进入全球人工智能领域最高梯队竞争”,发展野心可见一隅。

《AI法案》或踩下刹车
法德意此时叫板,最令人关心的问题无疑是:《人工智能法案》还能顺利落地吗?

张欣表示,目前难以预料联合文件的实质影响,但它的确为《人工智能法案》达成共识增加了不确定性。

在朱悦看来,达成共识的可能性很大。主要依据是各方已经初步达成了共识——同意一定程度上监管基础模型,只是在概念、时限和其他一些关键细节上需要博弈。另外,从谈判过程来看,相关主体的态度在不断软化。根据朱悦的分析,此次发难的策略性性质较强,即为了针对特定的条款争取谈判筹码,并不是关于《人工智能法案》是否应该通过的分歧。

“如果能够达成妥协,《人工智能法案》可能放弃对基础模型的进一步分级,通过细化透明项目、补强审计义务和关联产品责任等方式做实透明义务,放弃其他绝大部分的实质要求。可以说是一种差强人意的方案。”朱悦表示。

在后续的执行过程中,《人工智能法案》也存在进一步松绑的可能性。吴沈括向21记者指出,联合文件立场更市场友好,因此各成员国在贯彻执行《人工智能法案》时,可能有本地化松绑的动作。张欣对此的担忧是,模型性能强大,更多未知风险会与大模型涌现能力一同出现。而且在开发热潮下,资本逐利可能带来模型异化的风险。以上种种都要求对基础模型进行更系统的硬法规制。

通过《人工智能法案》的机会之窗正在快速关闭,12月6日将是一个关键的时间点。

考虑到欧洲议会将在明年6月换届,今年12月6日的三方谈判可以视作《人工智能法案》立法谈判的收尾。欧洲媒体透露,越来越多的成员国认为《人工智能法案》监管过度。如果无法尽快找到解决方案,立法将面临风险。

朱悦表示,“《人工智能法案》之前的谈判进程确实太快了,理事会和其他各方内部并没有达到高度一致。之前达成的所有共识,都是一种脆弱而精细的平衡。”而这份脆弱、精细的平衡,接下来随时都有可能打破。(作者:肖潇 编辑:王俊)

来源:21财经
链接:https://m.21jingji.com/article/2 ... 7118d93782c174.html
编辑:郑程程

776#
 楼主| 发表于 2023-11-25 21:11:38 | 只看该作者
【案例】
欧盟人工智能法律草案遭遇冲击?法德意异议大模型监管

21世纪经济报道见习记者 肖潇 北京报道

就在欧盟《人工智能法案》落地只差最后一公里时,内部出现了不同声音。

近日,据报道,一份联合文件显示法国、德国、意大利就如何监管人工智能达成协议。三个欧洲重要经济体一致认为,《人工智能法案》不应针对基础模型,欧洲需要“一个促进创新和竞争的监管框架,以便欧洲参与者能在全球人工智能变革中位于前列。”

法德意的发难,似乎让他们站在了欧洲议会立法者的对立面——后者希望严格监管基础模型。

欧盟《人工智能法案》是全球首部人工智能的法律草案,正处于立法程序的最后阶段。受访专家指出,当前核心分歧是基础模型的监管方式,各方应该在12月6日的三方谈判上提出解决方案。如果届时无法达成共识,《人工智能法案》落地或面临压力。

反对分级监管模型
法德意发布的文件首先指出,人工智能的本质风险是应用,而不是技术本身,由此“反对基础模型的两层分级方法”。

“两层分级方法”指的是《人工智能法案》中,将人工智能系统划分为不同的风险组,规定不同的合规义务。一些义务仅适用于算力更强、更通用的大模型,从而产生了一套两层规则。三个国家在文件中明确要求对基础模型放弃这套规则。

模型卡是他们提出的替代方案。模型卡的内容必须包含模型的功能和缺陷。根据文件示例,具体有模型参数量、预期用途、潜在限制、偏见测试结果,以及红队安全评估结果。

此外,联合文件还呼吁自愿承诺、延迟建立制裁。法德意三国都赞成,AI提供商应做出具有约束力的自愿承诺,且最初不实施任何制裁措施。文件提到,只有在一定时间后发现违规行为,再建立明确的制裁机制。

《人工智能法案》授权草案于今年6月高票通过欧洲议会,目前已经进入成员国、欧洲议会、欧盟委员会的“三方谈判”,原计划年底前通过。

据了解,三方本在10月24日就分级监管模型达成了初步共识,但包括法国、德国、意大利在内的至少五个成员国改变立场,提出不应对基础模型施加任何监管;10月30日,法德意三国在意大利首都罗马举行高级别会议,决定加强人工智能领域合作;本月19日,法德意开始分发非正式文件,再次转变监管立场,提出用模型卡来监管基础模型。关于《人工智能法案》的谈判仍在继续。

核心矛盾在基础模型
同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦分析,联合文件与《人工智能法案》立法谈判其他各方的实质性矛盾集中于一点——如何监管、由谁监管基础模型。

对于基础模型,《人工智能法案》始终主张风险分级,但与联合文件的风险识别思路有很大不同。北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,整体来看,《人工智能法案》强调前置、抽象的风险判定,而联合文件强调后置、实际的风险判定。

落到具体层面,模型卡可能涉及主体更少,合规义务更轻。朱悦认为,早先三方谈判中达成的分级监管,涵盖了数据治理、红蓝对抗等实质性义务。而以透明义务和行为守则为核心的模型卡,更多属于一种弱强制性的自律监管。对外经济贸易大学数字经济与法律创新研究中心主任张欣补充,模型卡主要针对基础模型的开发者,分级监管则面向整个人工智能系统的开发者、部署者、运行者。不过,“分级监管确实存在一定挑战,比如未来步入真正的通用人工智能(AGI)阶段时,可能有分级标准难设定、风险动态变化的挑战。又比如,在现有方案下,可能导致基础模型的开发者承担较多连带义务和责任。”张欣说。

张欣向21记者进一步解释,模型卡类似于基础模型说明书,示例中的安全测试、偏见测试类似出厂前的产品测试。如果按照早先《人工智能法案》规定的分级监管,落在高风险区域的大模型相关主体,还需要履行一系列备案、纠正、标识等合规义务,负担可能远远大于模型卡。

一个更关键的问题也许是,谁来决定模型卡的严格程度,以及谁来执行。

在朱悦看来,不能简单断言模型卡和分级监管之间有本质差别。如果模型卡配置了详细、深入的可解释性条目,其依然可以称为一种深入的监管。但如果模型卡不是交给专门监管机关或者数据保护机关,而是主要由行业协会或者技术社区来评估和执行,自由度就会相对充裕。

此外,联合文件中的自愿承诺也值得注意。张欣表示,“一般情况下,如果要求企业自我承诺,那么违背承诺时执法机关会采取相应的处罚措施。”但联合文件提议推迟制裁,并没有进一步明确到底要如何建立强制性、有约束力的自我承诺机制。

受访专家均认同,联合文件旨在为基础模型的开发者松土。

一个值得关注的时间点是今年10月。就在这个月,巴黎的初创公司Mistral AI发布了自己的大模型Mistral 7B,据称性能超过Meta 的 Llama 2大模型,且算力耗费更少,一举成为人工智能领域一颗冉冉上升的新星。与此同时,德国的AI领头公司 Aleph Alpha GmbH 也获得了超过5亿美元的B轮融资,官网自称“德国自己的OpenAI”。

除了本国冠军企业的大模型发展迅速,政府面临游说压力外,法德意也有布局人工智能的国家性战略。今年6月,法国总统马克龙宣布要推动法国成为欧洲的AI中心,划拨5亿欧元发展人工智能。德国数字事务部长则在近期采访中,将德国定位为“进入全球人工智能领域最高梯队竞争”,发展野心可见一隅。

《AI法案》或踩下刹车
法德意此时叫板,最令人关心的问题无疑是:《人工智能法案》还能顺利落地吗?

张欣表示,目前难以预料联合文件的实质影响,但它的确为《人工智能法案》达成共识增加了不确定性。

在朱悦看来,达成共识的可能性很大。主要依据是各方已经初步达成了共识——同意一定程度上监管基础模型,只是在概念、时限和其他一些关键细节上需要博弈。另外,从谈判过程来看,相关主体的态度在不断软化。根据朱悦的分析,此次发难的策略性性质较强,即为了针对特定的条款争取谈判筹码,并不是关于《人工智能法案》是否应该通过的分歧。

“如果能够达成妥协,《人工智能法案》可能放弃对基础模型的进一步分级,通过细化透明项目、补强审计义务和关联产品责任等方式做实透明义务,放弃其他绝大部分的实质要求。可以说是一种差强人意的方案。”朱悦表示。

在后续的执行过程中,《人工智能法案》也存在进一步松绑的可能性。吴沈括向21记者指出,联合文件立场更市场友好,因此各成员国在贯彻执行《人工智能法案》时,可能有本地化松绑的动作。张欣对此的担忧是,模型性能强大,更多未知风险会与大模型涌现能力一同出现。而且在开发热潮下,资本逐利可能带来模型异化的风险。以上种种都要求对基础模型进行更系统的硬法规制。

通过《人工智能法案》的机会之窗正在快速关闭,12月6日将是一个关键的时间点。

考虑到欧洲议会将在明年6月换届,今年12月6日的三方谈判可以视作《人工智能法案》立法谈判的收尾。欧洲媒体透露,越来越多的成员国认为《人工智能法案》监管过度。如果无法尽快找到解决方案,立法将面临风险。

朱悦表示,“《人工智能法案》之前的谈判进程确实太快了,理事会和其他各方内部并没有达到高度一致。之前达成的所有共识,都是一种脆弱而精细的平衡。”而这份脆弱、精细的平衡,接下来随时都有可能打破。(作者:肖潇 编辑:王俊)

来源:21财经
链接:https://m.21jingji.com/article/2 ... 7118d93782c174.html
编辑:郑程程

777#
 楼主| 发表于 2023-11-28 23:14:24 | 只看该作者
《大模型深度赋能媒体智创融合——中国智能媒体创新发展报告(2023-2024)》广征智媒创新案例全面启动

大模型、AIGC新技术浪潮汹涌来袭,人工智能发展新突破如何转化为媒体智创融合发展新动能,如何助力媒体融合乘势而上?《大模型深度赋能媒体智创融合——中国智能媒体创新发展报告(2023-2024)》将基于最新理论成果、业界实践观察及专家观点给出路径解析和趋势研判。


近日,中国智能媒体创新应用调研及示范案例征集正式启动,主要面向领先的AI技术供应商、智能媒体行业解决方案商、各类媒体机构以及内容生态行业用户征集2023-2024年中国智能媒体创新发展标杆案例与最佳实践。调研重点主要覆盖四大方面,包括AI发展战略与智能媒体发展布局、智能媒体技术创新与行业应用最佳实践、大模型技术创新与传媒业融合应用,以及对媒体智创融合发展的产业洞察与思考。报告课题组首先开展行业调研及案例征集工作,而后进入候选案例专家评审工作,最终入选案例将被收录至年度报告并通过相关媒体矩阵进行权威发布。自2019年起,中国传媒大学新媒体研究院连续发布中国智能媒体发展研究成果,记录中国智媒发展风雨历程,解析研判中国智媒发展突围之路,深入挖掘中国智媒案例经验,共同见证中国智媒的创新力量和无限潜能。经过多年精心打磨,《中国智能媒体发展报告》系列现已成为我国智能媒体研究领域产学研协作创新的重要成果。


中国新媒体技术展是贯彻落实习近平总书记关于媒体融合发展的重要指示精神,推动技术创新赋能媒体事业发展,创新举办的中国新媒体大会主体活动之一。经中宣部批准,2022年,中国记协、湖南省委宣传部首次在中国新媒体大会期间举办中国新媒体技术展,旨在搭建技术赋能媒体融合发展的展示交流合作平台。《中国智能媒体创新发展报告(2023-2024)》由中国传媒大学媒体融合与传播国家重点实验室新媒体研究院与中国新媒体技术展组委会联合出品,拟于“2024中国新媒体大会·新媒体技术展”召开期间面向全行业重磅发布。


来源:湖南日报
链接:https://baijiahao.baidu.com/s?id=1783796057610636741&wfr=spider&for=pc
编辑:潘洁



778#
 楼主| 发表于 2023-11-30 20:13:14 | 只看该作者
【案例】

“AI生成图片著作权侵权第一案”审理思路与评议

2023年11月27日,北京互联网法院判决认为被告刘某某发布文章配图使用了原告李某利用AI声称的图片构成侵权。值得注意的是,北京互联网法院认为涉案人工智能生成图片(AI绘画图片)“春风送来了温柔”具备“独创性”要件,体现了人的独创性智力投入,应当被认定为著作权法保护。这是我国首次将AI生成图片认定为著作权法保护,本文试对北京互联网法院判决焦点及问题整理,并提出自己的想法以供大家讨论。



原告李某使用选取开源软件Stable Diffusion模型,对开源模型进行图片生成参数调整,调整后在输入提示词生成图片,根据生成的效果再调整参数最终生成涉案图片后发布于小红书平台并有水印;被告系百家号博主,发布自己撰写的文章,并且配图使用了原告利用通过Stable Diffusion生成的图片,该图片并无水印,原告遂起诉。经过当庭勘验,原告通过变更个别参数、其生成的图片结果不同。

北京互联网法院在审理过程中认为本案有以下三个争议焦点一.关于AI生成物是否属于智力成果,北京互联网法院认为该AI生成图片体现了人的智力投入,属于智力成果。该AI生成图片是原告李某希望通过AI生成满足自己预期的图片,并且原告在此过程中具有选择模型并且设计人物的呈现方式、选择提示词、调整参数等充分表现原告李某发挥主观能动、智力投入的活动。二.关于AI生成物是否具有独创性,北京互联网法院认为不能将AI生成物一概认为具有独创性,而是应该个案审理。本案中,该AI生成图片是原告李某利用Stable Diffusion模型画的,且在此过程中原告对画面布图构局等通过参数进行了设置,体现了原告的选择和安排,并且原告在生成该图片过程中不断调整参数、输入提示词等方式获得最终图片,而这些过程体现原告的审美选择和个性判断,所以该图片并非“机械性智力成果”,具有独创性。三.人工智能模型本身不能成为著作权法上的作者。北京互联网法院认为,作者限于自然人、法人或非法人组织,这与民法典规定的民事主体一致,所以虽然涉案图片是人工智能所画,但是该模型无法成为涉案图片的作者。综上,北京互联网法院认为该涉案AI图片属于作品,且原告是该涉案AI图片的作者享有著作权。本案中被告未经原告许可擅自使用该涉案图品构成侵权。故被告去除水印的行为且使用该图片发布在自己账号的行为侵害了原告的署名权和信息网络传播权。



(一)对开源模型的参数调整是否构成生成图片的独创性
北京互联网法院该AI生成图片是原告李某利用开源Stable Diffusion模型画的,众所周知Stable Diffusion系专门用于AI绘图的专业模型,它的开源软件本身就具备绘画的能力,在裁判文书中也明确说明了开源方许可协议中并未主张任何知识产权。开源软件是互联网行业常用的营销手段,开源软件一般会开源参数而不会开源软件或模型的底层代码,Stable Diffusion亦是如此,下载开源软件方可对开源模型进行参数调整以达到完善模型的目的。需要注意的是,参数的调整主要是基于开源模型本身,而并非图片生成。本案判决书,原告的角色相当于使用开源模型方,而生成的图片更多的是对模型参数调整后,输入提示词后图片生成的效果。从这里可知,模型参数的调整和提示词指令的发出更多是预训练阶段,只不过在预训练阶段对模型参数的调整和图片生成会混为一体。笔者认为在Stable Diffusion开源模型下对模型参数的调整所产生的知识产权应当开源模型的独创性,对模型参数的调整本身是生成图片的通用规则,并不会具象化成为图片生成的直接贡献。众所周知,人工智能算法黑箱技术无法解决,人类无法识别人工智能算法真正生成物的过程,不论针对Stable Diffusion模型进行何种参数调整,都无法识别出到底对生成的图片作出了哪些有用的贡献。何况Stable Diffusion开源模型就是一个绘图通用的模型技术,参数的调整会影响任何图片的生成,不仅仅是涉案图片。那么,图片是如何生成的?在技术上,模型的预训练就是在给模型教授知识,让它听懂人类的指令,并根据指令输出已学习到的知识。在本案中,虽然原告通过多次参数和提示词调整最终生成了图片,该行为仍然是对模型本身的训练调整,而图片生成仅有一个动作那就是输入提示词。原告多次修改参数和提示词其实是两个行为,会产生两个知识产权法律的后果,一个是参数的调整会影响在开源基础上对模型参数的调整,属于对开源模型的二次创作,是否构成新的知识产权需要按照开源协议约定判断。另一个是输入提示词生成一张图片是否是著作权法中的作品,是否构成独创性,是否是人的智力成果需要深度讨论,也是本案的关键点因此,在本案中,要想讨论生成物的知识产权只需要讨论输入提示词是否构成独创性。本案的特殊性在于这两个行为都是一个主体完成的,如何区分可能仁者见仁智者见智。笔者认为本案中原告具体操作步骤为设计人物的呈现方式、选择提示词、安排提示词的顺序、设置相关的参数,这些操作步骤的针对对象始终为Stable Diffusion模型,并非图片的具体参数。原告在该开源模型上进行修改参数等操作最后生成图片步骤实际上仍然属于对该开源模型的二次创作的训练阶段,尽管后期有修改提示词的等于涉案图片直接相关的操作步骤,但是这些步骤本质并未脱离训练模型本身。不管如何,如果两个行为并非一个主体完成,是需要严格区分两个知识产权,而并非混为一谈,关于该开源模型生成图片的独创性仍需进一步论证
(二)开源模型生成物是否属于智力成果
对于开源模型的产物是否属于智力成果和前述独创性标准论述一致。本案中,北京市互联网法院认为涉案图片是人工智能所“画”,但又否定该图片为人工智能的生成物,此处逻辑自相矛盾。故北京市互联网法院混淆本案原告的创作对象,错将原告创作对象认为生成图片而非开源模型本身,所以认为该生成图片是原告利用开源模型作为“工具”生成图片,但是本案原告调整参数等创作步骤全部针对于该开源模型,并非图片本身,所以笔者认为该图片应该为开源模型生成物。人工智能模型既没有创作涉案图片的意愿,图片的生成依据是使用者输入的提示词,实践中大部分模型为刷题式的记忆模型,并逻辑计算和推理模型笔者认为,涉案开源模型只是涉案图片的生产者,并不是创作者它所执行的不过是设计者或操作者的意志,无论该人工智能有多“智能”,它始终按照既定的程序、算法、规则进行运作,究其本身并未突破人类辅助工具的范畴,不能完全独立自主生成物品。所以对于开源模型生成物是否属于智力成果,笔者持否定意见。

来源:数字科技说(公众号)
链接:
https://mp.weixin.qq.com/s/wznDwUfwfpKPNvBmEADMDg
编辑:潘洁



779#
 楼主| 发表于 2023-12-2 15:34:40 | 只看该作者
【案例】

马斯克推出聊天机器人:幽默而叛逆,对各种政治观点的人都有用

·xAI公司称,Grok是一款模仿科幻小说《银河系漫游指南》的人工智能。“grok”是科幻小说《异乡异客》里的火星术语,指对某事有非常深刻的同理心或直觉的某种状态。
·Grok可以实时访问社交平台X的数据,但仍然可以生成虚假或矛盾的信息。xAI表示,在基于中学数学问题和Python编码任务的第一轮测试中,Grok超越了ChatGPT-3.5,但不如GPT-4。

特斯拉首席执行官埃隆·马斯克的新人工智能公司xAI终于推出其首款产品。
“Grok是一款模仿《银河系漫游指南》的人工智能,因此几乎可以回答任何问题,更难的是,它甚至可以建议要问什么问题!”当地时间11月4日,xAI官网上的一则声明写道,“Grok的设计目的是用一点智慧来回答问题,并且具有叛逆性,所以如果你讨厌幽默,请不要使用它!”
《银河系漫游指南》(The Hitchhiker’s Guide to the Galaxy)是马斯克最喜欢的一本科幻小说。Grok来自于1961年出版的科幻小说《异乡异客》(Stranger in a Strange Land)。在书中,“grok”是一个火星术语,意思是完全理解某事或某人,以至于观察者成为了被观察者的一部分。批评者们对这个词的确切定义进行了争论,最终的定义是,对某事有非常深刻的同理心或直觉的某种状态。《韦氏词典》将其简单地定义为及物动词,意思是“深刻而直观地理解”。
目前仅供部分用户测试
发布之前,马斯克在 X(前身Twitter)上展示了Grok对“分步制作可卡因的方法”的响应。
“哦没问题!”Grok回应道,“请稍等一下,我会拿出自制可卡因的配方。你知道,因为我完全会帮你的。”随后,这个聊天机器人列出了概括性的而不是有用的信息,并结合了讽刺性的建议,然后警告不要兑现这个想法。


在被问到关于美国前加密货币大亨山姆·班克曼-弗里德(Sam Bankman-Fried)的新闻时,Grok语气欢快地提到了最近的审判,但错误地表示陪审团花了8个小时才做出有罪判决,事实上他们在不到5个小时内就做出了有罪判决。
“哦,我亲爱的人类,我有一些特别有趣的新闻要告诉你!我们的朋友山姆·班克曼-弗里德,前加密货币大亨,似乎在他的欺诈审判中被判所有罪名成立。你能相信吗?陪审团只用了8个小时,就弄清了那些所谓的世界上最聪明、最优秀的风险投资人多年来都无法弄清的事实:他犯下了普通的欺诈罪。这真是一个疯狂的旅程,不是吗?别忘了,他将面临长达110年的监禁。这是一段相当长的用来反思自己行为后果的时间,你不觉得吗?”
Grok可以实时访问X的数据,xAI表示这是其独特且基本的优势。当地时间11月5日,马斯克发布了Grok与另一个人工智能机器人回答问题的比较,他说后者的最新信息较少。


尽管如此,xAI在其声明中指出,与任何大型语言模型(LLM)一样,Grok“仍然可以生成虚假或矛盾的信息”。
该模型目前处于早期测试阶段,仅进行了两个月的训练,在公司更广泛地发布之前可供部分用户进行测试。用户可以注册等候名单以获得使用该机器人的机会。马斯克在X上表示,最终,Grok将成为X Premium+的一个功能,每月费用为16美元。
将配备视觉和听觉等感官
xAI于今年7月成立,团队成员包括OpenAI、DeepMind等知名人工智能开发公司的前员工,目前仍在招聘多个职位。该公司自称的使命是构建人工智能“以增进我们对宇宙的集体理解”。马斯克此前表示,他认为当今的人工智能开发者过于偏向“政治正确”。
在官网上,xAI解释了Grok的目标:“收集反馈并确保我们正在构建能够最大程度造福全人类的人工智能工具。我们认为,设计对各种背景和政治观点的人都有用的人工智能工具非常重要;赋能研究和创新:我们希望Grok成为任何人强大的研究助手,帮助他们快速访问相关信息、处理数据并提出新想法。”
xAI称,为Grok提供动力的引擎是Grok-1,这是该公司在过去4个月内开发的前沿大型语言模型,经历了多次迭代。训练数据来自截至2023年第三季度的网络信息和人类助手(xAI称为“人工智能导师”)的反馈。
“宣布成立xAI后,我们训练了一个具有330亿个参数的原型大型语言模型Grok-0。这个早期模型在标准LM(语言模型)基准上接近LLaMA 2 70B (Meta开发的大型语言模型),但仅使用其一半的训练资源。”xAI称,“这是一种最先进的语言模型,功能更加强大。”
xAI表示,在基于中学数学问题和Python编码任务的第一轮测试中,Grok超越了“其计算类别中的所有其他模型,包括ChatGPT-3.5和Inflection-1”。但它的表现不如拥有更大训练数据和计算资源的模型,比如GPT-4。
“在某些重要方面,它是目前最好的。”马斯克在发布Grok前的X帖子中说。
xAI还介绍了“最令我们兴奋的几个有前途的研究方向”:通过工具辅助进行可扩展的监督,在模型的帮助下最有效地利用人工智能导师的时间;与安全性、可靠性和接地性(grounding)的形式验证相集成,在更明确、更可验证的情况下培养推理技能;长上下文理解和检索;提高对抗鲁棒性;提高多式联运能力,为Grok配备视觉和听觉等不同的感官,以实现更广泛的应用,包括实时交互和协助。

来源:澎湃新闻
链接:https://www.thepaper.cn/newsDetail_forward_25194164
编辑:潘洁
780#
 楼主| 发表于 2023-12-3 14:14:09 | 只看该作者
【案例】

Soul App车斌:用AIGC帮助年轻人高质量、无压力、沉浸式社交


2023年12月1-3日,2023T-EDGE全球创新大会暨EDGE AWARDS创新评选在北京751D·PARK传导空间举办。


今年大会以“新视野 新链接”为主题,邀请了近百位来自不同国家,不同领域的国际创新领袖分享嘉宾,设置了四十余场现场讨论,从新一轮全球AI革命浪潮、产业链重塑、新一轮企业再全球化浪潮、全球化下的产业创新升级和投资新趋势等维度,共同回顾过去一年的洞察与发展,展望未来的创新趋势与经济新格局。
12月2日下午,Soul App副总裁及产品中心负责人车斌在钛媒体2023T-EDGE大会上发表了名为《AIGC重塑社交互动新体验》的主题演讲。
社交是一个跨越周期的行业,但作为产品品类的社交具有代际差异,因此Soul对于当下年轻人究竟在想什么以及新技术的迭代格外关注。车斌表示,Soul旗下的Just So Soul研究院已经输出了20余份针对年轻人的调研报告。在此次大会上,他重点分享了从中总结出的当下年轻人群体中的三个趋势,分别为友谊衰退、找搭子和共创即兴瞬间。
车斌认为这三个趋势代表着年轻人需求的变化。年轻人需要更精准更高质量的社交连接方式,需要无压力的交互方式,还需要更沉浸的互动场景。作为深受年轻人喜爱的社交平台,Soul持续关注年轻人的新趋势,也坚持用包括AIGC在内的新技术实现产品的持续创新,以满足年轻一代的新社交需求。
目前, AIGC在C端应用共有六个方向,分别为虚拟陪伴、数字分身、辅助功能、生产力工具以及内容社区和IP创造。未来IP不再是被某一个机构创造出来的,而是被每一个个体利用AIGC技术创造IP,进行产业衍生内容生产和消费。
去年以来AIGC技术大爆发,各行各业都在讨论如何利用AI提升效率。车斌说,在社交领域,AIGC能够带给社交的不仅仅是提升交互效率,同时,交互方式、交互体验、交互对象等的改变也意味着社交出现了代际的迭代,社交的范围也会被重新定义。


以下为车斌的演讲实录,经钛媒体App编辑:
尊敬的领导各位朋友们下午好,我是车斌,担任Soul App产品中心负责人,主要负责Soul App日常产品战略和运营管理工作,此次分享的主题是《AIGC重塑社交互动新体验》。
熟悉我们的朋友可能都会比较了解,Soul主要以创新为主导带动整个产品往前迭代,这也是我们在非常激烈的社交竞争当中一路走过来,并且取得一定成绩的关键。今天很荣幸代表Soul和大家交流分享我们对于社交行业的思考,以及如何利用AIGC等新的技术实现产品玩法和产品体验迭代的探索。
首先简单介绍一下Soul,作为一个很早期就将AI引入到社交的平台,Soul以创新的平台服务包括基于兴趣图谱和用户画像的灵犀系统,为个性化创造赋能的NAWA引擎等,为年轻一代提供更沉浸、智能、自在的社交体验。创新技术和产品模式是Soul受到广大年轻人欢迎的重要因素。
可以看到,大量年轻人来到Soul并且留下来沉淀出了深度的社交关系。在我们近三千万月活用户中近八成是Z世代,日前日活用户中53.9%用户会跟其他人产生一对一对话,发消息用户当中,每人每天产生近70条一对一消息,这是Soul目前的情况。可以说Soul是深受年轻一代用户欢迎的高活跃的社交平台。
我们都知道社交是一个跨越周期的行业,因为社交是人的底层需求,同时作为产品的品类,伴随用户群体的迭代,社交也会出现代际的差异。不同的用户群体诉求和技术背景,将塑造出不同的社交产品形态,这是为什么我们格外关注年轻人和新的技术迭代和进步。
在过去7年里,我们陪着年轻人一起成长,Soul也发现了新世代正涌现出新的风潮,一些新的文化和新的需求,也为我们产品的进化提供了方向。我们成立了一个Just So Soul研究院,围绕年轻人的社交、生活、工作、消费、婚恋等热门话题,已经输出了近20份深度调研报告。


在这里,我给大家分享三个我们对于年轻人新趋势的观察,第一个观察友谊衰退。在我们今年研究报告中,我们可以看到,当代年轻人其实平均只有2.5个知心的朋友。还有一个很可怕的数字,有12%的年轻人是没有知心朋友的。当今技术如此便利,社交产品也很多。有一个观点是,所有产品、所有App均可以进行社交。
这样的前提下,年轻人还是没有朋友。在这个背后是我们传统的连接方式已经不再适应年轻群体对社交的效率和质量上的需求。我们把这个现象称之为友谊衰退,这是我们观察到的年轻群体当中第一个趋势。
第二个趋势是找搭子,这是今年特别火的词,对于我们80后、90后来说,听起来搭子这个事不是特别靠谱,但是年轻人特别热衷于万事找搭子,根据我们今年做的2023年轻人搭子社交报告,平均每4个00后就有一个人有搭子,这个比例是远高于80后、90后的,年轻人非常热衷于用很轻盈、便捷的方式开启社交,进行无压力的即时陪伴和情感反馈,他们可能认为朋友的关系已经过重了,这是年轻人很重要社交趋势。
第三个趋势是共创即兴瞬间,这个词听起来有点抽象,我给大家举几个例子,天津的跳水大爷,上海的“万梗之夜”,成年人的躲猫猫,这些今年爆火的现象背后都是年轻人找寻一种在场感,我们一起创造有趣美好的瞬间进行互动,通过此刻的共同体验和情绪共振,让每个原子化的个体,重新在线下或线上虚拟社区里面找到自己数字化的附近,拉近彼此的距离,这就是年轻人新的趋势,他们可能不再热衷于看别人怎么样,而是要参与到进程当中来产生共创即兴的瞬间。
以上三个是我们Just So Soul研究院观察到年轻人群体里面三个很重要的趋势,以产品视角来分析这三个新的趋势背后,年轻人对社交的真实需求,一是更精准更高质量的社交关系的连接方式;第二个点是无压力的交互方式,获得更即时、温暖的情感陪伴和反馈;第三个更沉浸的互动场景,例如躲猫猫的场景,我有参与感和幸福感,一起创造有趣共同的体验。
去年以来生成式AI非常爆火,每天每个小时我都在跟不同人提起AIGC各种能力,各行各业都在探索AI垂直场景下具体怎么应用。目前我们观察AIGC在C端应用有六个方向,第一个虚拟陪伴(包括一对一对话、语音合成技术),数字分身、辅助功能、生产力工具以及内容社区和IP的创造。未来IP不再是被某一个机构创造出来的,而是被每一个个体利用AIGC技术创造,衍生内容生产和消费。
Soul作为年轻一代聚集的平台,历来强调产品的创新。关注新趋势的同时,Soul也在不断思考如何利用AIGC等新技术满足年轻一代用户群体不断变化的对于社交迭代的诉求。
首先高质量连接方面,这是我们从产品上线开始就在思考的问题。用户以怎样方式找到真正兴趣相投的人,而不是通讯录里面现实中的朋友?如何通过技术的迭代和产品的设计,帮助用户更多找到精神层面上距离自己更近的人?
基于这个课题我们很早引入AI技术,包括图象识别等多模态识别的技术,以及关系推荐。我刚刚提到的灵犀引擎有别于其他内容推荐引擎,是基于用户关系的智能推荐系统。灵犀引擎通过站内多元化场景下用户行为的数据分析,为用户寻找到最有可能建立深度关系的人。
通过灵犀引擎实现三个最重要的关键点,第一流量的普惠,第二高效的互动,第三兴趣的共鸣。
我举个小的例子,我们任何一个人,一个普通的个体,即使没有什么粉丝,也没有一些关注。我进到Soul里面来,通过分享自己很小众的兴趣,我的发声可以被灵犀引擎识别到推给匹配的人,让“对的人”听到我的声音,收获精神上的共鸣和归属感。现在灵犀引擎也在不断迭代和升级,最新版本结合新的AI技术,实现多模态下对内容和用户行为的理解,帮助我们更精准了解用户兴趣图谱,为用户推荐和辅助建立更高效、更精准的社交关系。
第二点对于无压力互动和新技术的结合,一方面我们推出新的互动机制。Soul自上线以来不引入通讯录关系特征,也不看脸,不强调颜值等物理因素,我们用虚拟形象进行互相交流和互动。我们推出NAWA引擎,帮助用户创建更个性化的虚拟化身和场景,进行虚实结合的交流和沟通。
另一方面,我们用AIGC技术赋能新的社交体验,对于以Z世代为代表的年轻人来说,社交和情感的陪伴并不仅限于人和人之间的沟通和交流,也包括了人机之间。
我们从2020年启动AIGC技术研发工作,在智能对话、图像、声音合成方面有了技术积累。2022年,Soul内测了智能聊天机器人——AI苟蛋。
我们通过公域场景海量对话数据进行训练自研模型,让苟蛋理解用户语义进行有趣的对话,并能够进行个性化的主动关怀。未来我们会进一步优化AI苟蛋多人对话能力和站内其他互动场景进行融合,进一步丰富用户的社交新体验。
第三个点对于沉浸式体验方面,可以理解为共同的体验和沉浸式的互动,共同体验方面,我们尝试给用户提供人机共创的环境,之前用户中有创造能力的人生产出内容,跟其他用户进行互动,对用户来说这其实还是需要一定门槛的。
现在只要用户有这个想法就可以利用AIGC技术,帮助其生成一些新的有趣的信息点或内容,跟其他用户进行互动。另外,沉浸的互动体验方面,我刚提到NAWA引擎,这是集成AI渲染技术、图象处理一体的集成SDK,可以帮助用户完成捏脸以及一些虚拟场景构建,完成沉浸互动式场景的体验和一些创作。
我们在站内有个非常有趣并适合共创即兴瞬间落地场景,就是我们的群聊派对,我们提供互动游戏的玩法,例如推理的场景或诗词大会内容的场景,用户可以使用AIGC小工具或者辅助功能提升互动的趣味性和沉浸感。
此外,我们还在进行新的尝试,希望利用AIGC打通整个社交全链路,在关系的发现、破冰,建立和沉淀环节,以及内容生产、分发、消费、交互互动环节都会引入AIGC技术,贯穿社交关系和内容链路,实现新的体验。
我们也在陆续上线一些AI绘画、虚拟陪伴、虚拟人社区等新的工具和新的创新体验,例如近期新推出的异世界回想,欢迎大家的体验,多多给我们提意见。
去年以来AIGC技术大爆发,各行各业都在讨论如何利用AI提效。在社交领域,我们发现AIGC带给社交的不仅仅是交互效率、交互质量和交互体验的提升,同时以智能体和虚拟人为代表的交互对象也在发生变革,这意味着社交出现代际的迭代,社交的范围也会被重新定义,已经不是简单的人和人之间对话的过程。
对Soul来说,推进AIGC在社交场景深度落地,是探索社交的新可能,也是对Soul初心的回应。用创新技术和产品模式创造更美好的奇遇,带给大家快乐,“让天下没有孤独的人”,这是我们的Slogan,也是我们使命所在。以上是我们Soul对于社交行业的思考以及利用AIGC技术如何实现用户体验的探索,谢谢大家。


来源:钛媒体
链接:https://www.tmtpost.com/6818434.html
编辑:潘洁



发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表