传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
777#
 楼主| 发表于 2023-11-28 23:14:24 | 只看该作者
《大模型深度赋能媒体智创融合——中国智能媒体创新发展报告(2023-2024)》广征智媒创新案例全面启动

大模型、AIGC新技术浪潮汹涌来袭,人工智能发展新突破如何转化为媒体智创融合发展新动能,如何助力媒体融合乘势而上?《大模型深度赋能媒体智创融合——中国智能媒体创新发展报告(2023-2024)》将基于最新理论成果、业界实践观察及专家观点给出路径解析和趋势研判。


近日,中国智能媒体创新应用调研及示范案例征集正式启动,主要面向领先的AI技术供应商、智能媒体行业解决方案商、各类媒体机构以及内容生态行业用户征集2023-2024年中国智能媒体创新发展标杆案例与最佳实践。调研重点主要覆盖四大方面,包括AI发展战略与智能媒体发展布局、智能媒体技术创新与行业应用最佳实践、大模型技术创新与传媒业融合应用,以及对媒体智创融合发展的产业洞察与思考。报告课题组首先开展行业调研及案例征集工作,而后进入候选案例专家评审工作,最终入选案例将被收录至年度报告并通过相关媒体矩阵进行权威发布。自2019年起,中国传媒大学新媒体研究院连续发布中国智能媒体发展研究成果,记录中国智媒发展风雨历程,解析研判中国智媒发展突围之路,深入挖掘中国智媒案例经验,共同见证中国智媒的创新力量和无限潜能。经过多年精心打磨,《中国智能媒体发展报告》系列现已成为我国智能媒体研究领域产学研协作创新的重要成果。


中国新媒体技术展是贯彻落实习近平总书记关于媒体融合发展的重要指示精神,推动技术创新赋能媒体事业发展,创新举办的中国新媒体大会主体活动之一。经中宣部批准,2022年,中国记协、湖南省委宣传部首次在中国新媒体大会期间举办中国新媒体技术展,旨在搭建技术赋能媒体融合发展的展示交流合作平台。《中国智能媒体创新发展报告(2023-2024)》由中国传媒大学媒体融合与传播国家重点实验室新媒体研究院与中国新媒体技术展组委会联合出品,拟于“2024中国新媒体大会·新媒体技术展”召开期间面向全行业重磅发布。


来源:湖南日报
链接:https://baijiahao.baidu.com/s?id=1783796057610636741&wfr=spider&for=pc
编辑:潘洁



776#
 楼主| 发表于 2023-11-25 21:11:38 | 只看该作者
【案例】
欧盟人工智能法律草案遭遇冲击?法德意异议大模型监管

21世纪经济报道见习记者 肖潇 北京报道

就在欧盟《人工智能法案》落地只差最后一公里时,内部出现了不同声音。

近日,据报道,一份联合文件显示法国、德国、意大利就如何监管人工智能达成协议。三个欧洲重要经济体一致认为,《人工智能法案》不应针对基础模型,欧洲需要“一个促进创新和竞争的监管框架,以便欧洲参与者能在全球人工智能变革中位于前列。”

法德意的发难,似乎让他们站在了欧洲议会立法者的对立面——后者希望严格监管基础模型。

欧盟《人工智能法案》是全球首部人工智能的法律草案,正处于立法程序的最后阶段。受访专家指出,当前核心分歧是基础模型的监管方式,各方应该在12月6日的三方谈判上提出解决方案。如果届时无法达成共识,《人工智能法案》落地或面临压力。

反对分级监管模型
法德意发布的文件首先指出,人工智能的本质风险是应用,而不是技术本身,由此“反对基础模型的两层分级方法”。

“两层分级方法”指的是《人工智能法案》中,将人工智能系统划分为不同的风险组,规定不同的合规义务。一些义务仅适用于算力更强、更通用的大模型,从而产生了一套两层规则。三个国家在文件中明确要求对基础模型放弃这套规则。

模型卡是他们提出的替代方案。模型卡的内容必须包含模型的功能和缺陷。根据文件示例,具体有模型参数量、预期用途、潜在限制、偏见测试结果,以及红队安全评估结果。

此外,联合文件还呼吁自愿承诺、延迟建立制裁。法德意三国都赞成,AI提供商应做出具有约束力的自愿承诺,且最初不实施任何制裁措施。文件提到,只有在一定时间后发现违规行为,再建立明确的制裁机制。

《人工智能法案》授权草案于今年6月高票通过欧洲议会,目前已经进入成员国、欧洲议会、欧盟委员会的“三方谈判”,原计划年底前通过。

据了解,三方本在10月24日就分级监管模型达成了初步共识,但包括法国、德国、意大利在内的至少五个成员国改变立场,提出不应对基础模型施加任何监管;10月30日,法德意三国在意大利首都罗马举行高级别会议,决定加强人工智能领域合作;本月19日,法德意开始分发非正式文件,再次转变监管立场,提出用模型卡来监管基础模型。关于《人工智能法案》的谈判仍在继续。

核心矛盾在基础模型
同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦分析,联合文件与《人工智能法案》立法谈判其他各方的实质性矛盾集中于一点——如何监管、由谁监管基础模型。

对于基础模型,《人工智能法案》始终主张风险分级,但与联合文件的风险识别思路有很大不同。北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,整体来看,《人工智能法案》强调前置、抽象的风险判定,而联合文件强调后置、实际的风险判定。

落到具体层面,模型卡可能涉及主体更少,合规义务更轻。朱悦认为,早先三方谈判中达成的分级监管,涵盖了数据治理、红蓝对抗等实质性义务。而以透明义务和行为守则为核心的模型卡,更多属于一种弱强制性的自律监管。对外经济贸易大学数字经济与法律创新研究中心主任张欣补充,模型卡主要针对基础模型的开发者,分级监管则面向整个人工智能系统的开发者、部署者、运行者。不过,“分级监管确实存在一定挑战,比如未来步入真正的通用人工智能(AGI)阶段时,可能有分级标准难设定、风险动态变化的挑战。又比如,在现有方案下,可能导致基础模型的开发者承担较多连带义务和责任。”张欣说。

张欣向21记者进一步解释,模型卡类似于基础模型说明书,示例中的安全测试、偏见测试类似出厂前的产品测试。如果按照早先《人工智能法案》规定的分级监管,落在高风险区域的大模型相关主体,还需要履行一系列备案、纠正、标识等合规义务,负担可能远远大于模型卡。

一个更关键的问题也许是,谁来决定模型卡的严格程度,以及谁来执行。

在朱悦看来,不能简单断言模型卡和分级监管之间有本质差别。如果模型卡配置了详细、深入的可解释性条目,其依然可以称为一种深入的监管。但如果模型卡不是交给专门监管机关或者数据保护机关,而是主要由行业协会或者技术社区来评估和执行,自由度就会相对充裕。

此外,联合文件中的自愿承诺也值得注意。张欣表示,“一般情况下,如果要求企业自我承诺,那么违背承诺时执法机关会采取相应的处罚措施。”但联合文件提议推迟制裁,并没有进一步明确到底要如何建立强制性、有约束力的自我承诺机制。

受访专家均认同,联合文件旨在为基础模型的开发者松土。

一个值得关注的时间点是今年10月。就在这个月,巴黎的初创公司Mistral AI发布了自己的大模型Mistral 7B,据称性能超过Meta 的 Llama 2大模型,且算力耗费更少,一举成为人工智能领域一颗冉冉上升的新星。与此同时,德国的AI领头公司 Aleph Alpha GmbH 也获得了超过5亿美元的B轮融资,官网自称“德国自己的OpenAI”。

除了本国冠军企业的大模型发展迅速,政府面临游说压力外,法德意也有布局人工智能的国家性战略。今年6月,法国总统马克龙宣布要推动法国成为欧洲的AI中心,划拨5亿欧元发展人工智能。德国数字事务部长则在近期采访中,将德国定位为“进入全球人工智能领域最高梯队竞争”,发展野心可见一隅。

《AI法案》或踩下刹车
法德意此时叫板,最令人关心的问题无疑是:《人工智能法案》还能顺利落地吗?

张欣表示,目前难以预料联合文件的实质影响,但它的确为《人工智能法案》达成共识增加了不确定性。

在朱悦看来,达成共识的可能性很大。主要依据是各方已经初步达成了共识——同意一定程度上监管基础模型,只是在概念、时限和其他一些关键细节上需要博弈。另外,从谈判过程来看,相关主体的态度在不断软化。根据朱悦的分析,此次发难的策略性性质较强,即为了针对特定的条款争取谈判筹码,并不是关于《人工智能法案》是否应该通过的分歧。

“如果能够达成妥协,《人工智能法案》可能放弃对基础模型的进一步分级,通过细化透明项目、补强审计义务和关联产品责任等方式做实透明义务,放弃其他绝大部分的实质要求。可以说是一种差强人意的方案。”朱悦表示。

在后续的执行过程中,《人工智能法案》也存在进一步松绑的可能性。吴沈括向21记者指出,联合文件立场更市场友好,因此各成员国在贯彻执行《人工智能法案》时,可能有本地化松绑的动作。张欣对此的担忧是,模型性能强大,更多未知风险会与大模型涌现能力一同出现。而且在开发热潮下,资本逐利可能带来模型异化的风险。以上种种都要求对基础模型进行更系统的硬法规制。

通过《人工智能法案》的机会之窗正在快速关闭,12月6日将是一个关键的时间点。

考虑到欧洲议会将在明年6月换届,今年12月6日的三方谈判可以视作《人工智能法案》立法谈判的收尾。欧洲媒体透露,越来越多的成员国认为《人工智能法案》监管过度。如果无法尽快找到解决方案,立法将面临风险。

朱悦表示,“《人工智能法案》之前的谈判进程确实太快了,理事会和其他各方内部并没有达到高度一致。之前达成的所有共识,都是一种脆弱而精细的平衡。”而这份脆弱、精细的平衡,接下来随时都有可能打破。(作者:肖潇 编辑:王俊)

来源:21财经
链接:https://m.21jingji.com/article/2 ... 7118d93782c174.html
编辑:郑程程

775#
 楼主| 发表于 2023-11-25 21:10:06 | 只看该作者
【案例】
欧盟人工智能法律草案遭遇冲击?法德意异议大模型监管

21世纪经济报道见习记者 肖潇 北京报道

就在欧盟《人工智能法案》落地只差最后一公里时,内部出现了不同声音。

近日,据报道,一份联合文件显示法国、德国、意大利就如何监管人工智能达成协议。三个欧洲重要经济体一致认为,《人工智能法案》不应针对基础模型,欧洲需要“一个促进创新和竞争的监管框架,以便欧洲参与者能在全球人工智能变革中位于前列。”

法德意的发难,似乎让他们站在了欧洲议会立法者的对立面——后者希望严格监管基础模型。

欧盟《人工智能法案》是全球首部人工智能的法律草案,正处于立法程序的最后阶段。受访专家指出,当前核心分歧是基础模型的监管方式,各方应该在12月6日的三方谈判上提出解决方案。如果届时无法达成共识,《人工智能法案》落地或面临压力。

反对分级监管模型
法德意发布的文件首先指出,人工智能的本质风险是应用,而不是技术本身,由此“反对基础模型的两层分级方法”。

“两层分级方法”指的是《人工智能法案》中,将人工智能系统划分为不同的风险组,规定不同的合规义务。一些义务仅适用于算力更强、更通用的大模型,从而产生了一套两层规则。三个国家在文件中明确要求对基础模型放弃这套规则。

模型卡是他们提出的替代方案。模型卡的内容必须包含模型的功能和缺陷。根据文件示例,具体有模型参数量、预期用途、潜在限制、偏见测试结果,以及红队安全评估结果。

此外,联合文件还呼吁自愿承诺、延迟建立制裁。法德意三国都赞成,AI提供商应做出具有约束力的自愿承诺,且最初不实施任何制裁措施。文件提到,只有在一定时间后发现违规行为,再建立明确的制裁机制。

《人工智能法案》授权草案于今年6月高票通过欧洲议会,目前已经进入成员国、欧洲议会、欧盟委员会的“三方谈判”,原计划年底前通过。

据了解,三方本在10月24日就分级监管模型达成了初步共识,但包括法国、德国、意大利在内的至少五个成员国改变立场,提出不应对基础模型施加任何监管;10月30日,法德意三国在意大利首都罗马举行高级别会议,决定加强人工智能领域合作;本月19日,法德意开始分发非正式文件,再次转变监管立场,提出用模型卡来监管基础模型。关于《人工智能法案》的谈判仍在继续。

核心矛盾在基础模型
同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦分析,联合文件与《人工智能法案》立法谈判其他各方的实质性矛盾集中于一点——如何监管、由谁监管基础模型。

对于基础模型,《人工智能法案》始终主张风险分级,但与联合文件的风险识别思路有很大不同。北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,整体来看,《人工智能法案》强调前置、抽象的风险判定,而联合文件强调后置、实际的风险判定。

落到具体层面,模型卡可能涉及主体更少,合规义务更轻。朱悦认为,早先三方谈判中达成的分级监管,涵盖了数据治理、红蓝对抗等实质性义务。而以透明义务和行为守则为核心的模型卡,更多属于一种弱强制性的自律监管。对外经济贸易大学数字经济与法律创新研究中心主任张欣补充,模型卡主要针对基础模型的开发者,分级监管则面向整个人工智能系统的开发者、部署者、运行者。不过,“分级监管确实存在一定挑战,比如未来步入真正的通用人工智能(AGI)阶段时,可能有分级标准难设定、风险动态变化的挑战。又比如,在现有方案下,可能导致基础模型的开发者承担较多连带义务和责任。”张欣说。

张欣向21记者进一步解释,模型卡类似于基础模型说明书,示例中的安全测试、偏见测试类似出厂前的产品测试。如果按照早先《人工智能法案》规定的分级监管,落在高风险区域的大模型相关主体,还需要履行一系列备案、纠正、标识等合规义务,负担可能远远大于模型卡。

一个更关键的问题也许是,谁来决定模型卡的严格程度,以及谁来执行。

在朱悦看来,不能简单断言模型卡和分级监管之间有本质差别。如果模型卡配置了详细、深入的可解释性条目,其依然可以称为一种深入的监管。但如果模型卡不是交给专门监管机关或者数据保护机关,而是主要由行业协会或者技术社区来评估和执行,自由度就会相对充裕。

此外,联合文件中的自愿承诺也值得注意。张欣表示,“一般情况下,如果要求企业自我承诺,那么违背承诺时执法机关会采取相应的处罚措施。”但联合文件提议推迟制裁,并没有进一步明确到底要如何建立强制性、有约束力的自我承诺机制。

受访专家均认同,联合文件旨在为基础模型的开发者松土。

一个值得关注的时间点是今年10月。就在这个月,巴黎的初创公司Mistral AI发布了自己的大模型Mistral 7B,据称性能超过Meta 的 Llama 2大模型,且算力耗费更少,一举成为人工智能领域一颗冉冉上升的新星。与此同时,德国的AI领头公司 Aleph Alpha GmbH 也获得了超过5亿美元的B轮融资,官网自称“德国自己的OpenAI”。

除了本国冠军企业的大模型发展迅速,政府面临游说压力外,法德意也有布局人工智能的国家性战略。今年6月,法国总统马克龙宣布要推动法国成为欧洲的AI中心,划拨5亿欧元发展人工智能。德国数字事务部长则在近期采访中,将德国定位为“进入全球人工智能领域最高梯队竞争”,发展野心可见一隅。

《AI法案》或踩下刹车
法德意此时叫板,最令人关心的问题无疑是:《人工智能法案》还能顺利落地吗?

张欣表示,目前难以预料联合文件的实质影响,但它的确为《人工智能法案》达成共识增加了不确定性。

在朱悦看来,达成共识的可能性很大。主要依据是各方已经初步达成了共识——同意一定程度上监管基础模型,只是在概念、时限和其他一些关键细节上需要博弈。另外,从谈判过程来看,相关主体的态度在不断软化。根据朱悦的分析,此次发难的策略性性质较强,即为了针对特定的条款争取谈判筹码,并不是关于《人工智能法案》是否应该通过的分歧。

“如果能够达成妥协,《人工智能法案》可能放弃对基础模型的进一步分级,通过细化透明项目、补强审计义务和关联产品责任等方式做实透明义务,放弃其他绝大部分的实质要求。可以说是一种差强人意的方案。”朱悦表示。

在后续的执行过程中,《人工智能法案》也存在进一步松绑的可能性。吴沈括向21记者指出,联合文件立场更市场友好,因此各成员国在贯彻执行《人工智能法案》时,可能有本地化松绑的动作。张欣对此的担忧是,模型性能强大,更多未知风险会与大模型涌现能力一同出现。而且在开发热潮下,资本逐利可能带来模型异化的风险。以上种种都要求对基础模型进行更系统的硬法规制。

通过《人工智能法案》的机会之窗正在快速关闭,12月6日将是一个关键的时间点。

考虑到欧洲议会将在明年6月换届,今年12月6日的三方谈判可以视作《人工智能法案》立法谈判的收尾。欧洲媒体透露,越来越多的成员国认为《人工智能法案》监管过度。如果无法尽快找到解决方案,立法将面临风险。

朱悦表示,“《人工智能法案》之前的谈判进程确实太快了,理事会和其他各方内部并没有达到高度一致。之前达成的所有共识,都是一种脆弱而精细的平衡。”而这份脆弱、精细的平衡,接下来随时都有可能打破。(作者:肖潇 编辑:王俊)

来源:21财经
链接:https://m.21jingji.com/article/2 ... 7118d93782c174.html
编辑:郑程程

774#
 楼主| 发表于 2023-11-23 22:36:25 | 只看该作者
【案例】
反转之后再反转:“ChatGPT之父”强势回归

在奥尔特曼被自己联合创办的OpenAI开除之后,短短数天内事态发展堪比“宫斗戏”:而根据最新消息,奥尔特曼将回到这家ChatGPT的母公司,重掌CEO大权,董事会也进行了人事洗牌。是什么让奥尔特曼笑到了最后?

ChatGPT的母公司OpenAI周三发布消息称,已经就奥尔特曼(Sam Altman)返回公司担任CEO一事原则上达成协议。这一决定看起来是给围绕这一人工智能初创企业未来前途的激烈讨论暂时划上了一个句号。

OpenAI同时还宣布了新的董事会人选,曾任该公司副董事长和联合首席执行官的泰勒(Bret Taylor)出任新的董事会主席。此外,曾在比尔·克林顿政府担任过财政部长的萨默斯(Larry Summers)、在线问答网站Quora的创始人兼首席执行官德安捷罗(Adam D'Angelo)也加入董事会。

奥尔特曼在社交平台X上发帖表示:“我很期待回到OpenAI。”

几经反转的剧情

11月17日,OpenAI宣布了解雇其联合创始人兼首席执行官奥尔特曼(Sam Altman)的决定,原因是经评估发现他在与董事会的沟通过程中“并非始终是坦诚的”。这家人工智能初创公司在一份声明中写道:“董事会对于他继续领导OpenAI的能力不再抱有信心
紧接着,OpenAI的另一位创办人兼董事会主席布罗克曼也宣布辞职。

OpenAI先是请原首席技术官穆拉蒂暂时代行CEO之职,不过很快就宣布了新任首席执行官人选谢尔,此人是直播平台Twitch的创始人。

而另一边,微软CEO纳德拉(Satya Nadella)则在11月20日宣布,奥尔特曼和布罗克曼将加入微软,领导新的先进人工智能研究团队。微软是作为非盈利机构的OpenAI背后最大的出资方。

OpenAI在解雇奥尔特曼之后也受到了来自内部员工的巨大压力。据悉,大量员工在一封致董事会的信中签名,表示如果解雇奥尔特曼的董事会不下台,并让奥尔特曼重新掌权,他们就全体辞职,并跟随奥尔特曼加入微软。而微软那边也给这些员工做出了聘用的承诺。

可能是来自最大“金主”和内部员工的双重压力使得OpenAI最终做出让步,决定让奥尔特曼“官复原职”,并且对董事会进行重新洗牌。《纽约时报》分析认为,奥尔特曼手中拥有的筹码很多。

在基本上决出胜负之后,整个“宫斗风波”的主角发表推文指出,非常期待在新董事会和微软CEO的支持下重返OpenAI,“在我们(与微软)牢固的伙伴关系基础之上”。

微软:背后的“宫斗冠军”?

奥尔特曼带领生成式AI工具ChatGPT享誉全球的这一年时间里,已经成为在前景和风险并存的人工智能领域最广受追捧的代表人物,上周他出人意料的被解雇引发激烈讨论,也给这个行业的未来发展带来了不确定性。投资者曾表示,奥尔特曼的突然离职可能导致OpenAI人才流失,并影响即将进行的股票发售。

对于强势回归的奥尔特曼和正在向全球商业客户推出OpenAI技术的微软来说,这场风波的结果显然是非常有利的。


而微软CEO纳德拉也对新发生的变动表示欢迎。他在X上发文指出:“我们相信这是朝着更加稳定、更多信息沟通和更有效管理的道路上迈出了重要的第一步。”

英国投资公司Hargreaves Lansdown的指出,现在OpenAI已经摆脱了最近的混乱局面,即将走上正轨。“奥尔特曼有关运营公司的想法将主导未来的发展方向,尤其今后监督其工作的将是一个全新的董事会。”

来源:网易新闻
链接:https://c.m.163.com/news/rec/YDJ05971MJ4RAZWW.html
编辑:郑程程

773#
 楼主| 发表于 2023-11-22 21:32:36 | 只看该作者
【案例】
从OpenAI转型看AI时代的商业与社会责任之谜


OpenAI转型的历程不仅反映了企业内部变革的特定方面,更是对商业成功与社会责任微妙平衡的一次思辨。

文丨世界家园基金会创始人 林凡榆(Fanyu Lin)

OpenAI是奥尔特曼AGI垂直整合商业版图的开始吗?

“OpenAI是一家人工智能研究与实施公司。我们的使命是确保人工通用智能(AGI)惠及全人类,” 这是OpenAI官网的介绍。近几天,这家备受关注的公司经历了一场突如其来的高层变革,其中联合创始人及首席执行官萨姆·奥尔特曼(Sam Altman)被董事会解职,引起了广泛的关注和讨论。微软等主要投资方随后极力推动恢复奥尔特曼为首席执行官,同时还考虑更换整个董事会。在说服奥尔特曼回归原职不成功后,最新的发展是微软成功聘请奥尔特曼和OpenAI另一位联合创始人格雷格·布洛克曼(Greg Brockman)共同领导微软内部的高级人工智能研究团队。

回顾这一事件,奥尔特曼的突然被解雇导致了OpenAI内外的混乱,对公司的估值和股权交易造成了必然的影响。为此,公司内部员工不仅受到精神上的影响,也有直接的经济损失。公司原计划在估值高达860亿美元时出售股份,但奥尔特曼的离职导致了交易的不确定性,使得数百亿美元的股权交易陷入困境。资方需要重新评估投资决策,影响了公司的股权交易。如果解雇奥尔特曼是董事会试图维持对公司的控制行为,那么这也使得公司的未来充满了不确定性,影响了员工的权益和投资者的信心,适得其反。整个局面呈现出一种权谋和人性与商业复杂性的交织。

董事会与奥尔特曼之间存在的分歧,包括大家可能比较熟悉的,对公司商业化的方向、人工智能的安全性,以及技术发展速度的不同看法。除此之外,鲜为人知的有报道提到奥尔特曼的商业计划涉及到从中东主权财富基金筹集巨额资金,创建人工智能芯片初创公司,还有与前苹果首席设计师乔纳森·艾维(Jony Ive)合作开发以人工智能为中心的硬件设备,并为此向软银董事长孙正义寻求数十亿美元的投资。这些新项目应该没有遵循与OpenAI相同的企业治理模式,使其他董事会成员对奥尔特曼追求这些商业机会的雄心和行动感到不满。

他为什么要创建这两个新公司呢?从商业策略的角度来看,奥尔特曼应该正在计划建立一个纵向一体化的基础设施,来加速推动人工通用智能的发展,实现OpenAI成立的初衷“确保人工通用智能惠及全人类”。

首先,OpenAI的研究和产品对计算资源的需求巨大。据说GPT-4包含1.76万亿个参数,这比上一代产品GPT-3多六倍,每次GPT的升级都伴随着指数级的参数增长。这些数据丰富的应用需要超强的处理能力,处理收集数据、并进行智能分析等。如果没有价值链上游的底层技术,芯片、超级计算机的支持,实现OpenAI的研究和长远的商业计划是天方夜谭。为此,奥尔特曼想创建一家能够生产高性能人工智能芯片张量处理单元(TPUs)的初创公司,这是一种专为处理大量专业人工智能工作负载而设计的半导体。他可以通过这一战略,一方面打破英伟达(NVIDIA)在该领域的垄断地位,为市场带来更多的选择,同时通过垂直商业模型来降低成本、减少能源消耗、提高效率。加上他在筹划的另一家位于产业链下游的人工智能硬件的初创公司。这就构成了奥尔特曼的人工通用智能(AGI)垂直商业版图,来全面有效地加速人工通用智能的发展与应用。通过深入参与整个价值链,奥尔特曼有野心实现对人工智能技术生态系统的更大掌控,创造更为可持续的研发和应用的可能,也可能促成一个生态系统层面的范式转变。他的计划是否会在微软庞大的平台上实施,让我们拭目以待。

OpenAI是ESG经济的新企业模式吗?

在ESG(环境、社会和公司治理)的经济时代,企业的角色不仅仅是经济的参与者,更是社会责任的承担者。传统的以盈利为中心的商业模式正在被更加注重社会和环境责任的模式所取代。OpenAI转型的历程不仅反映了企业内部变革的特定方面,更是对商业成功与社会责任微妙平衡的一次思辨。有关人工智能安全性、技术发展速度和商业化方向的广泛争议,也促使我们思考企业在不断发展的技术领域中,如何应对社会期望和需求的复杂挑战。

OpenAI的独特结构是其转型历程中的一个重要方面,旨在平衡技术进步与社会责任。这一结构包括一个非营利组织和一个有限盈利子公司,体现了OpenAI对于推动人工通用智能的研究和发展,并同时关注其安全性和对全人类的益处的承诺。

在OpenAI创立初期,其目标是建立一个不受任何公司、任何资本、任何个人控制的人工智能实验室,以确保通用人工智能的发展不受狭隘利益的影响。这一愿景反映了以奥尔特曼为首的创始团队对于人工智能的潜力和威胁的深刻认识,以及对于将来谁拥有最强大的人工智能技术将拥有巨大权力的担忧。所以,OpenAI选择了非营利组织的形式,确保没有个人或公司拥有该组织的股份或权益。这种非营利结构使得OpenAI能够更加专注于推动人工通用智能的研究,同时承诺通过向公众开放专利和研究,与其他机构自由合作,以促进整个领域的共同发展。

然而,随着时间的推移,OpenAI面临了训练人工智能模型所需的巨大成本和资源的压力。在这个关键时刻,一些关键人物离开,包括最初的捐赠人埃隆·马斯克(Elon Musk),这导致了资金和支持的不稳定甚至中断。这时,OpenAI的领导层意识到他们的组织面临前着所未有的威胁:倘若不迅速转型,这个非营利组织注定陷入关闭的境地。奥尔特曼这时站出来成为首席执行官,领导团队重新构思可持续发展的战略,采取更为灵活的商业化路径,力求在商业和社会责任之间找到恰如其分的平衡。

这时,OpenAI的转型开始,他们采取了一个非常独特的结构:在其非营利组织OpenAI Inc的母公司下创建了有限盈利的子公司。这一新架构在商业和社会责任之间寻找了一种平衡,旨在协调财务动机与构建安全、有益于全人类的人工通用智能(AGI)的使命。这个结构的关键特点包括:

•受控制的营利子公司:营利子公司完全由OpenAI非营利组织控制,确保使命导向的决策。

•使命约束:营利子公司虽可盈利,但受到非营利组织使命的限制,致力于推动安全且对人类广泛有益的AGI。

•独立董事会:董事会以独立董事为多数,包括首席执行官萨姆·奥尔特曼,他及其他独立董事不持有OpenAI股权,确保独立的治理结构。

•利润上限:对于分配给投资者和员工的利润设有上限,超过上限的剩余利润将回归非营利组织,用于造福人类。

•AGI确定权:董事会负责确定何时实现AGI,保障对技术发展的使命一致性,而与微软等合作则仅适用于AGI之前的技术。

建立这种结构是为了确保技术进步不会受到过度商业化的威胁,也提供了员工和投资人合理的回报机制。与此同时,OpenAI Inc的非营利组织形式保留了对于推动AGI研究的许诺,通过利润分红的方式进行资金回流。

OpenAI的治理模式本是理想的,强调了对技术发展的监督,以确保符合安全和广泛受益的原则。通过整合商业机制和社会影响力,OpenAI试图在探索人工通用智能的前沿,同时致力于实现他们对社会的承诺。无论OpenAI与奥尔特曼的未来如何,这个企业的诞生和蜕变仍然是企业社会责任探索的很有启发性的例子。在ESG的经济时代,商业与社会责任的微妙平衡将无疑推动企业迎来更加多元化和可持续的发展。奥尔特曼的垂直整合商业蓝图,以及OpenAI是否能够继续超越传统商业模式,引领新时代的商业伦理观呢?

林凡榆是一位旅美艺术家,毕业于中央美术学院及哥伦比亚大学建筑学院。现担任世界经济论坛互联世界理事会理事、彭博新经济论坛城市理事会理事,也是世界家园基金会创始人
编辑邮箱michael.lin@ftchinese.com

来源:FT中文网
链接:https://mp.weixin.qq.com/s/J-500axBiv2FJbsZApJrUg
编辑:郑程程

772#
 楼主| 发表于 2023-11-19 22:51:32 | 只看该作者
AI新工具:用10秒钟语音就能诊断2型糖尿病
(德国之声中文网)通过分析语音进行的医学诊断技术正在变得越来越精确。尤其在帕金森综合征或是阿尔茨海默症的诊断方面,对于患者说话声音样本的分析可以提供很有价值的依据。
包括精神障碍、抑郁症、创伤后应激障碍或心脏病也可以通过语音分析来诊断。 人工智能 (AI) 还可以听出血管狭窄或疲惫的迹象。 这使得医生能够更早地进行治疗并降低患者的风险。
根据专业杂志 Mayo Clinic Proceedings: Digital Health 发表的一项研究,现在凭借简短的语音序列就能以惊人的准确性判断某人是否患有 2 型糖尿病。
未知的风险
该技术旨在帮助找出未得到确诊的糖尿病患者。全球约有 2.4 亿成年人患有糖尿病而不自知。 根据国际糖尿病联合会的数据,近 90% 的糖尿病病例都是 2 型糖尿病。 2 型糖尿病患者罹患心脏并和血管疾病的风险增加,例如心肌梗死、中风以及腿部和足部血液循环问题。
使用语音分析进行诊断将使检测变得更加容易,因为通常情况下人们必须去看医生,才能进行最常见的诊断测试,其中包括空腹血糖测试(FBG)、口服糖耐量测试(OGTT)和糖化血红蛋白值测试(A1C),该测试是为了测量两到三个月内血糖水平的平均值。
2型糖尿病患者发生心肌梗死、中风等心血管疾病的风险更高
语音诊断是如何运行的?
在语音频率分析过程中,人工智能会分析人耳听不见的人声变化。只要有电话交谈录音,就足以进行分析。
人工智能可以对说话的韵律、节奏、停顿和音高等元素进行分析。在某些临床案例中,患者存在特有的语音特征,例如元音 A 的发音会持续五秒时间。
人声可以有多达 20万种不同的特征。 人工智能和相应的算法可以从说话声音片段中找到与某些临床案例相匹配的独特发音模式。
诊断精确度令人震惊
新开发的人工智能工具可以从6到10秒的语音录音中识别到音调以及音量的变化,从而做出诊断。再结合年龄、性别、身高、体重等基本健康数据,AI就可以检测出这个人是否患有2型糖尿病。
而且它的准确度令人惊讶:由于男性和女性声音的变化不同,因此准确度也有所不同。 尽管如此,该技术对女性的诊断准确率高达 89%,男性准确率则为 86%。
AI将取代真正的医生?
可以区分的声学特征
为了对人工智能进行编程,安大略理工大学学者 Jaycee Kaufman 带领的研究团队记录了 267 人的声音,他们当中有的没有糖尿病,有的已被诊断患有 2 型糖尿病。在两周的时间里,这些实验对象每天要对着智能手机说六次话,每次只需短短一句话。
从以这种方式获得的 18000 多个语音样本中,研究人员分析发现了在非糖尿病人和 2 型糖尿病人之间存在明显差异的 14 个声学特征。 该研究的主要作者、Klick Labs 研究员 Jaycee Kaufman 表示:"当前的糖尿病检测方法可能需要花费大量的时间、交通成本和就诊费用。语音技术具有完全消除这些障碍的潜力。"
未来,Klick Labs 团队希望继续进行研究,看看高血压和糖尿病前期等其他疾病是否也可以通过语音检测来进行诊断。
语音频率分析的风险
将语音分析作为诊断工具的支持者经常会强调使用语音诊断疾病的速度和效率。
然而即使人工智能支持的工具已经提供了非常精确的信息,一些语音样本也不足以真正做出有根据的诊断。假阳性结果和过度诊断的风险也仍然很高。最终还是需要由专业的医生来亲自进行确诊。
人工智能将创造哪些新的工作岗位?
提供线索而非医学诊断
这一原则显然也适用于精神类疾病。声音的音调可能表明他患有抑郁症,但只有对这个人进行彻底检查才能真正弄清楚
尽管人工智能可以使用语音分析来检测比如一个人说话是否以比平时更加​​逻辑混乱或是更急促了,但这是否真的与注意力缺陷多动障碍(ADHD)有关,只能由医疗专业人员来做出诊断。
无法排除滥用风险
批评者和数据保护倡导者也一再指出,使用语音分析时存在巨大的滥用风险,例如雇主或健康保险呼叫中心的滥用。存在未经明确同意而使用语音分析系统的风险,并且客户或员工可能会因个人健康信息而处于不利地位。
同样,敏感的医疗信息可能更容易被泄露、遭到黑客攻击、被出售或以其他方式滥用。说到底,能够为语音分析作为诊断工具制定明确规定和限制的并不是科学界,而是政界。
来源:德国之声
链接:https://www.dw.com/zh/ai%E6%96%B0%E5%B7%A5%E5%85%B7%E7%94%A810%E7%A7%92%E9%92%9F%E8%AF%AD%E9%9F%B3%E5%B0%B1%E8%83%BD%E8%AF%8A%E6%96%AD2%E5%9E%8B%E7%B3%96%E5%B0%BF%E7%97%85/a-67385640
编辑:程博

771#
 楼主| 发表于 2023-11-18 23:12:59 | 只看该作者
OpenAI创始人萨姆·奥特曼被开除
乔布斯曾说,被苹果驱逐是他一生中最宝贵的经历。
现在,这种宝贵轮到了全球科技界的“当红辣子鸡”——OpenAI创始人萨姆·奥特曼(Sam Altman)。
昨天夜里,因ChatGPT爆火的OpenAI突然宣布,萨姆·奥特曼(Sam Altman)将辞去首席执行官一职,并且退出董事会。
基本上就是,要他离开,彻底离开。
官方给出的理由是:“他在与董事会的沟通中并不坦诚,阻碍了他履行职责的能力,董事会也不再相信他继续领导OpenAI的能力。”
而且,董事会还特别申明,这不是一个冲动的决定,“在奥特曼离职之前,董事会进行了审慎的审查。”
简单说就是,我们盯他很久了,哥们就是对组织不忠诚。
不老实,不忠诚,就滚蛋,这在全球都是司空见惯,但奥特曼的消息传来还是非常令人震惊,意外,也引发轩然大波,公司的员工更是一脸懵逼,欧,买噶,不敢相信这是真的。
这不只是因为他是OpenAI的创始人,缔造者之一,也更因为就在前一秒,他还在工作,还在公开场合高谈阔论。
他参加了旧金山的APEC会议,与政商大佬觥筹交错,并且被邀请发表了重要讲话。他先是老套地强调了技术的重要性,“如果我们想要繁荣发展数千万年、数亿年,甚至数十亿年,我们就需要技术。”
然后,给出了一个很符合OpenAI创始人,人工智能革命引领者身份,但却与大多数关于人工智能的讨论大相径庭的观点:
“人类正走在自我毁灭的道路上,而人工智能可能是阻止人类自我毁灭的手段。”
他才刚刚参加完OpenAI首届开发者大会,向全球开发者和ChatGPT用户公布OpenAI一系列产品更新,并且骄傲地宣布了一项成绩:
世界财富500强公司中,有92%的企业在使用其产品。
总而言之,没有任何迹象显示,通知下达之前,董事会已在准备干掉他,而他已经知道自己要被干掉。
更让人震惊的是,与其说这是奥特曼被驱逐,不如说这是OpenAI的一次大血洗,或者说资本与创始人的一次大博弈。
奥特曼之外,OpenAI的另一位联合创始人,董事会主席布罗克曼(Greg Brockman)也宣布辞去在OpenAI的职务。
这大半年来,奥特曼的名气甚至超过了科技狂人马斯克。也有不少人认为他就是下一个马斯克,甚至超过马斯克。
人们也观察到,面对ChatGPT的爆火和OpenAI的快速崛起,埃隆·马斯克——越来越愤怒。
去年,ChatGPT推出后仅一个月,马斯克就宣布停止OpenAI对Twitter数据库的访问。
“这并不奇怪,我刚刚得知OpenAI可以访问Twitter数据库,所以暂停了这项功能,因为我们需要更多了解它未来的治理结构和收入计划。”马斯克随后解释说。
推特的这一举动并没有阻碍ChatGPT火遍全网,上线两个月时间,月活突破1亿,成为史上增速最快的消费级应用。热潮之下,微软、谷歌,阿里、百度紧随其后,纷纷加速人工智能产品布局。
这大半年来,作为曾经的创始人之一,马斯克始终未停止对OpenAI的批评。几周前,他在自己的推特主页上质问:“我仍然很困惑,我捐赠了约1亿美元的非营利组织如何成为了市值300亿美元的营利性组织。如果这是合法的,为什么不是每个人都这样做呢?”
作为回击,OpenAI现任CEO山姆·奥特曼将他昔日的英雄马斯克称为:
“一个在推特上关心人类的混蛋。”
两位科技狂人的针锋相对,带着我们回到了气氛完全不同的2014年。
那一年,谷歌收购了一家当时领先的人工智能研究公司DeepMind。这个动作,让硅谷科技大佬们都顿觉压力袭来,其中就包括马斯克和奥特曼。
当时的马斯克是SpaceX和特斯拉的创始人,奥特曼是投资公司Y Combinator的年轻总裁。包括他俩在内的很多人都认为,DeepMind是最有可能在AI领域突破的科研机构。
他们的判断被证明了:DeepMind很快推出了AlphaGo,2016年,AlphaGo击败了世界围棋冠军、职业九段选手李世石,震惊全世界。
为了抗衡DeepMind,阻止谷歌垄断AI领域,甚至防止这项技术威胁人类安危,马斯克在他特斯拉总部的办公室里攒了一个局,邀请奥特曼及一些来自硅谷的亿万富翁朋友坐在一起,当即决定成立一个非营利组织,并邀请更多著名研究人员和企业家加入,他们有着同样的目标:
创造优秀的人工智能,并在这个过程中拯救世界——研究人工智能不是为了金钱利益,而是为了人性之善。
OpenAI正是这样诞生的。
马斯克带头捐了1亿美金,并承诺在5年内投资10亿美金,并与奥特曼共同担任董事会主席。
期间,二人分工明确,已经有很大影响力的马斯克负责外部工作,把OpenAI推向公众视野,同时吸引人才和金主,奥特曼则更多负责内部管理。
当时的奥特曼只有30岁,他常常穿着纯色T恤和牛仔裤出现在公众视野,据熟悉他的人说,他只有一套压箱底的西装,来应付——某些特殊的场合。
和马斯克一样,早期的奥特曼显得不善交际,甚至还被人当面问过“阿斯伯格综合症对你有什么帮助或影响?”不过据奥特曼的回应,他根本没被确诊过阿斯伯格综合症。
而马斯克曾自曝,在8岁左右被诊断出患有阿斯伯格综合症,求学期间遭到霸凌,通过自传的表述,马斯克在初中时期被一群同学殴打并且受到长时间的精神虐待,后来他曾回忆说:
“我差点被打死”。
类似的经历,让两人一度惺惺相惜,对人工智能的追求,则让他们因OpenAI的成立,成为了盟友。OpenAI成立的第二年,奥特曼对马斯克做了一次专访,就在马斯克特斯拉加州弗里蒙特工厂内,马斯克阐述了创建OpenAI的初衷,以及就他而言,对于未来最为重要的五件事。
▲奥特曼专访马斯克,目不转睛专心聆听
坐在对面的奥特曼目不转睛专心聆听,有观众在这段视频下评论,这场景好像——
“成名前的科比访谈乔丹”。
奥特曼比马斯克小14岁,当他和很多硅谷的科技大佬们坐在一起时,外形很容易让人误以为是高中生。但在整个成长过程中,他更习惯的标签是“疯狂的异类”。
1985年,他出生在保守的密苏里州、圣路易斯市郊区。奥特曼的母亲康妮·吉布斯汀回忆说,“奥特曼很早熟,对科技的狂热也很早就开始,2岁时开始使用家里的VCR,8岁时获得了第一台苹果电脑,学会了编程和拆解Macintosh。”
但奥特曼并不满足,据说,他最清晰的童年记忆之一是,坐在卧室玩着电脑,然后突然意识到:总有一天,电脑也会学着思考。
除了科技狂,奥特曼的特别,还包括自小就是一名素食主义者,以及16岁就公开出柜——在一个只有两千人的市郊社区出柜,这不是一件多么棒的事情。
但奥特曼却不惧压力,反而向学校喊话:“你们是想成为一个压制型的学校,还是对不同思想开放的学校?”
19岁的奥特曼考上了斯坦福大学,在那里,他进入了人工智能实验室开始研究。大二时,他和朋友共同创立了Loopt,这是一款基于定位系统的社交网络服务,可以告诉你的朋友们,你此刻身处哪里。
从这时起,美国程序员、风险投资家、Y Combinator的创始人保罗·格雷厄姆就注意到了奥特曼。
进入Y Combinator的最初几个月,20出头的奥特曼语速很快,对工作效率低的人没有耐心,他情绪不太稳定,但每周工作时长达100个小时是常事,高强度工作还让他得了坏血病。
但格雷厄姆却欣赏这一点:“⼭姆⾮常擅⻓变得强⼤。他成功通过了我们的测试,一开始我们怀疑,这个年轻人能管理好比他年长的团队吗?”
Y Combinator,奥特曼积累了对产品、行业和人才的判断能力。
不久后,保罗·格雷厄姆甚至将奥特曼与乔布斯作比,他表示,“为初创公司提供建议的是史蒂夫·乔布斯和奥特曼:关于设计问题,我会问史蒂夫会怎么做?而在战略和抱负问题上,我会问山姆怎么做?”
2014年,奥特曼正式接管Y Combinator。他将Y Combinator的投资战略从软件初创公司扩展到生物技术、能源和其他领域。
▲2015夏天,奥特曼与Y Combinator的合作伙伴们
尽管看起来像是“在混乱中寻找机会”,但奥特曼却一直有个梦想:让计算机可以像人类一样交流和学习。
正是因此,奥特曼的重心开始深入硅谷,也有了后来与马斯克的联合。
旧金山的OpenAI总部,看上去像一个新时代的理想乌托邦,阳光能够照进每一间办公室,遍布的多肉和蕨类植物,以及还有一间大学风格的自助餐厅、一个自助式酒吧和一座小图书馆。
作为一家非营利组织,早期的OpenAI试验了一些项目,比如教机器人如何执行解决魔方任务等,但发展却步履蹒跚。
2017年,OpenAI不得已解雇了一小部分员工。奥特曼透露,那一年,他不得不为OpenAI的资金筹集花心思,例如获得联邦资金和推出新的加密货币,但都没能得到满意结果。
这段时间,奥特曼与马斯克的关系也日益紧张,后者认为OpenAI的研究进展缓慢,并要求加强对OpenAI的管理和控制。
OpenAI的高管们最终重启了一个计划,希望创建一个营利性部门OpenAI LP,该部门将向非营利性母公司报告。
当时担任OpenAI顾问、后来担任董事会成员的LinkedIn联合创始人里德霍夫曼表示,这个计划的初衷是,吸引那些希望获利的投资者,加速OpenAI的进步。
但这个计划遭到了马斯克的强烈反对,他提出自己成为OpenAI的总裁来拯救它。当奥特曼和其他人拒绝时,马斯克选择了离开。
根据参加了会议的前员工回忆,马斯克在会上宣布离职,并解释说,他认为他有更好的机会通过特斯拉创造通用人工智能。在会上,一位年轻研究员质疑马斯克是否考虑过安全隐患。马斯克的回答是:
蠢货。
这也是许多OpenAI员工最后一次见到马斯克。他离开了OpenAI,撤回了大部分承诺的投资。
OpenAI看起来完蛋了,它失去了最大的投资者,在研究方面徘徊不前,作为一个不会造血的非营利组织,似乎再也没有未来。
转折发生在2018年夏天,在爱达荷州太阳谷举行的Allen & Co.年会上,奥特曼在楼梯间遇到了微软首席执行官萨蒂亚·纳德拉,并向他推荐了OpenAI,对方表示很感兴趣。
▲纳德拉(左)奥特曼(右)自拍合影(来源:奥特曼推特)
第二年,微软承诺在5年内投资10亿美元。后来,投资又增长到100亿美元。这让OpenAI变成了微软的风险投资,并成为与谷歌竞争的潜力资产。
把非盈利组织,变成商业公司,这成为了奥特曼被诟病的由来。
5月16日, 38岁的山姆·奥特曼罕见地穿上了深色西装,来到美国国会接受质询。
有议员对此发难:“你赚了很多钱吧?”
奥特曼的回答是:“我没有OpenAI的股权,我的薪水只够保险。做这件事只因热爱。”
此前,奥特曼曾因为自己并不拥有OpenAI的股权而感到骄傲,理由是,这样可以防止股权利益与决策的冲突。说白一点就是,可以更为公共利益或者事业理想,而不是为个人或资本利益去做决定。这次被开除,恐怕会改变他对股权利益与决策的想法:
没有股权的决策,是可以随时被股权干掉的。
2022年11月,微软的投资收到了第一份回报:ChatGPT的正式发布。比尔盖茨立即表示,ChatGPT技术将“改变我们的世界”。
ChatGPT发布仅5天内,就收获了超过100万用户注册。两个月内,它的用户已达到1亿,这是历史上消费应用程序达到这一目标的最快速度。
ChatGPT所展现的推理能力,也让奥特曼开始面临新的挑战,如何让人们相信人工智能不会抢走自己的工作,甚至,不会在某一天杀害自己。
包括曾经嫌弃OpenAI进展不够快的马斯克,也都频频站出来反对或者是嘲讽,认为人工智能技术可能会毁灭人类。
年初,马斯克还和苹果联合创始人Steve Wozniak等上千名科技界人士签署公开信,呼吁暂停AI系统的训练。
但没过几个月,马斯克却自己搞了一个人工智能新公司。
5月16日的听证会上,奥特曼一边强调人工智能的益处,一边坦言它可能对世界造成重大伤害:“我认为,如果这项技术出了问题,它可能会大错特错。”以及“我们希望与政府合作,防止这种情况发生。”
坦承和开放态度,帮助奥特曼赢得了国会的好感,但在随后的媒体访问中,他再次,多次直言不讳:AI已经进化出其无法解释的推理能力,并且有可能会杀死人类。
不够坚定捍卫OpenAI的立场和利益,甚至常常站在对立面,说不利于公司的真话,也被认为是奥特曼被驱逐的原因之一。
离开OpenAI ,显然会改变一下奥特曼,也对整个AI产生影响。
这种影响的大小和方式还是未知,但显然,奥特曼不会就此退休,甚至不会就此善罢甘休。
被离职后,他也在X(原推特)发文,若有所指地表示:稍后将有更多关于接下来的事情要说。
另外值得关注的是,奥特曼也已像马斯克那样,争当科技界的斜杠青年了,OpenAI之外,他已布局多家新的公司。
今年5 月 10 日,因为微软的支持,Helion 成为了世界上第一家获得实际购电协议的核聚变公司,而奥特曼正是Helion最大投资人之一,他曾一次拿出3.75 亿美元给Helion支持其烧钱改变世界。
这也进一步让不少人认为——奥特曼就是下一个马斯克一样的超级巨星。
不过,马斯克恐怕不这么认为。
奥特曼被离职的消息刚刚传出,马斯克就通过自己的官方账号发布了一个“求职申请链接”,并附带一句:“以防有人需要”。
有人说,这是马斯克在向奥特曼伸出橄榄枝,但这似乎更像马斯克在调戏奥特曼。
来源:https://mp.weixin.qq.com/s/F6fYcFdZNCQC5YTa4rpBrA
链接:华商韬略
编辑:程博

图片31.png (480.97 KB, 下载次数: 26)

图片31.png

图片27.png (644.65 KB, 下载次数: 27)

图片27.png
770#
 楼主| 发表于 2023-11-17 22:31:00 | 只看该作者
2024年,生成式AI的“炒作”要结束了?
“用ChatGPT-4写一封电子邮件,就好比让兰博基尼送披萨。 ”这句话听上去 有点夸 张,却一语道破了当前生成式AI在应用层上遇到的巨大难题: 成本过高,尤其是在AI产品和市场契合度(PMF)不那么高的情况下。
近期,分析公司CCS Insight发布预测报告称: 生成式人工智能领域将在明年接受现实的检验,具体表现在: 技术炒作逐渐消退,运行成本不断上升,监管呼声越来越多。 种种迹象表明:生成式AI的增长即将放缓。
就在报告发布的前一天,华尔街日报的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan & Deepa Seetharaman)在副标题中指出, 包括微软、谷歌在内的一些公司,正在努力尝试各种策略,只为让AI产品真正能赚到钱。
适道对这篇文章进行了编译和补充,结合CCS Insight的报告,试着梳理出生成式AI面临的困境,并给出相应的判断,以下是正文。
1 每月倒贴3000万美元,150万用户致成本失控
GitHub Copilot是微软基于ChatGPT推出的一款AI编程产品,被程序员们称为“开发者神器”,目前用户超过150万人。如果按照互联网时代的商业逻辑,GitHub Copilot以10美元/月的会员费,早就能赚到盆满钵满。但据文章作者所言,这款爆火的AI应用让微软亏到吐血。
今年的前几个月,GitHub Copilot平均每月要给每个用户倒贴20美元,给有些用户最多能倒贴80美元。算下来,自从推出GitHub Copilot,微软一个月就能亏3000万美元,如果情况不变,一年下来亏损直接过亿。不知道的以为微软转行做慈善了。
生成式AI “冤种”联盟的成员还有谷歌、亚马逊、Adobe、Zoom等。
为了避免血亏,Adobe公司直接对用户的每月使用量设置了上限。谷歌除了收取每月6美元起的常规会员费,将对一款AI助手的用户收取30美元/月的额外费用;微软则是在13美元/月的基础费用之上,对AI版Microsoft 365的用户多收30美元/月。另外,知情人透露,这两家巨头还会“偷梁换柱”,采用更便宜的小模型。
繁荣之下,为什么生成式AI会还能亏钱呢?
最主要的问题是成本失控。
首先,买硬件需要钱。AI算力芯片是大模型的发动机,早期微软向OpenAI投资的150多亿美元,大多数都用在了搭建AI超级计算机和购买AI芯片的硬件支出上。据悉GPT-4模型需要超过3万枚A100芯片。不然怎么说英伟达是当前AI时代当之无愧的最大赢家,也难怪MAAMA都开始卷起了芯片。
其次,大模型越聪明的代价是所需的算力越多。作者指出:企业要花费数年时间和数亿美元,才能训练出一个成熟的AI产品。a16z曾发布报告称,单次GPT-3训练的成本在50万美元到460万美元之间。就连电费都是一笔天文数字,据估算,2023年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100 GPU,每日电费在5万美元左右。
最重要的是,AI应用不具备互联网应用的规模经济。算力有成本,每计算一次要多花一次的钱。SemiAnalysis首席分析师Dylan Patel统计,OpenAI光是运行ChatGPT,每天投入的成本就可能高达70万美元。这导致使用AI产品的用户越多,或用户的使用次数越多,提供服务的企业就要支付更高的成本费用。如果只向用户收取一笔固定的月费,那么企业就会面临潜在的成本损失,正如微软在GitHub Copilot遭遇的血亏。
2 用户找不到为生成式AI付费的理由
当然,钱是赚来的,不是省来的。毕竟, “日亏70万美元”的吞金兽OpenAI,如今也能估值高达900亿美元。近期,The Information还爆出,OpenAI预计在未来一年内,通过销售AI软件及其计算能力,获得超过10亿美元的收入。
OpenAI在商业模式上的巨大成功并不具备普遍性。就目前来看,不少生成式AI产品的吸金能力显然有限。
Insight的杰出工程师Carm Taglienti指出:人工智能项目失败的原因99%与客户过高的期望值有关。但这句话也揭示了一点:现在的人工智能没有聪明到能解决用户希望解决的问题。
而根据红杉资本的判断,当前AI市场已经从“第一幕”——从技术出发,进入了 “第二幕”——从客户开始。这个阶段要求生成式AI必须具备解决人类问题的能力。也就是说,当人们对新兴技术的热情退散时,他们会思考自己到底需要何种AI服务,并质疑自己为什么要为AI付费?
这正如文章中Amazon Web Services的首席执行官Adam Selipsky所指出的:目前,许多用户开始对运行AI模型的高昂费用感到不满。
事实上,红杉资本的报告《Generative AI’s Act Two》也显示,无论是首月用户留存率,还是目前用户的日常使用情况,以大模型为代表的生成式AI使用情况都不容乐观。相比普通产品最高85%的留存和日/月活,用户体验过ChatGPT后还愿意继续用比例为56%,每天打开的比例仅为14%。
这或许意味着,至少很多用户还没找到自己必须使用生成式AI产品的理由。
to B的层面来讲,大模型也不是万金油。你所构建的AI产品必须与你试图解决的任务强相关。甚至OpenAI的首席技术官 Mira Murati也指出:企业用户并不是总需要最强大的模型,有时候他们只需要适合其特定用例且更经济实惠的模型。
而从解决问题的角度看,目前通用大模型存在使用成本高、推理延迟较大,数据泄漏、专业任务上不够准确等问题。与之相比,一些更小型、专业化的长尾模型具有更准确、更便宜、更快速的优点,刚好能够满足客户企业的需求。
总而言之,早期初创公司投资人在去年砸进了22亿美元资金,如果AI的实际应用确实达不到预期效果,随之而来的失望将导致投资缩减。
为企业打造生成式AI工具的公司Writer的首席执行官梅·哈比卜(May Habib)说,估值不断上升反映了人们对AI前景的热情,不过高管们很快就会更仔细地关注成本问题。他认为,明年投资者对于生成式AI就不会如此趋之若鹜了。
3 生成式AI最大的问题是向用户证明其价值
高昂的开发成本,再加上难以盈利的应用,反正不会让投资人高兴,可能只有英伟达和一些云服务提供商开心。
但情况真就如此糟糕吗?也不一定。文章指出:预计随着时间的推移,生成式AI会变得更便宜,就像云存储和3D动画等许多技术一样。同时,新芯片和其他创新可能也会降低处理成本。
可是即便事实如CCS Insight所预测的:2024年生成式AI的增长即将放缓,但从长远来看,生成式AI也一定会增长。正如Amara定律:我们倾向于在短期内高估一项技术的效果,在长期内低估其效果的现象。
这让人想到互联网发展初期的1998年,一位著名经济学家宣称:到2005年,一切将变得清晰,互联网对经济的影响不会超过传真机。”
或许,生成式AI目前只是处在“尴尬的青春期”,它最大的问题不是寻找使用案例、需求或分发,而是证明其在解决用户问题上产生的真正价值。正如福特汽车公司创始人的经典名言:如果我问客户他们想要什么,他们的回答一定是一辆更快的马”。无论如何,技术一定要走在市场前面,因为消费者看不到那么远。
来源:适道
链接:https://m.ofweek.com/ai/2023-10/ART-201700-8420-30613613.html
编辑:程博

769#
 楼主| 发表于 2023-11-16 23:06:25 | 只看该作者
OpenAI已在开发GPT-5,要创造相当于人脑的AGI
OpenAI CEO Sam Altman最近在采访中表示,OpenAI的愿景是打造AGI,在AGI的开发竞赛中,最难攻克的领域是大语言模型系统需要实现根本性的理解飞跃。从现在到AGI还有很长的路要走,需要大量的算力,以及高昂的训练费用。他还透露,公司正在开发下一代人工智能模型“GPT-5”,但没有公布具体的时间表。据了解,OpenAI正计划筹集更多资金支持,希望微软能继续投资。
“有意见”留言板
@卡卡卡卡西:能否实现高维智能,一看算力,二看算法,算力决定GPT的下限,算法决定GPT的上限,所以GPT 5能不能达到人脑水平,不仅要看奥特曼团队里这些顶级工程师有多少人能扛得住996,还要看英伟达能跑多快。
@future:我们都知道GPT-5会比之前所有模型都复杂,但是Sam Altman都表示很难精准预测该模型会有哪些新功能,也无法说出它能做到哪些GPT-4做不了的。感觉就像是一个未知的“魔盒”,让人向往,也容易让人陷落。
@啊不是吧我说:如果能做成当然是好了,那这家公司将成为跨时代的企业,当然ChatGPT的出现已经让它跨了一步,我祝它成功吧。
来源:澎湃新闻
链接:https://m.thepaper.cn/newsDetail_forward_25306101
编辑:程博

768#
 楼主| 发表于 2023-11-16 23:04:27 | 只看该作者
微软用大模型改变游戏业玩法,“NPC”从此有了数字生命
写出第一个电子游戏代码的人,是人工智能的先驱者图灵。
此后的半个多世纪,电子游戏的发展一直与前沿技术紧密交织,几乎每一次技术浪潮,都会重塑电子游戏的面貌。而现在,生成式AI技术的突破,又一次为这个行业带来了颠覆性的变革。
随着游戏开发成本的不断攀升和产品定价的停滞,越来越多的开发者开始转向AI工具。摩根士丹利的分析师最近预测,AI工具可能会将AAA级游戏的成本削减高达15%。而诸如微软的Xbox和索尼的PlayStation等游戏平台,将成为游戏行业中采用AI技术最明显的受益者,此外,还有Unity、Roblox和腾讯等公司。
在这一趋势中,微软已经率先行动。
Xbox & Inworld AI合作开发AI工具集
上周,微软宣布Xbox与AI初创公司Inworld AI建立长期合作伙伴关系,共同打造基于人工智能的游戏开发工具,用于创造游戏角色、任务和故事情节。据官方表示,新工具将有助于增强开发人员的创造力,降低开发复杂性,提高玩家体验。
其实早在今年三月份,就有开发人员利用OpenAI的GPT-4在一分钟内制作出一个电子游戏,展示了生成式AI在游戏开发上的潜力,而此次微软Xbox与Inworld AI合作,将AI在游戏领域的应用又推进了一大步。这对于今年全面进军生成式AI的微软来说,也是顺其自然的一步。
据了解,此次合作,将汇集Inworld使用生成式AI模型进行角色开发的专业知识,微软基于云的AI解决方案(包括Azure OpenAI服务),微软研究部门对未来游戏的技术洞察,以及Xbox团队在创作工具上的优势。
Xbox游戏AI总经理张海燕在博客文章中写道:“我们的目标是共同提供一个易于使用、设计负责任的多平台人工智能工具集,以协助和赋能创作者进行对话、故事和任务设计。”
工具集中包含两个关键工具:
AI Design Copilot:这个AI工具将作为游戏开发者的助手,将他们的创意想法转化为详细的剧本,包括对话,任务等,帮助开发者减少制作过程中所需的时间和资源,使游戏开发更快,并且打造出更广阔、更沉浸的世界和故事。
AI Character Runtime Engine:这个AI角色引擎可以集成到游戏客户端,为玩家动态生成故事、对话和任务,使NPC能够对玩家的行为做出反应,而不是遵循僵化的脚本,提升玩家体验。
张海燕表示,与Inworld合作是他们增强游戏开发者能力的重要一步。跟Xbox的所有开发工具一样,他们希望为世界各地、各个规模、各个平台的游戏开发者提供最先进的AI工具。帮助开发者更轻松地实现他们的愿景,突破当下游戏的界限,并尝试改进游戏玩法,建立起与玩家的连接。
“我们将与Xbox工作室内部的游戏创作者以及第三方工作室合作创新,开发满足他们需求并激发未来游戏新可能性的工具。”
生成式AI给了NPC“生命”
在游戏的虚拟世界中,每一位路过的行人、巡逻的警察,或是守卫在门口的士兵,都是游戏中的NPC。玩家们与这些角色交谈,解锁任务,推进剧情。尤其是在大型开放世界的RPG(角色扮演游戏)中,需要大量的NPC来支撑复杂的故事线,它们的丰富和真实程度直接影响玩家的体验和留存。
但传统的NPC往往由程序控制,被限制于简单重复的对话和行为模式,让人觉得枯燥乏味。Inworld报告显示,未来的NPC将转向更先进的AI NPC。绝大多数玩家都认为,AI驱动的NPC将改善游戏的玩法和体验,其中81%的玩家表示愿意为此支付更多钱。
AI角色引擎,便是实现这种AI驱动的工具。Inworld一直致力于研究能够像ChatGPT那样对玩家行为作出反应的AI NPC。它们不仅能以独特的声音回应玩家,还能为游戏带来富有个性和动态变化的故事情节。
利用Inworld技术,开发者可以通过文本快速创建适应于3D、策略、2D等多种游戏类型的NPC,还可以为其配备声音和动画,并提供一些安全控制以防止它们偏离轨道。这些角色拥有记忆、背景故事、情绪、情商、执行力和肢体语言等类人特性,极大提升了游戏的可玩性和开发效率。
Xbox平台正是创新使用这种技术的理想之地。这里汇聚了众多著名的RPG系列,比如《上古卷轴》、《辐射》、《永恒之柱》、《废土》、《神鬼寓言》等等。
Inworld AI官方表示,Inworld的目标是以前所未有的方式赋予游戏角色和虚拟世界生命。从预设的角色脚本模式转变为实时适应玩家行为和选择的模式,为玩家提供极高的参与感。
同时Inworld一直在积极解决游戏开发者集成生成AI技术时面临的挑战,并与网易旗下Team Miaozi、Niantic、Unity、Unreal Engine、Nvidia、NBCUniversal等公司团队进行合作。
资金方面,今年8月,Inworld在官网宣布获得5000万美元的融资,估值达到5亿美元。这笔融资使其成为AI+游戏领域资金最充足的初创公司。
AI在未来游戏开发中的角色
在游戏开发中,人工智能一直扮演着关键角色。Inworld AI首席执行官Ilya Gelfenbeyn认为,大模型和生成式AI技术的出现,为游戏世界的叙事和角色互动开辟了新的机遇。
谈及对Xbox的印象,Ilya Gelfenbeyn感慨地说,“我对Xbox最深刻的记忆可以追溯到《光环3》,那是我第一次体验到多人游戏的魅力。《光环3》在Xbox Live上推出了首个多人游戏服务,多年来,我一直对Xbox在游戏领域所做的贡献表示钦佩。”
他补充道,“Xbox不仅发布了《星际迷航》和《我的世界》等标志性游戏,还创建了一个包含服务、技术和能力的生态系统,释放了游戏开发商的创造力,捕捉世界各地游戏玩家的想象力。”
EA联合创始人Bing Gordon,也是Inworld的顾问,他对AI打造沉浸式游戏世界和复杂叙事的潜力充满信心。
“过去几十年里,游戏行业最大的进步就是视觉保真度和图像的提高,但是AI能够创造出真正沉浸式的世界,不仅使叙事更加丰富,还会将玩家置于游戏的核心,极大提高他们的参与度,吸引玩家进入游戏世界中。”
不过,人工智能在创意领域的应用还是引发了不小的争议。
今年9月,美国演员工会SAG-AFTR以压倒性的投票结果,批准了视频游戏表演者的罢工行动,要求与游戏公司进行谈判。这次谈判的焦点之一就是限制游戏公司使用人工智能或数字复制技术来替代或利用演员的形象和声音。谈判涉及到动视、EA、Epic Games等游戏大厂。
游戏公司对这些诉求予以拒绝,至今谈判未能取得进展。游戏公司认为,视频游戏行业与影视行业不同,AI技术是视频游戏行业发展的必然趋势,不应被限制或禁止。
来源:澎湃新闻
链接:https://m.thepaper.cn/newsDetail_forward_25317492
编辑:程博

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表