传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
501#
 楼主| 发表于 2021-8-18 16:42:57 | 只看该作者
【案例】已贴网站
伦理即服务:科技伦理与可信AI的下一个浪潮
原创:曹建峰  腾讯研究院高级研究员
胡锦浩  腾讯研究院助理研究员
科技伦理成为
必选项”和“必答题”
对于科技行业而言,科技伦理已是“必选项”和“必答题”。科技伦理被写入了十九届四中全会《决定》和《十四五规划和2035年远景目标纲要》,上升到了国家顶层政策设计。在监管层面,互联网监管聚焦人工智能算法应用,算法滥用、算法推荐的治理被提上日程,《数据安全法》要求数据活动和数据新技术应当“符合社会公德和伦理”。
科技伦理是科技活动必须遵守的价值准则,科技公司需要践行科技伦理。今年5月,在旷视科技IPO过程中,上交所首次对科技伦理进行了问询,要求旷视披露公司在人工智能伦理方面的组织架构、核心原则、内部控制及执行情况。今年7月28日,科技部发布《关于加强科技伦理治理的指导意见(征求意见稿)》,明确了伦理先行、敏捷治理等基本要求,并提出了五项科技伦理原则,同时要求企业根据实际情况建立科技伦理(审查)委员会,并要求“从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会”,此外还要求对科技人员加强科技伦理培训。《深圳经济特区人工智能产业促进条例(草案)》要求人工智能企业“设立伦理风险岗位”,“履行伦理审查和风险评估职责”。
可信的(trustworthy)、负责任的(responsible)、以人为本(human-centric)的人工智能已是AI领域的主旋律。然而,过去几年这一领域的主要进展停留在提出、建立AI伦理原则及相关框架,较少关注如何将这些原则转化为AI领域的技术实践。据不完全统计,全球关于人工智能原则的文件超过百份。将伦理原则付诸实践才能产生现实的价值。当前,各界已在探索将伦理原则翻译为实践的机制、做法、工具等,让人工智能原则操作化、落地化,真正融入、嵌入人工智能研发流程与业务应用。这些机制包括伦理审查委员会、伦理标准与认证、关于算法透明和伦理检查的最佳实践做法、技术工具等等,大都处于前期的摸索阶段。但这些实践具有一定的局限性,受限于成本、效率等因素,难以对AI领域产生规模化影响。借鉴互联网领域中的SaaS概念,以伦理工具方式展现的伦理即服务(ethics as a service)这一全新的理念开始得到重视,推动AI伦理产业化发展,让可信AI的普惠化成为可能。








图1:国外科技公司成立的科技伦理相关组织

以伦理即服务的方式消除伦理
要求与技术实践之间的隔阂
在此背景下,AI伦理行业继续方兴未艾,AI研发者和使用者对伦理领域的重视程度也愈发浓厚,一种新生的实践理论呼之欲出:伦理即服务(Ethics as Service)。2021年初,Jessica Morley等国外学者在论文“Ethics as a Service:a pragmatic operationalisation of AI Ethics”中提出了“伦理即服务”这一概念。简言之,“伦理即服务”旨在运用科技工具或其他方式将抽象的伦理原则转译为具体的服务措施,以数字化服务工具的方式将伦理要求嵌入AI产品与服务的全生命周期,从而推动AI伦理的实践和落地。
尽管该理念的愿景非常美好,希望切实推动AI伦理的实践和落地,但距离真正实现将科技伦理嵌入技术服务还存在一些不足。其中,伦理标准的抽象性、不确定性以及多样性,是制约将伦理转化为服务工具的首要因素。在众多关于伦理框架的文件的描述中,这些伦理原则涉足领域广泛,其标准涵盖了透明、公平、责任、隐私、信任、安全等内容。但在实践中,这些标准可能会随着不同国家的文化、风俗、习惯而不相一致,也导致AI伦理从概念转化为实践存在着较大的理论难题,需要通过国家立法和行业标准的“软硬治理”,消除由概念带来的模糊性和不可执行性,在抽象原则和技术工具之间建立起沟通桥梁。
同时,作者在论文中认为,除了伦理定义上的模糊,在实现AI伦理与技术耦合过程中,还存在着一些技术限制:
首先,伦理转译的工具和方法大多不具有强检验性(extra-empirical)。其主要体现在伦理标准的选择上,AI实践者会倾向于选择与自身价值观和理解认识相一致的伦理工具,而不是与社会的主流偏好相一致的伦理工具,这意味着开发者可以自主制定算法实践的评估标准,但自身却不受社会普世价值的约束,导致这些转译工具可能面临人为操纵的风险。
其次,许多既存的转译工具和方法都属于分析和判断型(diagnostic),而非规范和确定型(prescriptive),使得大部分的伦理工具欠缺实效性。例如,在算法偏见的场景中,伦理工具虽然能够提示是否存在偏见问题,但却无法提供解决偏见的路径。
最后,伦理转译工具通常会被开发者用于完成某些程序的一次性测试(one-off test),只能在系统设计之初对其合乎伦理性进行检测,而无法在之后对其进行贯穿生命周期的重复审查。
因此,作者认为,有必要定期检查算法系统的伦理影响,至少经过三个阶段的检验程序:确认、验证、评估。确认程序旨在检验算法系统的性能是否良好;验证程序旨在检验算法系统是否遵循了正确的开发流程;评估程序旨在检验算法系统在部署期间是否能保持正确的运行状态(Floridi, 2019)。有学者(Arnold & Scheutz, 2018)认为,除非伦理评估成为算法系统的必备选项,否则难以使伦理转译工具(pro-ethical translational tools)对AI系统的伦理影响(ethical implication)产生积极作用。
此外,上述对伦理工具的批判也引发了人们对伦理工具的质疑,认为伦理难以甚至不可能嵌入算法的设计、升级、部署以及使用等算法流程。然而,诸如医疗伦理、搜索伦理等算法应用领域的经验表明,将伦理原则付诸AI实践并非不切实际,而且有利于保护个人、团体、社会以及环境免受算法伤害,激励AI产出最优的算法结果。
作者在文中认为,“伦理即服务”是可实现、可操作的,但在研发思路上要满足以下两种标准:一是在抽象的伦理概念和具象的技术措施中达成妥协,也即,伦理原则不必过于抽象,也不必过于具体,伦理转译工具不能过于严格,也不能过于宽松;二是摒弃一次性、一揽子测试的伦理审查机制。
AI伦理服务是一项长期性、持续性的活动,不应以暂时性的审查结果为目标。同时,AI的开发机制应当是可回溯、可反思的(reflective),因为这种开发理念能够助益AI从业人员(practitioner)理解自身在特定环境下的主观目的(subjectivity)以及潜在偏见,从而揭示有悖于伦理的算法结果为何出现,也有利于对此类结果制定合适的解决方案。上述思路对于伦理服务工具的设计、开发以及应用而言,也极具启发意义。
AI伦理服务产业方兴未艾,
为AI产业补上缺失的一环,
助力可信AI发展
开发伦理工具是提供伦理服务的基础,也是让抽象的伦理原则操作化的重要方式。为此,在国内,谷歌、微软、IBM等头部科技公司开始积极研发伦理工具,越来越多的初创公司也开始投身于AI伦理市场,AI伦理开启了由框架到工具、由工具到服务的产业化道路。谷歌、微软、IBM等科技公司不仅主动研发伦理工具,而且通过将伦理工具开源化,或者在云服务上集成化来促进行业践行AI伦理。
例如,在算法模型安全领域,微软公司发布了一项名为Counterfit的对抗性技术开源化项目,旨在帮助开发人员测试AI系统和机器学习的安全性问题,在不同环境中针对合作伙伴机器学习模型展开测试,继而为AI企业的算法安全提供合适的风险评估工具,以确保AI业务的稳健性、安全性以及可靠性。
IBM公司依托其Watson OpenScale平台,通过IBM云和IBM云私人服务提供伦理服务,帮助企业在达到充分透明度、实现可解释性与公平性的情况下大规模运行和操作自动化AI系统,确保在AI模型在设计、研发、部署期间始终保持公平性、可解释性以及合规性,并且可以检测和纠正人工智能模型在生产中的数据漂移问题,以便对其进行故障诊断,从而提升模型性能。
谷歌公司则在谷歌云上规划AI伦理服务化的计划,以帮助其客户发现和修复其人工智能系统中的道德问题,相关服务可能包括检测算法歧视、制定AI项目的伦理指南、对客户的AI系统进行审计等等。
图二:国外科技公司开发的伦理工具及服务
在现阶段,除了头部科技公司开发AI伦理工具、提供相关AI伦理服务外,国外AI产业开始出现以专门提供伦理服务为主要业务的初创公司。该类初创公司并不关注于人工智能技术研发,而是为了帮助从事AI技术研发应用的AI企业应对其AI系统中的潜在伦理问题。AI伦理创业公司的出现,可以弥补AI产业化中缺失的伦理一环,助力可信、负责任AI的发展。类似于Parity AI、Fiddler、Arthur等小有名气的初创公司纷纷专注于不同伦理领域的技术支持和服务,旨在为其他科技公司提供更具专业和效益的伦理服务。AI伦理服务不仅可以帮助AI企业建立负责任的人工智能系统,还可以为该类企业现有的人工智能业务提供道德指导,从而促进整个AI产业更好思考、应对伦理问题,确保科技向善。
AI伦理创业市场的兴起并非毫无逻辑,其原因主要在于:
第一,科技企业在日常的AI技术研发上已经投入或占用了企业研发人员大量的时间与精力,在技术研发之外再要求其关注AI伦理问题则会导致分身乏术,并非所有AI企业或团队都愿意投入时间研发AI伦理工具。
第二,人工智能技术本身的研发成本始终高昂,并非所有AI研发企业都能够有充足的资金协调人工智能技术自身的研发成本以及嵌入AI伦理的成本,在技术研发以外再在AI伦理上进行额外的投入将会对技术研发造成一定负面影响。头部公司具有雄厚的研发资金以支持其伦理工具的研发,但对于其他的中小微企业而言,如果苛求其成立专门的审查机构、投入大量的研发成本,可能会成为压死骆驼的最后一根稻草,得不偿失,既不现实,也无必要。
第三,AI伦理问题的专业性极高,对从事与AI伦理相关范畴工作的专家要求极高,技术研发人员并不能直接转化为AI伦理研究人员,技术人员在没有AI伦理研究人员指导下所开发的伦理工具也将具有局限性。为了破解AI产业中AI伦理的供需不对称,AI产业中开始出现专门提供AI伦理服务的第三方企业,该类企业专门研发帮助落实AI伦理原则的技术服务,供缺少AI伦理相关内置产品的人工智能技术企业使用。AI伦理产业化发展需要积聚众多科技企业的智慧和力量,鼓励、引导AI伦理服务企业的创新和发展,是推动AI伦理落地的长久之策。
AI伦理创业公司
抢占细分领域赛道,
伦理服务趋向精细化和专业化
目前,细分不同伦理领域,提供专业精细服务,是国外AI伦理企业迅速抢占市场,树立品牌特色的主流做法。提供伦理服务的初创公司并非提供一揽子面面俱到的服务内容,而是根据细分的伦理要求提供专业度高的精细化服务。现阶段,各类初创公司主要关注于如实现可解释性要求、实现公平性要求、风险管理、伦理审计等服务内容。根据伦理服务的不同领域,可以将目前提供伦理服务的初创公司划分为以下几类:
第一,立足决策稳健,提供风险评估服务。Parity AI公司为AI企业提供开发、监测和修复其人工智能模型的工具方法,主要聚焦于缓解偏见、实现公平、可解释性以及伦理审计。在审计方面,Parity AI创建了一套能够缩减伦理审计时间的工具,该工具的运行模式为,根据客户需求确定人工智能模型审计的内容,进而提供相关建议,而且Parity AI帮助AI企业组织审计的全过程。审计过程中,首先协助AI企业进行内部影响评估,在AI企业内部针对人工智能业务进行开放式调查,在这过程中可以采用由Parity AI公司所建立的建议问题库,其中包含超过一千个来自世界各地区AI伦理准则或相关立法的提示词汇及相关问题;在开放调查的基础上,Parity AI会提出相关伦理风险缓解的推荐与建议。在此过程中,Parity AI能够帮助专门的技术人员更好地理解AI伦理的原则与要求。第二,立足决策透明,提供可解释性服务。2018年成立的Fiddler公司致力于实现AI可解释的目标,为解决模型可解释性、模型监控以及模型偏差检测等问题,开发出一套机器学习模型性能管理工具(ML Model Performance Management,MPM)。该工具的作用在于能够有效降低算法模型的黑箱性风险,并实时对模型的参数进行持续监控,帮助AI开发者验证模型、解释模型性能以及记录模型指标。同时,由于机器学习模型的预测质量可能会随着时间的推移而下降,当用于算法运作的数据和实际使用的数据不相一致时,就会产生模型漂移(model drift)的问题。基于此,MPM工具还能帮助数据科学团队跟踪人工智能模型不断变化的性能,并根据结果为业务主管创建高级别报告,如果该模型的准确性随着时间的推移而恶化,或者显示出偏见倾向性,Fiddler亦可帮助该人工智能系统调试及发现可能的原因。

图三:MPM工具的运作机制
在定位上,MPM工具并不会替代现有的机器学习训练、部署以及服务系统,而是在机器学习流程中扮演守夜人的角色,旨在对模型运作的全程进行监控和解释说明。具体而言,MPM具有两方面的作用:一是偏离度监测(DetectTrain/Serving Skew)。当机器学习的数据发生偏离时,训练模型会出现异常并需要纠正,MPM工具能够将训练数据和预测日志保存在同一个地方,使得开发者可以及时发现偏离。二是时间回溯(Time Travel)。MPM工具能够为用户提供程序倒查的功能。Fiddler官方为此举了一个形象的例子,当银行使用机器学习算法来驳回客户的特定贷款申请,而招致客户的投诉和抱怨时,使用者就可以登录MPM系统,就其保存的数据为客户还原模型的预测和决策过程,从而达到AI可解释的效果。
Arthur公司与Weights & Biases公司同样强调可解释性和缓解偏见、实现公平性。Arthur公司努力解决人工智能系统中的黑盒问题,并且承认解决人工智能可解释性问题有较高难度,目前并未形成最优解决方案。Weights & Biases公司旨在帮助机器学习工程师分析其网络的潜在问题,日本丰田公司已经在使用Weights & Biases公司所创建的工具来监测其企业内机器学习设备的训练情况。
第三,立足决策公平,提供算法修复服务。针对AI决策层出不穷的算法歧视问题,埃森哲公司致力于开发出一款能够快速评估数据是否创造公平结果的伦理工具(fairness tool)。该工具运用一种能够定义公平性的统计算法来识别人们是否受到了算法的不公正对待,同时还会挖掘、分析、定义公平性相关的敏感变量。例如,算法在做决策时通常不会考虑性别问题,但如果加入收入因素的考量,就会容易在男女性别间产生不同的决策结果。该工具会将此类相关信息纳入公平性的评估范畴,同时还要关注每个决策变量的错误率,通过比较不同变量之间的错误率,分析出影响决策公平性的变量因素。同时,此前的研究表明,AI伦理对于公平性的界定存在多达21种类型的解释方法,因此,很难对不同场景下的公平性作出统一定义。尽管埃森哲的伦理工具能够减少影响公平性评估的错误因素,但考虑到修复程序可能会降低算法评估的准确性,因此该工具将是否调整参数的决定权交还给用户,也即只提供修复结果的权衡选择(trade-off),但最终交由用户来决定错误因素的调整范围。
虽然目前AI仍无法做到对算法公平进行精确定义,但埃森哲负责任AI的前团队负责人、现任Twitter公司机器学习伦理团队负责人的乔杜里表示,该公平性工具能够用于解决某些实际问题。2020年,埃森哲与爱尔兰联合银行(AIB)达成合作,正式将算法公平工具应用于传统银行业。AIB希望借助该工具减少算法模型的偏离度和歧视性,增进银行AI业务的公平性和可信任度。在应用路径上,二者采用传统业务和算法决策相配合的协作机制,共同评估银行算法模型的公平性,包括将该工具用于检测、评估银行业务中的潜在风险以及预期效果,最终取得了显著成效。实践证明,算法公平工具能够基于公平的维度帮助AIB更深入地理解其数据模型结果,也使得AIB的大数据科学团队可以借助公平性分析减少算法偏见和决策风险,从而增强银行使用AI的信心和能力。
科技伦理治理需要多管齐下,
以“伦理嵌入设计”的理念与实践
实现技术与伦理之间的有效互动
《关于加强科技伦理治理的指导意见(征求意见稿)》提出了“伦理先行,敏捷治理”的基本要求。伦理如何先行?需要伦理委员会、技术工具、伦理培训等多管齐下,也需要创新治理方式。在这方面,我们可以借鉴互联网领域的一个成熟概念:隐私嵌入设计(privacy by design,PbD)。PbD已具有很好的实践基础,可以为人工智能的伦理治理提供有益经验。在PbD理念与实践的基础上,人工智能产业需要拥抱“伦理嵌入设计”(ethics bydesign,EbD)这一全新的理念,并推动这一理念在人工智能实践中的落地。各界可以一起探索“伦理嵌入设计”的最佳实践做法、行业标准、技术指南等。
而近年来伦理工具和AI伦理即服务的勃兴丰富了“伦理嵌入设计”的理念和实践路径,在某种程度上,这也是产业界开始推动负责任创新,以技术的方式解决技术带来的问题。如前所述,随着提供AI伦理服务的初创公司不断涌现,AI产业中的伦理供需失衡促使AI伦理服务公司开始走向成熟化、精细化、规模化,该类服务公司能够在细分领域中提供适应AI产业变化的伦理服务,加速AI伦理由原则到框架再到实践的进程,帮助AI伦理在更多使用场景和产业范围内顺利落地,弥补AI产业中缺失的伦理一环。同时,从长远来看,伦理服务已成为未来AI产业的应有之义,尽管AI伦理服务有着广阔的发展前景,但目前仍处于起步和探索阶段,需要各界一起凝聚更多共识与实现机制、模式等。
最后,在人工智能、区块链、虚拟现实、metaverse等新兴技术与模式加速演进变革的今天,科技伦理固然显得愈发重要,但一方面需要注意不要把科技伦理当作一种华而不实的雕饰与粉饰,而需要通过真正有效的机制让科技伦理对科技创新形成正向引导;另一方面科技创新本就是一种不确定性的探索,无法免疫所有的风险,因此也需要立法与伦理规范的精细平衡,平衡好安全与创新发展。
来源:腾讯研究院
编辑:何晓琴

502#
 楼主| 发表于 2021-8-20 13:00:31 | 只看该作者
【案例】
智搜写作机器人,看智能化如何定义未来写作
创新引领未来,数据驱动价值。在智能化时代,大数据的应用成为了不可阻挡的潮流,智能未来写作有迹可循。
Giiso写作机器人作为智能写作行业的技术标杆,是如何有能力去定义未来写作新形态的呢?
“工欲善其事,必先利其器”,想要真正实现智能写作,就必须拥有顶尖的研发团队、强大的技术积累、丰富的研发经验以及广泛的业务合作,为智能写作保驾护航。
Giiso写作机器人自2019年产品上线以来,已经吸引数十万个人用户注册使用,同时与国内政府、传媒,金融,营销等大型政企类客户,建立了稳定的商业合作关系。
智搜(Giiso)是中国首款支持内容纯原创的AI写作产品,能够进行选、写、改、编、发全流程智能化,人机协同,快速出稿。下分热点写作、汽车写作、财经快报、文章裂变、提纲写作、思想学习、天气预报7个专业写作板块,高效便捷应用于媒体、政府、金融、汽车等领域。
以热点写作为例,智搜提供全平台热度榜单和最新资讯,可以从不同维度推荐热门写作主题。系统根据用户输入(选择)的主题,自动生成数篇至数十篇底稿,让用户自由选择最适合的底稿。智搜独有的“AI原创”推荐,可以实现机器模拟人写出相关的内容或加工出更多具有原创度的素材。同时,智搜也提供查重、改写、扩写、纠错、敏感词检测,智能排序等多种智能化功能,将各种审核校对的功能升级为一键式处理工具。
与智同行,为创作加速。在不远的未来,随着技术的逐渐成熟、新型算法的不断出现、深度学习应用的进一步突破,智搜必将推出更多的写作产品来满足各种写作场景,迎来更快速的发展,在新型写作领域实现更广泛、更深远的应用,对智能写作技术落地起到更大的推动作用。
来源:Giiso写作机器人
编辑:何晓琴

微信图片_20210820125417.png (100.11 KB, 下载次数: 22)

微信图片_20210820125417.png
503#
 楼主| 发表于 2021-8-20 17:32:49 | 只看该作者
【案例】









来源:重庆信通设计院网安前沿
编辑:何晓琴

4.png (113.27 KB, 下载次数: 23)

4.png
504#
 楼主| 发表于 2021-8-21 13:16:09 | 只看该作者
【案例】






来源:特斯拉tesla
编辑:何晓琴


505#
 楼主| 发表于 2021-8-22 14:06:51 | 只看该作者
【案例】
刘永谋:技术有病,谁有药?庄表伟答:产品经理有药,我对这个回答极为赞同|回应
8月20日,就“技术如何影响人类”问题接受采访,记者张文静以“技术有病,谁有药?”为题发表在《中国科学报》上,引发一些关注。

其中,华为公司技术专家庄表伟写下题为“产品经理的伦理学”的文章,对采访的核心问题进行回答。


庄先生的回答非常有启发性,值得认真回应和思考。

文静在采访中提出的核心问题:技术有病,谁有药?庄先生答曰:技术有病,产品经理有药。

庄先生论证的逻辑非常清楚。他认为,给技术“治病”,从根本上是产品设计问题。然后,举汽车安全带与刹车系统为例,他说明了从技术到产品的过程中,产品经理的思考如何决定技术产品的“进化”方向。进一步,他挖掘刺激产品设计改变的因素,指出目前两种力量起到最重要的作用,即市场和法律,而哲学家们热议的所谓伦理动机或伦理准则并未成为产品经理考虑的因素。为什么?KPI(关键绩效指标)没有这一项。

庄先生说的是实情。我早已发现,在中国技术的传统哲学伦理学讨论,对于实际应对技术问题没有什么用,基本上属于“清谈”,根本进不了“圈”。比如,最近到处热议的科技伦理委员会,如果不能制度性赋权来“落地”,很容易成为可有可无的“橡皮图章”。

但是,庄先生也承认,市场和法律作为引发技术产品改进的力量存在着明显的问题,即“前者我们怕它不灵,后者我们又怕它太慢了”。于是,他又转向伦理学领域思考:伦理守则作用不显著,可以考虑工程师的伦理教育,但现在的问题是工程师的哲学伦理学素质还很缺,缺少必要的思考框架和实际的案例反馈。

庄先生没有专门研究技术哲学,但是上述思考非常符合当代技术哲学研究的某些最新思路。

首先要澄清一点:技术哲学虽然叫“哲学”,但它是面对实际技术进展及其社会影响的应用哲学反思。我主张技术哲学的核心目标并不是进行传统的、与现实极其遥远形而上学讨论,而是一种要介入技术现实的问题学反思。我从来没想把技术哲学变成某种文本创造,而是希望它真正地有益于当代技术发展和社会福祉。

伦理清谈作用不大,不仅是中国的情况,全世界都一样。因此,技术哲学家考虑让伦理变得“有力量”,而不仅仅止于让人生厌的唠叨或抒情。上面庄先生谈到的几个办法,哲学家都已经在认真考虑:

(1)各级科技伦理委员会不光要建立,还要通过法律规章赋予它实质的权力,并且委员会的组成和运转也要讲究,比如不能完全由技术专家组成,否则就没有意义。

(2)将伦理原则融合在技术产品中,正是所谓“道德物化”、设计哲学和负责任设计的思路,上述安全带和刹车的例子便是典型的“道德物化”例子,经常被哲学家举出来。

(3)工程师的伦理教育方法恰恰就是想把伦理意识、伦理原则和伦理案例“内化”到工程师心中,而不是通过KPI来“逼迫”。也就是说,工程师教育在工程师培养过程中全程发挥作用,从大学工科教育就开始,要春风化雨、潜移默化。正如庄先生提到的,工程师教育应该结合具体工程案例来讨论,而不是脱离科学技术的空洞道德说教。

总之,庄先生讨论的问题,正是技术哲学界最近十多年讨论的热点问题。

并且,除了他想的问题,哲学家们还提出其他一些有价值的“落地”方法。所有这些方法都在传达一种思路:哲学家要与科学家、技术人员、工程师以及公众团结起来,介入现实技术问题,齐心协力来实现引导、调节和控制技术发展的目标。

这里就引出了我对“技术有病,谁有药”这一问题的回答:技术有病,治病的药在每个人手中,每个人都要关注技术发展的社会影响问题。以人人参与的民主化方式来应对技术问题,一个基本前提是:今日之技术已经影响每个人的日常生活,人人受影响,因而人人都有动力和责任来做点什么。

事实上,人民群众对技术发展问题关注热情非常之高,这从最近火星探测、中国宇航员出仓以及马克斯搞的RobotDay上热搜可见一斑。

西方一些技术哲学家是从民主发展的角度看待技术问题的人人参与的。他们认为,技术领域的民主即技术民主是当代民主最重要的议题之一,包括这些年很热的气候政治、能源政治、环境政治(如碳中和)等问题都与技术民主相关,甚至属于“大技术民主”的范畴。

再进一步分析,上面讲的“每个人”当然包括产品经理。并且,产品经理位置特殊,因为伦理因素只有通过产品设计才能真正融入技术产品中去。同样,庄先生最后强调的“还是需要基础研究”,也是将科技人员放在科技伦理问题的特殊位置上,即他们比普通民众应该有更大的责任,也应该有更大的发言权。

对于这个问题,哲学家们意见不一,争论很大。一些认为,在科技伦理问题上,科学家并没有特殊地位,因为他们懂的是科技,而不是伦理专家。另一些人则认为,普通公众对于技术专业难以把握,还是应该以科学家的意见为主。还有一些人认为,在外行与专家之间存在着中间类型如互动型专家,这样的人没有经过专业训练,但是通过长期业余学习,能够同时与专家和外行沟通。

对此,我考虑的是:中国现在当先的问题是唤起大家的科技伦理意识,尤其是科学家、技术人员和工程师的科技伦理意识,然后大家一起讨论如何把问题落实,不要让科技伦理研究和讨论成为哲学家的某种“嘴炮”。

仅这一点,庄表伟的讨论都是非常有价值的。何况他还提出很多对哲学家非常有启发的真知灼见呢!?


以下照录庄先生的文章《产品经理的伦理学》如下。


                               2021August 21
产品经理的伦理学

作者:庄表伟

技术有病,谁有药?

昨天读到了一篇很有意思的文章《技术有病,谁有药?》,有一些哲学家,对于当今的技术问题,产生了“普通用户” 的困扰。当然,一般的用户,可能仅仅是简单的困扰,而哲学家们,却由此引发了更加深入的思考。

大家都在睡觉前玩手机,甚至因此拖到很晚。
大家都在吃饭的时候看手机,甚至没空和同桌吃饭的家人朋友交流。
大家都更加相信手机导航,也因为导航失灵,掉到了“坑”里。
大家都遇到过网络失灵、PC死机、手机死机、App出现bug。
到了哲学家这里,这个问题会被“抽象”的讨论。比如:人对技术的依赖,人被技术所异化,以及人被技术所拒绝。

但是,作为一个技术出身的圈内人,做过程序员、做过架构师,也做过产品经理的人。这个问题不会被这么“抽象”的讨论。这不就是一个产品设计的问题吗?所以我发了一条朋友圈:“技术有病,产品经理有药。”

结果,非常有意思的是,另一朋友回复到:“产品经理有毒”。我又再次回复给他:“毒药也是药,是的,产品经理既能为善,也能作恶。”

产品经理也要关注伦理学?

因为与文章中的刘永谋老师认识,于是我把这段有趣的对话,发给了刘老师。并且说道:“其实不开玩笑的说,我觉得确实应该重视“产品经理”的作用。在技术如何变成产品的过程中,产品经理的作用越来越重要,而这个岗位,现在的目标还是完全不思考“善恶”的。”

于是,在刘老师的鼓励下,我打算认真的思考一下:产品经理的伦理学

在动笔之前,我思考的第一个问题就是:“这篇文章会写给谁看?产品经理吗?”

如果我以“用户体验”为出发点来谈,产品经理们是会看的。但是,上升到伦理学的高度,估计他们就摇头走开了。

为啥呢?因为他的KPI里,没有这一项。

汽车上的安全带与刹车系统是如何进化的?

简单的回顾一下历史:

1885年,那时欧洲普遍使用马车,那时的安全带只是简单的为了防止乘客从马车上摔下来。
1910年飞机上开始出现安全带。
1922年,赛车场上的跑车开始使用安全带,
1955年,美国福特轿车开始装用安全带,总体来说这个时期的安全带以两点式安全带为主。
1955年飞机设计师尼尔斯到沃尔沃汽车公司工作以后发明了三点式安全带。
1963年,沃尔沃汽车公司开始把尼尔斯的三点式汽车安全带注册,并在自产的汽车上装配。
1968年,美国规定轿车面向前方的座位均要安装安全带,欧洲和日本等发达国家也相继制定了汽车乘员必须佩带安全带的规定。
我国于1992年11月15日颁布了通告,规定1993年7月1日起,所有小客车(包括轿车、吉普车、面包车、微型车)驾驶人和前排座乘车人必须使用安全带。
简单的总结就是:因为汽车越来越快,我们需要对乘客有越来越好的安全保障。类似的,从1885年时没有刹车的汽车,到1900年的鼓式制动器,1950年盘式制动器,1990年以后的防抱死制动系统(ABS)。汽车制动系统,也从无到有,并变得不断的先进与智能。

产品设计为何能被迫进化?

有一个经典的案例,发生在美国。因为1993年的一起车辆事故,一辆1979年生产的雪佛兰汽车被撞起火,导致车上6人严重烧伤。其中她的5岁的女儿艾丽萨不仅失去了右臂,而且被烧得面目全非,共做过70余次手术;另外两个孩子的烧伤面积也多达百分之六十。

结果原告律师起诉,要求通用汽车赔偿49亿美金,其中1亿美金为补偿性赔偿,其余48亿美金为惩罚性赔偿。原因就在于:“通用汽车公司早已知道这一型号汽车的油箱存在着潜在危险,但公司出于成本和利润方面的考虑,对此采取了置之不理的做法。” 经过1999年的二审,最后的赔偿金额,由原来的48亿美元降至10.9亿美元。

简单总结就是:如果没有重大人身伤害,没有相关诉讼,没有高额赔偿。产品设计在安全性、便利性、合理性、友好性方面的改进,完全可能动力不足。

相对而言,绝大多数的PC上的问题、手机上的问题,网络方面的问题,都不至于导致用户的生命财产重大损失,往往只是引发抱怨,用户不满而已。

两种引发改进的力量

一般来说,我们能够观察到两种力量,一种是市场,一种是法律。前者我们怕它不灵,后者我们又怕它太慢了。

市场失灵,也是一个老话题了。尤其在互联网/IT这个领域,赢家通吃,一旦经过了早期竞争阶段,市场只剩下他们一家的时候,唯一能够推动他们改进的,就是利润。而不是:用户满意度。除非用户满意度下降,可能减少他们的利润。

法律强制力当然是够的,但是往往只能在“灾难级现象”发生之后,才会有法律介入。虽然亡羊补牢,犹未为晚。但是,毕竟还是晚了。尤其是那些称不上灾难的小小不适,法律也不方便插手啊。

工程师的伦理守则如何?

在上次与刘永谋老师的交流中,我们也聊到了“工程师的伦理教育”问题,当时我还只是考虑了一个方面:工程师/产品经理,应该如何提高自身的修养与意识,能够在自己的工作过程中,做出更好的设计与开发。

正好今天翻到了《美国土木工程师学会ASCE的伦理守则》,其中的第一条也是:“工程师在执行他们的专业职务时,应该将公众安全、健康、福利摆在最高位置,应该努力遵循可持续发展的原则。”

问题在于:无论是工程师,还是产品经理,他们如何才能知道,自己设计的产品,将会如何影响到公众安全、健康与福利呢?如果,他们缺少这样的思考框架,缺少实际的案例反馈,他们又如何能够具备必须的意识与能力呢?

仅有伦理守则是不够的!

还是需要基础研究

还是回到汽车的例子,如果一辆车要想开得又快、又安全、又舒适、又便捷。仅仅有动力系统是不够的,还需要有制动系统。甚至仅仅有制动系统也是不够的,还需要行驶系统、传动系统、转向系统、悬挂系统。如果将来我们的AI越来越发达,智能驾驶技术不断成熟,甚至还需要加上预判风险与紧急避险的系统。

同样的,一个社会的不断发展,当然依靠科技的推动力量。但是,制动的力量在哪里?监控的力量在哪里?避震的架构如何设计?操作技术的逻辑是怎么体现的?随着技术的能力越来越强大,我们如何预判技术带来的风险,又如何规避或减轻这些危害呢?

还是需要更多的基础研究

一些不成熟的思考,想想还是写出来,共大家参考吧。正好,在写作这篇文章的时候,微信给我推送了一个TEDx演讲,《老年人如何在数字时代里享有尊严|TEDx深圳》,也推荐给大家阅读。

来源:不好为师而人师者
编辑:何晓琴

506#
 楼主| 发表于 2021-8-24 21:56:17 | 只看该作者
【案例】
作者
曹建峰    腾讯研究院高级研究员
胡锦浩    腾讯研究院助理研究员
科技伦理成为必选项必答题
对于科技行业而言,科技伦理已是必选项必答题。 科技伦理被写入了十九届四中全会《决定》和《十四五规划和2035年远景目标纲要》,上升到了国家顶层政策设计。 在监管层面,互联网监管聚焦人工智能算法应用,算法滥用、算法推荐的治理被提上日程,《数据安全法》要求数据活动和数据新技术应当符合社会公德和伦理
科技伦理是科技活动必须遵守的价值准则,科技公司需要践行科技伦理。 今年5月,在旷视科技IPO过程中,上交所首次对科技伦理进行了问询,要求旷视披露公司在人工智能伦理方面的组织架构、核心原则、内部控制及执行情况。 今年728日,科技部发布《关于加强科技伦理治理的指导意见 (征求意见稿) 》,明确了伦理先行、敏捷治理等基本要求,并提出了五项科技伦理原则,同时要求企业根据实际情况建立科技伦理 (审查) 委员会,并要求从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理 (审查) 委员会,此外还要求对科技人员加强科技伦理培训。 《深圳经济特区人工智能产业促进条例 (草案) 》要求人工智能企业设立伦理风险岗位履行伦理审查和风险评估职责
可信的 trustworthy) 、负责任的 (responsible) 、以人为本 (human-centric) 的人工智能已是AI领域的主旋律。 然而,过去几年这一领域的主要进展停留在提出、建立AI伦理原则及相关框架,较少关注如何将这些原则转化为AI领域的技术实践。 据不完全统计,全球关于人工智能原则的文件超过百份。 将伦理原则付诸实践才能产生现实的价值。 当前,各界已在探索将伦理原则翻译为实践的机制、做法、工具等,让人工智能原则操作化、落地化,真正融入、嵌入人工智能研发流程与业务应用。 这些机制包括伦理审查委员会、伦理标准与认证、关于算法透明和伦理检查的最佳实践做法、技术工具等等,大都处于前期的摸索阶段。 但这些实践具有一定的局限性,受限于成本、效率等因素,难以对AI领域产生规模化影响。 借鉴互联网领域中的SaaS概念,以伦理工具方式展现的伦理即服务 (ethics as a service) 这一全新的理念开始得到重视,推动AI伦理产业化发展,让可信AI的普惠化成为可能。

1: 国外科技公司成立的科技伦理相关组织
以伦理即服务的方式消除伦理要求与技术实践之间的隔阂
在此背景下,AI伦理行业继续方兴未艾,AI研发者和使用者对伦理领域的重视程度也愈发浓厚,一种新生的实践理论呼之欲出: 伦理即服务 (Ethics as Service) 2021年初,Jessica Morley等国外学者在论文“Ethics as a Service: a pragmatic operationalisation of AI Ethics”中提出了伦理即服务这一概念。 简言之,伦理即服务旨在运用科技工具或其他方式将抽象的伦理原则转译为具体的服务措施,以数字化服务工具的方式将伦理要求嵌入AI产品与服务的全生命周期,从而推动AI伦理的实践和落地。
尽管该理念的愿景非常美好,希望切实推动AI伦理的实践和落地,但距离真正实现将科技伦理嵌入技术服务还存在一些不足。 其中,伦理标准的抽象性、不确定性以及多样性,是制约将伦理转化为服务工具的首要因素。 在众多关于伦理框架的文件的描述中,这些伦理原则涉足领域广泛,其标准涵盖了透明、公平、责任、隐私、信任、安全等内容。 但在实践中,这些标准可能会随着不同国家的文化、风俗、习惯而不相一致,也导致AI伦理从概念转化为实践存在着较大的理论难题,需要通过国家立法和行业标准的软硬治理,消除由概念带来的模糊性和不可执行性,在抽象原则和技术工具之间建立起沟通桥梁。
同时,作者在论文中认为,除了伦理定义上的模糊,在实现AI伦理与技术耦合过程中,还存在着一些技术限制:
首先,伦理转译的工具和方法大多不具有强检验性 (extra-empirical) 。 其主要体现在伦理标准的选择上,AI实践者会倾向于选择与自身价值观和理解认识相一致的伦理工具,而不是与社会的主流偏好相一致的伦理工具,这意味着开发者可以自主制定算法实践的评估标准,但自身却不受社会普世价值的约束,导致这些转译工具可能面临人为操纵的风险。
其次,许多既存的转译工具和方法都属于分析和判断型 (diagnostic) ,而非规范和确定型 (prescriptive) ,使得大部分的伦理工具欠缺实效性。 例如,在算法偏见的场景中,伦理工具虽然能够提示是否存在偏见问题,但却无法提供解决偏见的路径。
最后,伦理转译工具通常会被开发者用于完成某些程序的一次性测试 (one-off test) ,只能在系统设计之初对其合乎伦理性进行检测,而无法在之后对其进行贯穿生命周期的重复审查。
因此,作者认为,有必要定期检查算法系统的伦理影响,至少经过三个阶段的检验程序: 确认、验证、评估。 确认程序旨在检验算法系统的性能是否良好; 验证程序旨在检验算法系统是否遵循了正确的开发流程; 评估程序旨在检验算法系统在部署期间是否能保持正确的运行状态 Floridi, 2019) 。 有学者 (Arnold & Scheutz, 2018) 认为,除非伦理评估成为算法系统的必备选项,否则难以使伦理转译工具 (pro-ethical translational tools) AI系统的伦理影响 (ethical implication) 产生积极作用。
此外,上述对伦理工具的批判也引发了人们对伦理工具的质疑,认为伦理难以甚至不可能嵌入算法的设计、升级、部署以及使用等算法流程。 然而,诸如医疗伦理、搜索伦理等算法应用领域的经验表明,将伦理原则付诸AI实践并非不切实际,而且有利于保护个人、团体、社会以及环境免受算法伤害,激励AI产出最优的算法结果。
作者在文中认为,伦理即服务是可实现、可操作的,但在研发思路上要满足以下两种标准: 一是在抽象的伦理概念和具象的技术措施中达成妥协,也即,伦理原则不必过于抽象,也不必过于具体,伦理转译工具不能过于严格,也不能过于宽松; 二是摒弃一次性、一揽子测试的伦理审查机制。
AI伦理服务是一项长期性、持续性的活动,不应以暂时性的审查结果为目标。 同时,AI的开发机制应当是可回溯、可反思的 (reflective) ,因为这种开发理念能够助益AI从业人员 (practitioner) 理解自身在特定环境下的主观目的 (subjectivity) 以及潜在偏见,从而揭示有悖于伦理的算法结果为何出现,也有利于对此类结果制定合适的解决方案。 上述思路对于伦理服务工具的设计、开发以及应用而言,也极具启发意义。
AI伦理服务产业方兴未艾,为AI产业补上缺失的一环,助力可信AI发展
开发伦理工具是提供伦理服务的基础,也是让抽象的伦理原则操作化的重要方式。 为此,在国内,谷歌、微软、IBM等头部科技公司开始积极研发伦理工具,越来越多的初创公司也开始投身于AI伦理市场,AI伦理开启了由框架到工具、由工具到服务的产业化道路。 谷歌、微软、IBM等科技公司不仅主动研发伦理工具,而且通过将伦理工具开源化,或者在云服务上集成化来促进行业践行AI伦理。
例如,在算法模型安全领域,微软公司发布了一项名为Counterfit的对抗性技术开源化项目,旨在帮助开发人员测试AI系统和机器学习的安全性问题,在不同环境中针对合作伙伴机器学习模型展开测试,继而为AI企业的算法安全提供合适的风险评估工具,以确保AI业务的稳健性、安全性以及可靠性。
IBM公司依托其Watson OpenScale平台,通过IBM云和IBM云私人服务提供伦理服务,帮助企业在达到充分透明度、实现可解释性与公平性的情况下大规模运行和操作自动化AI系统,确保在AI模型在设计、研发、部署期间始终保持公平性、可解释性以及合规性,并且可以检测和纠正人工智能模型在生产中的数据漂移问题,以便对其进行故障诊断,从而提升模型性能。
谷歌公司则在谷歌云上规划AI伦理服务化的计划,以帮助其客户发现和修复其人工智能系统中的道德问题,相关服务可能包括检测算法歧视、制定AI项目的伦理指南、对客户的AI系统进行审计等等。


图二: 国外科技公司开发的伦理工具及服务
在现阶段,除了头部科技公司开发AI伦理工具、提供相关AI伦理服务外,国外AI产业开始出现以专门提供伦理服务为主要业务的初创公司。 该类初创公司并不关注于人工智能技术研发,而是为了帮助从事AI技术研发应用的AI企业应对其AI系统中的潜在伦理问题。 AI伦理创业公司的出现,可以弥补AI产业化中缺失的伦理一环,助力可信、负责任AI的发展。 类似于Parity AIFiddlerArthur等小有名气的初创公司纷纷专注于不同伦理领域的技术支持和服务,旨在为其他科技公司提供更具专业和效益的伦理服务。 AI伦理服务不仅可以帮助AI企业建立负责任的人工智能系统,还可以为该类企业现有的人工智能业务提供道德指导,从而促进整个AI产业更好思考、应对伦理问题,确保科技向善。
AI伦理创业市场的兴起并非毫无逻辑,其原因主要在于:
第一,科技企业在日常的AI技术研发上已经投入或占用了企业研发人员大量的时间与精力,在技术研发之外再要求其关注AI伦理问题则会导致分身乏术,并非所有AI企业或团队都愿意投入时间研发AI伦理工具。
第二,人工智能技术本身的研发成本始终高昂,并非所有AI研发企业都能够有充足的资金协调人工智能技术自身的研发成本以及嵌入AI伦理的成本,在技术研发以外再在AI伦理上进行额外的投入将会对技术研发造成一定负面影响。 头部公司具有雄厚的研发资金以支持其伦理工具的研发,但对于其他的中小微企业而言,如果苛求其成立专门的审查机构、投入大量的研发成本,可能会成为压死骆驼的最后一根稻草,得不偿失,既不现实,也无必要。
  • AI伦理问题的专业性极高,对从事与AI伦理相关范畴工作的专家要求极高,技术研发人员并不能直接转化为AI伦理研究人员,技术人员在没有AI伦理研究人员指导下所开发的伦理工具也将具有局限性。 为了破解AI产业中AI伦理的供需不对称,AI产业中开始出现专门提供AI伦理服务的第三方企业,该类企业专门研发帮助落实AI伦理原则的技术服务,供缺少AI伦理相关内置产品的人工智能技术企业使用。 AI伦理产业化发展需要积聚众多科技企业的智慧和力量,鼓励、引导AI伦理服务企业的创新和发展,是推动AI伦理落地的长久之策。
    AI伦理创业公司抢占细分领域赛道,伦理服务趋向精细化和专业化
    目前,细分不同伦理领域,提供专业精细服务,是国外AI伦理企业迅速抢占市场,树立品牌特色的主流做法。 提供伦理服务的初创公司并非提供一揽子面面俱到的服务内容,而是根据细分的伦理要求提供专业度高的精细化服务。 现阶段,各类初创公司主要关注于如实现可解释性要求、实现公平性要求、风险管理、伦理审计等服务内容。 根据伦理服务的不同领域,可以将目前提供伦理服务的初创公司划分为以下几类:
    第一,立足决策稳健,提供风险评估服务。 Parity AI公司为AI企业提供开发、监测和修复其人工智能模型的工具方法,主要聚焦于缓解偏见、实现公平、可解释性以及伦理审计。 在审计方面,Parity AI创建了一套能够缩减伦理审计时间的工具,该工具的运行模式为,根据客户需求确定人工智能模型审计的内容,进而提供相关建议,而且Parity AI帮助AI企业组织审计的全过程。 审计过程中,首先协助AI企业进行内部影响评估,在AI企业内部针对人工智能业务进行开放式调查,在这过程中可以采用由Parity AI公司所建立的建议问题库,其中包含超过一千个来自世界各地区AI伦理准则或相关立法的提示词汇及相关问题; 在开放调查的基础上,Parity AI会提出相关伦理风险缓解的推荐与建议。 在此过程中,Parity AI能够帮助专门的技术人员更好地理解AI伦理的原则与要求。
    第二,立足决策透明,提供可解释性服务。 2018年成立的Fiddler公司致力于实现AI可解释的目标,为解决模型可解释性、模型监控以及模型偏差检测等问题,开发出一套机器学习模型性能管理工具 (ML Model Performance ManagementMPM) 。 该工具的作用在于能够有效降低算法模型的黑箱性风险,并实时对模型的参数进行持续监控,帮助AI开发者验证模型、解释模型性能以及记录模型指标。 同时,由于机器学习模型的预测质量可能会随着时间的推移而下降,当用于算法运作的数据和实际使用的数据不相一致时,就会产生模型漂移 (model drift) 的问题。 基于此,MPM工具还能帮助数据科学团队跟踪人工智能模型不断变化的性能,并根据结果为业务主管创建高级别报告,如果该模型的准确性随着时间的推移而恶化,或者显示出偏见倾向性,Fiddler亦可帮助该人工智能系统调试及发现可能的原因。


图三: MPM工具的运作机制
在定位上,MPM工具并不会替代现有的机器学习训练、部署以及服务系统,而是在机器学习流程中扮演守夜人的角色,旨在对模型运作的全程进行监控和解释说明。 具体而言,MPM具有两方面的作用: 一是偏离度监测 (Detect Train/Serving Skew) 。 当机器学习的数据发生偏离时,训练模型会出现异常并需要纠正,MPM工具能够将训练数据和预测日志保存在同一个地方,使得开发者可以及时发现偏离。 二是时间回溯 (Time Travel) MPM工具能够为用户提供程序倒查的功能。 Fiddler官方为此举了一个形象的例子,当银行使用机器学习算法来驳回客户的特定贷款申请,而招致客户的投诉和抱怨时,使用者就可以登录MPM系统,就其保存的数据为客户还原模型的预测和决策过程,从而达到AI可解释的效果。
Arthur公司与Weights & Biases公司同样强调可解释性和缓解偏见、实现公平性。 Arthur公司努力解决人工智能系统中的黑盒问题,并且承认解决人工智能可解释性问题有较高难度,目前并未形成最优解决方案。 Weights & Biases公司旨在帮助机器学习工程师分析其网络的潜在问题,日本丰田公司已经在使用Weights & Biases公司所创建的工具来监测其企业内机器学习设备的训练情况。
第三,立足决策公平,提供算法修复服务。 针对AI决策层出不穷的算法歧视问题,埃森哲公司致力于开发出一款能够快速评估数据是否创造公平结果的伦理工具 (fairness tool) 。 该工具运用一种能够定义公平性的统计算法来识别人们是否受到了算法的不公正对待,同时还会挖掘、分析、定义公平性相关的敏感变量。 例如,算法在做决策时通常不会考虑性别问题,但如果加入收入因素的考量,就会容易在男女性别间产生不同的决策结果。 该工具会将此类相关信息纳入公平性的评估范畴,同时还要关注每个决策变量的错误率,通过比较不同变量之间的错误率,分析出影响决策公平性的变量因素。 同时,此前的研究表明,AI伦理对于公平性的界定存在多达21种类型的解释方法,因此,很难对不同场景下的公平性作出统一定义。 尽管埃森哲的伦理工具能够减少影响公平性评估的错误因素,但考虑到修复程序可能会降低算法评估的准确性,因此该工具将是否调整参数的决定权交还给用户,也即只提供修复结果的权衡选择 (trade-off) ,但最终交由用户来决定错误因素的调整范围。
虽然目前AI仍无法做到对算法公平进行精确定义,但埃森哲负责任AI的前团队负责人、现任Twitter公司机器学习伦理团队负责人的乔杜里表示,该公平性工具能够用于解决某些实际问题。 2020年,埃森哲与爱尔兰联合银行 (AIB) 达成合作,正式将算法公平工具应用于传统银行业。 AIB希望借助该工具减少算法模型的偏离度和歧视性,增进银行AI业务的公平性和可信任度。 在应用路径上,二者采用传统业务和算法决策相配合的协作机制,共同评估银行算法模型的公平性,包括将该工具用于检测、评估银行业务中的潜在风险以及预期效果,最终取得了显著成效。 实践证明,算法公平工具能够基于公平的维度帮助AIB更深入地理解其数据模型结果,也使得AIB的大数据科学团队可以借助公平性分析减少算法偏见和决策风险,从而增强银行使用AI的信心和能力。
科技伦理治理需要多管齐下,以伦理嵌入设计的理念与实践
实现技术与伦理之间的有效互动
《关于加强科技伦理治理的指导意见 (征求意见稿) 》提出了伦理先行,敏捷治理的基本要求。 伦理如何先行? 需要伦理委员会、技术工具、伦理培训等多管齐下,也需要创新治理方式。 在这方面,我们可以借鉴互联网领域的一个成熟概念: 隐私嵌入设计 (privacy by designPbD) 。 PbD已具有很好的实践基础,可以为人工智能的伦理治理提供有益经验。 在PbD理念与实践的基础上,人工智能产业需要拥抱伦理嵌入设计ethics by designEbD) 这一全新的理念,并推动这一理念在人工智能实践中的落地。 各界可以一起探索伦理嵌入设计的最佳实践做法、行业标准、技术指南等。
而近年来伦理工具和AI伦理即服务的勃兴丰富了伦理嵌入设计的理念和实践路径,在某种程度上,这也是产业界开始推动负责任创新,以技术的方式解决技术带来的问题。 如前所述,随着提供AI伦理服务的初创公司不断涌现,AI产业中的伦理供需失衡促使AI伦理服务公司开始走向成熟化、精细化、规模化,该类服务公司能够在细分领域中提供适应AI产业变化的伦理服务,加速AI伦理由原则到框架再到实践的进程,帮助AI伦理在更多使用场景和产业范围内顺利落地,弥补AI产业中缺失的伦理一环。 同时,从长远来看,伦理服务已成为未来AI产业的应有之义,尽管AI伦理服务有着广阔的发展前景,但目前仍处于起步和探索阶段,需要各界一起凝聚更多共识与实现机制、模式等。
最后,在人工智能、区块链、虚拟现实、metaverse等新兴技术与模式加速演进变革的今天,科技伦理固然显得愈发重要,但一方面需要注意不要把科技伦理当作一种华而不实的雕饰与粉饰,而需要通过真正有效的机制让科技伦理对科技创新形成正向引导; 另一方面科技创新本就是一种不确定性的探索,无法免疫所有的风险,因此也需要立法与伦理规范的精细平衡,平衡好安全与创新发展。

来源:腾讯研究院
链接:https://tisi.org/19460
编辑:马皖雪
507#
 楼主| 发表于 2021-8-26 22:09:50 | 只看该作者
【案例】
AI 商业模式的脱靶、崩塌、救赎
人工智能的商业模式应该是什么样?
每次谈到这个问题,答案分两个极端:
要么同质、无趣、世俗。
要么天马行空,外行高呼震撼,内行斥其没有常识。
在雷锋网《AI冰与火之歌·五问》第一篇文章《依图医疗「变卖」内幕:出走、截胡与派系整合》中,我们谈到,依图医疗成为弃子,其实是多数AI公司商业战略摇摆不定的缩影。
无人能预知命运会陷入如此险境。短短几年,AI市场的低气压不知何时开始盘旋成型。
商业化变现困境剥落了AI的优越,让AI企业直面最粗糙的生死。
“AI做不了颠覆式创新,还是要走产业+AI的路。
这句话虽是业内共识,但走这路的方法论其实是过时的,毕竟,这与十几年前的信息化和IT软件商业路径,并无本质差异:以外包的姿态,啃项目,搭集成,做交付,任劳任怨,不怕吃苦。
纪北嘉(化名)笑着说,姿态低不低现在不是我们主要考虑的,赚钱嘛,不寒碜。
这些AI企业践行了一个最糙也最为实在的真理:先活下去,再考虑怎么活好。
真理背后,则是盘旋在所有AI从业者头上的四个问题:
AI标准化、通用化的美梦是如何破灭的?
高度定制化解决方案为什么走不通?
海外高利润解决方案我们为何借鉴不来?
AI企业跳出低毛利死胡同的三种激进模式是什么?
我们一个个聊聊。
标准化、通用化的黄粱美梦
图片
在全球权威的人脸识别算法测试中,XX企业获得XX赛道冠军。
XX在国际权威机构ACM MM主办的大赛中,行为识别再夺一冠。
识别率提升、精度突破、榜单排行,是早期AI界的主旋律。
这段时期,中国的AI公司上演一场疯狂的刷榜竞赛,让算法识别俨然间成了一项竞技体育。
为什么热衷刷榜?
在早期AI公司的蓝图里,他们只需研发出标准化的模块,然后被集成在所有公司的各个解决方案里,如此,哪怕一个开发包(SDK)只卖几万、几十万,薄利多销,一年的利润也非常可观,而且作为被集成的软件,所得几乎均为净利润,说躺平赚钱也不为过。
这一意识形成后,很多公司将比拼算法精度作为头等大事,甚至一度认为,不需要招销售,客户自然会闻讯榜单而来。
一级市场用挥金如土表达了乐观的情绪,AI企业在宣传上毫不掩饰科技标签的高贵,似乎一套SDK扫天下的时代就在眼前。
但很快,在算法刷屏约两年后,他们察觉不对劲,怎么投入不见少,铜子儿却没见着?
2017年是觉醒的一年,尝试落地的他们发现,在赛事中频频拔得头筹的算法,一旦走出实验室或特定的场景进入实战,根本玩不转。
而且,作为最先落地的两大行业,无论是公安还是银行,客户需要的不是单个模块或开发包,也不具备集成SDK的能力,他们要的,是一套定制化的解决方案。
结果就是,在算法领域的神仙打架,在业务落地成了菜鸡互啄。
SDK走天下梦碎后,他们的解决方案从轻变重,跟传统IT企业一样,走高度定制化解决方案的路子。
高度定制化解决方案的利润困局
图片
To B行业有什么特点?个性化定制;获客周期长(决策流程较长);产品有实施成本;成长较为线性;价值敏感。
而一旦进入高度定制化赛道,就意味着AI企业成为一家集成商,而非高大上的产品型科技公司。
陈冀(化名)表示,重型解决方案模式的最大弊病是,你能做的,别人也能做,这导致门槛大大降低,业务利润大大降低,最后大多需要靠关系驱动。
他们吭哧吭哧地进入的重型解决方案行业,一不留神就走进利润死胡同。
有人问,安防行业也定制化,为什么海康走得通?
简单来说,就是把成本三低做到了极致:
平均人力成本低
运营成本和销售成本低
产量扩大后的边际成本低
海康威视总裁胡扬忠曾告诉掘金志,他对科技公司做安防持审慎态度。
以通讯行业为例,其运营和销售成本比安防高很多,所以用高成本的人力去跑安防,就像拿步枪打苍蝇一样,投入与产出是非常不匹配的。
这句话背后,也许是对高成本的科技公司走碎片化定制解决方案路径的怀疑,甚至是否定。
大型IT公司之所以能在定制化赛道里存活,很大部分原因在于人效的极致追求,说得不好听,就是用更低的成本,去省出更多的利润空间。
海康威视总裁胡扬忠也曾发表对此的看法,他说:
这个行业场景碎片化,用户需求差异化和定制化需求明显,而且这个行业的平均回报并不高,每个项目贡献度都不大。所以如果人力成本过高,会是个很关键的问题,会导致人均产出/费用比不划算。
从公开资料看,AI企业年度人均营收约50万,人均费用也约50万,即使毛利率能到50%,依然会有明显的亏损。陈冀坦言,而且,他们很难达到50%的毛利率,想做大人均,很难。
这也正是当初华为大张旗鼓地进入安防时,胡扬忠表示:华为是一家做大生意的公司,捡豆子、捡芝麻的生意不适合他,华为很快会认识到这一点。
海康威视的人均人力成本只有华为的三分之一,任正非历来不提倡华为在低维市场的泥潭里死缠乱耗,华为如果以海康的方式做安防,被集团叫停只是时间问题。业内人告诉掘金志。
华为安防后续转换战略,主推平台,也侧面证实这一点。
在人效优势+规模化效应的前提下,海康做了20年,也才做到约600亿元的营收。
与互联网动辄千亿战果相比,这盘实在算不上大肉,与动辄估值几百亿、亏损几十亿的AI企业相比,这不像是经得起折腾的赛道。
这里提一句,彭易(化名)告诉掘金志,在他看来,云从之所以能够上市,除了国家队属性,也在于他们的亏损率控制。
而亏损率不高,与人效或者说重庆人力成本低有关。同时,与其他几位小龙喜欢重金聘请AI大牛和博士相比,云从则显得低调得多,鲜少有盛名在外的科学家。
云从科技提交的IPO招股书显示,2019年高管总薪酬仅890.47万元,要知道,在不少企业,一个AI大牛的薪资就高达千万。
千人级别员工规模下的高薪酬,一年的人力成本就可高达几亿到十几亿。
而且,AI企业虽技术优势傍身,但作为不单纯靠高科技能打下市场的行业,难以通过单点突破快速占领市场。
大多数AI企业逃不开三高病(高投入、高亏损、高人才),同时又不具备规模化效应,让他们在高度定制化且毛利低的市场,转不开磨盘、吃不饱。
AI企业放得下高大上的科技标签,吃得了长苦,但就是赚不到钱。
所以无论是安防也好,金融、医疗、工业也罢,都面临这个问题,无论是走平台模式还是定制化模式,都难逃利润的死胡同。
欧美的高分作业,国内企业抄不来
1.重型解决方案的困局:国内企业难做出高毛利的核心产品
有人说,海外走通此模式的大有人在,中国为什么玩不转?
比如IBM,它就是在重型解决方案领域走出康庄大道的典型代表。
郭士纳时期开始,IBM转型成为一家高定制化的解决方案公司,但IBM却并未受困于此,反而一直有着超高的利润率。
掘金志在这先感叹一句,真正的高人,往往能通过深入浅出的话语,道出核心本质,毛泽东是一个,郭士纳是另一个。
他当初对IBM转型解决方案公司的定位是:如果客户需要马桶,那IBM也卖。
这句话背后的本质是,以客户为核心,牢牢把握住客户,而这,正是一家解决方案公司的立身之本。
当然,IBM转型成功,除了抓住了这一根本,也离不开IBM的核心产品、服务和并购。
这里重点谈下IBM的核心产品。核心产品,是那些通用化的、高毛利的产品。
IBM的解决方案,集成了众多生态伙伴的产品,但方案中有些重要的组件和中间件,由IBM自研把控,比如服务器、存储。
这些技术门槛高、占据核心地位且通用的基础系统硬件,也带来了高利润。
IBM看似在高度定制化解决方案里又苦又累,帮其他公司牵线搭桥,实则拿捏住了最核心的中间件,以至于一个项目可以拿到近五成的营收以及高毛利。
以前银行IT系统里最要命的中间件都是IBM在控制,成本不高,但服务费非常贵。十几年前那批服务银行业务的IBM销售,真是躺着赚钱。”IBM 前员工告诉掘金志。
所以,即使他们做重解决方案,依然可以通过核心产品获得高毛利。
同样,SAPECC,甲骨文有数据库。
数据库是基础软件皇冠上的明珠,几十年来与操作系统齐名,是每一家公司业务系统的核心,以刚需收割企业利润。
这些都是解决方案里的利润来源、客户不得不买的核心产品。
那么为什么中国的解决方案公司缺少这类高毛利的核心产品?在掘金志看来,原因有四:
第一,复杂的系统性工程能力有限。吃透一个复杂业务系统,需要强大的工程能力,庞大的知识体系和深厚的经验积累,中国在系统性工程能力上一直较为欠缺。
第二,浮躁,倾向于赚快钱。(其实这也是工程能力弱的原因)
这类核心产品,属性重、壁垒高,需要极大的时间、资金、精力和研发投入,但中国发达的互联网产业让大多数企业习惯于短期获利,在海量的客户、海量的营收规模、高营收增长率、高利润率的面前,难以沉下心来做各项要求极高,且不一定能成功的产品。
第三,对资金投入、战略坚持要求极高。
以数据库为例,在云计算的光芒下,这两年中国数据库领域进展迅速,阿里、腾讯、华为都初尝甜头。
在这背后,他们投入了巨大的人力、物力、财力,即便如此,因中国To B市场环境问题,在相当长一段时期内,这类产品的工作推进得尤为艰难。
在那些前路星光暗淡的日子里,能坚持至今,实属不易,这离不开企业在战略上坚定地支持。
第四,企业对有效专利的保护远远不够,在法律手段上不够狠,市场惩罚力度有限,导致抄袭成本低。仿制品多了,自然会进入打价格战的恶性循环,没有利润。
这个问题过去20年没有解决,可能未来10年也很难解决。
早期,AI公司以为AI技术就是类似ECCOracle中间件,但是AI本身并不是一个产品,且门槛逐渐降低,同质化严重。
IT软件领域,中国至今也没有一个保持高毛利率的软件企业。以金蝶、用友为例,这些具有二、三十年历史的公司,利润一直在低位徘徊。
眼下的中国AI公司,大多缺钱、缺精力、缺战略底气去支持一款核心产品的开发。
2.轻量标准化产品模式:盘子是大,收费模式扭曲
做重不行,那就来轻的,比如SaaS模式。
的确,SaaS也是目前各大互联网巨头最为重视的产品形态之一。
它模式轻,无需定制,一套SaaS产品可以复用;收入可持续,不是一锤子买卖;高毛利,SaaS收入的毛利至少能达到70%
它打通To B,通用化、标准化,是个突破困局的好苗子。
此模式也得到欧美市场认可,单2020年,美股的SaaS公司就有不少突破了百亿甚至千亿美金估值。
甚至有一种说法:美股过去十年属于FAANG(互联网),下一个十年属于SaaS(软件即服务),未来软件定义世界。
理论上可行,但要明白,美国的企业服务程度远在中国之上,且美国人口红利弱势下,长期以来注重人效比。
其次,中国环境较为尴尬,中国的付费意识有所提升,但依然不容乐观,尤其在软件领域。而有了免费的钉钉、企业微信、飞书后,更是加剧了国内小公司的软件白嫖意识,愿意付出可观费用的企业数量非常少。
其实,这间接导致SaaS也逐步进化成定制化项目。
其次,仔细想想,淘宝在以另一种SaaS的形态存在于市场,以羊毛出在猪身上的方式,赚走了多数小微企业的钱。
3.企业知识产权保护:不够快、不够狠、不够全
当然,高毛利的困局,除了战略坚持、工程能力,更在于当前知识产权保护环境的不成熟。
首先,中国企业一个重大认知误区,就是谁掌握的技术多,谁最需要加强知识产权保护
知识产权其实具备技术与法律的双重属性,本质上是运用于商业。
但中国大多数企业没有意识到它不是一个法律问题,而是一个资产管理问题,知识产权长期得不到足够的重视。
这一点上,硅谷地区尤为优秀。
《烧掉舰船》一书中,就鲜活地展示了知识产权的力量。
马歇尔菲尔普斯在任职IBM公司副总裁期间,利用知识产权武器,在IBM命悬一线之时,通过一系列组织架构及专利许可的改革,成功使得IBM公司摆脱经营困境:
当年,IBM的利润收入总额中有25%来自于知识产权的与授权的项目。
如果说在IBM马歇尔只是利用知识产权拯救IBM公司脱离水火困局,那么后来在微软马歇尔则利用知识产权所做的变革,让知识产权成为微软的战略核心,并支撑巨轮前行。
而另一个依靠知识产权的运营为企业带来盈利的典型案例,非甲骨文莫属。
甲骨文的法务团队是全公司最强势的部门,有人调侃,它应该是一家大型律所,而不是一家软件科技巨头。
其法务团队,已经形成一条完整的产业链,有负责起草滴水不漏的授权许可合同/格式合同的律师;有负责探索并调查市场上侵权公司,进行许可授权谈判的律师;有负责诉讼的律师,开启漫长的司法程序,并申请配套的诉讼保全或禁止令等,捆住目标公司的手脚。
这些法务团队出现在董事会、在风控会、在谈判现场、在危机处理等等场景,只要与公司业务相关,他们似乎无处不在。
一家一流公司,不仅需要能创造IP,更需要运营IP
作为一个软件系统公司,甲骨文前期需要为产品投入巨大的成本,此举本意是为保护自身不受侵害,后来,这种架构融入企业生命,成为一种生产力。
只要他们开发出一款好的数据库产品或组件,即举整个公司之力保护权益,甚至经常通过一场官司就可赢得数亿美金,以至于网上出现不少诸如此类的段子:
黑客:你好,在吗?
受害企业:?
黑客:我在你公司网络里安装了几个oracle数据库,给我2-btc我就告诉具体安装位置,要不我就告到oracle法务部。
受害企业:......大哥,有话好商量
这套机制在保护他们的核心产品的同时,也让其在一段时间内形成市场垄断。
公司业务上无处不在的法务团队,其实是法务成熟的体现。显然,国内仍不够成熟:知识产权保护体系不健全,企业也缺乏相关的意识。
比如知识产权保护到位,是建立在一系列前提之上,大多数企业并没有完备的团队:
是合适利用知识产权保护还是适合商业秘密保护
是否做了全面的或针对性的知识产权布局
是否有团队在监控和维护知识产权
比如实际执法问题多,处罚力度有限。不仅存在认知力度水平不一、地方保护主义等等问题,且目前知识产权界的不少重大侵权案件中的赔偿金额也较为有限。
真正的惩罚是市场禁入,真正的奖励是国家允许的市场垄断。某法律从业者对掘金志表示。
中国的知识产权,大多数仍处于低端的专利代理和诉讼工作,很难去真正认识到知识产权保护这种无形资产对一个企业价值体。
整个知识产权结构的不成熟,让拿来主义盛行。当企业呕心沥血开发的产品一转手成为他人获利的工具,得不到保护的创新,就是市场恶性竞争的开始。
不在死局中消耗,就在三大激进商业模式上九死一生
难道没有其他出路吗?
未必,短道被挡,还有长道。在掘金志看来,AI未来的转机,也许在以下三种路径里。
路径一:重定制集成项目实施数字化咨询 咨询业务反哺重定制实施 与大型客户建立高粘性和系统不可替代性
眼下,整个To B行业,一边被传统体系与落后的生产方式相互拉扯,一边在纷繁复杂的新兴技术洪流中被左右推搡。
在技术迭代的窗口,要么向上冲锋,跃进下一个时代,要么混同扑面而来的泥沙,跌入时代的谷底。
转型是不是找死不知道,但不转型一定是等死。
身处其中的传统企业们怎能不明白这个道理,但是AI时代,如何提升企业生产与管理效率?如何重构线上与线下的关系?换句话说,往哪里转?怎么转?
这些问题,单靠企业本身,难以全面回答,而咨询机构可以。
德鲁克说过:动荡时代最大的危险不是动荡本身,而是仍然用过去的逻辑做事。
数字化咨询最大的价值不是解决细节的技术问题,而是通过对商业流程的把握,通过整个体系的重塑实现更高的企业运营效率。最终目的,是让企业花费最小的金钱、时间等成本,实现企业数字化转型。
为什么说AI公司,在当前适合开辟数字化咨询业务?
先说说必要性。
首先以往的AI公司完全不需要做咨询业务,因为它们只是给客户提供单点技术服务,如人脸识别、语音交互、机器学习决策等等,远没到战略咨询、IT咨询阶段。
但现阶段的AI企业,随着业务不断下沉,逐渐做重,本质上成了数字化企业。
数字化,用什么技术不重要,重要的是做好顶层设计、组织管理规划、数据沉淀、数据流通、数据决策,最终实现智能化。
这个时候,做咨询,势在必行。
咨询行业本身是高智力的工作,难以产生高规模营收、高利润,但咨询不是目的,盈利也不是。
如今的数字化转型解决方案,不再是单纯的软硬件实施,而是对人、组织、流程、IT的整体改造。
AI企业可以设立咨询子公司,自上而下摸清楚各种场景、客户、领导的需求,拉通供应链关系,一来,以自身的方式经营客群关系,并帮助母公司去直接获客,承接项目实施。二来,在更深入了解客户需求后,反哺主公司的整体解决方案。
坦白讲,咨询只是引子,打通客户决策层之际,为自己的项目实施业务拉客。更通过这个引子,吃透行业,了解更多客户需求,让解决方案更为健全、通用。
好比一家装修实施公司,额外经营了一家家装设计子公司,设计公司先给业主做出设计规划,提供装修的用料、实施商的选型参考,同时推荐自家的实施母公司,来做最终落地。
再说说可能性。
模式轻,市值高。
咨询是轻模式,资金压力小,AI企业入局风险较小。
其实IT数字化领域,走通此模式的咨询企业不在少数。以埃森哲为例,其以IT咨询起家,在咨询领域站稳脚跟后做,逐步扩展到解决方案的实施和部署,目前年营收500亿美元,市值达2000亿美元。
即使不以巨头参照,咨询本身最大的成本是人力,项目人效高,利润与重型解决方案相比,也较为可观。
咨询行业市场大。
未来智库数据显示,2018年全球咨询行业达 2770 亿美元,复合增长 4.3%。在增长方面,亚太地区是行业的最前沿。亚太地区 2018 年的市场规模为 470 亿美元,约占全球管理咨询业的 17%,其中中国市场是增长龙头,年复合增速超过 10%,是全球市场的两倍。
AI企业可根据自身基础,选择不同的模式组合:轻咨询+重实施;重咨询+轻实施;重咨询+没有实施。
其实目前不少AI企业已经在往咨询领域发力,比如金融风控领域的头部企业同盾就孵化了咨询子品牌。
在定制化场景摸爬滚打的海康也暗戳戳地有动作。
201812月,海康进行了组织架构调整,成立了全新的三大BG事业部(PBGEBGSMBG)。其中,EBG已经成为海康新的动力引擎之一,承担了海康推进企业数字化转型业务重任,海康委以重任的EBG负责人徐习明, 就是IT咨询出身,曾是IBM咨询部门的副总裁。
最鼎盛时期的IBM,是解决方案的集大成者,更是一只高毛利的通用服务器、中间件产品 + 高定制化实施团队 + IT咨询服务部三轮驱动的巨型航母。
路径二:重定制集成项目实施进入非标市场的标准市场(自动驾驶、芯片) 形成标准化产品 低成本规模化复制
AI公司为何都在赔?
核心在于:AI未能标准化,项目需求又无穷多,也就有了做得越多亏得越多。
业务特性上,以项目制为主,产品和服务门槛高,生产流程复杂、定制化高;
行业特性上,周期长、反馈慢,不具备高增长性,投资回报率低。
竞争格局上,传统巨头林立,扩展业务边界;互联网大厂跨界,财大气粗广撒网,搭建生态。
说白了,非标市场,容不下AI企业浩瀚的AI梦。
那就去标准化市场?有人说。
标准化市场可以一夜之间把价格做到无穷低,高额运营支出会逼着他们重回定制化市场。
上不得,下不去,还不能不做,毕竟日子还得过?怎么办?
在非标准化市场找到标准化赛道,这才是AI公司的路子。
没找到之前,一定不赚钱,一定亏下去,一定成不了巨头,一定被质疑。
所以不管他们现阶段是否依赖于非标领域获得营收,要在未来立足,必须瞄准更大的赛道,如此,才能支撑他们昂贵的未来
这个更大的赛道在哪里呢?
场景上,自动驾驶、芯片都是明显的非标市场中的标准市场。
技术上,软件定义、人机协同一旦成型,可以一招吃遍天下鲜。
这些赛道长线、资本看好(热钱关注)、短期无法盈利,能讲出不一样的故事。
正如《依图医疗「变卖」内幕:出走、截胡与派系整合》中,前依图员工的一句话点破了AI公司对标准化市场壮士断腕般的执着:
安防和医疗都不是依图未来的主业,安防只是规模比医疗大,哪一天无人车或者芯片做起来,安防也能像医疗一样卖掉。现在分管安防的高管Steve,背景是企业级产品研发,想做个类似数据库的产品,什么行业都可以用。因此,对行业领域没有太多的感知或者感情。
路径三:开源深度学习框架,占位国产化高地。
至今,主流的开源深度学习框架一直由国外科技巨头主导,其中GoogleTensorFlow以强大的工业部署能力深受工业界喜爱,FacebookPyTorch以灵活性横扫学术千军,两者占据了90%的市场份额。
AI界,两大开源框架的地位等同于IOS和安卓系统,算得上开源框架的双煞。
既然巨头成就在前,框架开源不受限,为什么要重复造轮子,胜算又在哪里?
1. 深度学习框架,一场潜在的制高点之争。
如果把炒菜比作场景,优质的食材(大数据)、高超的方法(算法)、上等的锅(框架),加上恰当的火力(算力),才能炒出一盘好菜。
作为底层语言和算法模型的骨架,深度学习框架省去了开发者从01地搭建地基的成本,提高开发效率。
开发人员可以像搭积木一般,根据自身行业的特点和场景需要,选择框架中的模型,进行组装或训练自己的模型,导入数据并得到模型,最终实现部署。
深度学习框架其实将数据、算力、算法三者相连接,向下对接芯片(算力),向上支撑应用。
如果说芯片是算力平台,那么深度学习框架就是编程生产力平台,两者已经成为AI基础设施基座。
成为一家平台型公司,建立以自身为主导的庞大的AI生态,是大多数科技巨头的愿景,在得开发者得天下的影响下,开源深度学习框架将是企业跻身平台型AI”的关键。
开源本身,是将自家的独门绝技分解成一招一式,慷慨对外,既是开诚布公的交流,也是明枪暗箭的较量。
深度学习框架话语权的争夺,暗藏着对未来AI行业标准制定主话人的争夺。
百度CTO、深度学习技术及应用国家工程实验室主任王海峰也曾表示,深度学习框架是智能时代的操作系统
深度学习框架的竞争,已经成为未来人工智能场上竞赛的制高点。
GoogleTensorFlowFacebookPyTorch,百度有Paddle Paddle、华为有MindSpore
你看,这一制高点,早已有无数巨头争相竞夺。
2. 技术没有终点,企业没有永胜将军。
当年TensorFlow横贯世界,谁能想到PyTorch愣是冲破铁幕,上演了后来居上的故事呢?
按理说如今TensorFlowPyTorch牢牢把控市场,然而TensorFlow性能高、部署方式高效,但调试性不足,而PyTorch灵活易上手,但命令式编程运行效率低。
说白了,开发端的需求动态化、多元化,没有哪一个框架能完全满足市场需求。
这意味着,任何一个框架都不会有决定性的胜利。没有永恒的强者,只有永恒的挑战者——新的框架出现具有历史必然性。
华为徐直军曾对此表示:我们现在还没有看到哪一个框架能够真正做到支撑全场景,而华为 MindSpore 的目标就是成为这样一个框架
也因此,不断有挑战霸主地位的冲锋者。毕竟,开源深度学习框架的代表性崛起出现在2012-2015年间,历史并不悠久,也许追着追着,就赶上了呢?
3. 局势动荡,国产替代势头大。
中国超九成的开发者使用的AI开源软件包来自美国。
很显然,中国的人工智能严重依赖美国的开源框架,往严重了说,中国人工智能产业,有相当一部分是建立在美国智能框架之上。
在中美关系缓解的前提下,尚且影响不大,但如果这个前提生变呢?
轻则影响工程进度,重则步中国芯片产业被美制裁的后尘。
中兴、华为事件的爆发、美国至今仍在更新的实体清单,无不在提醒着中国企业,作为编程生产力平台的深度学习框架,不是没有成为下一目标的可能。
一旦中国AI企业成为制裁对象,关上了深度学习框架的大门,将是对中国开发人员甚至AI产业的致命一击。
退一步讲,目前在国家数据安全越加敏感的背景下,即使没有中美科技战,数据向国内迁移也将成为趋势。
要知道,AI的训练全部基于开源框架,这意味着海量的真实食材(数据)都将在美国企业的大锅(开源框架)里烹饪,一旦上升到国家,数据安全将成重要隐患。
所以我们看到,百度开源了,华为开源了,阿里开源了,腾讯开源了,旷视开源了,清华开源了,一流科技开源了......
从这个角度看,也许2020年国产深度学习框架开源集中爆发不是巧合。
而在这之中有个信号——少见的AI企业的身影。
20203月,旷视开源核心深度学习框架旷视天元(MegEngine),成为全球首个将底层框架开源的人工智能企业。
MegEngine开源发布会上,除了有图灵奖得主姚期智、高文院士、怀进鹏院士坐镇,还有前微软人工智能领航人物沈向洋捧场,单从嘉宾阵容,可一窥旷视对其开源框架的重视。
旷视的出现,让这场竞争不再是科技巨头玩得起的游戏。
首先,前文提到目前AI公司的困境在于,AI并非核心技术,重型定制化解决方案容易进入死胡同,轻量的标准化产品模式收费潜力有限,可谈得上价值的人才难以量化。
AI企业一直在寻找一个站得住、走得长的价值,基于上述分析,开源可以是那个价值
站在旷视的角度,当初商汤以平台型为目标,旷视若无亮眼标签傍身,未来很可能与二线AI企业无异。
一知名投资人向掘金志透露,他们投资人看企业,更多看的是想象空间,不是看现在能赚多少钱,如果比赚钱,何不去投资集成商?
当今的AI行业,除了极个别企业外,我们实在看不到任何大的想象空间。旷视的想象空间,我认为是深度学习开源框架,如果能把它做好,这就是他们的最大增量之一。
再来谈谈现实,开源框架的商业价值。
TensorFlowPyTorch其实都存在百亿美元的营收潜力,GoogleFacebook之所以不以此盈利,是因为开源承载的更多是战略意义,是防止被对手吞噬的防御性措施。
安卓的免费开源,从战略意义上讲,是为了防止被iOSWindow卡脖子。
设想下,如果Google没有自己的安卓阵营,几十个应用全部架设在苹果和微软的操作系统之上,一旦发生巨头之间的卡脖子事件,Google的处境会有多么艰难。
巨头不缺钱,可以不在乎盈利,但AI企业在乎。他们需要钱,且理论上可操作。
方式一,可先提供一个基础版本,针对高级版本收服务费;方式二,开源一段时期后闭源,按需使用收费;方式三,与使用框架的公司合作,开发新产品。
当然,这是一条可行的路,但并不是一条容易的路。
TensorFlowPyTorch,背靠科技巨头,框架性能强大、工具链成熟、社区生态庞大,它们汇聚了全球的工程师、顶尖的代码和产品,仍然位居开源领域顶峰。
这个赛道里,创业公司极少,侧面意味着高壁垒、周期长、生意慢,需要得到开发者认可,需要巨大的生态支持,才能变成大生意。
而且,这一路径的成立必要前提,是科技制裁加剧、外国主流框架使用受限、中国相关政策支持,且成立后,仅有中国人使用,其生态环境无法与前两者比拟,这是此模式天然的局限性。
时代万象,成王败寇
距离那场让各界激动不已的人机大战,已经五年了,也才短短五年。
有人赶不上热点,抓不紧核心,在队伍末端吊坠。
有人挑最重的担子,啃最硬的骨头,无惧下沉。
有人交枪、抢跑、狂奔,全力以赴想抢先初达拐点。
有人羞羞答答,不知该破釜还是坚守,两只手相互拉扯,左右为难。
无论以何种姿态闪亮登场,未能寻得一片安身之地的企业,都将被大浪冲散。商战残酷,无人怜惜蔷薇横卧,唯有在历史的缝隙里,辗转腾挪,活到下一时代。
但市场铁律会摧毁秩序,也会重建规则,催生新的万象。
数字化浪潮正引发新一轮社会进化,所有人将通过商业路径选择,完成一场公平竞跑。
这既是一个AI企业赌命的关键节点,也是AI企业在新时代开篇建制的绝佳时机。最先适应的人,将收到时代馈赠的红利。
AI商业化落地的镜像里,谁能称王,谁是败寇?
新故事已然开始。让我们拿起望远镜,随着时代的曲线开始一场大变革浪潮的奇幻漂流吧。

来源: AI掘金志
链接:https://mp.weixin.qq.com/s/LyncsDygTpD2sDn8PuglKQ
编辑:马皖雪




508#
 楼主| 发表于 2021-8-28 22:53:24 | 只看该作者
【案例】
国家互联网信息办公室关于《互联网信息服务算法推荐管理规定(征求意见稿)》公开征求意见的通知
为了规范互联网信息服务算法推荐活动,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,促进互联网信息服务健康发展,我办起草了《互联网信息服务算法推荐管理规定(征求意见稿)》,现向社会公开征求意见。公众可通过以下途径和方式提出反馈意见:
1.登录中华人民共和国司法部 中国政府法制信息网(www.moj.gov.cnwww.chinalaw.gov.cn),进入首页主菜单的立法意见征集栏目提出意见。
2.通过电子邮件将意见发送至:jishu10@cac.gov.cn
3.通过信函将意见寄至:北京市西城区车公庄大街11号国家互联网信息办公室网络法治局,邮编:100044,并请在信封上注明互联网信息服务算法推荐管理规定征求意见字样。
意见反馈截止日期为2021926日。
附件:互联网信息服务算法推荐管理规定(征求意见稿)
国家互联网信息办公室
2021827
互联网信息服务算法推荐管理规定
(征求意见稿)
第一条 为了规范互联网信息服务算法推荐活动,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,促进互联网信息服务健康发展,弘扬社会主义核心价值观,根据《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》、《互联网信息服务管理办法》等法律、行政法规,制定本规定。
第二条 在中华人民共和国境内应用算法推荐技术提供互联网信息服务(以下简称算法推荐服务),适用本规定。法律、行政法规另有规定的,依照其规定。
前款所称应用算法推荐技术,是指应用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息内容。
第三条 国家网信部门负责全国算法推荐服务的监督管理执法工作。省、自治区、直辖市网信部门依据职责负责本行政区域内算法推荐服务的监督管理执法工作。
第四条 算法推荐服务提供者提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。
第五条 鼓励相关行业组织加强行业自律,建立健全自律制度和行业准则,组织制定行业标准,督促指导算法推荐服务提供者建立健全服务规范、依法提供服务并接受社会监督。
第六条 算法推荐服务提供者应当坚持主流价值导向,优化算法推荐服务机制,积极传播正能量,促进算法应用向上向善。
算法推荐服务提供者不得利用算法推荐服务从事危害国家安全、扰乱经济秩序和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动,不得利用算法推荐服务传播法律、行政法规禁止的信息。
第七条 算法推荐服务提供者应当落实算法安全主体责任,建立健全用户注册、信息发布审核、算法机制机理审核、安全评估监测、安全事件应急处置、数据安全保护和个人信息保护等管理制度,制定并公开算法推荐相关服务规则,配备与算法推荐服务规模相适应的专业人员和技术支撑。
第八条 算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷或者高额消费等违背公序良俗的算法模型。
第九条 算法推荐服务提供者应当加强信息内容管理,建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。
发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门报告。发现不良信息的,应当按照网络信息内容生态治理有关规定予以处置。
第十条 算法推荐服务提供者应当加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容,不得设置歧视性或者偏见性用户标签。
第十一条 算法推荐服务提供者应当加强算法推荐服务版面页面生态管理,建立完善人工干预和用户自主选择机制,在首页首屏、热搜、精选、榜单类、弹窗等重点环节积极呈现符合主流价值导向的信息内容。
第十二条 算法推荐服务提供者应当综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响、引发争议纠纷。
第十三条 算法推荐服务提供者不得利用算法虚假注册账号、非法交易账号、操纵用户账号,或者虚假点赞、评论、转发、网页导航等,实施流量造假、流量劫持;不得利用算法屏蔽信息、过度推荐、操纵榜单或者检索结果排序、控制热搜或者精选等干预信息呈现,实施自我优待、不正当竞争、影响网络舆论或者规避监管。
第十四条 算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等。
第十五条 算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。
算法推荐服务提供者应当向用户提供选择、修改或者删除用于算法推荐服务的用户标签的功能。
用户认为算法推荐服务提供者应用算法对其权益造成重大影响的,有权要求算法推荐服务提供者予以说明并采取相应改进或者补救措施。
第十六条 算法推荐服务提供者向未成年人提供服务的,应当依法履行未成年人网络保护义务,并通过开发适合未成年人使用的模式、提供适合未成年人特点的服务等方式,便利未成年人获取有益身心健康的信息内容。
算法推荐服务提供者不得向未成年人用户推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息内容,不得利用算法推荐服务诱导未成年人沉迷网络。
第十七条 算法推荐服务提供者向劳动者提供工作调度服务的,应当建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法,履行劳动者权益保障义务。
第十八条 算法推荐服务提供者向消费者销售商品或者提供服务的,应当保护消费者合法权益,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实行不合理的差别待遇等违法行为。
第十九条 国家网信部门建立分类分级管理制度,根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据敏感程度、对用户行为的干预程度等对算法推荐服务提供者实施分类分级管理。
第二十条 具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。
算法推荐服务提供者的备案信息发生变更时,应当在变更之日起五个工作日内办理变更手续。
算法推荐服务提供者终止服务的,应当在终止服务三十个工作日前办理注销备案手续,并作出妥善安排。
第二十一条 国家和省、自治区、直辖市网信部门收到备案人提交的备案材料后,材料齐全的,应当在三十个工作日内予以备案,发放备案编号并进行公示;材料不齐全的,不予备案,并应当在三十个工作日内通知备案人并说明理由。
第二十二条 完成备案的算法推荐服务提供者应当在其对外提供服务的网站、应用程序等显著位置标明其备案编号并提供公示信息链接。
第二十三条 具有舆论属性或者社会动员能力的算法推荐服务提供者应当按照国家有关规定开展安全评估。
算法推荐服务提供者应当完善算法推荐服务管理机制,对算法推荐服务日志等信息进行留存,留存期限不少于六个月,并在相关执法部门依法查询时予以提供。
第二十四条 国家和省、自治区、直辖市网信部门会同有关主管部门对算法推荐服务开展算法安全评估和监督检查工作,对发现的问题及时提出整改意见并限期整改。
算法推荐服务提供者应当配合有关主管部门依法实施的安全评估和监督检查工作,并提供必要的技术、数据等支持和协助。
第二十五条 参与算法推荐服务安全评估和监督检查的相关机构和人员应当对在履行职责中知悉的个人信息、隐私和商业秘密严格保密,不得泄露、出售或者非法向他人提供。
第二十六条 算法推荐服务提供者应当接受社会监督,设置便捷的投诉举报入口,及时受理和处理公众投诉举报。
算法推荐服务提供者应当建立用户申诉渠道和制度,规范处理用户申诉并及时反馈,切实保障用户合法权益。
第二十七条 算法推荐服务提供者违反本规定第七条、第八条、第九条第一款、第十条、第十一条、第十二条、第十三条、第十四条、第十五条第二款、第二十二条、第二十六条规定的,由国家和省、自治区、直辖市网信部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停信息更新,并处五千元以上三万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
第二十八条 算法推荐服务提供者违反本规定第六条、第九条第二款、第十五条第一款、第三款、第十六条、第十七条、第十八条、第二十三条、第二十四条第二款规定的,由网信等有关主管部门依据职责,按照有关法律、行政法规和部门规章的规定予以处理。
第二十九条 具有舆论属性或者社会动员能力的算法推荐服务提供者违反本规定第二十条的规定,未按照要求备案或者在报送备案时隐瞒有关情况、提供虚假材料或者通过欺骗、贿赂等不正当手段取得备案的,由国家和省、自治区、直辖市网信部门依法撤销备案,并给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停信息更新,并处五千元以上三万元以下罚款。
具有舆论属性或者社会动员能力的算法推荐服务提供者终止服务未按照要求及时办理注销备案手续,或者发生严重违法情形受到吊销互联网信息服务许可、关闭网站、终止服务等行政处罚的,由国家和省、自治区、直辖市网信部门予以注销备案。
第三十条 本规定自2021年   月   日起施行。
来源:网信中国
链接:https://mp.weixin.qq.com/s/XdQVqqjJdLRlL0p6jlbwsQ
编辑:马皖雪

509#
 楼主| 发表于 2021-8-29 09:46:39 | 只看该作者
【案例】
微软翻译又添新语言 —— 文言文

编者按:每当面对美好的时节、迷人的风景、优美的事物时,或许你也禁不住想借古抒怀,然而却发现自己的古文词库有些匮乏。不过,最近微软亚洲研究院的研究员们将 AI 技术应用在文言文/古文与现代汉语之间的双向互译,并已集成于微软 Azure认知服务以及多个微软产品中,用户可以一键将文言文翻译成现代汉语,以及微软翻译服务支持的其他90多种语言和方言。

在阅读古诗词时,我们常常惊叹于古人携风月入墨,落笔如画,仿佛世间最美的风景,都在古诗词和文言文中。比如,我们可以在“落霞与孤鹜齐飞,秋水共长天一色”中享受绝美,在“大漠孤烟直,长河落日圆”里体会苍凉,在“气蒸云梦泽,波撼岳阳城”中感受壮阔。古代文人对人、事、物、景的诸多描写,为我们留下了灿烂的文化瑰宝。

然而,当我们读到北宋词人柳永笔下描绘的清明节旖旎春色和社会风情——“拆桐花烂熳,乍疏雨、洗清明。正艳杏烧林,缃桃绣野,芳景如屏。倾城,尽寻胜去,骤雕鞍绀幰出郊坰(zhòu diāo ān gàn xiǎn chū jiāo jiōng)。风暖繁弦脆管,万家竞奏新声”,这些略显拗口的古文,对于大多数人来说理解起来不免有些困难,很难完全体会出诗人所表达的意境。


为了解决这个问题,微软亚洲研究院的研究员们通过采用最新的神经网络机器翻译模型和训练框架,实现了文言文/古文与现代汉语之间的双向互译,以及文言文与微软翻译支持的其他90多种语言和方言的互译。目前,文言文翻译已经集成到了微软翻译应用、Azure 认知服务的翻译工具 API,以及微软翻译服务支持的包括Office 在内的多个微软产品中。


让更多人领略中华传统文化的魅力

不少人与文言文的上一次“亲密接触”大概还停留在学生时代,有些甚至早已遗忘。近年来,无论是汉服文化的流行,还是九大博物馆联手让国宝活起来的《国家宝藏》,以现代音乐奏响经典诗词的《经典咏流传》,聚焦文化典籍的《典籍里的中国》等等,全新的展示形式让越来越多的人重新关注中华传统文化的魅力。

文言文是中华传统文化的重要载体。卷帙浩繁的古书、古文记录了中华五千年来博大精深的文化,其中沉淀、蕴含的思想和智慧,值得不断地探索与思考。因此,文言文对于传承和传播中华文化至关重要,正如想理解西方文化的精髓要从读懂莎士比亚开始一样。

有了机器翻译的帮助,游客们在游山玩水时可以看懂古建筑、古碑文上的古文和诗词,学生们在进行大语文学习时多了一个通过实践举一反三的工具,对于古籍的整理和翻译研究工作来说,也可以提升效率、事半功倍。

“从技术角度上,文言文可以看作是一个单独的语种,当文言文与现代汉语实现自由互译后,文言文与英语、法语、德语等语言的互译也就水到渠成,”微软亚洲研究院高级研究员张冬冬说道。届时,国际友人在阅读中国经典古籍时也能瞬间秒懂,了解更加原汁原味的中华传统文化。

文言文翻译 AI 模型的最大难关:训练数据少

人工智能模型训练最关键的要素是数据,数据体量足够大、质量足够高,才能训练出更加精准的模型。在机器翻译中,模型的训练更是需要双语数据:原文数据和目标语言数据。由于文言文翻译极为特殊,它并非日常用语,所以与其他语种的翻译相比,文言文翻译的训练数据非常少,并不利于机器翻译模型的训练。

尽管微软亚洲研究院的研究员们前期收集了不少公开的古今汉语数据,但原始数据却无法直接使用,需要通过数据清洗,对数据的不同源头、多样的格式以及标点符号、全角/半角等进行标准化的统一,尽可能减少无效数据对模型训练的干扰。这样下来,切实可用的高质量数据又进一步减少。据微软亚洲研究院研究员马树铭介绍,为了解决数据少的问题,研究员们做了大量的数据合成和增强工作,包括:

首先,共用字符对齐、扩展,扩大数据量。与英文、法文、俄文等其他语言的翻译不同,文言文与现代文有相同、共通的字符。利用这个特点,微软亚洲研究院的研究员们通过创新算法,让机器翻译通过对共同字符进行召回、自然对齐,再进一步扩展到词语、短语、短句,从而合成了大量可用的数据。

其次,句式变形,提升机器翻译的鲁棒性。针对句子、诗文不同的断句,研究员们增加了多种变形,让机器在古诗文学习方面更全面,例如,古诗《寻隐者不遇》,一般的断句方式是“松下问童子,言师采药去”。但对于人来说,即使是“言师采药去,只在此山中”这样非正常断句,看见时也知道它的上下句关系和意思。但对于没见过如此断句的翻译模型来说,就会“懵”,因此,通过数据格式的变形不仅能扩大训练的数据量,也能提升训练模型翻译的鲁棒性。

第三,繁简字互译训练,增加模型适应性。汉语言中,无论是文言文还是现代文,都存在繁体字。因此,为了提升模型的适应性,研究员们在训练翻译模型时,不仅有简体中文的训练,还加入了繁体中文的数据,以及繁简字夹杂的数据,让翻译模型都能看懂,翻译也就更精准。

第四,增加集外词训练,提升翻译准确度。在现代语言向文言文翻译时,还会出现一些集外词,也就是古汉语中从未出现过的新名词,如微软、电脑、高铁等近现代才出现的实体词。针对这样的“意外”,研究员们训练了一个小模型来识别实体,先将实体之外的意思翻译完成,再把实体填写回去,以确保机器对集外词处理的准确性。

此外,针对非正式文体,如博客、论坛、微博等非正规的文体,该机器翻译模型也都进行了针对性的训练,进一步提升了现代汉语与文言文之间翻译的鲁棒性。


张冬冬表示,“基于当前的翻译系统,我们还将在丰富数据集、改进模型训练方法上不断精进,使方法变得更加鲁棒、通用,未来或许不只是在文言文翻译中能够使用,还可以扩展到更多应用场景中。”


创新技术助力文化遗产的保护与传承

中华文明上下五千年的历史,由于时间和空间的限制,能够传承下来,又被后人了解和记录的内容很有限。多年来,微软亚洲研究院一直致力于将最前沿的技术和研究成果应用于历史、文化、考古等方面的保护和传承,让文化遗产以更直观、互动的方式展现在人们面前。

自2005年起,微软亚洲研究院就基于自然语言处理、机器学习等人工智能技术研发了微软对联系统,并逐渐增加了微软字谜和微软绝句。2010年,微软亚洲研究院与故宫博物院和北京大学三方合作完成了“走进清明上河图”沉浸式数字音画展示项目的研发,独创性的三维布局恢复算法和虚拟环境组织方法,让观众可以身临其境地欣赏画中的每个细节,不仅以新方式保护和传承了书画类历史文物,也给传统博物馆在新技术时代的发展带来启示。2011年,微软亚洲研究院向敦煌研究院捐赠了专门为敦煌莫高窟量身定制的“飞天号”十亿级像素数字相机系统,突破性地解决了敦煌壁画和佛龛数字化拍摄过程中的难题。

微软亚洲研究院还在积极探索与文言文专业研究机构的沟通与合作,期待从技术角度提升文言文翻译系统准确性的同时,也能够获得专业性的意见和建议。

最后,让我们来测试一下你的文言文底蕴到底有多深。请选出以下文言文语句的正确意思:

1
《陈情表》:诏书特下,拜臣郎中,寻蒙国恩,除臣洗马。
A:专门下达诏书,授予我郎中的官职;不久又蒙受国家恩典,让我去给太子洗马。(错误)
B:朝廷又特地下了诏书,任命我为郎中,不久又蒙受国家恩命,任命我为太子的侍从。(正确)

2
《鸿门宴》:臣死且不避,卮酒安足辞?
A:我死都不怕,一杯酒有什么可推辞的?(正确)
B:我喝死都不怕,一杯酒怎么够呢?(错误)

来源:微软研究院AI头条
链接:https://mp.weixin.qq.com/s/5cpBuUXfeb0r13JSyNuS_Q


编辑:蒋可心

510#
 楼主| 发表于 2021-8-30 00:00:32 | 只看该作者
【案例】
我国信息服务算法推荐管理 | 条文背后的技术逻辑“想象”
编者按
2021年,全球范围内对于人工智能的监管已经开始从理论探讨走向实际的立法和执法阶段,标志性的事件就是欧盟提出了《欧洲议会和理事会关于制定人工智能统一规则(《人工智能法》)和修正某些欧盟立法的条例》的提案,以及我国国家互联网信息办公室于827日发布的《互联网信息服务算法推荐管理规定(征求意见稿)》。【国家互联网信息办公室关于《互联网信息服务算法推荐管理规定(征求意见稿)》公开征求意见的通知】
关于人工智能安全和监管,本公号发布过以下文章:
《英国ICO人工智能与数据保护指引》选译 | 如何评估AI的安全性和数据最小化?
英国ICO人工智能指导 | 数据分析工具包(全文翻译)
《英国ICO人工智能与数据保护指引》选译 | 如何保护人工智能系统中的个人权利?
人工智能 vs. 个人信息保护之“个人同意”
《以伦理为基础的设计:人工智能及自主系统以人类福祉为先的愿景(第一版)》
AI监管 | EDPBEDPS对欧盟AI条例的联合意见书(全文翻译)
AI监管 | 对欧盟AI统一规则条例的详细分析
AI监管 | 欧盟《AI统一规则条例(提案)》(全文翻译)
AI监管 | 意大利因骑手算法歧视问题对两个食物配送公司处于高额罚款
AI监管 | 用户数据用于AI模型训练场景的合规要点初探
我国信息服务算法推荐管理 | 与个人信息保护的耦合和差异
今天和大家分享的是公号君对《互联网信息服务算法推荐管理规定(征求意见稿)》的研究笔记之二,关注的是这个规定的内在技术逻辑。
任何技术规范在制定时,都或多或少地预设了一个技术逻辑的“想象”。今天这篇文章的目的就是整理出《互联网信息服务算法推荐管理规定(征求意见稿)》背后的技术逻辑的“想象”。


以上是公号君对该规定的学习后整理出来的技术逻辑示意图。接下来,我们就分别从这算法推荐技术、信息内容(文本、视频、音频等)、展示页面、特定用户等四个部分,来认识规定中的具体条款。
算法推荐技术
种类
生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等(规定的第二条)
禁止的算法性质
不得设置诱导用户沉迷或者高额消费等违背公序良俗的算法模型。(规定的第八条)
透明度要求
应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等。(规定的第十四条)
权益影响
用户认为算法推荐服务提供者应用算法对其权益造成重大影响的,有权要求算法推荐服务提供者予以说明并采取相应改进或者补救措施。(规定的第十五条)
信息内容
信息内容特征库
建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。(规定的第九条)
合成信息的标识
发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。(规定的第九条)
违法信息的阻断
发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门报告。发现不良信息的,应当按照网络信息内容生态治理有关规定予以处置。(规定的第九条)
展示页面
页面生态管理       
算法推荐服务提供者应当加强算法推荐服务版面页面生态管理,建立完善人工干预和用户自主选择机制,在首页首屏、热搜、精选、榜单类、弹窗等重点环节积极呈现符合主流价值导向的信息内容。(规定第十一条)
调整页面展示
应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。(规定的第十五条)
推荐商品或服务
算法推荐服务提供者向消费者销售商品或者提供服务的,应当保护消费者合法权益,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实行不合理的差别待遇等违法行为。
未成年人保护
算法推荐服务提供者向未成年人提供服务的,应当依法履行未成年人网络保护义务,并通过开发适合未成年人使用的模式、提供适合未成年人特点的服务等方式,便利未成年人获取有益身心健康的信息内容。
算法推荐服务提供者不得向未成年人用户推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息内容,不得利用算法推荐服务诱导未成年人沉迷网络。(规定的第十六条)
工作调度
算法推荐服务提供者向劳动者提供工作调度服务的,应当建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法,履行劳动者权益保障义务。(规定的第十七条)
特定用户的自主选择能力
用户模型和标签管理
应当加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容,不得设置歧视性或者偏见性用户标签。(规定的第十条)
对用户的影响
应当综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响、引发争议纠纷。(规定的第十二条)
用户标签选择
算法推荐服务提供者应当向用户提供选择、修改或者删除用于算法推荐服务的用户标签的功能。(规定的第十五条)
在按照技术逻辑的四个元素进行分别规定后,《互联网信息服务算法推荐管理规定(征求意见稿)》集中对“具有舆论属性或者社会动员能力”的算法推荐服务进行了有针对性的规制。所谓的“具有舆论属性或者社会动员能力”的算法推荐服务,本质上是以上四个方面综合判断后才能确定其是否以及多大程度上“具有舆论属性或者社会动员能力”。
分类分级管理
国家网信部门建立分类分级管理制度,根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据敏感程度、对用户行为的干预程度等对算法推荐服务提供者实施分类分级管理。(规定的第十九条)
备案制度
具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。
算法推荐服务提供者的备案信息发生变更时,应当在变更之日起五个工作日内办理变更手续。
算法推荐服务提供者终止服务的,应当在终止服务三十个工作日前办理注销备案手续,并作出妥善安排。(规定的第二十条)
完成备案的算法推荐服务提供者应当在其对外提供服务的网站、应用程序等显著位置标明其备案编号并提供公示信息链接。(规定的第二十二条)
强制的安全自评估
具有舆论属性或者社会动员能力的算法推荐服务提供者应当按照国家有关规定开展安全评估。
算法推荐服务提供者应当完善算法推荐服务管理机制,对算法推荐服务日志等信息进行留存,留存期限不少于六个月,并在相关执法部门依法查询时予以提供。(规定的第二十三条)
数据保护官(DPO)社群主要成员是个人信息保护和数据安全一线工作者。他们主要来自于国内头部的互联网公司、安全公司、律所、会计师事务所、高校、研究机构等。在从事本职工作的同时,DPO社群成员还放眼全球思考数据安全和隐私保护的最新动态、进展、趋势。20185月,DPO社群举行了第一次线下沙龙。沙龙每月一期,集中讨论不同的议题。目前DPO社群已超过300人。关于DPO社群和沙龙更多的情况如下:
域外数据安全和个人信息保护领域的权威文件,DPO社群的全文翻译:
印度《2018个人数据保护法(草案)》全文翻译(中英对照版)(DPO沙龙出品)
巴西《通用数据保护法》全文中文翻译(DPO沙龙出品)
“美国华盛顿哥伦比亚特区诉Facebook“起诉书全文翻译(DPO沙龙出品)
法国数据保护局发布针对与商业伙伴或数据代理共享数据的指南
德国联邦反垄断局对Facebook数据收集和融合行为提出严格限制(DPO沙龙出品)
德国联邦反垄断局审查Facebook数据收集融合行为的背景情况(DPO沙龙出品)
108号公约”全文翻译(DPO沙龙出品)
美国司法部“云法案”白皮书全文翻译(DPO社群出品)
新加坡《防止网络虚假信息和网络操纵法案》中文翻译(DPO沙龙出品)
英国ICO《广告技术和实时竞价的更新报告》中译文(DPO社群出品)
FTCFacebook达成和解令的新闻通告”全文翻译(DPO社群出品)
CJEU认定网站和嵌入的第三方代码成为共同数据控制者(DPO沙龙出品)
FTCFacebook2019和解令”全文翻译(DPO社群出品)
英国ICO《数据共享行为守则》中译文(DPO社群出品)
hiQ LabsLinkedIn案上诉判决”中译文(DPO社群出品)
法国数据保护监管机构(CNIL)有关cookies和其他追踪方式的指引(全文翻译)
美加州消费者隐私法案(CCPA) 修正案汇总中译文(DPO沙龙出品)
FTC“首次针对追踪类App提起诉讼”的官方声明中文翻译(DPO社群出品)
ICDPPC关于隐私和消费者保护、竞争维护交叉问题决议的中文翻译(DPO社群出品)
德国关于确定企业GDPR相关罚款数额官方指南的中文翻译(DPO社群出品)
亚洲十四个国家和地区数据跨境制度报告中译本(DPO社群出品)
印度《个人数据保护法》(2019年草案)全文翻译(DPO社群出品)
法国数据保护局(CNIL)关于人脸识别报告的中译文(DPO社群出品)
AEPDEDPS | “哈希函数简介——用于个人数据假名化技术”中译文(DPO社群出品)
欧盟基本权利局“人脸识别技术”报告中文翻译(DPO社群出品)
联合发布 |2020数字医疗:疫情防控新技术安全应用分析报告》
技术主权视野下的欧盟数字化转型战略探析(DPO社群出品)
意大利数据保护机关就新冠疫情联防联控中个人信息问题的意见(DPO社群出品)
新版《个人信息安全规范》(35273-2020)正式发布
英国ICO | 《儿童适龄设计准则:在线服务实业准则》全文翻译之一
英国ICO | 《儿童适龄设计准则:在线服务实业准则》全文翻译之二
《个人信息安全影响评估指南》(GB/T 39335-2020)正式发布
《英国ICO人工智能与数据保护指引》选译 | 如何保护人工智能系统中的个人权利?
《英国ICO人工智能与数据保护指引》选译 | 如何评估AI的安全性和数据最小化?
西班牙数据保护局《默认数据保护指南》全文翻译(DPO社群出品)
DPO线下沙龙的实录见:
数据保护官(DPO)沙龙第一期纪实
第二期数据保护官沙龙纪实:个人信息安全影响评估指南
第三期数据保护官沙龙纪实:数据出境安全评估
第四期数据保护官沙龙纪实:网络爬虫的法律规制
第四期数据保护官沙龙纪实之二:当爬虫遇上法律会有什么风险
第五期数据保护官沙龙纪实:美国联邦隐私立法重要文件讨论
数据保护官(DPO)沙龙走进燕园系列活动第一期
第六期数据保护官沙龙纪实:2018年隐私条款评审工作
第八期数据保护官沙龙纪实:重点行业数据、隐私及网络安全
第九期数据保护官沙龙纪实:《个人信息安全规范》修订研讨
第十期数据保护官沙龙纪实:数据融合可给企业赋能,但不能不问西东
第十一期数据保护官沙龙纪实:企业如何看住自家的数据资产?这里有份权威的安全指南
第十二期数据保护官纪实:金融数据保护,须平衡个人隐私与公共利益
第十三期DPO沙龙纪实:厘清《数据安全管理办法》中的重点条款
第十四期DPO沙龙纪实:梳理《个人信息出境安全评估办法(征求意见稿)》的评估流程
第十五期DPO沙龙纪实:SDK非洪水猛兽,但如果“作恶”乱收集信息,谁来管?
第十六期DPO沙龙纪实:查询App收集个人信息类型、禁止收集IMEI号是未来监管趋势
与欧美一流数据保护专家面对面(DPO沙龙特别活动)
第十七期DPO沙龙纪实:数据统一确权恐难实现 部门立法或是有效途径
第十八期DPO沙龙纪实:生物识别信息的安全保护
第十九期DPO沙龙纪实:《个人信息保护法(草案)》专题研讨会之一
第二十期DPO沙龙纪实:《个人信息保护法(草案)》专题研讨会之二
个人数据与域外国家安全审查系列文章
个人数据与域外国家安全审查初探(一):美欧概览
个人数据与域外国家安全审查初探(二):CFIUS实施条例详解
个人数据与域外国家安全审查初探(三):从美国《确保ICT技术与服务供应链安全》   
个人数据与域外国家安全审查初探(四):从美国《2019年安全与可信通信网络法案》看
个人数据与域外国家安全审查初探(五):禁止中国公司对StayNTouch的收购
个人数据与域外国家安全审查初探(六):《2019国家安全和个人数据保护法案》
个人数据与域外国家安全审查初探(七):美国众议院荒唐的决议草案
个人数据与域外国家安全审查初探(八):《2020安全的5G和未来通信》法案
个人数据与域外国家安全审查初探(九):澳大利亚《协助和访问法》
美国司法部狙击中国内幕(Inside DOJ's nationwide effort to take on China
美国司法部“中国计划”的概况介绍
突发 | 特朗普签署关于TIKTOKWECHAT的行政令
理解特朗普禁令中的Transactions
白宫决策内幕 | TIKTOK的命运是由一场"击倒、拖出"的椭圆形办公室争斗所形塑
《国际紧急经济权力法》(IEEPA)的起源、演变和应用
个人数据与域外国家安全审查 | 美国安局对地理位置信息的建议(全文翻译)
外媒编译 | 诡秘的美国外国投资委员会如何成为贸易战的有力武器?
围绕着TIKTOKWECHAT的总统令,本公号发表了以下文章:
突发 | 特朗普签署关于TIKTOKWECHAT的行政令
理解特朗普禁令中的Transactions
白宫决策内幕 | TIKTOK的命运是由一场"击倒、拖出"的椭圆形办公室争斗所形塑
TikTok和甲骨文合作中的“可信技术提供商” | 微软和德国电信合作的模式
TikTok和甲骨文合作中的“可信技术提供商” | 苹果和云上贵州合作模式
外媒编译 | TikTok 零点时间:最后一刻的交易
TikTok和甲骨文合作中的“可信技术提供商” | 来自EPIC的质疑和两家公司的回复
29条工作组/EDPB关于GDPR的指导意见的翻译:
29条工作组《对第2016/679号条例(GDPR)下同意的解释指南》中文翻译(DPO沙龙出品)
29条工作组“关于减轻对处理活动进行记录义务的立场文件”(DPO沙龙出品)
29条工作组《第2/2017号关于工作中数据处理的意见》(DPO沙龙出品)
29条工作组《关于自动化个人决策目的和识别分析目的准则》(DPO沙龙出品)
29条工作组《数据可携权指南》全文翻译(DPO沙龙出品)
29条工作组关于GDPR《透明度准则的指引》全文翻译(DPO沙龙出品)
EDPB《关于GDPR适用地域范围(第3条)的解释指南》全文翻译(DPO沙龙出品)
EDPB“关于《临床试验条例》与GDPR间相互关系”意见的全文翻译(DPO沙龙出品)
EDPB《车联网个人数据保护指南》全文翻译(DPO社群出品)
EDPB关于GDPR中合同必要性指引的中文翻译(DPO沙龙出品)
EDPB关于“疫情场景中使用位置数据和接触追踪工具”指南:全文翻译(DPO沙龙出品)
EDPB | 《对第2016/679号条例(GDPR)下同意的解释指南v1》中文翻译(DPO社群出品)
29条工作组 | 《关于匿名化技术的意见》中文全文翻译(DPO社群出品)
欧盟委员会关于GDPR实施两周年评估报告中文翻译(DPO社群出品)
EDPB | GDPR下数据控制者及数据处理者概念的指南(07/2020)》全文翻译
EDPB | 《针对向社交媒体用户定向服务的指南(第8/2020号)》全文翻译
数据安全的法律要求 | DPB关于数据泄露通知示例的01/2021号指引
关于美国出口管制制度,本公号发表过系列文章:
美国出口管制制度系列文章之一:对“外国生产的产品”的相关规则
美国出口管制制度系列文章之二:适用EAR的步骤
美国出口管制制度系列文章之三:苏联油气管道的“华为”事件
美国出口管制制度 | 允许华为和美国公司共同制定5G标准
美国出口管制 | BIS发布针对“基础性技术”出口管制的“拟议制定规则预先通知”
《华盛顿邮报》披露《美国对中国的战略路径》背后的决策博弈
美国出口管制 | ARM+美国公司收购=更强的出口管制?
供应链安全文章:
供应链安全 | 白宫发布关于降低依赖外国对手的重要矿产的行政令
供应链安全 | 美国从科技供应链中剔除中国行动的内幕(外媒编译)
供应链安全 | 英国政府推进《电信(安全)法案》以确保供应链安全
数据跨境流动政策、法律、实践的系列文章:
构建数据跨境流动安全评估框架:实现发展与安全的平衡
构建数据跨境流动安全评估框架:实现发展与安全的平衡(二)
构建数据跨境流动安全评估框架:实现发展与安全的平衡(三)
构建数据跨境流动安全评估框架:实现发展与安全的平衡(四)
TPP对跨境金融数据“另眼相看”?
马来西亚拟将我国认定为个人数据跨境流动“白名单”地区
美国ITIF关于数据跨境流动的研究报告简介
Chatham House举办Cyber 2017大会,关注中国数据跨境流动
俄罗斯个人信息保护机构对隐私政策和数据跨境流动的新举措
看清APEC“跨境隐私保护规则”体系背后的政治和经济
敬请关注“闭门会-数据跨境流通”
“闭门会:数据跨境流动政策分析” 总结
欧盟个人数据跨境流动机制进展更新(截止201810
俄罗斯数据本地化和跨境流动条款解析
亚洲十四个国家和地区数据跨境制度报告中译本(DPO社群出品)
《个人信息和重要数据出境安全评估办法》实现了安全与发展的平衡
数据出境安全评估:保护我国基础性战略资源的重要一环
个人信息和重要数据出境安全评估之“境内运营”
《数据出境安全评估:保护我国基础性战略资源的重要一环》英文版
个人信息和重要数据出境安全评估之“向境外提供”
数据出境安全评估基本框架的构建
银行业金融数据出境的监管框架与脉络(DPO社群成员观点)
《网络安全法》中数据出境安全评估真的那么“另类”吗
解析《个人信息出境安全评估办法(征求意见稿)》实体保护规则背后的主要思路
《个人信息出境安全评估办法(征求意见稿)》解读:从中外比较的角度
数据跨境流动 | 澳大利亚政府提出新的数据本地化要求
数据跨境流动 | 美欧“隐私盾协议”被判无效背后的逻辑
数据跨境流动 | 欧盟EDPB对欧盟隐私盾协议被判无效的相关问答(全文翻译)
“清洁网络计划”下的APEC跨境隐私保护(CBPR)体系
数据跨境流动 | 爱尔兰DPA即将禁止FACEBOOK的数据跨境传输
数据跨境流动 | 最新判决将显著影响英国与欧洲大陆之间的数据自由流动
数据跨境流动 | 爱尔兰高等法院暂时允许Facebook继续个人数据跨大西洋传输
数据跨境流动 | 中国公司基于SCCs开展数据跨境流动的基本策略
数据跨境流动 | 美国三位高官就Schrems II判决公开向欧盟喊话
数据跨境流动 | 欧盟EDPS官员敦促美国强化个人救济以达到“实质等同”
数据跨境流动 | 美国政府白皮书正式回应欧盟Schrems II判决
数据跨境流动 | EDPB关于标准合同条款之外的“补充措施”的指南终于问世
数据跨境流动 | EDPB提出“评估目的国法律环境”的指南(全文翻译)
数据跨境流动 | 微软率先提出对欧盟数据的专属“保护措施”
数据跨境流动 | 欧盟新版标准合同条款全文翻译
数据跨境流动 | EDPBEDPS通过了关于新的SCCs的联合意见
数据跨境流动 | 东盟跨境数据流动示范合同条款(全文翻译)
数据跨境流动 | 东盟数据管理框架(全文翻译)
数据跨境流动 | 推进“一带一路”数据跨境流动的中国方案(专论)
数据跨境流动 | 欧盟新版标准合同条款(最终版)全文翻译
数据跨境流动 | 欧盟关于欧盟境内的控制者和处理者间标准合同条款(全文翻译 )
数据跨境流动 | EDPB关于标准合同条款之外的“补充措施”指南2.0版(全文翻译)
数据跨境流动 | 两张图解读EDBP“数据跨境转移补充措施的最终建议”
数据跨境流动 | 推进“一带一路”数据跨境流动的中国方案(英文本)
传染病疫情防控与个人信息保护系列文章
传染病疫情防控与个人信息保护初探之一:个人信息的性质
传染病疫情防控与个人信息保护初探之二:同意的例外
传染病疫情防控与个人信息保护初探之三:数据技术的应用路径
传染病疫情防控与个人信息保护初探之四:接触追踪的数据共享安全规范
传染病疫情防控与个人信息保护初探之五:电信数据的安全规范
传染病疫情防控与个人信息保护初探之六:GDPR框架下的公共卫生数据共享
传染病疫情防控与个人信息保护初探之七:美国公共卫生机构的数据调取权力
传染病疫情防控与个人信息保护初探之完结篇:解读中央网信办通知
欧盟国家和英国的数据保护部门对疫情防控的官方意见汇总(DPO社群出品)
美国疫情防控中的关键基础设施的识别和认定(DPO社群出品)
意大利数据保护机关就新冠疫情联防联控中个人信息问题的意见(DPO社群出品)
欧委会关于新冠疫情中利用移动数据和应用官方建议的全文翻译(DPO沙龙出品)
漫画图解苹果和谷歌联手开发的接触追踪应用的基本原理  
澳门关于疫情防控中进出场所人员个人资料保护的通告
疫情防控常态化中的接触追踪:中国方案
欧委会“支持抗击新冠疫情的APP的数据保护指引”全文翻译(DPO社群出品)
来自欧洲的接触追踪协议(ROBERT Protocol)的基本原理:漫画图解
英国信息专员对苹果谷歌接触追踪项目的官方意见:全文翻译(DPO社群出品)
三百名学者关于接触追踪APP的联合声明
EDPB关于“疫情场景中使用位置数据和接触追踪工具”指南:全文翻译(DPO沙龙出品)
新冠疫情防控常态化下的个人信息保护工作的思考和建议
韩国利用ICT抗疫经验总结:接触追踪部分(中文翻译)
全文翻译 | 欧盟新冠肺炎“接触追踪”APP 共同工具箱(DPO沙龙出品)
EDPB | 关于在COVID-19疫情背景下为科研目的处理健康数据指南(全文翻译)
关于数据与竞争政策的翻译和分析:
"法国竞争管理局对苹果iOS限制APP追踪措施的初步决定"全文翻译(上篇)
"法国竞争管理局对苹果iOS限制APP追踪措施的初步决定"全文翻译(下篇)
欧盟与谷歌在反垄断方面的大事记(竞争法研究笔记一)
Facebook时代的合并政策(竞争法研究笔记二)
“在隐私辩论中关注竞争水平的维护”(竞争法研究笔记三)
欧盟委员会针对亚马逊开展调查(竞争法研究笔记四)
德国联邦反垄断局对Facebook数据收集和融合行为提出严格限制(DPO沙龙出品)
德国联邦反垄断局审查Facebook数据收集融合行为的背景情况(DPO沙龙出品)
案件摘要:德国反垄断监管机构对Facebook数据收集融合行为裁决
日本拟效仿德国:对IT巨头非法收集个人信息适用“反垄断法”
数据安全法系列文章:
对《数据安全法》的理解和认识 | 立法思路
对《数据安全法》的理解和认识 | 数据分级分类
对《数据安全法》的理解和认识 | 中国版的封阻法令
对《数据安全法》的理解和认识 | 重要数据如何保护
评《网络安全法》对数据安全保护之得与失
从立法价值取向出发理解《网络安全法》中的"重要数据"
健康医疗大数据系列文章:
健康医疗大数据系列文章之一:英国健康医疗大数据平台care.data之殇
健康医疗大数据系列文章之二:安全是健康医疗大数据应用的核心基础
健康医疗大数据系列文章之三:棘手的健康医疗大数据共享、开放、利用
英美健康医疗大数据安全现状和合规研究
健康医疗数据 | NHS计划与第三方共享病人记录
健康医疗数据 | NHS数据共享计划的“隐私政策”
健康医疗数据 | NHS数据共享计划所引发的公众担忧
网联汽车数据和自动驾驶的系列文章:
自动驾驶数据共享:效用与障碍
自动驾驶数据共享:效用与障碍(附文字实录)
北京市关于自动驾驶车辆道路测试的立法综述及动态(DPO社群成员观点)
自动驾驶的基建工程 — 高精地图产业促进与国家管控的平衡(DPO社群成员观点)
《汽车数据安全管理若干规定(征求意见稿)》 | 规范对象和基本原则
《汽车数据安全管理若干规定(征求意见稿)》 | 个人信息和重要数据的细化规范
《汽车数据安全管理若干规定(征求意见稿)》 | 数据出境和监管手段
《汽车数据安全管理若干规定(征求意见稿)》 | 配套制度
《汽车数据安全管理若干规定(征求意见稿)》 | “汽车数据”与EDPB指南中的联网车辆
《汽车数据安全管理若干规定(征求意见稿)》 | “车内处理”与EDPB指南中“终端设备”
《汽车数据安全管理若干规定(征求意见稿)》 | 个人信息的分类分级规则
《汽车数据安全管理若干规定(征求意见稿)》 | 向车外提供数据的规则
EDPB《车联网个人数据保护指南》全文翻译(DPO社群出品)
EDPB《车联网个人数据保护指南2.0》比较翻译(DPO社群出品)
网联车辆 | 网联车辆采集和产生的数据类型概览
网联车辆 | 美国联邦贸易委员会(FTC)对数据隐私的原则性观点
网联车辆 | 德国官方和行业协会在数据保护方面的联合声明
网联车辆 | 英国信息专员办公室(ICO)就个人数据保护的立场和意见
网联车辆 | 法国数据保护局(CNIL)的一揽子合规方案
网联车辆 | 电信领域国际数据保护工作组的工作文件(全文翻译)
《汽车数据安全管理若干规定(征求意见稿)》 | 运营者概念
关于中美与国家安全相关的审查机制的系列文章:
美国电信行业涉及外国参与的安全审查(一):基本制度介绍
美国电信行业涉及外国参与的安全审查(二):国际性的第214节授权
美国电信行业涉及外国参与的安全审查(三):建立外国参与安全审查的行政令
美国电信行业涉及外国参与的安全审查(四):FCC对中国企业的陈述理由令
网络安全审查制度利刃出鞘
对《网络安全审查办法(征求意见稿)》的几点观察
网络安全审查制度吹响了向网络安全强国迈进的号角
我国网络安全审查制度走向前台
网络安全审查的中欧比较:以5G为例
网络安全审查 | 中国《网络安全审查办法》的逻辑和要旨:以5G安全为例
ICTS安全审查 | 美国针对“信息和通信技术及服务”和“联网应用”安全审查的两个行政令
ICTS安全审查 | 美国智库学者的分析和呼吁
ICTS安全审查 | 美国商务部确保ICTS供应链安全实施规则(全文翻译)
网络空间的国际法适用问题系列文章:
塔林手册2.0是如何看待数据的?
国际法适用网络空间 | 德国立场文件如何看待具有国家背景的网络攻击
赴美上市网络、数据安全风险系列文章如下:
赴美上市与网络、数据安全 | 美国SEC对赴美上市公司披露义务的指导意见
赴美上市与网络、数据安全 | 时任美国SEC的领导层对上市公司网络安全披露的观点
赴美上市与网络、数据安全 | 美国SEC强制或自愿性要求信息提供的权力
赴美上市与网络、数据安全 | 美国SEC针对会计师事务所从域外调取信息的权力和实践
赴美上市与网络、数据安全 | 美国SEC关于网络安全事项披露的2018指南(全文翻译)
赴美上市与网络、数据安全 | 美国《外国公司问责法案》(全文翻译)
赴美上市与网络、数据安全 | 美国SEC关于非财务报告要求的概览
赴美上市与网络、数据安全 | 美国SEC关于“重大合同”的披露要求
赴美上市与网络、数据安全 | PCAOB落实《外国公司问责法案》的规则草案
赴美上市与网络、数据安全 | 美国政客推动加速《外国公司问责法案》的执行
赴美上市与网络、数据安全 | 美国法下获取我国赴美上市企业数据的可能性(上)
赴美上市与网络、数据安全 | SEC主席对中国监管措施的最新表态
人脸识别系列文章:
欧盟基本权利局“人脸识别技术”报告中文翻译(DPO社群出品)
法国数据保护局(CNIL)关于人脸识别报告的中译文(DPO社群出品)
零售门店使用人脸识别技术的主要法律问题(DPO社群成员观点)
人脸识别技术的规制框架(PPT+讲稿)
人脸识别技术运用的六大场景及法律规制框架的适配(DPO社群成员观点)
人脸识别技术的法律规制研究初探(DPO社群成员观点)
美国联邦隐私保护立法草案研究(四):“生物识别信息”
美国华盛顿州人脸识别服务法案中文翻译(DPO社群出品)
PAI | 《理解人脸识别系统》全文翻译(DPO社群出品)
解读世界首例警方使用人脸识别技术合法性判决二审判决(DPO社群成员观点)
人脸识别技术研究综述(一):应用场景
人脸识别技术研究综述(二):技术缺陷和潜在的偏见
美国人脸识别技术的法律规范研究综述 | 拼凑式(Patchwork)的范式
美国《2020年国家生物识别信息隐私法案》中译文
人脸识别技术是潘多拉盒子还是阿拉丁神灯?
人脸识别 | “第108号公约+”咨询委员会发布《关于人脸识别的指南》(全文翻译)
人脸识别 | EDPB“关于通过视频设备处理个人数据的指南”(全文翻译)
人脸识别 | EDPS关于面部情绪识别的观点
人脸识别 | 保护人脸信息 规范行业健康发展的有效司法路径
人脸识别 | 对我国“人脸识别技术民事案件司法解释”中“单独同意”的理解
关于欧盟技术主权相关举措的翻译和分析:
技术主权视野下的欧盟数字化转型战略探析(DPO社群出品)
欧盟委员会主席首提“技术主权”概念
推进欧洲可持续和数字化转型:《欧洲新工业战略》解读(DPO社群成员观点)
欧盟“技术主权”进展 | 德国和法国推出欧盟自主可控的Gaia-X云平台计划
欧盟“技术主权”进展 | 欧盟如何在科技领域能主导下一个十年
欧盟“技术主权”进展 | 关于数字平台监管的建议
欧盟“技术主权”进展 | 欧洲共同数据空间治理立法框架
欧盟《数字市场法》选译之一:解释性备忘录
欧盟《数字市场法》选译之二:序言和条文
欧盟《数字服务法》选译之一:解释性备忘录
欧盟《数字服务法》选译之二:序言
欧盟《数字服务法》选译之三:(实体规则方面的)条文
欧盟《数字服务法》《数字市场法》简评
欧洲法院:欧盟成员国的数据保护机构都可对Facebook提出隐私方面的诉讼
欧盟技术主权 | 《电子隐私条例》(e-Privacy Regulation)全文翻译
欧盟技术主权 | “欧盟在全球数据争夺战中的位置”:欧盟副主席采访实录
欧盟技术主权 | “技术的地缘政治”:欧盟内部市场委员的演讲
数据要素治理的相关文章包括:
《非个人数据在欧盟境内自由流动框架条例》全文中文翻译(DPO沙龙出品)
简析欧盟《数字市场法》关于数据方面的规定
数据流通障碍初探——以四个场景为例
“数据共享合法化”的分析与思考系列之一:以《关于欧洲企业间数据共享的研究》为起点
“数据共享合法化”的分析与思考 系列之二 ——欧盟B2B数据共享的案例研究
“数据共享合法化”的分析与思考 系列之三 ——更好的保护才能更好的共享
用户授权第三方获取自己在平台的数据,可以吗?不可以吗?(DPO沙龙线上讨论第三期)
数据爬取的法律风险综述(DPO社群成员观点)
29条工作组《数据可携权指南》全文翻译(DPO沙龙出品)
澳《消费者数据权利法案》对数据共享与数据可携权的探索(DPO社群成员观点)
欧盟“技术主权”进展 | 欧洲共同数据空间治理立法框架
数据要素治理 | 欧盟《数据法》初始影响评估(全文翻译)
关于保护网络和信息系统安全的相关文章包括:
以风险治理的思想统筹设计关键信息基础设施保护工作
中德两国在识别关键信息基础设施方面的一点比较
美国疫情防控中的关键基础设施的识别和认定(DPO社群出品)
美国《关于改善国家网络安全的行政命令》分析之一
美国《关于改善国家网络安全的行政命令》之五大“看点”
网络和信息系统安全 | 网络安全信息共享:为什么和怎么做
网络和信息系统安全 | 主体责任与综合共治 关键信息基础设施保护的新格局
数据执法跨境调取的相关文章:
微软起诉美国司法部:封口令违法!
网络主权的胜利?再评微软与FBI关于域外数据索取的争议
微软与FBI关于域外数据索取的争议暂告一段落
美国Cloud Act法案到底说了什么
Cloud Act可能本周就得以通过!
修改版的Cloud Act终成为法律
欧盟推出自己的Cloud Act
美国快速通过Cloud法案 清晰明确数据主权战略
德国最高数据保护官员就美国“云法案”提出警告
美国司法部“云法案”白皮书全文翻译(DPO社群出品)
TikTok和甲骨文合作中的“可信技术提供商” | 微软和德国电信合作的模式
TikTok和甲骨文合作中的“可信技术提供商” | 苹果和云上贵州合作模式
欧洲将立法允许执法跨境直接调取数据
数据跨境流动 | “法律战”漩涡中的执法跨境调取数据:以美欧中为例
赴美上市与网络、数据安全 | 美国SEC针对会计师事务所从域外调取信息的权力和实践
跨境数据调取 | 针对中资银行的数据调取行为概览
我国个人信息保护立法的相关文章:
中国个人信息保护立法 | 《个人信息保护法(草案)》与GDPR的比较
中国个人信息保护立法 | 合同所必需:魔鬼在细节之中
对《常见类型移动互联网应用程序必要个人信息范围规定》的两点理解
对《常见类型移动互联网应用程序必要个人信息范围规定》的再理解
理解《数据安全法》《个人信息保护法》二审稿的实质性修改内容(一)
个保法解读之数据可携带权(DPO社群成员观点)
《个人信息保护法》与《个人信息安全规范》对照比较表
过度收集个人信息如何破解
中国个人信息保护立法 | 解析GDPR中的风险路径
中国个人信息保护立法 | 善用个人信息保护影响评估 灵活实现创新和个人保护的平衡
来源: 网安寻路人
链接:https://mp.weixin.qq.com/s/9ZZzDEFeDZkyrR7WVQYt0w
编辑:马皖雪




发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表