近期,加拿大隐私专员办公室(The Office of the Privacy Commissioner of Canada,OPC)发布了针对生成式人工智能技术的规制文件《生成式人工智能技术的基本原则:负责任、可信和隐私保护》(下称《基本原则》),重点就使用该技术过程中的个人信息保护等问题作出回应。
OPC官网
经南都记者梳理,《基本原则》共九大条,几乎每条原则都分别针对各方、生成式人工智能系统的开发者和提供者、生成式人工智能系统的使用组织提出不同的隐私保护要求。同时,《基本原则》提出应重点考虑该技术对儿童等弱势群体造成的特殊影响,要求对他们采取更多隐私保护措施。
No。1避免欺骗获得知情同意,明确禁止三方面行为
人工智能技术飞速发展的同时,其带来的隐私安全担忧从未止歇。当前,如何负责任地使用并治理人工智能已成为国际社会的讨论焦点,各国纷纷加紧制定相关法律法规。在推出《基本原则》之前,OPC及其在不列颠哥伦比亚省、魁北克省和阿尔伯塔省的相关监管机构对生成式人工智能服务进行了公开调查。 “虽然生成式人工智能技术可能会给隐私带来新的风险,并在个人信息的收集、使用和披露方面引发新的问题和担忧,但它们并不在现行法律框架之外。”《基本原则》在介绍其出台背景时写道,开发、提供或使用生成式人工智能技术的组织有义务确保其活动符合加拿大适用的相关隐私法律法规。 《基本原则》的九大原则包括法律授权和同意,收集、使用和披露个人信息的必要性、恰当性、开放性,个人信息主体权利、隐私安全保护措施等。同时,《基本原则》还明确了当前背景下,某些尚未得到加拿大相关法律法规的明确限制,但因可能产生不良后果和影响进而被严格禁止的行为“禁区”。 具体而言,“禁区”主要包括三个方面。一是出于恶意目的利用人工智能生成相关内容,例如避开身份验证系统或未经本人同意时生成可识别的个人私密图像;二是通过对话故意诱导人工智能泄露更多个人信息及敏感个人信息;三是生成和发布关于个人的虚假或诽谤信息。 知情同意是收集和使用个人信息的法律依据。《基本原则》规定,应确保以同意作为收集、使用和披露个人信息的合法性基础时,这份同意有效且有意义; 同意应尽可能具体,且避免通过欺骗性的方式获得;当个人信息来源于第三方时,应确保第三方系合法收集且有权进行共享。涉及收集和使用敏感个人信息时,比如医疗保健信息,应取得单独同意。 在目的方面,应确保与生成式人工智能系统相关的任何个人信息收集、使用和披露行为都是基于适当目的,且收集、使用和披露方式合法。 针对不同主体,开发者和提供者应不开发或使用涉及“禁区”的生成式人工智能系统,如发现潜在的、非预期的不当使用情况,应采取措施降低风险——这可能需要通过采取相关技术措施,提前制定使用规范来实现。生成式人工智能系统的使用组织则应避免促使该系统重新识别任何此前已去除身份标识的数据。 No。2开展隐私算法影响评估,重视儿童保护 《基本原则》明确,收集和使用个人信息应遵循必要性、开放性等原则。在必要性方面,如果不是为实现适当目的所必需,各方都应使用经匿名化、合成或去标识处理的数据,而非个人信息。使用组织应评估生成式人工智能系统用于预期目的有效性和可靠性,确保其在不同使用场景下也做到准确无误。 开放性指在个人信息的收集、使用和披露以及个人隐私的潜在风险方面实现公开透明。《基本原则》提出,在生成式人工智能系统生命周期的任何阶段,如开发、训练和运行等,需明确告知收集、使用和披露个人信息的内容、方式、时间以及原因,确保可能对个人或群体产生重大影响的输出内容能够被识别为由生成式人工智能技术所生成。 开发者和提供者应确保使用生成式人工智能系统的组织了解相关任何已知或可能的风险,包括已知或合理预期的故障情况,如可能输入错误信息等。维护并发布用于开发或训练生成式人工智能数据集的相关文档,包括数据集的来源,收集和使用数据集的法律依据,是否有相关许可证明或对数据集使用目的的其他限制,以及对数据集进行任何修改、优化的记录等。 使用组织应公开的信息包括数个方面。首先,应向各方明示是否在决策过程中使用生成式人工智能系统,如果是,需明确以何种身份使用,采取哪些保障措施,受影响方可保留哪些选择或追索权。其次,需明示使用了哪些个人信息训练和改进系统以满足其特定用途。此外,应确保与生成式人工智能系统交互的个人在使用时了解对方身份、相关隐私风险以及可用的救济措施。 除了对系统开发者、提供者、使用组织的行为进行规制,《基本原则》还对行使个人信息权利作出明确。 具体来说,应制定相关流程,使个人能在使用生成式人工智能系统的过程中对其相关个人信息进行访问和更正。各方应明示个人信息存储时限,及时清除不再需要保留的信息;确保个人在信息保留时限内行使获取信息的权利。 在隐私安全保障措施方面,《基本原则》提出,需在生成式人工智能系统运作的整个生命周期内采取与被处理信息敏感度相称的保护措施,使用时持续了解和防范重大隐患,比如蓄意避开验证步骤或使系统执行非预期操作的行为,大模型训练数据中包含的个人信息被泄露等。 开发者和提供者应防止不当使用系统,进而生成不公平、不道德或带有歧视性等非法或有害内容,持续监控系统的运作情况,及时纠正不当使用行为。使用组织应确保在使用系统控制数据的过程中,不会对其安全保护措施造成负面影响。 为了强化责任追究,约束不作为等,《基本原则》还提出了针对隐私保护的问责机制。建立明确的隐私合规内部治理架构,明确各方职责和义务;建立反馈和投诉机制,对生成式人工智能系统的开发使用开展隐私影响评估、算法影响评估等,明确潜在安全隐患。 具体到各方,开发者和提供者应对系统进行独立审计,评估其有效性和可靠性,确认是否符合相关隐私法规,测试输出结果是否存在不准确性和偏差。此外,鼓励开发者和提供者允许独立研究人员、数据保护机构和其他相关监督机构对系统或大模型的潜在风险进行评估和审计。 “使用组织应当理解决策的责任在于组织,而不是用于支持决策过程的任何自动化系统。”《基本原则》明确,要为受影响的个人提供有效的质询机制,为其提供足够的决策形成相关信息,允许要求开展人工审查和二次决策。 值得一提的是,《基本原则》还强调了生成式人工智能技术对儿童等弱势群体造成的特殊影响。在开发生成式人工智能系统时,要对训练数据集进行评估,以确保不会复制、固化、放大历史或当前的偏见,以及引入新的偏见;在使用此类系统时,应对输出结果进行额外的监督和审查,加强对潜在不利影响的监测。
来源:隐私护卫队(公众号) 链接:https://mp.weixin.qq.com/s/yy7LcZlBPjfsWFE-0LUiBw 编辑:潘洁
|