欧盟、加拿大和中国目前已经或即将建立成熟且较为严格的监管制度。
中国监管机构从 2021 年起加强了对人工智能的监管,并陆续发布了《互联网信息服务算法推荐管理规定》(“算法推荐规定”)《互联网信息服务深度合成管理规定》(“深度合成规定”)和《生成式人工智能服务管理暂行办法》(“生成式办法”)三部重要的部门规章。这三部规章都可能适用于向中国境内公众提供的生成式人工智能服务。而在未来,中国还可能制定层级更高的《人工智能法》,并落实科技伦理审查制度。 与此同时,这三部规范也确立了中国将采取“包容审慎的分类分级监管”原则。在未来,国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,将制定相应的分类分级监管规则或者指引。目前负责算法备案、评估与监管的机构主要是网信办(中央网信办网络管理技术局)。与此同时,电信主管部门、公安部门也会依据职责负责监督管理工作。

欧盟现行人工智能立法仍主要集中在传统人工智能而非生成式人工智能上,但也逐渐触及生成式人工智能的问题,例如在最新的《人工智能法》草案中规定了通用及生成式人工智能相关基础模型提供者的义务。欧盟的人工智能路径主张“以人为本(human-centric)”,在促进人工智能发展与创新的同时,构建监管体系以防范风险、保护公民基本权利和安全。欧盟目前对于人工智能的监管和治理重点在于尊重人格尊严、个人自由和保护数据及隐私安全。最新的立法进展是 2023 年 6 月 14 日欧洲议会对《人工智能法》的修订。该法采用“基于风险的方法”(risk-based)将人工智能系统分成四类,制定了不同程度的合规要求。其中,生成式人工智能系统一般属于有限风险的人工智能系统,需遵守最低限度的透明度义务,但可能会因其适用的领域和生成的内容而落入高风险人工智能系统的范畴。1 与此同时,该法也规定了提供者、进口商、分销商、部署者、通用及生成式人工智能相关基础模型提供者等不同主体的合规义务。 根据侵权行为的性质、严重程度等因素,不遵守《人工智能法》的相关当事人可能被处以不同规模的行政罚款。
历时两年有余,《人工智能法》草案的提出和修订体现了欧盟对人工智能的严格监管态度。尽管最新的草案修订稿对创新发展的考量增多,但总体而言,欧盟对人工智能的监管仍非常严苛。 在执法方面,近年来,已有多个包括意大利、法国、西班牙等多个欧盟成员国对 ChatGPT 展开调查。 在监管方面,欧盟目前没有专门针对人工智能监管的独立机构,主要由欧盟层面及成员国层面不同领域的主管部门联合监管和执法。最新的《人工智能法》草案要求成员国指定一个或多个主管机构,包括一个国家监管机构,负责监督《人工智能法》的应用和实施;并提议在欧盟层面建立由成员国和欧盟委员会的代表组成的新欧盟机构——“人工智能办公室”,以期为《人工智能法》的统一适用提供指导、协调联合跨境调查。此外,欧洲数据保护委员会(EDPB)、国家市场监督机构、海关、国家消费者保护当局会负责各自领域与人工智能有关的执法工作。
美国是目前人工智能技术的策源地和领导者。为了保持这一领导地位,美国政府将促进人工智能的创新和发展作为高度优先事项。因此,美国主张监管需以促进人工智能负责任的创新(responsible innovation)为目标,应通过监管和非监管措施减少人工智能开发和部署的不必要障碍,同时保护美国的技术、经济和国家安全、公民自由、人权、法治、隐私和尊重知识产权等核心价值观。 目前美国对人工智能的关注重点在于公民权利、公民自由、数据与隐私安全及知识产权保护。
尽管美国的部分州已通过与人工智能有关的法案,但美国目前尚无专门规范通用人工智能或生成式人工智能的法律性文件。虽然两党议员尝试就不同人工智能事项提请立法,有趋势表明美国对人工智能的监管或将加强,但联邦立法监管目前仍处于非常早期的阶段。细分领域不具有法律强制性的非监管措施如主管部门的政策文件、指南、治理框架、试点项目和实验、行业自律、社会组织的共识等是目前人工智能企业在美国行事的主要参考和依循。需要注意的是,美国政府有对于生成式人工智能相关的产品实施严格进出口管制的趋势。美国政府曾严格限制用于人工智能工作的顶级计算芯片、超级计算机和其他半导体产品对中国的出口。此外,2023 年 7 月4 日,媒体报道美国政府还计划限制中国企业使用美国的云计算服务。2 美国目前没有专门针对人工智能监管的独立机构,各领域主管部门将继续在自己的职责范围内对生成式人工智能进行监管。

加拿大将自己定位为人工智能发展的领导者。为此,加拿大政府主张对人工智能采取灵活的监管方法,在促进人工智能系统设计、开发和使用的安全性的同时,维护加拿大民众的价值观,亦不致扼杀负责任的创新。加拿大对人工智能的监管重点在于隐私保护。 目前加拿大没有明确针对人工智能的监管制度,加拿大的人工智能系统受到一般性的隐私、技术和人权法律的监管。虽然加拿大尚未处于制定全面的人工智能监管制度的阶段,但联邦和省两级都在采取行动弥补监管空白,以期让加拿大民众信任人工智能技术。2022 年 6 月提出的《人工智能和数据法》作为加拿大隐私领域立法改革的一部分,是加拿大针对人工智能进行监管的首次尝试。该法采用“基于风险的方法(” risk-based)对高影响人工智能系统的风险进行重点监管,具体标准有待后续法规进行界定。该法为人工智能系统负责人即设计、开发、使用、提供或管理人工智能系统运行的主体设定了合规义务,在相关活动中处理或者使用数据的主体也承担一定的透明度义务。违反该法的当事人可能面临行政罚款、行政诉讼甚至刑事制裁。
在实践方面,加拿大的两个地区法院对于在法律意见书等材料中使用人工智能(一般是生成式人工智能技术)发布了实务指导。 在执法方面,2023 年 4 月,加拿大隐私专员办公室启动对OpenAI 的调查,5 月下旬,多省数据保护机构与加拿大隐私专员办公室合作,对OpenAI 展开联合调查。 在监管方面,加拿大目前没有专门针对人工智能进行监管的独立机构,主要由不同领域的主管部门监管和执法。正在审议的《人工智能和数据法》规定创新、科学与工业部部长负责执行该法;提议建立由新的人工智能和数据专员领导的办公室,作为支持该法监管和执行的专门知识中心。此外,加拿大检察署、加拿大隐私专员办公室等部门负责各自领域与人工智能有关的执法工作。
英国希望成为世界上建立和发展人工智能业务的最佳场所,以便将人工智能的巨大潜力转化为英国的经济增长和社会效益。因此,英国主张建立支持创新(pro-innovation)、合比例(proportionate)、可信、适应性强、明确和协作的监管框架,以期为投资者、企业和公众提供信心。 英国不希望繁重的合规义务打击企业的创新意愿,因此没有专门针对人工智能进行立法,而主要通过发布指南、最佳实践等非监管措施为企业提供指导,鼓励促进人工智能领域负责任的创新,且对生成式人工智能这类新兴的人工智能的发展持较开放的态度。例如,财政部建议让创新者和企业家在监管沙盒(regulatory sandbox)中试验新产品或服务而无需担心罚款或责任风险,存在监管不确定性的生成式人工智能也可以使用监管沙盒。2023 年6 月,英国内阁办公室发布了《公务员使用生成式人工智能的指引》,介绍了公务员使用生成式人工智能的一般原则。
英国对生成式人工智能风险的关注重点在于数据和隐私保护。教育部在《教育领域中的生成式人工智能》中明确指出,为保护个人隐私,个人信息和敏感数据不应输入生成式人工智能工具。英国信息专员办公室也提示开发或使用生成式人工智能的人负有数据保护的法定义务,他们需要考虑处理个人数据的合法依据为何、处理或控制数据的身份、通过数据保护影响评估、公开有关处理信息、降低安全风险、限制不必要的处理、尊重个人访问、纠正、删除等权利请求、是否完全使用生成式人工智能自动决策等问题。3 对于人工智能生成的作品,英国知识产权署在 2022 年 6 月公布咨询结果,认为暂时没有证据表明人工智能生成的作品是有害的,其仍然受到英国版权法的保护。4 在执法方面,2023 年 5 月,英国竞争与市场局对开发和使用人工智能基础模型涉及市场竞争和消费者保护的方面进行初步审查。5 2023 年6 月,教育部启动公众咨询,寻求民众关于生成式人工智能在英国教育中的应用及其机遇与风险的看法。6英国信息专员办公室呼吁企业在使用生成式人工智能前“应对隐私风险”,同时宣布“将对企业是否遵守数据保护法律进行更严格的检查”。7 英国没有专门监管人工智能的独立机构,各领域监管机构在其执法范围内对相关行为进行监管。如英国信息专员办公室作为英国的数据保护机构将对人工智能相关主体处理数据的行为进行监管,英国竞争与市场局将对不公平竞争、损害消费者的行为进行监管等。