欧洲联盟
欧洲议会目前 正在制定《人工智能法案》,620 名欧洲议会议员中有 499 名在 2023 年 6 月的全体会议上投票支持该法案的通过。该地区的人工智能监管已经进行了数年;委员会已于2021年4月提交相应提案
如您所知,意大利成为第一个禁止使用 ChatGPT 的国家,其他欧盟国家过去几个月一直在讨论效仿。
低风险 委内瑞拉手机号码数据库 或无风险——包括支持人工智能的视频游戏或可能使用生成人工智能的垃圾邮件过滤器等系统。
有限的风险 - 包括使用聊天机器人,并且应明确告知用户他们从一开始就正在与此类系统进行交互。
高风险是在交通、教育、执法、招聘和选拔以及医疗机器人等关键基础设施中使用生成式人工智能。
不可接受的风险 - 包括对公民的安全和权利构成明显威胁的所有系统,例如鼓励伤害的社交评分和语音助手。
印度
2021年3月,印度政府宣布将对人工智能监管采取“软方式”以支持该国的创新,目前还没有专门监管人工智能的计划。与此同时,电子和信息技术部虽然拒绝监管人工智能的发展,但称该技术领域“重要且具有战略意义”,并表示将制定政策和基础设施措施来消除偏见、歧视和道德问题。
印度政府提议建立一个人工智能治理自愿框架。 2018年国家人工智能战略涉及五个关键领域:农业、教育、医疗保健、智慧城市和智能出行。然后,在 2020 年,一份新的战略草案详细说明了人工智能的道德使用,呼吁所有系统保持透明、负责和公正。
韩国
韩国人工智能法目前正处于制定的最后阶段,将由国会投票表决。该法案目前规定,法规应允许任何用户在未经政府事先批准的情况下创建新模型,并且被认为对公民生命具有“高风险”的系统应给予长期可信度。
该法案强调该国的道德创新,使用生成式人工智能的企业将获得政府对负责任系统开发的支持。
此外,个人信息保护委员会还宣布计划成立一个工作组,根据生成式人工智能的发展重新思考生物特征数据保护。
英国
目前,英国对生成式人工智能的监管仍然是其使用行业监管机构的责任,除了 GDPR 之外,没有计划进行一般性立法。中国政府在有关该主题的官方声明中采取了“创新方法”,该国的目标是在全球人工智能竞赛中占据领先地位。然而,生成式人工智能对系统中断、错误信息和偏见等风险的影响程度仍然存在疑问。
为了帮助降低这些风险,英国政府发布了文档影响评估,旨在确定对人工智能开发者的适当和公平的监管。该措施是更广泛的国家人工智能战略的一部分,该战略的摘要承认存在一些市场失灵(信息不对称、激励失调、负外部性、监管失灵),这意味着与人工智能相关的风险没有得到充分解决。政府拟提出适当的跨部门监管制度。目标之一是刺激人工智能领域中小企业的增长,提高公众信心水平,并保持或提高该国在斯坦福全球人工智能指数中的地位。
英国竞争和市场管理局也开始审查底层人工智能模型,从竞争和消费者保护的角度审查包括 ChatGPT 在内的工具的开发。人工智能开发人员被要求证明遵守五个核心原则:
安全性、可靠性和可持续性;
适当的透明度和可解释性;
正义;
问责制和治理;
竞争和损害。