文:陈冠玮
美国总统拜登在2023年10月30日,发布了行政命令「Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence」,确保美国在掌握人工智慧(AI)的前景和掌握风险的能力处於世界领先地位。
白宫指出,这项行政命令确立了AI的安全与安保(safe and security)新标准,保护美国人的隐私、促进公平与公民权利、支持消费者与工人、促进创新与竞争,并推动美国的领先地位。
相较於美国,欧盟正在如火如荼筹备人工智慧法(AI Act),号称为世界第一部完整的AI法律,在2021年4月已经形成架构,目标是在2023年末达成协议。尽管欧美的监管都还会继续发展,从目前两者的雏形而言,已经可以看出美国与欧盟监管方向的诸多不同——虽然也是意料中事。
理解这些差异,对我国决策者和业者评估自身发展策略有所帮助。
监管策略的差异
美国与欧洲最主要的不同来自於监管策略。
拜登的行政命令采取之模式主要倚靠制定安全标准,并立基在自愿向政府揭露资讯的基础上,而监管重点是要确保AI的安全与可信赖性。欧盟的法律草案则采纳了基於风险的管制方法,针对高风险的AI应用强调须遵守之法律要求。
具体而言,欧盟将AI应用分为四种风险层级:「不可接受的风险」被严格禁止,如公共场所应用远距生物特徵(虹膜等)识别、人脸辨识、社会评分。
「高风险」AI是该法管制的重点领域,欧盟列出了自然人生物特徵识别和分类(除了不可接受之风险以外的应用)、关键基础设施管理和营运、教育、就业、基础服务与社会福利、执法、移民、司法与民主程序等八大领域,这部分以严格的法遵(compliance)要求为监管策略。
「有限风险」的规范重点则是透明度的要求,生成式AI基本上属於此类。最後,「低风险或无风险」则可自由开发。
然而,美国没有欧盟这套风险分级,因此也并未针对高风险领域特别进行严格监管,换句话说,美国方法所囊括的处理范围其实更广。另一方面,拜登的行政命令并没有禁止人脸辨识或社会评分等应用。不过,美国强调了特定范围的安全测试并应通报政府,如关键基础设施、国家安全等领域,这接近於欧盟的高风险层级,但处理方式并不相同。
权利保障的差异
在隐私、资料保护与歧视等权利保障问题上,欧美的取径也有些差异。欧盟强调以人为本的基础,法律将建立在欧盟一般资料保护规则(GDPR)与既有权利保障体系的基础上,并强调对歧视性AI的禁止。而AI管制的风险分级体系,可以说是考虑了AI技术如何影响权利的风险。
相对而言,美国的行政命令则呼吁两党在国会通过联邦层级的隐私保护法规因应,并指出行政权要采取强化隐私保护的研究与科技、消费者与工人保护等具体措施。另采取提供指南及标准之方式,协助产业、调查与司法实务因应歧视问题。
而针对研发与鼓励创新,尽管两者皆以此为目的,但手段显现出一些不同:欧盟法一贯采取了对於法遵的强调,但美国另外强调了研究与人才培育的重要性,指出竞争与创新的具体行政措施。
不过这种欧美差别可能也来自於立法和行政性质的差异。而基於美国的行政命令是以行政权为出发点,也提及了公部门要在政府运作中负责任地使用AI。欧盟的法律草案则没有另针对公部门的应用着墨。
最後一项差异是国际合作。美国强调了双边与多边国际合作和建立国际架构的重要性,这呼应美国想要追求的领先地位以及向来的野心。欧盟在此部分没有明确措施,不过欧盟规范本身就涉及国际架构。
Photo Credit: Shutterstock / 达志影像
欧美两大管制体系将如何发展,可能影响、甚至形塑未来产业走向。但於此同时,甚至是和拜登发布行政命令的同一天,广岛G7也发布了广岛人工智慧进程(Hiroshima AI Process)、及「广岛进程之组织发展先进AI系统国际指导原则与行为守则」(Hiroshima Process International Guiding …