欧盟AI Act法案要求所有成员国统一导入的AI风险框架,以及针对AI应用开发者与部署者的规范,将陆续于2年内逐步实施
由欧盟建立的全球首个人工智慧(AI)法案AI Act在8月1日正式生效了,它替所有欧盟国家导入了一个统一的AI风险框架,同时替AI开发者与部署者拟定了清楚的责任与义务。此一法案将由欧盟执委会(European Commission,EC)旗下的AI办公室(AI Office)负责推动与执行。
AI Act定义了4种AI风险与行为准则,大多数的AI系统属于最小风险,例如垃圾邮件过滤程序或AI游戏等,这些系统不必承担义务,但可以自愿采用额外的行为准则。其次则是特定的透明度风险,要求诸如聊天机器人等系统必须明白让用户知道,他们正在与机器人互动,且某些由AI生成的内容也必须标记。
被归类为高风险的AI系统必须符合更严格的要求,例如基于AI的医疗软件,或者是用来招募人才的AI系统等,都必须配备风险缓解系统,采用高质量的资料集,拥有清楚的使用者信息,以及受到人类监督等。
而在《黑镜》(Black Mirror)等影集中曾经出现,整个人类社会彼此评分的AI系统则被视为不可接受的风险。不管是由政府或企业主导的「社会评分」(social scoring)AI系统,都被认为威胁到人类的基本权利,而直接被禁止。
欧盟执委会表示,欧盟立志成为安全AI的全球领导者,藉由制定基于人权与基本价值观的强大监管框架,将可开发一个造福所有人的AI生态体系。
为了协助企业遵守AI Act,EC正着手制定通用AI(GPAI)模型供应商的行为守则,正式守则可望于明年4月之前出炉。
虽然AI Act已经生效,但不同规则的实施时间不同,例如不可接受风险的AI系统禁令会在6个月后实施;欧盟会员国必须在明年的8月2日以前指定主管部门,以负责监督AI系统规则的部署;通用AI模型的规则将在12个月后实施;而绝大多数的AI Act规则要到2026年的8月2日才上线 。