EU AI法は、AIアプリケーションの開発者と導入者に対するAIリスクフレームワークと規制を一律に導入することをすべての加盟国に義務付けており、EUによって制定された世界初の人工知能(AI)法であるAI法は、2020年中に段階的に施行される予定である。この法律は、8 月 1 日に正式に発効しました。これは、すべての EU 諸国に統一された AI リスク フレームワークを導入し、AI 開発者と導入者に対する明確な責任と義務を確立しました。この法案は欧州委員会(EC)傘下のAI事務局(AI Office)によって推進、施行されることになる。 AI 法では、4 種類の AI リスクと行動規範が定義されています。スパム フィルタリング プログラムや AI ゲームなどのほとんどの AI システムは、義務を負う必要はありませんが、追加の行動規範を自主的に採用できます。第 2 に、特定の透明性リスクがあり、チャットボットなどのシステムは、ユーザーがボットと対話していることと、特定の AI 生成コンテンツにもタグ付けする必要があることをユーザーに明確に知らせる必要があります。 高リスクとして分類された AI システムは、より厳しい要件を満たす必要があります。たとえば、AI ベースの医療ソフトウェアや人材の採用に使用される AI システムには、リスク軽減システムが装備され、高品質のデータセットが使用され、明確なユーザー情報と被験者が必要です。人間の監督に。 「ブラックミラー」などのテレビシリーズでは、人間社会全体が相互に評価し合うAIシステムは、容認できないリスクであると考えられています。 「ソーシャルスコアリング」AI システムは、政府が主導するか企業が主導するかにかかわらず、基本的人権を脅かすと考えられており、直接禁止されています。 欧州委員会は、EUは人権と基本的価値観に基づいた強力な規制枠組みを策定することで、すべての人に利益をもたらすAIエコシステムを発展させることができると述べ、安全なAIの世界的リーダーとなることを決意していると述べた。 企業がAI法を遵守できるよう、ECは一般AI(GPAI)モデルサプライヤー向けの行動規範の策定に取り組んでおり、正式な規範は来年4月までに発表される予定だ。 AI法は施行されましたが、さまざまな規則の施行時期は異なります。たとえば、EU加盟国は、許容できないリスクを伴うAIシステムの禁止は、来年8月2日までに管轄当局を指定する必要があります。 AI の導入を監督する責任を負い、一般的な AI モデルの規則は 12 か月以内に施行され、AI 法の規則の大部分は 2026 年 8 月 2 日まで適用されません。