多くのAI業界のリーダー、大手テクノロジー企業、スタートアップ企業、ベンチャーキャピタルの強い反対にもかかわらず、カリフォルニア州の「AI規制法案」が無事に初期承認を得ました。
周知の通り、現実世界においてAIはまだ人を殺したことがなく、大規模なサイバー攻撃も起こしていません。しかし、一部のアメリカの立法者は、このディストピア的な未来が現実になる前に十分な安全対策を講じることを望んでいます。
今週、カリフォルニア州の「最先端人工知能モデル安全革新法案」(SB 1047)が、法律として正式に成立するための重要な一歩を再び踏み出しました。
簡単に言えば、SB 1047はAIシステムが大規模な人命被害を引き起こすことや、5億ドル以上の損害をもたらすサイバーセキュリティ事件を防ぐために、開発者に責任を問う法案です。しかし、学界と業界からの反対が強いため、カリフォルニア州の立法者は幾分かの妥協を行い、AIスタートアップのAnthropicや他の反対者が提案したいくつかの修正を加えました。最初の提案と比較して、現在のバージョンでは、カリフォルニア州政府がAIラボに責任を問う権限が減少しました。
法案のリンク: SB 1047 リンク
それにもかかわらず、(ほとんど)誰もSB 1047を好んでいません。
ヤン・ルカン(Yann LeCun)、李飛飛(Fei-Fei Li)、アンドリュー・ング(Andrew Ng)などのAIの大物たちは、この「オープンソースAIを抑圧し、AIの革新を遅延させ、さらには停止させる」法案に対する不満を何度も表明しています。40人以上のカリフォルニア大学、南カリフォルニア大学、スタンフォード大学、カリフォルニア工科大学の研究者たちがこの法案を通さないように強く訴える連名書簡も登場しました。また、カリフォルニア州の各選挙区を代表する8人の連邦議会議員も州知事に法案を否決するよう促しています。さらに、ルカンは以前のAI研究の停止を求めた際のフレーズをそのまま引用して、「AI立法を6ヶ月間停止してください!」と訴えました。
では、なぜ「ほとんど全員」と言ったのでしょうか?それは、ルカン以外のもう2人のチューリング賞受賞者であるヨシュア・ベンジオ(Yoshua Bengio)とジェフリー・ヒントン(Geoffrey Hinton)がこの法案の通過を強く支持しているからです。さらに彼らは、現在の条項がやや緩すぎると感じています。
現在、SB 1047は一部のアメリカ連邦議会議員、著名なAI研究者、大手テクノロジー企業、ベンチャーキャピタリストからの強い反対を受けていますが、カリフォルニア州の立法機関では比較的容易に通過しました。
次に、SB 1047はカリフォルニア州議会で最終投票に進む予定です。最新の修正案が加えられたため、法案が通過すれば再びカリフォルニア州上院に送られて投票が行われます。これらの投票が両方とも通過すれば、SB 1047は州知事に送られ、最終的な否決または法律としての署名を待つことになります。
01 どのモデルと会社が規制対象となるのか?
SB 1047によれば、モデルを開発する開発者や会社は、自らのAIモデルが「重大な被害」を引き起こさないようにする責任を負います。
たとえば、大量破壊兵器の製造や5億ドル以上の損害を引き起こすサイバー攻撃を防ぐ必要があります。ちなみに、CrowdStrikeの「グローバルWindowsブルースクリーン事件」は、50億ドル以上の損害を引き起こしました。
ただし、SB 1047の規則は、訓練費用が少なくとも1億ドル以上であり、浮動小数点演算が10^26回を超える非常に大規模なAIモデルにのみ適用されます。(基本的にはGPT-4の訓練費用に基づいています)
Metaの次世代Llama 4は必要な計算量が10倍に増加するため、SB 1047の規制対象となるでしょう。オープンソースモデルおよびその微調整バージョンについては、元の開発者が責任を負います。ただし、費用が元のモデルの3倍以上でない限り責任を負いません。この点から見ると、ルカンの反応がなぜあれほど激しかったのかが理解できます。
また、開発者はAIモデルのリスクを解決するためのテストプログラムを作成し、毎年第三者監査人を雇ってAIの安全慣行を評価する必要があります。モデルを基にしたAI製品に関しては、誤用を防止するための安全プロトコルを策定し、AIモデル全体を停止できる「緊急停止」ボタンを含める必要があります。
02 SB 1047の現在の機能は何ですか?
現在、SB 1047はカリフォルニア州の司法長官が災害的な事件が発生する前に、安全措置の怠慢でAI企業を訴えることを許可していません(Anthropicの提案)。代わりに、カリフォルニア州の司法長官は企業が危険であると判断した操作を停止するよう禁令を求めることができ、モデルが実際に災害的な事件を引き起こした場合には、AI開発者を訴えることができます。
SB 1047は、法案に元々含まれていた新しい政府機関「最先端モデル部門(FMD)」を設立しなくなりました。
ただし、依然としてFMDの中核である「最先端モデル委員会」を既存の政府運営部内に設置し、その規模も5人から9人に拡大します。委員会は引き続き、カバーされるモデルの計算しきい値を設定し、安全ガイドラインを発行し、監査人のための規制を発行します。
AIモデルの安全を確保する上で、SB 1047の表現も緩和されています。開発者は今や、AIモデルが重大な災害リスクを構成しないよう「合理的な注意」を払うだけでよくなり、以前要求されていた「合理的な保証」ではなくなりました。さらに、開発者はもはや安全テスト結果の証明書を偽証罪で提出する必要はなく、公開された「声明」を提出してその安全措置を概説するだけで済みます。
オープンソースの微調整モデルに関しても、別途保護が設けられました。誰かが微調整モデルに1,000万ドル未満を費やした場合、彼らは開発者とはみなされず、責任は元の大規模な開発者に残されます。