圖靈巨頭再次決裂,Hinton支持的加州AI限制法案初步通過

在一眾AI大佬、科技大廠、初創公司和風險投資人的強烈反對之下,加州的「AI限制法案」順利地得到了初步通過。

眾所周知,除了各種科幻電影的演繹外,AI在現實世界中還沒有殺過人,也沒有發動過大規模網絡攻擊。 然而,美國的一些立法者依然希望,在這種反烏托邦的未來變為現實之前,能夠實施足夠安全保障。

 

就在本週,加州的《前沿人工智能模型安全創新法案》——SB 1047,再次朝著正式成為法律,邁出了重要一步。

簡單來說,SB 1047將會通過追究開發者的責任,來防止AI系統造成大規模人員傷亡,或引發損失超過5億美元的網絡安全事件。 不過,由於來自學界和業界的反對太過強烈,加州立法者稍稍做了一些妥協——加入了AI初創Anthropic和其他反對者建議的幾項修正案。 相比於最初的提案,現行版本減少了加州政府追究AI實驗室責任的權力。

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

 

但即便如此,(幾乎)沒有人喜歡SB 1047。

Yann LeCun、李飛飛、吳恩達等AI大牛們,都曾多次表達了對這項「扼殺開源AI,迫使AI創新暫緩甚至停止」的法案的不滿。 各種聯名信也是層出不窮,不僅有40多位來自加州大學、南加州大學、史丹福大學和加州理工學院的研究人員,強烈呼籲不要通過這項法案。 而且代表加州各選區的8位國會議員,也敦促州長否決法案。甚至,LeCun還照搬了之前要求暫停AI研究時的原梗——請暫停AI立法六個月!

 

那麼問題來了,為什麼前文用的是「幾乎所有人」?

因為,除了LeCun之外的另外兩位圖靈巨頭,Yoshua Bengio和Geoffrey Hinton,都強烈支持這項法案通過。 甚至還覺得,現在的條款定得有些太過寬鬆了。

 

如今,SB 1047雖然遭到了一些美國國會議員、知名AI研究人員、大型科技公司和風險投資人的強烈反對,但在加州立法機構中卻還是相對輕鬆地通過了。

接下來,SB 1047將進入加州議會進行最終投票。由於加入了最新的修正案,法案在通過之後,還需要被送回加州參議院進行投票。如果這兩次都投票通過,那麼SB 1047就會被送到州長那裡,等待最終的否決或簽署成為法律。

 

01 哪些模型和公司會受到約束?

根據SB 1047的要求,開發者或開發模型的公司,需要負責防止自己的AI模型被人拿去造成「重大傷害」。

比如製造大規模殺傷性武器,或發起損失超過5億美元的網絡攻擊。順便一提,CrowdStrike的「全球Windows藍屏事件」,造成了超過50億美元的損失。

不過,SB 1047的規則僅適用於那些規模十分巨大的AI模型——即訓練成本至少為1億美元,且浮點運算超過10^26次。(基本上就是照著GPT-4的訓練成本定的)

據稱,Meta下一代Llama 4所需的計算量將會翻至10倍,因此也將會受到SB 1047的監管。 對於開源模型及其微調版本,則需要原始開發者負責。除非花費的成本達到了原始模型的3倍。 如此看來,難怪LeCun的反應會如此激烈。

此外,開發者還必須創建能夠解決AI模型風險的測試程序,並且必須每年聘請第三方審計員來評估其AI安全實踐。對於那些基於模型打造的AI產品,則需要製定相應的安全協議來防止濫用,包括一個關閉整個AI模型的「緊急停止」按鈕。

 

02 SB 1047現在的功能是什麼?

如今,SB 1047不再允許加州總檢察長在災難性事件發生之前,因安全措施疏忽起訴AI公司(來自Anthropic的建議)。取而代之的是,加州總檢察長可以尋求禁止令,要求公司停止其認為危險的某項操作,並且如果其模型確實導致災難性事件,仍然可以起訴 AI 開發者。

SB 1047不再設立原本包含在法案中的新政府機構「前沿模型司(FMD)」。

但仍然設立了FMD的核心——前沿模型委員會,並將其置於現有的政府運營署內,規模也從之前的5人擴大到了9人。委員會仍將為所涵蓋的模型設定計算門檻,發佈安全指導,並為審計員發佈法規。

在確保AI模型安全方面,SB 1047的措辭也更加寬鬆。

現在,開發者只需提供「合理注意」來確保AI模型不會構成重大災難風險,而不是之前要求的「合理保證」。此外,開發者也只需提交公開的「聲明」來概述其安全措施,不再需要以偽證罪為懲罰提交安全測試結果的認證。

對於開源微調模型來說,也有了一項單獨的保護。如果有人在微調模型上的花費少於1000萬美元,他們將不被視為開發者,責任仍由模型的原始大型開發者承擔。