Turing-Giganten spalten sich erneut: Hinton unterstützt das kalifornische Gesetz zur Einschränkung von KI

Trotz des starken Widerstands von KI-Führern, Technologiegiganten, Startups und Risikokapitalgebern hat Kaliforniens "KI-Einschränkungsgesetz" erfolgreich seine ersten Hürden genommen.

Wie wir alle wissen, hat KI in der realen Welt – abgesehen von verschiedenen Darstellungen in Science-Fiction-Filmen – bisher weder Schaden angerichtet noch einen großangelegten Cyberangriff gestartet. Einige US-Gesetzgeber möchten jedoch dennoch vor dem Eintreten solcher dystopischen Szenarien ausreichende Sicherheitsmaßnahmen implementieren.

Diese Woche hat Kaliforniens "Gesetz zur Sicherheitsinnovation für fortschrittliche KI-Modelle" — SB 1047 — einen weiteren wichtigen Schritt in Richtung Gesetzgebung gemacht.

Einfach ausgedrückt wird SB 1047 Entwickler in die Verantwortung nehmen, um zu verhindern, dass KI-Systeme zu massiven Personenschäden oder Cyberangriffen führen, die Verluste von mehr als 500 Millionen Dollar verursachen. Aufgrund des intensiven Widerstands aus Wissenschaft und Industrie haben kalifornische Gesetzgeber jedoch einige Kompromisse gemacht und mehrere von dem KI-Startup Anthropic und anderen Gegnern vorgeschlagene Änderungen integriert. Im Vergleich zum ursprünglichen Vorschlag verringert die aktuelle Version die Befugnisse der kalifornischen Regierung, KI-Labors zur Rechenschaft zu ziehen.

Gesetzestext: Link zu SB 1047

Aber selbst mit diesen Änderungen mag (fast) niemand SB 1047.

KI-Schwergewichte wie Yann LeCun, Fei-Fei Li und Andrew Ng haben wiederholt ihre Unzufriedenheit mit dem Gesetz geäußert, das sie als Bedrohung für Open-Source-KI und als Hindernis für Innovation sehen, das die KI-Entwicklung verlangsamen oder sogar stoppen könnte. Zahlreiche offene Briefe sind aufgetaucht, darunter einer, der von mehr als 40 Forschern der University of California, USC, Stanford und Caltech unterzeichnet wurde, in dem sie dringend vor der Verabschiedung des Gesetzes warnen. Darüber hinaus haben acht Kongressabgeordnete, die verschiedene Bezirke Kaliforniens vertreten, den Gouverneur aufgefordert, das Gesetz abzulehnen. LeCun hat sogar eine frühere Aussage wiederholt und eine sechsmonatige Pause für die KI-Gesetzgebung gefordert!

Warum habe ich dann "fast alle" gesagt? Weil neben LeCun zwei weitere Turing-Preisträger, Yoshua Bengio und Geoffrey Hinton, das Gesetz nachdrücklich unterstützen. Tatsächlich glauben sie, dass die aktuellen Bestimmungen zu lasch sind.

Trotz erheblicher Opposition von US-Kongressabgeordneten, namhaften KI-Forschern, großen Technologieunternehmen und Risikokapitalgebern hat SB 1047 es dennoch geschafft, relativ einfach im kalifornischen Gesetzgebungsverfahren weiterzukommen.

Als nächstes wird SB 1047 zur endgültigen Abstimmung in die kalifornische Versammlung übergehen. Aufgrund der jüngsten Änderungen muss das Gesetz, falls es verabschiedet wird, zur weiteren Abstimmung an den kalifornischen Senat zurückgeschickt werden. Wenn beide Abstimmungen positiv ausfallen, wird SB 1047 dem Gouverneur vorgelegt, der es entweder ablehnen oder als Gesetz unterzeichnen kann.

01 Welche Modelle und Unternehmen werden betroffen sein?

Gemäß SB 1047 müssen Entwickler oder Unternehmen, die Modelle entwickeln, sicherstellen, dass ihre KI-Modelle nicht dazu verwendet werden, "erheblichen Schaden" zu verursachen.

Zum Beispiel die Entwicklung von Massenvernichtungswaffen oder die Durchführung eines Cyberangriffs, der Schäden von über 500 Millionen Dollar verursacht. Nebenbei bemerkt: Das "Global Windows Blue Screen Event" von CrowdStrike hat Schäden von über 5 Milliarden Dollar verursacht.

Die Regeln von SB 1047 gelten jedoch nur für extrem große KI-Modelle – also solche mit Trainingskosten von mindestens 100 Millionen Dollar und über 10^26 Gleitkommaoperationen. (Im Wesentlichen zielt dies auf die Trainingskosten von GPT-4 ab.)

Berichten zufolge wird Meta's nächste Generation Llama 4 das Zehnfache an Rechenleistung benötigen und damit unter die Regulierung von SB 1047 fallen. Für Open-Source-Modelle und deren feinabgestimmte Versionen wird die Verantwortung den ursprünglichen Entwicklern auferlegt, es sei denn, die Kosten übersteigen das Dreifache des ursprünglichen Modells. Angesichts dessen ist es kein Wunder, dass LeCun so heftig reagiert hat.

Darüber hinaus müssen Entwickler Programme zur Risikobewertung ihrer KI-Modelle erstellen und jährlich Dritte beauftragen, ihre KI-Sicherheitspraktiken zu überprüfen. Für KI-Produkte, die auf diesen Modellen basieren, müssen angemessene Sicherheitsprotokolle eingerichtet werden, um Missbrauch zu verhindern, einschließlich eines "Not-Aus-Knopfes", der das gesamte KI-Modell abschalten kann.

02 Was bewirkt SB 1047 jetzt?

SB 1047 erlaubt dem kalifornischen Generalstaatsanwalt nicht mehr, KI-Unternehmen wegen Sicherheitsvernachlässigung zu verklagen, bevor ein katastrophales Ereignis eintritt (ein Vorschlag von Anthropic). Stattdessen kann der Generalstaatsanwalt einstweilige Verfügungen beantragen, um ein als gefährlich angesehenes Vorgehen des Unternehmens zu stoppen, und wenn das Modell tatsächlich ein katastrophales Ereignis verursacht, können die KI-Entwickler dennoch verklagt werden.

Das Gesetz schafft keine neue Regierungsbehörde mehr, die "Frontier Model Division (FMD)," die ursprünglich im Gesetz vorgesehen war. Es etabliert jedoch immer noch den Kern der FMD – das Frontier Model Committee – innerhalb der bestehenden Government Operations Agency und erweitert dessen Größe von 5 auf 9 Mitglieder. Das Komitee wird weiterhin Schwellenwerte für die Berechnung von Modellen festlegen, Sicherheitsrichtlinien herausgeben und Prüfer regulieren.

In Bezug auf die Gewährleistung der Sicherheit von KI-Modellen ist die Formulierung von SB 1047 jetzt lockerer. Entwickler müssen jetzt nur noch "angemessene Vorsicht" walten lassen, um sicherzustellen, dass KI-Modelle kein erhebliches Katastrophenrisiko darstellen, im Gegensatz zur vorherigen Anforderung, "angemessene Sicherheit" zu gewährleisten. Darüber hinaus müssen Entwickler nur noch eine öffentliche "Erklärung" einreichen, in der ihre Sicherheitsmaßnahmen dargelegt werden, anstatt eine Zertifizierung der Sicherheitstestergebnisse unter Androhung von Meineid vorzulegen.

Für feinabgestimmte Open-Source-Modelle gibt es ebenfalls einen separaten Schutz. Wenn weniger als 10 Millionen Dollar für die Feinabstimmung des Modells ausgegeben wurden, wird die Person nicht als Entwickler angesehen, und die Verantwortung verbleibt bei den ursprünglichen Entwicklern des großen Modells.