Deutsche Nachrichtenveranstaltungen finden statt

KI muss wie Kernenergie reguliert werden

Uranium Mine Clean-Up Near National Park

Hervorragende Forscher und Persönlichkeiten aus dem Bereich der KI haben die Schlagzeilen in der Vergangenheit immer wieder durch Vergleiche dominiert, in denen die Risiken für KI auf das existenzielle Sicherheitsrisiko des Atomzeitalters gestellt wurden. Von Aussagen, dass KI der gleichen Regulierung wie Kernenergie unterliegen sollte, bis hin zu Erklärungen, die das Risiko des menschlichen Aussterbens mit dem von Atomkriegen verglichen, wurden Analogien zwischen KI und Kernenergie konsequent gezogen. Das Argument für ein solches Aussterberisiko beruhte auf der hypothetischen und unbewiesenen Gefahr einer künstlichen Allgemeinen Intelligenz (AGI), die plötzlich aus aktuellen Großsprachmodellen (z.B. ChatGPT) entstehen könnte und daher eine erhöhte Vorsicht bei ihrer Erstellung und Bereitstellung erfordere.

Sam Altman, der CEO von OpenAI, hat sogar mit Verweis auf die etablierte nukleare Praxis der „Lizenzierung“ gesprochen, die von einigen als wettbewerbswidrig bezeichnet wurde. Er hat die Schaffung einer Bundesbehörde gefordert, die Lizenzen zur Erstellung von KI-Modellen über eine bestimmte Schwelle an Fähigkeiten erteilen kann. Dies ähnelt der Tatsache, dass Betreiber von Kernkraftwerken von einer nuklearen Aufsichtsbehörde, wie der US-Atomaufsichtsbehörde oder dem britischen Amt für Kernregulierung, lizenziert werden müssen. Als Teil ihrer Lizenzbedingungen müssen Kernkraftwerksbetreiber den regulatorischen Sicherheitsrichtlinien folgen und eine rechtliche Verpflichtung einhalten, Risiken soweit wie vernünftigerweise möglich zu reduzieren.

Die ständigen Verweise auf die nukleare Sicherheit sollten natürlich Dringlichkeit bei der Anwendung nuklearer Regulierungs- und Bewertungsstandards auf die diskutierten KI-Systeme selbst verleihen. Dennoch stößt man bei der Erwähnung des EU-KI-Gesetzes, einem gegenüber den Intrikationen und Strenge der für Kernkraftwerke erforderlichen Vorschriften abgeschwächten Dokument, nur auf Widerstand. Tatsächlich hat Altman bereits angemerkt, dass das EU-KI-Gesetz eine „Überregulierung“ darstelle, insbesondere unter Hinweis auf die Systeme von OpenAI, da diese nach seiner Aussage nicht hochrisikorelevant seien und OpenAI den Betrieb einstellen würde, falls sie den Anforderungen des kommenden EU-KI-Gesetzes nicht entsprechen könnten.

Zwei widersprüchliche Botschaften werden somit präsentiert. Einerseits, dass zukünftige Fähigkeiten von KI ein so bedeutendes Risiko darstellen, dass ein exklusives nuklearähnliches Regulierungsschema für Lizenzen erforderlich ist. Andererseits werden bestehende Systeme als nicht reguliert bedürftig dargestellt, trotz dokumentierter Schäden, und als unbedeutend eingestuft. Und hier bröckeln die Analogien zur nuklearen Sicherheit.

Sicherheitstechnik, die Disziplin welche die Sicherheit von Kernkraftwerken gewährleistet, basiert auf der Grundlage, dass Systemausfälle oder -fehlverhalten, egal wie klein, sich verstärken und zu katastrophalen Ereignissen führen können. Bedenke, dass alle Komponenten eines nuklearen Systems, sei es Uran oder Plutonium, Hardware oder Software, bis hin zu Beton, einzeln und gründlich reguliert werden. Diese Elemente stellen für sich genommen keine Bedrohung einer nuklearen Katastrophe dar, aber in ihrer Zusammenschaltung führen sie zur Entstehung einer kontrollierten Kernspaltungsreaktion. Umgekehrt können Fehler in dieser Abstimmung in katastrophale oder hochrisikoreiche Ereignisse eskalieren. Zum Beispiel führte ein minimaler Softwarefehler als Race Condition zum großflächigen Stromausfall in Nordostamerika 2003.

Unser Unvermögen, heutige KI-Schäden wie algorithmische Diskriminierung und die Verringerung der Kosten für Desinformation oder Cyberangriffe zu verhindern, zeigt nur, dass wir nicht in der Lage sind, Auswirkungen und Kontrolle möglicher KI-Risiken nachzuvollziehen und zu erfassen. Und wenn wir die technischen und regierenden Einrichtungen fehlen, um KI-Mechanismen, die diese Schäden hervorbringen, zu kontrollieren oder zu messen, dann wären wir fehlgeleitet zu glauben, wir hätten die technische Grundlage, um größere, sich potenziell aufbauende Risiken von KI lösen zu können, die diese hypothetisch ermöglichen könnten.

Warum haben KI-Labore dann Widerstand gegen die Umsetzung der nuklearähnlichen Strenge gezeigt, die erforderlich ist, um die Vorläufer (z.B. ChatGPT) von „aussterbenden“ Technologien sicher zu halten? In einem Blogbeitrag der OpenAI-Gründer heißt es, dass „es wichtig wäre, dass eine solche Behörde sich auf die Reduzierung existenzieller Risiken konzentriert und keine Themen, die den einzelnen Ländern überlassen werden sollten.“ Diese Aussage versucht nicht nur die bestehenden Schäden, die KI-Systeme verursachen, von hypothetischen existenziellen Risiken zu trennen, sondern erkennt auch nicht das grundlegende ingenieurwissenschaftliche Prinzip an, dass sich Schäden verstärken. Wenn die derzeitigen KI-Systeme tatsächlich die Grundlage für eine hypothetische AGI sind, wie oft impliziert wird, dann müssen sie auch in Bezug auf derzeitige Schäden reguliert werden, um sich auf weiteres emergentes Verhalten vorzubereiten, sei es AGI oder anderes.

Es zeigt sich ein Muster, dass die Analogie zum Atomkrieg oft dient, um bestimmte Narrative anzuheizen, sei es exklusive Lizenzierung oder einen Versuch, die regulatorische Diskussion auf spekulative zukünftige Bedrohungen anstatt aktuelle Schäden zu lenken, was beides potenziell schädliche Auswirkungen haben kann. Für Ersteres besitzen KI-basierte Systeme keine einzigartigen Softwarekomponenten, die eine generalisierte Lizenzierung rechtfertigen würden, die nicht stark die Nutzung von Software und Hardware als Ganzes behindern würde. Tatsächlich würde jede Implementierung eines solchen Schemas aufgrund der weiten Definition und Softwarekomponenten von KI-Systemen wahrscheinlich zu erheblicher Überregulierung führen, was grundlegende Bausteine für technologischen Fortschritt nur wenigen Privilegierten zugänglich machen würde. Schließlich basieren aktuelle KI-Systeme auf traditioneller Hardware und Software. Sogar Generative KI-Technologien nutzen tiefe neuronale Netze, eine Technik die bis in die 1970er Jahre zurückreicht.

Für Letzteres (abgesehen von den Grundlagen der nuklearen Sicherheit) haben aktuelle KI-Systeme genug Schäden gezeigt, um selbst ohne existenzielle Bedrohung eine Regulierung zu rechtfertigen. Nuklearähnliche Regulierungsmethoden existieren bereits für die gleichen Hardware-, Software- und Datenelemente und wären jederzeit von KI-Labors für Hochrisikoanwendungen nutzbar. Dennoch haben wir beobachtet, dass der Widerstand und die Lobbyarbeit von KI-Labors gegen das EU-KI-Gesetz erfolgreich war und bereits von den durch diese KI-Systeme heute verursachten Schäden abgelenkt hat. Ein Post der Europäischen Kommission spiegelte genau die Formulierung des Briefes zum existenziellen Risiko wider: „Die Minimierung des Risikos eines Aussterbens durch KI sollte eine globale Priorität haben“, weit entfernt von den im ursprünglichen Entwurf des Gesetzes beschriebenen Risiken.

Wenn sich KI-Labore weiterhin auf übertriebene Ängste durch Vergleiche mit nuklearen Gefahren berufen, müssen sie auch bereit sein, die Analogie konsequent zu Ende zu denken. Ironischerweise würden sie bei der Erkundung der bereits verfügbaren Sicherheitsmechanismen für nukleare Komponenten feststellen, dass dort inflammatorische Sprache, die Begriffe wie „Aussterben“ und „existenzielle Risiken“ unterstützt, nicht zu finden ist. Tatsächlich werden nukleare Katastrophen durch bekannte wissenschaftliche und geopolitische Möglichkeiten untermauert, die theoretisch und akribisch untersucht wurden ev