Deutsche Nachrichtenveranstaltungen finden statt

Wir können eine KI-Katastrophe wie eine nukleare Katastrophe verhindern

Am 16. Juli 1945 veränderte sich die Welt für immer. Der „Trinity“-Test des Manhattan-Projekts unter der Leitung von Robert Oppenheimer stattete die Menschheit zum ersten Mal mit der Fähigkeit aus, sich selbst auszulöschen: 210 Meilen südlich von Los Alamos, New Mexico, war erfolgreich eine Atombombe gezündet worden.

Am 6. August 1945 wurde die Bombe auf Hiroshima und drei Tage später auf Nagasaki abgeworfen – und entfesselte eine nie dagewesene Zerstörungskraft. Das Ende des Zweiten Weltkriegs brachte einen fragilen Frieden, überschattet von dieser neuen existenziellen Bedrohung.

Während die Kernenergietechnologie ein Zeitalter reichlicher Energie versprach, katapultierte sie uns auch in eine Zukunft, in der ein Atomkrieg zum Ende unserer Zivilisation führen könnte. Der „Explosionsradius“ unserer Technologie hatte sich auf eine globale Skala erhöht. Es wurde immer klarer, dass die Beherrschung der Kernenergietechnik, um eine globale Katastrophe zu vermeiden, internationale Zusammenarbeit erforderte. Es war höchste Zeit, robuste Institutionen einzurichten, um damit umzugehen.

1952 gründeten 11 Länder CERN und beauftragten es mit „Zusammenarbeit in wissenschaftlicher [nuklearer] Forschung rein fundamentalen Charakters“ – und machten damit deutlich, dass CERNs Forschung zum öffentlichen Wohl eingesetzt werden würde. Auch die Internationale Atomenergie-Organisation (IAEO) wurde 1957 gegründet, um die weltweiten Uranbestände zu überwachen und die Verbreitung zu begrenzen. Unter anderem haben diese Institutionen uns geholfen, die letzten 70 Jahre zu überleben.

Wir glauben, dass die Menschheit erneut mit einer Erhöhung des „Explosionsradius“ der Technologie konfrontiert ist: der Entwicklung fortgeschrittener künstlicher Intelligenz. Eine leistungsstarke Technologie, die die Menschheit vernichten könnte, wenn sie ungezügelt bliebe, die aber, wenn sie sicher gezähmt wird, die Welt zum Besseren verändern könnte.

Das Gespenst der künstlichen allgemeinen Intelligenz

Experten schlagen schon seit langem Alarm wegen der Entwicklung künstlicher allgemeiner Intelligenz (AGI). Namhafte KI-Wissenschaftler und Führungskräfte der großen KI-Unternehmen, darunter Sam Altman von OpenAI und Demis Hassabis von Google DeepMind, unterzeichneten eine Erklärung des Center for AI Safety, die besagt: „Die Eindämmung des Risikos der Auslöschung durch KI sollte eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg sein.“ Einige Monate zuvor wurde ein weiterer Brief, der zu einer Pause bei Riesen-KI-Experimenten aufrief, über 27.000 Mal unterzeichnet, darunter von den Turing-Preisträgern Yoshua Bengio und Geoffrey Hinton.

Der Grund ist, dass eine kleine Gruppe von KI-Unternehmen (OpenAI, Google Deepmind, Anthropic) darauf abzielt, AGI zu erschaffen: nicht nur Chatbots wie ChatGPT, sondern KIs, die „autonom sind und Menschen bei den meisten wirtschaftlichen Aktivitäten übertreffen“. Ian Hogarth, Investor und jetzt Vorsitzender der britischen Foundation Model Taskforce, nennt diese „gottgleiche KIs“ und drängte die Regierungen, das Rennen um ihren Bau zu verlangsamen. Sogar die Entwickler der Technologie selbst erwarten große Gefahren davon. Altman, CEO des Unternehmens hinter ChatGPT, sagte , dass die „Entwicklung übermenschlicher maschineller Intelligenz (SMI) wahrscheinlich die größte Bedrohung für das fortgesetzte Bestehen der Menschheit ist.“

Weltleader rufen zur Gründung einer internationalen Institution auf, um der Bedrohung durch AGI zu begegnen: ein „CERN“ oder „IAEO für KI“. Im Juni diskutierten Präsident Biden und der britische Premierminister Sunak eine solche Organisation. Auch UN-Generalsekretär Antonio Guterres hält eine für notwendig. Angesichts dieses wachsenden Konsenses für eine internationale Zusammenarbeit als Reaktion auf die Risiken der KI müssen wir konkret darlegen, wie eine solche Institution aufgebaut werden könnte.

Würde ein „CERN für KI“ wie MAGIC aussehen?

MAGIC (Multilateral AGI Consortium) wäre die weltweit einzige fortgeschrittene und sichere KI-Einrichtung, die sich auf sicherheitsorientierte Forschung und Entwicklung fortgeschrittener KI konzentriert. Wie CERN würde MAGIC der Menschheit ermöglichen, die AGI-Entwicklung aus den Händen privater Unternehmen zu nehmen und sie in die Hände einer internationalen Organisation zu legen, die sich der sicheren KI-Entwicklung verpflichtet hat.

MAGIC hätte Exklusivität, wenn es um die Hochrisiko-Forschung und -Entwicklung fortgeschrittener KI geht. Es wäre für andere Einheiten illegal, AGI-Entwicklung unabhängig zu verfolgen. Dies würde die überwiegende Mehrheit der KI-Forschung und -Entwicklung nicht beeinträchtigen und sich nur auf grenzwertige, AGI-relevante Forschung konzentrieren, ähnlich wie wir bereits mit anderen gefährlichen F&E-Bereichen umgehen. Die Forschung zur Entwicklung tödlicher Krankheitserreger ist entweder ganz verboten oder auf Hochsicherheitslabore beschränkt. Gleichzeitig wird die überwiegende Mehrheit der Arzneimittelforschung stattdessen von Aufsichtsbehörden wie der FDA überwacht.

MAGIC wird sich nur mit der Verhinderung der Hochrisiko-Entwicklung von Frontier-KI-Systemen – gottgleichen KIs – befassen. Forschungsdurchbrüche, die bei MAGIC erzielt werden, werden der Außenwelt nur zur Verfügung gestellt, wenn ihre unbedenkliche Verwendung nachgewiesen ist.

Um sicherzustellen, dass die Hochrisiko-KI-Forschung bei MAGIC sicher und unter strenger Aufsicht bleibt, sollte weltweit ein Moratorium für die Schaffung von KIs eingeführt werden, die mehr als eine bestimmte Menge an Rechenleistung verwenden (hier ein großartiger Überblick, warum Rechenleistung eine Rolle spielt). Dies entspricht der Art und Weise, wie wir bereits international mit Uran umgehen, dem Hauptrohstoff für Kernwaffen und -energie.

Ohne Wettbewerbsdruck kann MAGIC die für diese transformative Technologie erforderliche angemessene Sicherheit und Datenschutz gewährleisten und die Vorteile an alle Unterzeichnerstaaten verteilen. CERN existiert als Präzedenzfall dafür, wie wir mit MAGIC Erfolg haben können.

Die USA und Großbritannien sind in einer perfekten Position, diese multilaterale Anstrengung zu erleichtern und ihre Einleitung nach dem bevorstehenden Globalen Gipfel für Künstliche Intelligenz im November dieses Jahres anzustoßen.

Die Abwendung existenzieller Risiken durch AGI ist eine schwierige Aufgabe, und es ist ein sehr gefährliches Glücksspiel, diese Herausforderung privaten Unternehmen zu überlassen. Wir lassen Einzelpersonen oder Unternehmen keine Kernwaffen für den privaten Gebrauch entwickeln, und wir sollten dies auch nicht mit gefährlicher, leistungsstarker KI zulassen. Wir haben es geschafft, uns mit Kernwaffen nicht selbst zu zerstören, und wir können unsere Zukunft erneut sichern – aber nicht, wenn wir untätig bleiben. Wir müssen die Entwicklung fortgeschrittener KI in die Hände einer neuen globalen, vertrauenswürdigen Institution legen und eine sicherere Zukunft für alle schaffen.

Nachkriegsinstitutionen halfen uns, einen Atomkrieg zu vermeiden, indem sie die Kernenergieentwicklung kontrollierten. Da die Menschheit einer neuen globalen Bedrohung gegenübersteht – unkontrollierter künstlicher allgemeiner Intelligenz (AGI) – müssen wir erneut handeln, um unsere Zukunft zu sichern.