Deutsche Nachrichtenveranstaltungen finden statt

Das britische Gipfeltreffen zur KI-Sicherheit endet mit begrenzten, aber bedeutenden Fortschritten

uk-ai-safety-summit-sunak

An einem gewöhnlichen Wochentag im November dient Bletchley Park als Gastgeber für eine Mischung aus älteren Rentnern und unruhigen Schulklassen, die den Codeknackern einen Besuch abstatten – darunter der Computerpionier Alan Turing -, die hier während des Zweiten Weltkriegs stationiert waren und den Alliierten Kräften bei der Niederlage der Nazis halfen.

Aber dies ist keine gewöhnliche Woche, und dies sind keine gewöhnlichen Besucher.

Am Mittwoch und Donnerstag trafen sich Delegierte aus 27 Ländern auf der ganzen Welt sowie die Leiter führender KI-Unternehmen zum weltweit ersten KI-Sicherheitsgipfel in diesem ehemaligen Herrenhaus in der Nähe von London, heute ein Museum. Unter den Teilnehmern: Vertreter der US- und chinesischen Regierungen, Elon Musk und der CEO von OpenAI, Sam Altman.

Das hochkarätige Ereignis, das von der britischen Regierung unter Rishi Sunak veranstaltet wurde, krönt ein Jahr intensiver Eskalation globaler Diskussionen über KI-Sicherheit nach der Einführung von ChatGPT vor fast einem Jahr. Der Chatbot zeigte zum ersten Mal – zumindest für viele Nutzer – die leistungsstarken allgemeinen Fähigkeiten der neuesten Generation von KI-Systemen. Seine virale Beliebtheit belebte eine ehemals nischige Denkschule wieder, dass KI die Menschheit früher oder später in existenzielle Gefahr bringen könnte, und veranlasste Politiker auf der ganzen Welt, zu überlegen, ob und wie die Technologie reguliert werden sollte. Diese Diskussionen fanden vor dem Hintergrund von Warnungen statt, dass heutige KI-Werkzeuge bereits vielfältige Gefahren mit sich bringen – insbesondere für marginalisierte Gemeinschaften -, aber auch dass die nächste Generation von Systemen 10- oder 100-mal leistungsfähiger, geschweige denn gefährlicher sein könnte.

Bletchley Park wurde von der britischen Regierung als Ort für den Gipfel gewählt aufgrund seiner Symbolik: Es war einer der Geburtsorte der modernen Informatik; die hier entwickelten Maschinen zur Entschlüsselung des Nazi-Codes Enigma bildeten die Grundlage für die ersten programmierbaren Computer. Michelle Donelan, die britische Ministerin für Wissenschaft und Technologie, eröffnete den Gipfel am Mittwoch mit der Hoffnung, dass die Delegierten eine ähnlich bedeutende Leistung erbringen würden, “die Grenzen des Möglichen zu verschieben”.

Beamte aus der ganzen Welt versuchten hier nicht, sich auf eine gemeinsame Reihe von durchsetzbaren Leitplanken für die Technologie zu einigen. Aber Sunak kündigte am Donnerstag an, dass sich KI-Unternehmen auf dem Gipfel darauf geeinigt hätten, Regierungen frühen Zugang zu ihren Modellen zur Durchführung von Sicherheitsbewertungen zu gewähren. Er kündigte auch an, dass Yoshua Bengio, ein Computerwissenschaftler, der den Turing Award gewonnen hat, sich bereit erklärt habe, den Vorsitz eines Gremiums zu übernehmen, das in einem Bericht den wissenschaftlichen Konsens zu Risiken und Fähigkeiten von KI-Systemen der Grenztechnologie ermitteln werde.

Sunaks hervorgehobener Gewinn vom Gipfel – dass KI-Labors Regierungen frühen Zugang zu ihren Systemen gewähren würden – war spärlich an Details. Sunak hatte bereits angekündigt, dass sich die drei führenden Unternehmen für Grenz-KI (OpenAI, Google DeepMind und Anthropic) im Juni darauf geeinigt hätten, der britischen Regierung “frühen oder vorrangigen Zugang” zu ihren Systemen für Sicherheitszwecke zu gewähren. Sunak erläuterte nicht, inwiefern sich die auf dem Gipfel erzielte Einigung von diesem bestehenden Bekenntnis unterscheidet, falls überhaupt. Er äußerte sich auch nicht dazu, ob Regierungen den Quellcode oder die sogenannten “Gewichte” von Modellen der Grenz-KI erhalten würden – oder einfach nur die Möglichkeit, sie über eine Schnittstelle namens API zu interagieren. (Sunaks Büro antwortete nicht sofort auf eine Anfrage um Kommentar.)

Sunak kündigte auch an, dass die Frontier AI Taskforce des Vereinigten Königreichs in eine ständige Einrichtung umgewandelt werden solle, die Sicherheitsbewertungen durchführen solle: das U.K. AI Safety Institute.

Trotz des begrenzten Fortschritts begrüßten die Delegierten auf der Veranstaltung die hochrangigen Diskussionen als einen entscheidenden ersten Schritt hin zu internationaler Zusammenarbeit bei der Regulierung der Technologie – in der Anerkennung, dass es zwar viele Übereinstimmungen, aber auch einige wichtige Unterschiede gab.

“Ich freue mich, die dringend notwendige internationale Koordinierung des KI-Risikomanagements durch die Zusammenarbeit mit Kollegen aus der ganzen Welt zu unterstützen, um die neuesten Erkenntnisse zu dieser äußerst wichtigen Frage vorzustellen”, sagte Bengio in einer Erklärung.

Zu Beginn der Veranstaltung am Mittwoch kündigte die britische Regierung die “Bletchley-Erklärung” zur KI an, die von 28 Ländern, darunter den USA, Großbritannien, China und Indien sowie der Europäischen Union unterzeichnet wurde. Die Erklärung besagt, dass KI kurzfristige und längerfristige Risiken mit sich bringt, bekräftigt die Verantwortung der Schöpfer leistungsstarker KI-Systeme, diese sicher zu gestalten, und bekennt sich zur internationalen Zusammenarbeit bei der Identifizierung und Abmilderung von Risiken.

Die britische Regierung als Ausrichter des Gipfels ging einen schmalen Grat zwischen der Kommunikation, dass sie KI-Risiken ernst nimmt, und der Botschaft an Technologieunternehmen, dass sie offen für Geschäfte ist. “Für mich stellt die größte Gefahr, der wir gegenüberstehen, tatsächlich das Risiko dar, all diese unglaublichen Möglichkeiten zu verpassen, die KI der Menschheit wirklich bieten kann”, sagte Donelan führenden Technologieluminarien bei einem Empfang im Hauptquartier von Google DeepMind am Vorabend des Gipfels. “Wenn wir die Menschen zu sehr erschrecken oder zurückscheuen, weil wir diese Risiken nicht in den Griff bekommen, werden wir die Einführung in unserem NHS [National Health Service] nicht sehen, wir werden die Einführung in unserem Verkehrsnetz nicht sehen, wir werden KI nicht nutzen können, um den Klimawandel zu bekämpfen oder Entwicklungsländern zu helfen, Probleme wie Lebensmittelungleichheit zu bewältigen. Und das wäre die größte Tragödie, die wir uns vorstellen können.”

Die USA hingegen machten in dieser Woche mehrere Ankündigungen, die das Anliegen Großbritanniens nach globaler Führung bei der KI-Sicherheit in den Schatten zu stellen drohten. Bei einer Rede in London am Mittwoch kündigte Vizepräsidentin Kamala Harris an, eine umfassende Reihe von US-Maßnahmen einzuleiten, darunter die Einrichtung eines amerikanischen Instituts für KI-Sicherheit. Harris sagte, die Einrichtung würde Richtlinien für Risikobewertungen von KI-Systemen erstellen und Leitlinien für Aufsichtsbehörden zu Fragen wie der Kennzeichnung von KI-generiertem Material und der Bekämpfung algorithmischer Diskriminierung entwickeln. Harris’ Ankündigung folgte einer Verordnung von Präsident Joe Biden am Montag, die KI-Unternehmen verpflichtet, die Bundesregierung zu benachrichtigen, wenn potenziell gefährliche Modelle trainiert werden, und die Ergebnisse von Sicherheitstests vor ihrer Veröffentlichung mitzuteilen.

Der britische Außenminister James Cleverley spielte am Donnerstag Andeutungen herunter, die USA hätten das Vereinigte Königreich mit ihren Ankündigungen in den Schatten gestellt. “Es geht hier nicht um Horten, sondern um Teilen”, sagte er zu TIME. “Daran sollen alle beteiligt sein. Es ist nicht exklusiv, sondern inklusiv.”

uk-ai-safety-summit-harris

In Bletchley Park waren Polizisten im Einsatz, um einen temporären abgesicherten Bereich rund um den Komplex aus Zeiten des Codeknackerns zu patrouillieren. Vor dem Eingangstor waren am Mittwoch einige Demonstranten der Gruppe Pause AI anwesend, die Banner und Plakate in die Höhe hielten. Die Gruppe tritt für eine vorübergehende Aussetzung des Trainings von KI-Systemen ein, die leistungsfähiger sind als GPT-4 von OpenAI, der Nachfolger von ChatGPT und das derzeit leistungsfähigste öffentlich zugängliche große Sprachmodell. “Umfragen zeigen zunehmend, dass eine Verlangsamung der KI-Entwicklung in der Öffentlichkeit populär ist, ebenso wie die vielen Unterstützungsbotschaften, die wir heute von jungen und alten Menschen erhielten, als wir demonstrierten”, sagte Gideon Futerman, einer der Demonstranten, gegenüber TIME. “Eine Pause ist nicht nur notwendig, sondern auch erreichbar.”

Drinnen fanden die Hauptdiskussionen hinter verschlossenen Türen statt, aber einige Branchenvertreter traten vor die Presse. Mustafa Suleyman, Mitbegründer von Google DeepMind und jetzt CEO des Startups Inflection AI, sagte bei einer Pressekonferenz am Mittwoch, dass eine vorübergehende Aussetzung des Trainings leistungsstarker Sprachmodelle “vernünftig” sein könnte, um Sicherheitsrisiken besser zu verstehen. Er fügte jedoch hinzu, dass ein vollständiger Stopp der Forschung “nicht der richtige Weg” sei. Suleyman betonte auch, dass die Diskussionen über KI-Sicherheit die Bedeutung ethischer Forschung in diesem Bereich hervorheben sollten.