Am Dienstag veröffentlichten 24 KI-Experten, darunter die Turing-Preisträger Geoffrey Hinton und Yoshua Bengio, einen offenen Brief, in dem sie die Regierungen zum Handeln auffordern, um Risiken durch KI zu bewältigen. Der Brief konzentrierte sich insbesondere auf extreme Risiken, die von den leistungsfähigsten Systemen ausgehen könnten, wie die Ermöglichung groß angelegter krimineller oder terroristischer Aktivitäten.
Der offene Brief enthält eine Reihe konkreter politischer Empfehlungen, wie etwa die Sicherstellung, dass große Tech-Unternehmen und öffentliche Geldgeber mindestens ein Drittel ihres KI-Forschungs- und Entwicklungsbudgets für Projekte aufwenden, die eine sichere und ethische Nutzung von KI fördern. Die Autoren fordern auch die Schaffung nationaler und internationaler Standards.
Bengio, wissenschaftlicher Direktor am Montreal Institute for Learning Algorithms, sagt, dass der offene Brief die Politiker, Medien und die breite Öffentlichkeit dabei unterstützen soll, “die Risiken zu verstehen und einige der Dinge, die wir tun müssen, um sicherzustellen, dass die Systeme das tun, was wir wollen.”
Die Empfehlungen brechen kein neues Terrain auf. Vielmehr unterstützen die Unterzeichner des offenen Briefes den Konsensansicht unter KI-Politikforschern, die sich um extreme Risiken sorgen (sie stimmen eng mit den populärsten Politiken überein, die in einer Umfrage von Mai unter Experten identifiziert wurden).
“Wir wollten das vorstellen, was (unserer Meinung nach) klare Denkansätze zur KI-Sicherheit sind, die vernünftigerweise weitgehend frei von Einflüssen partikularer Interessen sind”, sagte Stuart Russell, Professor für Informatik an der University of California, Berkeley und Mitautor des Briefes, TIME in einer E-Mail.
Diese Wochenerklärung unterscheidet sich von früheren Experten-Offenen Briefen, sagt Russell, weil “Die Regierungen verstanden haben, dass es reale Risiken gibt. Sie fragen die KI-Gemeinschaft: ‘Was ist zu tun?’ Die Erklärung ist eine Antwort auf diese Frage.”
Weitere Mitautoren sind der Historiker und Philosoph Yuval Noah Harari sowie die MacArthur-Stipendiatin und Professorin für Informatik an der University of California, Berkeley, Dawn Song, zusammen mit einer Reihe anderer Akademiker aus verschiedenen Ländern und Bereichen.
Der offene Brief ist die dritte prominente Erklärung, die in diesem Jahr von KI-Experten unterzeichnet wurde, im Rahmen zunehmender Bemühungen, auf potenzielle Risiken einer unregulierten KI-Entwicklung aufmerksam zu machen. Im März wurde ein offener Brief veröffentlicht, der KI-Labore aufforderte, “sofort für mindestens 6 Monate das Training von KI-Systemen auszusetzen, die leistungsfähiger sind als GPT-4”. Dieser Brief wurde von Zehntausenden von Menschen unterzeichnet, darunter Elon Musk, Bengio und Russell.
Im Mai wurde eine Erklärung vom Center for AI Safety veröffentlicht, die erklärte, dass “die Bekämpfung des Risikos eines Aussterbens durch KI eine globale Priorität neben anderen risikoreichen gesellschaftlichen Themen wie Pandemien und Atomkrieg sein sollte”. Diese Erklärung wurde von mehr als 500 prominenten Akademikern und Branchenführern unterzeichnet, darunter wieder Hinton, Bengio und Russell, aber auch die CEOs von drei der prominentesten KI-Unternehmen: Sam Altman von OpenAI, Demis Hassabis von DeepMind und Dario Amodei von Anthropic.
Pieter Abbeel, Mitgründer, Präsident und Chief Scientist des Robotikunternehmens Covariant.ai sowie Professor für Elektrotechnik und Informatik an der University of California, Berkeley, unterzeichnete diesen neuesten offenen Brief, obwohl er die vorherigen nicht unterzeichnet hatte. Abbeel sagte TIME, dass der vorsichtig optimistische Ton dieser jüngsten Erklärung besser zu seiner Sichtweise passe als die alarmierenderen Töne früherer offener Briefe. “Wenn wir die Dinge richtig machen – und wir haben noch viele Dinge richtig zu machen – können wir sehr optimistisch in die Zukunft blicken”, sagt er.
KI-Forscher versuchen seit langem, auf die potenziellen Risiken der von ihnen mitentwickelten Technologie aufmerksam zu machen. 2016 unterzeichneten Hinton, Bengio und Russell einen von der Future of Life Initiative organisierten Brief, in dem ein “Verbot autonomer Waffen jenseits einer sinnvollen menschlichen Kontrolle” gefordert wurde.
Historisch haben Wissenschaftler oft Alarm geschlagen und sich früh für Themen rund um ihre Forschung eingesetzt. Klimawissenschaftler warnen seit den 1980er Jahren vor dem Problem der globalen Erwärmung. Und nachdem er die Entwicklung der Atombombe geleitet hatte, wurde Robert Oppenheimer zu einem leidenschaftlichen Verfechter internationaler Kontrollen und sogar des kompletten Verbots von Atomwaffen.
Bengio sagt, dass sich sein Engagement für KI-Politik im Laufe der Zeit entwickelt hat, da sein “Verständnis für das Problem und die Politik darum herum sich stark verbessert” habe.
Eine der im neuen offenen Brief empfohlenen Politiken ist die Erfordernis einer Lizenz für Unternehmen, bevor “außergewöhnlich leistungsfähige zukünftige Modelle” entwickelt werden. Einige KI-Entwickler und Kommentatoren haben jedoch davor gewarnt, dass Lizenzen große Unternehmen begünstigen würden, die die regulatorische Belastung einer Lizenz tragen können.
Bengio bezeichnet dieses Argument als “völlig falsch”, da die durch Lizenzen auferlegte Belastung sich ausschließlich auf Unternehmen beziehen würde, die die leistungsfähigsten KI-Modelle entwickeln. Stattdessen argumentiert Bengio, die wirkliche Gefahr regulatorischer Aneignung bestehe darin, wenn Unternehmen in der Lage wären, Gesetzgebung so zu beeinflussen, dass sie nicht ausreichend robust ist.
Russell sagt, das Argument, große KI-Unternehmen würden Regulierung aktiv vorantreiben, um kleinere Unternehmen auszuschließen, sei “blanker Unsinn”. Obwohl es mehr Vorschriften für Sandwichläden als für KI-Unternehmen gebe, würden jedes Jahr zehntausende neue Cafés und Restaurants eröffnen.
Der offene Brief kommt zu einem entscheidenden Zeitpunkt, da die Regeln in wichtigen KI-Entwicklungsländern in unterschiedlichen Reifegraden sind. China ist am weitesten, seine Vorschriften für KI-Chatbots, die auf frühere Runden der KI-Regulierung aufbauen, traten im August in Kraft.
Westliche Länder sind weiter zurück. Der EU-KI-Akt befindet sich noch im EU-Regulierungsprozess. In den USA haben das Weiße Haus freiwillige Zusagen von 15 führenden KI-Entwicklern erhalten, aber der Kongress ist noch weit davon entfernt, KI-Gesetzgebung zu verabschieden.
Inzwischen versucht der britische Premierminister Rishi Sunak, eine Schlüsselrolle bei der Förderung der internationalen Zusammenarbeit in KI-Fragen zu spielen. Auch UN-Generalsekretär António Guterres und sein Technologie-Beauftragter Amandeep Gill versuchen, den globalen Ansatz für KI-Regulierung voranzutreiben.