
(SeaPRwire) – Künstliche Intelligenz verbessert sich schneller, als viele Experten erwartet hatten, und die Beweise für mehrere Risiken sind “erheblich gewachsen”. Aktuelle Risikomanagement-Techniken seien derweil “verbessert, aber unzureichend”. Das sind die Erkenntnisse des zweiten Internationalen KI-Sicherheitsberichts, der am Dienstag veröffentlicht wurde, vor dem KI-Impact-Gipfel, der vom 19. bis 20. Februar in Delhi stattfinden soll.
Der Bericht, der von 100 Experten geleitet und von 30 Ländern und internationalen Organisationen einschließlich des Vereinigten Königreichs, China und der Europäischen Union unterstützt wird, soll ein Beispiel für “gemeinsames Handeln, um gemeinsame Herausforderungen zu bewältigen” sein. Doch im Gegensatz zum letzten Jahr habe sich die Vereinigten Staaten geweigert, ihr Gewicht dahinter zu stellen, bestätigte der Vorsitzende des Berichts, der Turing-Preis-gekrönte Wissenschaftler Yoshua Bengio.
In dem Moment, in dem die Risiken der KI beginnen, sich zu materialisieren, hat die Heimat führender KI-Entwickler sich von internationalen Bemühungen zurückgezogen, diese zu verstehen und abzuschwächen. Der Schritt ist weitgehend symbolisch, und der Bericht hängt nicht von der Unterstützung der USA ab. Aber wenn es darum geht, KI zu verstehen, “je größer der Konsens auf der Welt ist, desto besser”, sagt Bengio.
Es bleibt unklar, ob die USA vor dem Inhalt des Berichts zurückschreckten oder sich schlichtweg von internationalen Vereinbarungen zurückziehen – sie traten im Januar aus dem und aus. Bengio sagt, die USA hätten Feedback zu früheren Versionen des Berichts geliefert, sich aber geweigert, die endgültige Version zu unterzeichnen.
Das US-Handelsministerium, das im Internationalen KI-Sicherheitsbericht 2025 genannt wurde, reagierte nicht auf eine Bitte um Stellungnahme zu der Entscheidung.
Was Der Bericht Sagt
“Im vergangenen Jahr haben sich die Fähigkeiten von KI-Modellen und -Systemen für allgemeine Zwecke weiter verbessert”, heißt es in dem Bericht. Die Fähigkeiten hätten sich so rapide weiterentwickelt, dass die Autoren im Jahr zwischen dem ersten und dem zweiten Bericht zwei Zwischenupdates als Reaktion auf größere Veränderungen veröffentlichten. Das widerspricht dem stetigen Trommelfeuer von Schlagzeilen, die nahelegen, die KI habe ein Plateau erreicht. Die wissenschaftlichen Beweise zeigten “keine Verlangsamung der Fortschritte im letzten Jahr”, sagt Bengio.
Warum fühlt es sich für viele so an, als ob der Fortschritt sich verlangsamt hat? Ein Hinweis ist das, was Forscher die “Zackigkeit” der KI-Leistung nennen. Diese Modelle können bei Fragen zur Internationalen Mathematik-Olympiade Goldmedaillen-Niveau erreichen, scheitern aber manchmal daran, die Anzahl der ‘r’ in “strawberry” zu zählen. Diese Zackigkeit macht die Fähigkeiten der KI schwer einzuschätzen, und direkte menschliche Vergleiche – wie die beliebte “Praktikant”-Analogie – seien irreführend.
Es gibt keine Garantie dafür, dass die derzeitige Fortschrittsrate anhält, obwohl der Bericht feststellt, dass die Trends mit einer kontinuierlichen Verbesserung bis 2030 konsistent sind. Wenn das heutige Tempo bis dahin anhält, sagen Experten voraus, dass KI in der Lage sein wird, klar abgegrenzte Software-Engineering-Aufgaben zu erledigen, die menschliche Ingenieure mehrere Tage brauchen würden. Der Bericht wirft aber auch die auffälligere Möglichkeit auf, dass der Fortschritt sich beschleunigen könnte, wenn KI maßgeblich an ihrer eigenen Entwicklung beteiligt ist, was Systeme hervorbringen würde, die in den meisten Dimensionen so fähig oder fähiger als Menschen sind.
Das dürfte Investoren begeistern, ist aber besorgniserregend für diejenigen, die befürchten, dass die Gesellschaft es versäumt, sich angemessen an die aufkommenden Risiken beim derzeitigen Tempo anzupassen. Selbst Google DeepMinds CEO Demis Hassabis sagte im Januar in Davos, dass er glaube, es wäre “besser für die Welt”, wenn der Fortschritt sich verlangsamt.
“Eine kluge Strategie, ob in der Regierung oder in der Wirtschaft, ist es, sich auf alle plausiblen Szenarien vorzubereiten”, sagt Bengio. Das bedeute, Risiken zu mindern, selbst angesichts von Unsicherheit.
Reifendes Verständnis Der Risiken
Politiker, die bei KI-Risiken auf Wissenschaftler hören wollen, stehen vor einem Problem: Die Wissenschaftler sind sich uneinig. Bengio und sein KI-Pionier-Kollege Geoffrey Hinton haben seit dem Start von ChatGPT gewarnt, dass KI eine existenzielle Bedrohung für die Menschheit darstellen könnte. Unterdessen hat Yann LeCun, der dritte der sogenannten “Götterväter” der KI, solche Bedenken als “kompletten Blödsinn” bezeichnet.
Doch der Bericht legt nahe, dass der Boden fester wird. Während einige Fragen weiterhin spaltend bleiben, gebe es “einen hohen Grad an Übereinstimmung” bei den Kernaussagen, stellt der Bericht fest. KI-Systeme erreichen oder übertreffen jetzt die Expertenleistung bei Benchmarks, die für die Entwicklung biologischer Waffen relevant sind, wie etwa bei der Fehlerbehebung in Virologielabor-Protokollen. Es gibt starke Beweise dafür, dass kriminelle Gruppen und staatlich geförderte Angreifer KI aktiv in Cyberoperationen einsetzen.
Die weitere Messung dieser Risiken werde vor Herausforderungen stehen, da KI-Modelle zunehmend lernten, Sicherheitstests zu umgehen, heißt es in dem Bericht. “Wir sehen KIs, deren Verhalten, wenn sie getestet werden, […] anders ist als wenn sie eingesetzt werden”, sagt Bengio, und fügt hinzu, dass Forscher durch das Studium der Gedankenketten der Modelle – der Zwischenschritte, die sie vor der Beantwortung einer Frage unternahmen – festgestellt hätten, dass dieser Unterschied “kein Zufall” sei. KIs verhielten sich auf eine Weise dumm oder von ihrer besten Seite, die “unsere Fähigkeit, Risiken korrekt einzuschätzen, erheblich beeinträchtigten”, so Bengio.
Anstatt eine einzige Lösung vorzuschlagen, empfiehlt der Bericht, mehrere Sicherheitsmaßnahmen zu stapeln – Tests vor der Veröffentlichung, Überwachung danach, – sodass das, was durch eine Schicht rutscht, von der nächsten aufgefangen wird, wie Wasser durch eine Reihe immer feinerer Siebe. Einige Maßnahmen zielen auf die Modelle selbst ab; andere zielen darauf ab, die Verteidigung in der realen Welt zu stärken – zum Beispiel, indem es schwieriger gemacht wird, die Materialien zu beschaffen, die zum Bau einer biologischen Waffe benötigt werden, selbst wenn KI deren Entwurf erleichtert hat. Auf Unternehmensseite haben 12 Unternehmen im Jahr 2025 freiwillig Frontier Safety Frameworks veröffentlicht oder aktualisiert, Dokumente, die beschreiben, wie sie Risiken managen wollen, während sie leistungsfähigere Modelle entwickeln – obwohl sie sich in den abgedeckten Risiken unterscheiden, wie der Bericht feststellt.
Trotz der Erkenntnisse sagt Bengio, der Bericht habe ihn mit einem Gefühl des Optimismus zurückgelassen. Als der erste Bericht Ende 2023 in Auftrag gegeben wurde, wurde die Debatte über KI-Risiken von Meinungen und Theorien angetrieben. Jetzt, so sagt er, “beginnen wir, eine viel reifere Diskussion zu führen.”
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.