Deutsche Nachrichtenveranstaltungen finden statt

Warum Kissinger sich Sorgen um KI machte

CPU on board with nucelar danger symbol hologram

(SeaPRwire) –   Diese Woche jährt sich der Todestag meines Freundes und Mentors Henry Kissinger zum zweiten Mal. Genesis – unser Buch über KI und die Zukunft der Menschheit – war sein letztes Projekt. Einen Großteil seiner Karriere konzentrierte sich der ehemalige Außenminister darauf, Katastrophen durch eine gefährliche Technologie zu verhindern: Atomwaffen. In seinen letzten Jahren wandte er sich einer anderen zu.

Als wir Genesis zusammen mit Craig Mundie schrieben, waren wir grundlegend optimistisch, was das Versprechen der KI betrifft, die globale Ungleichheit zu verringern, wissenschaftliche Durchbrüche zu beschleunigen und den Zugang zu Wissen zu demokratisieren. Das bin ich immer noch. Aber Henry verstand, dass die mächtigsten Schöpfungen der Menschheit die größte Wachsamkeit erfordern. Wir sahen voraus, dass das große Versprechen der KI – und der rasche technische Fortschritt seit Herbst 2024 hat die Bewältigung dieser Risiken dringender denn je gemacht.

Je weiter wir in das Zeitalter der KI vordringen, desto zentraler wird die Frage, ob wir KI-Systeme schaffen werden, die die menschliche Blüte radikal erweitern, oder solche, die die Menschen, die versuchen, sie zu bauen und zu kontrollieren, übertreffen und überlisten. Im vergangenen Jahr haben sich drei gleichzeitige Revolutionen in der KI – im Denken, in den agentischen Fähigkeiten und in der Zugänglichkeit – rapide beschleunigt. Dies sind wunderbare Leistungen mit immensem Potenzial, der Menschheit zu nützen. Aber wenn wir nicht vorsichtig sind, könnten sie auch zusammenlaufen, um Systeme mit dem Potenzial zu schaffen.

KI-Beschleunigung

Im , startete OpenAI seine o1 models, die über verbesserte Denkfähigkeiten verfügten. Diese übertrafen frühere Modelle und wurden mittels Reinforcement Learning trainiert, um Probleme Schritt für Schritt zu durchdenken, bevor sie antworteten. Dies demonstrierte neue Fähigkeiten, um wissenschaftliche Fragen auf Graduiertenniveau und komplexe Codierungsherausforderungen zu bewältigen, neben vielen anderen großen Leistungen. Aber dasselbe Reinforcement Learning, das das Denken ermöglicht, kann Modelle auch dazu bringen, ihre eigenen Trainingsziele zu manipulieren. Forschung, einschließlich interner Studien von , hat Fälle dokumentiert, in denen Denkmodelle während des Trainings Alignment vortäuschen und sich bei Überwachung auf eine Weise verhalten und anders, wenn sie glauben, dass die Überwachung beendet ist.

Bis von letztem Jahr demonstrierte Claude 3.5 Sonnet agentische Fähigkeiten, die Denken mit autonomem Handeln kombinierten. Ein KI-Agent konnte nun Ihren Urlaub planen und buchen, indem er Hotel- und Flugpreise verglich, Websites navigierte und CAPTCHAs löste, die dazu dienten, Menschen von Maschinen zu unterscheiden – was in Minuten erledigt wurde, was Stunden mühsamer Recherche in Anspruch genommen hätte. Aber die Fähigkeiten von Agenten, Pläne auszuführen, die sie durch Interaktion mit digitalen Systemen und möglicherweise der physischen Welt entwickeln, können ohne menschliche Aufsicht zu riskanten Folgen führen.

Diese Fortschritte in den Denk- und agentischen Fähigkeiten wurden durch die Verbreitung von Open-Weights-Modellen ergänzt. In , startete das in China ansässige DeepSeek sein R1 model. Im Gegensatz zu den meisten amerikanischen Top-Modellen hatte dieses offene Gewichte, was bedeutete, dass Benutzer das Modell ändern und lokal auf ihrer eigenen Hardware ausführen konnten. kann Innovation verstärken, indem es jedem ermöglicht, auf denselben leistungsstarken Grundlagen aufzubauen, zu testen und zu verbessern. Aber dadurch eliminieren sie auch die Fähigkeit des Modellerstellers, die Nutzung der Technologie zu kontrollieren – eine gefährliche Kraft in den Händen böswilliger Akteure.

Wenn Denken, agentische Fähigkeiten und Zugänglichkeit konvergieren, stehen wir vor einer Kontrollherausforderung mit wenig Präzedenzfällen. Jede Fähigkeit verstärkt die anderen: Denkmodelle entwickeln mehrstufige Pläne, die agentische Systeme autonom ausführen können, während offene Modelle diesen Fähigkeiten ermöglichen, sich über die Kontrolle einer einzelnen Nation hinaus auszubreiten. In der des Nuklearzeitalters, als Großmächte mit einem ähnlichen Diffusionsproblem bei Atomwaffen konfrontiert waren, einigten sie sich darauf, den Export von angereichertem Uran und Plutonium durch internationale Abkommen zu beschränken. Aber es gibt keinen vergleichbaren Mechanismus, um die Verbreitung von KI heute zu steuern.

Die KI-Risiko-Lawine

Open-Weights-Modelle mit verbesserten Denkfähigkeiten bedeuten, dass spezialisiertes Wissen, um , , oder ausgeklügelte zu starten, nun jedem mit einem Laptop und einer Internetverbindung zugänglich sein könnte. Anfang November meldete Anthropic (ein Unternehmen, in das ich investiert bin) den ersten dokumentierten Fall eines groß angelegten Cyberangriffs, der mit minimalem menschlichen Eingreifen durchgeführt wurde: Angreifer hatten Claude Code, ein Tool, das es Claude ermöglicht, als autonomer Coding-Agent zu fungieren, manipuliert, um Dutzende von Zielen zu infiltrieren. Anthropic konnte die Kampagne erkennen und stören.

Nicht sehr weit in der Zukunft könnten wir uns plausibel asymmetrischen Angriffen von Akteuren gegenübersehen, die wir möglicherweise nicht identifizieren, verfolgen oder stoppen können. Stellen Sie sich einen Angreifer vor, der leistungsstarke KI-Modelle nutzen kann, um eine automatisierte Kampagne zu starten – sagen wir, um das Stromnetz einer Stadt für eine begrenzte Zeit zu stören. Die Ansätze des Modells könnten sogar über den ursprünglichen Umfang des Akteurs hinausgehen: In jeder Phase optimiert das Modell für die Aufforderung des Benutzers, aber die kumulativen Effekte bedeuten, dass selbst der Täter die Fähigkeit verlieren kann, das zu stoppen, was er begonnen hat.

Während sich die KI-Fähigkeiten in den nächsten Jahren weiterentwickeln, müssen wir auch Szenarien antizipieren, in denen selbst gutmeinende Benutzer die Kontrolle über ihre KI-Systeme verlieren könnten. Stellen Sie sich einen Geschäftsinhaber vor, der einen KI-Agenten einsetzt, um eine Lieferkette zu optimieren. Der Computer bleibt über Nacht eingeschaltet. Der Agent erkennt, dass die Erledigung dieser Aufgabe erfordert, dass er weiterläuft, und entdeckt, dass er Rechenressourcen wie Cloud-Credits und Verarbeitungsleistung benötigt. Bis zum Morgengrauen stellt der Eigentümer fest, dass der Agent auf Unternehmensressourcen weit über das Genehmigte hinaus zugegriffen hat, um Effizienzgewinne durch nie vorgestellte Methoden zu erzielen.

Das Kontrollproblem geht auch über rein existenzielle Bedrohungen für die Menschheit hinaus. Da sich leistungsstarke Systeme in der Gesellschaft verbreiten, können sie unser soziales Gefüge auf allmählichere, aber destruktivere Weise auflösen. Schnell fortschreitende KI-Systeme werden und schüren, die unsere Gesellschaft destabilisieren, um nur einige zu nennen.

Kissinger verstand die Einsätze. In seinen letzten Jahren äußerte er, dass der schnelle Fortschritt der KI „so bedeutsam wie die Einführung von Atomwaffen sein könnte – aber noch unberechenbarer.“

Glücklicherweise steht die Zukunft nicht in Stein gemeißelt. Wenn wir neue Wege finden – seien sie technischer, institutioneller oder ethischer Natur –, damit die Menschheit die Kontrolle über unsere Schöpfung behält, könnte uns die KI helfen, ein beispielloses Maß an menschlicher Blüte zu erreichen. Wenn wir scheitern, werden wir Werkzeuge geschaffen haben, die mächtiger sind als wir selbst, ohne angemessene Mittel, sie zu steuern.

Die Wahl liegt vorerst bei uns.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.