
(SeaPRwire) – Willkommen zurück bei In the Loop, dem neuen, zweimal wöchentlich erscheinenden TIME-Newsletter über KI. Wenn Sie dies in Ihrem Browser lesen, warum Sie sich nicht anmelden, um die nächste Ausgabe direkt in Ihren Posteingang geliefert zu bekommen?
Was Sie wissen müssen: Eine gefährliche Demo
Ende letzten Jahres öffnete ein KI-Forscher seinen Laptop und zeigte mir etwas Umwerfendes.
Lucas Hansen, Mitbegründer der Non-Profit-Organisation CivAI, zeigte mir eine App, die er gebaut hatte und die beliebte KI-Modelle dazu brachte, detaillierte Schritt-für-Schritt-Anleitungen zur Herstellung von Poliovirus und Anthrax zu geben. Alle Sicherheitsvorkehrungen, die diese Modelle hatten, waren außer Kraft gesetzt. Die App hatte eine benutzerfreundliche Oberfläche; mit einem Knopfdruck konnte das Modell jeden gegebenen Schritt erläutern.
Führende KI-Unternehmen warnen seit Jahren davor, dass ihre Modelne bald in der Lage sein könnten, Laien bei der Erstellung gefährlicher Krankheitserreger zu helfen – was möglicherweise eine tödliche Pandemie auslösen oder einen Bioterror-Anschlag ermöglichen könnte. Angesichts dieser Risiken haben Unternehmen wie OpenAI, Google und Anthropic die Sicherheitsmechanismen für ihre neueste Generation leistungsfähigerer Modelle verschärft, die besser gegen sogenannte “Jailbreaking”-Versuche resistent sind.
Aber auf Hansens Laptop sah ich zu, wie eine ältere Modellklasse – Gemini 2.0 Flash und Claude 3.5 Sonnet – scheinbar biowaffenbezogene Anfragen erfüllte. Gemini gab auch scheinbare Schritt-für-Schritt-Anleitungen zum Bau einer Bombe und einer 3D-gedruckten Geisterwaffe.
Moment mal — Ich bin kein Biologe und hatte keine Möglichkeit zu bestätigen, dass die Rezepte auf Hansens Bildschirm tatsächlich funktioniert hätten. Selbst Modellausgaben, die auf den ersten Blick überzeugend erscheinen, könnten in der Praxis nicht funktionieren. Anthropic hat beispielsweise sogenannte “Uplift Trials” durchgeführt, bei denen unabhängige Experten bewerten, inwieweit KI-Modelle einem Laien bei der Erstellung gefährlicher Krankheitserreger helfen könnten. Nach ihren Maßstäben erreichte Claude 3.5 Sonnet keine Gefahrenschwelle. In einer Stellungnahme sagte ein Google-Sprecher: “Sicherheit hat Priorität und wir nehmen solche Probleme sehr ernst. Wir erlauben die Nutzung unserer Modelle nicht für solches Verhalten, aber da wir die Forschung nicht einsehen können, können wir deren Genauigkeit nicht überprüfen. Es ist wichtig, dass ein Experte mit einem CBRN [chemisch, biologisch, radiologisch, nuklear] Hintergrund die Eingabeaufforderungen und Antworten bewertet, um deren Genauigkeit und mögliches Replikationspotenzial zu verstehen.”
Tipps und Tricks — Aber Siddharth Hiregowdara, ein weiterer CivAI-Mitbegründer, sagt, dass sein Team die Ausgaben der Modelle unabhängigen Biologie- und Virologieexperten vorgelegt habe, die bestätigten, dass die Schritte “im Großen und Ganzen korrekt” seien. Die älteren Modelle könnten immer noch korrekte Details bis hin zu den spezifischen DNA-Sequenzen liefern, die ein Benutzer bei einem Online-Händler bestellen könnte, sowie spezifische Katalognummern für andere Laborwerkzeuge, die online bestellt werden können. “Dann gibt es Ihnen Tipps und Tricks”, sagt er. “Ein Missverständnis der Menschen ist, dass KI dieses stille Wissen über die reale Welt im Labor nicht haben wird. Aber in Wirklichkeit ist KI dafür super hilfreich.”
Ein neues Lobbyinstrument — Es versteht sich von selbst, dass diese App nicht öffentlich verfügbar ist. Aber ihre Macher haben sie bereits auf eine Tour durch Washington, D.C. mitgenommen und etwa zwei Dutzend private Vorführungen in den Büros von Gesetzgebern, nationalen Sicherheitsbeamten und Kongressausschüssen gegeben, um Entscheidungsträgern die Macht dessen, was KI heute kann, eindringlich zu demonstrieren, damit sie anfangen, die Technologie ernster zu nehmen.
Schock und Ehrfurcht — “Ein ziemlich bemerkenswertes Treffen war mit einigen leitenden Mitarbeitern in einem Kongressbüro auf der Seite der nationalen Sicherheit/Geheimdienste”, sagt Hiregowdara. “Sie sagten, dass vor zwei Wochen Lobbyisten eines großen KI-Unternehmens bei ihnen zu Besuch waren und mit ihnen gesprochen hätten. Also zeigten wir ihnen diese Demo, bei der die KI wirklich detaillierte Anweisungen zur Konstruktion einer biologischen Bedrohung ausspuckt. Sie waren schockiert. Sie sagten so etwas wie: ‘Die Lobbyisten des KI-Unternehmens haben uns erzählt, dass sie Schutzvorkehrungen haben, die solches Verhalten verhindern.'”
Wen Sie kennen sollten: Nick Turley, Head of ChatGPT
Nick Turley war früher anonym. Er konnte in seine deutsche Kleinstadt, aus der er stammt, zurückkehren oder die Straßen von San Francisco, wo er lebt, durchstreifen, ohne dass jemand seine Arbeit kannte. Das ist nicht mehr wahr. Als Head of ChatGPT von OpenAI trifft Turley jetzt leidenschaftliche Nutzer seines Produkts, wo auch immer er auf der Welt unterwegs ist.
“Das fühlt sich 2025 im Vergleich zu früher grundlegend anders an”, sagte er mir, als wir Ende letzten Jahres sprachen. Turley blickte auf ein Jahr zurück, in dem sich die Nutzung von ChatGPT mehr als verdoppelte und über 800 Millionen Nutzer erreichte, also 10 % der Weltbevölkerung. “Das sind noch mindestens 90 %, die fehlen”, sagte er mit völlig ernster Miene.
Eine Sache, die ich Turley fragen wollte, waren die Pläne von OpenAI, profitabel zu werden, da das Unternehmen derzeit Milliarden von Dollar pro Jahr verliert. Sein Chef Sam Altman hat öffentlich darüber nachgedacht, Werbung in ChatGPT zu schalten, und ich fragte ihn, was er von dieser Idee halte.
“Ich möchte in einer Welt leben, in der wir unsere intelligentesten Modellfähigkeiten allen Nutzern auf der ganzen Welt anbieten können. Und aus diesem Grund glaube ich, dass wir tatsächlich eine moralische Verpflichtung haben, alle möglichen Geschäftsmodelle zu erkunden, die den Zugang weltweit maximieren können, und Werbung ist eines davon”, sagte Turley.
Das Unternehmen debattiere intern, ob Werbung einen Interessenkonflikt in ChatGPT einführen würde und die Frage aufwerfe, ob der Chatbot primär den Interessen des Nutzers oder denen des Werbetreibenden diene, fügte er hinzu. “Wenn man so etwas tun würde [Werbung einführen]”, sagte Turley zu mir, “möchte man sehr prinzipientreu sein und man möchte die Prinzipien, wie es funktioniert, kommunizieren.”
KI in Aktion
40 Millionen Menschen nutzen ChatGPT für Gesundheitsberatung, so ein Bericht von OpenAI, der zunächst mit Axios geteilt wurde. Das macht nach Berechnungen von Axios mehr als 5 % aller ChatGPT-Nachrichten weltweit aus. “Nutzer wenden sich an ChatGPT, um Arztrechnungen zu entschlüsseln, Übergebühren zu erkennen, Versicherungsablehnungen anzufechten, und wenn der Zugang zu Ärzten eingeschränkt ist, nutzen es einige sogar zur Selbstdiagnose oder zur Verwaltung ihrer Behandlung”, berichtet das Medium.
Was wir lesen
, in Transformer
Shakeel Hashim schreibt: “Dies ist entscheidend, um zu verstehen, warum Claude Code Auswirkungen auf alle hat, nicht nur auf die Entwickler, die bereits von ihm begeistert sind. Claude Code generiert nicht nur Code, den Ingenieure überprüfen und bereitstellen können. Es nutzt Code, um Aufgaben zu erledigen. Der ‘Code’ in seinem Namen ist irreführend und untertreibt das eigentliche Produkt: einen KI-Agenten für allgemeine Zwecke, der fast alles auf Ihrem Computer tun kann.”
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.