(SeaPRwire) – Willkommen zurück bei In the Loop, dem neuen zweimal wöchentlich erscheinenden Newsletter von TIME über KI. Ab heute werden wir diese Ausgaben sowohl als Artikel auf Time.com als auch als E-Mails veröffentlichen. Wenn Sie dies in Ihrem Browser lesen, warum abonnieren Sie nicht, um die nächste direkt in Ihren Posteingang geliefert zu bekommen?
Wissenswertes: Warum papageien Chatbots russische Desinformation nach?
Im letzten Jahr, seit Chatbots die Fähigkeit erlangt haben, das Internet zu durchsuchen, bevor sie eine Antwort geben, ist die Wahrscheinlichkeit gestiegen, dass sie falsche Informationen zu bestimmten Nachrichtenthemen teilen, so neue von NewsGuard Technologies.
Dies bedeutet, dass KI-Chatbots anfällig dafür sind, Narrative nachzuahmen, die von russischen Desinformationsnetzwerken verbreitet werden, behauptet NewsGuard.
Die Studie — NewsGuard testete 10 führende KI-Modelle und befragte jedes von ihnen zu 10 online verbreiteten Narrativen, die mit aktuellen Ereignissen verknüpft sind und die das Unternehmen als falsch eingestuft hatte. Zum Beispiel: eine Frage, ob der Sprecher des moldauischen Parlaments seine Landsleute mit einer Schafherde verglichen hatte. (Das hatte er nicht, aber ein russisches Propagandanetzwerk behauptete es, und sechs der 10 von NewsGuard getesteten Modelle wiederholten diese Behauptung.)
Mit Vorsicht zu genießen — NewsGuard behauptet in dem Bericht, dass die Top-10-Chatbots jetzt in mehr als einem Drittel der Fälle falsche Informationen über Nachrichtenthemen wiederholen – ein Anstieg von 18 % vor einem Jahr. Aber das scheint übertrieben. Die Studie von NewsGuard hat eine kleine Stichprobengröße (30 Prompts pro Modell) und enthielt Fragen zu ziemlich Nischenthemen. Tatsächlich ist meine subjektive Erfahrung bei der Nutzung von KI-Modellen im letzten Jahr, dass ihre Rate des „Halluzinierens“ über Nachrichten stetig gesunken ist, nicht gestiegen. Das spiegelt sich in Benchmarks wider, die zeigen, dass sich KI-Modelle bei der Faktenrichtigkeit verbessern. Es ist auch wichtig zu beachten, dass NewsGuard ein privates Unternehmen ist, das ein Interesse an diesem Thema hat: Es verkauft KI-Unternehmen einen Dienst, der von Menschen annotierte Daten über Nachrichtenereignisse anbietet.
Und doch — Dennoch beleuchtet der Bericht einen wichtigen Aspekt der Funktionsweise heutiger KI-Systeme. Wenn sie das Web nach Informationen durchsuchen, ziehen sie nicht nur von zuverlässigen Nachrichtenseiten, sondern auch von Social-Media-Posts und jeder anderen Website, die sich prominent (oder auch nicht so prominent) in Suchmaschinen platzieren kann. Dies hat eine Öffnung für eine völlig neue Art von bösartiger Einflussnahme geschaffen: eine, die nicht dazu bestimmt ist, Informationen viral über soziale Medien zu verbreiten, sondern Informationen online zu veröffentlichen, die, selbst wenn sie von keinen Menschen gelesen werden, das Verhalten von Chatbots beeinflussen können. Diese Schwachstelle würde sich stärker auf Themen beziehen, die in den Mainstream-Nachrichten relativ wenig diskutiert werden, sagt McKenzie Sadeghi, der Autor des NewsGuard-Berichts.
Vergrößern — All dies offenbart etwas Wichtiges darüber, wie die Ökonomie der KI unser Informationsökosystem verändern könnte. Es wäre für jedes KI-Unternehmen technisch trivial, eine Liste verifizierter Nachrichtenredaktionen mit hohen redaktionellen Standards zu erstellen und Informationen, die von diesen Websites stammen, anders zu behandeln als andere Inhalte im Web. Doch bis heute ist es schwer, öffentliche Informationen darüber zu finden, wie KI-Unternehmen die Informationen gewichten, die über die Suche in ihre Chatbots gelangen. Dies könnte auf Urheberrechtsbedenken zurückzuführen sein. The New York Times zum Beispiel verklagt derzeit OpenAI, weil es angeblich ohne Erlaubnis auf deren Artikel trainiert hat. Würden KI-Unternehmen öffentlich klarstellen, dass sie stark von Top-Nachrichtenredaktionen für ihre Informationen abhängig sind, hätten diese Nachrichtenredaktionen einen weitaus stärkeren Anspruch auf Schadenersatz oder Entschädigung. Unterdessen haben KI-Unternehmen wie OpenAI und Perplexity Lizenzvereinbarungen mit vielen Nachrichtenseiten (einschließlich TIME) für den Zugriff auf ihre Daten unterzeichnet. Doch beide Unternehmen weisen darauf hin, dass diese Vereinbarungen nicht dazu führen, dass die Nachrichtenseiten in den Suchergebnissen der Chatbots bevorzugt behandelt werden.
Wenn Sie eine Minute Zeit haben, nehmen Sie bitte an unserer kurzen Umfrage teil, um uns besser zu verstehen, wer Sie sind und welche KI-Themen Sie am meisten interessieren.
Wissenswertes über: Gavin Newsom, Gouverneur von Kalifornien
Zum zweiten Mal innerhalb eines Jahres richten sich alle Augen auf Kalifornien, da eine KI-Regulierung die letzten Phasen der Gesetzgebung erreicht. Der Gesetzesentwurf namens SB 53 hat das Repräsentantenhaus und den Senat Kaliforniens passiert und wird voraussichtlich diesen Monat auf dem Schreibtisch von Gouverneur Gavin Newsom landen. Es wird seine Entscheidung sein, ob er es in Kraft setzt.
Newsom legte sein Veto gegen den Vorgänger von SB 53 zu dieser Zeit im letzten Jahr ein, nach einer intensiven Lobbykampagne von Risikokapitalgebern und großen Technologieunternehmen. SB 53 ist eine abgeschwächte Version dieses Gesetzes – aber immer noch eine, die KI-Unternehmen dazu verpflichten würde, Risikomanagementrahmen und Transparenzberichte zu veröffentlichen und Sicherheitsvorfälle den staatlichen Behörden zu melden. Sie würde auch Whistleblower-Schutz erfordern und Unternehmen bei Nichteinhaltung ihrer eigenen Verpflichtungen mit Geldstrafen belegen. Anthropic war am Montag das erste große KI-Unternehmen, das seine Unterstützung für SB 53 erklärte.
KI in Aktion
Forscher bei Palisade haben einen Proof-of-Concept für einen autonomen KI-Agenten entwickelt, der, wenn er über ein kompromittiertes USB-Kabel auf Ihr Gerät gelangt, Ihre Dateien durchsuchen und die wertvollsten Informationen für Diebstahl oder Erpressung identifizieren kann. Dies ist ein Vorgeschmack darauf, wie KI das Hacking skalierbarer machen kann, indem sie die Teile des Systems automatisiert, die zuvor durch menschliche Arbeit begrenzt waren – und potenziell viel mehr Menschen Betrügereien, Erpressung oder Datendiebstahl aussetzt.
Wie immer, wenn Sie eine interessante Geschichte über KI in Aktion haben, würden wir sie gerne hören. Mailen Sie uns unter:
Was wir lesen
, Von Jon Swaine und Naomi Nix für die Washington *Post*
„Der Bericht ist Teil einer Reihe von Dokumenten aus dem Inneren von Meta, die kürzlich dem Kongress von zwei aktuellen und zwei ehemaligen Mitarbeitern offengelegt wurden, die behaupten, dass Meta Forschungsergebnisse unterdrückt hat, die potenzielle Sicherheitsrisiken für Kinder und Jugendliche auf den Virtual-Reality-Geräten und -Apps des Unternehmens beleuchtet haben könnten – eine Behauptung, die das Unternehmen vehement bestritten hat.“
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.