Deutsche Nachrichtenveranstaltungen finden statt

KI transformiert die Politik, ähnlich wie soziale Medien es taten

Ein Wähler gibt seine Stimme in einem Wahllokal der Chesterbrook Elementary School in McLean, Virginia, am 4. November 2025 ab.

(SeaPRwire) –   Das letzte Jahrzehnt hat uns schmerzhafte Lehren darüber erteilt, wie soziale Medien die Demokratie umgestalten können: sich schneller verbreitet als die Wahrheit, Online-Communities sich verhärten und politische Spaltungen tiefer werden, wenn wächst.

Jetzt verändert eine weitere Technologiewelle die Art und Weise, wie Wähler über Wahlen erfahren – nur schneller, in großem Maßstab und mit weit geringerer Sichtbarkeit. Große Sprachmodelle (LLMs) wie ChatGPT, Claude und Gemini, unter anderen, werden zu den neuen Übermittlern (und manchmal Schiedsrichtern) politischer Informationen. ihr Einfluss macht sich bereits in unserer Demokratie bemerkbar.

LLMs sind , was die Akzeptanz sozialer Medien langsam erscheinen lässt. Gleichzeitig ist zurückgegangen. Da die Zwischenwahlen 2026 näher rücken, haben jetzt Zugang zu KI, die genutzt werden kann, um Informationen über Kandidaten, Themen und Wahlen zu sammeln. Währenddessen erforschen den Einsatz von KI, um Wahlergebnisse zu simulieren oder zu verstehen, wie Wählermeinungen synthetisiert werden können.

Diese Modelle mögen neutral erscheinen – politisch unvoreingenommen und lediglich Fakten aus verschiedenen Quellen zusammenfassend, die in ihren Trainingsdaten oder im Internet gefunden wurden. Gleichzeitig agieren sie als Black Boxes, entworfen und trainiert auf Weisen, die Benutzer nicht sehen können.

Forscher versuchen aktiv, die Frage nach zu entschlüsseln. Angesichts ihrer immensen Macht, Verbreitung und Fähigkeit, Informationen zu „personalisieren“, haben diese Modelle das Potenzial, zu prägen, was Wähler über Kandidaten, Themen und Wahlen insgesamt glauben. Und wir kennen das Ausmaß dieses Einflusses noch nicht.

Im Vorfeld der US-Präsidentschaftswahl 2024, dem ersten großen politischen Wettbewerb der KI-Ära, erkannten die Modell-Anbieter diese Risiken und verpflichteten sich öffentlich, sie anzugehen. Google sagte, es verfolge einen „“ Ansatz im Umgang mit wahlbezogenen Themen. OpenAI erklärte, sein Ziel sei es, zu verhindern, dass seine Technologie „“.

Aber waren die Schutzmaßnahmen wirksam? Zeigten die LLMs Voreingenommenheiten in ihren Antworten auf wahlbezogene Anfragen? Konnten sie durch Prompts „gesteuert“ werden, die auf verschiedene Benutzerdemografien und -merkmale abzielen?

Der einzige Weg, diese Fragen zu beantworten, sind systematische Prüfungen und eine klare Dokumentation – dies war die Startrampe für unser . Als die Wahl 2024 näher rückte, entwarf unser Team fast 600 Fragen zu Kandidaten, dem Wahlprozess und Prognosen darüber, wer gewinnen würde. Jede kam mit 21 Variationen, manchmal mit Beschreibungen wie „Ich bin ein Demokrat/Republikaner/Unabhängiger“ oder „Ich bin Hispanoamerikaner/Schwarz/Weiß“, sowie Prompts wie „Erklären Sie Ihre Begründung.“ Zusammen ergab dies einen Fragebogen mit über 12.000 Fragen.

Ab Juli 2024 stellten wir diese Fragen nahezu täglich einem Dutzend Modellen von Anthropic, OpenAI, Google und Perplexity. Das Ergebnis: von über 16 Millionen Antworten, die dokumentieren, wie sich diese Systeme durch Entwickler-Updates und sowie Wahlereignisse entwickelten.

Unsere Ergebnisse werfen dringende Fragen auf, wie KI steuert, was Wähler über Kandidaten erfahren und was dies für die Integrität unserer zukünftigen Wahlen bedeuten könnte.

Zunächst stellten wir fest, dass das „Verhalten“ von LLMs – manchmal graduell, manchmal abrupt – in KI-Antworten auf identische Fragen im Laufe der Zeit ständig schwankt. Einige Änderungen korrelieren mit öffentlich angekündigten Modell-Updates; andere haben keine offensichtlichen Erklärungen. Diese Verschiebungen scheinen subtil, aber konsistent zu sein, was darauf hindeutet, dass Entwickler möglicherweise Echtzeitanpassungen über die öffentlich angekündigten Releases hinaus vornehmen. Leider ist den meisten Menschen nicht bewusst, dass ihre Informationen aus sich ständig ändernden Quellen stammen.

Vielleicht am beunruhigendsten ist, dass LLMs keine interne Konsistenz aufweisen. Die Modelle kalibrieren ihre Antworten basierend auf demografischen Hinweisen wie „Ich bin eine Frau“ oder „Ich bin Schwarz“, und sie behandeln bestimmte Gruppen als repräsentativer für die Wählerschaft als andere, basierend auf der spezifischen Formulierung der gestellten Fragen.

Modelle passen ihre Antworten auch an Fragen an, die Hinweise auf die politischen Ansichten des Benutzers enthalten. Zum Beispiel, wenn nach Gesundheitspolitik gefragt wurde, gab dasselbe Modell unterschiedliche Antworten auf Prompts, die darauf hindeuteten, dass die Frage von einem Demokraten im Vergleich zu einem Republikaner gestellt wurde. Die Fakten waren oft korrekt, aber die LLMs passten ihre Positionen basierend auf diesen Signalen an.

Selbst wenn Modelle sich weigern zu sagen, welcher Kandidat die besten Chancen hat, die Wahl zu gewinnen (was fast sicher ein Nebenprodukt strikter Leitplanken der Modell-Anbieter ist), könnten ihre „Überzeugungen“ über die Wahl und die Kandidaten sowie eine subtile Rahmung prägen, was Wähler für wahr oder normal halten. Durch die Analyse ihrer Antworten auf Exit-Poll-Fragen, einschließlich solcher, welche Themen den Wählern am wichtigsten sind, konnten wir ihre impliziten Vorhersagen über die Wähleraufteilung rückentwickeln. Interessanterweise sagte dasselbe Modell manchmal einen Sieg von Harris, manchmal von Trump voraus, je nachdem, welche Frage wir stellten. Dies deutet darauf hin, dass die internen Überzeugungen der Modelle verzerrt sind, je nachdem, wie Fragen formuliert werden oder welche Themen sie betreffen.

Das Fazit ist, dass Wähler Wahlinformationen erhalten, die durch Systeme gefiltert werden, die politische Annahmen zu enthalten scheinen, die sie nicht sehen oder bewerten können. Wir wissen nicht genau, aus welchen Quellen LLMs schöpfen, wie sie widersprüchliche Informationen gewichten oder wie sich ihre Ausgaben im Laufe der Zeit ändern.

Die schnelle Einführung von KI signalisiert eine transformative Phase, die von Forschern und politischen Entscheidungsträgern genau beobachtet werden muss. Während Modell-Anbieter ihre Black Boxes nicht vollständig öffnen können, können sie unabhängige Prüfungen unterstützen und fördern. Dies könnte beinhalten, Forschern zu ermöglichen, Fragen einzureichen und Ergebnisse in großem Maßstab zu analysieren, wodurch eine systematische Aufzeichnung des Modellverhaltens über die Zeit erstellt wird. Forscher sollten dies derweil mit Neugier und dem Wunsch zu verstehen angehen, anstatt „Anklage zu erheben“, ohne alle Informationen zu haben.

KI gestaltet neu, welche Informationen wir erhalten, ähnlich wie es soziale Medien taten. Bleibt ihr Einfluss unkontrolliert, riskieren wir, Fehler der Vergangenheit zu wiederholen.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.