
(SeaPRwire) – Sie öffnen soziale Medien und sehen ein erschreckendes Satellitenbild: eine Militärbasis in Flammen. Aber ist es echt?
Der Aufstieg der KI hat es einfacher denn je gemacht, Fälschungen zu generieren. Seitdem dienen Bilder aus dem Weltall als Verifizierungsmethode für Medien, Regierungen und die Öffentlichkeit. Nun bedroht die Technologie diese einst scheinbar unwiderlegbare Quelle der Wahrheit.
Ein KI-generiertes Satellitenbild, das in sozialen Medien gepostet wird, wird wahrscheinlich nicht allein einen Krieg auslösen oder das Militär eines gut ausgestatteten Landes wie der USA täuschen – das alle Behauptungen mit seiner eigenen Satellitenflotte überprüfen kann. Dennoch können sie wirkungsvolle Werkzeuge sein, um die öffentliche Meinung so zu beeinflussen, dass unser Informationsökosystem untergraben wird.
Allein in diesem Jahr gab es viele Fälle von Deepfake-Satellitenbildern.
Im Juni setzte die GUR der Ukraine Drohnen ein, um Russlands begehrte Langstreckenbomber anzugreifen. Hochauflösende Fotos des Ergebnisses verbreiteten sich schnell in den sozialen Medien: mehrere zerstörte russische Bomber (und ein Transportflugzeug) lagen in verkohlten Trümmern. Doch der wagemutige ukrainische Militärangriff wurde auch von begleitet, die einen erfolgreicheren Einsatz als die 10 zerstörten russischen Kriegsflugzeuge suggerierten.
Ein weiterer Fall tauchte später im selben Monat auf, nachdem die USA und Israel Angriffe auf Einrichtungen durchgeführt hatten, die mit dem iranischen Atomprogramm in Verbindung stehen. Ein zeigte eine Menschenmenge, die sich um ein zerstörtes israelisches F-35-Kampfjet versammelt hatte, und ein weiteres betrügerisches Video behauptete fälschlicherweise, von den Bord-Sensoren einer iranischen Rakete aufgenommen worden zu sein. Diese Bilder suggerierten eine potentere iranische militärische Reaktion auf die Angriffe, als Teheran tatsächlich aufbringen konnte.
Es gab nach dem viertägigen Indien-Pakistan-Konflikt im Mai. Sowohl indische als auch pakistanische Nutzer in den sozialen Medien teilten gefälschte Satellitenbilder, um zu suggerieren, dass die Militärs ihrer jeweiligen Länder mehr Schaden angerichtet hatten, als tatsächlich eingetreten war.
Da mehr als die Hälfte der Weltbevölkerung soziale Medien nutzt, kann die Reichweite manipulierter Satellitenbilder massiv und ihre Wirkung fast unmittelbar sein. Wir haben bereits Vorschauen gesehen, wie eine einzelne Fälschung die reale Welt beeinflussen kann: Als zum Beispiel letztes Jahr ein Bild fälschlicherweise einen Brand in der Nähe des Pentagons meldete, brach der Aktienmarkt ein, bis die örtlichen Behörden es als Fälschung entlarvten.
Und während Experten auf diesem Gebiet schon lange vor den Risiken gewarnt haben, werden die heutigen Fälschungen sowohl immer schwieriger von der Realität zu unterscheiden als auch einfacher herzustellen.
In den vergangenen Jahren boten die Modelle hinter Online-Tools eine Möglichkeit, grundlegende KI-generierte Satellitenbilder zu erstellen. Aber sie waren begrenzt, und die Endprodukte waren unscharfe, herausgezoomte Fotos. Um heute hochwertige Fälschungen zu erstellen, benötigt man lediglich kostenlose Software und die Fähigkeit, einen Prompt einzugeben, der die gewählte KI steuert.
Deshalb sollte der Kampf gegen gefälschte Satellitenbilder eine gesamtgesellschaftliche Initiative sein. Regierungen und Medien, die Bildmaterial verwenden, sowie kommerzielle Anbieter sollten ihren Zielgruppen helfen, auf Anzeichen von Täuschung aufmerksam zu werden.
In den Medien sollten Sender, die sich bei ihrer Berichterstattung auf Satellitenbilder verlassen, eine Erklärung zur Verifizierung beifügen oder verlinken, eine Praxis, die von einigen bereits angewendet wird. Eine Erläuterung, wie sie Satellitenbilder mit Details vom Boden abgleichen, kann dazu beitragen, das Vertrauen der Leser in glaubwürdige Berichterstattung zu stärken.
Die kommerziellen Anbieter sollten ihrerseits, wo immer möglich, Tools oder Teams zur Verfügung stellen, die angeblich von ihnen stammendes Bildmaterial als echt oder nicht echt verifizieren. Software von Drittanbietern zur Erkennung von KI-generierten Bildern existiert, ist aber unvollkommen und befindet sich in einem Wettrüsten mit sich ständig verbessernden Modellen, die hyperrealistische Fotos produzieren können.
Informationen darüber, wie böswillige Akteure Täuschung einsetzen werden, können auch in Regierungsliteratur aufgenommen werden. Die Broschüre der schwedischen Regierung, „“, beschreibt, wie ausländische Mächte in Konfliktzeiten Desinformation einsetzen können, und bietet Ratschläge zum Schutz vor diesen Bemühungen. Die finnische Regierung hat einen Leitfaden mit weiteren Informationen zu Einflussoperationen und Tools zum Analysieren von Fotos und Videos, die man in Krisenzeiten sieht.
Andere Länder sollten diesem Beispiel folgen. Der Notfallvorsorgeleitfaden des US-Verteidigungsministeriums enthält einige Hinweise zur Medienkompetenz, reicht aber nicht aus, um die Fälschungen zu beschreiben, die Gegner erstellen könnten.
Irreführende KI-generierte Inhalte nehmen eindeutig zu, und Satellitenbilder werden einen wachsenden Teil davon ausmachen. Es ist an der Zeit, dass mehr Menschen diese Art von Fehl- und Desinformation zur Kenntnis nehmen.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.