Deutsche Nachrichtenveranstaltungen finden statt

OpenAI Sora unterstreicht die wachsende Bedrohung durch Deepfakes

Sora by OpenAI ranks first on App Store free app chart

(SeaPRwire) –   Als OpenAI im September seine KI-Videoerstellungs-App Sora veröffentlichte, es, dass „Sie die Kontrolle über Ihr Abbild haben – von Anfang bis Ende.“ Die App ermöglicht es Benutzern, sich selbst und ihre Freunde über eine Funktion namens „Cameos“ in Videos einzubeziehen – die App scannt das Gesicht eines Benutzers und führt einen Liveness-Check durch, um Daten zu liefern, mit denen ein Video des Benutzers generiert und dessen Zustimmung für die Nutzung seines Abbilds durch Freunde in der App authentifiziert wird.

Aber Reality Defender, ein auf die Identifizierung von Deepfakes spezialisiertes Unternehmen, sagt, es sei ihm gelungen, die Schutzmaßnahmen von Sora gegen Identitätsdiebstahl innerhalb von 24 Stunden zu . Plattformen wie Sora vermitteln ein „plausibles Gefühl der Sicherheit“, sagt Ben Colman, CEO von Reality Defender, obwohl „jeder handelsübliche Tools verwenden kann“, um die Authentifizierung als jemand anderes zu bestehen.

Die Forscher von Reality Defender verwendeten öffentlich zugängliches Material von bekannten Persönlichkeiten, darunter CEOs und Entertainer, aus Gewinnmitteilungen und Medieninterviews. Das Unternehmen schaffte es, die Schutzmaßnahmen mit jedem Abbild zu durchbrechen, das sie zu imitieren versuchten. Colman argumentiert, dass „jeder kluge Zehntklässler“ die von seinem Unternehmen verwendeten Tools herausfinden könnte.

Ein Sprecher von OpenAI sagte in einer E-Mail-Erklärung an TIME, dass „die Forscher ein ausgeklügeltes Deepfake-System von CEOs und Entertainern entwickelten, um diese Schutzmaßnahmen zu umgehen, und wir Sora ständig stärken, um es widerstandsfähiger gegen diese Art von Missbrauch zu machen.“ 

Die Veröffentlichung von Sora und die schnelle Umgehung ihrer Authentifizierungsmechanismen ist eine Erinnerung daran, dass die Gesellschaft auf die nächste Welle immer realistischerer, personalisierter Deepfakes unvorbereitet ist. Die Lücke zwischen der fortschreitenden Technologie und der verzögerten Regulierung überlässt es den Einzelnen, sich in einer unsicheren Informationslandschaft zurechtzufinden – und sich vor möglichem Betrug und Belästigung zu schützen.

„Plattformen wissen absolut, dass dies geschieht, und wissen absolut, dass sie es lösen könnten, wenn sie wollten. Aber bis die Vorschriften aufholen – wir sehen dasselbe bei allen sozialen Medienplattformen – werden sie nichts tun“, sagt Colman.

Sora erreichte in weniger als fünf Tagen 1 Million Downloads – schneller als ChatGPT, das zu dieser Zeit die am schnellsten wachsende Verbraucher-App war – obwohl Benutzer eine Einladung benötigten, nach Angaben von Bill Peebles, dem Leiter von Sora bei OpenAI. Die Veröffentlichung von OpenAI folgte einem ähnlichen Angebot von Meta namens Vibes, das in die Meta AI App integriert ist.

Die zunehmende Zugänglichkeit überzeugender Deepfakes hat einige Beobachter alarmiert. „Die Wahrheit ist, dass das Erkennen von [Deepfakes] mit bloßem Auge nahezu unmöglich wird, angesichts der schnellen Fortschritte bei Text-zu-Bild-, Text-zu-Video- und Audio-Klonierungsfähigkeiten“, sagte Jennifer Ewbank, ehemalige stellvertretende Direktorin für digitale Innovation bei der CIA, in einer E-Mail an TIME.

Regulierungsbehörden beschäftigen sich seit mindestens 2019 mit der Frage, wie Deepfakes angegangen werden können, als Präsident Trump ein Gesetz , das den Director of National Intelligence verpflichtete, den Einsatz von Deepfakes durch ausländische Regierungen zu untersuchen. Da die Zugänglichkeit von Deepfakes jedoch zugenommen hat, hat sich der Fokus der Gesetzgebung näher an die Heimat verschoben. Im Mai 2025 wurde der Take It Down Act zu Bundesrecht, der die Online-Veröffentlichung von „intimen visuellen Darstellungen“ von Minderjährigen und nicht einwilligenden Erwachsenen verbietet und Plattformen verpflichtet, beleidigende Inhalte innerhalb von 48 Stunden nach einer Aufforderung zu entfernen – aber die Durchsetzung wird erst im Mai 2026 .

Gesetze, die Deepfakes verbieten, können schwierig sein. „Es ist technisch und rechtlich wirklich kompliziert, weil es First Amendment-Bedenken gibt, bestimmte Äußerungen zu entfernen“, sagt Jameson Spivack, stellvertretender Direktor für US-Politik beim Future of Privacy Forum. Im August hob ein Bundesrichter ein kalifornisches Deepfake-Gesetz auf, das darauf abzielte, KI-generierte Deepfake-Inhalte während Wahlen einzuschränken, nachdem Elon Musks X den Staat mit der Begründung , dass das Gesetz die First Amendment-Schutzrechte verletze. Infolgedessen sind Anforderungen zur Kennzeichnung von KI-generierten Inhalten häufiger als vollständige Verbote, sagt Spivack.

Ein weiterer vielversprechender Ansatz ist, dass Plattformen bessere Know-Your-Customer-Programme einführen, sagt Fred Heiding, ein Forschungsstipendiat am Defense, Emerging Technology, and Strategy Program der Harvard University. Know-Your-Customer-Programme erfordern, dass Benutzer von Plattformen wie Sora sich mit einer verifizierten Identifikation anmelden, was die Rechenschaftspflicht erhöht und es den Behörden ermöglicht, illegales Verhalten nachzuverfolgen. Aber auch hier gibt es Kompromisse. „Das Problem ist, dass wir im Westen Anonymität wirklich schätzen“, sagt Heiding. „Das ist gut, aber Anonymität hat ihren Preis, und dieser Preis ist, dass diese Dinge wirklich schwer durchzusetzen sind.“

Während Gesetzgeber mit der zunehmenden Verbreitung und dem Realismus von Deepfakes ringen, können Einzelpersonen und Organisationen Schritte unternehmen, um sich zu schützen. Spivack empfiehlt die Verwendung von Authentifizierungssoftware wie , entwickelt von der Coalition for Content Provenance and Authenticity, die Metadaten zur Herkunft an Bilder und Videos anhängt. Kameras von und unterstützen das Wasserzeichen, ebenso wie die . Die Verwendung einer solchen Authentifizierung erhöht das Vertrauen in echte Bilder und untergräbt Fälschungen.

Da sich die Online-Informationslandschaft verändert und es schwieriger wird, dem zu vertrauen, was wir online sehen und hören, müssen sowohl Gesetzgeber als auch Einzelpersonen die Widerstandsfähigkeit der Gesellschaft gegenüber gefälschten Medien aufbauen. „Je mehr wir diese Widerstandsfähigkeit kultivieren, desto schwieriger wird es für jeden, unsere Aufmerksamkeit zu monopolisieren und unser Vertrauen zu manipulieren“, sagt Ewbank.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.