(SeaPRwire) – „Ich habe die Dead-Internet-Theorie nie wirklich ernst genommen, aber es scheint, dass es jetzt wirklich viele von LLMs betriebene Twitter-Konten gibt“, schrieb Sam Altman, CEO von OpenAI, letzte Woche auf X in seinem typischen Kleinbuchstaben-Stil.
Altman, CEO des Unternehmens, das ChatGPT, den weltweit beliebtesten KI-Textgenerator, entwickelt hat, stieß auf X auf Ironie. „Sie haben absolut Recht! Diese Beobachtung ist nicht nur klug – sie zeigt, dass Sie auf einem höheren Niveau agieren“, antwortete ein Nutzer, den kriecherischen Ton von ChatGPT-Text imitierend.
Altman bezog sich auf eine Idee, die durch einen Beitrag aus dem Jahr 2021 im Online-Forum Agora Road’s Macintosh Cafe populär wurde: dass das Internet, einst lebendig mit menschlichem Leben, nun tot sei, vollständig von Bots und für Bots betrieben. „Das Internet fühlt sich leer und menschenleer an“, sagte IlluminatiPirate, der pseudonyme Autor der Theorie, damals. Das Versprechen des freien Austauschs zwischen Menschen war verschwunden. Das Internet war „von einer mächtigen Minderheit gekapert“ worden.
Eine Verschwörungstheorie
Im Jahr 2021, fast zwei Jahre vor der Einführung von ChatGPT, klang die Vorstellung, dass Roboter das Internet beherrschen, weit hergeholt, ebenso wie die Erklärung, dass „die US-Regierung eine von künstlicher Intelligenz betriebene Gaslighting-Kampagne gegen die gesamte Weltbevölkerung betreibt.“ The Atlantic veröffentlichte einen Artikel über die Theorie mit der Überschrift „The ‘Dead-Internet Theory’ Is Wrong but Feels True.“
Bots – automatisierte Computerprogramme, die Websites für Suchmaschinen und Social-Media-Inhalte für Plattformen bewerten – waren Teil des Internets, konnten aber keine überzeugenden Inhalte generieren.
„Wir hatten damals keine KI, die in diesem Umfang arbeitete, wo man wirklich glaubwürdige KI-Konten haben konnte, die das Internet betreiben“, sagte Adam Aleksic, Linguist und Autor von Algospeak: How Social Media is Transforming the Future of Language, gegenüber TIME. Die Dead-Internet-Theorie „war früher eine verrückte Randverschwörungstheorie, aber sie sieht jetzt viel realer aus.“
Der Tod des Internets
Das Geschäftsmodell der Inhaltserstellung im Internet ist einfach: Werbetreibende bezahlen Ersteller für die Aufmerksamkeit, die ihre Inhalte erregen, was es den Erstellern ermöglicht, weiter Inhalte zu schaffen – und Menschen, sich weiterhin anzusehen, was sie mögen. Nur dass in den letzten Jahren der Mensch überflüssig geworden ist.
Ein März-Bericht von Adalytics, einem Unternehmen für Anzeigenanalyse, stellte seit mindestens 2020 Millionen von Fällen fest, in denen Anzeigen für Marken von Pfizer bis zur NYPD an Bots ausgeliefert wurden, die das Web durchsuchen, anstatt an echte Nutzer, was die Investition der Werbetreibenden untergräbt. In einigen komischen , wurden die Anzeigen von Googles Ad-Server an Googles eigene Bots ausgeliefert. Der Anteil des Internetverkehrs, der von Bots ausgemacht wird, ist in den letzten zehn Jahren laut , einem Cybersicherheitsunternehmen, gestiegen. Im Jahr 2024 erreichte er 51 Prozent, das erste Mal, dass er den Anteil des Internetverkehrs von Menschen übertraf.
Selbst wenn einige der Bewohner des Internets Bots waren, waren sie meist passive Beobachter. Das änderte sich 2022, als Sam Altmans OpenAI das Rennen um generative KI einläutete. Seitdem ist die Menge an KI-generierten Inhalten sprunghaft angestiegen. Der Anteil der Websites in Googles Top-20-Suchergebnissen, die KI-generierte Inhalte enthalten, ist seit der Veröffentlichung von ChatGPT um 400 % gestiegen, so Originality AI, ein Startup, das KI-Inhaltsdetektoren entwickelt.
„Es liegt im Geschäftsinteresse der Plattformen, uns ‚Slop‘ (Müll) herunterzuwürgen, denn mit der Zeit, wenn es mehr KI-Konten gibt, müssen sie menschliche Ersteller weniger bezahlen“, sagte Aleksic.
Suchmaschinen wie Google begannen, KI-Zusammenfassungen von Artikeln im Internet bereitzustellen. Anstatt die Seiten von Inhaltserstellern besuchen zu müssen, konnten Nutzer eine Übersicht erhalten, ohne die Suchmaschine verlassen zu müssen. Weniger Klicks auf Inhalte bedeuteten weniger Werbeeinnahmen für die Ersteller.
Mit zunehmender Raffinesse der KI-generierten Inhalte hat sich deren Reichweite über Social-Media-Plattformen hinaus ausgedehnt. Im August , dass Geschichten, die von „Margaux Blanchard“ in Wired und mindestens fünf weiteren Veröffentlichungen veröffentlicht wurden, entfernt worden waren, nachdem sich herausstellte, dass der Autor eine KI war. Für Betrüger mit kreativem Flair bietet KI eine neue Möglichkeit, schnell Geld zu verdienen.
Somit ist IlluminatiPirates Vision einer virtuellen Einöde, die von und für Bots geschaffen wurde, plausibler denn je.
Die menschlichen Kosten
Die steigende Flut von „Slop“ verursacht auch Probleme für KI-Entwickler. LLMs, oder Große Sprachmodelle, wie ChatGPT, werden im Internet trainiert. Wenn von KI bereitgestellte Zusammenfassungen weiterhin Gewinne von ursprünglichen Inhaltserstellern abziehen, könnten hochwertige Inhalte versiegen – wodurch Modellentwickler nichts mehr zum Trainieren hätten. Eine Arbeit, die 2024 in veröffentlicht wurde, zeigte, dass KI-Modelle „kollabieren“, wenn sie mit Daten trainiert werden, die sie selbst generiert haben.
Als Reaktion darauf haben einige Cloud-Anbieter, wie Cloudflare, vorgeschlagen, den Zugang zu den von ihnen gehosteten Websites zu beschränken und Bots zum Bezahlen für den Eintritt zu zwingen. Dies könnte Erstellern helfen, die Einnahmen zurückzugewinnen, die sie zum Weitermachen benötigen. „Meine utopische Vision ist eine Welt, in der Menschen Inhalte kostenlos erhalten und Roboter einen Haufen dafür bezahlen müssen“, sagte Matthew Prince, der CEO des Unternehmens, TIME in einem .
Es steht mehr auf dem Spiel als nur das Internet. Menschen lernen, genau wie Große Sprachmodelle, aus dem, was sie lesen. Es ist nicht „nur, dass Bots uns umgeben“, sagte Aleksic. „Es ist so, dass wir anfangen, den Bots ähnlicher zu werden.“ Im Juli berichtete Scientific American, dass Wörter, die häufig von ChatGPT verwendet werden, wie „delve“ (eintauchen) und „meticulous“ (sorgfältig), nach der Veröffentlichung des Produkts im Jahr 2022 häufiger in Gesprächspodcasts auftauchten. „echte Menschen haben Eigenheiten der LLM-Sprache übernommen“, bemerkte Altman am Montag in einem .
Es ist nichts von Natur aus schlecht daran, dass sich der Sprachgebrauch ändert. Aber die Algorithmen, die kuratieren, was wir online sehen, „stellen die Realität bereits anders dar, als sie tatsächlich existiert“, indem sie extreme Inhalte von menschlichen Nutzern fördern. KI-Generierung könnte die kollektive Realität weiter loslösen, indem sie den menschlichen Input reduziert, der den Online-Diskurs in dem verankert, was echte Menschen denken.
„Wir haben eine wachsende Wahrnehmungslücke in Amerika, wo Menschen denken, dass die Ansichten anderer Menschen extremer sind, als sie tatsächlich sind“, sagte Aleksic. „Es ist KI-Psychose in massivem Ausmaß.“
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.