
(SeaPRwire) – Im Jahr 2025 blühten Missverständnisse über KI auf, da die Menschen Schwierigkeiten hatten, die rasante Entwicklung und Einführung der Technologie zu verstehen. Hier sind drei beliebte, die im neuen Jahr hinter uns gelassen werden sollten.
KI-Modelle stoßen an eine Wand
Als GPT-5 im Mai veröffentlicht wurde, fragten sich die Leute (nicht zum ersten Mal), ob die KI an eine Wand stößt. Trotz des erheblichen Namensupgrades schien die Verbesserung inkrementell zu sein. The New Yorker veröffentlichte einen Artikel mit dem Titel „What if A.I. Doesn’t Get Much Better Than This?“, in dem behauptet wurde, GPT-5 sei „das neueste Produkt, das darauf hindeutet, dass die Fortschritte bei großen Sprachmodellen ins Stocken geraten sind“.
Es stellte sich bald heraus, dass GPT-5 trotz des Namensmeilensteins hauptsächlich eine Übung in der Leistung zu geringeren Kosten war. Fünf Monate später haben OpenAI, Google und Anthropic Modelle veröffentlicht, die erhebliche Fortschritte bei wirtschaftlich wertvollen Aufgaben zeigen. „Entgegen der weit verbreiteten Annahme, dass Skalierung vorbei ist“, war der Leistungssprung im neuesten Modell von Google „so groß wie nie zuvor“, sagte Oriol Vinyals, Leiter des Deep-Learning-Teams von Google DeepMind, nach der Veröffentlichung von Gemini 3. „Keine Wände in Sicht.“
Es gibt Grund zur Annahme, wie genau sich KI-Modelle verbessern werden. In Bereichen, in denen das Sammeln von Trainingsdaten teuer ist – zum Beispiel bei der Bereitstellung von KI-Agenten als persönliche Einkäufer – können die Fortschritte langsam sein. „Vielleicht wird KI immer besser UND vielleicht wird KI in wichtigen Bereichen immer noch schlecht sein“, sagte Helen Toner, Interims-Exekutivdirektorin am Center for Security and Emerging Technology. Aber die Idee, dass die Fortschritte ins Stocken geraten, ist schwer zu rechtfertigen.
Selbstfahrende Autos sind gefährlicher als menschliche Fahrer
Wenn die KI, die einen Chatbot antreibt, fehlerhaft ist, bedeutet das normalerweise, dass jemand einen Fehler in seiner E-Mail macht oder die Anzahl der „r“s in „Erdbeere“ falsch schreibt. Wenn die KI, die ein selbstfahrendes Auto antreibt, fehlerhaft ist, können Menschen sterben. Es ist kein Wunder, dass viele zögern, die neue Technologie auszuprobieren.
In Großbritannien fanden 2.000 Erwachsene heraus, dass nur 22 % sich wohl dabei fühlten, in einem fahrerlosen Auto zu reisen. In den USA lag dieser Anteil bei 13 %. Im Oktober fuhr ein Waymo in San Francisco eine Katze an, was Empörung auslöste.
Laut einer Analyse von Daten über 100 Millionen fahrerlose Meilen von Waymo haben autonome Autos jedoch viele Male bewiesen, dass sie sicherer sind als menschliche Fahrer. Waymos Autos waren in fast fünfmal weniger Unfälle verwickelt, die zu Verletzungen führten, und 11-mal weniger Unfälle, die zu „schweren Verletzungen oder schlimmerem“ führten als menschliche Fahrer.
KI kann kein neues Wissen schaffen
Im Jahr 2013 veröffentlichte Sébastien Bubeck, ein Mathematiker, eine Arbeit in einer angesehenen Fachzeitschrift über Graphentheorie. „Wir ließen ein paar offene Fragen offen, und dann habe ich mit Doktoranden in Princeton daran gearbeitet“, sagt Bubeck, der jetzt Forscher bei OpenAI ist. „Wir haben die meisten offenen Fragen gelöst, bis auf eine.“ Nach mehr als einem Jahrzehnt gab Bubeck das Problem an ein System weiter, das auf GPT-5 aufbaut.
„Wir ließen es zwei Tage lang nachdenken“, sagt er. „Es gab eine wundersame Identität darin, die das Modell gefunden hatte, und es löste tatsächlich das Problem.“
Kritiker haben argumentiert, dass große Sprachmodelle wie GPT-5 nichts Originelles hervorbringen können und nur Informationen wiedergeben, auf denen sie trainiert wurden – was LLMs den ironischen Spitznamen „Papageien“ einbrachte. Im Juni veröffentlichte Apple eine Arbeit, in der behauptet wurde, dass jede Schlussfolgerungsfähigkeit von LLMs eine „Illusion“ sei.
Sicherlich unterscheidet sich die Art und Weise, wie LLMs ihre Antworten generieren, von menschlichem Denken. Sie können einfache Diagramme interpretieren, auch wenn sie Goldmedaillen bei Top-Programmier- und Mathematikwettbewerben gewinnen und „autonom“ „neuartige mathematische Konstruktionen“ erstellen. Aber das Kämpfen mit einfachen Aufgaben hindert sie offenbar nicht daran, nützliche und komplexe Ideen zu entwickeln.
„LLMs können sicherlich logische Schritte ausführen, um Probleme zu lösen, die Deduktion und Induktion erfordern“, sagte Dan Hendrycks, Exekutivdirektor des Center for AI Safety, zu TIME. „Ob jemand diesen Prozess als „Denken“ oder etwas anderes bezeichnen möchte, ist zwischen ihm und seinem Wörterbuch.“
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.