Deutsche Nachrichtenveranstaltungen finden statt

Das Mensch-KI-Ausrichtungsproblem

Human-AI Alignment

(SeaPRwire) –   Wir befinden uns jetzt tief in der KI-Ära, in der jede Woche eine weitere Funktion oder Aufgabe hinzukommt, die KI erfüllen kann. Doch angesichts dessen, wie weit wir bereits gekommen sind, ist es umso wichtiger, herauszuzoomen und größere Fragen zu stellen: Wohin steuern wir? Wie holen wir das Beste aus dieser Technologie heraus, während sie sich entwickelt? Und in der Tat, wie holen wir das Beste aus uns selbst heraus, während wir uns gemeinsam weiterentwickeln?

Einen aufschlussreichen Moment gab es kürzlich, als Sam Altman im Podcast von Tucker Carlson auftrat. Carlson drängte Altman auf die moralischen Grundlagen von ChatGPT. Er argumentierte, dass die Technologie eine Art grundlegende religiöse oder spirituelle Komponente besitze, da wir davon ausgingen, dass sie mächtiger als Menschen sei und wir sie um Führung baten. Altman erwiderte, für ihn sei daran nichts Spirituelles. „Wenn es also nichts weiter als eine Maschine und nur das Produkt ihrer Eingaben ist“, sagt Carlson, „dann sind die zwei offensichtlichen Fragen: Was sind die Eingaben? Was ist der moralische Rahmen, der in die Technologie eingebracht wurde?“

Altman verweist dann auf die „Modell-Spezifikation“ (model spec), die Anweisungen, die einem KI-Modell gegeben werden und dessen Verhalten steuern. Für ChatGPT, so sagt er, bedeute das, es auf die „kollektive Erfahrung, das Wissen, die Erkenntnisse der Menschheit“ zu trainieren. Aber, fügt er hinzu, „dann müssen wir es darauf ausrichten, sich auf die eine oder andere Weise zu verhalten.“

Und das führt uns natürlich zum berühmten Ausrichtungsproblem (alignment problem) – der Idee, dass wir, um uns gegen das existenzielle Risiko einer Übernahme durch die KI zu schützen, die KI an menschlichen Werten ausrichten müssen. Das Konzept geht eigentlich auf das Jahr 1960 und den KI-Pionier Norbert Wiener zurück, der das Ausrichtungsproblem so beschrieb: „Wenn wir zur Erreichung unserer Ziele eine mechanische Instanz nutzen, deren Betrieb wir nicht effizient beeinflussen können… sollten wir uns besser ganz sicher sein, dass der Zweck, der in die Maschine eingegeben wird, der Zweck ist, den wir wirklich wünschen.“

Tatsächlich gibt es aber ein größeres Ausrichtungsproblem, das viel weiter zurückreicht als 1960. Um KI an menschlichen Werten auszurichten, müssen wir selbst Klarheit über die universellen Werte haben, denen wir uns verschreiben. Was sind unsere Inputs? Was ist unsere Modellspezifikation? Worauf trainieren wir uns, um ein sinnvolles Leben führen zu können?

Dies sind die Fragen, die wir beantworten müssen, bevor wir entscheiden, welche Inputs wir von der KI nutzen lassen wollen. Selbst wenn wir die KI perfekt auf den aktuellen Stand der Menschheit ausrichten könnten, wäre das Ergebnis suboptimal. Jetzt ist es also an der Zeit, unsere Werte zu klären, bevor wir eine Technologie aufbauen, die sie verkörpern und widerspiegeln soll.

Denn im Moment erleben wir eine tiefe Fehlausrichtung. In unserer modernen Welt haben wir unsere Verbindung zu den spirituellen Grundlagen verloren, auf denen unsere Zivilisationen, sowohl die westlichen als auch die östlichen, aufgebaut wurden. Wir leben seit Jahrhunderten in ihrem Nachglühen, doch nun ist selbst das Nachglühen erloschen, und wir sind orientierungslos und ungebunden.

Dieses Fundament begann mit der Aufklärung und der Industriellen Revolution langsam zu bröckeln, doch es zog weiterhin aus diesen ewigen Wahrheiten. Wir hatten sie – und glaubten sie sogar – weniger als zuvor geäußert, aber wir ließen uns immer noch von ihnen leiten. Doch nun, da die Verbindung gekappt wurde, müssen wir sie zuerst ausgraben und uns wieder mit ihnen verbinden, um die KI so zu trainieren, dass sie sich an menschlichen Werten orientiert.

In seinem neuen Buch erforscht Paul Kingsnorth, wie jede Kultur auf einer heiligen Ordnung aufgebaut ist. „Dies muss natürlich keine christliche Ordnung sein“, schreibt er. „Es könnte islamisch, hinduistisch oder taoistisch sein.“ Die Aufklärung trennte uns von dieser heiligen Ordnung, aber, wie Kingsnorth es ausdrückt, „die Gesellschaft sah es nicht, weil die Monumente der alten heiligen Ordnung noch standen, wie römische Statuen nach dem Fall des Imperiums.“ Was wir sehen, ist der Preis, den Gesellschaften zahlen, wenn diese Ordnung zerfällt: „Umwälzungen auf jeder Ebene der Gesellschaft, von der Ebene der Politik bis hin zur Ebene der Seele.“

Ist das nicht genau das, was gerade passiert? „Es würde den seltsamen, angespannten, erschütternden und frustrierenden Zeitgeist erklären“, schreibt Kingsnorth.

In seinem Gespräch mit Carlson sprach Altman davon, dass KI auf der „kollektiven Erfahrung“ der Menschheit trainiert werde. Aber greifen wir selbst tatsächlich auf die volle kollektive Erfahrung des Menschseins zu?

Während wir eine transformative Technologie entwickeln, die alles in unserem Leben verändern wird, müssen wir sicherstellen, dass wir sie auf den fundamentalen und unveränderlichen Werten trainieren, die uns als Menschen definieren.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.