
(SeaPRwire) – In den letzten Jahren war künstliche Intelligenz das vielbeachtete Gesprächsthema. Jedes neue KI-Modell offenbart unglaubliche Innovationen, die die nur wenige Wochen zuvor veröffentlichte Version in den Schatten stellen. Experten, Entwickler und CEOs von KI-Unternehmen machen kühne Behauptungen über zukünftige Entwicklungen, von der von mühsamer Arbeit und der der menschlichen Langlebigkeit bis hin zur potenziellen für die Menschheit.
Wenn alle über KI sprechen, liegt das zum Teil daran, dass die Veröffentlichung dieser Innovationen exponentiell wachsende Einnahmen für die Unternehmen generiert hat, die diese Modelle entwickeln. Doch während KI schneller, leistungsfähiger und komplexer wird, könnte diese öffentliche Debatte schnell hinter verschlossene Türen verlagert werden. KI-Unternehmen setzen KI-Modelle zunehmend in ihren eigenen Organisationen ein, und es ist wahrscheinlich, dass sie es bald finden werden, ihre leistungsstärksten zukünftigen Modelle für den internen Gebrauch zu reservieren. Aber diese scheinbar harmlosen Entscheidungen könnten eine ernsthafte Bedrohung für die Gesellschaft insgesamt darstellen, wie unten ausgeführt wird.
Die meisten führenden KI-Unternehmen haben öffentlich ihre Absicht erklärt, KI-Modelle zu entwickeln, die in allen kognitiven Aufgaben so kompetent sind wie Menschen, was Billionen von Dollar an wirtschaftlichem Wert generieren könnte. Angesichts des derzeit gängigen Glaubens an einen hin zur allgemeinen künstlichen Intelligenz (AGI), könnte der potenzielle strategische Vorteil hoch entwickelter Modelle Unternehmen bald dazu veranlassen, ihre Modelle vertraulich und intern zu nutzen, um den technischen Fortschritt zu beschleunigen – jedoch ohne Wettbewerbern und der breiteren Außenwelt viel über den Fortschritt mitzuteilen.
Aktuelle KI-Systeme verhalten sich bereits häufig in experimentell simulierten Kontexten unerwartet, unbeabsichtigt und unerwünscht, zum Beispiel indem sie drohen, Nutzer zu , oder . Sollten führende Entwickler jedoch ihre Karten näher bei sich behalten, hätte die Gesellschaft kein Fenster mehr, nicht einmal ein schmales, um öffentlich über die Vor- und Nachteile, die Risiko- und Sicherheitsprofile und die Entwicklung dieser grundlegenden Technologie zu erfahren und diese zu bewerten. Sobald fortschrittliche zukünftige KI-Systeme hinter verschlossenen Türen eingesetzt und genutzt werden, und vielleicht ausschließlich, könnten ungesehene Gefahren für die Gesellschaft ohne Aufsicht oder Warnschüsse entstehen und sich entwickeln – das ist eine Bedrohung, die wir verhindern können und müssen.
Führende Labore nutzen bereits zunehmend KI-Systeme, um ihre eigenen Forschungs- und Entwicklungspipelines (F&E) zu beschleunigen, indem sie neue Algorithmen entwerfen, völlig neue Architekturen vorschlagen oder Code optimieren. Google, zum Beispiel, , dass 50% ihres Codes jetzt von KI geschrieben wurde. Wie in hervorgehoben, könnten fortschrittliche KI-Systeme schließlich dazu verwendet werden, ihre eigenen Nachfolger iterativ zu verbessern, wodurch möglicherweise eine mächtige „“ von immer leistungsfähigeren Modellen entsteht. Dieses Ergebnis wäre eine großartige Nachricht für KI-Unternehmen, die darauf abzielen, schnell die allgemeine künstliche Intelligenz oder sogar zu erreichen, um Wettbewerber zu übertreffen – aber nur, wenn sie ihren strategischen Vorteil vor neugierigen Blicken nutzen.
Auf den ersten Blick mag all dies harmlos klingen: Welche Bedrohung könnte ein unveröffentlichtes KI-System darstellen?
Das Problem ist zweifach: Erstens, da fortschrittliche KI-Systeme intern immer nützlicher werden, um bessere KI zu entwickeln, könnte ein starker Wettbewerbs- und Wirtschaftsreiz bestehen, sogar mehr als heute, Geschwindigkeit und Wettbewerbsvorteil über Vorsicht zu priorisieren. Diese Renn-Dynamik birgt Risiken, insbesondere wenn zunehmend fortschrittliche KI-Systeme von Unternehmensmitarbeitern genutzt und in sicherheitskritischen Bereichen wie der KI-F&E eingesetzt werden, möglicherweise autonom, um Reibungsverluste zu reduzieren und potenzielle Fehlerquellen einzubauen, bevor jemand das Verhalten der KI-Systeme vollständig verstehen kann.
Zweitens konzentrieren sich bestehende Bewertungen und Interventionen überwiegend auf öffentlich verfügbare KI-Systeme. Für intern eingesetzte KI-Systeme sind sehr wenige, wenn überhaupt, Informationen darüber verfügbar, wer privilegierten Zugang zu ihnen hat oder wofür sie verwendet werden. Genauer gesagt, gibt es kaum Informationen über ihre Fähigkeiten, ob sie sich unerwünscht verhalten; ob sie unter angemessener Kontrolle mit Aufsichtsmechanismen und Schutzvorkehrungen stehen; ob sie von denen, die Zugang zu ihnen haben, missbraucht werden können oder über ihre gesamten Risikoprofile. Es gibt auch nicht genügend besonnene und detaillierte Anforderungen, um sicherzustellen, dass diese KI-Systeme rigoros getestet werden und keine kaskadierende Bedrohung für die Gesellschaft darstellen, bevor sie eingesetzt werden.
Wenn wir Technologieunternehmen nicht dazu verpflichten, detaillierte Informationen darüber bereitzustellen, wie sie neue KI-Modelle testen, kontrollieren und intern nutzen, können Regierungen sich nicht auf KI-Systeme vorbereiten, die schließlich Fähigkeiten auf Nation-State-Niveau haben könnten. In der Zwischenzeit könnten sich Bedrohungen, die sich hinter verschlossenen Türen entwickeln, ohne vorherige Warnung oder Interventionsmöglichkeit in die Gesellschaft ausbreiten. Sicherlich können wir schon heute den aktuellen KI-Systemen nicht vertrauen, dass sie sich zuverlässig wie beabsichtigt verhalten, egal ob sie extern oder intern eingesetzt werden. Wir haben jedoch noch Zeit zu handeln.
Es gibt unkomplizierte Maßnahmen, die heute ergriffen werden können. Der Geltungsbereich der freiwilligen Sicherheitspolitiken von KI-Unternehmen für Frontier-KI sollte explizit erweitert werden, um den internen Einsatz und die Nutzung mit hohem Risiko, wie z.B. zur Beschleunigung der KI-F&E, abzudecken. Im Rahmen dessen sollte der interne Einsatz mit der gleichen Sorgfalt behandelt werden wie der externe Einsatz, und rigorose Bewertungen und Evaluierungen zur Identifizierung gefährlicher Fähigkeiten, die Erstellung klarer Risikoprofile und erforderliche Kontroll- oder Schutzmechanismen vor der Nutzung sollten gefördert werden .
Regierungsbehörden, die für die nationale Bereitschaft zuständig sind, sollten proaktiven Einblick in den internen Einsatz und die Nutzung hoch entwickelter KI-Systeme haben und alle relevanten national sicherheitskritischen Informationen erhalten. Dies könnte beispielsweise Informationen darüber umfassen, wer Zugang zu diesen KI-Systemen hat und unter welchen Bedingungen, wofür diese KI-Systeme verwendet werden, welche Aufsicht auf sie angewendet wird und was passieren könnte, wenn diese Aufsicht versagt, um sicherzustellen, dass wirtschaftliche und geistige Eigentumsinteressen mit legitimen nationalen Sicherheitsinteressen in Einklang gebracht werden.
KI-Unternehmen und Regierungen sollten gemeinsam die Führung bei der Einführung dieser unkomplizierten Best Practices übernehmen, um vertrauenswürdige Innovationen und den Schutz der Öffentlichkeit zu gewährleisten.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.