Deutsche Nachrichtenveranstaltungen finden statt

Wie Kaliforniens neues KI-Gesetz Whistleblower schützt

Gouverneur Newsom kooperiert mit den weltweit führenden Technologieunternehmen, um die Kalifornier auf die KI-Zukunft vorzubereiten

(SeaPRwire) –   Die CEOs der Unternehmen, die sich im Wettlauf um intelligentere KI befinden – Google DeepMind, OpenAI, xAI und Anthropic – haben die Risiken klar benannt. Jeder von ihnen hat zuweilen gewarnt, dass leistungsstarke KI eine Katastrophe für die Menschheit bedeuten könnte. Doch in einer Branche, die von Geschäftsgeheimnissen und Vertraulichkeitsvereinbarungen umhüllt ist, standen potenzielle Whistleblower vor einer schwierigen Wahl: schweigen oder sich melden und die möglichen rechtlichen Konsequenzen tragen.

Ein wegweisendes kalifornisches Gesetz zielt darauf ab, diese Wahl zu erleichtern. Der Transparency in Frontier Artificial Intelligence Act (SB 53), der am 29. September von Gouverneur Gavin Newsom unterzeichnet wurde, bietet den rechtlichen Schutz, den Insider lange gefordert haben, und schützt diejenigen, die Missstände aufdecken, vor Vergeltungsmaßnahmen ihrer Arbeitgeber.

Das Gesetz gilt für jedes Unternehmen, das in Kalifornien tätig ist und massive Mengen an Rechenleistung für das Modelltraining verwendet – eine Schwelle, die darauf ausgelegt ist, nur modernste Entwickler zu regulieren und kleinere Firmen auszunehmen. Es kombiniert diese neuen Whistleblower-Schutzmaßnahmen mit Transparenzanforderungen, die Entwickler verpflichten, Risikominderungspläne zu veröffentlichen und Sicherheitsprüfergebnisse zu teilen, womit Versprechen kodifiziert werden, die Kritiker für … Unternehmen müssen auch „kritische Sicherheitsvorfälle“ dem California Office of Emergency Services (OES) melden.

Warum Whistleblower Schutz gefordert haben

Während der „Godfather of AI“ Geoffrey Hinton 2023 von Google zurücktrat, um über die existenziellen Risiken der Technologie, kamen Rufe nach Whistleblower-Schutz erst im Mai 2024 auf, als Vox OpenAI’s Verwendung von „extrem restriktiven Offboarding-Vereinbarungen“ zur Unterdrückung von Kritik. Mitarbeiter von OpenAI erhielten einen Großteil ihrer Vergütung in Form von Unternehmensanteilen, wie es im Silicon Valley üblich ist. Doch beim Verlassen des Unternehmens mussten sie, um ihre unverfallbaren Anteile zu behalten, Berichten zufolge eine Vereinbarung unterzeichnen, die Bestimmungen enthielt, die ihnen auf ewig untersagten, ihren ehemaligen Arbeitgeber zu kritisieren, und die sie daran hinderte, die Existenz der Vereinbarung zu erwähnen. Dies kam ans Licht, nachdem ein ehemaliger Mitarbeiter, Daniel Kokotajlo, in einem Online-Forum über seine Weigerung zu unterschreiben postete – in dem Glauben, er habe dadurch Millionen von Dollar an unverfallbaren Anteilen verloren.

Am folgenden Tag OpenAI-CEO Sam Altman, um jegliche Kenntnis dieser Bestimmungen zu bestreiten, und erklärte: „Das geht auf mich und ist eines der wenigen Male, dass ich mich beim Führen von OpenAI wirklich geschämt habe; ich wusste nicht, dass dies geschah, und ich hätte es wissen sollen.“ OpenAI bestätigte daraufhin in Nachrichten an aktuelle und ehemalige Mitarbeiter, dass diese Bestimmungen nicht mehr durchgesetzt würden und dass die betreffende Formulierung aus allen zukünftigen Austrittspapieren entfernt werde. Doch die Glaubwürdigkeit von Altmans Dementi wurde in Frage gestellt, als am 22. Mai, erschien seine Unterschrift – sowie die Unterschriften anderer hochrangiger Führungskräfte – auf Dokumenten, die die Bestimmungen explizit autorisierten. Im Juni 2024, im Zuge der Kontroverse um die damals zurückgenommenen Offboarding-Vereinbarungen von OpenAI, Kokotajlo und 13 aktuelle und ehemalige Mitarbeiter von OpenAI und Google DeepMind für stärkere Whistleblower-Schutzmaßnahmen in einem offenen Brief.

Was das neue Gesetz schützt

Einer wichtigen Empfehlung des offenen Briefes folgend, geht Kaliforniens neues Gesetz über gewöhnliche Whistleblower-Schutzmaßnahmen hinaus, die nur illegale Aktivitäten abdecken. Es verbietet KI-Entwicklern, Regeln aufzuerlegen, die Mitarbeiter, die für die Risikobewertung zuständig sind, daran hindern, Verstöße gegen das Gesetz oder „katastrophale Risiken“ – definiert als die Gefährdung von 50 Menschenleben oder die Verursachung von Schäden in Höhe von 1 Milliarde Dollar – dem Generalstaatsanwalt, Regulierungsbehörden oder ihren Managern zu melden. Mitarbeiter müssen sich eines katastrophalen Risikos nicht sicher sein, sondern lediglich „begründeten Anlass“ haben, daran zu glauben, um von der neuen Gesetzgebung abgedeckt zu werden.

Kaliforniens Whistleblower-Schutzmaßnahmen reichen nur bis zu einem gewissen Grad

Die neuen Schutzmaßnahmen seien „ein wichtiger Schritt nach vorn“, sagt Jacob Hilton, ein ehemaliger OpenAI-Forscher und einer der Unterzeichner des offenen Briefes. Dennoch würde er gerne sehen, dass Schutzmaßnahmen auf Bundesebene verabschiedet werden, und verweist auf den parteiübergreifenden „AI Whistleblower Protection Act“, der im Mai im Kongress eingebracht wurde. Hilton merkt an, dass die Schwelle für „katastrophale Risiken“ bedeutet, dass kleinere, aber immer noch ernsthafte Schäden nicht abgedeckt wären. Ein weiterer Unterzeichner des offenen Briefes, der anonym bleiben wollte, sagte TIME, dass die Adressierung katastrophaler Risiken zwar entscheidend sei, es aber „andere Risikobereiche geben könnte, in denen wir andere Schutzmaßnahmen wünschen würden.“ 

Über bloße Offenlegungen illegaler Aktivitäten hinauszugehen, sei eine entscheidende Bestimmung, sagt Lawrence Lessig, Jura-Professor in Harvard, der Kokotajlo und anderen Unterzeichnern des Briefes unentgeltlich Rechtsberatung zukommen ließ. Allerdings befürchtet Lessig, dass die Unsicherheit darüber, was geschützt ist, Mitarbeiter davon abhalten könnte, sich zu melden. Er sagt, er hätte es vorgezogen, den Standard auf „Treu und Glauben“ zu senken, was sich auf die aufrichtige Überzeugung eines Mitarbeiters konzentriert, anstatt auf die Stärke seiner Beweise. Wie Lessig es ausdrückt, wäre dies ein „viel einfacherer Standard, auf den sich ein Techie verlassen könnte“, als sie zu zwingen, als Anwalt oder Risikoanalyst aufzutreten. Im Rahmen der neuen Gesetzgebung ist der niedrigere Standard des „Treu und Glaubens“ ausschließlich für einen internen, anonymen Meldekanal innerhalb großer KI-Unternehmen reserviert.

Lessig sagt, die Risiken, die frühere Whistleblower eingegangen sind, unterstreichen die Notwendigkeit solcher Schutzmaßnahmen. „Wenn man Leute intern hat, die bereit sind, 2 Millionen Dollar für die einfache Redefreiheit aufzugeben, sollten wir sehr daran interessiert sein zu verstehen, was sie zu sagen haben“, sagt er.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.