Ein Bericht, der diese Woche von der Wettbewerbs- und Marktaufsichtsbehörde (CMA) des Vereinigten Königreichs veröffentlicht wurde, hat Bedenken hinsichtlich der potenziellen Möglichkeiten geäußert, wie die Künstliche-Intelligenz-Branche in Zukunft monopolisiert oder Verbraucher schädigen könnte, betonte jedoch, dass es noch zu früh sei, um zu sagen, ob diese Szenarien eintreten würden.
Die in dem Bericht aufgezeigten Probleme verdeutlichen die Schwierigkeiten, mit denen politische Entscheidungsträger bei der Regulierung von KI konfrontiert sind, einer Quelle sowohl eines enormen potenziellen kommerziellen Wertes als auch vieler Risiken. Der britische Premierminister Rishi Sunak drängt darauf, dass das Vereinigte Königreich eine zentrale Rolle in den internationalen KI-Politikdiskussionen spielt, wobei ein besonderer Schwerpunkt auf den Risiken durch fortgeschrittene KI-Systeme liegt. Wenn die britische Wettbewerbsaufsicht beschließt, Maßnahmen gegen KI-Entwickler zu ergreifen, könnten Tech-Unternehmen auf der ganzen Welt betroffen sein.
Regulierungsbedenken
Der am Montag veröffentlichte Bericht konzentriert sich auf Foundation-Modelle, die die CMA als “eine Art KI-Technologie definiert, die mit riesigen Datenmengen trainiert wird, die an eine Vielzahl von Aufgaben und Vorgängen angepasst werden können”. Beispiele sind textgenerierende KI-Modelle wie GPT-3.5, das Modell, das OpenAIs ChatGPT betreibt, sowie bildgenerierende KI-Modelle wie Stable Diffusion.
Das Papier äußert die Befürchtung, dass die zunehmenden Rechenleistungen und Datenmengen, die zur Schulung von KI-Modellen verwendet werden, Markteintrittsbarrieren schaffen und damit den Wettbewerb in diesem Sektor verringern könnten.
“Der Zugang zu Rechenleistung bestimmt bereits die Wettbewerbsdynamik dieses Marktes”, sagte Anton Korinek, Wirtschaftsprofessor an der University of Virginia, gegenüber TIME per E-Mail. “Der Bericht erkennt völlig zurecht, dass der Markt für Foundation-Modelle wettbewerbsfähig wäre, wenn eine große Anzahl von Modellen in Richtung der Grenzen der Fähigkeiten drängen würde; ein Markt, in dem nur wenige Modelle an der Grenze sind, ist selbst dann nicht wettbewerbsfähig, wenn Hunderte anderer Modelle hinter der Grenze liegen.”
Die CMA sagt in dem Papier auch, dass mächtige Modelle wie Metas Llama 2, wenn sie Open Source blieben, die Fähigkeit anderer KI-Entwickler einschränken würden, Marktmacht zu missbrauchen, und Verbraucher schützen könnten. Der Bericht räumte ein, dass es einen Interessenkonflikt zwischen der Gewährleistung der öffentlichen Sicherheit und der Förderung des Wettbewerbs geben könnte, denn wenn leistungsstarke KI-Modelle allgemein verfügbar sind, könnten sie missbraucht werden, um Schaden anzurichten.
Die Unternehmen, die Foundation-Modelle entwickeln, müssen zur Rechenschaft gezogen werden, um sicherzustellen, dass Verbraucher geschützt sind, heißt es in dem Bericht.
Die Federal Trade Commission (FTC), die US-amerikanische Wettbewerbs- und Verbraucherschutzbehörde, ist bereits im Bereich Verbraucherschutz tätig geworden. Im Juli eröffnete die FTC eine Untersuchung gegen OpenAI, ob ChatGPT, der KI-betriebene Chatbot, Verbraucher durch seine Datenerfassung und Veröffentlichung falscher Informationen geschädigt hat.
Die FTC unter der Leitung von Lina Khan hat eine konfrontative Haltung zur KI-Regulierung eingenommen. In einem Blog-Beitrag, der im Juni veröffentlicht wurde, hob die FTC potenzielle wettbewerbsrechtliche Bedenken hervor, die durch generative KI – Systeme, die Inhalte erstellen, anstatt bestehende Daten zu analysieren – aufgeworfen werden. (Foundation-Modelle führen oft generative Aufgaben aus, aber nicht alle Foundation-Modelle sind generativ, und nicht alle generativen Systeme sind Foundation-Modelle).
Der Blog-Beitrag griff viele der gleichen Themen auf, die der CMA-Bericht untersucht. So äußerte der Beitrag beispielsweise Bedenken hinsichtlich der Marktmacht von Cloud-Computing-Anbietern. Korinek stellte fest, dass die Wettbewerbsregulierungsbehörden offenbar größere Anstrengungen unternehmen, um zu verhindern, dass Unternehmen Regulierungen umgehen.
Der AI Act der Europäischen Union, der sich derzeit im Regelungsprozess des Blocks befindet, sieht Transparenzanforderungen und Risikobewertungen für Foundation-Modelle vor. Die Unternehmen hinter den Foundation-Modellen, wie OpenAI, Google und Microsoft, müssten erklären, ob urheberrechtlich geschütztes Material zur Schulung ihrer KIs verwendet wurde.
Vorsichtige nächste Schritte
Die Zuständigkeit der CMA als Wettbewerbsregulierungsbehörde erstreckt sich über das Vereinigte Königreich hinaus, wie gezeigt wurde, als sie den Versuch des Tech-Giganten Microsoft blockierte, den Videospielehersteller Activision Blizzard für 69 Milliarden US-Dollar zu übernehmen.
Die Aufsichtsbehörde wies in ihrem Grundlagenmodellpapier darauf hin, dass sie “wachsam gegenüber wettbewerbsrechtlichen Bedenken sein wird, die in Märkten auftreten, in denen [Foundation-Modelle] eine Rolle spielen, und nicht zögern wird, ihre Befugnisse gegebenenfalls einzusetzen.”
Der Bericht besagt jedoch auch, dass die nächsten Schritte ein “umfangreiches Programm zur Einbindung” von Interessengruppen sind, das Anfang 2024 in der Veröffentlichung einer Aktualisierung gipfelt, was auf einen vorsichtigen Ansatz hindeutet.
In einem Tweet sagte Cristina Caffara, Expertin bei der Wirtschaftsberatung Keystone Strategy, dass die CMA übermäßig vorsichtig sei und dass die Marktstruktur so beschaffen sei, dass Anbieter von Foundation-Modellen ihre Marktmacht missbrauchen könnten. Wettbewerbsregulierungsbehörden hätten den gleichen Fehler im Fall digitaler Plattformen gemacht, fügte sie hinzu.
“Wir erkennen, dass sich der Markt für Foundation-Modelle rasch entwickelt, und sind uns der Risiken voll bewusst”, hieß es in einer E-Mail-Erklärung eines CMA-Sprechers. “Deshalb haben wir diese vorgeschlagenen Grundsätze jetzt dargelegt, damit sie dabei helfen können, den Markt in Richtung positiverer Ergebnisse zu lenken und das Potenzial dieser Technologien zu maximieren.”
“Durch die Zusammenarbeit mit Interessengruppen ist es unser Ziel, diese Grundsätze so zu entwickeln, dass ein wirksamer Wettbewerb und Verbraucherschutz gewährleistet sind.”