Deutsche Nachrichtenveranstaltungen finden statt

Global Times: Jahresrückblick: Chinesische Forscher holen bei globalem KI-Fortschritt auf

20 2 Global Times: Yearender: Chinese researchers catch up with global AI momentum

(SeaPRwire) –   PEKING, 25. Dezember 2023 — Im Jahr 2023 gab es weltweit ein faszinierendes Aufholrennen, seit OpenAI Ende 2022 ChatGPT veröffentlichte. Für das kommende Jahr sagte Zhou Hongyi, Gründer und Vorsitzender von 360 Security Technology, dass er nach wie vor “ziemlich optimistisch” in Bezug auf die Gesamtentwicklung der Künstlichen Intelligenz (KI)-Industrie in China ist.

Die Geschwindigkeit der Entwicklung von Chinas großen Modellen ist bereits ein Wunder. Die Welt muss geduldig mit den großen Modellen Chinas sein. Die industrielle Revolution des Internets dauert nun schon mindestens 10 Jahre an, und der Wendepunkt der KI ist erst in den letzten ein bis zwei Jahren aufgetreten, sagte Zhou der Global Times.

Im März ging Baidu mit der Einführung seines ersten umfassenden Sprachmodells namens “Wenxin Yiyan” voran. Als nächstes stellte 360 Security Technology am 29. März seine KI-Strategie zusammen mit der Veröffentlichung von Zhinao oder “intelligentem Gehirn” vor.

Kurz darauf stellte Alibaba sein “Tongyi Qianwen” großes Modell am Alibaba Cloud Summit am 11. April vor. Am 6. Mai brachte iFlytek sein Xinghuo-Großmodell auf den Markt, wobei Vorsitzender Liu Qingfeng das Ziel äußerte, ChatGPT im Chinesischen bis zum 24. Oktober zu übertreffen und mit ChatGPT im Englischen gleichzuziehen. Darüber hinaus haben auch Unternehmen wie Huawei, JD.com, ByteDance, Sensetime und andere in rascher Folge ihre eigenen Großmodellprodukte auf den Markt gebracht.

Das Vertrauen in die KI-Branche Chinas im kommenden Jahr ist bei führenden chinesischen KI-Entwicklern und Branchenbeobachtern, wie die Global Times feststellte, zwar hoch, aber angesichts der Tatsache, dass auch Google mit der Veröffentlichung von Gemini am 13. Dezember in den Ring zurückgekehrt ist.

Zhou räumte ein, dass es immer noch eine Lücke zwischen dem chinesischen Modell und ChatGPT-4 gibt. Aber die Lücke verhindert China nicht daran, sein eigenes GPT aufzubauen.

Auch Xiao Yanghua, Computerwissenschaftsprofessor an der Fudan-Universität und Direktor des Shanghai Key Laboratory of Data Science, stimmte zu, dass “chinesische Unternehmen kluge Nachahmer sein sollten, die aktiv unsere eigene Wettbewerbsstrecke unter der Voraussetzung erforschen, dass wir nicht zurückbleiben.”

Zhou sagte der Global Times, dass China große Branchenvorteile besitzt, und der Schlüssel zur Entwicklung großer Modelle in China sei, die Dividenden verschiedener KI-generierter Szenarien zu nutzen.

China verfügt über die umfassendsten Industriekategorien der Welt mit vollständigen Liefer- und Wertschöpfungsketten. Die größten Chancen liegen in der Industrialisierung, Spezialisierung und Vertikalisierung der Technologie sowie in der Bewegung in Richtung tiefer Anpassung, so Zhou und forderte zur breiten Nutzung von GPT in Industrien, Sektoren und Organisationen auf, indem sie mit vertikalen KI-generierten Szenarien kombiniert werden.

Ein großes Modell, das alle Bedürfnisse verschiedener Industrien erfüllt, ist zu breit und unrealistisch. Die Großmodellprodukte Chinas können differenzierter sein, sagte Zhou. In einer Branche kann das große Modell verschiedene Aspekte, spezifische Links und Aufgaben bereitstellen. Zum Beispiel im Finanzsektor ist der Kundenservice ein relativ detaillierter Aspekt, und im Bereich intelligenter vernetzter Fahrzeuge könnten intelligente Kabinen, intelligente Navigation oder intelligente Unterhaltung sehr detaillierte Optionen sein.

“Viele unerschlossene blaue Ozeane gibt es dort”, sagte Xiao auch der Global Times und erwähnte verkörperte Großmodelle, medizinische Großmodelle, wissenschaftliche Großmodelle und andere spezifizierte Bereiche.

Aber Xiao warnte auch, dass ChatGPT einen “Flywheel-Effekt” gebildet hat, bei dem Iteration und Optimierung die Technologie in eine sich selbst verstärkende Phase schneller Entwicklung oder möglicherweise in eine Situation führen, in der in Zukunft nur noch ein oder zwei Modelle die dominierenden Spieler sein werden.

AI annehmen, später nachdenken?

Sollte sich die KI-Technologie mit Angst und Ehrfurcht schneller entwickeln oder langsamer? Oder sollten wir sie entwickeln und gleichzeitig regulieren?

Die von chinesischen Führern in diesem Jahr vorgeschlagene Global AI Governance Initiative tritt für einen menschenzentrierten Ansatz bei der Entwicklung von KI ein und fördert die Einrichtung eines Prüf- und Bewertungssystems auf der Grundlage von KI-Risikostufen, um KI-Technologien sicherer, zuverlässiger, kontrollierbarer und fairer zu machen.

Zhou schloss, dass die absehbaren Herausforderungen, die KI mit sich bringt, hauptsächlich technische Sicherheitsfragen im Bereich der Netzwerk- und Datensicherheit sowie Inhaltsicherheitsfragen betreffen, die durch die Fähigkeit großer Modelle verursacht werden, Inhalte zu “fabrizieren”.

Genauer gesagt besteht das Risiko, dass KI hauptsächlich als Werkzeug für Cyberangriffe, die Erzeugung irreführender Medien oder die Verbreitung falscher Informationen und beleidigender Sprache genutzt wird, warnten Branchenbeobachter.

Zhang Linghan von der China University of Political Science and Law und Mitglied des Hohen Beratungsgremiums der Vereinten Nationen für Künstliche Intelligenz sagte der Global Times, Chinas Haltung habe sich immer für eine aktive Förderung der KI-Technologieentwicklung bei gleichzeitiger Berücksichtigung der Sicherheit ausgesprochen.

Verschiedene Gesetze und Vorschriften wie das Datensicherheitsgesetz, Vorschriften zur Verwaltung von Internetinformationsdienst-Algorithmen und Tiefsynthese sowie vorläufige Maßnahmen zur Regulierung generativer KI-Dienste wurden auch eingeführt, um einen umfassenden KI-Regulierungsrahmen zu bilden, so Zhang.

Branchenbeobachter erwarten, dass mit dem beschleunigten Übergang der KI-Branche zu “multimodalen Modellen” weitere Risiken und Bedrohungen auftreten werden.

Um die Sicherheitsprobleme großer Modelle anzugehen, “ist es notwendig, technologische Durchbrüche anzustreben und nicht allein auf die Selbstdisziplin großer Modellanbieter zu vertrauen”, sagte Zhou. Er führte dies darauf zurück, dass große Modelle ihre Überlegenheit gegenüber Menschen bereits deutlich gemacht haben und sie in naher Zukunft “Übermenschen” werden könnten.

“Wir müssen verhindern, dass es zu “unumkehrbaren” Folgen kommt”, betonte Zhou. Um dies zu erreichen, sollten Menschen vermeiden, die Kontrolle über das System von Anfang an an das große Modell abzugeben. Stattdessen sollten Entscheidungen vorrangig in menschliche Entscheidungsschleifen einbezogen und sichergestellt werden, dass wichtige Entscheidungen von Menschen getroffen werden.

Er führte weiter aus, dass Sicherheitsmaßnahmen in der Agentenarchitektur umgesetzt werden können, um Sicherheits- und Steuerbarkeitsprobleme anzusprechen, die sich aus der Nutzung verschiedener Kenntnisse, Fähigkeiten und Werkzeuge durch große Modelle ergeben können.

Wird KI bewusst?

In diesem Jahr warf Elon Musk der Welt mit der Aussage, dass Künstliche Intelligenz “eine der größten Bedrohungen für die Menschheit” sei, eine Bombe vor. Hervorragende Persönlichkeiten aus dem Sektor, darunter Vertreter von OpenAI, Google DeepMind und Anthropic, haben sich zusammengeschlossen, um vor dem Potenzial von KI zur Auslöschung der Menschheit zu warnen.

In Bezug auf die ultimative Herausforderung durch große Modelle glaubt Zhou, dass KI noch nicht auf dieser Stufe angekommen ist. ChatGPT-5 werde nicht über Nacht erscheinen, und auch ChatGPT brauche “Hände und Füße”, um mit der realen Welt zu verbinden, um eine reale Bedrohung darzustellen. Es sei also zu früh, sich jetzt Sorgen zu machen.

Xiao brachte jedoch ein praktischeres aufkommendes Problem ins Spiel, nämlich die Sucht, KI im täglichen Arbeitsleben zu nutzen, indem man einfach die Maschine das Denken übernehmen lässt.

“Eine übermäßige Abhängigkeit von KI für das Denken könnte potenziell zu einem Abbau der menschlichen Intelligenz führen, da die menschliche Intelligenz tief in unserer evolutionsbedingten Natur verwoben ist”, sagte er.

“In der Geschichte hat sich keine Technologie so schnell entwickelt wie KI. Wenn traditionelle Technologie ein Gewehr ist, ist KI eine Wasserstoffbombe – völlig anders im Maßstab”, sagte Xiao.

Er sagte aber, dass Aktivitätsschutzzonen des Menschen festgelegt werden können, in die KI nicht eingreifen darf, als Präventionsmaßnahme.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.