Top-chinesische Forschungseinrichtungen, die mit der Volksbefreiungsarmee (PLA) verbunden sind, haben das öffentlich verfügbare Llama-Modell von Meta genutzt, um ein KI-Tool für potenzielle militärische Anwendungen zu entwickeln. Dies geht aus drei akademischen Arbeiten und Analysen hervor.
In einem im Juni veröffentlichten Papier beschrieben sechs chinesische Forscher von drei Institutionen, darunter zwei unter dem führenden Forschungsorgan der PLA, der Akademie für Militärwissenschaften (AMS), wie sie eine frühe Version von Metas Llama als Grundlage für das, was sie "ChatBIT" nennen, verwendet haben.
Die Forscher verwendeten ein früheres Llama 13B großes Sprachmodell (LLM) von Meta und integrierten ihre eigenen Parameter, um ein militärisch fokussiertes KI-Tool zu entwickeln, das Informationen sammeln und verarbeiten sowie genaue und zuverlässige Informationen für operative Entscheidungen bieten kann.
ChatBIT wurde optimiert für Dialog- und Frage-Antwort-Aufgaben im militärischen Bereich und übertraf einige andere KI-Modelle, die etwa 90 % so leistungsfähig wie OpenAIs leistungsstarkes ChatGPT-4 sind. Die Forscher gaben jedoch keine Einzelheiten an, wie sie die Leistung definierten oder ob das KI-Modell bereits im Einsatz ist.
"Es ist das erste Mal, dass es substanzielle Beweise dafür gibt, dass PLA-Militärspezialisten in China systematisch versuchen, die Macht von Open-Source-LLMs, insbesondere von Meta, für militärische Zwecke zu nutzen", sagte Sunny Cheung, Associate Fellow der Jamestown Foundation, die sich mit Chinas aufkommenden und dualen Technologien, einschließlich KI, beschäftigt.
Meta hat die offene Veröffentlichung vieler seiner KI-Modelle, einschließlich Llama, begrüßt. Es gibt jedoch Einschränkungen für deren Nutzung, einschließlich der Anforderung, dass Dienste mit mehr als 700 Millionen Nutzern eine Lizenz von dem Unternehmen einholen müssen. Die Bedingungen verbieten auch die Nutzung der Modelle für "militärische, kriegerische, nukleare Industrien oder Anwendungen, Spionage" und andere Aktivitäten, die den US-Verteidigungsexportkontrollen unterliegen, sowie für die Entwicklung von Waffen und Inhalten, die "Gewalt anstiften und fördern".
Allerdings hat Meta aufgrund der öffentlichen Verfügbarkeit seiner Modelle nur begrenzte Möglichkeiten, diese Bestimmungen durchzusetzen.
In einer Antwort auf Anfragen von Reuters verwies Meta auf seine akzeptable Nutzungsrichtlinie und erklärte, dass es Maßnahmen ergreife, um Missbrauch zu verhindern. "Jede Nutzung unserer Modelle durch die Volksbefreiungsarmee ist unautorisiert und widerspricht unserer akzeptablen Nutzungsrichtlinie", sagte Molly Montgomery, Direktorin für öffentliche Politik bei Meta, in einem Telefoninterview.
Die chinesischen Forscher umfassen Geng Guotong und Li Weiwei von der Militärwissenschaftlichen Informationsforschungszentrale der AMS sowie Forscher von der Beijing Institute of Technology und der Minzu University.
"In Zukunft wird ChatBIT nicht nur für die Analyse von Geheimdienstinformationen eingesetzt, sondern auch … strategische Planung, Simulationstraining und Entscheidungsfindung im Kommando werden erforscht", heißt es in dem Papier.
Die Forschungsarbeiten kommen zu einem Zeitpunkt, an dem in den nationalen Sicherheits- und Technologiekreisen der USA eine hitzige Debatte darüber geführt wird, ob Unternehmen wie Meta ihre Modelle öffentlich zugänglich machen sollten. Präsident Joe Biden unterzeichnete im Oktober 2023 eine Exekutive, um die Entwicklungen im Bereich KI zu steuern, und wies darauf hin, dass es zwar erhebliche Vorteile für Innovationen geben kann, aber auch "erhebliche Sicherheitsrisiken" bestehen, wie die Beseitigung von Sicherheitsvorkehrungen innerhalb des Modells.
In dieser Woche erklärte Washington, dass es dabei sei, Regeln zu finalisieren, um US-Investitionen in künstliche Intelligenz und andere Technologiesektoren in China zu beschränken, die die nationale Sicherheit gefährden könnten.
Der Pentagon-Sprecher John Supple erklärte, das Verteidigungsministerium erkenne an, dass Open-Source-Modelle sowohl Vorteile als auch Nachteile haben, und dass "wir weiterhin die Fähigkeiten unserer Wettbewerber genau beobachten und bewerten werden".
Einige Beobachter sagen, dass Chinas Fortschritte bei der Entwicklung einheimischer KI, einschließlich der Einrichtung zahlreicher Forschungsinstitute, es bereits schwierig gemacht haben, das Land daran zu hindern, die technologische Kluft zur Vereinigten Staaten zu verringern.
Ein separates akademisches Papier, das von zwei Forschern der Aviation Industry Corporation of China (AVIC) verfasst wurde, die von den USA als Unternehmen mit Verbindungen zur PLA eingestuft wurde, beschreibt die Nutzung von Llama 2 für "das Training von Strategien zur elektronischen Kriegsführung im Luftbereich".
Die Nutzung von westlich entwickelter KI hat auch in der inneren Sicherheit Chinas zugenommen. Ein Papier aus dem Juni beschrieb, wie Llama für "Intelligenzpolizei" verwendet wurde, um große Datenmengen zu verarbeiten und die Entscheidungsfindung der Polizei zu verbessern.
Die staatlich betriebene PLA Daily veröffentlichte im April einen Kommentar, in dem es hieß, dass KI dazu beitragen könnte, "die Forschung und Entwicklung von Waffen und Ausrüstungen zu beschleunigen, Kampfsimulationen zu entwickeln und die Effizienz des militärischen Trainings zu verbessern".
"Kann man sie (China) aus dem Keksbehälter heraushalten? Nein, ich sehe nicht, wie man das tun kann", sagte William Hannas, leitender Analyst am Georgetown University’s Center for Security and Emerging Technology (CSET), gegenüber Reuters. Eine 2023 veröffentlichte CSET-Studie fand 370 chinesische Institutionen, deren Forscher Arbeiten zu allgemeiner künstlicher Intelligenz veröffentlicht hatten, was Chinas nationale Strategie vorantreibt, bis 2030 weltweit führend in der KI zu sein.
"Es gibt zu viel Zusammenarbeit zwischen Chinas besten Wissenschaftlern und den besten KI-Wissenschaftlern der USA, als dass sie von Entwicklungen ausgeschlossen werden könnten", fügte Hannas hinzu.