share
Home> China

Chinesische Wissenschaftler bestätigen: KI kann spontan menschenähnliche Kognition entwickeln

german.china.org.cn  |  
11.06.2025

Kann künstliche Intelligenz (KI) Objekte ähnlich wie Menschen erkennen und verstehen? Chinesische Forschungsteams haben durch Verhaltensexperimente und neuroimaging-Analysen erstmals nachgewiesen, dass multimodale große Sprachmodelle (LLM: Large Language Models) auf KI-Basis spontan ein Objektkonzept-Repräsentationssystem entwickeln können, das dem des Menschen stark ähnelt. Vereinfacht gesagt: KI könne eigenständig eine menschenähnliche Kognitionsebene erreichen, so die Wissenschaftler.

Laut der Studie tragen die Erkenntnisse zum Verständnis maschineller Intelligenz bei und könnten die Entwicklung menschenähnlicherer kognitiver Systeme vorantreiben.

Menschen können Objekte der natürlichen Welt konzeptualisieren – eine Fähigkeit, die lange als Kern menschlicher Intelligenz galt. „Wenn Menschen einen ‚Hund‘, ein ‚Auto‘ oder einen ‚Apfel‘ sehen, erkennen sie nicht nur physische Merkmale (Größe, Farbe, Form usw.), sondern verstehen auch deren Funktion, emotionalen Wert und kulturelle Bedeutung“, erklärte Du Changde vom Institut für Automatisierung der Chinesischen Akademie der Wissenschaften (CAS), Erstautor der Studie. Solche multidimensionalen Konzeptrepräsentationen bildeten die Grundlage menschlicher Kognition.

Mit der rasanten Entwicklung von LLM wie ChatGPT stellte sich die Frage, ob solche Modelle aus Sprach- und Multimodaldaten Objektkonzepte ähnlich dem Menschen entwickeln können – ein Thema, das großes Interesse weckt.

He Huiguang, Hauptautor der Studie und Forscher am CAS-Institut, betonte, traditionelle KI-Forschung habe sich auf Erkennungsgenauigkeit fokussiert, jedoch selten untersucht, ob Modelle Objekte wirklich „verstehen“. „Aktuelle KI kann Hunde- und Katzenbilder unterscheiden, doch der Unterschied zwischen diesem ‚Erkennen‘ und dem menschlichen‚Verstehen‘ blieb unklar“, hieß es in einer CAS-Mitteilung vom Dienstag.

Das chinesische Team kombinierte Verhaltensstudien und neuroimaging-Analysen, um die Übereinstimmung zwischen LLM- und menschlichen Objektkonzepten zu prüfen. Sie sammelten 4,7 Millionen Triple-Urteile von LLM und multimodalen LLM, um niedrigdimensionale Einbettungen für 1.854 natürliche Objekte abzuleiten.

Die daraus gewonnenen 66-dimensionalen Einbettungen erwiesen sich als stabil und prädiktiv, wobei sie eine semantische Clusterbildung zeigten, die menschlichen Gedankenrepräsentationen ähnelt.

Bemerkenswerterweise waren die zugrunde liegenden Dimensionen interpretierbar, was darauf hindeutet, dass LLMs und multimodale LLMs menschenähnliche konzeptuelle Objektrepräsentationen entwickeln.

Der Vergleich zeigte, dass LLM in behavioralen (Verhalten) Mustern konsistenter mit menschlicher Kognition abschnitten. Menschen nutzten dabei visuelle und semantische Informationen, während LLM stärker auf abstrakte Konzepte zurückgriffen.

Laut He markiert die Studie den Sprung vom „maschinellen Erkennen“ zum „maschinellen Verstehen“. Die Ergebnisse belegten, dass LLM keine „stochastischen Papageien“ seien, sondern – ähnlich wie Menschen – ein internes Verständnis realer Konzepte entwickelten. Entscheidend sei, dass die „mentale Dimension“ trotz unterschiedlicher Wege zu ähnlicher Kognition gelange.


Diesen Artikel DruckenMerkenSendenFeedback

Quelle: german.china.org.cn

Schlagworte: KI,Kognition,Sprachmodelle,Verständnis