Vordenker
Menschliches Denken: Kann KI analogisches Denken entwickeln?

Wenn Menschen mit etwas Neuem konfrontiert werden, suchen sie instinktiv nach Vergleichen. Ein Kind, das etwas über Atome lernt, könnte hören, dass Elektronen den Atomkern umkreisen, „wie Planeten die Sonne“. Ein Unternehmer könnte sein Start-up so präsentieren: „Uber für die Tierpflege.“ Ein Wissenschaftler könnte einem Laienpublikum erklären, dass das Gehirn Informationen „wie ein Computer“ verarbeitet.
Dieser gedankliche Sprung – die Erkenntnis, wie etwas in seiner tieferen Struktur etwas anderem ähnelt – wird als analoges Denken bezeichnet. Und er könnte der entscheidende Faktor sein, trennt menschliche Intelligenz von KI in ihrer jetzigen Form. Wenn wir jemals eine allgemeine künstliche Intelligenz entwickeln wollen – die Der Heilige Gral der KI Das hat sich bisher als schwierig erwiesen – wir müssen herausfinden, ob Maschinen überhaupt analoges Denken lernen können. Es steht viel auf dem Spiel. Lautet die Antwort „Nein“, bleiben selbst die hochentwickeltsten KI-Systeme nichts weiter als einfache Taschenrechner. Sie werden nicht in der Lage sein, Probleme zu lösen, die mehr erfordern als eine einfache Neuordnung der Trainingsdaten.
Die Architektur des Verstehens
Analoges Denken funktioniert auf der Ebene struktureller, nicht oberflächlicher Ähnlichkeiten. Was verbindet beispielsweise Herzen und Wasserpumpen? Sicherlich nicht ihr Aussehen. Es ist die Tatsache, dass beide exakt dieselbe Funktion erfüllen: die Zirkulation von Flüssigkeit in einem System. Und genau diese Fähigkeit, in einem Kontext typische Beziehungen auf einen anderen zu übertragen, macht menschliches Lernen, Kreativität und Problemlösung so einzigartig.
An Beispielen aus der Praxis mangelt es nicht. Nehmen wir August Kekulé, den genialen deutschen Chemiker, der einen Hinweis auf die Struktur von Benzol in Form eines Er träumte, er sah eine Schlange, die sich in den Schwanz biss.Heute wenden Programmierer beim Strukturieren von Code Prinzipien der Küchenorganisation an, und Lehrer erklären elektrischen Strom, indem sie ihn mit Wasser vergleichen, das durch Rohre fließt.
Aktuelle KI-Systeme tun sich jedoch mit dieser gängigen kognitiven Fähigkeit sehr schwer. Auf Nachfrage erklären moderne große Sprachmodelle (LLMs) nur allzu gern, warum „Zeit Geld ist“ oder lösen verbale Denkaufgaben. mehr Beweise Dies deutet darauf hin, dass sie häufig komplexe Mustererkennung betreiben, anstatt echte Strukturabbildungen vorzunehmen. Wenn Forscher diesen Modellen neue analoge Probleme präsentieren, die von ihren Trainingsdaten abweichen, sinkt ihre Leistung oft drastisch. Das liegt daran, dass LLMs zwar hervorragend darin sind, ihnen bereits bekannte Analogien zu reproduzieren, aber Schwierigkeiten haben, neue Verbindungen herzustellen.
Kein analoges Denken, keine AGI
Offensichtlich, Analogisches Denken ist das unerlässliche Voraussetzung von AGIOhne sie bleiben KI-Systeme fehleranfällig und können Wissen, das in einem Bereich relevant ist, nicht auf Probleme in einem anderen übertragen. Stellen Sie sich beispielsweise ein selbstfahrendes Auto vor, das gelernt hat, sich in sonnigen Straßen Kaliforniens zurechtzufinden, dieses Wissen aber nicht auf Schneebedingungen übertragen kann. Das KI-System des Autos ist ein aufwändiger Mustererkenner, kein System mit echter Intelligenz. Wahre Intelligenz erfordert die kognitive Flexibilität, zu erkennen, dass das Fahren auf vereisten Straßen strukturell mit anderen Situationen auf rutschigem Untergrund vergleichbar ist, auch wenn sich die Details unterscheiden.
Dasselbe Prinzip gilt natürlich auch in anderen Bereichen als autonomen Fahrzeugen. Analoges Denken treibt den Fortschritt auch in Wissenschaft, medizinischer Diagnostik, juristischer Argumentation und kreativen Bereichen voran. KI-Systeme ohne diese Fähigkeit ähneln einem Gelehrten, der zwar eine ganze Bibliothek auswendig gelernt hat, dieses Wissen aber nicht disziplinübergreifend verknüpfen kann. Beeindruckend, gewiss, aber nur in einem sehr begrenzten Sinne.
Aufbau des analogen Denkens
Was wäre also nötig, um KI-Systeme zu entwickeln, die zu menschenähnlichem analogischem Denken fähig sind? Ausgehend von aktuellen Forschungsergebnissen und der grundlegenden Natur des analogischen Denkens scheinen mehrere kritische Bedingungen und Techniken notwendig zu sein.
Strukturell reichhaltige und vielfältige Trainingsdaten
Die erste Voraussetzung ist, dass KI-Systeme mit Daten trainiert werden, die über oberflächliche Textmuster hinausgehen. Das Internet mit seinem riesigen Fundus an wissenschaftlichen Artikeln, technischer Dokumentation, kreativen Werken und erklärenden Inhalten bietet hierfür einen guten Ausgangspunkt. Doch nicht beliebige Internetdaten sind geeignet. Erforderlich ist vielmehr: Strukturelle VielfaltAnders ausgedrückt: Um KI-Systeme beim Erkennen abstrakter Muster zu unterstützen, sollten Entwickler sie vom ersten Trainingstag an mit Kontrasten konfrontieren. Ihre Trainingsdaten könnten beispielsweise Architekturpläne neben Notenblättern, mathematische Beweise neben Gedichten oder juristische Argumente neben Kochrezepten enthalten. Da jede Domäne unterschiedliche Beziehungsstrukturen aufweist, würde eine zukünftige AGI von solchen Übungen profitieren.
Wichtiger noch: Diese Daten müssen strukturelle Zusammenhänge bewahren und hervorheben, nicht nur statistische Korrelationen. WissensgraphenKausaldiagramme und explizit dargestellte Beziehungen zwischen Konzepten könnten KI-Systemen helfen, Strukturen zu „erkennen“, anstatt Assoziationen mechanisch auswendig zu lernen. Man kann es sich so vorstellen, als würde man der KI nicht nur beibringen, was Dinge sind, sondern auch, wie sie auf systematische Weise miteinander in Beziehung stehen.
Tests über den Trainingsdatensatz hinaus
Um sicherzustellen, dass KI-Systeme analoges Denken lernen und nicht nur ihre Nachahmungsfähigkeiten verbessern, benötigen wir Werkzeuge, die gezielt ihre Fähigkeit prüfen, Strukturen auf Situationen abzubilden, die ihnen noch nie begegnet sind. Dies erfordert die Konstruktion von Testproblemen, die sich bewusst von allem unterscheiden, was wahrscheinlich in den Trainingsdaten vorkommt – was Forscher als analoges Denken bezeichnen. „kontrafaktische“ Aufgaben.
Anstatt eine KI beispielsweise Standardanalogien wie „Welpe verhält sich zu Hund wie Kätzchen zu …“ vervollständigen zu lassen, könnten wir ihr Probleme mit erfundenen Konzepten stellen oder sie bitten, Beziehungen zwischen Bereichen herzustellen, die ihr völlig unbekannt sind. Kann sie erkennen, dass die Beziehung zwischen Zutaten und einem Rezept der Beziehung zwischen Beweismitteln und einem juristischen Argument entspricht, selbst wenn ihr dieser spezifische Vergleich noch nie begegnet ist? Solche Tests würden zeigen, ob das System zugrundeliegende Strukturen erfasst oder lediglich ähnliche Beispiele wiedergibt.
Messen, worauf es ankommt
Die gute Nachricht für KI-Entwickler: Es gibt jahrzehntelange kognitionswissenschaftliche Forschung, die sich speziell damit beschäftigt, wie Menschen Analogien verarbeiten. Sie können diese Forschung nutzen, um robuste Benchmarks für analoges Denken zu entwickeln. Diese Benchmarks dürfen jedoch nicht einfach nur die richtigen Antworten in Analogietests zählen. Notwendig sind vielmehr Metriken, die erfassen, ob KI-Systeme relevante Beziehungen erkennen und abbilden können, oberflächliche Ähnlichkeiten ignorieren und die Konsistenz ihrer Abbildungen gewährleisten.
Dies könnte beispielsweise Bewertungssysteme umfassen, die das Erkennen übergeordneter Zusammenhänge belohnen. So würde eine KI beispielsweise eine höhere Punktzahl erzielen, wenn sie nicht nur erkennt, dass sowohl Atome als auch Sonnensysteme Umlaufbahnen beinhalten, sondern auch die Kausalzusammenhänge versteht, die diese Umlaufbahnen bestimmen. Eine weitere zu bewertende Kompetenz könnte darin bestehen, ob die KI spontan geeignete Analogien generieren kann, um neue Konzepte zu erklären, anstatt lediglich vorgefertigte Analogieaufgaben zu lösen.
Gerüstbildung durch Anregung
Jüngste Forschungsergebnisse deuten darauf hin, dass die Fähigkeit von KI, analog zu denken, in großem Maße davon abhängt, wie sie dazu aufgefordert wird. Analogische Anregung Die explizite Anleitung von Modellen durch den Prozess der Strukturabbildung kann zu differenzierteren Schlussfolgerungen führen als die bloße Präsentation von Problemen. Dies könnte beispielsweise bedeuten, das System zunächst aufzufordern, Beziehungen in einem Quellbereich zu identifizieren und diese Beziehungen anschließend explizit auf einen Zielbereich abzubilden.
Diese Technik könnte zwei Zwecke erfüllen: die Verbesserung der analogischen Fähigkeiten aktueller KI-Systeme und gleichzeitig die Generierung von Trainingsdaten für zukünftige Modelle. Durch die Aufzeichnung erfolgreicher Fälle von angeleitetem analogischem Denken lassen sich Beispiele erstellen, die nachfolgenden Systemen helfen, diesen Prozess natürlicher anzuwenden.
Hybridarchitekturen
Um menschenähnliches analoges Denken zu erreichen, bedarf es möglicherweise eines Ansatzes jenseits rein neuronaler Netze. Hybride Systeme, die Mustererkennung mit symbolischem Denken kombinieren – also strukturelle Beziehungen explizit darstellen und manipulieren – könnten die fehlende Komponente liefern. Während neuronale Netze hervorragend im Erlernen impliziter Muster sind, können symbolische Systeme die für analoges Denken notwendige strukturelle Konsistenz und logische Zuordnung gewährleisten.
Hybridarchitekturen stecken noch in den Kinderschuhen, doch Forscher untersuchen aktiv ihr Potenzial. Einige Beispiele hierfür sind: argumentieren für die Kombination neuronaler Netze mit symbolischem Denken Dies könnte zu verbesserten analogen Fähigkeiten führen. Andere fördern Hybridmodelle wurden entwickelt, um der Tendenz von KI-Modellen entgegenzuwirken, auf oberflächliche Weise zu konfabulieren und analogisch zu denken.
Wohin verreisen?
Je nachdem, wen man fragt, ist analoges Denken entweder bereits im Entstehen begriffen oder KI-Systeme werden einfach immer ausgefeilter in ihrer Nachahmung. Unabhängig davon, welche Position der Wahrheit näher kommt, ist klar: Um den Traum von einer allgemeinen künstlichen Intelligenz (AGI) zu verwirklichen, braucht es mehr als nur größere Modelle oder mehr Daten. Es bedarf auch grundlegender Innovationen in der Strukturierung, dem Training und der Bewertung unserer KI-Systeme.
Mit der Entfaltung der transformativen Fähigkeiten der KI wird analoges Denken sowohl zu einem entscheidenden Leistungsmaßstab als auch zu einer ernüchternden Erinnerung an die Kluft zwischen den aktuellen Fähigkeiten der KI und echter menschlicher Kognition. Wenn ein KI-System erkennt, dass Demokratie für Bürgerinnen und Bürger das ist, was ein Orchester für Musiker ist – also nicht oberflächliche Merkmale, sondern tiefe strukturelle Zusammenhänge in Bezug auf Koordination, Repräsentation und entstehende Harmonie erfasst –, hat es eine entscheidende Schwelle zu wahrer Intelligenz überschritten.












