Künstliche Intelligenz
Die KI, die sich selbst beibringt, ist keine Science-Fiction mehr

Neue KI-Frameworks bewegen sich in Richtung eines radikalen Sprungs: Maschinen, die sich selbst verbessern, ohne menschliche Einsicht.
Jahrelang blieben sogar die fortschrittlichsten KI-Modelle passive Motoren, die Antworten auf der Grundlage von Trainingsdaten vorhersagten, die sie nicht ändern konnten. Aber heute ist es nicht die Größe des Modells, die das nächste Kapitel der künstlichen Intelligenz definiert; es ist, ob das Modell sich selbst ändern kann.
Kürzlich haben Forscher am MIT ein neues KI-Framework namens Self-Adapting LLMs (SEAL) vorgestellt. Der Ansatz ermöglicht es großen Sprachmodellen (LLMs), sich autonom zu verbessern, sodass die KI ihre eigenen Einschränkungen diagnostizieren und ihre eigenen neuronalen Gewichte durch eine interne Feedback-Schleife, die durch Verstärkungslernen angetrieben wird, permanent aktualisieren kann. Anstatt Forscher zu benötigen, um Fehler zu finden, neue Prompts zu schreiben oder zusätzliche Beispiele einzufügen, übernimmt das Modell die volle Verantwortung für seine Evolution.
„Große Sprachmodelle (LLMs) sind leistungsstark, aber statisch; sie verfügen nicht über Mechanismen, um ihre Gewichte in Reaktion auf neue Aufgaben, Wissen oder Beispiele anzupassen“, schrieben die MIT-Forscher in einem Blog-Beitrag. „Experimente zur Wissensinkorporation und Few-Shot-Verallgemeinerung zeigen, dass SEAL ein vielversprechender Schritt in Richtung Sprachmodelle ist, die sich selbstständig an neue Daten anpassen können.“
In ersten Tests ermöglichte diese selbsteditierende Schleife es Modellen, von einem vollständigen Versagen zu Erfolgen bei komplexen abstrakten Denkaufgaben zu wechseln und sogar größere Modelle wie GPT-4.1 mit einer Erfolgsrate von 72,5 Prozent zu übertreffen, wo herkömmliche Methoden versagten. Darüber hinaus reduziert SEAL angeblich die menschliche Aufsicht um 85 Prozent, während die Genauigkeit und Anpassungsfähigkeit erhöht werden.
Aufstieg der selbstunterrichteten KI-Modelle
SEAL ist Teil eines breiteren Trends hin zu autonomer Maschinenintelligenz. Forscher bei Sakana AI haben beispielsweise die Darwin-Gödel-Maschine vorgestellt — einen KI-Agenten, der seinen eigenen Code mithilfe offener evolutionärer Strategien umschreibt.
„Es erstellt verschiedene Selbstverbesserungen, wie z. B. eine Patch-Validierung, bessere Dateiansicht, verbesserte Bearbeitungstools, die Erstellung und Bewertung mehrerer Lösungen, um die beste auszuwählen, und die Hinzufügung einer Historie dessen, was bereits versucht wurde (und warum es fehlgeschlagen ist), wenn neue Änderungen vorgenommen werden“, schrieb Sakana AI in einem Blog-Beitrag.
Ebenso können die KI-Agenten von Anthropic, die von Claude 4 angetrieben werden, nun autonom Workflows über Codebasen und Geschäftstools orchestrieren.
„Ein System, das sich selbst basierend auf der Art des Assets, seiner Umgebung und seiner Historie konfiguriert, ermöglicht es, von einer reaktiven Reaktion zu einer kontinuierlichen Präventionsstrategie überzugehen“, sagte Christian Struve, CEO und Mitgründer von Fracttal, gegenüber mir. „Es geht nicht darum, mehr Schichten oder mehr Parameter zu haben, sondern um autonomere und nützlichere Systeme.“
Was diese Bemühungen vereint, ist die Überzeugung, dass KI nicht größer werden muss, um intelligenter zu werden. Sie muss anpassungsfähiger werden.
„Skalierung hat große Gewinne gebracht, aber wir erreichen die Grenzen dessen, was die Größe allein erreichen kann. Selbstadaptierende Lernmodelle wie SEAL bieten einen überzeugenden nächsten Schritt, indem sie es Systemen ermöglichen, über die Zeit zu wachsen und sich zu verbessern“, sagte Jorge Riera, Gründer und CEO der full-stack-Datenberatungsplattform Dataco, gegenüber mir. „Selbstevolvierende Modelle verschieben auch die Fortschrittsmetriken von statischen Benchmarks zu Maßen für Anpassungsfähigkeit, Lern-effizienz und sichere Langzeitverbesserung. Anstatt nur zu testen, was ein Modell bei der Bereitstellung weiß, können wir bewerten, wie gut es lernt, behält und sich über die Zeit hinweg entwickelt.“
Auswirkungen auf das KI-Ökosystem und den globalen Wettlauf um Autonomie
Dieses Maß an Autonomie verändert auch die Ökonomie der KI-Bereitstellung. Stellen Sie sich vor, ein Betrugsbekämpfungssystem, das sich sofort aktualisiert, um neue Bedrohungen zu bekämpfen, oder ein KI-Tutor, der seinen Lehrstil basierend auf dem Verhalten eines Schülers ändert. In der Robotik könnten selbstadaptierende Frameworks zu autonomen Maschinen führen, die neue Bewegungsmuster erlernen, ohne umprogrammiert zu werden.
In ganz Nahost bauen Länder wie die VAE und Saudi-Arabien rasch grundlegende Modelle, die für die Anpassung konzipiert sind. Die VAE-Falcon und G42-Jais sind Open-Source-LLMs, die mit regionaler Relevanz konzipiert wurden, während Saudi-Arabiens ALLaM und Aramco Digitals Metabrain in den Bereich autonomer KI-Agenten für Smart Cities, Gesundheitswesen und Logistik vorstoßen.
Diese Bemühungen sind noch nicht mit dem Selbsteditiervermögen von MITs SEAL vergleichbar, aber sie spiegeln eine gemeinsame Richtung wider: von passiven KI-Systemen zu aktiven, evolvierenden Agenten, die mit begrenzter menschlicher Anleitung Komplexität navigieren können. Und genau wie SEAL werden diese Initiativen von robusten Governance-Frameworks unterstützt, die die wachsende Erkenntnis unterstreichen, dass KI-Autonomie mit Verantwortung einhergehen muss.
„Dies ist ein erster Schritt in Richtung selbstverwalteter Systeme, die ihre Logik ohne ständige Intervention ändern“, sagt Struve. „Ich glaube, dass künstliche Intelligenz nicht neu definiert, was Intelligenz ist, sondern uns dazu zwingt, unsere Beziehung zu ihr zu überdenken. Das Wichtigste ist nicht, dass ein Modell evolviert, sondern dass es dies in Übereinstimmung mit den Zielen tut, die wir als Menschen definieren.“
Jeff Townes, CTO von Gorilla Logic, betont auch die Bedeutung von Governance, die mit der KI-Evolution Schritt hält: „Die Frage ist nicht, ob KI evolvieren kann — es ist, ob das Unternehmen mit ihr evolvieren kann. Governance muss jede KI-Anpassung an klare Ergebnisse und KPIs binden, die Führungskräfte messen und vertrauen können, damit Innovation mit Vertrauen anstelle von Risiko skaliert.“
Sind wir bereit für KI, die sich selbst umschreibt?
Die provokativste Frage, die SEAL aufwirft, ist nicht technischer Natur — es ist, wenn Modelle entscheiden können, wie sie sich selbst beibringen, welche Rolle spielen wir bei der Gestaltung ihrer Werte, Prioritäten und Richtung?
Experten warnen, dass bei der Autonomie selbstadaptierender KI-Systeme der Drang zur Selbstverbesserung nicht die Etablierung ethischer Schutzvorkehrungen übertreffen darf. „Ich glaube, dass alle KI-Systeme mindestens drei grundlegende ethische Prinzipien umsetzen müssen“, sagt Jacob Evans, CTO bei Kryterion.
„Erstens, und das mag selbstverständlich sein, müssen KI-Systeme sich selbst als KI identifizieren. Zweitens müssen KI-Systeme menschenzentriert sein und menschliches Urteilsvermögen ergänzen, anstatt es zu ersetzen. Und schließlich müssen sie ihre Grenzen und Unsicherheiten anerkennen und sich weigern, Informationen bereitzustellen, die ernsthaften Schaden verursachen könnten. Ohne diese Sicherheitsvorkehrungen kann KI zu einem Instrument der Manipulation anstatt einer zuverlässigen Unterstützung werden.“
“Um Modelle zu ermöglichen, sich in der Produktion selbst zu verbessern, benötigen sie eine dynamische Feedback-Schleife, nicht nur statisches Training. Eine leistungsstarke Methode ist die Verwendung eines ‘digitalen Zwilling’ oder einer sophisticateden Sandbox-Umgebung, in der die KI ihre eigenen selbstgenerierten Verbesserungen sicher testen und validieren kann, bevor sie jemals an Benutzer bereitgestellt werden“, teilte Ganesh Vanama, Computer-Vision-Ingenieur bei Automotus, mit.
In Bezug auf Governance fügte Vanama hinzu: „Die nicht verhandelbare Kontrolle ist die ‘menschliche Überwachung’.“ Er sagte, dass wir Modelle anpassen möchten, „aber Sie müssen eine kontinuierliche Überwachung haben, um ‘Ausrichtungsdrift’ zu erkennen, bei der das Modell von seinen beabsichtigten Zielen oder Sicherheitsbeschränkungen abweicht. Dieses System muss einem menschlichen Auditor die Macht geben, jede autonome Aktualisierung zu veto oder sofort zurückzusetzen, die einen Sicherheits- oder Leistungsüberprüfung nicht besteht.“
Aber andere Experten glauben, dass es noch Zeit gibt, diese Sicherheitsvorkehrungen zu entwickeln, und argumentieren, dass der Bau einer wirklich robusten, allgemeingültigen, selbstverbessernden KI immer noch eine enorme Herausforderung darstellt.
„Solche Modelle verfügen noch nicht über die Fähigkeit, sich selbst in Echtzeit umzuprogrammieren. Wesentliche Herausforderungen bleiben, wie die Vermeidung von Fehlerverstärkung, das Vermeiden von katastrophalem Vergessen, die Gewährleistung von Stabilität während der Aktualisierungen und die Aufrechterhaltung von Transparenz bei internen Änderungen“, sagt Riera. „Bis diese angegangen werden, bleibt die vollständige Selbstanpassung eine Grenze und keine Realität.“
Die Forscher am MIT sehen SEAL als notwendige Evolution. Wie einer der führenden Wissenschaftler von MIT es ausdrückte, spiegelt dieses Framework derzeit nur das menschliche Lernen genauer wider als alles, was zuvor kam.
„Diese Systeme deuten auf einen Wandel von statischen, einmaligen Modellen zu adaptiven Architekturen hin, die aus Erfahrung lernen, Gedächtnis verwalten und Ziele über die Zeit hinweg verfolgen können. Die Richtung ist klar: modulare, kontextbewusste Intelligenz, die sich kontinuierlich anpassen kann“, sagte Riera gegenüber mir. „Obwohl dies noch im experimentellen Stadium ist, markiert dieser Ansatz einen bedeutenden Schritt in Richtung autonomerer und widerstandsfähigerer KI-Systeme.“
Ob dies zu persönlicheren Systemen oder völlig neuen Formen der Maschinenagentur führt, bleibt abzuwarten. Das Zeitalter der selbstunterrichteten KI ist angekommen — und es verändert nicht nur ihren eigenen Code, sondern auch die Regeln dessen, was Maschinen werden können.


