Vernetzen Sie sich mit uns

Künstliche Intelligenz

Warum markiert das Orca-2-KI-Modell von Microsoft einen bedeutenden Schritt in Richtung nachhaltiger KI?

mm

Trotz der bemerkenswerten Fortschritte, die die künstliche Intelligenz im letzten Jahrzehnt gemacht hat, zu denen auch das Besiegen menschlicher Champions in strategischen Spielen wie gehört Schach und GO und Vorhersage der 3D-Struktur von Proteinen, die weitverbreitete Annahme von Große Sprachmodelle (LLMs) bedeutet einen Paradigmenwechsel. Diese Modelle, die die Interaktion zwischen Mensch und Computer verändern werden, sind in verschiedenen Bereichen unverzichtbar geworden, darunter Bildung, Kundenservice, Informationsbeschaffung, Softwareentwicklung, Medien und Gesundheitswesen. Während diese technologischen Fortschritte wissenschaftliche Durchbrüche ermöglichen und das industrielle Wachstum vorantreiben, gibt es auch eine erhebliche Kehrseite für den Planeten.

Der Prozess der Ausbildung und Nutzung von LLMs verbraucht eine enorme Menge an Energie, was zu erheblichen Auswirkungen auf die Umwelt führt, die durch einen erhöhten COXNUMX-Fußabdruck und Treibhausgasemissionen gekennzeichnet sind. Eine aktuelle Studie des College of Information and Computer Sciences der University of Massachusetts Amherst ergab, dass die Ausbildung von LLMs zu mehr Energie führen kann 626,000 Pfund Kohlendioxid, was ungefähr den lebenslangen Emissionen von fünf Autos entspricht. Hugging Face, ein KI-Startup, stellte fest, dass das Training von BLOOM, einem großen Sprachmodell, das Anfang des Jahres eingeführt wurde, dazu führte 25 Tonnen von Kohlendioxid-Emissionen. Ähnlich verhält es sich mit Facebooks KI-Modell Meena, das einen CO2-Fußabdruck anhäuft, der den Umweltauswirkungen einer Autofahrt von mehr als 240,000 Meilen während des gesamten Ausbildungsprozesses.

Trotz der Ausbildung von LLMs trägt jetzt die Nachfrage nach Cloud Computing, das für LLMs von entscheidender Bedeutung ist, dazu bei mehr Emissionen als die gesamte Luftfahrtindustrie. Ein einzelnes Rechenzentrum kann so viel Strom verbrauchen wie 50,000-Häuser. Eine andere Studie hebt hervor, dass das Training eines einzelnen großen Sprachmodells ebenso viel freisetzen kann CO2 wie fünf Autos Sie verbrauchen während ihres gesamten Lebens Energie. Prognosen deuten darauf hin, dass die KI-Emissionen bis 300 um 2025 % ansteigen werden, was die Dringlichkeit unterstreicht, KI-Fortschritte mit Umweltverantwortung in Einklang zu bringen und Initiativen anzustoßen, um KI umweltfreundlicher zu machen. Um den negativen Umweltauswirkungen von KI-Fortschritten entgegenzuwirken, entwickelt sich nachhaltige KI zu einem entscheidenden Forschungsgebiet.

Nachhaltige KI

Nachhaltige KI stellt einen Paradigmenwechsel bei der Entwicklung und dem Einsatz künstlicher Intelligenzsysteme dar und konzentriert sich auf die Minimierung von Umweltauswirkungen, ethischen Überlegungen und langfristigen gesellschaftlichen Vorteilen. Der Ansatz zielt darauf ab, intelligente Systeme zu schaffen, die energieeffizient, umweltbewusst und an menschlichen Werten ausgerichtet sind. Nachhaltige KI konzentriert sich auf die Nutzung sauberer Energie für Computer, intelligente Algorithmen, die weniger Strom verbrauchen, und die Einhaltung ethischer Richtlinien, um faire und transparente Entscheidungen zu gewährleisten. Es ist wichtig zu beachten, dass es einen Unterschied gibt KI für Nachhaltigkeit und nachhaltige KI; Ersteres kann den Einsatz von KI zur Optimierung bestehender Prozesse umfassen, ohne unbedingt deren ökologische oder gesellschaftliche Folgen zu berücksichtigen, während Letzteres die Prinzipien der Nachhaltigkeit aktiv in jede Phase der KI-Entwicklung integriert, vom Entwurf bis zum Einsatz, um eine positive und dauerhafte Wirkung auf den Planeten zu erzielen Gesellschaft.

Von LLMs zu Small Language Models (SLMs)

Im Streben nach nachhaltiger KI arbeitet Microsoft an der Entwicklung von Small Language Models (SLMs), um sie an die Fähigkeiten von Large Language Models (LLMs) anzupassen. In diesem Bemühen stellen sie kürzlich vor Orca-2, entworfen, um zu argumentieren GPT-4. Im Gegensatz zu seinem Vorgänger Orca-1, der über 13 Milliarden Parameter verfügt, enthält Orca-2 7 Milliarden Parameter und nutzt zwei Schlüsseltechniken.

  1. Befehlsabstimmung: Orca-2 verbessert sich, indem es aus Beispielen lernt und seine Inhaltsqualität, Zero-Shot-Fähigkeiten und Argumentationsfähigkeiten bei verschiedenen Aufgaben verbessert.
  2. Erklärung Tuning: Orca-2 erkennt die Einschränkungen bei der Befehlsoptimierung und führt die Erklärungsoptimierung ein. Dazu gehört die Erstellung detaillierter Erklärungen für Lehrermodelle, die Anreicherung von Argumentationssignalen und die Verbesserung des Gesamtverständnisses.

Orca-2 nutzt diese Techniken, um hocheffizientes Denken zu erreichen, vergleichbar mit dem von LLMs mit deutlich mehr Parametern. Die Grundidee besteht darin, dem Modell zu ermöglichen, den besten Weg zur Lösung eines Problems zu finden, sei es durch eine schnelle Antwort oder durch schrittweises Durchdenken. Microsoft nennt dies „Cautious Reasoning“.

Um Orca-2 zu trainieren, erstellt Microsoft einen neuen Satz Trainingsdaten unter Verwendung von FLAN-Annotationen, Orca-1 und dem Orca-2-Datensatz. Sie beginnen mit einfachen Fragen, fügen einige knifflige Fragen hinzu und nutzen dann Daten von sprechenden Modellen, um es noch intelligenter zu machen.

Orca-2 wird einer gründlichen Bewertung unterzogen, die Argumentation, Textvervollständigung, Begründung, Wahrhaftigkeit und Sicherheit umfasst. Die Ergebnisse zeigen das Potenzial zur Verbesserung des SLM-Denkens durch spezielle Schulungen zu synthetischen Daten. Trotz einiger Einschränkungen sind Orca-2-Modelle vielversprechend für zukünftige Verbesserungen in den Bereichen Argumentation, Kontrolle und Sicherheit und beweisen die Wirksamkeit der strategischen Anwendung synthetischer Daten bei der Verfeinerung des Modells nach dem Training.

Bedeutung von Orca-2 für eine nachhaltige KI

Orca-2 stellt einen bedeutenden Schritt in Richtung nachhaltiger KI dar und widerlegt die vorherrschende Meinung, dass nur größere Modelle mit ihrem erheblichen Energieverbrauch die KI-Fähigkeiten wirklich voranbringen können. Dieses kleine Sprachmodell präsentiert eine alternative Perspektive und legt nahe, dass für die Erzielung herausragender Sprachmodelle nicht unbedingt enorme Datensätze und umfangreiche Rechenleistung erforderlich sind. Vielmehr unterstreicht es die Bedeutung intelligenten Designs und effektiver Integration.

Dieser Durchbruch eröffnet neue Möglichkeiten, indem er eine Schwerpunktverlagerung befürwortet – von der bloßen Erweiterung der KI hin zur Konzentration auf die Art und Weise, wie wir sie entwerfen. Dies ist ein entscheidender Schritt, um fortschrittliche KI einem breiteren Publikum zugänglicher zu machen und sicherzustellen, dass Innovation inklusiv ist und ein breiteres Spektrum von Menschen und Organisationen erreicht.

Orca-2 hat das Potenzial, die Entwicklung zukünftiger Sprachmodelle maßgeblich zu beeinflussen. Ob es um die Verbesserung von Aufgaben im Bereich der natürlichen Sprachverarbeitung oder die Ermöglichung anspruchsvollerer KI-Anwendungen in verschiedenen Branchen geht – diese kleineren Modelle werden erhebliche positive Veränderungen mit sich bringen. Darüber hinaus fungieren sie als Vorreiter bei der Förderung nachhaltigerer KI-Praktiken und verbinden technologischen Fortschritt mit ökologischem Engagement.

The Bottom Line:

Microsofts Orca-2 stellt einen bahnbrechenden Schritt in Richtung nachhaltiger KI dar und widerlegt die Annahme, dass nur große Modelle KI voranbringen können. Indem Orca-2 intelligentes Design gegenüber Größe priorisiert, eröffnet es neue Möglichkeiten und bietet einen integrativeren und umweltbewussteren Ansatz für die Entwicklung fortschrittlicher KI. Dieser Wandel markiert einen bedeutenden Schritt hin zu einem neuen Paradigma im intelligenten Systemdesign.

Dr. Tehseen Zia ist außerordentlicher Professor an der COMSATS-Universität Islamabad und hat einen Doktortitel in KI von der Technischen Universität Wien, Österreich. Er ist auf künstliche Intelligenz, maschinelles Lernen, Datenwissenschaft und Computer Vision spezialisiert und hat mit Veröffentlichungen in renommierten wissenschaftlichen Fachzeitschriften bedeutende Beiträge geleistet. Dr. Tehseen hat außerdem als Hauptforscher verschiedene Industrieprojekte geleitet und war als KI-Berater tätig.