KĂŒnstliche Intelligenz
Kraftpaket im Taschenformat: Vorstellung von Phi-3 von Microsoft, dem Sprachmodell, das in Ihr Telefon passt
WĂ€hrend der Trend im sich schnell entwickelnden Bereich der kĂŒnstlichen Intelligenz oft zu gröĂeren und komplexeren Modellen geht, verfolgt Microsoft mit seinem Phi-3 Mini einen anderen Ansatz. Das kleines Sprachmodell (SLM), jetzt in der dritten Generation, vereint die robusten FĂ€higkeiten gröĂerer Modelle in einem Rahmen, der den strengen RessourcenbeschrĂ€nkungen von Smartphones gerecht wird. Mit 3.8 Milliarden Parametern entspricht der Phi-3 Mini der Leistung von groĂe Sprachmodelle (LLMs) fĂŒr verschiedene Aufgaben, darunter Sprachverarbeitung, Argumentation, Codierung und Mathematik, und ist durch Quantisierung auf den effizienten Betrieb auf MobilgerĂ€ten zugeschnitten.
Herausforderungen groĂer Sprachmodelle
Die Entwicklung der Phi-SLMs von Microsoft ist eine Reaktion auf die erheblichen Herausforderungen, die LLMs mit sich bringen. Diese benötigen mehr Rechenleistung als typischerweise auf VerbrauchergerĂ€ten verfĂŒgbar ist. Dieser hohe Bedarf erschwert den Einsatz auf Standardcomputern und MobilgerĂ€ten, wirft aufgrund des Energieverbrauchs wĂ€hrend Training und Betrieb Umweltbedenken auf und birgt das Risiko, dass die groĂen und komplexen TrainingsdatensĂ€tze Verzerrungen verewigen. Diese Faktoren können zudem die ReaktionsfĂ€higkeit der Modelle in Echtzeitanwendungen beeintrĂ€chtigen und Aktualisierungen erschweren.
Phi-3 Mini: Optimierung der KI auf persönlichen GerĂ€ten fĂŒr mehr PrivatsphĂ€re und Effizienz
Die Phi-3 Mini ist strategisch darauf ausgelegt, eine kostengĂŒnstige und effiziente Alternative fĂŒr die direkte Integration fortschrittlicher KI in persönliche GerĂ€te wie Telefone und Laptops zu bieten. Dieses Design ermöglicht schnellere und unmittelbarere Reaktionen und verbessert die Benutzerinteraktion mit der Technologie in alltĂ€glichen Szenarien.
Phi-3 Mini ermöglicht die direkte Verarbeitung anspruchsvoller KI-Funktionen auf MobilgerĂ€ten. Dies reduziert die AbhĂ€ngigkeit von Cloud-Diensten und verbessert die Echtzeit-Datenverarbeitung. Diese FĂ€higkeit ist entscheidend fĂŒr Anwendungen, die eine sofortige Datenverarbeitung erfordern, wie z. B. mobile Gesundheitsversorgung, Echtzeit-SprachĂŒbersetzung und personalisierte Bildung, und ermöglicht Fortschritte in diesen Bereichen. Die Kosteneffizienz des Modells senkt nicht nur die Betriebskosten, sondern erweitert auch das Potenzial fĂŒr die KI-Integration in verschiedenen Branchen, einschlieĂlich aufstrebender MĂ€rkte wie tragbare Technologie und Heimautomatisierung. Phi-3 Mini ermöglicht die Datenverarbeitung direkt auf lokalen GerĂ€ten, was die PrivatsphĂ€re der Benutzer erhöht. Dies könnte fĂŒr die Verwaltung sensibler Informationen in Bereichen wie der persönlichen Gesundheit und Finanzdienstleistungen von entscheidender Bedeutung sein. DarĂŒber hinaus trĂ€gt der geringe Energiebedarf des Modells zu einem ökologisch nachhaltigen KI-Betrieb bei und steht im Einklang mit globalen NachhaltigkeitsbemĂŒhungen.
Designphilosophie und Entwicklung von Phi
Phis Designphilosophie basiert auf dem Konzept von Lehrplan lernen, das von dem pĂ€dagogischen Ansatz inspiriert ist, bei dem Kinder anhand immer anspruchsvollerer Beispiele lernen. Die Hauptidee besteht darin, das Training der KI mit einfacheren Beispielen zu beginnen und die KomplexitĂ€t der Trainingsdaten im Verlauf des Lernprozesses schrittweise zu erhöhen. Microsoft hat diese Bildungsstrategie umgesetzt, indem es einen Datensatz aus LehrbĂŒchern erstellt hat, wie in seiner Studie detailliert beschrieben wird.LehrbĂŒcher sind alles, was Sie brauchen.â Die Phi-Serie wurde im Juni 2023 auf den Markt gebracht, beginnend mit Phi-1, einem Kompaktmodell mit 1.3 Milliarden Parametern. Dieses Modell zeigte schnell seine Wirksamkeit, insbesondere bei Python-Codierungsaufgaben, wo es gröĂere, komplexere Modelle ĂŒbertraf. Aufbauend auf diesem Erfolg entwickelte Microsoft spĂ€ter Phi-1.5, das die gleiche Anzahl an Parametern beibehielt, aber seine FĂ€higkeiten in Bereichen wie gesundem Menschenverstand und SprachverstĂ€ndnis erweiterte. Die Serie ĂŒberstrahlte mit der Veröffentlichung von Phi-2 im Dezember 2023. Mit 2.7 Milliarden Parametern zeigte Phi-2 beeindruckende FĂ€higkeiten im Denken und SprachverstĂ€ndnis und positionierte sich als starker Konkurrent gegenĂŒber deutlich gröĂeren Modellen.
Phi-3 im Vergleich zu anderen kleinen Sprachmodellen
Als Weiterentwicklung seiner VorgĂ€nger erweitert der Phi-3 Mini die Fortschritte des Phi-2, indem er andere SLMs ĂŒbertrifft, wie z Gemma von Google, Mistrals Mistral, Metas Llama3-Anweisung und GPT3.5, in einer Vielzahl von industriellen Anwendungen. Diese Anwendungen umfassen SprachverstĂ€ndnis und Schlussfolgerungen, Allgemeinwissen, logisches Denken, Wortaufgaben in Grundschulmathematik und die Beantwortung medizinischer Fragen und zeigen im Vergleich zu diesen Modellen eine ĂŒberlegene Leistung. Der Phi-3 Mini wurde auch Offline-Tests auf einem iPhone 14 fĂŒr verschiedene Aufgaben unterzogen, darunter die Erstellung von Inhalten und die Bereitstellung von AktivitĂ€tsvorschlĂ€gen, die auf bestimmte Orte zugeschnitten sind. Zu diesem Zweck wurde Phi-3 Mini mithilfe eines Prozesses namens â Quantisierung, das das Modell fĂŒr GerĂ€te mit begrenzten Ressourcen optimiert, indem es die numerischen Daten des Modells von 32-Bit-Gleitkommazahlen in kompaktere Formate wie 4-Bit-Ganzzahlen konvertiert. Dies reduziert nicht nur den Speicherbedarf des Modells, sondern verbessert auch die Verarbeitungsgeschwindigkeit und Energieeffizienz, was fĂŒr mobile GerĂ€te von entscheidender Bedeutung ist. Entwickler verwenden typischerweise Frameworks wie TensorFlow Lite or PyTorch-Mobil, mit integrierten Quantisierungstools zur Automatisierung und Verfeinerung dieses Prozesses.
Funktionsvergleich: Phi-3 Mini vs. Phi-2 Mini
Nachfolgend vergleichen wir einige der Funktionen von Phi-3 mit seinem VorgÀnger Phi-2.
- Modellarchitektur: Phi-2 basiert auf einer transformatorbasierten Architektur, die darauf ausgelegt ist, das nĂ€chste Wort vorherzusagen. Phi-3 Mini verwendet ebenfalls eine Transformator-Decoder-Architektur, orientiert sich jedoch stĂ€rker an der Struktur des Llama-2-Modells und verwendet denselben Tokenizer mit einer VokabulargröĂe von 320,641. Diese KompatibilitĂ€t stellt sicher, dass fĂŒr Llama-2 entwickelte Tools problemlos fĂŒr die Verwendung mit Phi-3 Mini angepasst werden können.
- KontextlĂ€nge: Phi-3 Mini unterstĂŒtzt eine KontextlĂ€nge von 8,000 Token, was deutlich gröĂer ist als die 2 Token von Phi-2,048. Diese Steigerung ermöglicht es Phi-3 Mini, detailliertere Interaktionen zu verwalten und lĂ€ngere Textabschnitte zu verarbeiten.
- LÀuft lokal auf MobilgerÀten: Phi-3 Mini kann auf 4 Bit komprimiert werden und belegt etwa 1.8 GB Speicher, Àhnlich wie Phi-2. Es wurde offline auf einem iPhone 14 mit einem A16 Bionic-Chip getestet und erreichte dort eine Verarbeitungsgeschwindigkeit von mehr als 12 Token pro Sekunde, was der Leistung von Phi-2 unter Àhnlichen Bedingungen entspricht.
- ModellgröĂe: Mit 3.8 Milliarden Parametern hat Phi-3 Mini einen gröĂeren MaĂstab als Phi-2 mit 2.7 Milliarden Parametern. Dies spiegelt seine gesteigerten FĂ€higkeiten wider.
- Trainingsdaten: Im Gegensatz zu Phi-2, das auf 1.4 Billionen Token trainiert wurde, wurde Phi-3 Mini auf einem viel gröĂeren Satz von 3.3 Billionen Token trainiert, was ihm ein besseres VerstĂ€ndnis komplexer Sprachmuster ermöglicht.
Behebung der EinschrÀnkungen von Phi-3 Mini
WĂ€hrend der Phi-3 Mini erhebliche Fortschritte im Bereich der kleinen Sprachmodelle zeigt, ist er nicht ohne EinschrĂ€nkungen. Eine HaupteinschrĂ€nkung des Phi-3 Mini aufgrund seiner geringeren GröĂe im Vergleich zu groĂen Sprachmodellen ist seine begrenzte KapazitĂ€t, umfangreiches Sachwissen zu speichern. Dies kann Auswirkungen auf die FĂ€higkeit haben, selbststĂ€ndig Anfragen zu bearbeiten, die umfassende spezifische Sachdaten oder detailliertes Expertenwissen erfordern. Dies kann jedoch durch die Integration von Phi-3 Mini in eine Suchmaschine gemildert werden. Auf diese Weise kann das Modell in Echtzeit auf ein breiteres Spektrum an Informationen zugreifen und so seine inhĂ€renten WissensbeschrĂ€nkungen effektiv ausgleichen. Diese Integration ermöglicht es dem Phi-3 Mini, wie ein Ă€uĂerst fĂ€higer GesprĂ€chspartner zu funktionieren, der trotz umfassender Sprach- und Kontextkenntnisse gelegentlich Informationen ânachschlagenâ muss, um genaue und aktuelle Antworten zu geben.
VerfĂŒgbarkeit
Phi-3 ist jetzt auf mehreren Plattformen verfĂŒgbar, darunter Microsoft Azure AI Studio, Gesicht umarmen und Ollama. Auf Azure AI umfasst das Modell einen Workflow zum Bereitstellen, Bewerten und Feinabstimmen, und auf Ollama kann es lokal auf Laptops ausgefĂŒhrt werden. Das Modell wurde maĂgeschneidert fĂŒr ONNX-Laufzeit und unterstĂŒtzt Windows DirectML, um sicherzustellen, dass es auf verschiedenen Hardwaretypen wie GPUs, CPUs und MobilgerĂ€ten gut funktioniert. DarĂŒber hinaus wird Phi-3 als Microservice ĂŒber angeboten NVIDIA NIM, ausgestattet mit einer Standard-API fĂŒr die einfache Bereitstellung in verschiedenen Umgebungen und speziell fĂŒr NVIDIA-GPUs optimiert. Microsoft plant, die Phi-3-Serie in naher Zukunft um die Modelle Phi-3-small (7B) und Phi-3-medium (14B) weiter zu erweitern, um Benutzern zusĂ€tzliche Auswahlmöglichkeiten fĂŒr ein ausgewogenes VerhĂ€ltnis von QualitĂ€t und Kosten zu bieten.
Fazit
Microsofts Phi-3 Mini macht bedeutende Fortschritte im Bereich der kĂŒnstlichen Intelligenz, indem es die LeistungsfĂ€higkeit groĂer Sprachmodelle fĂŒr den mobilen Einsatz adaptiert. Dieses Modell verbessert die Benutzerinteraktion mit GerĂ€ten durch schnellere Echtzeitverarbeitung und erweiterte Datenschutzfunktionen. Es minimiert den Bedarf an Cloud-basierten Diensten, senkt die Betriebskosten und erweitert den Anwendungsbereich fĂŒr KI in Bereichen wie Gesundheitswesen und Heimautomatisierung. Mit dem Fokus auf die Reduzierung von Voreingenommenheit durch Curriculum Learning und die Aufrechterhaltung der WettbewerbsfĂ€higkeit entwickelt sich der Phi-3 Mini zu einem SchlĂŒsselwerkzeug fĂŒr effiziente und nachhaltige mobile KI und verĂ€ndert auf subtile Weise unseren tĂ€glichen Umgang mit Technologie.










