Connect with us

Skok Apple’a w dziedzinie AI: Navigacja po ramach MLX i ich wpływ na doświadczenia AI w następnych MacBookach

Sztuczna inteligencja

Skok Apple’a w dziedzinie AI: Navigacja po ramach MLX i ich wpływ na doświadczenia AI w następnych MacBookach

mm

Dziedzina sztucznej inteligencji przechodzi obecnie znaczącą transformację, napędzaną powszechną integracją i dostępnością generatywnej AI w otwartych ekosystemach. Ta transformacyjna fala nie tylko zwiększa produktywność i wydajność, ale także sprzyja innowacjom, zapewniając istotne narzędzie do utrzymania konkurencyjności w nowoczesnej erze. Odstępując od swojego tradycyjnego zamkniętego ekosystemu, Apple niedawno przyjął ten paradygmat, wprowadzając MLX, framework open-source zaprojektowany do umożliwienia developerom AI efektywnego wykorzystania możliwości chipów Apple Silicon. W tym artykule zagłębimy się w framework MLX, rozplątując jego implikacje dla Apple i potencjalny wpływ, jaki może on mieć na szerszy ekosystem AI.

Przedstawienie MLX

Opracowany przez zespół badawczy sztucznej inteligencji Apple, MLX jest frameworkiem przodującym w dziedzinie badań i rozwoju AI na chipach Apple Silicon. Framework ten obejmuje zestaw narzędzi, które umożliwiają developerom AI tworzenie zaawansowanych modeli, obejmujących chatboty, generację tekstu, rozpoznawanie mowy i generację obrazów. MLX idzie dalej, zawierając wstępnie wytrenowane modele podstawowe, takie jak Meta’s LlaMA do generacji tekstu, Stability AI’s Stable Diffusion do generacji obrazów i OpenAI’s Whisper do rozpoznawania mowy.

Zainspirowany ugruntowanymi frameworkami, takimi jak NumPy, PyTorch, Jax i ArrayFire, MLX kładzie silny nacisk na przyjazny dla użytkownika design i efektywne szkolenie modeli oraz ich wdrożenie. Godne uwagi funkcje obejmują przyjazne API, w tym API Pythona przypominające NumPy, oraz szczegółowe API C++. Specjalistyczne pakiety, takie jak mlx.nn i mlx.optimizers, ułatwiają budowę złożonych modeli, przyjmując styl PyTorch.

MLX wykorzystuje podejście oparte na odroczonej obliczeniowej, generując tablice tylko wtedy, gdy jest to konieczne. Jego dynamiczna konstrukcja grafu umożliwia spontaniczną generację grafów obliczeniowych, gwarantując, że zmiany w argumentach funkcji nie utrudniają wydajności, jednocześnie utrzymując proces debugowania prosty i intuicyjny. MLX oferuje szeroką kompatybilność z urządzeniami, wykonując operacje na procesorach CPU i GPU. Kluczowym aspektem MLX jest jego ujednolicony model pamięci, zachowujący tablice w pamięci współdzielonej. Ta unikalna funkcja ułatwia bezproblemowe operacje na tablicach MLX na różnych obsługiwanych urządzeniach, eliminując potrzebę transferu danych.

Różnice między CoreML a MLX

Apple opracował zarówno CoreML, jak i framework MLX, aby pomóc developerom AI w systemach Apple, ale każdy framework ma swoje unikalne funkcje. CoreML jest zaprojektowany do łatwej integracji wstępnie wytrenowanych modeli uczenia maszynowego z otwartych zestawów narzędzi, takich jak TensorFlow, do aplikacji na urządzeniach Apple, w tym iOS, macOS, watchOS i tvOS. Optymalizuje wykonanie modelu przy użyciu specjalistycznych komponentów sprzętowych, takich jak GPU i Neural Engine, zapewniając przyspieszone i efektywne przetwarzanie. CoreML obsługuje popularne formaty modeli, takie jak TensorFlow i ONNX, co sprawia, że jest on wszechstronny dla aplikacji, takich jak rozpoznawanie obrazów i przetwarzanie języka naturalnego. Istotną funkcją CoreML jest wykonanie na urządzeniu, zapewniając, że modele są uruchamiane bezpośrednio na urządzeniu użytkownika, bez polegania na zewnętrznych serwerach. Podczas gdy CoreML ułatwia integrację wstępnie wytrenowanych modeli uczenia maszynowego z systemami Apple, MLX służy jako framework rozwojowy specjalnie zaprojektowany do ułatwienia tworzenia modeli AI na chipach Apple Silicon.

Analiza motywów Apple’a za MLX

Wprowadzenie MLX wskazuje, że Apple wkracza na rosnący rynek generatywnej AI, obszar obecnie dominowany przez gigantów technologicznych, takich jak Microsoft i Google. Chociaż Apple zintegrował technologię AI, taką jak Siri, w swoich produktach, firma tradycyjnie powstrzymywała się od wkraczania na rynek generatywnej AI. Jednak znaczny wzrost wysiłków Apple’a w dziedzinie rozwoju AI we wrześniu 2023 r., ze szczególnym naciskiem na ocenę modeli podstawowych dla szerszych zastosowań i wprowadzenie MLX, sugeruje potencjalny zwrot ku eksploracji generatywnej AI. Analitycy sugerują, że Apple może wykorzystać framework MLX, aby wprowadzić kreatywne funkcje generatywnej AI do swoich usług i urządzeń. Jednak zgodnie z silnym zaangażowaniem Apple’a w ochronę prywatności, można oczekiwać starannej oceny uwzględniającej uwagi etyczne przed podjęciem jakichkolwiek znaczących postępów. Obecnie Apple nie udostępnił dodatkowych informacji ani komentarzy na temat swoich konkretnych zamiarów dotyczących MLX, MLX Data i generatywnej AI.

Znaczenie MLX poza Apple

Poza światem Apple, ujednolicony model pamięci MLX oferuje praktyczną przewagę, wyróżniając go spośród frameworków, takich jak PyTorch i Jax. Ta funkcja pozwala tablicom na współdzieloną pamięć, ułatwiając operacje na różnych urządzeniach bez niepotrzebnych duplikatów danych. Staje się to szczególnie istotne, ponieważ AI coraz bardziej zależy od efektywnych GPU. Zamiast typowego zestawu składającego się z potężnych komputerów i dedykowanych GPU z dużą ilością VRAM, MLX pozwala GPU na współdzielenie VRAM z pamięcią RAM komputera. Ta subtelna zmiana ma potencjał, aby dyskretnie zdefiniować potrzeby sprzętowe AI, czyniąc je bardziej dostępnymi i efektywnymi. Ma to również wpływ na AI na urządzeniach brzegowych, proponując bardziej adaptacyjne i świadome zasobów podejście niż to, do którego jesteśmy przyzwyczajeni.

Podsumowanie

Przygoda Apple w dziedzinie generatywnej AI z frameworkiem MLX oznacza znaczącą zmianę w krajobrazie sztucznej inteligencji. Przyjmując praktyki open-source, Apple nie tylko demokratyzuje zaawansowaną AI, ale także umieszcza się jako konkurent w dziedzinie dominowanej przez gigantów technologicznych, takich jak Microsoft i Google. Przyjazny dla użytkownika design MLX, dynamiczna konstrukcja grafu i ujednolicony model pamięci oferują praktyczną przewagę poza ekosystemem Apple, szczególnie gdy AI coraz bardziej zależy od efektywnych GPU. Potencjalny wpływ frameworku na wymagania sprzętowe oraz jego adaptacyjność dla AI na urządzeniach brzegowych sugerują przyszłość przełomu. Podczas gdy Apple nawiguje w tym nowym obszarze, nacisk na prywatność i uwzględnianie uwag etycznych pozostaje najważniejszy, kształtując trajektorię roli MLX w szerszym ekosystemie AI.

Dr. Tehseen Zia jest profesorem nadzwyczajnym w COMSATS University Islamabad, posiada tytuł doktora w dziedzinie sztucznej inteligencji na Vienna University of Technology, Austria. Specjalizując się w sztucznej inteligencji, uczeniu maszynowym, nauce o danych i widzeniu komputerowym, wniósł znaczący wkład poprzez publikacje w renomowanych czasopismach naukowych. Dr. Tehseen Zia również kierował różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.