Connect with us

Argument za decentralizacją Twojego stosu technologii AI

Liderzy opinii

Argument za decentralizacją Twojego stosu technologii AI

mm
Decentralized AI

Taka duża część dyskusji na temat rozwoju sztucznej inteligencji stała się dominowana przez debatę futurystyczną i filozoficzną – czy powinniśmy dążyć do ogólnej sztucznej inteligencji, gdzie sztuczna inteligencja stanie się wystarczająco zaawansowana, aby wykonywać każde zadanie w sposób, w jaki mógłby to zrobić człowiek? Czy jest to w ogóle możliwe?

Podczas gdy dyskusja na temat przyspieszenia versus spowolnienia jest ważna i terminowa z postępami takimi jak model Q-star, inne aspekty również mają znaczenie. Głównie, ważność decentralizacji Twojego stosu technologicznego i jak to zrobić bez nakładu zbyt wielkich kosztów. Te dwa wyzwania mogą się wydawać sprzeczne: budowanie i wdrażanie modeli jest niezwykle kosztowne, ale zbyt duże uzależnienie od jednego modelu może być szkodliwe w dłuższej perspektywie. Znam to wyzwanie osobiście jako założyciel AI.

Aby zbudować inteligencję, potrzebujesz talentu, danych i skalowalnych obliczeń. Aby przyspieszyć czas wprowadzenia na rynek i zrobić więcej z mniej, wiele firm wybierze budowanie na podstawie istniejących modeli, zamiast budowania od podstaw. I ten podejście ma sens, gdy to, co budujesz, jest tak wymagające zasobów. Wzmacniając to wyzwanie, większość dotychczasowych postępów w AI została dokonana przez dodanie większej skali, co wymaga większej mocy obliczeniowej i tym samym kosztów.

Ale co się dzieje, gdy firma, w której zbudowałeś swoje rozwiązanie, doświadcza awarii zarządzania lub awarii produktu? Z praktycznego punktu widzenia, poleganie na jednym modelu do budowy swojego produktu oznacza, że jesteś teraz częścią negatywnego efektu falowego dla wszystkiego, co się dzieje.

Musimy również pamiętać o ryzykach związanych z pracą z systemami, które są probabilistyczne. Nie jesteśmy przyzwyczajeni do tego, a świat, w którym żyjemy, został zaprojektowany, aby funkcjonować z ostateczną odpowiedzią. Modele są płynne pod względem wyjścia, a firmy ciągle dostosowują modele, co oznacza, że kod, który napisałeś, aby wspierać te modele i wyniki, na które liczą Twoi klienci, mogą ulegać zmianom bez Twojej wiedzy lub kontroli.

Centralizacja również stwarza zagrożenia bezpieczeństwa, ponieważ wprowadza pojedynczy punkt awarii. Każda firma działa w najlepszym interesie samej siebie. Jeśli istnieje problem bezpieczeństwa lub ryzyka z modelem, masz znacznie mniej kontroli nad naprawieniem tego problemu lub mniej dostępu do alternatyw.

Gdzie to nas pozostawia?

AI jest bezsprzecznie zmieniać, jak żyjemy. Jest tyle, co może osiągnąć i naprawić, od tego, jak zbieramy informacje, po to, jak rozumiemy ogromne ilości danych. Ale z tą możliwością przychodzi również ryzyko. Jeśli zbyt bardzo polegamy na jednym modelu, wszystkie firmy otwierają się na zarówno wyzwania bezpieczeństwa, jak i produktowe.

Aby to naprawić, musimy obniżyć koszty inferencji i ułatwić firmom posiadanie wielomodelowego podejścia. I oczywiście, wszystko sprowadza się do danych. Własność danych i ich jakość będą miały znaczenie. Im bardziej unikalne, wysokiej jakości i dostępne dane, tym będą bardziej przydatne.

Dla wielu problemów można zoptymalizować modele dla konkretnego zastosowania. Ostatni mil AI to firmy budujące logikę routingu, oceny i warstwy orkiestracji na podstawie tych różnych modeli, specjalizując je dla różnych branż.

Było wiele znaczących inwestycji w tym obszarze, które przybliżają nas do tego celu. Ostatnia (i imponująca) runda finansowania Mistal to obiecujący rozwój w kierunku alternatywy dla OpenAI. Są również firmy, które pomagają innym dostawcom AI, aby uczynić wielomodelowe multiplexing rzeczywistością i zmniejszyć koszty inferencji za pomocą specjalistycznego sprzętu, oprogramowania i destylacji modelu, jako kilka przykładów.

Będziemy również świadkami rozwoju oprogramowania open-source, a organy rządowe muszą umożliwić open source, aby pozostać otwarte. Z modelem open-source jest łatwiej mieć więcej kontroli. Jednak różnice w wydajności wciąż tam są.

Przypuszczam, że skończymy w świecie, w którym będziesz miał junior modele zoptymalizowane do wykonywania mniej złożonych zadań w skali, podczas gdy większe superinteligentne modele będą działać jako oracle dla aktualizacji i będą coraz więcej wydawać na rozwiązywanie bardziej złożonych problemów. Nie będziesz potrzebować modelu z trylionem parametrów, aby odpowiedzieć na prośbę o obsługę klienta. Porównuję to do niepowierzania zadania seniormu menedżerowi, które może wykonać stażysta. Podobnie jak mamy wiele ról dla ludzkich odpowiedników, większość firm również będzie polegać na kolekcji modeli o różnym poziomie zaawansowania.

Aby osiągnąć ten balans, potrzebujesz jasnego podziału zadań i benchmarkingu, biorąc pod uwagę czas, złożoność obliczeniową, koszt i wymaganej skali. W zależności od przypadku użycia, możesz priorytetować odpowiednio. Określ prawdę, ideał wyniku do porównania, oraz przykładowe dane wejścia i wyjścia, aby móc uruchomić różne prompty, aby zoptymalizować i uzyskać najbliższy wynik do prawdy.

Jeśli firmy AI mogą pomyślnie decentralizować swój stos technologiczny i budować na podstawie wielu modeli, możemy poprawić bezpieczeństwo i niezawodność tych narzędzi i tym samym maksymalizować pozytywny wpływ AI. Nie jesteśmy już w miejscu dla debat teoretycznych – czas się skoncentrować na tym, jak wykorzystać AI, aby uczynić te technologie bardziej skutecznymi i wytrzymałymi.

Naré Vardanyan jest dyrektorem generalnym i współzałożycielem Ntropy, standardyzacji i wzbogacania danych finansowych API.