Liderzy opinii
Argument za decentralizacją Twojego stosu technologii AI

Taka duża część dyskusji na temat rozwoju sztucznej inteligencji stała się dominowana przez debatę futurystyczną i filozoficzną – czy powinniśmy dążyć do ogólnej sztucznej inteligencji, gdzie sztuczna inteligencja stanie się wystarczająco zaawansowana, aby wykonywać każde zadanie w sposób, w jaki mógłby to zrobić człowiek? Czy jest to w ogóle możliwe?
Podczas gdy dyskusja na temat przyspieszenia versus spowolnienia jest ważna i terminowa z postępami takimi jak model Q-star, inne aspekty również mają znaczenie. Głównie, ważność decentralizacji Twojego stosu technologicznego i jak to zrobić bez nakładu zbyt wielkich kosztów. Te dwa wyzwania mogą się wydawać sprzeczne: budowanie i wdrażanie modeli jest niezwykle kosztowne, ale zbyt duże uzależnienie od jednego modelu może być szkodliwe w dłuższej perspektywie. Znam to wyzwanie osobiście jako założyciel AI.
Aby zbudować inteligencję, potrzebujesz talentu, danych i skalowalnych obliczeń. Aby przyspieszyć czas wprowadzenia na rynek i zrobić więcej z mniej, wiele firm wybierze budowanie na podstawie istniejących modeli, zamiast budowania od podstaw. I ten podejście ma sens, gdy to, co budujesz, jest tak wymagające zasobów. Wzmacniając to wyzwanie, większość dotychczasowych postępów w AI została dokonana przez dodanie większej skali, co wymaga większej mocy obliczeniowej i tym samym kosztów.
Ale co się dzieje, gdy firma, w której zbudowałeś swoje rozwiązanie, doświadcza awarii zarządzania lub awarii produktu? Z praktycznego punktu widzenia, poleganie na jednym modelu do budowy swojego produktu oznacza, że jesteś teraz częścią negatywnego efektu falowego dla wszystkiego, co się dzieje.
Musimy również pamiętać o ryzykach związanych z pracą z systemami, które są probabilistyczne. Nie jesteśmy przyzwyczajeni do tego, a świat, w którym żyjemy, został zaprojektowany, aby funkcjonować z ostateczną odpowiedzią. Modele są płynne pod względem wyjścia, a firmy ciągle dostosowują modele, co oznacza, że kod, który napisałeś, aby wspierać te modele i wyniki, na które liczą Twoi klienci, mogą ulegać zmianom bez Twojej wiedzy lub kontroli.
Centralizacja również stwarza zagrożenia bezpieczeństwa, ponieważ wprowadza pojedynczy punkt awarii. Każda firma działa w najlepszym interesie samej siebie. Jeśli istnieje problem bezpieczeństwa lub ryzyka z modelem, masz znacznie mniej kontroli nad naprawieniem tego problemu lub mniej dostępu do alternatyw.
Gdzie to nas pozostawia?
AI jest bezsprzecznie zmieniać, jak żyjemy. Jest tyle, co może osiągnąć i naprawić, od tego, jak zbieramy informacje, po to, jak rozumiemy ogromne ilości danych. Ale z tą możliwością przychodzi również ryzyko. Jeśli zbyt bardzo polegamy na jednym modelu, wszystkie firmy otwierają się na zarówno wyzwania bezpieczeństwa, jak i produktowe.
Aby to naprawić, musimy obniżyć koszty inferencji i ułatwić firmom posiadanie wielomodelowego podejścia. I oczywiście, wszystko sprowadza się do danych. Własność danych i ich jakość będą miały znaczenie. Im bardziej unikalne, wysokiej jakości i dostępne dane, tym będą bardziej przydatne.
Dla wielu problemów można zoptymalizować modele dla konkretnego zastosowania. Ostatni mil AI to firmy budujące logikę routingu, oceny i warstwy orkiestracji na podstawie tych różnych modeli, specjalizując je dla różnych branż.
Było wiele znaczących inwestycji w tym obszarze, które przybliżają nas do tego celu. Ostatnia (i imponująca) runda finansowania Mistal to obiecujący rozwój w kierunku alternatywy dla OpenAI. Są również firmy, które pomagają innym dostawcom AI, aby uczynić wielomodelowe multiplexing rzeczywistością i zmniejszyć koszty inferencji za pomocą specjalistycznego sprzętu, oprogramowania i destylacji modelu, jako kilka przykładów.
Będziemy również świadkami rozwoju oprogramowania open-source, a organy rządowe muszą umożliwić open source, aby pozostać otwarte. Z modelem open-source jest łatwiej mieć więcej kontroli. Jednak różnice w wydajności wciąż tam są.
Przypuszczam, że skończymy w świecie, w którym będziesz miał junior modele zoptymalizowane do wykonywania mniej złożonych zadań w skali, podczas gdy większe superinteligentne modele będą działać jako oracle dla aktualizacji i będą coraz więcej wydawać na rozwiązywanie bardziej złożonych problemów. Nie będziesz potrzebować modelu z trylionem parametrów, aby odpowiedzieć na prośbę o obsługę klienta. Porównuję to do niepowierzania zadania seniormu menedżerowi, które może wykonać stażysta. Podobnie jak mamy wiele ról dla ludzkich odpowiedników, większość firm również będzie polegać na kolekcji modeli o różnym poziomie zaawansowania.
Aby osiągnąć ten balans, potrzebujesz jasnego podziału zadań i benchmarkingu, biorąc pod uwagę czas, złożoność obliczeniową, koszt i wymaganej skali. W zależności od przypadku użycia, możesz priorytetować odpowiednio. Określ prawdę, ideał wyniku do porównania, oraz przykładowe dane wejścia i wyjścia, aby móc uruchomić różne prompty, aby zoptymalizować i uzyskać najbliższy wynik do prawdy.
Jeśli firmy AI mogą pomyślnie decentralizować swój stos technologiczny i budować na podstawie wielu modeli, możemy poprawić bezpieczeństwo i niezawodność tych narzędzi i tym samym maksymalizować pozytywny wpływ AI. Nie jesteśmy już w miejscu dla debat teoretycznych – czas się skoncentrować na tym, jak wykorzystać AI, aby uczynić te technologie bardziej skutecznymi i wytrzymałymi.












