Liderzy myśli
Miraż chińskiej sztucznej inteligencji: jak „Open Source” ukrywa to, co najważniejsze

W obliczu rywalizacji dużych graczy technologicznych, takich jak Google, Microsoft i Meta, o dominację na rynku sztucznej inteligencji, chińskie firmy High Flyer, Baidu, Moonshot i Alibaba znalazły się na pierwszych stronach gazet za sprawą wydania swoich aplikacji DeepSeek, ERNIE 4.5, Kimi K2, Qwen3 odpowiednio duże modele językowe jako oprogramowanie open source. To odejście od publikowania chronionych, zastrzeżonych modeli GenAI zostało odebrane jako sygnał, że chiński przemysł sztucznej inteligencji wykorzystuje potencjał oprogramowania open source, aby demokratyzować rozwój sztucznej inteligencji i stymulować innowacje.
Podobnie jak wielu graczy, którzy reklamują swoje oferty jako open source, a nawet umieszczają to w nazwach swoich firm, High Flyer, Baidu i Moonshot nie udostępniły jednak kluczowych elementów, takich jak zbiory danych, stanowiące rdzeń ich modeli. W miarę jak te rozbudowane modele dążą do stania się towarami, na których polegają deweloperzy, transparentność prawdziwego open source, które można testować, badać i iterować, ma kluczowe znaczenie dla tworzenia obiektywnej, etycznej i korzystnej technologii, której wszyscy możemy zaufać. Wszystkie te modele „open source” są w rzeczywistości „otwarte”, co oznacza, że można je pobrać i używać, ale bez danych nie można ich w żaden sensowny sposób sprawdzić.
Ponieważ gracze z USA lubią Otwórz AI oraz Meta Choć wydaje się, że Baidu wycofuje się z open source, otwarte zaproszenie Baidu do wykorzystania jego darmowego pakietu modeli ERNIE 4.5 może rzeczywiście pobudzić innowacje i współpracę z deweloperami, którzy chcą tworzyć mniejsze, wydajne aplikacje. Jednocześnie firma, będąca odpowiednikiem chińskiego Google, zapewniła sobie przewagę konkurencyjną, zachęcając do adopcji i utrwalając swoje modele w rozwijającym się ekosystemie sztucznej inteligencji.
To samo można powiedzieć o DeepSeek, niedrogim Kimi K2 i odświeżonym Qwen3, który może pochwalić się wynikami testowymi stanowiącymi wyzwanie dla zamkniętych modeli, takich jak Claude Opus 4 i GPT-4o-0327.
Ci gracze korzystający ze sztucznej inteligencji zajęli dobrą pozycję w wyścigu o zostanie modelem pierwszego wyboru, a najnowsza innowacyjna aktualizacja gry Qwen3 została zainspirowana opiniami społeczności open source.
Jednak, podobnie jak wielu, którzy reklamują swój rozbudowany model sztucznej inteligencji jako open source, chińska społeczność AI w rzeczywistości nie udostępnia danych ani innych kluczowych elementów swoich systemów. Zamiast tego, proszą globalnych programistów o bezkrytyczne zaufanie modelom, których nie są w stanie w pełni zrozumieć ani zbadać.
Zdobywanie uprawnień do kształtowania przyszłości dzięki modelom sztucznej inteligencji typu open source
Gdy w 2007 roku iPhone wszedł na rynek, niektórzy zakładali, że to Mac będzie dominował na rynku smartfonów dzięki systemowi iOS, ale udział w projektach typu open source jest nieodłączną częścią startupów, a także pobudzając przedsiębiorczość i wzrost gospodarczy na całym świecie — a Android, startup przejęty przez Google w 2005 r., podążył tą drogą do zwycięstwa.
Udostępniając oprogramowanie open source, które można było przeglądać, modyfikować, adoptować i udostępniać, Android zaprosił naukowców, programistów, a nawet konkurencję do współpracy nad oprogramowaniem. Przyspieszyło to proces innowacji, zdemokratyzowało rynek i ostatecznie doprowadziło do spadku cen. Android trafił na rynek rok po premierze pierwszego iPhone'a i na początku tego roku. posiadał 71.88 proc. udziału w rynku globalnym, podczas gdy iOS miał 27.65 proc.
W rewolucji technologicznej, która zdawała się nastąpić z dnia na dzień, smartfony stały się wszechobecne i, mimo ciągłych ulepszeń oprogramowania, sprzętu i interfejsu użytkownika, branża rozwinęła się daleko poza próby zrewolucjonizowania sposobu działania smartfonów. Ponieważ telefony komórkowe stały się powszechnym towarem, innowacja, z którą mamy do czynienia, tkwi w aplikacjach, które na nich działają. Aby utrzymać pozycję lidera, dostawcy smartfonów muszą utrzymywać ekosystem, który przyciąga deweloperów.
Niecałe trzy lata po premierze ChatGPT branża sztucznej inteligencji (AI) znalazła się na podobnej krawędzi. Każdy gracz w globalnej branży AI dąży do tego, aby jego modele stały się kolejnym systemem Android, a nawet iOS. Chińscy innowatorzy, udostępniając oprogramowanie open source w modelach DeepSeek, ERNIE 4.5 i Kimi K2, chcą umocnić swoją pozycję w rozwijającym się ekosystemie.
Choć mogłoby to działać na ich korzyść, nie sprzyja to prawdziwej przejrzystości oprogramowania typu open source, która jest niezbędna nie tylko do tworzenia innowacji, ale także do tworzenia innowacji, którym możemy zaufać.
Dane to brakujący element w większości rozwiązań typu open source opartych na sztucznej inteligencji
Ponieważ modele AI są znacznie bardziej skomplikowane w tworzeniu i udostępnianiu niż tradycyjne oprogramowanie, zapotrzebowanie na w pełni otwarte oprogramowanie AI nie jest małe. Zamiast prostego kodu źródłowego, systemy AI składają się z siedem składników—w tym kod źródłowy, parametry modelu, zestaw danych, hiperparametry, kod źródłowy szkoleniowy, generowanie liczb losowych i struktury oprogramowania.
Każdy element musi działać spójnie, aby model dawał pożądane rezultaty, co oznacza, że programiści potrzebują pełnej przejrzystości, aby udostępniać, modyfikować i wdrażać system oraz rozumieć, co się dzieje. Jednak ponieważ powtarzalność jest fundamentem metody naukowej, branża sztucznej inteligencji ma… nawyk stosowania terminu open source w odniesieniu do darmowych lub tanich wydań, które udostępniają dostęp do kilku elementów układanki.
Na przykład Baidu udostępniło bezpłatnie dziesięć modeli ERNIE 4.5. Oprócz udostępnienia modelu i parametrów, firma udostępniła również oprogramowanie open source dla ERNIEKit i zestawów narzędzi wdrożeniowych FastDeploy. Umożliwiają one programistom tworzenie zaawansowanych aplikacji AI, zapewniając możliwości klasy przemysłowej, efektywne pod względem zasobów procesy szkolenia i wnioskowania oraz kompatybilność z wieloma urządzeniami.
Innymi słowy, Baidu udostępniło deweloperom atrakcyjne narzędzia, które pozwalają im szybciej wdrażać innowacje, co — jak mają nadzieję — zachęci ich do wyboru ERNIE 4.5 zamiast rozwiązań konkurencyjnych.
Jednak od deweloperów wykorzystujących ERNIE 4.5 wymaga się bezwzględnego zaufania temu modelowi, ponieważ Baidu ukryło wiele informacji, w tym zestawy danych, które informują i uczą jego modeli.
Siła przejrzystych modeli AI typu open source
Chociaż każdy element układanki sztucznej inteligencji ma kluczowe znaczenie dla działania modelu, 80 procent projektów AI kończy się niepowodzeniem, a sednem problemu są daneNiedokładne, niekompletne i stronnicze zbiory danych prowadzą do modeli, które nie zachowują się przewidywalnie ani zgodnie z oczekiwaniami.
niedawno opublikowano film o tragicznym wypadku Tesli z 2023 roku z całkowicie autonomiczną jazdą (FSD)Na przykład, ujawnił najgorszy scenariusz tego, co może się wydarzyć, gdy zestaw danych i model zawiodą. Gdy Tesla Model Y wjechała w jasne, zachodzące słońce, częściowo zautomatyzowany system nie był w stanie zrozumieć ani odpowiednio zareagować na to, co widziały – lub czego nie widziały – jego kamery. Podczas gdy samochody prowadzone przez ludzi zwalniały i zatrzymywały się, dezorientacja FSD doprowadziła do śmierci kobiety.
Ta druzgocąca awaria odzwierciedlała niekompletne dane wizualne, a także brak mechanizmu bezpieczeństwa, który uwzględniałby te martwe pola. Gdy programiści nie mają wglądu w swoje dane, nie widzą, jak oddziałują one na model, co oznacza, że nie mogą wykryć takich błędów i iterować w celu uzyskania wysokiej wydajności.
Co jeszcze bardziej niepokojące, bez danych stanowiących podstawę modelu, zmuszeni są bezkrytycznie mu ufać.
Jednak gdy zbiory danych są udostępniane w formie otwartej, społeczność zajmująca się sztuczną inteligencją udowodniła, że potrafi ona wykorzenić problematyczne problemy, jak to miało miejsce w przypadku odkrywania ponad 1,000 adresów URL zawierających zweryfikowane materiały dotyczące wykorzystywania seksualnego dzieci w LAION 5B. Zbiór danych używany do generowania modeli AI przetwarzających tekst na obraz stanowił fundament dla tworzenia aplikacji takich jak Stable Diffusion i Midjourney, więc gdyby użytkownicy zaczęli tworzyć nielegalne, fotorealistyczne obrazy, miałoby to katastrofalne skutki dla branży AI. Zamiast tego, otwarty charakter tego zbioru danych pozwolił społeczności odkryć niebezpieczne treści i zmotywować do ich rozwiązania, powiedział łącznik B.
Ponadto znaczna część tego pierwszego zestawu danych pochodziła ze scrapowania sieci przez ogromny Common Crawl, który był również wykorzystywany w modelach ChatGPT i LLAMA. Roboty oparte na sztucznej inteligencji nadal budzą obawy dotyczące copywritingu, prywatności oraz stronniczego i rasistowskiego etykietowaniajednak programiści ze społeczności AI są pracujemy nad sposobami czyszczenia fragmentów rosnącego zbioru danych open source Common Crawl w celu zapewnienia bezpieczniejszego użytkowania.
Ponieważ twórcy oprogramowania dążą nie tylko do tworzenia wydajnej sztucznej inteligencji, ale także sztucznej inteligencji, której możemy zaufać, zarówno użytkownicy, jak i branża są chronieni przez przejrzystość i współpracę prawdziwego oprogramowania typu open source.
Przyjęcie ścieżki open source
Wiele osób wciąż podchodzi nieufnie do tej rozwijającej się technologii, a wyścig o to, kto stanie się systemem iOS lub Androidem wśród dużych modeli produktów AI, już trwa. Globalna społeczność AI dosłownie tworzy to, co stanie się standardem przyszłości, a systemy AI już jeżdżą samochodami i oferują oceny medyczne. Zbudowanie zaufania poprzez tworzenie obiektywnej, niezawodnej i bezpiecznej AI nigdy nie było ważniejsze.
Chińska społeczność AI stara się pozycjonować jako lider otwartej innowacji, a droga do bezpiecznej sztucznej inteligencji prowadzi jedynie przez transparentność prawdziwego open source, co zostało potwierdzone przez dekady innowacji w oprogramowaniu. Narzucanie tego terminu systemom, które nie udostępniają kluczowych elementów, takich jak dane, uniemożliwia programistom badanie, replikację i iterację. Choć atrakcyjność łatwo dostępnych modeli, takich jak DeepSeek, ERNIE 4.5, Kimi K2 i Qwen3, jest niezaprzeczalna, programiści, którzy z nich korzystają, rezygnują z transparentności sprzyjającej współpracy i innowacyjności na rzecz wygody.
Społeczność zajmująca się sztuczną inteligencją musi podjąć decyzję: czy postawić na radykalną przejrzystość dzięki prawdziwemu oprogramowaniu typu open source, czy zaryzykować budowę jutrzejszych systemów o krytycznym znaczeniu w oparciu o dzisiejsze czarne skrzynki.