Connect with us

Tankeledere

Kinas AI-mirage: Hvordan “åpen kilde” skjuler det viktigste

mm

Med store teknologiselskaper som Google, Microsoft og Meta som kjemper for å dominere AI-markedet, har Kinas High Flyer, Baidu, Moonshot og Alibaba fått overskrifter for å slippe sine DeepSeek, ERNIE 4.5, Kimi K2 og Qwen3 store språkmodeller, henholdsvis, som åpen kilde. Denne skiftet fra å slippe vaktede, proprietære GenAI-modeller har blitt mottatt som et tegn på at Kinas AI-industri omfavner kraften i åpen kilde for å demokratisere AI-utvikling og fremme innovasjon.

Like mange spillere som proklamerer sine tilbud som åpen kilde og selv setter det i sine selskapsnavn, har High Flyer, Baidu og Moonshot likevel ikke deltatt kritiske deler som datasett i hjertet av sine modeller. Ettersom disse store modellene søker å bli varer som utviklere avhenger av, er gjennomsiktigheten av sanne åpen kilde som kan testes, undersøkes og itereres over kritisk for å skape ubiasert, etisk og nyttig teknologi som vi alle kan stole på. Alle disse “åpen kilde”-modellene er faktisk “åpen vekt”, som betyr at de kan lastes ned og brukes, men de kan ikke inspiseres på noen meningsfull måte uten dataene.

Da amerikanske spillere som Open AI og Meta ser ut til å trekke seg tilbake fra åpen kilde, kan Baidus åpne invitasjon til å utnytte sin fritt tilgjengelige suite av ERNIE 4.5-modeller faktisk fremme innovasjon og samarbeid med utviklere som søker å skape mindre, kraftfulle applikasjoner. Samtidig har selskapet, som er lignende Kinas Google, gitt seg en konkurransefordel ved å oppmuntre til bruk og å etablere sine modeller i den voksende AI-økosystemet.

Det samme kan sies om DeepSeek, den lavprisede Kimi K2 og den oppdaterte Qwen3 – som hevder benchmark som utfordrer lukkede modeller som Claude Opus 4 og GPT-4o-0327.

Disse AI-spillerne har posisjonert seg godt i kappløpet om å bli den mest ettertrakte modellen og Qwen3s siste innovative oppdatering ble faktisk inspirert av åpen kilde-samfunnets tilbakemeldinger.

Like mange som proklamerer sine store AI-modeller som åpen kilde, har likevel den kinesiske AI-samfunnet ikke deltatt data eller andre kritiske deler av sine AI-systemer. I stedet ber de globale utviklerne om å sette sin blinde tillit til modeller som de ikke virkelig kan forstå eller undersøke.

Å hevde krav på fremtiden med åpen kilde AI-modeller

Da iPhone kom på markedet i 2007, antok noen at Mac ville herske over smarttelefon-spillet med iOS, men åpen kilde-deltagelse er avgjørende for start-ups, samt også å fremme entreprenørsk og økonomisk vekst verden over – og Android, en start-up som ble kjøpt av Google i 2005, fulgte denne veien til seier.

Ved å slippe åpen kilde-programvare som kunne ses, modifiseres, adopteres og deles, inviterte Android akademikere, utviklere og selv konkurrenter til å samarbeide om programvaren. Dette akselererte innovasjonsprosessen, demokratiserte spillfeltet og førte til slutt til lavere priser. Android kom på markedet ett år etter den første iPhone og ved starten av dette året, hevdet det 71,88 prosent av det globale markedet, mot iOS’ 27,65 prosent.

I en teknologisk revolusjon som syntes å skje over natten, ble smarttelefoner ubetydelige og selv om programvare-, maskin- og brukergrensesnitt-forbedringer fortsatt pågår, har industrien vokst langt forbi å forsøke å revolusjonere måten smarttelefoner fungerer på. Med mobiltelefoner nå en vare, er innovasjonen for hånden i dag i appene som kjører på dem, og for å være med i kampen, må smarttelefonselskapene opprettholde et økosystem som inviterer utviklere inn.

Ikke tre år etter lanseringen av ChatGPT, finner AI-industrien seg på en lignende terskel. Hver spiller i den globale AI-industrien er på å angi sine modeller til å bli den neste Android eller selv iOS, og ved å gå åpen kilde med DeepSeek-, ERNIE 4.5- og Kimi K2-modellene, søker kinesiske innovatører å hevde sin krav på et voksende økosystem.

Selv om dette kunne fungere til deres fordel, gjør det likevel ikke at det fremmer den sanne gjennomsiktigheten av åpen kilde som har vært avgjørende for å fremme innovasjon, samt også å fremme innovasjon som vi kan stole på.

Data er den manglende delen i de fleste åpen kilde AI

Med AI-modeller som er mye mer kompliserte å skape og dele enn tradisjonell programvare, er kravet om fullstendig åpen kilde AI ingen liten ordre. I stedet for bare en enkel kildekode, består AI-systemer av syv komponenter – inkludert kildekode, modellparametre, datasett, hyperparametre, trening kildekode, tilfeldig tallgenerering og programvare-rammeverk.

Hver del må fungere i konsert for at en modell skal levere de ønskede resultater, som betyr at utviklere trenger full visibilitet for å dele, modifisere og adoptere et system og forstå hva som skjer. Med reproduksjon som grunnlag for den vitenskapelige metoden, har likevel AI-industrien en vane med å bruke begrepet åpen kilde til å referere til gratis eller lavprisede utgaver som er tilgjengelige med tilgang til noen deler av puslespillet.

Baidu, for eksempel, gjorde ti ERNIE 4.5-modeller fritt tilgjengelige. I tillegg til å dele modellen og parameterne, gjorde selskapet også åpen kilde ERNIEKit og FastDeploy-deployverktøyene. Disse muliggjør for utviklere å bygge kraftfulle AI-applikasjoner ved å tilby industrigodkjenning, ressurs-effektive trening- og inferens-arbeidsflyter og multi-hardware-kompatibilitet.

Med andre ord, har Baidu gitt utviklere spennende verktøy som muliggjør å slippe løs innovasjon raskere, som de håper vil, i tur, tillokke dem til å velge ERNIE 4.5 over konkurrentene.

Utviklere som utnytter ERNIE 4.5, blir likevel bedt om å blindt stole på modellen, fordi Baidu har holdt mye skjult, inkludert datasettene som informerer og lærer modellene.

Kraften i gjennomsiktige åpen kilde AI-modeller

Selv om hver del av AI-puslespillet er kritisk for å gjøre en modell fungere, 80 prosent av AI-prosjektene feiler, og data er i hjertet av problemet. Uekte, ufullstendige og forvrengte datasett fører til modeller som ikke oppfører seg forutsigbart eller som ønsket.

Den nylig utgitte dødelige 2023 Tesla Full-Self-Driving (FSD) kollisjonsvideoen, for eksempel, avdekket det verste scenariet for hva som kan skje når et datasett og modell svikter. Da Tesla Model Y speedet inn i en lys, nedadgående sol, kunne den delvis automatiske systemet ikke forstå eller reagere riktig på hva kameraene så – eller ikke så. Mens biler drevet av mennesker sakte ned og trakk over, førte FSDs forvirring til en kvinnes død.

Denne devastrende feil reflekterte et ufullstendig visuelt datasett, samt mangelen på en sikkerhetsmekanisme som tok hensyn til slike blinde flekker. Når utviklere ikke har noen visning av sine data, kan de ikke se hvordan det samhandler med modellen, som betyr at de ikke kan avdekke slike feil og iterere for robust ytelse.

Enda mer bekymringsfullt, uten datasettene som driver modellen, er de tvunget til å stole på den blindt.

Når datasett er åpen kilde, har likevel AI-samfunnet bevist at det vil avdekke truende problemer, som det gjorde ved å avdekke over 1 000 URL-er som inneholder verifisert barnemishandling i LAION 5B. Med datasettene som brukes til AI-tekst-til-bilde-genereringsmodeller som er grunnleggende i å skape apper som Stable Diffusion og Midjourney, ville det vært ødeleggende for AI-industrien hvis brukerne begynte å produsere ulovlige fotorealistiske bilder. I stedet tillot den åpne naturen av dette datasett at samfunnet avdekket det farlige innholdet og motiverte en fiksering, Liaison B.

I tillegg dro meget av det første datasett fra web-skraping utført av den enorme Common Crawl, som også ble brukt til ChatGPT og LLAMA-modeller. Selv om AI-crawlers fortsatt raiser bekymringer om opphavsrett, personvern og forvrengt og rasistisk merking, arbeider likevel utviklere i AI-samfunnet på måter å rense deler av Common Crawls voksende åpen kilde-datasett for tryggere bruk.

Ettersom utviklere søker å bygge ikke bare kraftfulle AI, men også AI som vi kan stole på, er både brukere og industrien beskyttet av gjennomsiktigheten og samarbeidet i sanne åpen kilde.

Å omfavne den åpne kilde-veien

Med mange som fortsatt er skeptiske til denne voksende teknologien, er kappløpet om å bli iOS eller Android av store AI-varemodeller i gang – og ettersom den globale AI-samfunnet bokstavelig talt bygger hva som vil bli standarden for fremtiden og AI-systemer allerede kjører biler og tilbyr medisinske vurderinger, er etablering av tillit ved å skape ubiasert, pålitelig og trygg AI aldri vært mer kritisk.

Med Kinas AI-samfunn som prøver å posisjonere seg som championer av åpen innovasjon, er veien til trygg AI bare å finne i gjennomsiktigheten av sanne åpen kilde som er bevist gjennom tiår av programvare-innovasjon. Å kaste begrepet på systemer som ikke deler kritiske deler som data, tillater ikke utviklere å undersøke, replikere og iterere. Selv om tiltrekningen av lett tilgjengelige modeller som DeepSeek, ERNIE 4.5, Kimi K2 og Qwen3 er uimotståelig, bytter utviklere som utnytter dem gjennomsiktigheten som fremmer samarbeid og innovasjon for komfort.

AI-samfunnet må velge: omfavne radikal gjennomsiktighet gjennom ekte åpen kilde, eller risikere å bygge morgendagens kritiske systemer på dagens svarte bokser.

Dr. Jason Corso er medgrunnlegger og Chief Science Officer i Voxel51, og en professor i robotikk og elektroteknikk og datavitenskap ved University of Michigan. En veteran i feltet datavisjon, har Dr. Corso dedikert over 20 år til akademisk forskning i feltene videoforståelse, robotikk og datavitenskap.