Tankeledere
AI og AR driver etterspørselen etter data – Åpen kildekode-hardware møter utfordringen

Data er livsnerven i den digitale økonomien, og når nye teknologier oppstår og utvikler seg, øker etterspørselen etter raskere dataoverføringshastigheter, lavere forsinkelser og høyere beregningskraft i datasentre eksponentielt. Nye teknologier presser grensene for dataoverføring og -behandling, og ved å bruke åpen kildekode-teknologier kan datasenteroperatører maksimere sine nåværende operasjoner og forberede seg på fremtiden. Her er noen eksempler på teknologi som driver etterspørselen etter høy beregningskraft og måter åpen kildekode-teknologi, -samfunn og -standarder hjelper med å møte denne etterspørselen på en skalerbar og bærekraftig måte.
Kunstig intelligens og maskinlæring
Kunstig intelligens (AI) og maskinlæring (ML) revolusjonerer forskjellige domener som naturlig språkbehandling, datamaskin-syn, talegjenkjenning, anbefalingssystemer og selvkjørende biler. AI og ML gjør det mulig for datamaskiner å lære av data og utføre oppgaver som normalt krever menneskelig intelligens.
Men AI og ML krever også massive mengder data og beregningskraft for å trene og kjøre komplekse modeller og algoritmer. For eksempel har GPT-3, en av de mest avanserte naturlige språkmodellene i verden, 175 milliarder parametre og ble trent på 45 terabyte tekstdata. For å behandle slike store datamengder og modeller effektivt, trenger AI- og ML-applikasjoner høy-ytelsesdatamaskiner (HPC) som kan levere høye dataoverføringshastigheter, lave forsinkelser og høy beregningskraft.
En av de nye trendene i HPC er å bruke spesialiserte prosessorer som GPU eller TPU som er optimalisert for parallell bearbeiding og matriseregnskaper som er vanlige i AI- og ML-arbeidsbelastninger. For eksempel er NVIDIA’s Grace CPU en ny prosessor som er designet spesielt for HPC-applikasjoner og som utnytter NVIDIA’s GPU-teknologi for å levere opptil 10 ganger raskere ytelse enn nåværende x86-CPUer. Grace CPU støtter også rask kobling som NVLink som muliggjør høye dataoverføringshastigheter mellom CPU og GPU.
Forbedret virkelighet og virtuell virkelighet
Apple Vision Pro skapte bølger under sin lansering. Forbedret virkelighet (AR) og virtuell virkelighet (VR) er to av de mest immersive og interaktive teknologiene som transformerer forskjellige industrier som underholdning, utdanning, helsevesen og produksjon. AR legger digitale informasjoner over den virkelige verden, mens VR skaper en fullstendig simuleringsmiljø som brukerne kan oppleve gjennom en hodetelefon.
Men disse teknologiene stiller også betydelige utfordringer for dataoverføring og -behandling. På grunn av dens nylige lansering er detaljene rundt Apple Vision Pro fortsatt ventende. Andre VR-hodetelefoner har vært tilgjengelige i en stund, så vi kan gjøre noen antagelser. For eksempel krever VR-hodetelefoner som Oculus Quest 2 en høyhastighetskobling til en PC eller en skytjener for å strømme høykvalitets video- og lydinnhold, samt sporings- og innputtdata fra hodetelefonen og kontrollerne. Video-bitraten, som er mengden data som overføres per sekund, avhenger av hvor raskt GPU-en kan kode signalen på PC- eller server-siden, og hvor raskt Quest 2-prosessoren kan dekodere signalen på hodetelefon-siden.
Ifølge Oculus er den anbefalte bitraten for VR-strømming mellom 150 Mbps til 500 Mbps, avhengig av oppløsning og bildefrekvens. Dette betyr at VR-strømming krever en mye høyere dataoverføringshastighet enn andre nettaktiviteter som nettlesing eller musikkstrømming. I tillegg krever VR-strømming også lav forsinkelse, som er tiden det tar for et signal å reise fra ett punkt til et annet. Høy forsinkelse kan forårsake hakk eller jitter i spill, som kan ødelegge innlevelsen og forårsake bevegelsessyke.
Forsinkelsen avhenger av flere faktorer som nettverkshastighet, avstanden mellom enhetene og kode- og dekoderalgoritmer. Ifølge Oculus er den ideelle forsinkelsen for VR-strømming under 20 millisekunder. Men å oppnå dette nivået av ytelse er ikke enkelt, særlig over trådløse koblinger som Wi-Fi eller 5G.
Åpen kildekode-teknologier for datasenteroptimalisering
Ettersom nye teknologier driver etterspørselen etter raskere dataoverføringshastigheter, lavere forsinkelser og høyere beregningskraft i datasentre, møter datasenteroperatører flere utfordringer som økende strømforbruk, krevende nye kjølekrav, arealutnyttelse, driftskostnader og en rask innovasjons- og oppdateringshastighet for maskinvare. For å møte disse utfordringene må datasenteroperatører optimere sin nåværende infrastruktur og adoptere nye standarder og teknologier som kan forbedre deres effektivitet og skalerbarhet.
Dette er målet med Open19-prosjektet, en Sustainable and Scalable Infrastructure Alliance-initiativ som nå er en del av Linux Foundation. Open19-prosjektet er en åpen standard for datasenter-hardware som er basert på felles formfaktorer og gir neste generasjons høyeffektive strømfordeling, gjenbrukbare komponenter og muligheter for fremtidige høyhastighetskoblinger. SSIA-målet og åpne standarder som er skapt gjennom Open19-prosjektet er i tråd med den større industriens drive mot effektivitet, skalerbarhet og bærekraft for infrastrukturen som driver våre digitale liv og samfunn. Open Compute Project er et annet initiativ for å støtte de voksende etterspørselen på datasenter-infrastruktur på en effektiv måte. Dette prosjektet fremmer også samarbeid mellom industripartnerne for å utvikle datasenterløsninger, med fokus på 21” server-rack-størrelser som vanligvis brukes av store colo- og hyperscalere. OCP-omfanget omfatter også datasenter-anlegget, samt de interne IT-komponentene i serverne.
Konklusjon
Nye teknologier driver etterspørselen etter raskere dataoverføringshastigheter, lavere forsinkelser og høyere beregningskraft i datasentre, mens samfunn, myndigheter og selskaper fokuserer på ressursforvaltning og økte bærekraftsproblemer rundt vannforbruk, strømforvaltning og andre karbonintensive aspekter ved teknologisk skaping, bruk og distribusjon. Ved å adoptere åpen kildekode-teknologier, utviklet i samfunnsdrevne forum som SSIA og Linux Foundation, kan datasenteroperatører maksimere sine nåværende operasjoner og forberede seg på en fremtid som er mer bærekraftig når de møter etterspørselen etter disse spennende nye applikasjonene.












