Tankeledare
Valet av lagring för att stödja AI/ML-initiativ

Av Candida Valois, Field CTO, Americas, Scality
Antagandet av ML och AI fortsätter att öka snabbt, vilket inte är förvånande, med tanke på de affärsinsikter och branschomvandling som dess många användningsfall förutspår. PwC förutspår att AI kan bidra med nästan 16 biljoner dollar till den globala ekonomin år 2030. Detta motsvarar en ökning med 26 % av BNP för lokala ekonomin.
Dessa teknologier kräver stora mängder ostrukturerad data för att fungera, och den datan kommer ofta i form av videor, bilder, text och röst. Dessa typer av arbetsbelastningar kräver en ny approach till datalagring; de gamla metoderna räcker inte till. Med tillkomsten av sådana arbetsbelastningar behöver applikationer snabbare åtkomst till stora mängder data – data som skapas överallt: i molnet, på kanterna och på plats. Dessa intensiva arbetsbelastningar kräver låg latens, förmåga att stödja olika typer och storlekar av nyttolast, och förmåga att skala linjärt.
Vad som behövs är en färsk approach till dataleverans, en som är applikationscentrerad snarare än plats- eller teknologi-centrerad. Med den stora antagandet av AI/ML och analytik behöver företags IT-chefer en betydande förändring i hur de tänker om datahantering och lagring.
Hantering av alla filstorlekar
När det gäller AI/ML-arbetsbelastningar och datalagring behöver organisationer en lösning som kan hantera olika typer av arbetsbelastningar, både små och stora filer. I vissa fall kan du behöva hantera bara några tiotals terabyte, medan i andra fall finns det många petabyte. Inte alla lösningar är avsedda för stora filer, lika lite som alla kan hantera mycket små. Knepet är att hitta en som kan hantera båda på ett flexibelt sätt.
Skalbarhet är avgörande
För att säkerställa precision och hastighet behöver organisationer massiva datamängder eftersom det är vad AI/ML-algoritmer behöver för att ordentligt träna underliggande modeller. Organisationer vill växa i termer av kapacitet och prestanda men hindras ofta av traditionella lagringslösningar. När de försöker skala linjärt kan de inte. AI/ML-arbetsbelastningar kräver en lagringslösning som kan skala oändligt när datan växer.
Några hundra terabyte är max för standard fil- och blocklagringslösningar; efter det kan de inte skala. Objektlagring kan skala obegränsat, elastiskt och sömlöst baserat på efterfrågan. Och vad som är viktigt om objektlagring jämfört med traditionell lagring är att det är ett helt platt utrymme där det inte finns några begränsningar. Användare kommer inte att möta de begränsningar de skulle hitta med traditionell lagring.
Möt prestandakraven
Kapacitetsskalning är viktigt, men det räcker inte. Organisationer behöver också förmågan att skala linjärt i termer av prestanda. Tyvärr, med många traditionella lagringslösningar, sker kapacitetsskalning på bekostnad av prestanda. Så, när en organisation behöver skala linjärt i termer av kapacitet, tenderar prestandan att plana ut eller minska.
Den standardiserade lagringsparadigmen består av filer organiserade i en hierarki, med kataloger och underkataloger. Denna arkitektur fungerar ganska bra när datorkapaciteten är liten, men när kapaciteten växer lider prestandan vid en viss punkt på grund av systembottleneck och begränsningar med filsökningslistor. Men objektlagring tillhandahåller ett obegränsat platt namnutrymme så att genom att enkelt lägga till fler noder kan du skala till petabyte och bortom. Av denna anledning kan du skala för prestanda samtidigt som du skalar för kapacitet.
Lagring som kan stödja AI/ML-projekt
Organisationer måste anta ett nytt sätt att se på lagring när AI och ML ökar i popularitet. Detta nya tillvägagångssätt måste ge dem möjlighet att etablera, köra och skala sina AI/ML-initiativ på rätt sätt. AI/ML-utbildning är ett tydligt behov, så en del av den företagsklassiga objektlagringssprogramvara som finns tillgänglig idag är byggd för att uppfylla det behovet. Företag kan börja sina initiativ i liten skala, med en server, och sedan skala ut efter behov för både kapacitet och prestanda. Dessa projekt behöver också prestanda för sina analytiska applikationer, och snabb objektlagring levererar det. Dessutom tillhandahåller objektlagring komplett datalivscykelhantering över flera moln och möjliggör flexibilitet från kanten till kärnan.
Företag behöver bearbeta data effektivt, och objektlagring gör det genom att låta applikationer enkelt komma åt data på plats, även i flera moln. Dess låga latens, skalbarhet och flexibilitet gör objektlagring till en stark allierad för AI/ML-initiativ.










