Connect with us

Wybór magazynu w celu wspierania inicjatyw AI/ML

Liderzy opinii

Wybór magazynu w celu wspierania inicjatyw AI/ML

mm

Przez Candida Valois, Field CTO, Americas, Scality

Przyjęcie ML i AI ciągle wzrasta, co nie jest zaskakujące, biorąc pod uwagę wglądy biznesowe i transformację branży, które zapowiadają ich liczne przypadki użycia. PwC przewiduje, że do 2030 roku AI może przyczynić się do globalnej gospodarki o wartości niemal 16 bilionów dolarów. To przekłada się na 26% wzrost PKB dla lokalnych gospodarek.

Te technologie wymagają ogromnych ilości nieustrukturyzowanych danych, aby działać, a te dane często przyjmują postać filmów wideo, obrazów, tekstu i głosu. Obciążenia tego typu wymagają nowego podejścia do przechowywania danych; stare metody nie są wystarczające. Wraz z pojawieniem się takich obciążeń, aplikacje wymagają szybkiego dostępu do ogromnych ilości danych – danych, które są tworzone wszędzie: w chmurze, na krawędziach i na miejscu. Te intensywne obciążenia wymagają niskiej latencji, możliwości obsługi różnych typów i rozmiarów ładunków oraz możliwości skalowania liniowego.

Potrzebne jest nowe podejście do dostarczania danych, które jest ukierunkowane na aplikację, a nie na lokalizację lub technologię. Wraz z dużą skalą przyjęcia AI/ML i analiz, liderzy IT w przedsiębiorstwach potrzebują znaczącej zmiany w sposobie myślenia o zarządzaniu danymi i przechowywaniu.

Obsługa wszystkich rozmiarów plików

W odniesieniu do obciążeń AI/ML i przechowywania danych, organizacje potrzebują rozwiązania, które mogą obsłużyć różne typy obciążeń, zarówno małe, jak i duże pliki. W niektórych przypadkach możesz potrzebować obsłużyć tylko kilka dziesiątków terabajtów, podczas gdy w innych przypadkach jest wiele petabajtów. Nie wszystkie rozwiązania są przeznaczone dla dużych plików, tak jak nie wszystkie mogą obsłużyć bardzo małe. Sztuczka polega na znalezieniu takiego, które może obsłużyć oba w elastyczny sposób.

Skalowalność jest niezbędna

Aby zapewnić dokładność i szybkość, organizacje wymagają ogromnych zbiorów danych, ponieważ to jest to, czego potrzebują algorytmy AI/ML, aby właściwie przeszkolić podstawowe modele. Organizacje chcą rosnąć pod względem pojemności i wydajności, ale często są hamowane przez tradycyjne rozwiązania przechowywania. Kiedy próbują skalować liniowo, nie są w stanie. Obciążenia AI/ML wymagają rozwiązania przechowywania, które może skalować nieograniczenie, w miarę wzrostu danych.

Kilka set terabajtów maksymalizuje standardowe rozwiązania przechowywania plików i bloków; po tym nie mogą skalować. Przechowywanie obiektowe może skalować nieograniczenie, elastycznie i bezproblemowo na żądanie. A co ważne w przechowywaniu obiektowym w porównaniu z tradycyjnym przechowywaniem, to fakt, że jest to całkowicie płaska przestrzeń, w której nie ma ograniczeń. Użytkownicy nie napotkają ograniczeń, które znaleźliby w tradycyjnym przechowywaniu.

Spełnienie wymagań dotyczących wydajności

Skalowanie pojemności jest ważne, ale nie jest wystarczające. Organizacje potrzebują również możliwości skalowania liniowego pod względem wydajności. Niestety, wiele tradycyjnych rozwiązań przechowywania, skalowanie pojemności odbywa się kosztem wydajności. Kiedy organizacja potrzebuje skalować liniowo pod względem pojemności, wydajność ma tendencję do spłaszczenia lub spadku.

Standardowy paradygmat przechowywania składa się z plików zorganizowanych w hierarchię, z katalogami i podkatalogami. Ta architektura działa bardzo dobrze, gdy pojemność danych jest mała, ale gdy pojemność rośnie, wydajność cierpi w pewnym momencie z powodu wąskich gardeł systemu i ograniczeń związanych z tabelami wyszukiwania plików. Jednak przechowywanie obiektowe zapewnia nieograniczoną płaską przestrzeń nazw, dzięki czemu dodając dodatkowe węzły, można skalować do petabajtów i więcej. Dlatego też można skalować pod względem wydajności, tak jak się skaluje pod względem pojemności.

Przechowywanie, które może wspierać projekty AI/ML

Organizacje muszą przyjąć nowy sposób patrzenia na przechowywanie, w miarę jak AI i ML zyskują na popularności. To nowe podejście musi umożliwić im ustanowienie, uruchomienie i skalowanie swoich inicjatyw AI/ML w odpowiedni sposób. Szkolenie AI/ML jest wyraźną potrzebą, więc niektóre z dostępnego dziś oprogramowania przechowywania obiektowego klasy przedsiębiorstw jest zaprojektowane, aby spełnić tę potrzebę. Przedsiębiorstwa mogą rozpocząć swoje inicjatywy na małą skalę, zaczynając od jednego serwera, a następnie skalować w razie potrzeby zarówno pod względem pojemności, jak i wydajności. Te projekty również wymagają wydajności dla swoich aplikacji analitycznych, a szybkie przechowywanie obiektowe je dostarcza. Ponadto, przechowywanie obiektowe zapewnia pełne zarządzanie cyklem życia danych w wielu chmurach i umożliwia elastyczność od krawędzi do rdzenia.

Przedsiębiorstwa muszą przetwarzać dane wydajnie, a przechowywanie obiektowe robi to, pozwalając aplikacjom łatwo uzyskać dostęp do danych na miejscu, nawet w wielu chmurach. Jego niska latencja, skalowalność i elastyczność sprawiają, że przechowywanie obiektowe jest silnym sojusznikiem dla inicjatyw AI/ML.

Candida Valois jest Amerykańskim Field CTO dla Scality, światowym liderem w zakresie obiektowego i chmury magazynowania. Candida jest specjalistą IT z 20+ lat doświadczenia w architekturze, rozwoju oprogramowania, usług i sprzedaży dla różnych branż. Jest pasjonatem technologii i dostarczaniem wartościowych rozwiązań.