Leader del pensiero
Scegliere lo storage per supportare le iniziative AI/ML

Di Candida Valois, Field CTO, Americhe, Scality
L'adozione del machine learning e dell'intelligenza artificiale continua ad aumentare rapidamente, il che non sorprende, date le intuizioni aziendali e la trasformazione del settore che i suoi numerosi casi d'uso fanno presagire. PwC prevede che entro il 2030 l'intelligenza artificiale potrebbe contribuire con quasi 16 trilioni di dollari all'economia globale. Ciò si traduce in un aumento del 26% del PIL per le economie locali.
Queste tecnologie richiedono grandi quantità di dati non strutturati per funzionare e tali dati spesso si presentano sotto forma di video, immagini, testo e voce. Carichi di lavoro di questo tipo richiedono un nuovo approccio all'archiviazione dei dati; i vecchi metodi non saranno sufficienti. Con l’avvento di tali carichi di lavoro, le applicazioni necessitano di un accesso più rapido a enormi quantità di dati, dati che vengono creati ovunque: nel cloud, ai margini e on-premise. Questi carichi di lavoro intensivi richiedono una bassa latenza, la capacità di supportare diversi tipi e dimensioni di carichi utili e la capacità di scalare linearmente.
Ciò che serve è un nuovo approccio alla distribuzione dei dati, incentrato sull'applicazione piuttosto che sulla posizione o sulla tecnologia. Con l'adozione su larga scala di AI/ML e analisi, i leader IT aziendali hanno bisogno di un cambiamento significativo nel modo in cui pensano alla gestione e all'archiviazione dei dati.
Gestione di tutte le dimensioni dei file
In termini di carichi di lavoro AI/ML e archiviazione dei dati, le organizzazioni hanno bisogno di una soluzione in grado di gestire diversi tipi di carichi di lavoro, file piccoli e grandi. In alcuni casi, potresti dover gestire solo poche decine di terabyte, mentre in altri ci sono molti petabyte. Non tutte le soluzioni sono pensate per file enormi, così come non tutte sono in grado di gestirne di molto piccoli. Il trucco è trovarne uno in grado di gestire entrambi in modo flessibile.
La scalabilità è essenziale
Per garantire accuratezza e velocità, le organizzazioni richiedono enormi set di dati perché è ciò di cui hanno bisogno gli algoritmi AI/ML per addestrare correttamente i modelli sottostanti. Le organizzazioni desiderano crescere in termini di capacità e prestazioni, ma sono spesso ostacolate dalle soluzioni di storage tradizionali. Quando provano a scalare linearmente, non ci riescono. I carichi di lavoro AI/ML richiedono una soluzione di storage in grado di scalare all'infinito man mano che i dati crescono.
Poche centinaia di terabyte raggiungono il massimo delle soluzioni standard di archiviazione di file e blocchi; dopodiché, non possono ridimensionarsi. L'object storage può scalare in modo illimitato, elastico e senza soluzione di continuità in base alla domanda. E ciò che è importante per l'object storage rispetto allo storage tradizionale è che si tratta di uno spazio completamente piatto in cui non ci sono limitazioni. Gli utenti non incontreranno le limitazioni che troverebbero con l'archiviazione tradizionale.
Soddisfare i requisiti di prestazione
Il ridimensionamento della capacità è importante, ma non è sufficiente. Le organizzazioni hanno anche bisogno della capacità di scalare linearmente in termini di prestazioni. Sfortunatamente, con molte soluzioni di archiviazione tradizionali, la capacità di scalabilità va a discapito delle prestazioni. Pertanto, quando un'organizzazione deve scalare linearmente in termini di capacità, le prestazioni tendono a stabilizzarsi oa diminuire.
Il paradigma di archiviazione standard è costituito da file organizzati in una gerarchia, con directory e sottodirectory. Questa architettura funziona abbastanza bene quando la capacità dei dati è ridotta, ma con l'aumentare della capacità, a un certo punto le prestazioni ne risentono a causa di colli di bottiglia del sistema e limitazioni con le tabelle di ricerca dei file. Tuttavia, l'object storage fornisce uno spazio dei nomi piatto illimitato in modo che, semplicemente aggiungendo altri nodi, sia possibile scalare fino a petabyte e oltre. Per questo motivo, puoi ridimensionare le prestazioni mentre ridimensioni la capacità.
Archiviazione in grado di supportare progetti AI/ML
Le organizzazioni devono adottare un nuovo modo di considerare lo storage man mano che AI e ML aumentano di popolarità. Questo nuovo approccio deve consentire loro di stabilire, gestire e ridimensionare le proprie iniziative AI/ML nel modo corretto. La formazione AI/ML è una chiara esigenza, quindi alcuni dei software di storage di oggetti di livello aziendale disponibili oggi sono progettati per soddisfare tale esigenza. Le aziende possono iniziare le proprie iniziative su piccola scala, partendo da un server, quindi ridimensionare in base alle esigenze sia per la capacità che per le prestazioni. Questi progetti hanno anche un bisogno cruciale di prestazioni per le loro applicazioni di analisi e l'archiviazione rapida degli oggetti le fornisce. Inoltre, l'object storage fornisce una gestione completa del ciclo di vita dei dati su più cloud e consente flessibilità dall'edge al core.
Le aziende devono elaborare i dati in modo efficiente e l'object storage lo fa consentendo alle applicazioni di accedere facilmente ai dati on-premise, anche in più cloud. La sua bassa latenza, la scalabilità e la flessibilità rendono l'object storage un forte alleato per le iniziative AI/ML.










