Ùn lasciate micca chì u almacenamentu diventerà u collu di bottiglia chjave in a furmazione di mudelli

Hè statu dettu chì l'imprese tecnologiche sò o scraming per GPU o in a strada per acquistà.In April, u CEO di Tesla, Elon Musk, hà acquistatu 10 000 GPU è hà dichjaratu chì a cumpagnia continuaria à cumprà una grande quantità di GPU da NVIDIA.Da u latu di l'impresa, u persunale di l'IT hè ancu spintu duramente per assicurà chì e GPU sò constantemente utilizzate per maximizà u ritornu di l'investimentu.Tuttavia, alcune cumpagnie ponu truvà chì mentre u numeru di GPU aumenta, l'inattività GPU diventa più severa.

Se a storia ci hà amparatu qualcosa nantu à l'informatica d'alta prestazione (HPC), hè chì l'almacenamiento è a rete ùn deve esse sacrificatu à a spesa di fucalizza troppu nantu à a computazione.Se l'almacenamiento ùn pò micca trasferisce in modu efficiente e dati à l'unità di calculu, ancu s'è vo avete a maiò parte di GPU in u mondu, ùn uttene micca efficienza ottima.

Sicondu Mike Matchett, un analista di Small World Big Data, mudelli più chjuchi ponu esse eseguiti in memoria (RAM), chì permettenu più focus in u calculu.Tuttavia, mudelli più grande cum'è ChatGPT cù miliardi di nodi ùn ponu micca esse guardati in memoria per via di u costu altu.

"Ùn pudete micca mette miliardi di nodi in memoria, cusì u almacenamentu diventa ancu più impurtante", dice Matchett.Sfortunatamente, l'almacenamiento di dati hè spessu trascuratu durante u prucessu di pianificazione.

In generale, indipendentemente da u casu d'usu, ci sò quattru punti cumuni in u prucessu di furmazione di mudellu:

1. Model Training
2. Applicazione Inferenza
3. Storage Dati
4. Accelerated Computing

Quandu creanu è implementanu mudelli, a maiò parte di e esigenze priorizzanu l'ambienti di prova di cuncettu rapidu (POC) o di prova per inizià a furmazione di mudelli, cù i bisogni di almacenamentu di dati chì ùn sò micca cunsiderati.

Tuttavia, a sfida si trova in u fattu chì a furmazione o l'implementazione di inferenza pò durà mesi o ancu anni.Parechje cumpagnie scalanu rapidamente e so dimensioni di mudelli durante questu tempu, è l'infrastruttura deve espansione per accoglie i mudelli è i datasets in crescita.

A ricerca di Google nantu à milioni di carichi di travagliu di furmazione ML revela chì una media di 30% di u tempu di furmazione hè spesu in u pipeline di dati di input.Mentre a ricerca passata hè stata focu annantu à l'ottimisazione di e GPU per accelerà a furmazione, parechje sfide restanu sempre in ottimisazione di diverse parti di u pipeline di dati.Quandu avete una putenza computazionale significativa, u veru collu di bottiglia diventa quantu rapidamente pudete alimentate dati in i calculi per ottene risultati.

In particulare, i sfidi in u almacenamentu è a gestione di dati necessitanu di pianificazione per a crescita di dati, chì vi permette di estrae continuamente u valore di e dati mentre avanzate, in particulare quandu vi avventurate in casi d'usu più avanzati, cum'è l'apprendimentu profondu è e rete neurali, chì ponenu richieste più elevate per almacenamiento in termini di capacità, prestazione è scalabilità.

In particulare:

Scalabilità
L'apprendimentu di a macchina necessita di gestisce una grande quantità di dati, è cum'è u voluminu di dati aumenta, l'accuratezza di i mudelli migliora ancu.Questu significa chì l'imprese anu da cullà è almacenà più dati ogni ghjornu.Quandu l'almacenamiento ùn pò micca scala, i carichi di travagliu intensivi di dati creanu colli di bottiglia, limitanu a prestazione è risultanu in un costosu tempu inattivu di GPU.

Flessibilità
U supportu flessibile per parechji protokolli (inclusi NFS, SMB, HTTP, FTP, HDFS è S3) hè necessariu per risponde à i bisogni di diversi sistemi, invece di esse limitatu à un solu tipu d'ambiente.

Latenza
A latenza I/O hè critica per a custruzione è l'utilizazione di mudelli cum'è e dati sò letti è riletti parechje volte.A riduzione di a latenza I / O pò accurtà u tempu di furmazione di mudelli per ghjorni o mesi.U sviluppu di mudelli più veloce si traduce direttamente in più vantaghji cummerciale.

Pruduzzione
U flussu di i sistemi di almacenamentu hè cruciale per una furmazione efficiente di mudelli.I prucessi di furmazione implicanu grandi quantità di dati, tipicamente in terabyte per ora.

Accessu parallelu
Per ottene un altu rendimentu, i mudelli di furmazione dividenu l'attività in parechje attività parallele.Questu spessu significa chì l'algoritmi d'apprendimentu automaticu accede à i stessi schedari da parechji prucessi (potenzialmente in parechji servitori fisici) simultaneamente.U sistema di almacenamentu deve trattà e dumande simultanee senza compromette u rendiment.

Cù e so capacità eccezziunali in bassa latenza, altu throughput è I/O paralleli à grande scala, Dell PowerScale hè un cumplementu di almacenamiento ideale per l'informatica accelerata da GPU.PowerScale riduce in modu efficace u tempu necessariu per i mudelli di analisi chì furmànu è testanu datasets multi-terabyte.In u almacenamentu all-flash PowerScale, a larghezza di banda aumenta di 18 volte, eliminendu i colli di bottiglia I / O, è pò esse aghjuntu à i cluster Isilon esistenti per accelerà è sbloccare u valore di grandi quantità di dati non strutturati.

Inoltre, e capacità d'accessu multi-protokollu di PowerScale furniscenu una flessibilità illimitata per l'esecuzione di carichi di travagliu, permettendu chì e dati sò almacenati utilizendu un protokollu è accede cù un altru.In particulare, e funzioni putenti, flessibilità, scalabilità è funziunalità di qualità di l'impresa di a piattaforma PowerScale aiutanu à risolve e seguenti sfide:

- Accelerate l'innuvazione finu à 2,7 volte, riducendu u ciculu di furmazione di mudellu.

- Eliminate i colli di bottiglia di I/O è furnisce una furmazione è una validazione di mudelli più veloci, una precisione di mudelli mejorata, una produttività di scienza di dati rinfurzata è un rendimentu maximizatu nantu à l'investimenti in informatica sfruttendu funzioni di qualità impresa, prestazioni elevate, simultaneità è scalabilità.Aumentate l'accuratezza di u mudellu cù datasets più profondi è di più alta risoluzione sfruttendu finu à 119 PB di capacità di almacenamento efficace in un cluster unicu.

- Ottene una implementazione à scala cuminciendu un calculu è u almacenamentu in scala chjuca è indipendente, offrendu una robusta prutezzione di dati è opzioni di sicurezza.

- Migliurà a produtividade di a scienza di i dati cù analitiche in situ è ​​soluzioni pre-validate per implementazioni più veloci è à pocu risicu.

- Sfruttamentu di disinni pruvati basati nantu à e tecnulugia più avanzate, cumprese l'accelerazione GPU NVIDIA è l'architetture di riferimentu cù sistemi NVIDIA DGX.L'alta prestazione è a cuncurrenza di PowerScale risponde à i requisiti di prestazione di almacenamento in ogni tappa di l'apprendimentu automaticu, da l'acquisizione è a preparazione di dati à a furmazione di mudelli è inferenza.Inseme cù u sistema operatore OneFS, tutti i nodi ponu operare perfettamente in u stessu cluster guidatu da OneFS, cù funzioni à livellu di l'impresa cum'è a gestione di u rendiment, a gestione di dati, a sicurità è a prutezzione di dati, chì permettenu un cumpletu più veloce di furmazione di mudelli è validazione per l'imprese.


Postu tempu: Jul-03-2023