Ùn lasciate micca chì u almacenamentu diventerà u collu di bottiglia chjave in a furmazione di mudelli

Hè statu dettu chì l'imprese tecnologiche sò o scraming per GPU o in a strada per acquistà. In April, u CEO di Tesla, Elon Musk, hà acquistatu 10 000 GPU è hà dichjaratu chì a cumpagnia continuaria à cumprà una grande quantità di GPU da NVIDIA. Da u latu di l'impresa, u persunale di l'IT hè ancu spintu duramente per assicurà chì e GPU sò constantemente utilizzate per maximizà u ritornu di l'investimentu. Tuttavia, alcune cumpagnie ponu truvà chì mentre u numeru di GPU aumenta, l'inattività GPU diventa più severa.

Se a storia ci hà amparatu qualcosa nantu à l'informatica d'alta prestazione (HPC), hè chì l'almacenamiento è a rete ùn deve esse sacrificatu à a spesa di fucalizza troppu nantu à a computazione. Se l'almacenamiento ùn pò micca trasferisce in modu efficiente e dati à l'unità di calculu, ancu s'è vo avete a maiò parte di GPU in u mondu, ùn uttene micca efficienza ottima.

Sicondu Mike Matchett, un analista di Small World Big Data, mudelli più chjuchi ponu esse eseguiti in memoria (RAM), chì permettenu più focus in u calculu. Tuttavia, mudelli più grande cum'è ChatGPT cù miliardi di nodi ùn ponu micca esse guardati in memoria per via di u costu altu.

"Ùn pudete micca mette miliardi di nodi in memoria, cusì u almacenamentu diventa ancu più impurtante", dice Matchett. Sfortunatamente, l'almacenamiento di dati hè spessu trascuratu durante u prucessu di pianificazione.

In generale, indipendentemente da u casu d'usu, ci sò quattru punti cumuni in u prucessu di furmazione di mudellu:

1. Model Training
2. Applicazione Inferenza
3. Storage Dati
4. Accelerated Computing

Quandu creanu è implementanu mudelli, a maiò parte di e esigenze priorizzanu l'ambienti di prova di cuncettu rapidu (POC) o di prova per inizià a furmazione di mudelli, cù i bisogni di almacenamentu di dati chì ùn sò micca cunsiderati.

Tuttavia, a sfida si trova in u fattu chì a furmazione o l'implementazione di inferenza pò durà mesi o ancu anni. Parechje cumpagnie scalanu rapidamente e so dimensioni di mudelli durante questu tempu, è l'infrastruttura deve espansione per accoglie i mudelli è i datasets in crescita.

A ricerca di Google nantu à milioni di carichi di travagliu di furmazione ML revela chì una media di 30% di u tempu di furmazione hè spesu in u pipeline di dati di input. Mentre a ricerca passata hè stata focu annantu à l'ottimisazione di e GPU per accelerà a furmazione, parechje sfide restanu sempre in ottimisazione di diverse parti di u pipeline di dati. Quandu avete una putenza computazionale significativa, u veru collu di bottiglia diventa quantu rapidamente pudete alimentate dati in i calculi per ottene risultati.

In particulare, i sfidi in u almacenamentu è a gestione di dati necessitanu una pianificazione per a crescita di dati, chì vi permette di estrarre continuamente u valore di e dati mentre avanzate, in particulare quandu vi avventurate in casi d'usu più avanzati, cum'è l'apprendimentu profondu è e reti neurali, chì ponenu richieste più elevate per almacenamiento in termini di capacità, prestazione è scalabilità.

In particulare:

Scalabilità
L'apprendimentu di a macchina necessita di gestisce una grande quantità di dati, è cum'è u voluminu di dati aumenta, l'accuratezza di i mudelli migliora ancu. Questu significa chì l'imprese anu da cullà è almacenà più dati ogni ghjornu. Quandu l'almacenamiento ùn pò micca scala, i carichi di travagliu intensivi di dati creanu colli di bottiglia, limitanu a prestazione è risultanu in un costosu tempu inattivu di GPU.

Flessibilità
U supportu flessibile per parechji protokolli (inclusi NFS, SMB, HTTP, FTP, HDFS è S3) hè necessariu per risponde à i bisogni di diversi sistemi, invece di esse limitatu à un solu tipu d'ambiente.

Latenza
A latenza I/O hè critica per a custruzione è l'utilizazione di mudelli cum'è e dati sò letti è riletti parechje volte. A riduzione di a latenza I / O pò accurtà u tempu di furmazione di mudelli per ghjorni o mesi. U sviluppu di mudellu più veloce si traduce direttamente in più vantaghji cummerciale.

Pruduzzione
U flussu di i sistemi di almacenamentu hè cruciale per una furmazione efficiente di mudelli. I prucessi di furmazione implicanu grandi quantità di dati, tipicamente in terabyte per ora.

Accessu parallelu
Per ottene un altu rendimentu, i mudelli di furmazione dividenu l'attività in parechje attività parallele. Questu spessu significa chì l'algoritmi d'apprendimentu automaticu accede à i stessi schedari da parechji prucessi (potenzialmente in parechji servitori fisici) simultaneamente. U sistema di almacenamentu deve trattà e dumande simultanee senza compromette u rendiment.

Cù e so capacità eccezziunali in bassa latenza, altu throughput è I/O paralleli à grande scala, Dell PowerScale hè un cumplementu di almacenamiento ideale per l'informatica accelerata da GPU. PowerScale riduce in modu efficace u tempu necessariu per i mudelli di analisi chì furmànu è testanu datasets multi-terabyte. In u almacenamentu all-flash PowerScale, a larghezza di banda aumenta di 18 volte, eliminendu i colli di bottiglia I / O, è pò esse aghjuntu à i cluster Isilon esistenti per accelerà è sbloccare u valore di grandi quantità di dati non strutturati.

Inoltre, e capacità d'accessu multi-protokollu di PowerScale furniscenu una flessibilità illimitata per l'esecuzione di carichi di travagliu, permettendu chì e dati sò almacenati utilizendu un protokollu è accede cù un altru. In particulare, e funzioni putenti, flessibilità, scalabilità è funziunalità di qualità di l'impresa di a piattaforma PowerScale aiutanu à risolve e seguenti sfide:

- Accelerate l'innuvazione finu à 2,7 volte, riducendu u ciculu di furmazione di mudellu.

- Eliminate i colli di bottiglia di I/O è furnisce una furmazione è una validazione di mudelli più veloci, una precisione di mudelli mejorata, una produttività di scienza di dati rinfurzata è un rendimentu maximizatu nantu à l'investimenti in informatica sfruttendu funzioni di qualità impresa, prestazioni elevate, simultaneità è scalabilità. Aumentate l'accuratezza di u mudellu cù datasets più profondi è di più alta risoluzione sfruttendu finu à 119 PB di capacità di almacenamento efficace in un cluster unicu.

- Ottene a implementazione à scala cumminciandu u calculu è u almacenamentu in scala chjuca è indipendente, offrendu una prutezzione robusta di dati è opzioni di sicurezza.

- Migliurà a produtividade di a scienza di i dati cù analitiche in situ è ​​soluzioni pre-validate per implementazioni più veloci è à pocu risicu.

- Sfruttamentu di disinni pruvati basati nantu à e tecnulugia più avanzate, cumprese l'accelerazione GPU NVIDIA è l'architetture di riferimentu cù sistemi NVIDIA DGX. L'alta prestazione è a cuncurrenza di PowerScale risponde à i requisiti di prestazione di almacenamento in ogni tappa di l'apprendimentu automaticu, da l'acquisizione è a preparazione di dati à a furmazione di mudelli è inferenza. Inseme cù u sistema operatore OneFS, tutti i nodi ponu operare perfettamente in u stessu cluster guidatu da OneFS, cù funzioni à livellu di l'impresa cum'è a gestione di u rendiment, a gestione di dati, a sicurità è a prutezzione di dati, chì permettenu un cumpletu più veloce di furmazione di mudelli è validazione per l'imprese.


Postu tempu: Jul-03-2023