[Cina, Shenzhen, 14 di lugliu di u 2023] Oghje, Huawei hà presentatu a so nova soluzione di almacenamiento AI per l'era di mudelli à grande scala, chì furnisce soluzioni di almacenamento ottimali per a furmazione di mudelli di basa, a furmazione di mudelli specifichi di l'industria, è l'inferenza in scenarii segmentati, cusì scatenà novi capacità di IA.
In u sviluppu è l'implementazione di applicazioni di mudelli à grande scala, l'imprese affrontanu quattru sfide maiò:
Prima, u tempu necessariu per a preparazione di dati hè longu, e fonti di dati sò spargugliati, è l'agregazione hè lenta, pigghiannu circa 10 ghjorni per preprocessing centinaie di terabytes di dati. In siconda, per i mudelli grandi multi-modali cù setti di dati massivi di testu è imaghjini, a velocità di carica attuale per i schedarii chjuchi massicci hè menu di 100MB / s, risultatu in una bassa efficienza per a carica di set di furmazione. In terzu, l'aghjustamenti frequenti di i paràmetri per i grandi mudelli, inseme cù e plataforme di furmazione inestabile, causanu interruzioni di furmazione apprussimatamente ogni ghjornu di 2, chì necessitanu u mecanismu di Checkpoint per ripiglià a furmazione, cù a ricuperazione chì piglia un ghjornu. Infine, alti limiti di implementazione per mudelli grandi, cunfigurazione di sistema cumplessu, sfide di pianificazione di risorse, è usu di risorse GPU spessu sottu à 40%.
Huawei si allinea cù a tendenza di u sviluppu di l'IA in l'era di mudelli à grande scala, offrendu suluzioni adattate per diverse industrie è scenarii. Presenta l'OceanStor A310 Deep Learning Data Lake Storage è u FusionCube A3000 Training/Inference Appliance Super-Converged. L'OceanStor A310 Deep Learning Data Lake Storage mira à scenarii di lacu di dati di grande mudellu di basa è di livellu industriale, ottenendu una gestione cumpleta di dati AI da aggregazione di dati, preprocessazione à furmazione di mudelli è applicazioni di inferenza. L'OceanStor A310, in un unicu rack 5U, supporta una larghezza di banda di 400 GB/s leader di l'industria è finu à 12 milioni di IOPS, cù scalabilità lineale finu à 4096 nodi, chì permettenu una cumunicazione transprotocolu senza saldatura. U Global File System (GFS) facilita l'intelligenza intelligente di dati trà e regioni, simplificendu i prucessi di aggregazione di dati. L'informatica vicinu à l'almacenamiento realiza a preprocessazione di dati vicinu, riducendu u muvimentu di dati, è migliurà l'efficienza di preprocessing di 30%.
U FusionCube A3000 Training/Inference Super-Converged Appliance, cuncepitu per scenarii di furmazione / inferenza di grande mudellu à livellu industriale, risponde à applicazioni chì implicanu mudelli cù miliardi di parametri. Integra nodi di almacenamento d'alta prestazione OceanStor A300, nodi di furmazione / inferenza, equipaggiu di commutazione, software di piattaforma AI, è software di gestione è operazione, chì furnisce i grandi partenarii di mudelli cù una sperienza di implementazione plug-and-play per una consegna unica. Pronta à aduprà, pò esse implementata in 2 ore. Tramindui i nodi di furmazione / inferenza è di almacenamentu ponu esse espansi indipindentamente è orizzontalmente per currisponde à diverse esigenze di scala di mudellu. Intantu, FusionCube A3000 utilizza cuntenituri d'altu rendiment per attivà parechje furmazione di mudelli è attività di inferenza per sparte GPU, aumentendu l'utilizazione di risorse da 40% à più di 70%. FusionCube A3000 supporta dui mudelli d'affari flessibili: Huawei Ascend One-Stop Solution è a soluzione one-stop di partenarii di terzu cù software di piattaforma open computing, networking è AI.
U presidente di Huawei di a Linea di Produzione di Storage di Dati, Zhou Yuefeng, hà dichjaratu: "In l'era di mudelli à grande scala, i dati determinanu l'altezza di l'intelligenza AI. Cum'è u trasportatore di dati, l'almacenamiento di dati diventa l'infrastruttura fundamentale chjave per i mudelli AI à grande scala. Huawei Data Storage hà da cuntinuà à innuvà, furnisce soluzioni è prudutti diversificati per l'era di i grandi mudelli AI, cullaburendu cù i partenarii per guidà l'empowerment AI in una larga gamma di industrii ".
Tempu di Postu: Aug-01-2023