Denvr Dataworks, un fornitore leader di soluzioni per lo sviluppo e le operazioni dell’intelligenza artificiale (AI), ha annunciato l’espansione del suo cluster di GPU NVIDIA H100 Tensor Core per i clienti su Denvr Cloud, aumentando così la capacità dei servizi cloud per i carichi di lavoro AI. Questa offerta ampliata consente a sviluppatori, operatori e integratori di AI di raggiungere livelli superiori di prestazioni, scalabilità e innovazione.
Progettato per soddisfare la crescente domanda di addestramento e inferenza di modelli di AI generativa, il cluster NVIDIA H100 su Denvr Cloud è composto da server NVIDIA HGX H100 con 1.024 GPU SXM5 basate su architettura Hopper, connesse tramite networking NVIDIA Quantum-2 InfiniBand. Questa capacità NVIDIA H100 è ottimizzata per lo sviluppo, l’addestramento e l’inferenza di carichi di lavoro AI, tra cui:
- AI generativa (GenAI)
- Addestramento di deep learning
- Simulazioni AI e gemelli digitali
- Carichi di lavoro AI multi-modali
I clienti qualificati possono sperimentare le capacità delle GPU NVIDIA H100 su Denvr Cloud tramite un esclusivo programma di test di 1 settimana. Questo programma consente alle aziende di esplorare e validare le GPU NVIDIA H100 su Denvr Cloud, testare i propri carichi di lavoro e scoprire nuove opportunità di crescita.
“Denvr Dataworks è dedicata a potenziare i nostri clienti per sbloccare la loro innovazione nell’AI,” ha dichiarato Geoff Gordon, CEO di Denvr Dataworks. “Continuiamo la nostra stretta collaborazione con NVIDIA e Supermicro attraverso la capacità aggiuntiva delle GPU NVIDIA H100 su Denvr Cloud.”
Vantaggi Chiave del Cluster NVIDIA H100 su Denvr Cloud
- Elevata potenza di calcolo per l’addestramento di modelli AI su larga scala
- Prestazioni eccezionali per l’inferenza AI in tempo reale
- Scalabilità per soddisfare le crescenti esigenze di carico di lavoro
- Implementazione con un clic e gestione semplificata
- Accesso all’intero stack software AI di NVIDIA
- Esperienza e supporto da parte di Denvr Dataworks
Caratteristiche Principali
- Tensor Core di quarta generazione: progettato per carichi di lavoro AI, il NVIDIA H100 supporta una precisione migliorata (FP8) e può gestire moltiplicazioni di matrici su larga scala necessarie dai modelli AI.
- Maggiore larghezza di banda della memoria: il NVIDIA H100 offre fino a 3 TB/s di larghezza di banda della memoria per lavorare con grandi set di dati e modelli.
- Tecnologia di interconnessione NVIDIA NVLink ad alta velocità per scalare oltre più GPU all’interno di un nodo.
- Fino a 3200 Gb/s di larghezza di banda aggregata per nodo con networking NVIDIA Quantum-2 InfiniBand per scalare oltre un nodo.
- Supporto FP8, FP16 e INT8: consente calcoli più rapidi senza una perdita significativa di precisione.
Non perdere l’opportunità di rivoluzionare le tue capacità nell’AI. Candidati oggi per il programma di prova di 1 settimana e sperimenta il potere trasformativo del cluster NVIDIA H100 su Denvr Cloud.