NUOVO! VPS basato su EPYC + NVMe

Accedi
+1 (855) 311-1555

Non misurato + potente

Server GPU

GPU ad alte prestazioni, configurazioni flessibili e larghezza di banda non misurata per alimentare carichi di lavoro di AI, rendering, HPC e streaming su scala.

Scegliete il vostro server AI
hero image

Server AI

Server GPU costruiti per AI, rendering, HPC e streaming - con larghezza di banda non misurata su scala globale

Edge AI

  • CPU AMD EPYC
  • NVIDIA L4/L40s/H100
  • 10/100 Gbps non misurati

Da:

$1,500/mese

Costo di installazione:

$1,000
Configura ora
  • Server 1U
  • AMD EPYC 9124/9354
  • 192/384/768 GB DI RAM

- 3,84/7,68/15,34 TB NVMe

  • Sedi: USA/UE/APAC
  • Accesso alla radice
  • /29 indirizzi IPv4 (4 utilizzabili)
  • /64 IPv6 su richiesta

AI di base

  • CPU AMD EPYC
  • 2/4/8 x NVIDIA L4/L40s/H100
  • 10/100 Gbps non misurati

Da:

$4,200/mese

Costo di installazione:

$2,800
  • Server 4U
  • CPU AMD EPYC 9124/9354/9454/9654
  • 384/768 GB di RAM DDR5 4800MHz

- 3,84/7,68/15,34 TB NVMe Gen5

  • Sedi: USA/UE/APAC
  • Accesso alla radice
  • /29 indirizzi IPv4 (4 utilizzabili)
  • /64 IPv6 su richiesta

Max AI

  • 2 CPU AMD EPYC
  • 4/8 x L40/H200/RTX PRO 6000
  • 10/100 Gbps non misurati

Da:

$7,620/mese

Costo di installazione:

$5,080
  • Server 8U
  • 2 x CPU AMD EPYC 9135/9355/9455/9555
  • 384/768/1536 GB di RAM DDR5 4800MHz
  • 2 SSD da 960 GB

- 3,84/7,68/15,34 TB NVMe Gen5

  • Sedi: USA/EU/APAC
  • Accesso alla radice
  • /29 indirizzi IPv4 (4 utilizzabili)
  • /64 IPv6 su richiesta

Avete bisogno di una configurazione diversa?

Parlate con noi

Caratteristiche

Perché scegliere FDC per la vostra GPU

GPU per utilizzo del carico di lavoro

Calcolo di alto livello

Ideale per l'addestramento dell'intelligenza artificiale su larga scala, l'inferenza e l'HPC (high performance computing), dove il budget è secondario rispetto alle prestazioni.

Di alto livello per modelli massivi e HPC ad alta intensità di calcolo.
NVIDIA H200 NVL
Fiore all'occhiello per la formazione, l'inferenza e la ricerca avanzata.
NVIDIA H100 NVL
CPU-GPU ibrida con memoria coerente, ideale per HPC + inferenza su scala estrema.
NVIDIA GH200

Versatile ed efficiente

Ideale per le organizzazioni che cercano di bilanciare prestazioni e costi e che si occupano di AI, rendering e carichi di lavoro virtualizzati.

Bilanciato calcolo + grafica, forte per la formazione, il rendering e la VDI.
RTX PRO 6000 Blackwell
GPU di produzione efficiente per la formazione e l'inferenza.
NVIDIA L40s
Piccolo fattore di forma, efficiente dal punto di vista energetico, ottimizzato per l'inferenza e gli ambienti virtuali.
NVIDIA L4

Pronti a ordinare?

Scegliete il vostro server AI

Statistiche sulle prestazioni

Gamma di GPU

Specifiche dettagliate

Il nostro parco macchine comprende le più recenti GPU NVIDIA, dalle schede ottimizzate per l'inferenza alle piattaforme di calcolo multi-GPU. La tabella che segue illustra in dettaglio le principali metriche di prestazione, la capacità di memoria e l'idoneità ai carichi di lavoro, in modo da poter abbinare l'hardware giusto alle proprie esigenze di AI, rendering o HPC.

* indica le prestazioni teoriche utilizzando la sparsità

MetricL4L40SH100 NVLH200 NVLGH200RTX PRO 6000 Blackwell SE
ArchitectureAda LovelaceAda LovelaceHopperHopperGrace+HopperBlackwell
Card chipAD104AD102GH100GH1001xGrace+1xH100GB202
# CUDA cores7 68018 17616 89616 89616 89624 064
# Tensor cores240568528528528752
FP64 (TFlops)0,491,413034341.968
FP64 Tensor (TFlops)606767
FP32 (TFlops)30,391,6606767126.0
TF32 Tensor (TFlops)120*366*835*989*989*
FP16 Tensor (TFlops)242*733*1 671*1 979*1 979*
INT8 Tensor (TOPS)FP8 485*1 466*3 341*3 958*3 958*
FP8 (TFlops)1 466*9 000*
FP4 (TFlops)18 000*4 000*
GPU memory24 GB48 GB94 GB141 GB96 GB or 144 GB96 GB
Memory technologyGDDR6GDDR6HBM3HBM3eHBM3 or HBM3eGDDR7
Memory throughput300 GB/s864 GB/s4.8 TB/s4.8 TB/s4 or 4.9 TB/s1.6 TB/s
Multi-Instance GPUvGPUvGPU7 instances7 instances7 instances4 instances
NVENC | NVDEC | JPEG engines2 | 4 | 43 | 3 | 40 | 7 | 70 | 7 | 70 | 14 | 144 | 4 | 4
GPU linkPCIe 4PCIe 4NVLink 4NVLink 4NVLink 5PCIe 5
Power consumption40-72W350 W400W600W1000W (total)600 W

Luoghi di distribuzione delle GPU

Connettere il mondo

faq

Domande frequenti

I nostri GPU Server vengono forniti con contratti mensili e senza costi di configurazione come standard, tuttavia il nostro team di vendita è lieto di discutere sconti basati su termini più lunghi o su GPU Server multipli.

I GPU Server FDC possono essere personalizzati tramite il processo d'ordine con numerose opzioni; tuttavia, se desiderate qualcosa di più personalizzato, il nostro team di vendita sarà lieto di fornirvi un preventivo per qualsiasi esigenza.

Poiché i GPU Server FDC sono costruiti su richiesta e possono essere personalizzati in base alle vostre esigenze, è previsto un tempo di attesa per l'implementazione. Attualmente questo tempo è di 1 settimana per il Nord America, di 2 settimane per l'Europa e di 2-3 settimane per APAC e LATAM. Tuttavia, a seconda della configurazione, i tempi possono essere anche molto più brevi.

background image

Pronti a ordinare?