NYHET! EPYC + NVMe-baserad VPS

Logga in
+1 (855) 311-1555

Ouppmätt + kraftfull

GPU-servrar

Högpresterande GPU:er, flexibla konfigurationer och obegränsad bandbredd för att driva AI, rendering, HPC och strömmande arbetsbelastningar i stor skala.

Välj din AI-server
hero image

AI-servrar

GPU-servrar byggda för AI, rendering, HPC och streaming - med obegränsad bandbredd i global skala

Edge AI

  • AMD EPYC-PROCESSOR
  • NVIDIA L4/L40s/H100
  • 10/100 Gbps utan mätning

Från:

$1,500/månad

Uppläggningsavgift:

$1,000
Konfigurera nu
  • 1U-server
  • AMD EPYC 9124/9354
  • 192/384/768 GB RAM

- 3,84/7,68/15,34 TB NVMe

  • Platser: USA/EU/APAC
  • Rotåtkomst
  • /29 IPv4 IP-adresser (4 användbara)
  • /64 IPv6 på begäran

Kärn-AI

  • AMD EPYC-PROCESSOR
  • 2/4/8 x NVIDIA L4/L40s/H100
  • 10/100 Gbps utan mätning

Från:

$4,200/månad

Uppläggningsavgift:

$2,800
  • 4U-server
  • AMD EPYC 9124/9354/9454/9654 CPU
  • 384/768 GB DDR5 4800MHz RAM

- 3,84/7,68/15,34 TB NVMe Gen5

  • Platser: USA/EU/APAC
  • Rotåtkomst
  • /29 IPv4 IP-adresser (4 användbara)
  • /64 IPv6 på begäran

Max AI

  • 2 x AMD EPYC-processorer
  • 4/8 x L40s/H200/RTX PRO 6000
  • 10/100 Gbps obegränsat

Från:

$7,620/månad

Uppläggningsavgift:

$5,080
  • 8U-server
  • 2 x AMD EPYC 9135/9355/9455/9555 CPU
  • 384/768/1536 GB DDR5 4800 MHz RAM-minne
  • 2 x 960 GBSSD

- 3,84/7,68/15,34 TB NVMe Gen5

  • Platser: USA/EU/APAC
  • Rotåtkomst
  • /29 IPv4 IP-adresser (4 användbara)
  • /64 IPv6 på begäran

Behöver du ett annat upplägg?

Prata med oss

Funktioner

Varför välja FDC för din GPU

GPU:er efter användning i arbetsbelastning

Högteknologisk databehandling

Bäst för storskalig AI-träning, inferens och HPC (high performance computing) där budget är sekundärt i förhållande till prestanda.

Toppnivå för massiva modeller och beräkningstung HPC.
NVIDIA H200 NVL
Flaggskepp för utbildning, inferens och avancerad forskning.
NVIDIA H100 NVL
Hybrid CPU-GPU med koherent minne, perfekt för HPC + inferens i extrem skala.
NVIDIA GH200

Mångsidig och effektiv

Bäst för organisationer som balanserar prestanda och kostnad, och som täcker AI, rendering och virtualiserade arbetsbelastningar.

Balanserad beräkning + grafik, stark för utbildning, rendering och VDI.
RTX PRO 6000 Blackwell
Effektiv produktion GPU för utbildning och inferens.
NVIDIA L40s
Liten formfaktor, energieffektiv, optimerad för inferens- och virtuella miljöer.
NVIDIA L4

Är du redo att beställa?

Välj din AI-server

Statistik över prestanda

Uppställning av GPU:er

Detaljerade specifikationer

Vår flotta omfattar de senaste NVIDIA GPU:erna, från inferensoptimerade kort till multi-GPU-beräkningsplattformar. I tabellen nedan beskrivs viktiga prestandamätvärden, minneskapacitet och lämplighet för arbetsbelastning så att du kan matcha rätt maskinvara till dina AI-, rendering- eller HPC-behov.

* anger teoretisk prestanda med hjälp av sparsamhet

MetricL4L40SH100 NVLH200 NVLGH200RTX PRO 6000 Blackwell SE
ArchitectureAda LovelaceAda LovelaceHopperHopperGrace+HopperBlackwell
Card chipAD104AD102GH100GH1001xGrace+1xH100GB202
# CUDA cores7 68018 17616 89616 89616 89624 064
# Tensor cores240568528528528752
FP64 (TFlops)0,491,413034341.968
FP64 Tensor (TFlops)606767
FP32 (TFlops)30,391,6606767126.0
TF32 Tensor (TFlops)120*366*835*989*989*
FP16 Tensor (TFlops)242*733*1 671*1 979*1 979*
INT8 Tensor (TOPS)FP8 485*1 466*3 341*3 958*3 958*
FP8 (TFlops)1 466*9 000*
FP4 (TFlops)18 000*4 000*
GPU memory24 GB48 GB94 GB141 GB96 GB or 144 GB96 GB
Memory technologyGDDR6GDDR6HBM3HBM3eHBM3 or HBM3eGDDR7
Memory throughput300 GB/s864 GB/s4.8 TB/s4.8 TB/s4 or 4.9 TB/s1.6 TB/s
Multi-Instance GPUvGPUvGPU7 instances7 instances7 instances4 instances
NVENC | NVDEC | JPEG engines2 | 4 | 43 | 3 | 40 | 7 | 70 | 7 | 70 | 14 | 144 | 4 | 4
GPU linkPCIe 4PCIe 4NVLink 4NVLink 4NVLink 5PCIe 5
Power consumption40-72W350 W400W600W1000W (total)600 W

Platser för GPU-distribution

Kopplar samman världen

faq

Vanliga frågor och svar

Våra GPU-servrar levereras med månad till månad-avtal och inga installationsavgifter som standard, men vårt säljteam diskuterar gärna rabatter baserade på längre löptider eller flera GPU-servrar

FDC GPU-servers kan anpassas via orderprocessen med många alternativ - men om du behöver något mer anpassat ger vårt säljteam dig gärna en offert för alla krav.

Eftersom FDC GPU-servers byggs på begäran och kan anpassas efter dina behov finns det en ledtid för driftsättning - för närvarande är detta upp till 1 vecka för Nordamerika, upp till 2 veckor för Europa och kan vara upp till 2-3 veckor för APAC och LATAM. Detta kan dock också vara betydligt snabbare beroende på konfiguration - prata med vårt säljteam som gärna ger dig en ledtid baserad på dina krav.

background image

Är du redo att beställa?