Étape 1 sur 4

Combien de GPU
vous faut-il ?

Estimez vos besoins en unités de calcul. Chaque nœud H100 dispose de 8 GPU. Vous pouvez affiner plus tard.

Nombre de GPU
8 GPU
1 16 32 64 128
Sélection rapide
H100 · SXM5
NVIDIA H100
Le GPU de référence pour l'entraînement de LLM et les modèles de vision à grande échelle.
80 GB HBM3 · 3.35 TB/s
Transformer Engine · FP8
NVLink 4.0 · 900 GB/s
A100 · SXM4
NVIDIA A100
Polyvalent et disponible. Idéal pour l'inférence, le fine-tuning et les workloads batch.
80 GB HBM2e · 2 TB/s
MIG multi-instance
NVLink 3.0 · 600 GB/s
Architecture hybride
H100 + A100
Cluster hybride recommandé : H100 pour l'entraînement, A100 pour l'inférence en parallèle. Notre équipe optimise l'architecture pour vous.
Court terme
Moins d'un mois. Sprint IA, POC, expérimentation.
🚀
Moyen terme
1 à 6 mois. Développement de produit, pré-production.
🏗️
Long terme
6 à 12 mois. Production stable, usage continu.
🔒
Contrat annuel
12 mois+. Meilleur tarif, disponibilité réservée.
⚙️
Sur mesure
Précisez votre besoin en semaines ou mois.

Demande envoyée !

Un ingénieur Hexa Compute prendra contact avec vous dans les 2 heures ouvrées pour finaliser votre configuration.

Récapitulatif de votre demande
GPU requis
Type de carte
Durée
Contact