Infrastructure basée sur GPU

Libérez le potentiel des GPU : exploitez la vitesse et l’efficacité des processeurs graphique (GPU) pour les charges de travail parallélisées ! Parfaite pour le rendering et les projets d’IA, notre gamme complète de GPU NVIDIA, comprenant les puces NVIDIA P100, H100, L4, L40S et GH200, couvrent un large éventail de besoins informatiques.

Zones disponibles :
Paris:PAR 1PAR 2

Les Instances GPU disponibles

GPU H100 PCIe

2.52€/h (~1387€/mois)

Accélérez l'entraînement de vos modèles et de vos inférences avec la puce IA la plus haut de gamme du marché !

Lancez votre Instance GPU H100 PCIe

GPU Render

1.24 €/h (~891 €/mois)

Tesla P100 dédiées pour répondre à tous vos besoins en Machine Learning et Intelligence artificielle.

Lancez votre Instance GPU Render

GPU L4

Disponible courant du 1er trimestre 2024

Optimisez les coûts de votre infrastructure d'IA avec une Instance GPU d'entrée de gamme polyvalent.

Inscrivez-vous pour ne rien louper

GPU L40s

Disponible courant du 1er semestre 2024

Augmentez la capacité pour l'IA ou exécutez une combinaison de charges de travail, y compris du graphisme avec l'Instance GPU universelle L40s.

Inscrivez-vous pour ne rien louper

Infrastructure basée sur GPU disponible

Nabu 2023

127 NVIDIA DGX H100

Construisez le prochain modèle de Fondation avec Nabu 2023, l'un des supercalculateurs les plus rapides et les plus économes en énergie au monde.

Décrivez-nous votre besoin

Jero 2023

2 NVIDIA DGX H100

Affinez les modèles Transformers et déployez-les sur Jero 2023, le supercalculateur d’IA à 2-DGX qui peut monter en charge jusqu’à 16 nœuds

Décrivez-nous votre besoin

Grace Hopper

Disponible en 2024

La super-puce NVIDIA GH200 Grace Hopper associe le CPU NVIDIA Grace et le GPU H100 Tensor Core pour un gain de performance considérable pour l'IA et le HPC à grande échelle.

Pré-enregistrez votre intérêt

Choisissez la bonne machine

OffresInstance GPU  RENDER
Instance GPU L4Instance GPU L40SInstance GPU H100 PCIeJero & Nabu 2023GH200 Grace Hopper
Puces GPU NVIDIAP100 16GB PCIe 3L4 24GB PCIe 4L40S 48GB PCIe 4H100 80GB PCIe 5H100 80GB Tensor Core SXM5NVIDIA GH200 Grace Hopper™ Superchip
architecture NVIDIAPascal 2016LoveLace 2022LoveLace 2022Hopper 2022Hopper 2022GH200 Grace Hopper™ Architecture
Type de machineInstancesInstancesInstancesInstancesSupercalculateurInstance vers Supercalculateur
Performance (entrainement en FP16 Tensor Cores)Pas de Tensor Cores (manque de stabilité en FP16)Jusqu'à 242 TFLOPs
Jusqu'à 362 TFLOPSJusqu'à 1513 TFLOPsJusqu'à 2010 PFLOPsJusqu'à 989 peak TFLOPs par GH200
Détails- 10 vCPU (Skylake)
- 42 Go RAM DDR3400 Go NVMe/Boot on Block
- 1 gbps
En constructionEn construction - 24 vCPU (Zen4)
- 240 Go RAM DDR5
- Boot on Block
- 10 gbps
- jusqu’à 14 224 coeurs CPU(Zen4)
- 254To de RAM
- stockage DDN low latency
- Infiniband 400 Go par second
- GH200 SuperChip with 72 ARM Neoverse V2 cores alongside 480 GB of LPDDR5X DRAM and 96GB of HBM3 GPU memory, the memory is fully merged for up to 576GB of global usable memory.
-1,92TB of scratch storage
Up to 25GBps of networking performances
Prix1,24 €/heure (891 €/mois)bientôt disponiblebientôt disponible1,9 €/heure (1387 €/mois)En fonction du projetbientôt disponible
Format et CaractéristiquesMulti-GPU (en construction)Multi-GPU (en construction)- Multi-GPU (jusqu'à 2)
- Multi Instance GPU (MIG)
- Jusqu’à 127 serveurs DGX
- adaptable à votre projet
Single ship up to DGX GH200 architecture. (For larger setup needs, contact us)
Cas d'usages- Meilleur rapport prix/perf pour la Computer Vision
- Graphisme 3D
- Encoding et Decoding de vidéos (~4k) et d'images
- Entrainement de modèles de DL de taille M
- Meilleur rapport prix/performance pour l'inférence des modèles de DL S/M/L
- Fine-tuning (PEFT) de modèles LLM/Gen AI taille S
- Graphisme 3D
- Encoding et Decoding de vidéos (~8k)
- Entrainement de modèles de DL de taille L
- Inférence des modèles de DL L
- Fine-tuning (PEFT) et inférence de modèles LLM/Gen AI taille M
- Graphisme 3D
- Encoding et Decoding de vidéos (8k) et d'images
- Entrainement de modèles de DL de taille XL
- Inférence des modèles de DL XL
- Fine-tuning (PEFT) et inférence de modèles LLM/Gen AI taille L
- Entrainement de modèles de DL de taille XL
- Inference de modèles de DL de taille XL
- Entrainement de modèle LLM/Gen AI de taille L
- HPC
- Inference de modèles de DL et LLM de taille XL
- HPC
Pas faits pour LLMEntrainer des LLMGraphisme 3DGraphisme 3DGraphisme 3D, Entrainer
Démarrez votre GPU dès maintenant