Boostez votre infrastructure d'IA avec les composants clés de l'écosystème Scaleway
Déployez et faites évoluer votre infrastructure avec Kubernetes.
Libérez le potentiel des GPU : exploitez la vitesse et l’efficacité des GPU pour les charges de travail parallélisées ! Parfaite pour le rendering et les projets d’IA, notre gamme complète de GPU NVIDIA, comprenant les puces NVIDIA P100, NVIDIA H100 Tensor Core GPU,NVIDIA L4 Tensor Core GPU, NVIDIA L40S et GH200, couvrent un large éventail de besoins informatiques.
2.52€/h (~1387€/mois)
Accélérez l'entraînement de vos modèles et de vos inférences avec la puce IA la plus haut de gamme du marché !
1.24 €/h (~891 €/mois)
Tesla P100 dédiées pour répondre à tous vos besoins en Machine Learning et Intelligence artificielle.
0,75 €/h (~548€/mois)
Optimisez les coûts de votre infrastructure d'IA avec une Instance GPU d'entrée de gamme polyvalent.
1,4€/h (~1022€/mois)
Accélérez la prochaine génération d'applications boostées par l'IA avec l'Instance GPU L40S universelle, plus rapide que la L4 et moins chère que la H100 PCIe.
127 NVIDIA DGX H100
Construisez le prochain modèle de Fondation avec Nabu 2023, l'un des supercalculateurs les plus rapides et les plus économes en énergie au monde.
2 NVIDIA DGX H100
Affinez les modèles Transformers et déployez-les sur Jero 2023, le supercalculateur d’IA à 2-DGX qui peut monter en charge jusqu’à 16 nœuds
Disponible en 2024
La super-puce NVIDIA GH200 Grace Hopper associe le CPU NVIDIA Grace et le GPU H100 Tensor Core pour un gain de performance considérable pour l'IA et le HPC à grande échelle.
GPU | Mémoire GPU | FP16 pic de performance | Recommandé pour | Prix |
---|---|---|---|---|
2x NVIDIA H100 Tensor Core GPU | 80 GB | 3026 TFLOPS | Fine-Tuning et Inference de LLM 70B | 5,04€/hour |
1x NVIDIA H100 Tensor Core GPU | 80 GB | 1513 TFLOPS | Fine-Tuning et Inference de LLM 7B | 2,52€/hour |
8x NVIDIA L40S GPU | 48 GB | 2896 TFLOPS | Fine-Tuning et Inference de modèle jusqu'à 70B de GenAI (image, vidéo) | 11,2€/hour |
4x NVIDIA L40S GPU | 48 GB | 1448 TFLOPS | Inference de Mixtral 8x22B | 5,6€/hour |
2x NVIDIA L40S GPU | 48 GB | 724 TFLOPS | Inference de modèle LLM 7B | 2,8€/hour |
1x NVIDIA L40S GPU | 48 GB | 362 TFLOPS | Image & Video Encoding (8K) | 1,4€/hour |
8x NVIDIA L4 Tensor Core GPU | 24 GB | 1936 TFLOPS | Inference de modèle LLM 70B | 6,00€/hour |
4x NVIDIA L4 Tensor Core GPU | 24 GB | 968 TFLOPS | Inference de modèle LLM 7B | 3,00€/hour |
2x NVIDIA L4 Tensor Core GPU | 24 GB | 484 TFLOPS | Encoding vidéo (8K) | 1,50€/hour |
1x NVIDIA L4 Tensor Core GPU | 24 GB | 242 TFLOPS | Encoding d'image (8K) | 0,75€/hour |
NVIDIA P100 | 16 GB | 19 TFLOPS | Encoding d'image et vidéo (4K) | 1,24€/hour |
Option | Value | Price |
---|---|---|
Zone | Paris 2 | |
Instance | 1x | 0€ |
Volume | 10GB | 0€ |
IPv4 flexible | Oui | 0.004€ |
Total | |
---|---|
À la journée | 0€ |
À la semaine | 0€ |
Au mois | 0€ |
Boostez votre infrastructure d'IA avec les composants clés de l'écosystème Scaleway
Déployez et faites évoluer votre infrastructure avec Kubernetes.
Object Storage pour stocker et préparer votre donnée
Déployer des modèles avec le serveur d'inférence NVIDIA Triton sur Scaleway Object Storage
Docker AI Image pour accélérer votre tâche
Lancez le conteneur de votre choix étape par étape.