Accélérez vos ambitions en matière d'IA
Exploitez des modèles d'IA colossaux grâce à la plus grande mémoire VRAM GPU du marché et aux innovations Blackwell (interconnectivité NVLink améliorée, meilleure efficacité énergétique).
Produisez de l'intelligence à grande échelle.

Exploitez des modèles d'IA colossaux grâce à la plus grande mémoire VRAM GPU du marché et aux innovations Blackwell (interconnectivité NVLink améliorée, meilleure efficacité énergétique).
Les GPUs B300 Ultra améliorent la précision pour les raisonnements complexes et les requêtes à contexte long.
La précision FP4 et une mémoire plus importante permettent de réduire les coûts et la consommation d'énergie des modèles d'IA.
Dépassez les limites de l'IA sans augmenter votre coût par token. L'architecture Blackwell du HGX B300 apporte des performances « Ultra » et jusqu'à 2.3 TB de mémoire pour un raisonnement IA plus précis.
Affinez les modèles à grande échelle pour obtenir des nuances, une précision et un raisonnement plus précis que jamais dans la génération de textes, d'images et de vidéos.
Exécutez des inférences complexes en temps réel pour les assistants IA internes ou destinés aux clients qui nécessitent une puissance de calcul importante.


Instances GPU H100
Accélérez le développement d'applications IA grâce aux instances GPU H100-SXM.

Instances GPU Render
Des Tesla P100 dédiés pour tous vos besoins en matière de Machine Learning et d'intelligence artificielle.

Instances GPU L4
Optimisez le potentiel de votre infrastructure IA grâce à un GPU polyvalent et économique.

Instances GPU L40S
Déployez la prochaine génération d'applications IA grâce aux GPUs universels L40S.
Les unités de traitement graphique (GPU) sont des processeurs hautement spécialisés et massivement parallèles, qui ont évolué d'un rendu graphique vers le moteur principal des calculs haute performance et de l'intelligence artificielle (IA) modernes. Le GPU est la base informatique des centres de données IA modernes, offrant un débit inégalé pour les tâches de calcul parallèles. Les GPU tels que les H100 et B300 de NVIDIA sont essentiels pour accélérer l'entraînement et le réglage fin de modèles massifs, tels que les LLM, et pour fournir des services d'inférence à haut débit.
Une Instance GPU cloud désigne un environnement informatique virtuel qui offre un accès à des GPU puissants via Internet.
Les GPUs B300-SXM seront disponibles dans la région de Paris, plus précisément dans la zone de disponibilité PAR-2.
Vous pouvez opter pour un modèle de paiement à l'usage (à la minute), ne payant que ce que vous consommez. Cette approche vous offre la flexibilité nécessaire pour provisionner et supprimer des ressources selon vos besoins.
GPU OS 12 est une image OS spécialisée basée sur Ubuntu 24.04 (Noble); elle est optimisée pour les charges de travail GPU. GPU OS 12 est pré-installé avec le pilote NVIDIA, Docker et le Container Toolkit de NVIDIA, offrant ainsi un environnement pour exécuter des applications conteneurisées. Cette image est conçue pour fonctionner efficacement avec les images de conteneurs NVIDIA NGC, permettant un déploiement rapide d'applications GPU, comme les charges de travail de machine learning et de traitement de données.
Oui, nous offrons un SLA de 99.5% sur tous nos GPUs. Cliquez ici pour en savoir plus.
Scaleway propose 4 plans de support différents pour répondre à vos besoins : Basic, Advanced, Business et Enterprise. Vous trouverez toutes les informations, y compris les prix, ici.
Pour lancer votre GPU avec Docker, utilisez Docker avec le NVIDIA Container Toolkit installé afin de permettre la prise en charge du GPU dans les conteneurs. Veillez à déployer votre conteneur avec le drapeau --gpus pour accéder aux ressources GPU. Cliquez ici pour en savoir plus.