ScalewayAller à la connexionAller au contenu principalAller au pied de page

ai-PULSE 2024 : Préinscrivez-vous ! Nov 7, Paris

Le matériel d'entraînement IA le plus puissant sur le marché

Entraînez des modèles d'IA à une vitesse sans précédent grâce aux Custom-built Clusters de Scaleway. Équipée de GPU NVIDIA H100 Tensor Core d'une rapidité sans précédent, d'une plateforme réseau NVIDIA Quantum-2 InfiniBand non bloquant et d'un stockage DDN haute performance, cette machine peut s'étendre sans effort à des centaines ou des milliers de nœuds, répondant aux défis les plus importants de la prochaine génération d'applications d'IA.

Hébergé en Europe

Gardez le contrôle total de votre parcours d'IA grâce à la garantie de Scaleway sur la souveraineté des données européennes. Nos solutions de stockage complètes garantissent que vos données et innovations restent hors de portée de toutes législations extraterritoriales tout au long du cycle de l'apprentissage automatique.

Dans l'un des Data Center les plus respectueux de l'environnement d'Europe

Installés dans le centre de données écologique DC5 et dotés de puces H100 au meilleur ratio performance/watt, les Custom-built Clusters de Scaleway offrent des performances exceptionnelles en matière d'IA avec une meilleure performance par watt et des coûts de possession réduits.

Exemples de Custom-built Clusters que nous pouvons mettre en place pour vous

Nom du ClusterNombre de GPUmaxi de PLFOPS en FP8 Tensor Core
Nabuchodonosor 20231016 GPU Nvidia H100 Tensor Core (SXM5)Jusqu’à 4021,3 PFLOPS
Jeroboam 202316 GPU Nvidia H100 Tensor Core (SXM5)Jusqu’à 63,2 PFLOPS

Nabu 2023

  • processor

    CPU

    Dual Intel® Xeon® Platinum 8480C Processors 112 coeur total

  • threads_cores

    Nombre total de coeurs CPU

    14 224 coeurs

  • gpu

    GPU

    1016 GPU Nvidia H100 Tensor Core (SXM5)

  • memory

    Mémoire GPU totale

    81 280 GB

  • processor_frequency

    Fréquence du Processeur

    Maximum de 3,80 GHz

  • memory

    Quantité de mémoire RAM totale

    254 TB de RAM

  • storage_type

    Type de stockage

    1,8 PB de stockage a3i DDN à faible latence

  • storage

    Capacité de stockage par DGX

    2,7 TB/s en lecture et 1,95 TB/s en écriture

  • bandwidth

    Bande Passante inter-GPU

    InfiniBand 400 Gb/s

Jero 2023

  • processor

    CPU

    Dual Intel® Xeon® Platinum 8480C Processors 112 coeurs total

  • threads_cores

    Nombre total de coeurs CPU

    224 coeurs

  • gpu

    GPU

    16 GPU Nvidia H100 Tensor Core (SXM5)

  • memory

    Mémoire GPU totale

    1280 GB

  • processor_frequency

    Fréquence du Processeur

    Maximum de 3,80 GHz

  • memory

    Quantité de mémoire RAM totale

    4 TB de RAM

  • storage_type

    Type de stockage

    64 TB de stockage a3i DDN à faible latence

  • bandwidth

    Bande Passante inter-GPU

    InfiniBand 400 Gb/s

Fabriqué avec les technologies les plus haut de gamme pour l'IA (TL;DR)

GPU NVIDIA H100 Tensor Core, les meilleures puces pour l'IA

Nos Custom-built Clusters, Nabu & Jero 2023, sont équipés de systèmes DGX H100 avec GPU Nvidia H100 Tensor Cores 80 Go (SXM5). Ils permettent une mise à l'échelle multi-nœuds ultra-rapide pour l'IA, grâce à leurs GPU de dernière génération :

  • Architecture Hopper ;
  • Puce avec 80 milliards de transistors répartis sur une surface de 814 mm² ;
  • Tensor Core de 4e génération jusqu'à 6 fois plus rapide que ceux de du GPU NVIDIA A100 Tensor Core ;
  • Transformer Engine jusqu'à 30 fois plus rapide pour l'accélération de l’inférence des des modèles de langage par rapport à la génération précédente de GPU A100 ;
  • 2e génération de MIG sécurisé jusqu'à 7 locataires sécurisés.

Réseaux NVIDIA ConnectX-7 et Quantum-2 pour une évolutivité sans faille

Grâce à l'interconnexion InfiniBand NDR (400Gb/s), chaque nœud de calcul de 8 GPU offre 3,2 Tb/s de bande passante vers tous les autres nœuds sur une architecture réseau totalement non bloquante.

Sa toute nouvelle technologie GPUDirect RDMA accélère la communication directe entre tous les nœuds du cluster via InfiniBand, ce qui permet :

  • 15 % de recommandations d'apprentissage en profondeur plus rapides ;
  • 17 % plus rapide pour le traitement du langage naturel (NLP) ;
  • 15 % plus rapide pour les simulations de dynamique des fluides ;
  • 36 % de consommation électrique plus faible.

Stockage DDN conçu pour le calcul intensif et co-développé avec NVIDIA pour l'intelligence artificielle

Les Custom-built Clusters bénéficient du stockage DDN a3i optimisé pour le calcul ultra-rapide. Avec plus de :

  • 2,7 To/s en lecture ;
  • 1,9 To/s en écriture ;
  • une vitesse d'écriture de plus de 15 Go/s par système DGX.
    Le stockage DDN permet des points de contrôle réguliers pour plus de sécurité.

SLURM pour une gestion complète

Bénéficiez d'une gestion complète du cluster avec SLURM. Un système de gestion de cluster open source et de planification de tâches pour les clusters Linux.

De nombreux cas d’usages

IA générative

Génère de nouveaux contenus tels que des images, du texte, de l'audio ou du code. Elle produit de manière autonome des résultats nouveaux et cohérents, élargissant le domaine des contenus générés par l'IA au-delà de la simple réplication ou prédiction.
Avec des modèles et des algorithmes spécialisés dans :

  • Génération d'images ;
  • Génération de texte avec des modèles de type Transformer, également appelés LLM (Large Language Models), tels que GPT-24 ;
  • Génération de code.