Supercalculateurs d'IA

Elaborez le prochain modèle de fondation avec l'un des supercalculateurs les plus rapides et les plus éconérgétiques au monde.

Le matériel d'entraînement IA le plus puissant sur le marché

Entraînez des modèles d'IA à une vitesse sans précédent grâce aux supercalculateurs IA de Scaleway. Équipée de GPU NVIDIA H100 Tensor Core d'une rapidité sans précédent, d'une plateforme réseau NVIDIA Quantum-2 InfiniBand non bloquant et d'un stockage DDN haute performance, cette machine peut s'étendre sans effort à des centaines ou des milliers de nœuds, répondant aux défis les plus importants de la prochaine génération d'applications d'IA.

Hébergé en Europe

Gardez le contrôle total de votre parcours d'IA grâce à la garantie de Scaleway sur la souveraineté des données européennes. Nos solutions de stockage complètes garantissent que vos données et innovations restent hors de portée de toutes législations extraterritoriales tout au long du cycle de l'apprentissage automatique.

Dans l'un des Data Center les plus respectueux de l'environnement d'Europe

Installés dans le centre de données écologique DC5 et dotés de puces H100 au meilleur ratio performance/watt, les supercalculateurs IA de Scaleway offrent des performances exceptionnelles en matière d'IA avec une meilleure performance par watt et des coûts de possession réduits.

Nabu 2023

  • CPUDual Intel® Xeon® Platinum 8480C Processors 112 coeur total

  • Nombre total de coeurs CPU14 224 coeurs

  • GPU1016 GPU Nvidia H100 Tensor Core (SXM5)

  • Mémoire GPU totale81 280 GB

  • Fréquence du ProcesseurMaximum de 3,80 GHz

  • Quantité de mémoire RAM totale254 TB de RAM

  • Type de stockage1,8 PB de stockage a3i DDN à faible latence

  • Capacité de stockage par DGX2,7 TB/s en lecture et 1,95 TB/s en écriture

  • Bande Passante inter-GPUInfiniBand 400 Gb/s

  • Jero 2023

  • CPUDual Intel® Xeon® Platinum 8480C Processors 112 coeurs total

  • Nombre total de coeurs CPU224 coeurs

  • GPU16 GPU Nvidia H100 Tensor Core (SXM5)

  • Mémoire GPU totale1280 GB

  • Fréquence du Processeur Maximum de 3,80 GHz

  • Quantité de mémoire RAM totale4 TB de RAM

  • Type de stockage 64 TB de stockage a3i DDN à faible latence

  • Bande Passante inter-GPUInfiniBand 400 Gb/s

  • Fabriqué avec les technologies les plus haut de gamme pour l'IA (TL;DR)

    GPU NVIDIA H100 Tensor Core, les meilleures puces pour l'IA

    Nos supercalculateurs, Nabu & Jero 2023, sont équipés de systèmes DGX H100 avec GPU Nvidia H100 Tensor Cores 80 Go (SXM5). Ils permettent une mise à l'échelle multi-nœuds ultra-rapide pour l'IA, grâce à leurs GPU de dernière génération :

    • Architecture Hopper ;
    • Puce avec 80 milliards de transistors répartis sur une surface de 814 mm² ;
    • Tensor Core de 4e génération jusqu'à 6 fois plus rapide que ceux de du GPU NVIDIA A100 Tensor Core ;
    • Transformer Engine jusqu'à 30 fois plus rapide pour l'accélération de l’inférence des des modèles de langage par rapport à la génération précédente de GPU A100 ;
    • 2e génération de MIG sécurisé jusqu'à 7 locataires sécurisés.

    Réseaux NVIDIA ConnectX-7 et Quantum-2 pour une évolutivité sans faille

    Grâce à l'interconnexion InfiniBand NDR (400Gb/s), chaque nœud de calcul de 8 GPU offre 3,2 Tb/s de bande passante vers tous les autres nœuds sur une architecture réseau totalement non bloquante.

    Sa toute nouvelle technologie GPUDirect RDMA accélère la communication directe entre tous les nœuds du cluster via InfiniBand, ce qui permet :

    • 15 % de recommandations d'apprentissage en profondeur plus rapides ;
    • 17 % plus rapide pour le traitement du langage naturel (NLP) ;
    • 15 % plus rapide pour les simulations de dynamique des fluides ;
    • 36 % de consommation électrique plus faible.

    Stockage DDN conçu pour le calcul intensif et co-développé avec NVIDIA pour l'intelligence artificielle

    Les supercalculateurs IA bénéficient du stockage DDN a3i optimisé pour le calcul ultra-rapide. Avec plus de :

    • 2,7 To/s en lecture ;
    • 1,9 To/s en écriture ;
    • une vitesse d'écriture de plus de 15 Go/s par système DGX.
      Le stockage DDN permet des points de contrôle réguliers pour plus de sécurité.

    SLURM pour une gestion complète

    Bénéficiez d'une gestion complète du supercalculateur avec SLURM. Un système de gestion de cluster open source et de planification de tâches pour les clusters Linux.

    De nombreux cas d’usages

    IA générative

    Génère de nouveaux contenus tels que des images, du texte, de l'audio ou du code. Elle produit de manière autonome des résultats nouveaux et cohérents, élargissant le domaine des contenus générés par l'IA au-delà de la simple réplication ou prédiction.
    Avec des modèles et des algorithmes spécialisés dans :

    • Génération d'images ;
    • Génération de texte avec des modèles de type Transformer, également appelés LLM (Large Language Models), tels que GPT-24 ;
    • Génération de code.