H100 PCIe GPU Instance

Accélérez l'entraînement de vos modèles et de vos inférences avec la puce IA la plus haut de gamme du marché !

Affinez des modèles tels que LLaMA 2

Optimisez les Transformers Models et les LLM à travers un traitement efficace, et accélerez les entraînements de modèles plus importants grâce à la technologie de pointe Tensor Cores de 4ᵉ génération et au dernier format de données 8 bits.

Accélérez jusqu'à 30 fois le traitement de l'inférence

Augmentez la vitesse de traitement de vos modèles grâce au Transformer Engine, 30 fois plus rapide pour l'inférence de l'IA et les nouveaux formats de données.

Optimisez la capacité des GPU en fonction de vos besoins

Grâce à la deuxième génération de Secure MIG (GPU multi-instances), vous pouvez partitionner le GPU en instances isolées de taille adéquate afin de maximiser l'utilisation des tâches multi-GPU, des plus petites aux plus grandes.

Zones disponibles :
Paris:PAR 2

GPU H100 PCIe spécifications techniques

  • GPUNVIDIA H100 PCIe Tensor Core

  • Mémoire GPU80 Go HBM2e

  • Processeur24 vCPU AMD Epyc Zen 4

  • Fréquence du processeur2,7 Ghz

  • Mémoire240 Go de RAM

  • Type de mémoireDDR5

  • Bande passante10 Gbps

  • StockageBlock Storage pour le démarrage et 3 To de stockage Scratch NVMe

  • De nombreux cas d’usages

    Natural Language Processing

    Comprend, interprète et génère du langage humain de manière à le rendre compréhensible et pertinent en fonction du contexte.
    Grâce à des modèles et des algorithmes spécialisés dans :

    • Text classification ;
    • Machine translation ;
    • Entailment prediction ;
    • Named entity recognition ;
    • Sequence-to-sequence, like BERT for text extraction ;
    • Text similarity search, like BERT to find semantic similarities ;
    • Language modeling.

    Profitez de la simplicité d'un environnement IA préconfiguré

    Optimisez le système d'exploitation de vos GPU

    Bénéficiez d'une image Ubuntu prête à l'emploi pour lancer vos conteneurs d'apprentissage profond préférés (pilote NVIDIA préinstallé et environnement Docker).

    En savoir plus

    Profitez de votre environnement Jupyter préféré

    Lancez facilement votre JupyterLab ou Notebook préféré grâce à l'environnement Docker préinstallé.

    En savoir plus

    Choisissez vos AI containers parmi plusieurs registres

    Accédez à plusieurs registres de conteneurs : vos propres conteneurs compilés, les conteneurs IA de Scaleway, le registre NVIDIA NGC et tout autre registre.

    En savoir plus

    Les logiciels NVIDIA Enterprise AI à votre disposition

    Accédez à des centaines de logiciels IA optimisés par Nvidia pour maximiser l'efficacité de vos GPU et augmenter votre productivité. Parmi les centaines de logiciels développés par NVIDIA et testés par des leaders de leur industrie, tirez parti de

    • NVIDIA Nemo pour le réglage fin des LLM,
    • NVIDIA TAO pour la vision par ordinateur,
    • NVIDIA TRITON pour l'inférence.
    En savoir plus

    Déployez et mettez à l'échelle votre infrastructure avec Kubernetes