GPU Render Instances

Dedizierte Tesla P100s für Maschinelles Lernen & Künstliche Intelligenz.

Beschleunigung von Datenverarbeitung

Verarbeiten Sie großformatige Videos & Bilder mühelos oder lassen Sie GPU-intensive Modelle für Maschinelles Lernen laufen.

Container kompatibel

Setzen Sie GPU-Nodes direkt von Kubernetes Kapsule aus ein oder verwenden Sie das NVIDIA Container-Toolkit.

Benutzerfreundlich

Es gibt zwei vorinstallierte Ubuntu-Distributionen für Maschinelles Lernen.

Verfügbare Zonen:
Paris:PAR 1PAR 2

Ein Blick ins Innere

  • GPUDedizierter NVIDIA Tesla P100 16 GB PCIe

  • Prozessor-geschwindigkeit2,40 GHz

  • Arbeitsspeicher42 GB

  • Bandbreite1 GBit/s

  • Prozessor10 Intel Xeon Gold 6148 cores

  • GPU-Speicher16 GB CoWoS HBM2

  • ArbeitsspeichertypDDR4-2666

  • SpeicherLocal Storage oder Block Storage nach Bedarf

Anwendungsfälle

GPU Instances wurden entwickelt, um komplexe Modelle mit hoher Geschwindigkeit zu trainieren. Dadurch können Sie die Vorhersagen und Entscheidungen Ihres Algorithmus verbessern. Durch die dedizierten NVIDIA Tesla P100 sind die Instances besonders gut für Anwendungen im Bereich Neural Networks und Deep-Learning geeignet.

Mit GPU Instances können Sie große Datensätze bearbeiten und die gesuchten Informationen schnell extrahieren. Dies hilft Datenanalysten, nicht-strukturierte Daten zusammenzufassen und einzuordnen.

GPU Instances können die Zeit des Encoding von hochauflösenden Videos verkürzen und 3D-Modelle in kürzester Zeit rendern. Optimieren Sie die Kosten und die Zeit der Nachproduktion, egal ob diese einmalig oder regelmäßig benötigt werden.

Integriert mit Kapsule & Registry ab 1,06 €/Stunde (zzgl. MwSt.)

Preisgestaltung

Unsere Vorteile

Flexibles Wachstum mit einer europäischen Cloud ohne Lock-in

Das vollständigste Cloud-Ökosystem in Europa - von Bare Metal bis hin zu Serverless und allem dazwischen.

Das beste Preis-Leistungs-Verhältnis

Unser breit gefächertes Angebot ist darauf ausgelegt, Ihr Unternehmenswachstum in allen Entwicklungsstadien kostengünstig zu unterstützen.

Nutzen Sie Multi-Cloud-Lösungen

Unsere Produkte sind mit Marktstandards kompatibel, sodass Sie die Wahlfreiheit ohne Lock-in genießen können.

Unser nachhaltiges Konzept

Die Energie in unseren Rechenzentren kommt zu 100 Prozent aus erneuerbaren Energiequellen. Ausgemusterte Hardware wird sicher wiederverwendet und recycelt.

Erste Schritte mit Tutorials

  • Wie erstelle ich die erste GPU Instance?Mehr erfahren
  • Wie nehme ich die Einrichtung und Konfiguration von Jupyter Notebook auf einer GPU Instance vor? Mehr erfahren
Tutorials

Häufig gestellte Fragen

Die NVIDIA Pascal-Architektur ermöglicht es den Tesla P100 eine herausragende Leistung für HPC und Hyperscale-Workloads zu erzielen. Diese Architektur ist optimiert, um Deep-Learning-Anwendungen neue Möglichkeiten zu eröffnen. Das ist den mehr als 21 teraFLOPS an 16-Bit Floating-Point-Leistung (FP16) zu verdanken. Außerdem bietet die Pascal-Architektur über 5 und 10 teraFLOPS an Double- und Single-Precision-Leistung für HPC-Workloads.

Unsere herausragenden GPUs sind noch viel wertvoller, wenn sie mit unseren verschiedenen Cloud-Diensten genutzt werden. Profitieren Sie von unseren Block-Storage-Angeboten und unserem S3-kompatiblen Object Storage, der Ihnen pro Monat 75 GB an kostenlosem Speicher zur Verfügung stellt. Entdecken Sie unser kostenloses und verwaltetes Kubernetes Kapsule Control Plane, mit dem Sie ganz einfach Ihre automatisch skalierten CPU und GPU Cluster erstellen können.

Lesen Sie unseren Artikel "Wie man Kubeflow auf Kubernetes bereitstellt"

Unsere Ubuntu ML-Images (für Maschinelles Lernen) sind Ubuntu-Bionic-Images, auf denen die gängigsten Tools, Frameworks und Bibliotheken wie Cuda, Conda, TensorFlow, Keras, RAPIDS, JAX und verschiedene NLP- und Visualisierungs-Tools vorinstalliert sind.

Zusätzlich zu den "Ubuntu ML"-Images können Sie auch fast jedes andere Image verwenden, das Scaleway für General Purposes Instances bereitstellt. Selbstverständlich können Sie auch eigene Images verwenden.

Falls Sie unsere "Ubuntu ML"-Images ohne Conda verwenden möchten, können Sie mit der Aufforderung conda deactivate und dann conda env remove -n ai etwas Speicherplatz einsparen.