Beschleunigung von Datenverarbeitung
Verarbeiten Sie großformatige Videos & Bilder mühelos oder lassen Sie GPU-intensive Modelle für Maschinelles Lernen laufen.
Dedizierte Tesla P100s für Maschinelles Lernen & Künstliche Intelligenz.
Verarbeiten Sie großformatige Videos & Bilder mühelos oder lassen Sie GPU-intensive Modelle für Maschinelles Lernen laufen.
Setzen Sie GPU-Nodes direkt von Kubernetes Kapsule aus ein oder verwenden Sie das NVIDIA Container-Toolkit.
Es gibt zwei vorinstallierte Ubuntu-Distributionen für Maschinelles Lernen.
GPUDedizierter NVIDIA Tesla P100 16 GB PCIe
Prozessor-geschwindigkeit2,40 GHz
Arbeitsspeicher42 GB
Bandbreite1 GBit/s
Prozessor10 Intel Xeon Gold 6148 cores
GPU-Speicher16 GB CoWoS HBM2
ArbeitsspeichertypDDR4-2666
SpeicherLocal Storage oder Block Storage nach Bedarf
GPU Instances wurden entwickelt, um komplexe Modelle mit hoher Geschwindigkeit zu trainieren. Dadurch können Sie die Vorhersagen und Entscheidungen Ihres Algorithmus verbessern. Durch die dedizierten NVIDIA Tesla P100 sind die Instances besonders gut für Anwendungen im Bereich Neural Networks und Deep-Learning geeignet.
Mit GPU Instances können Sie große Datensätze bearbeiten und die gesuchten Informationen schnell extrahieren. Dies hilft Datenanalysten, nicht-strukturierte Daten zusammenzufassen und einzuordnen.
GPU Instances können die Zeit des Encoding von hochauflösenden Videos verkürzen und 3D-Modelle in kürzester Zeit rendern. Optimieren Sie die Kosten und die Zeit der Nachproduktion, egal ob diese einmalig oder regelmäßig benötigt werden.
Integriert mit Kapsule & Registry ab 1,06 €/Stunde (zzgl. MwSt.)
Das vollständigste Cloud-Ökosystem in Europa - von Bare Metal bis hin zu Serverless und allem dazwischen.
Unser breit gefächertes Angebot ist darauf ausgelegt, Ihr Unternehmenswachstum in allen Entwicklungsstadien kostengünstig zu unterstützen.
Unsere Produkte sind mit Marktstandards kompatibel, sodass Sie die Wahlfreiheit ohne Lock-in genießen können.
Die Energie in unseren Rechenzentren kommt zu 100 Prozent aus erneuerbaren Energiequellen. Ausgemusterte Hardware wird sicher wiederverwendet und recycelt.
Die NVIDIA Pascal-Architektur ermöglicht es den Tesla P100 eine herausragende Leistung für HPC und Hyperscale-Workloads zu erzielen. Diese Architektur ist optimiert, um Deep-Learning-Anwendungen neue Möglichkeiten zu eröffnen. Das ist den mehr als 21 teraFLOPS an 16-Bit Floating-Point-Leistung (FP16) zu verdanken. Außerdem bietet die Pascal-Architektur über 5 und 10 teraFLOPS an Double- und Single-Precision-Leistung für HPC-Workloads.
Unsere herausragenden GPUs sind noch viel wertvoller, wenn sie mit unseren verschiedenen Cloud-Diensten genutzt werden. Profitieren Sie von unseren Block-Storage-Angeboten und unserem S3-kompatiblen Object Storage, der Ihnen pro Monat 75 GB an kostenlosem Speicher zur Verfügung stellt. Entdecken Sie unser kostenloses und verwaltetes Kubernetes Kapsule Control Plane, mit dem Sie ganz einfach Ihre automatisch skalierten CPU und GPU Cluster erstellen können.
Lesen Sie unseren Artikel "Wie man Kubeflow auf Kubernetes bereitstellt"
Unsere Ubuntu ML-Images (für Maschinelles Lernen) sind Ubuntu-Bionic-Images, auf denen die gängigsten Tools, Frameworks und Bibliotheken wie Cuda, Conda, TensorFlow, Keras, RAPIDS, JAX und verschiedene NLP- und Visualisierungs-Tools vorinstalliert sind.
Zusätzlich zu den "Ubuntu ML"-Images können Sie auch fast jedes andere Image verwenden, das Scaleway für General Purposes Instances bereitstellt. Selbstverständlich können Sie auch eigene Images verwenden.
Falls Sie unsere "Ubuntu ML"-Images ohne Conda verwenden möchten, können Sie mit der Aufforderung conda deactivate und dann conda env remove -n ai etwas Speicherplatz einsparen.