Skalieren Sie in Sekunden auf Hunderte GPUs

Leistungsstarke GPU-beschleunigte KI-Infrastruktur

Datenschutzorientiert und ideal fuer individuelle KI-Modelle, Training, Rendering und Datenverarbeitung.

Reform

Transparente Preise

Hochleistungs-GPU-Optionen

Waehlen Sie die passende GPU-Konfiguration fuer Ihre KI- und Machine-Learning-Workloads

H100 Series

2x H100

2x H100

80GB

Nicht verfuegbar
Leistung: 3,026 TFLOPS
Empfohlen fuer: 70B LLM Fine-Tuning / Inference
Stuendlich: $5.04/hr
Monatlich: $3,628.80/mo
1x H100

1x H100

80GB

Nicht verfuegbar
Leistung: 1,513 TFLOPS
Empfohlen fuer: 7B LLM Fine-Tuning / Inference
Stuendlich: $2.52/hr
Monatlich: $1,814.40/mo

L40S Series

8x L40S

8x L40S

48GB

Nicht verfuegbar
Leistung: 2,896 TFLOPS
Empfohlen fuer: Fine-Tuning / Inference of GenAI (image video) model up to 70B
Stuendlich: $11.2/hr
Monatlich: $8,064.00/mo
4x L40S

4x L40S

48GB

Nicht verfuegbar
Leistung: 1,448 TFLOPS
Empfohlen fuer: Inference of Mixtral 8x22B
Stuendlich: $5.6/hr
Monatlich: $4,032.00/mo
2x L40S

2x L40S

48GB

Nicht verfuegbar
Leistung: 724 TFLOPS
Empfohlen fuer: 7B LLM Inference
Stuendlich: $2.8/hr
Monatlich: $2,016.00/mo
1x L40S

1x L40S

48GB

Nicht verfuegbar
Leistung: 362 TFLOPS
Empfohlen fuer: Image & Video Encoding (8K)
Stuendlich: $1.4/hr
Monatlich: $1,008.00/mo

L4 Series

8x L4

8x L4

24GB

Nicht verfuegbar
Leistung: 1,936 TFLOPS
Empfohlen fuer: 70B LLM Inference
Stuendlich: $6.00/hr
Monatlich: $4,320.00/mo
4x L4

4x L4

24GB

Nicht verfuegbar
Leistung: 968 TFLOPS
Empfohlen fuer: 7B LLM Inference
Stuendlich: $3.00/hr
Monatlich: $2,160.00/mo
2x L4

2x L4

24GB

Nicht verfuegbar
Leistung: 484 TFLOPS
Empfohlen fuer: Video Encoding (8K)
Stuendlich: $1.50/hr
Monatlich: $1,080.00/mo
1x L4

1x L4

24GB

Nicht verfuegbar
Leistung: 242 TFLOPS
Empfohlen fuer: Image Encoding (8K)
Stuendlich: $0.75/hr
Monatlich: $540.00/mo

Legacy Series

P100

P100

16GB

Nicht verfuegbar
Leistung: 19 TFLOPS
Empfohlen fuer: Image / Video Encoding (4K)
Stuendlich: $1.24/hr
Monatlich: $892.80/mo

Hinweis zu hoher Nachfrage

Aufgrund der hohen Nachfrage nach GPU-Ressourcen kann die Verfuegbarkeit eingeschraenkt sein. Lassen Sie sich benachrichtigen, sobald Ihre bevorzugte Konfiguration verfuegbar ist:

Volle Leistung fuer KI entfesseln

Warum GPU-Instanzen waehlen?

GPU-Instanzen sind ideal fuer rechenintensive Workloads mit maximaler Leistung, Flexibilitaet und voller Infrastrukturkontrolle.

Individuelle Inference-Workloads:
Fuehren Sie angepasste Inference-Pipelines mit spezifischen Modellen, Quantisierung und Konfigurationen aus.
Big-Data-Verarbeitung:
Trainieren Sie grosse Machine-Learning-Modelle oder LLMs mit Frameworks wie TensorFlow oder PyTorch.
Entwicklung und Forschung:
Verarbeiten Sie grosse Datensaetze mit CUDA-beschleunigten Tools wie RAPIDS fuer Analytics oder wissenschaftliches Rechnen.
Product screenshot

Starten Sie Ihre erste GPU-Instanz in wenigen Minuten

Trainieren und fine-tunen Sie Modelle in einer GPU-Cloud fuer KI-Workloads. Schnellster Zugang zu Enterprise-Cloud-GPUs.

Fragen & Antworten

Haeufig gestellte Fragen

Alles, was Sie ueber unsere GPU-Compute-Infrastruktur wissen muessen

Wie schnell kann ich mit GPU-Instanzen starten?

Sie koennen Ihre erste GPU-Instanz in unter 5 Minuten. Unsere Plattform bietet:

  • Vorkonfigurierte Umgebungen mit Docker, CUDA und gaengigen ML-Frameworks (PyTorch, TensorFlow)
  • One-Click-Deployment fuer gaengige AI/ML-Workloads
  • SSH- und API-Zugriff direkt nach dem Provisioning
  • Jupyter Lab und Development-Tools sofort einsatzbereit

Waehlen Sie GPU-Konfiguration und OS/Framework aus, und Sie erhalten eine voll einsatzbereite Instanz fuer Ihre Workloads.

Welche Frameworks und Software werden unterstuetzt?

Unsere GPU-Instanzen unterstuetzen nahezu jedes AI/ML-Framework und jede benoetigte Software:

Vorinstalliert und optimiert:

  • PyTorch, TensorFlow, JAX, Keras
  • CUDA Toolkit & cuDNN (latest versions)
  • RAPIDS fuer GPU-beschleunigte Data-Science-Workflows
  • Jupyter Lab, VS Code Server
  • Docker & nvidia-docker
  • Hugging Face Transformers, vLLM, TGI

Voller Root-Zugriff bedeutet, dass Sie jede zusaetzliche Software, eigene Libraries und proprietaere Tools installieren koennen. Sie koennen ausserdem eigene Docker-Images mitbringen oder Umgebungen von Grund auf erstellen.

Wie funktioniert die Abrechnung? Gibt es versteckte Gebuehren?

100% transparente Preise ohne versteckte Gebuehren. So funktioniert es:

  • Stundenbasierte Abrechnung sekundengenau berechnet (mindestens 1 Minute)
  • Monatliche Pakete verfuegbar - sparen Sie bis zu 30% mit monatlichen Bindungen
  • Keine Datentransfer-Gebuehren bei ueblicher Nutzung (Fair-Use-Richtlinie)
  • Keine Setup-Gebuehren und keine Mindestabnahme
  • Speicher inklusive - 100GB NVMe-SSD je Instanz ohne Aufpreis

Beispiel: Eine 1x-L4-GPU-Instanz kostet $0.75/hour. Nutzen Sie sie 8 Stunden = $6.00. Wenn sie gestoppt ist, zahlen Sie nichts.

Sie koennen Ihre Nutzung in Echtzeit im Dashboard verfolgen und Budget-Benachrichtigungen einrichten.

Kann ich GPU-Ressourcen nach oben oder unten skalieren?

Absolut! Unsere Plattform ist fuer elastische Skalierung ausgelegt:

  • Horizontale Skalierung: Mehrere GPU-Instanzen parallel fuer verteiltes Training oder Inferenz starten
  • Vertikale Skalierung: Von 1x auf 2x, 4x oder 8x GPU-Konfigurationen erweitern
  • GPU-Migration: Zwischen L4-, L40S- und H100-GPUs je nach Workload wechseln
  • Auto-Scaling per API: Instanzen programmgesteuert anhand der Last erstellen und entfernen
  • Sofortiges Stoppen: Instanzen bei Nichtnutzung stoppen und Kosten sparen - ohne langfristige Vertragsbindung

Unsere API- und CLI-Tools erleichtern die Automatisierung der Skalierung, egal ob Sie waehrend der Arbeitszeiten trainieren oder rund um die Uhr Inferenzdienste betreiben.

Wie sicher sind meine Daten und sind GPU-Instanzen privat?

Datenschutz und Sicherheit haben oberste Prioritaet:

Dedizierte GPUs: Ihre GPU wird nicht mit anderen Nutzern geteilt - volle Isolation und konstante Leistung
Verschluesselter Speicher: Alle ruhenden Daten sind mit AES-256 verschluesselt
Netzwerk-Isolation: Private Netzwerke mit kontrollierbaren Firewall-Regeln
Compliance-ready: SOC-2-Type-II-zertifizierte Infrastruktur
Keine Datenspeicherung: Beim Loeschen einer Instanz werden alle Daten dauerhaft entfernt

Ihre Trainingsdaten, Modelle und Ihr Code bleiben vollstaendig privat und werden nur mit Ihrer ausdruecklichen Zustimmung fuer Support-Faelle eingesehen.

Welche GPU sollte ich fuer meinen Workload waehlen?

Kurzer Leitfaden zur Auswahl der passenden GPU:

NVIDIA L4 (24GB):
  • Geeignet fuer: Kleine Modell-Inferenz (7B-13B), Bild-/Videoverarbeitung
  • Kosteneffizienter Einstieg in AI-Workloads
  • Sehr gut fuer Entwicklung und Testing
NVIDIA L40S (48GB):
  • Geeignet fuer: Mittelgrosse bis grosse Inferenz (bis 70B), Fine-Tuning, multimodale KI
  • Sehr gute Balance aus Speicher und Leistung
  • Ideal fuer generative KI-Anwendungen (Stable Diffusion, Video-Generierung)
NVIDIA H100 (80GB):
  • Geeignet fuer: Grosses Modelltraining (70B+), verteiltes Training, hohe Inferenzlast
  • Top-Performance mit Tensor-Core-Beschleunigung
  • Notwendig fuer anspruchsvolle Forschung und produktive LLM-Deployments

Unsicher? Starten Sie mit einer kleineren GPU-Konfiguration und skalieren Sie bei Bedarf. Upgrades und zusaetzliche Instanzen sind jederzeit moeglich. Unser Support hilft auch bei Benchmarks fuer Ihren Workload.

Welche Art von Support und SLA bieten Sie an?

Wir bieten umfassenden Support mit branchenfuehrender Verfuegbarkeit:

Standard-Support (inklusive)

  • • E-Mail-Support (24-48 Std. Reaktionszeit)
  • • Umfassende Dokumentation
  • • Community-Foren
  • • 99.9% Uptime-SLA

Enterprise-Support

  • • 24/7 Priority-Support
  • • Dedizierter Account-Manager
  • • Individuelle SLAs bis 99.99%
  • • Architektur-Beratung

Automatisches Monitoring prueft den GPU-Zustand kontinuierlich. Bei seltenen Hardware-Ausfaellen werden Instanzen mit minimaler Unterbrechung auf gesunde Nodes migriert.

Wir bieten ausserdem Dokumentation, Tutorials und API-Referenzen damit Sie das Maximum aus Ihren GPU-Instanzen herausholen.

Kann ich eigene Docker-Images oder benutzerdefinierte Umgebungen nutzen?

Ja, absolut! Wir unterstuetzen vollstaendige Anpassung:

  • Docker-Hub-Integration: Nutzen Sie beliebige oeffentliche oder private Docker-Images
  • Eigene Dockerfiles: Container mit eigenen Abhaengigkeiten bauen
  • Private Registry-Unterstuetzung: AWS ECR, Google GCR oder andere private Registries anbinden
  • Persistente Volumes: Speicher-Volumes ueber Instanz-Neustarts hinweg beibehalten
  • Umgebungsvariablen: Secrets und Konfiguration sicher bereitstellen

Beispiel-Use-Case: Deployen Sie Ihre proprietaere ML-Pipeline mit eigenen CUDA-Kernels, spezifischen Python-Paketen und internen Abhaengigkeiten - alles in einem Docker-Image unter Ihrer Kontrolle. Wir uebernehmen GPU-Treiber und Orchestrierung.

Mit vollem Root-Zugriff koennen Sie Umgebungen auch mit bare Ubuntu/CentOS von Grund auf aufbauen und exakt benoetigte Pakete installieren.

Welche Netzwerkgeschwindigkeiten und Speicheroptionen gibt es?

Unsere Infrastruktur ist auf hochperformanten Datentransfer und Speicher ausgelegt:

Netzwerkleistung:

  • 10-100 Gbps Netzwerkanbindung abhaengig von der Instanzgroesse
  • Niedriglatenz-Netzwerk fuer verteiltes Training (RDMA auf H100 verfuegbar)
  • Unbegrenzter eingehender Traffic - keine Kosten fuer eingehenden Datentransfer
  • Grosszuegige Egress-Kontingente im Preis enthalten

Speicheroptionen:

  • NVMe-SSD (inklusive): 100GB-500GB lokaler Hochgeschwindigkeitsspeicher pro Instanz
  • Block Storage: Persistente SSD-Volumes bis 10TB hinzufuegen
  • Objektspeicher-Integration: S3, GCS oder Azure Blob fuer Datensaetze anbinden
  • NFS/geteilter Speicher: Verfuegbar fuer Multi-Instanz-Workflows

Alle Speicheroptionen sind fuer GPU-optimiertes Laden ausgelegt, damit Ihre GPUs nicht durch langsame I/O ausgebremst werden.

Bieten Sie langfristige Vertraege oder reservierte Instanzen an?

Ja! Wir bieten flexible Laufzeitoptionen, mit denen Sie sparen:

Monatliche Laufzeit

20% sparen

  • • Mindestens 1 Monat
  • • Automatische monatliche Verlaengerung
  • • Jederzeit kuendbar

Quartalslaufzeit

35% sparen

  • • 3 Monate Laufzeit
  • • Planbare Kosten
  • • Priority-Support

Jahreslaufzeit

45% sparen

  • • 12 Monate Laufzeit
  • • Maximale Ersparnis
  • • Dedizierter Support

Keine Mindestlaufzeit: Sie koennen bei maximaler Flexibilitaet auch stundenbasiert abrechnen. Viele Kunden starten so und wechseln spaeter zu Laufzeitmodellen.

Enterprise-Mengenrabatte: Sie betreiben 10+ GPUs dauerhaft? Kontaktieren Sie unser Team fuer individuelle Preise und garantierte Kapazitaet.

Noch Fragen?

Unser Team hilft Ihnen bei der Auswahl der passenden GPU-Konfiguration.

Kundensupport