Skalieren Sie in Sekunden auf Hunderte GPUs
Leistungsstarke GPU-beschleunigte KI-Infrastruktur
Datenschutzorientiert und ideal fuer individuelle KI-Modelle, Training, Rendering und Datenverarbeitung.
Transparente Preise
Hochleistungs-GPU-Optionen
Waehlen Sie die passende GPU-Konfiguration fuer Ihre KI- und Machine-Learning-Workloads
H100 Series
2x H100
80GB
1x H100
80GB
| Hardware | Speicher | Leistung | Empfohlen fuer | Stuendlich | Monatlich | Status |
|---|---|---|---|---|---|---|
| | 80GB | 3,026 TFLOPS | 70B LLM Fine-Tuning / Inference | $5.04/hr | $3,628.80/mo | Nicht verfuegbar |
| | 80GB | 1,513 TFLOPS | 7B LLM Fine-Tuning / Inference | $2.52/hr | $1,814.40/mo | Nicht verfuegbar |
L40S Series
8x L40S
48GB
4x L40S
48GB
2x L40S
48GB
1x L40S
48GB
| Hardware | Speicher | Leistung | Empfohlen fuer | Stuendlich | Monatlich | Status |
|---|---|---|---|---|---|---|
| | 48GB | 2,896 TFLOPS | Fine-Tuning / Inference of GenAI (image video) model up to 70B | $11.2/hr | $8,064.00/mo | Nicht verfuegbar |
| | 48GB | 1,448 TFLOPS | Inference of Mixtral 8x22B | $5.6/hr | $4,032.00/mo | Nicht verfuegbar |
| | 48GB | 724 TFLOPS | 7B LLM Inference | $2.8/hr | $2,016.00/mo | Nicht verfuegbar |
| | 48GB | 362 TFLOPS | Image & Video Encoding (8K) | $1.4/hr | $1,008.00/mo | Nicht verfuegbar |
L4 Series
8x L4
24GB
4x L4
24GB
2x L4
24GB
1x L4
24GB
| Hardware | Speicher | Leistung | Empfohlen fuer | Stuendlich | Monatlich | Status |
|---|---|---|---|---|---|---|
| | 24GB | 1,936 TFLOPS | 70B LLM Inference | $6.00/hr | $4,320.00/mo | Nicht verfuegbar |
| | 24GB | 968 TFLOPS | 7B LLM Inference | $3.00/hr | $2,160.00/mo | Nicht verfuegbar |
| | 24GB | 484 TFLOPS | Video Encoding (8K) | $1.50/hr | $1,080.00/mo | Nicht verfuegbar |
| | 24GB | 242 TFLOPS | Image Encoding (8K) | $0.75/hr | $540.00/mo | Nicht verfuegbar |
Legacy Series
P100
16GB
| Hardware | Speicher | Leistung | Empfohlen fuer | Stuendlich | Monatlich | Status |
|---|---|---|---|---|---|---|
| | 16GB | 19 TFLOPS | Image / Video Encoding (4K) | $1.24/hr | $892.80/mo | Nicht verfuegbar |
Hinweis zu hoher Nachfrage
Aufgrund der hohen Nachfrage nach GPU-Ressourcen kann die Verfuegbarkeit eingeschraenkt sein. Lassen Sie sich benachrichtigen, sobald Ihre bevorzugte Konfiguration verfuegbar ist:
Volle Leistung fuer KI entfesseln
Warum GPU-Instanzen waehlen?
GPU-Instanzen sind ideal fuer rechenintensive Workloads mit maximaler Leistung, Flexibilitaet und voller Infrastrukturkontrolle.
- Individuelle Inference-Workloads:
- Fuehren Sie angepasste Inference-Pipelines mit spezifischen Modellen, Quantisierung und Konfigurationen aus.
- Big-Data-Verarbeitung:
- Trainieren Sie grosse Machine-Learning-Modelle oder LLMs mit Frameworks wie TensorFlow oder PyTorch.
- Entwicklung und Forschung:
- Verarbeiten Sie grosse Datensaetze mit CUDA-beschleunigten Tools wie RAPIDS fuer Analytics oder wissenschaftliches Rechnen.
Starten Sie Ihre erste GPU-Instanz in wenigen Minuten
Trainieren und fine-tunen Sie Modelle in einer GPU-Cloud fuer KI-Workloads. Schnellster Zugang zu Enterprise-Cloud-GPUs.
Fragen & Antworten
Haeufig gestellte Fragen
Alles, was Sie ueber unsere GPU-Compute-Infrastruktur wissen muessen
Wie schnell kann ich mit GPU-Instanzen starten?
Sie koennen Ihre erste GPU-Instanz in unter 5 Minuten. Unsere Plattform bietet:
- Vorkonfigurierte Umgebungen mit Docker, CUDA und gaengigen ML-Frameworks (PyTorch, TensorFlow)
- One-Click-Deployment fuer gaengige AI/ML-Workloads
- SSH- und API-Zugriff direkt nach dem Provisioning
- Jupyter Lab und Development-Tools sofort einsatzbereit
Waehlen Sie GPU-Konfiguration und OS/Framework aus, und Sie erhalten eine voll einsatzbereite Instanz fuer Ihre Workloads.
Welche Frameworks und Software werden unterstuetzt?
Unsere GPU-Instanzen unterstuetzen nahezu jedes AI/ML-Framework und jede benoetigte Software:
Vorinstalliert und optimiert:
- PyTorch, TensorFlow, JAX, Keras
- CUDA Toolkit & cuDNN (latest versions)
- RAPIDS fuer GPU-beschleunigte Data-Science-Workflows
- Jupyter Lab, VS Code Server
- Docker & nvidia-docker
- Hugging Face Transformers, vLLM, TGI
Voller Root-Zugriff bedeutet, dass Sie jede zusaetzliche Software, eigene Libraries und proprietaere Tools installieren koennen. Sie koennen ausserdem eigene Docker-Images mitbringen oder Umgebungen von Grund auf erstellen.
Wie funktioniert die Abrechnung? Gibt es versteckte Gebuehren?
100% transparente Preise ohne versteckte Gebuehren. So funktioniert es:
- Stundenbasierte Abrechnung sekundengenau berechnet (mindestens 1 Minute)
- Monatliche Pakete verfuegbar - sparen Sie bis zu 30% mit monatlichen Bindungen
- Keine Datentransfer-Gebuehren bei ueblicher Nutzung (Fair-Use-Richtlinie)
- Keine Setup-Gebuehren und keine Mindestabnahme
- Speicher inklusive - 100GB NVMe-SSD je Instanz ohne Aufpreis
Beispiel: Eine 1x-L4-GPU-Instanz kostet $0.75/hour. Nutzen Sie sie 8 Stunden = $6.00. Wenn sie gestoppt ist, zahlen Sie nichts.
Sie koennen Ihre Nutzung in Echtzeit im Dashboard verfolgen und Budget-Benachrichtigungen einrichten.
Kann ich GPU-Ressourcen nach oben oder unten skalieren?
Absolut! Unsere Plattform ist fuer elastische Skalierung ausgelegt:
- Horizontale Skalierung: Mehrere GPU-Instanzen parallel fuer verteiltes Training oder Inferenz starten
- Vertikale Skalierung: Von 1x auf 2x, 4x oder 8x GPU-Konfigurationen erweitern
- GPU-Migration: Zwischen L4-, L40S- und H100-GPUs je nach Workload wechseln
- Auto-Scaling per API: Instanzen programmgesteuert anhand der Last erstellen und entfernen
- Sofortiges Stoppen: Instanzen bei Nichtnutzung stoppen und Kosten sparen - ohne langfristige Vertragsbindung
Unsere API- und CLI-Tools erleichtern die Automatisierung der Skalierung, egal ob Sie waehrend der Arbeitszeiten trainieren oder rund um die Uhr Inferenzdienste betreiben.
Wie sicher sind meine Daten und sind GPU-Instanzen privat?
Datenschutz und Sicherheit haben oberste Prioritaet:
Ihre Trainingsdaten, Modelle und Ihr Code bleiben vollstaendig privat und werden nur mit Ihrer ausdruecklichen Zustimmung fuer Support-Faelle eingesehen.
Welche GPU sollte ich fuer meinen Workload waehlen?
Kurzer Leitfaden zur Auswahl der passenden GPU:
- Geeignet fuer: Kleine Modell-Inferenz (7B-13B), Bild-/Videoverarbeitung
- Kosteneffizienter Einstieg in AI-Workloads
- Sehr gut fuer Entwicklung und Testing
- Geeignet fuer: Mittelgrosse bis grosse Inferenz (bis 70B), Fine-Tuning, multimodale KI
- Sehr gute Balance aus Speicher und Leistung
- Ideal fuer generative KI-Anwendungen (Stable Diffusion, Video-Generierung)
- Geeignet fuer: Grosses Modelltraining (70B+), verteiltes Training, hohe Inferenzlast
- Top-Performance mit Tensor-Core-Beschleunigung
- Notwendig fuer anspruchsvolle Forschung und produktive LLM-Deployments
Unsicher? Starten Sie mit einer kleineren GPU-Konfiguration und skalieren Sie bei Bedarf. Upgrades und zusaetzliche Instanzen sind jederzeit moeglich. Unser Support hilft auch bei Benchmarks fuer Ihren Workload.
Welche Art von Support und SLA bieten Sie an?
Wir bieten umfassenden Support mit branchenfuehrender Verfuegbarkeit:
Standard-Support (inklusive)
- • E-Mail-Support (24-48 Std. Reaktionszeit)
- • Umfassende Dokumentation
- • Community-Foren
- • 99.9% Uptime-SLA
Enterprise-Support
- • 24/7 Priority-Support
- • Dedizierter Account-Manager
- • Individuelle SLAs bis 99.99%
- • Architektur-Beratung
Automatisches Monitoring prueft den GPU-Zustand kontinuierlich. Bei seltenen Hardware-Ausfaellen werden Instanzen mit minimaler Unterbrechung auf gesunde Nodes migriert.
Wir bieten ausserdem Dokumentation, Tutorials und API-Referenzen damit Sie das Maximum aus Ihren GPU-Instanzen herausholen.
Kann ich eigene Docker-Images oder benutzerdefinierte Umgebungen nutzen?
Ja, absolut! Wir unterstuetzen vollstaendige Anpassung:
- Docker-Hub-Integration: Nutzen Sie beliebige oeffentliche oder private Docker-Images
- Eigene Dockerfiles: Container mit eigenen Abhaengigkeiten bauen
- Private Registry-Unterstuetzung: AWS ECR, Google GCR oder andere private Registries anbinden
- Persistente Volumes: Speicher-Volumes ueber Instanz-Neustarts hinweg beibehalten
- Umgebungsvariablen: Secrets und Konfiguration sicher bereitstellen
Beispiel-Use-Case: Deployen Sie Ihre proprietaere ML-Pipeline mit eigenen CUDA-Kernels, spezifischen Python-Paketen und internen Abhaengigkeiten - alles in einem Docker-Image unter Ihrer Kontrolle. Wir uebernehmen GPU-Treiber und Orchestrierung.
Mit vollem Root-Zugriff koennen Sie Umgebungen auch mit bare Ubuntu/CentOS von Grund auf aufbauen und exakt benoetigte Pakete installieren.
Welche Netzwerkgeschwindigkeiten und Speicheroptionen gibt es?
Unsere Infrastruktur ist auf hochperformanten Datentransfer und Speicher ausgelegt:
Netzwerkleistung:
- 10-100 Gbps Netzwerkanbindung abhaengig von der Instanzgroesse
- Niedriglatenz-Netzwerk fuer verteiltes Training (RDMA auf H100 verfuegbar)
- Unbegrenzter eingehender Traffic - keine Kosten fuer eingehenden Datentransfer
- Grosszuegige Egress-Kontingente im Preis enthalten
Speicheroptionen:
- NVMe-SSD (inklusive): 100GB-500GB lokaler Hochgeschwindigkeitsspeicher pro Instanz
- Block Storage: Persistente SSD-Volumes bis 10TB hinzufuegen
- Objektspeicher-Integration: S3, GCS oder Azure Blob fuer Datensaetze anbinden
- NFS/geteilter Speicher: Verfuegbar fuer Multi-Instanz-Workflows
Alle Speicheroptionen sind fuer GPU-optimiertes Laden ausgelegt, damit Ihre GPUs nicht durch langsame I/O ausgebremst werden.
Bieten Sie langfristige Vertraege oder reservierte Instanzen an?
Ja! Wir bieten flexible Laufzeitoptionen, mit denen Sie sparen:
Monatliche Laufzeit
20% sparen
- • Mindestens 1 Monat
- • Automatische monatliche Verlaengerung
- • Jederzeit kuendbar
Quartalslaufzeit
35% sparen
- • 3 Monate Laufzeit
- • Planbare Kosten
- • Priority-Support
Jahreslaufzeit
45% sparen
- • 12 Monate Laufzeit
- • Maximale Ersparnis
- • Dedizierter Support
Keine Mindestlaufzeit: Sie koennen bei maximaler Flexibilitaet auch stundenbasiert abrechnen. Viele Kunden starten so und wechseln spaeter zu Laufzeitmodellen.
Enterprise-Mengenrabatte: Sie betreiben 10+ GPUs dauerhaft? Kontaktieren Sie unser Team fuer individuelle Preise und garantierte Kapazitaet.
Noch Fragen?
Unser Team hilft Ihnen bei der Auswahl der passenden GPU-Konfiguration.