50% zniżki wszystkie plany, oferta limitowana. Od $2.48/mo

Hosting VPS na GPU

RTX 6000 Pro. A100. RTX5090.
Dedykowane, nie pokrojone.

Pełne przejście GPU. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Wstępnie zainstalowany CUDA, cuDNN, gotowy na PyTorch.
Sieć NVMe + 40 Gb/s. Niezależna chmura od 2008 roku.

4.6 · 713 reviews on Trustpilot

Od $506.35/mo · 35% zniżki rocznej · Karta kredytowa nie jest wymagana

~ ssh root@gpu-train-001 połączony
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS w skrócie

Cloudzy sprzedaje plany GPU VPS z dedykowanymi RTX 6000 Pro, Nvidia A100, RTX 5090, I RTX4090 karty w 1× do 4× konfiguracje, począwszy od godz $506.35 per month. Każdy plan jest dostarczany z preinstalowaną najnowszą wersją CUDA, cuDNN, i sterowniki Nvidia, działa na AMD EPYC + DDR5 z Tylko NVMe pamięć i 40 Gbps łącza zwrotne i postanowienia w 60 sekund. GPU to dedykowane przejścia, a nie vGPU, nie MIG, nie udostępniane. Od tego czasu Cloudzy działa niezależnie 2008 i ma ocenę 4.6 / 5 by 713+ reviewers na Trustpilot.

Cena początkowa
$506.35 / mo
Typy GPU
6000 Pro · A100 · 5090 · 4090
Konfiguracje
1× do 4×
CUDA
Zainstalowany fabrycznie
Roczna zniżka
35% zniżki
Zwrot pieniędzy
14 dni

Dlaczego zespoły ML wybierają Cloudzy

GPU oblicza nienudny sposób.

Cztery powody, dla których zespoły przenoszą się do Cloudzy z CPU graficznych AWS/GCP/hiperskaler.

Dedykowane przejście GPU

Pełna karta fizyczna jest Twoja, bez dzielenia vGPU, bez partycji MIG i bez rywalizacji z innymi najemcami. Rdzenie CUDA, VRAM, linie PCIe, wszystkie dedykowane.

Obrazy gotowe do obsługi CUDA

Najnowsze sterowniki Nvidia, zestaw narzędzi CUDA i cuDNN wstępnie dodane do obrazu Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, instalacja pip i trenujesz.

NVMe + 40 Gb/s

Pamięć masowa oparta na czystym NVMe, więc ładowanie zestawu danych nie jest wąskim gardłem. Sieć o przepustowości 40 Gb/s oznacza, że ​​pobranie modelu Hugging Face o pojemności 100 GB trwa sekundy, a nie minuty.

Wsparcie ludzkie 24/7

Prawdziwi inżynierowie na czacie. Pomogliśmy wystarczającej liczbie zespołów skonfigurować szkolenie z wieloma CPU graficznymi, debugować OOM CUDA i dostroić wnioskowanie Lamy, aby odpowiedzi szybko przychodziły.

Skład GPU

Cztery rodziny.
Dziewięć sposobów skalowania.

RTX 6000 Pro do profesjonalnego wnioskowania i renderowania z 48 GB pamięci VRAM ECC. A100 do szkoleń i dużych obciążeń VRAM. RTX 5090 dla najnowszego wnioskowania. RTX 4090 do ekonomicznego wnioskowania do 70B (4-bity). Dostępne plany Multi-GPU — wybierz, czego potrzebuje Twój budżet VRAM.

Pełne przejście GPU, nie dzielone i nie udostępniane
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidii A100
80 GB HBM2e · ML training
RTX5090
32 GB GDDR7 · Blackwell
RTX4090
24 GB GDDR6X · cost-effective
1× do 4× GPU
Dostępne plany obejmujące wiele CPU graficznych
Preinstalowana CUDA
PyTorch · TF · JAX gotowy
Czysty NVMe
Szybkie we/wy zestawu danych
40 Gbps uplink
Wyciągnij modele 100 GB w 30 sekund

Przypadki użycia

Obciążenia nasze
klienci faktycznie trenują.

Wnioskowanie LLM

Obsługuj Lamę 3, Mistral, DeepSeek lub Qwen z vLLM lub wnioskowaniem o generowaniu tekstu. RTX 4090 obsługuje 70B przy 4-bitach, RTX 5090 obsługuje 70B przy 8-bitach, A100 obsługuje niekwantyzowane.

Stabilna dyfuzja · obraz gen

Uruchamiaj SDXL, Flux lub dostrojone punkty kontrolne Stable Diffusion za pomocą ComfyUI lub Automatic1111. RTX 4090 osiąga ponad 30 obrazów/min w standardowej rozdzielczości 1024×1024 SDXL.

Szkolenie ML + dostrajanie

LoRA, QLoRA, pełne dostrojenie. A100 jest idealnym miejscem do niekwantyzowanego dostrajania 7B-13B; 4× A100 obsługuje do 70B przy odpowiednim shardingu (FSDP / DeepSpeed).

Renderowanie 3D · Blender

Cycles + OptiX na kartach RTX to najszybsza ścieżka dla studiów animacji. 24 GB VRAM w RTX 4090 pokrywa zdecydowaną większość scen produkcyjnych z pojedynczą klatką.

Potoki mowy i wzroku

Szept duży, szybszy szept, YOLO, segmentuj wszystko. Nawet plan RTX 4090 umożliwia wnioskowanie w czasie rzeczywistym w tych modelach z wygodnym zapasem mocy.

Długotrwałe zadania wsadowe

Generowanie osadzania, potoki pobierania, wstępne przetwarzanie zbioru danych. Płać co godzinę, uruchamiaj zadanie, zrób migawkę wyników, zniszcz skrzynkę, taniej niż wynajmowanie AWS/GCP przy tym samym obciążeniu.

80 GB
Pamięć RAM A100
40 Gbps
Łącze w górę
Gotowy do obsługi CUDA
Obraz
4 ×
Maksymalna liczba CPU graficznych
35%
Roczna przerwa
14 dni
Zwrot pieniędzy

Wycena

Polecane plany GPU. Godzinowe lub roczne.

Obecnie obowiązuje rozliczenie roczne 35% zniżki w każdym planie GPU.

Często zadawane pytania. GPU VPS

Częste pytania, konkretne odpowiedzi.

Jakie CPU graficzne oferuje Cloudzy?

Cztery rodziny: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, profesjonalna klasa do wnioskowania i renderowania), Nvidia A100 (1× / 2× / 4×, do treningu ML, obciążeń fp16/bf16 i 80 GB HBM2e na kartę), RTX 5090 (1× / 2×, nowszy Blackwell architektura, idealna do obciążeń wnioskowania i renderowania) oraz RTX 4090 (1× / 2× / 4×, ekonomiczne w przypadku stabilnego dyfuzji, wnioskowania LLM i renderowania 3D).

Czy CPU graficzne są dedykowane czy współdzielone?

Dedykowany. Każdy plan jest przejściem pełnego fizycznego GPU, a nie wycinka, nie vGPU, nie MIG. Rdzenie CUDA, pamięć VRAM, przepustowość PCIe – wszystko Twoje. Plany Multi-GPU wykorzystują NVLink tam, gdzie obsługuje je sprzęt fizyczny (plany A100 multi-GPU).

Czy CUDA jest preinstalowana?

Tak. Każdy GPU VPS jest dostarczany z najnowszym stabilnym zestawem narzędzi CUDA, cuDNN i sterownikami Nvidia wstępnie wbudowanymi w obraz Ubuntu. PyTorch, TensorFlow, JAX i stos Hugging Face są gotowe do użycia. Jeśli chcesz zainstalować konkretną wersję, możesz ponownie utworzyć obraz na czystym Ubuntu bez CUDA.

Ile VRAM otrzymam?

Dla GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Plany Multi-GPU sumują to, plan 4× A100 ma łącznie 320 GB pamięci VRAM. Powyższa lista planów pokazuje osobno pamięć systemową RAM.

Czy mogę uruchomić Stable Diffusion / Llama / Whisper na GPU VPS?

Tak. Plan 1× RTX 4090 to dobry punkt wyjścia: wystarczająca ilość pamięci VRAM do wnioskowania SDXL, Llama 3 70B (4-bitowa kwantyzacja) lub Whisper Large. Jeśli chcesz uruchomić niekwantyzowane modele 70B lub trenować LoRA, zdecyduj się na RTX 5090 lub A100.

Jak ceny wypadają w porównaniu do AWS / Google Cloud / Lambda Labs?

Generalnie tańsze w przypadku stałych obciążeń, nie różnicujemy cen w zależności od „na żądanie” i „na miejscu” i nie mamy opłat za wyjście. Nie będziemy podawać liczb konkurencji (te zmieniają się co miesiąc). 14-dniowa gwarancja zwrotu pieniędzy umożliwia porównanie A/B z obecnym dostawcą przy użyciu własnych punktów odniesienia.

Czy jest roczny rabat?

Tak, 35% zniżki na roczne rozliczenia w przypadku każdego planu GPU (niższa niż 50% w przypadku zwykłego CPU, ponieważ amortyzacja sprzętu GPU kosztuje więcej). Brak automatycznego odnawiania; otrzymasz fakturę przed każdym rocznym cyklem, dzięki czemu będziesz mógł przejść na niższą, wyższą wersję lub anulować bez niespodziewanych opłat.

A co z networkingiem? Czy to naprawdę jest 40 Gb/s?

Tak. Te same łącza nadrzędne 40 Gb/s, co nasz flagowy VPS w chmurze, bez opłat za wyjście przy miesięcznym transferze aż do limitu planu. Przydatne do przenoszenia dużych zbiorów danych do i z węzła GPU. Wyciągnięcie modelu Hugging Face o rozmiarze 100 GB zajmuje około 30 sekund przy szybkości połączenia.

Czy mogę przeprowadzić szkolenie z wieloma węzłami (jednocześnie wiele GPU VPS)?

Tak, w regionie. VPS w tym samym centrum danych współużytkuje sieć lokalną z opóźnieniem poniżej milisekundy. Obecnie nie oferujemy połączeń wzajemnych InfiniBand. Szkolenie z wieloma węzłami za pośrednictwem standardowej sieci Ethernet jest dobre w przypadku dostrajania i rozproszonych zadań na małą skalę, ale nie jest konkurencyjne w stosunku do rozwiązań HPC typu bare-metal w przypadku dużych szkoleń wstępnych.

Gwarancja zwrotu pieniędzy za plany GPU?

14 dni, bez żadnych pytań. Zwrot środków w ciągu jednego cyklu rozliczeniowego. Mnóstwo czasu na porównanie przepustowości CUDA, przeprowadzenie prawdziwego etapu szkolenia i podjęcie decyzji, czy Cloudzy jest odpowiedni dla Twojego obciążenia.

Przestań płacić ceny hiperskalerów.
Trenuj na dedykowanych CPU graficznych.

Wybierz kartę, wybierz region, kliknij. CUDA jest już zainstalowana.

Bez karty kredytowej · Zwrot pieniędzy w ciągu 14 dni · Anuluj w dowolnej chwili