50% sleva všechny plány, omezený čas. Od $2.48/mo

GPU VPS hosting

RTX 6000 Pro. A100. RTX 5090.
Věnovaný, nekrájený.

Plný průchod GPU. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Předinstalované CUDA, cuDNN, PyTorch ready.
Síť NVMe + 40 Gbps. Nezávislý cloud od roku 2008.

4.6 · 713 reviews on Trustpilot

Od $506.35/mo · 35% sleva ročně · Není potřeba kreditní karta

~ ssh root@gpu-train-001 připojeno
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS na první pohled

Cloudzy prodává plány GPU VPS s vyhrazenými RTX 6000 Pro, Nvidia A100, RTX 5090, a RTX 4090 karty dovnitř 1× až 4× konfigurace, počínaje $506.35 per month. Každý plán je dodáván s předinstalovaným nejnovějším CUDA, cuDNN, a ovladače Nvidia, běží na AMD EPYC + DDR5 s Pouze NVMe úložiště a 40 Gbps uplinky a ustanovení v 60 sekund. GPU jsou vyhrazené průchozí kanály, nikoli vGPU, ne MIG, nesdíleno. Cloudzy od té doby funguje samostatně 2008 a má hodnocení 4.6 / 5 by 713+ reviewers na Trustpilotu.

Cena od
$506.35 / mo
Typy GPU
6000 Pro · A100 · 5090 · 4090
Konfigurace
1× až 4×
CUDA
Předinstalovaný
Roční sleva
35% sleva
Vrácení peněz
14 dní

Proč si týmy ML vybírají Cloudzy

GPU vypočítat nenudným způsobem.

Čtyři důvody, proč týmy přecházejí na Cloudzy z GPU AWS / GCP / hyperscaler.

Vyhrazený průchod GPU

Celá fyzická karta je vaše, žádné dělení vGPU, žádné oddíly MIG, žádné spory s ostatními tenanty. CUDA jádra, VRAM, PCIe pruhy, vše vyhrazené.

Obrázky připravené pro CUDA

Nejnovější ovladače Nvidia, sada nástrojů CUDA a cuDNN předpečené do obrazu Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, pip install a trénujete.

NVMe + 40 Gbps

Čisté úložiště NVMe, takže načítání datové sady není překážkou. Síť 40 Gb/s znamená, že vytažení 100GB modelu Hugging Face je dokončeno během několika sekund, nikoli minut.

Lidská podpora 24/7

Skuteční inženýři na chatu. Pomohli jsme dostatečnému množství týmů nastavit školení pro více GPU, ladit CUDA OOM a vyladit závěry Llama, že odpovědi se rychle vracejí.

Sestava GPU

Čtyři rodiny.
Devět způsobů škálování.

RTX 6000 Pro pro profesionální vyvozování a vykreslování s 48 GB ECC VRAM. A100 pro školení a velké pracovní zátěže VRAM. RTX 5090 pro nejnovější závěr. RTX 4090 pro nákladově efektivní odvození až 70B (4bitové). K dispozici více plánů GPU, vyberte si, co váš rozpočet VRAM potřebuje.

Plný průchod GPU, nerozřezaný, nesdílený
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1× až 4× GPU
K dispozici jsou plány pro více GPU
Předinstalovaný CUDA
Připraveno pro PyTorch · TF · JAX
Čistý NVMe
Rychlé I/O datové sady
40 Gbps uplink
Vytáhněte 100 GB modely za 30 s

Případy použití

Naše pracovní vytížení
zákazníci skutečně trénují.

LLM závěr

Podávejte Llama 3, Mistral, DeepSeek nebo Qwen s vLLM nebo Text Generation Inference. RTX 4090 zvládá 70B při 4bitech, RTX 5090 zvládá 70B při 8bitech, A100 zvládá nekvantované.

Stabilní difúze · image gen

Spusťte SDXL, Flux nebo jemně vyladěné kontrolní body Stable Diffusion pomocí ComfyUI nebo Automatic1111. RTX 4090 dosahuje 30+ snímků/min na standardním 1024×1024 SDXL.

Trénink ML + dolaďování

LoRA, QLoRA, úplné jemné doladění. A100 je sweet spot pro 7B-13B nekvantizované jemné doladění; 4× A100 zvládne až 70B při správném shardingu (FSDP / DeepSpeed).

3D vykreslování · Blender

Cycles + OptiX na kartách RTX je nejrychlejší cesta pro animační studia. 24 GB VRAM na RTX 4090 pokrývá drtivou většinu produkčních scén s jedním snímkem.

Řeč + zrakové potrubí

Whisper Large, Faster-Whisper, YOLO, Segment Anything. Dokonce i plán RTX 4090 běží na těchto modelech s pohodlnou rezervou v reálném čase.

Dlouhotrvající dávkové úlohy

Generování vkládání, vyhledávací kanály, předzpracování datových sad. Plaťte každou hodinu, spusťte úlohu, zaznamenejte výstup, zničte krabici, levněji než pronájem na AWS/GCP při stejném pracovním zatížení.

80 GB
A100 VRAM
40 Gbps
Uplink
Připraveno pro CUDA
Obraz
4 ×
Max GPU
35%
Roční volno
14 dní
Vrácení peněz

Ceny

Doporučené plány GPU. Hodinová nebo roční.

Roční vyúčtování je aktuálně 35% sleva na každém plánu GPU.

FAQ. GPU VPS

Běžné otázky, přímé odpovědi.

Jaké GPU Cloudzy nabízí?

Čtyři rodiny: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, pro-grade pro odvození a vykreslování), Nvidia A100 (1× / 2× / 4×, pro školení ML, zátěže fp16/bf16 a 80 GB/X206, nové na kartu), HB206e na kartu Architektura Blackwell, ideální pro vyvozování úloh a vykreslování, a RTX 4090 (1× / 2× / 4×, nákladově efektivní pro Stable Diffusion, LLM inferenci a 3D vykreslování).

Jsou GPU vyhrazené nebo sdílené?

Věnováno. Každý plán je průchodem plného fyzického GPU(ů), není to řez, ne vGPU, ne MIG. Jádra CUDA, VRAM, šířka pásma PCIe, vše vaše. Plány Multi-GPU používají NVLink tam, kde to fyzický hardware podporuje (plány A100 multi-GPU).

Je CUDA předinstalovaný?

Ano. Každý GPU VPS se dodává s nejnovější stabilní sadou nástrojů CUDA, ovladači cuDNN a Nvidia předem zapečenými do obrazu Ubuntu. PyTorch, TensorFlow, JAX a balíček Hugging Face dojdou z krabice. Pokud chcete nainstalovat konkrétní verzi, můžete předělat obraz na čisté Ubuntu bez CUDA.

Kolik VRAM dostanu?

Pro GPU: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. Plány Multi-GPU agregují to, plán 4× A100 má celkem 320 GB VRAM. Výše uvedený seznam plánů zobrazuje systémovou RAM samostatně.

Mohu spustit Stable Diffusion / Llama / Whisper na GPU VPS?

Ano. Plán 1× RTX 4090 je dobrým výchozím bodem: dostatek VRAM pro odvození SDXL, Llama 3 70B (4bitová kvantovaná) nebo Whisper Large. Pokud potřebujete spustit nekvantizované modely 70B nebo trénovat LoRA, přejděte na RTX 5090 nebo A100.

Jaká je cena ve srovnání s AWS / Google Cloud / Lambda Labs?

Obecně levnější pro pracovní zátěže v ustáleném stavu, nediskriminujeme cenou „na vyžádání“ a „na místě“ a nemáme výstupní poplatky. Nebudeme uvádět čísla konkurentů (ta se mění měsíčně). 14denní záruka vrácení peněz vám umožní A/B proti vašemu současnému poskytovateli s vašimi vlastními benchmarky.

Existuje roční sleva?

Ano, 35% sleva na roční fakturaci u každého plánu GPU (nižší než 50 % u běžného CPU, protože amortizace hardwaru GPU je dražší). Žádné automatické obnovení; před každým ročním cyklem dostanete fakturu, takže můžete přejít na nižší verzi, upgradovat nebo zrušit bez překvapivých poplatků.

A co networking? Je to opravdu 40 Gbps?

Ano. Stejné uplinky 40 Gb/s jako naše vlajková loď Cloud VPS, bez poplatků za odchozí měsíční přenos až do limitu plánu. Užitečné pro přesun velkých datových sad dovnitř a ven z uzlu GPU, vytažení modelu 100 GB Hugging Face trvá přibližně 30 sekund při rychlosti linky.

Mohu spustit víceuzlový trénink (více GPU VPS dohromady)?

Ano v rámci regionu. VPS ve stejném datovém centru sdílí místní síť s latencí nižší než milisekundy. V současné době nenabízíme propojení InfiniBand, víceuzlové školení přes standardní Ethernet je vhodné pro jemné ladění a distribuované úlohy v malém měřítku, ale není konkurenceschopné s holým kovovým HPC pro velké předběžné školení.

Záruka vrácení peněz na plány GPU?

14 dní, žádné otázky. Vrácení peněz během jednoho fakturačního cyklu. Dostatek času na srovnání propustnosti CUDA, provedení skutečného tréninkového kroku a rozhodnutí, zda je Cloudzy tou správnou volbou pro vaši pracovní zátěž.

Přestaňte platit ceny za hyperscaler.
Trénujte na vyhrazených GPU.

Vyberte kartu, vyberte region, klikněte. CUDA je již nainstalován.

Bez platební karty · Vrácení peněz do 14 dnů · Zruš kdykoli