50% kedvezmény minden csomagra, korlátozott ideig. Már $2.48/mo

GPU VPS hosting

RTX 6000 Pro. A100. RTX 5090.
Dedikált, nem szeletelt.

Teljes GPU átmenő. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Előre telepített CUDA, cuDNN, PyTorch készen áll.
NVMe + 40 Gbps hálózat. Független felhő 2008 óta.

4.6 · 713 reviews on Trustpilot

Kezdő ár $506.35/mo · 35% éves kedvezmény · Nem szükséges hitelkártya

~ ssh root@gpu-train-001 csatlakoztatva
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS egy pillantásra

Cloudzy GPU VPS terveket értékesít dedikált RTX 6000 Pro, Nvidia A100, RTX 5090, és RTX 4090 kártyák be 1×-től 4×-ig konfigurációk, kezdve $506.35 per month. Minden csomag előre telepítve, a legújabb verzióval érkezik CUDA, cuDNN, és Nvidia illesztőprogramok, AMD EPYC + DDR5-ön fut Csak NVMe tárhely és 40 Gbps felfelé mutató linkek és rendelkezések be 60 másodperc. Az GPU-k dedikált áteresztőképességűek, nem a vGPU, nem MIG, nem megosztott. Az Cloudzy azóta önállóan működik 2008 és értékelése 4.6 / 5 by 713+ reviewers a Trustpiloton.

Kezdő ár
$506.35 / mo
GPU típusok
6000 Pro · A100 · 5090 · 4090
Konfigurációk
1×-től 4×-ig
CUDA
Előre telepítve
Éves kedvezmény
35% kedvezmény
Pénzvisszafizetés
14 nap

Miért választják az ML-csapatok a Cloudzy-t?

GPU kiszámítja a unalmas módon.

A négy ok, amiért a csapatok áttérnek a Cloudzy-ra az AWS / GCP / hyperscaler GPU-król.

Dedikált GPU átjárás

A teljes fizikai kártya a tiéd, nincs vGPU szeletelés, nincsenek MIG-partíciók, nincs versengés más bérlőkkel. CUDA magok, VRAM, PCIe sávok, mind dedikált.

CUDA-kompatibilis képek

A legújabb Nvidia illesztőprogramok, CUDA eszközkészlet és cuDNN előre beépítve az Ubuntu képbe. PyTorch, TensorFlow, JAX, Hugging Face, pip telepítés és már edz.

NVMe + 40 Gbps

Tiszta NVMe tárhely, így nem az adatkészletek betöltése jelenti a szűk keresztmetszetet. A 40 Gbps-os hálózat azt jelenti, hogy egy 100 GB-os Hugging Face modell másodpercek, nem pedig percek alatt elkészül.

24/7 emberi támogatás

Igazi mérnökök a chaten. Elég sok csapatnak segítettünk több GPU-s képzés beállításában, CUDA OOM-ok hibakeresésében és a Llama következtetések hangolásában, hogy a válaszok gyorsan visszaérkezzenek.

GPU felállás

Négy család.
Kilenc módja a méretezésnek.

RTX 6000 Pro a profi szintű következtetésekhez és rendereléshez 48 GB ECC VRAM-mal. A100 képzéshez és nagy VRAM-os munkaterhelésekhez. RTX 5090 a legújabb következtetéshez. RTX 4090 a költséghatékony következtetéshez 70B-ig (4 bites). Több GPU csomag is elérhető, válassza ki, mire van szüksége a VRAM költségvetésének.

Teljes GPU átjárás, nem szeletelve, nem megosztva
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1×–4× GPU
Több GPU-s tervek is elérhetők
CUDA előre telepítve
PyTorch · TF · JAX kész
Tiszta NVMe
Gyors adatkészlet I/O
40 Gbps uplink
100 GB-os modellek 30 másodperc alatt

Felhasználási esetek

A munkaterhelés a miénket
az ügyfelek valóban edzenek.

LLM következtetés

A Llama 3, a Mistral, a DeepSeek vagy a Qwen kiszolgálása vLLM vagy szöveggenerációs következtetéssel. Az RTX 4090 kezeli a 70B-t 4 biten, az RTX 5090 kezeli a 70B-t 8 biten, az A100 kezeli a kvantálatlant.

Stabil diffúzió · kép gen

Futtasson SDXL, Flux vagy finomhangolt stabil diffúziós ellenőrzőpontokat a ComfyUI vagy az Automatic1111 segítségével. Az RTX 4090 30+ kép/perc teljesítményt ér el szabványos 1024×1024 SDXL felbontáson.

ML edzés + finomhangolás

LoRA, QLoRA, teljes finomhangolás. Az A100 a 7B-13B nem kvantitált finomhangolás édes pontja; A 4× A100 70B-ig kezeli a megfelelő shardingot (FSDP / DeepSpeed).

3D renderelés · Blender

A Cycles + OptiX RTX kártyákon a leggyorsabb út az animációs stúdiók számára. Az RTX 4090 24 GB-os VRAM-ja lefedi az egykockás produkciós jelenetek túlnyomó részét.

Beszéd + látás csővezetékek

Nagy suttogás, Gyorsabb suttogás, YOLO, Bármi szegmentálása. Még az RTX 4090 terv is valós idejű következtetéseket futtat ezeken a kényelmes fejtérrel rendelkező modelleken.

Hosszú távú kötegelt munkák

Generálás beágyazása, lekérési folyamatok, adatkészlet-előfeldolgozás. Fizessen óránként, futtassa le a munkát, készítsen pillanatfelvételt a kimenetről, semmisítse meg a dobozt, olcsóbb, mintha bérelne AWS/GCP-n ugyanazon munkaterhelés mellett.

80 GB
A100 VRAM
40 Gbps
Uplink
CUDA-kész
Kép
4 ×
Max GPU-k
35%
Éves lejárat
14 nap
Pénzvisszafizetés

Árképzés

Kiemelt GPU tervek. Óránként vagy évente.

Jelenleg éves számlázás van 35% kedvezmény minden GPU-tervben.

GYIK. GPU VPS

Gyakori kérdések, egyenes válaszok.

Milyen GPU-kat kínál a Cloudzy?

Négy család: RTX 6000 Pro (1×, 48 GB GDDR6 ECC VRAM, professzionális a következtetésekhez és rendereléshez), Nvidia A100 (1× / 2× / 4×, ML képzéshez, fp16/bf16 munkaterhelések és 80 GB HBM, 2×1 NT kártyánként) újabb Blackwell architektúra, ideális következtetési munkaterhelésekhez és rendereléshez), és RTX 4090 (1× / 2× / 4×, költséghatékony a stabil diffúzióhoz, az LLM következtetésekhez és a 3D rendereléshez).

A GPU-k dedikáltak vagy megosztottak?

Dedikált. Mindegyik terv a teljes fizikai GPU(ek) áthaladása, nem egy szelet, nem vGPU, nem MIG. A CUDA magok, a VRAM, a PCIe sávszélesség, mind a tiéd. A Multi-GPU tervek az NVLink-et használják, ahol a fizikai hardver támogatja (A100 multi-GPU tervek).

A CUDA előre telepítve van?

Igen. Minden GPU VPS-t a legújabb stabil CUDA-eszközkészlettel, cuDNN-vel és Nvidia-illesztőprogramokkal szállítjuk, amelyek előre bele vannak építve az Ubuntu képbe. A PyTorch, a TensorFlow, a JAX és a Hugging Face verem kifogyott a dobozból. Ha egy adott verziót szeretne telepíteni, átállíthatja a képet egy tiszta Ubuntut CUDA nélkül.

Mennyi VRAM-ot kapok?

GPU-nként: RTX 6000 Pro = 48 GB GDDR6 ECC, A100 = 80 GB HBM2e, RTX 5090 = 32 GB GDDR7, RTX 4090 = 24 GB GDDR6X. A Multi-GPU csomagok ezt összesítik, a 4× A100 csomag 320 GB teljes VRAM-mal rendelkezik. A fenti tervlista külön mutatja a rendszer-RAM-ot.

Futtathatom a Stable Diffusion / Llama / Whispert GPU VPS-en?

Igen. Az 1× RTX 4090 terv jó kiindulópont: elegendő VRAM az SDXL következtetésekhez, Llama 3 70B (4 bites kvantált) vagy Whisper Large. Lépjen az RTX 5090-re vagy A100-ra, ha kvantitálatlan 70B modelleket kell futtatnia vagy LoRA-kat kell betanítania.

Hogyan viszonyul az árak az AWS/Google Cloud/Lambda Labs áraihoz?

Általában olcsóbb az állandó állapotú munkaterhelések esetén, nem teszünk árdiszkriminációt az „igény szerinti” és a „spot” között, és nincs kilépési díjunk. A versenytársak számait nem idézzük (havonta változnak). A 14 napos pénz-visszafizetési garancia lehetővé teszi, hogy a jelenlegi szolgáltatójával szemben saját benchmarkjaival A/B ellen tudjon állni.

Van éves kedvezmény?

Igen, 35%-os éves számlázási kedvezmény minden GPU csomagra (alacsonyabb, mint a normál CPU 50%-a, mivel az GPU hardver amortizációja többe kerül). Nincs automatikus megújítás; minden éves ciklus előtt kap egy számlát, így meglepetés díjak nélkül frissíthet alacsonyabb verzióra, frissíthet vagy lemondhat.

Mi a helyzet a hálózatépítéssel? Tényleg 40 Gbps?

Igen. Ugyanazok a 40 Gbps-os uplinkek, mint zászlóshajónk Cloud VPS-ünk, kilépési díjak nélkül a havi átutalás esetén a csomag juttatásáig. Hasznos nagy adathalmazok GPU csomópontba történő mozgatásához, és egy 100 GB-os Hugging Face modell húzása vonalsebességgel körülbelül 30 másodpercet vesz igénybe.

Futtathatok több csomópontos képzést (több GPU VPS együtt)?

Igen egy régión belül. Az ugyanabban az adatközpontban lévő VPS megosztja a helyi hálózatot ezredmásodperces alatti késleltetéssel. Jelenleg nem kínálunk InfiniBand összeköttetést, a szabványos Etherneten keresztüli több csomópontos oktatás tökéletes finomhangoláshoz és kis léptékű elosztott munkákhoz, de nem versenyképes a csupasz fém HPC-vel a nagy előképzéseknél.

Pénz-visszafizetési garancia a GPU-tervekre?

14 nap, nincs kérdés. Visszatérítés egy számlázási cikluson belül. Rengeteg idő van a CUDA átviteli teljesítményének összehasonlítására, egy valódi edzési lépés végrehajtására, és eldöntheti, hogy a Cloudzy megfelelő-e az Ön munkaterheléséhez.

Ne fizessen hiperskálás árakat.
Tanuljon dedikált GPU-kon.

Válassz egy kártyát, válassz egy régiót, kattints. A CUDA már telepítve van.

Nincs szükség hitelkártyára · 14 napos pénzvisszafizetési garancia · Bármikor lemondható