Знижка 50%. усі плани, обмежений час. Від $2.48/mo

Хостинг GPU VPS

RTX 6000 Pro. A100. RTX 5090.
Відданий, не нарізаний.

Повне проходження GPU. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Попередньо встановлені CUDA, cuDNN, готовий PyTorch.
Мережа NVMe + 40 Гбіт/с. Незалежна хмара з 2008 року.

4.6 · 713 reviews on Trustpilot

Від $506.35/mo · Річна знижка 35% · Кредитна картка не потрібна

~ ssh root@gpu-train-001 підключений
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS з першого погляду

Cloudzy продає плани GPU VPS із виділеними RTX 6000 Pro, Nvidia A100, RTX 5090, і RTX 4090 картки в 1 × до 4 × конфігурації, починаючи з $506.35 per month. Кожен план поставляється з попередньо встановленою останньою версією CUDA, cuDNN, і драйвери Nvidia, працює на AMD EPYC + DDR5 с Лише NVMe сховище та 40 Gbps висхідні канали зв’язку та положення в 60 секунд. GPU є спеціальним наскрізним, а не vGPU, не МІГ, не ділиться. Відтоді Cloudzy працює незалежно 2008 та має рейтинг 4.6 / 5 by 713+ reviewers на Trustpilot.

Стартова ціна
$506.35 / mo
Типи GPU
6000 Pro · A100 · 5090 · 4090
Конфігурації
1 × до 4 ×
CUDA
Попередньо встановлено
Річна знижка
Знижка 35%.
Повернення грошей
14 днів

Чому команди ML обирають Cloudzy

GPU обчислює ненудний спосіб.

Чотири причини, чому команди переходять на Cloudzy з графічних процесорів AWS / GCP / hyperscaler.

Зберегти "GPU" як є — технічна абревіатура не перекладається

Повна фізична карта є вашою, без нарізки vGPU, без розділів MIG, без суперечок з іншими орендарями. Ядра CUDA, відеопам'ять, лінії PCIe, усі виділені.

Зображення, готові до CUDA

Найновіші драйвери Nvidia, набір інструментів CUDA та cuDNN, попередньо вбудовані в образ Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, pip install — і ви тренуєтесь.

NVMe + 40 Гбіт/с

Чисте сховище NVMe, тому завантаження набору даних не є вузьким місцем. Мережа 40 Гбіт/с означає, що підключення моделі Hugging Face на 100 ГБ закінчується за секунди, а не за хвилини.

Людська підтримка 24/7

Справжні інженери в чаті. Ми допомогли багатьом командам налаштувати навчання з кількома GPU, налагодити OOM CUDA та налаштувати висновок Llama, щоб відповіді поверталися швидко.

Модельний ряд GPU

Чотири родини.
Дев'ять способів масштабування.

RTX 6000 Pro для професійного висновку та візуалізації з 48 ГБ ECC VRAM. A100 для навчання та навантажень із великим об’ємом відеопам’яті. RTX 5090 для найновішого висновку. RTX 4090 для економічно ефективного висновку до 70B (4-біт). Доступні плани Multi-GPU, оберіть те, що потрібно вашому бюджету VRAM.

Повне проходження GPU, не нарізане, не спільно
RTX 6000 Pro
48 GB GDDR6 ECC · Pro-grade
Nvidia A100
80 GB HBM2e · ML training
RTX 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1× до 4× GPU
Доступні плани з кількома GPU
Попередньо встановлено CUDA
Готовий PyTorch · TF · JAX
Чистий NVMe
Швидкий ввід-вивід набору даних
40 Gbps uplink
Витягніть моделі на 100 ГБ за 30 секунд

Сценарії використання

Навантаження наші
клієнти насправді тренуються.

LLM висновок

Обслуговуйте Llama 3, Mistral, DeepSeek або Qwen за допомогою vLLM або Text Generation Inference. RTX 4090 обробляє 70B при 4-бітах, RTX 5090 обробляє 70B при 8-бітах, A100 обробляє неквантовані.

Стабільна дифузія · зображення gen

Запустіть SDXL, Flux або точно налаштовані контрольні точки Stable Diffusion за допомогою ComfyUI або Automatic1111. RTX 4090 забезпечує 30+ зображень/хв на стандартному 1024×1024 SDXL.

Навчання ML + доведення

LoRA, QLoRA, повна тонка настройка. A100 є найкращим місцем для тонкого неквантованого налаштування 7B-13B; 4× A100 обробляє до 70B з належним шардингом (FSDP / DeepSpeed).

3D візуалізація · Blender

Cycles + OptiX на картах RTX — найшвидший шлях для анімаційних студій. 24 ГБ VRAM на RTX 4090 охоплює переважну більшість однокадрових виробничих сцен.

Конвеєри мови + зору

Whisper Large, Faster-Whisper, YOLO, Segment Anything. Навіть план RTX 4090 виконує висновки в реальному часі на цих моделях із комфортним запасом.

Довгострокові пакетні завдання

Генерація вбудовування, конвеєри пошуку, попередня обробка набору даних. Платіть погодинно, виконайте завдання, зробіть знімок результату, знищіть коробку – це дешевше, ніж оренда на AWS/GCP за такого самого навантаження.

80 GB
A100 VRAM
40 Gbps
Uplink
Готовий до CUDA
Зображення
4 ×
Максимальна кількість графічних процесорів
35%
Річний вихідний
14 днів
Повернення грошей

Ціноутворення

Рекомендовані плани GPU. Погодинна або річна.

Річна виставка рахунків наразі Знижка 35%. на кожному плані GPU.

FAQ. GPU VPS

Поширені запитання, прямі відповіді.

Які графічні процесори пропонує Cloudzy?

Чотири сімейства: RTX 6000 Pro (1×, 48 ГБ GDDR6 ECC VRAM, професійний клас для висновків і візуалізації), Nvidia A100 (1× / 2× / 4×, для навчання ML, робочі навантаження fp16/bf16 і 80 ГБ HBM2e на картку), RTX 5090 (1× / 2×, новіші Архітектура Blackwell, ідеальна для робочих навантажень і візуалізації, і RTX 4090 (1× / 2× / 4×, економічно ефективний для Stable Diffusion, LLM inference та 3D-рендерінгу).

Графічні процесори виділені чи спільні?

Присвячений. Кожен план є проходженням повного фізичного GPU(s), а не зрізу, а не vGPU, а не MIG. Ядра CUDA, відеопам’ять, пропускна здатність PCIe – усе ваше. Плани Multi-GPU використовують NVLink, якщо це підтримується фізичним обладнанням (плани A100 multi-GPU).

Чи попередньо встановлено CUDA?

так Кожен GPU VPS поставляється з найновішим стабільним набором інструментів CUDA, cuDNN і драйверами Nvidia, попередньо вбудованими в образ Ubuntu. PyTorch, TensorFlow, JAX і стек Hugging Face працюють із коробки. Ви можете повторно створити образ на чистій Ubuntu без CUDA, якщо хочете встановити певну версію.

Скільки VRAM я отримаю?

Для GPU: RTX 6000 Pro = 48 ГБ GDDR6 ECC, A100 = 80 ГБ HBM2e, RTX 5090 = 32 ГБ GDDR7, RTX 4090 = 24 ГБ GDDR6X. У сукупності планів Multi-GPU план A100 4× має 320 ГБ відеопам’яті. Список планів вище показує системну оперативну пам’ять окремо.

Чи можу я запустити Stable Diffusion/Llama/Whisper на GPU VPS?

так План 1× RTX 4090 є хорошою відправною точкою: достатньо відеопам’яті для висновку SDXL, Llama 3 70B (4-розрядний квантований) або Whisper Large. Перейдіть до RTX 5090 або A100, якщо вам потрібно запустити неквантовані моделі 70B або навчити LoRA.

Як ціна порівнюється з AWS / Google Cloud / Lambda Labs?

Загалом дешевше для робочих навантажень у стабільному стані, ми не розрізняємо ціну на «за запитом» чи «спот» і не маємо вихідних комісій. Ми не будемо наводити цифри конкурентів (вони змінюються щомісяця). 14-денна гарантія повернення грошей дає змогу порівнювати A/B з поточним постачальником за допомогою власних тестів.

Чи є річна знижка?

Так, 35% знижка на річну оплату для кожного плану GPU (нижче, ніж 50% на звичайний CPU, оскільки апаратне забезпечення GPU коштує дорожче для амортизації). Без автоматичного оновлення; ви отримаєте рахунок-фактуру перед кожним річним циклом, щоб ви могли знизити, оновити або скасувати без несподіваних витрат.

А як щодо мереж? Це справді 40 Гбіт/с?

так Ті самі висхідні канали 40 Гбіт/с, що й наш флагманський хмарний VPS, без вихідних комісій за щомісячне передавання до надбавки плану. Корисно для переміщення великих наборів даних у вузол GPU і з нього, витягування моделі Обіймається обличчя розміром 100 ГБ займає приблизно 30 секунд зі швидкістю рядка.

Чи можу я запустити багатовузлове навчання (кілька GPU VPS разом)?

Так в межах регіону. VPS в одному центрі обробки даних спільно використовують локальну мережу із затримкою менше мілісекунди. Наразі ми не пропонуємо з’єднання InfiniBand, багатовузлове навчання через стандартний Ethernet підходить для точного налаштування та невеликих розподілених завдань, але неконкурентоспроможне з голим металом HPC для великого попереднього навчання.

Гарантія повернення грошей за плани GPU?

14 днів, без запитань. Повернення протягом одного платіжного циклу. Досить часу, щоб перевірити пропускну здатність CUDA, виконати справжній етап навчання та вирішити, чи підходить Cloudzy для вашого робочого навантаження.

Припиніть платити гіпермасштабні ціни.
Тренуйтеся на виділених графічних процесорах.

Виберіть картку, виберіть регіон, натисніть. CUDA вже встановлено.

Без кредитної картки · Гарантія повернення коштів за 14 днів · Скасування в будь-який час