скидка 50% все планы, ограниченное время. Начиная от $2.48/mo

GPU VPS-хостинг

РТХ 6000 Про. А100. РТХ 5090.
Выделенный, а не нарезанный.

Полная передача GPU. RTX 6000 Pro, A100, RTX 5090, RTX 4090. Предустановлены CUDA, cuDNN, готов PyTorch.
Сеть NVMe + 40 Гбит/с. Независимое облако с 2008 года.

4.6 · 713 reviews on Trustpilot

Начиная от $506.35/mo · Скидка 35% в год · Кредитная карта не требуется

~ ssh root@gpu-train-001 подключен
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

GPU VPS с первого взгляда

Cloudzy продает планы GPU VPS с выделенными РТХ 6000 Про, Нвидиа А100, РТХ 5090, и РТХ 4090 карты в от 1× до 4× конфигурации, начиная с $506.35 per month. Каждый план поставляется с предустановленной последней версией КУДА, cuDNN, и драйверы Nvidia, работает на AMD EPYC + DDR5 с только NVMe хранилище и 40 Gbps восходящие линии связи и положения в 60 секунд. GPU являются выделенными сквозными портами, а не vGPU. не МИГ, не расшаренный. Cloudzy работает независимо с 2008 и оценён на 4.6 / 5 by 713+ reviewers на Trustpilot.

Начальная цена
$506.35 / mo
Типы графических процессоров
6000 Про · А100 · 5090 · 4090
Конфиги
от 1× до 4×
КУДА
Предустановлено
Годовая скидка
скидка 35%
Возврат денег
14 дней

Почему команды ML выбирают Cloudzy

Графический CPU вычисляет нескучный способ.

Четыре причины, по которым команды переходят на Cloudzy с графических процессоров AWS/GCP/гипермасштабирования.

Выделенный проход через GPU

Вся физическая карта принадлежит вам, без нарезки vGPU, без разделов MIG, без конфликтов с другими арендаторами. Ядра CUDA, VRAM, линии PCIe — все выделено.

Образы, готовые к CUDA

Новейшие драйверы Nvidia, набор инструментов CUDA и cuDNN предварительно встроены в образ Ubuntu. PyTorch, TensorFlow, JAX, Hugging Face, установка pip и вы тренируетесь.

NVMe + 40 Гбит/с

Чистое хранилище NVMe, поэтому загрузка набора данных не является узким местом. Сеть со скоростью 40 Гбит/с означает, что загрузка модели Hugging Face емкостью 100 ГБ занимает секунды, а не минуты.

Поддержка людей 24/7

Настоящие инженеры в чате. Мы помогли достаточному количеству команд настроить обучение на нескольких графических процессорах, отладить OOM CUDA и настроить вывод Llama, чтобы ответы возвращались быстро.

Модельный ряд графических процессоров

Четыре семьи.
Девять способов масштабирования.

RTX 6000 Pro для профессионального вывода и рендеринга с 48 ГБ ECC VRAM. A100 для обучения и рабочих нагрузок с большим объемом видеопамяти. RTX 5090 для новейших выводов. RTX 4090 для экономичного вывода до 70 байт (4 бита). Доступны планы Multi-GPU: выберите то, что соответствует вашему бюджету VRAM.

Полная передача GPU, не нарезанная и не разделенная
РТХ 6000 Про
48 GB GDDR6 ECC · Pro-grade
Нвидиа А100
80 GB HBM2e · ML training
РТХ 5090
32 GB GDDR7 · Blackwell
РТХ 4090
24 GB GDDR6X · cost-effective
От 1× до 4× графического процессора
Доступны планы с несколькими графическими процессорами
CUDA предустановлена
PyTorch · TF · Поддержка JAX
Чистый NVMe
Быстрый ввод-вывод набора данных
40 Gbps uplink
Извлеките модели емкостью 100 ГБ за 30 секунд.

Сценарии использования

Наши рабочие нагрузки
клиенты действительно тренируются.

Вывод LLM

Обслуживайте Llama 3, Mistral, DeepSeek или Qwen с помощью vLLM или вывода генерации текста. RTX 4090 обрабатывает 70B в 4-битном режиме, RTX 5090 обрабатывает 70B в 8-битном режиме, A100 обрабатывает неквантованные данные.

Стабильная диффузия · генерация изображений

Запустите SDXL, Flux или точно настроенные контрольные точки Stable Diffusion с помощью ComfyUI или Automatic1111. RTX 4090 обеспечивает скорость более 30 изображений в минуту при стандартном разрешении 1024×1024 SDXL.

Обучение ML + тонкая настройка

LoRA, QLoRA, полная тонкая настройка. A100 — наилучшее место для неквантованной точной настройки 7B-13B; 4× A100 обрабатывают до 70B при правильном шардинге (FSDP/DeepSpeed).

3D-рендеринг · Блендер

Cycles + OptiX на картах RTX — самый быстрый путь для анимационных студий. Видеопамять объемом 24 ГБ на RTX 4090 подходит для подавляющего большинства однокадровых сцен.

Речевые + зрительные конвейеры

Whisper Large, Faster-Whisper, YOLO, сегментируйте что угодно. Даже план RTX 4090 на этих моделях обеспечивает вывод в реальном времени с комфортным запасом мощности.

Длительные пакетные задания

Генерация встраивания, конвейеры поиска, предварительная обработка набора данных. Платите почасово, запустите задание, сделайте снимок результатов, уничтожьте коробку — дешевле, чем арендовать AWS/GCP при той же рабочей нагрузке.

80 GB
Видеопамять A100
40 Gbps
восходящая линия связи
Поддержка CUDA
Изображение
4 ×
Макс. графические процессоры
35%
Ежегодный выходной
14 дней
Возврат денег

Цены

Рекомендуемые планы графических процессоров. Почасовая или годовая.

Ежегодное выставление счетов в настоящее время скидка 35% в каждом плане графического процессора.

ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ. GPU VPS

Частые вопросы, прямые ответы.

Какие графические процессоры предлагает Cloudzy?

Четыре семейства: RTX 6000 Pro (1 ×, 48 ГБ GDDR6 ECC VRAM, профессиональный уровень для вывода и рендеринга), Nvidia A100 (1 × / 2 × / 4 ×, для обучения машинному обучению, рабочие нагрузки fp16/bf16 и 80 ГБ HBM2e на карту), RTX 5090 (1 × / 2 ×, более новый Blackwell) архитектура, идеальная для рабочих нагрузок вывода и рендеринга) и RTX 4090 (1×/2×/4×, экономичный для стабильной диффузии, вывода LLM и 3D-рендеринга).

Являются ли графические процессоры выделенными или общими?

Преданный. Каждый план представляет собой передачу полных физических GPU, а не фрагмента, не vGPU, не MIG. Ядра CUDA, видеопамять, пропускная способность PCIe — все ваше. В планах Multi-GPU используется NVLink там, где это поддерживается физическим оборудованием (планы A100 multi-GPU).

CUDA предустановлена?

Да. Каждый GPU VPS поставляется с новейшим стабильным набором инструментов CUDA, cuDNN и драйверами Nvidia, предварительно встроенными в образ Ubuntu. PyTorch, TensorFlow, JAX и стек Hugging Face работают «из коробки». Вы можете переустановить образ чистой Ubuntu без CUDA, если хотите установить конкретную версию.

Сколько видеопамяти я получу?

Для GPU: RTX 6000 Pro = 48 ГБ GDDR6 ECC, A100 = 80 ГБ HBM2e, RTX 5090 = 32 ГБ GDDR7, RTX 4090 = 24 ГБ GDDR6X. Планы Multi-GPU объединяют в себе то, что план 4 × A100 имеет общий объем видеопамяти 320 ГБ. В приведенном выше списке планов RAM системы показана отдельно.

Могу ли я запустить Stable Diffusion / Llama / Whisper на VPS с графическим процессором?

Да. План 1× RTX 4090 — хорошая отправная точка: достаточно видеопамяти для вывода SDXL, Llama 3 70B (4-битное квантование) или Whisper Large. Перейдите на RTX 5090 или A100, если вам нужно запускать неквантованные модели 70B или обучать LoRA.

Как цены сравниваются с ценами на AWS/Google Cloud/Lambda Labs?

Как правило, дешевле для стационарных рабочих нагрузок, мы не делаем ценовой дискриминации между «по требованию» и «спотовым», и у нас нет платы за исходящий трафик. Мы не будем приводить цифры конкурентов (они меняются ежемесячно). 14-дневная гарантия возврата денег позволяет вам использовать A/B против вашего текущего поставщика с вашими собственными критериями.

Есть ли годовая скидка?

Да, скидка 35 % на годовое выставление счетов на каждый план GPU (меньше, чем 50 % на обычный план CPU, поскольку амортизация оборудования GPU требует больше затрат). Нет автопродления; вы будете получать счет перед каждым годовым циклом, чтобы вы могли понизить, повысить или отменить подписку без непредвиденных расходов.

А как насчет сетей? Это действительно 40 Гбит/с?

Да. Те же восходящие каналы со скоростью 40 Гбит/с, что и у нашего флагманского облачного VPS, без платы за исходящий трафик при ежемесячной передаче в пределах лимита плана. Полезно для перемещения больших наборов данных в узел GPU и из него: извлечение модели Hugging Face объемом 100 ГБ занимает около 30 секунд при скорости линии.

Могу ли я запустить обучение на нескольких узлах (несколько графических процессоров VPS вместе)?

Да, в пределах региона. VPS в том же центре обработки данных используют локальную сеть с задержкой менее миллисекунды. В настоящее время мы не предлагаем межсетевое соединение InfiniBand, многоузловое обучение через стандартный Ethernet подходит для точной настройки и небольших распределенных задач, но не может конкурировать с HPC на «голом железе» для крупного предварительного обучения.

Гарантия возврата денег за планы использования графических процессоров?

14 дней, вопросов нет. Возврат в течение одного платежного цикла. У вас будет достаточно времени, чтобы оценить пропускную способность CUDA, провести настоящий этап обучения и решить, подходит ли Cloudzy для вашей рабочей нагрузки.

Перестаньте платить за гиперскейлер.
Тренируйтесь на выделенных графических процессорах.

Выберите карту, выберите регион, нажмите. CUDA уже установлен.

Без кредитной карты · возврат денег в течение 14 дней · отмена в любой момент