خصم 50% جميع الخطط، لفترة محدودة. تبدأ من $2.48/mo

استضافة GPU VPS

آر تي إكس 6000 برو. A100. آر تي إكس 5090.
مخصصة وليست مقطعة.

عبور GPU الكامل. RTX 6000 Pro، A100، RTX 5090، RTX 4090. CUDA، cuDNN، PyTorch المثبتة مسبقًا جاهزة.
شبكة NVMe + 40 جيجابت في الثانية. سحابة مستقلة منذ عام 2008.

4.6 · 713 reviews on Trustpilot

تبدأ من $506.35/mo · خصم سنوي 35%. · لا حاجة لبطاقة ائتمان

~ سش root@gpu-train-001 متصل
root@gpu-train-001:~# nvidia-smi --query-gpu=name,memory.total,driver_version --format=csv
name, memory.total, driver_version
NVIDIA RTX 6000 Pro, 49152 MiB, 560.94
root@gpu-train-001:~# python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
True NVIDIA RTX 6000 Pro
root@gpu-train-001:~# python train.py --model llama-3-8b --epochs 3
Training step 1/2400 · 4.2s/step · loss=2.143
root@gpu-train-001:~# _

نظرة سريعة على GPU VPS

Cloudzy تبيع خطط GPU VPS مع خطط مخصصة آر تي إكس 6000 برو، نفيديا A100، آر تي إكس 5090، و RTX 4090 بطاقات في 1 × إلى 4 × التكوينات، بدءًا من $506.35 per month. يتم شحن كل خطة مثبتة مسبقًا بأحدثها كوداكودنن, وبرامج تشغيل Nvidia، تعمل على AMD EPYC + DDR5 مع NVMe فقط تخزين و 40 Gbps الوصلات الصاعدة، والأحكام في 60 ثانية. GPU عبارة عن ممر مخصص، وليس vGPU، لا MIG، غير مشتركة. تعمل Cloudzy بشكل مستقل منذ ذلك الحين 2008 وتقييمه 4.6 / 5 by 713+ reviewers على Trustpilot.

السعر الابتدائي
$506.35 / mo
أنواع GPU
6000 برو · A100 · 5090 · 4090
التكوينات
1 × إلى 4 ×
كودا
مثبتة مسبقا
الخصم السنوي
خصم 35%
استعادة الأموال
14 يوما

لماذا تختار فرق ML Cloudzy

GPU يحسب طريقة غير مملة.

الأسباب الأربعة التي تدفع الفرق إلى الانتقال إلى Cloudzy من وحدات معالجة الرسومات AWS / GCP / Hyperscaler.

ممر GPU مخصص

البطاقة الفعلية الكاملة ملكك، بدون تقطيع vGPU، ولا أقسام MIG، ولا تنافس مع المستأجرين الآخرين. نواة CUDA، وVRAM، وممرات PCIe، كلها مخصصة.

صور جاهزة لـ CUDA

أحدث برامج تشغيل Nvidia ومجموعة أدوات CUDA وcuDNN المخبوزة مسبقًا في صورة Ubuntu. PyTorch، وTensorFlow، وJAX، وHugging Face، وتثبيت النقطة، وأنت تتدرب.

NVMe + 40 جيجابت في الثانية

تخزين NVMe خالص، لذا فإن تحميل مجموعة البيانات ليس هو عنق الزجاجة. شبكة بسرعة 40 جيجابت في الثانية تعني أن سحب نموذج Hugging Face بسعة 100 جيجا بايت سينتهي في ثوانٍ، وليس دقائق.

دعم بشري على مدار الساعة

مهندسين حقيقيين على الدردشة. لقد ساعدنا عددًا كافيًا من الفرق في إعداد تدريب على وحدات معالجة الرسومات المتعددة، وتصحيح أخطاء CUDA OOMs، وضبط استنتاج Llama بأن الإجابات تعود بسرعة.

تشكيلة GPU

أربع عائلات.
تسع طرق للقياس.

RTX 6000 Pro للاستدلال والعرض الاحترافي باستخدام ذاكرة فيديو ECC سعة 48 جيجابايت. A100 للتدريب وأحمال عمل VRAM الكبيرة. RTX 5090 لأحدث الاستدلال. RTX 4090 لاستدلال فعال من حيث التكلفة يصل إلى 70 بايت (4 بت). تتوفر خطط Multi-GPU، اختر ما تحتاجه ميزانية VRAM الخاصة بك.

عبور GPU كامل، غير مقسم إلى شرائح، غير مشترك
آر تي إكس 6000 برو
48 GB GDDR6 ECC · Pro-grade
نفيديا A100
80 GB HBM2e · ML training
آر تي إكس 5090
32 GB GDDR7 · Blackwell
RTX 4090
24 GB GDDR6X · cost-effective
1 × إلى 4 × GPU
تتوفر خطط متعددة GPU
CUDA مثبت مسبقًا
PyTorch · TF · JAX جاهز
نقية NVMe
الإدخال/الإخراج السريع لمجموعة البيانات
40 Gbps uplink
سحب نماذج 100 جيجابايت في 30 ثانية

حالات الاستخدام

أعباء العمل لدينا
تدريب العملاء في الواقع.

الاستدلال ماجستير

قم بخدمة Llama 3 أو Mistral أو DeepSeek أو Qwen باستخدام vLLM أو استدلال إنشاء النص. يتعامل RTX 4090 مع 70B عند 4 بت، ويتعامل RTX 5090 مع 70B عند 8 بت، ويتعامل A100 مع غير كمي.

Stable Diffusion · توليد الصور

قم بتشغيل نقاط فحص SDXL أو Flux أو Stable Diffusion المضبوطة بدقة باستخدام ComfyUI أو Automatic1111. يصل RTX 4090 إلى أكثر من 30 صورة / دقيقة على معيار 1024 × 1024 SDXL.

تدريب ML + الضبط الدقيق

LoRA، QLoRA، ضبط كامل. A100 هو المكان المثالي للضبط الدقيق غير المحدود لـ 7B-13B؛ 4 × A100 يتعامل مع ما يصل إلى 70B مع التقسيم المناسب (FSDP / DeepSpeed).

عرض ثلاثي الأبعاد · Blender

يعد Cycles + OptiX على بطاقات RTX هو المسار الأسرع لاستوديوهات الرسوم المتحركة. تغطي ذاكرة الفيديو VRAM سعة 24 جيجابايت الموجودة على RTX 4090 الغالبية العظمى من مشاهد الإنتاج أحادية الإطار.

خطوط أنابيب الكلام + الرؤية

همس كبير، أسرع الهمس، YOLO، شريحة أي شيء. حتى خطة RTX 4090 تعمل على الاستدلال في الوقت الفعلي على هذه الطرازات مع مساحة رأس مريحة.

وظائف دفعة طويلة الأمد

إنشاء التضمين، وخطوط الاسترجاع، والمعالجة المسبقة لمجموعة البيانات. ادفع بالساعة، وقم بتشغيل المهمة، والتقط لقطة سريعة للمخرجات، ودمر الصندوق، وهو أرخص من استئجار AWS/GCP لنفس عبء العمل.

80 GB
A100 VRAM
40 Gbps
الوصلة الصاعدة
كودا جاهز
صورة
4 ×
الحد الأقصى لوحدات معالجة الرسومات
35%
إيقاف سنوي
14 يوما
استعادة الأموال

التسعير

خطط GPU المميزة. كل ساعة أو سنوية.

الفواتير السنوية حاليا خصم 35% في كل خطة GPU.

التعليمات. GPU فس

أسئلة شائعة، إجابات مباشرة.

ما هي وحدات معالجة الرسومات التي تقدمها Cloudzy؟

أربع عائلات: RTX 6000 Pro (1×، 48 جيجابايت GDDR6 ECC VRAM، درجة احترافية للاستدلال والعرض)، Nvidia A100 (1× / 2× / 4×، للتدريب على التعلم الآلي، وأحمال عمل fp16/bf16، و80 جيجابايت HBM2e لكل بطاقة)، RTX 5090 (1× / 2×، أحدث Blackwell الهندسة المعمارية، مثالية لأحمال عمل الاستدلال والعرض)، وRTX 4090 (1× / 2× / 4×، فعالة من حيث التكلفة للنشر المستقر، واستدلال LLM، والعرض ثلاثي الأبعاد).

هل وحدات معالجة الرسومات مخصصة أم مشتركة؟

مخلص. كل خطة عبارة عن عبور لـ GPU (s) المادية الكاملة، وليست شريحة، وليست vGPU، وليست MIG. نواة CUDA، وVRAM، وعرض النطاق الترددي PCIe، كلها ملكك. تستخدم خطط Multi-GPU NVLink حيث تدعمها الأجهزة الفعلية (خطط A100 multi-GPU).

هل CUDA مثبت مسبقًا؟

نعم. يأتي كل GPU VPS مزودًا بأحدث مجموعة أدوات CUDA الثابتة وبرامج تشغيل cuDNN وNvidia المعدة مسبقًا في صورة Ubuntu. نفاد مكدس PyTorch وTensorFlow وJAX وHugging Face من الصندوق. يمكنك إعادة الصورة إلى Ubuntu نظيف بدون CUDA إذا كنت تريد تثبيت إصدار معين.

ما مقدار VRAM التي أحصل عليها؟

لكل GPU: RTX 6000 Pro = 48 جيجابايت GDDR6 ECC، A100 = 80 جيجابايت HBM2e، RTX 5090 = 32 جيجابايت GDDR7، RTX 4090 = 24 جيجابايت GDDR6X. تجمع خطط Multi-GPU ذلك، حيث تحتوي خطة 4× A100 على 320 جيجابايت من RAM (VRAM) الإجمالية. تعرض قائمة الخطط أعلاه RAM للنظام بشكل منفصل.

هل يمكنني تشغيل Stable Diffusion / Llama / Whisper على GPU VPS؟

نعم. تعد خطة 1 × RTX 4090 نقطة انطلاق جيدة: ما يكفي من VRAM لاستدلال SDXL، أو Llama 3 70B (مكممة 4 بت)، أو Whisper Large. انتقل إلى RTX 5090 أو A100 إذا كنت بحاجة إلى تشغيل نماذج 70B غير كمية أو تدريب LoRAs.

كيف يمكن مقارنة الأسعار بـ AWS / Google Cloud / Lambda Labs؟

بشكل عام، يكون السعر أرخص بالنسبة لأعباء العمل في الحالة الثابتة، ولا نميز بين الأسعار من خلال "عند الطلب" مقابل "الفوري" وليس لدينا رسوم خروج. لن نقتبس أرقام المنافسين (تلك تتغير شهريًا). يتيح لك ضمان استعادة الأموال لمدة 14 يومًا إجراء A/B مقابل المزود الحالي الخاص بك وفقًا للمعايير الخاصة بك.

هل يوجد خصم سنوي؟

نعم، خصم 35% على الفواتير السنوية لكل خطة GPU (أقل من 50% على CPU العادية لأن أجهزة GPU تكلف أكثر للاستهلاك). لا يوجد تجديد تلقائي؛ سوف تحصل على فاتورة قبل كل دورة سنوية حتى تتمكن من الرجوع إلى إصدار أقدم أو ترقيته أو إلغاءه بدون رسوم مفاجئة.

ماذا عن الشبكات؟ هل هي حقا 40 جيجابت في الثانية؟

نعم. نفس الوصلات الصاعدة بسرعة 40 جيجابت في الثانية مثل Cloud VPS الرائد لدينا، بدون رسوم خروج على التحويل الشهري حتى الحد المسموح به للخطة. مفيد لنقل مجموعات البيانات الكبيرة داخل وخارج عقدة GPU، ويستغرق سحب نموذج Hugging Face بسعة 100 جيجابايت حوالي 30 ثانية بمعدل الخط.

هل يمكنني تشغيل تدريب متعدد العقد (عدة GPU VPS معًا)؟

نعم داخل المنطقة. يشارك VPS الموجود في نفس مركز البيانات الشبكة المحلية بزمن وصول أقل من مللي ثانية. لا نوفر حاليًا اتصال InfiniBand، حيث يعد التدريب متعدد العقد عبر شبكة Ethernet القياسية أمرًا جيدًا للضبط الدقيق والمهام الموزعة على نطاق صغير ولكنه لا يتنافس مع HPC المعدنية العارية للتدريب المسبق الكبير.

ضمان استعادة الأموال على خطط GPU؟

14 يومًا، دون طرح أي أسئلة. استرداد الأموال خلال دورة فوترة واحدة. هناك متسع من الوقت لقياس إنتاجية CUDA، وتنفيذ خطوة تدريب حقيقية، وتحديد ما إذا كان Cloudzy مناسبًا لأعباء العمل لديك.

التوقف عن دفع أسعار Hyperscaler.
التدريب على وحدات معالجة الرسومات المخصصة.

اختر بطاقة، اختر منطقة، انقر. تم تثبيت CUDA بالفعل.

لا حاجة لبطاقة ائتمان · ضمان استرداد خلال 14 يومًا · إلغاء في أي وقت