ลด 50% ทุกแพ็กเกจ เวลาจำกัด เริ่มต้นที่ $2.48/mo

Ollama VPS Hosting

รัน open-source
LLM บน VPS ของคุณ

VPS พร้อมใช้กับ Ollama บน AMD EPYC รุ่นล่าสุดและ NVMe แท้
Independent since 2008. Llama, Mistral, Qwen, DeepSeek, Gemma ทั้งหมดอยู่ภายใต้ IP ของคุณ

4.6· 713 รีวิวบน Trustpilot

เริ่มต้นที่ $2.48/mo · ลด 50% · ไม่ต้องใช้บัตรเครดิต

~ ssh root@ollama-lon-001เชื่อมต่อแล้ว
root@ollama-lon-001:~# ollama pull llama3
pulling manifest... pulling model 5.0 GB ✔
root@ollama-lon-001:~# ollama run llama3 "What's a VPS?"
VPS หรือ Virtual Private Server คือสภาพแวดล้อมการประมวลผลแบบ virtualized
ที่มี OS และทรัพยากรเฉพาะของตัวเอง
ทำงานอยู่บน cloud...
root@ollama-lon-001:~# _

ภาพรวม Ollama VPS

Cloudzy โฮสต์ OllamaVPS พร้อมใช้งานตั้งแต่ 12 ภูมิภาค ครอบคลุมอเมริกาเหนือ, ยุโรป, ตะวันออกกลาง และเอเชีย เริ่มต้นที่ $2.48 per monthแพลนมีให้เลือกตั้งแต่ 512 MB to 64 GB DDR5, all on NVMe สำหรับจัดเก็บข้อมูล พร้อม 40 Gbps uplinks. Ollama ติดตั้งได้ด้วยคลิกเดียว แล้ว pull Llama 3, Mistral, Qwen, DeepSeek, Gemma และให้บริการผ่าน OpenAI-compatible API. Servers provision in 60 วินาที. Cloudzy ดำเนินงานแบบอิสระมาตั้งแต่ 2008 และได้รับการจัดอันดับ 4.6 / 5 by ผู้รีวิวกว่า 713 คน บน Trustpilot.

ราคาเริ่มต้น
$2.48 / month
การจัดสรรทรัพยากร
60 วินาที
ภูมิภาค
12 แห่งทั่วโลก
Uptime SLA
99.95%
คืนเงิน
14 วัน
ก่อตั้ง
2008

ทำไมนักพัฒนาถึงเลือก Cloudzy

An LLM host นักพัฒนา

สี่สิ่งที่ผู้ใช้เปรียบเทียบเราจริงๆ และเราทำได้ครบทุกข้อ

ปรับแต่งมาสำหรับ inference

AMD EPYC, พื้นที่เก็บข้อมูลแบบ NVMe เท่านั้น, หน่วยความจำ DDR5, uplinks ขนาด 40 Gbps โหลด model weights จาก NVMe ได้ภายในไม่กี่วินาที ไม่มีดิสก์ช้าที่ทำให้ response แรกสะดุด

ทดลองใช้โดยไม่มีความเสี่ยง

รับประกันคืนเงินภายใน 14 วันสำหรับทุกแพ็กเกจ ไม่มีคำถามย้อนกลับ ไม่มีค่าติดตั้ง ยกเลิกได้เองจาก Dashboard ทุกเมื่อ

Uptime 99.95% SLA

ระบบ Monitoring อัตโนมัติครอบคลุม 12 ภูมิภาค ข้อมูล SLA ย้อนหลัง 30 วันเปิดเผยต่อสาธารณะที่ status.cloudzy.com ไม่มีการปิดบัง

ทีมซัพพอร์ตพร้อมตลอด 24/7

แชทสดและตอบกลับตั๋วโดยเฉลี่ยภายใน 5 นาที ดูแลโดยวิศวกร ไม่ใช่การตอบตามสคริปต์ เวลาแก้ไขปัญหาเฉลี่ยไม่เกิน 1 ชั่วโมง

เลือก model ของคุณ

Open-weight models.
Pull เดียว พร้อมใช้งาน

Llama 3 สำหรับตัวเลือกที่ไว้ใจได้, Mistral สำหรับแชททั่วไป, Qwen สำหรับงานหลายภาษา, DeepSeek สำหรับโค้ด, Gemma สำหรับงาน CPU ขนาดเล็ก ผสมผสานได้ตามต้องการ ทั้งหมดอยู่บน NVMe เดียวกัน

รองรับการอัปโหลด GGUF แบบกำหนดเองในทุกแผน
Llama 3
8B / 70B / 405B
Mistral
7B / Mixtral 8x7B
Qwen
0.5B – 72B Alibaba
DeepSeek
Coder / Chat / R1
Gemma
2B / 7B Google
Phi
Microsoft small models

กรณีการใช้งาน

ทำไมนักพัฒนาถึงเลือก
API Ollama VPS ของ Cloudzy

API ส่วนตัวสำหรับแอปของคุณ

Endpoint แบบ OpenAI-compatible บน IP เฉพาะของคุณ สร้างฟีเจอร์แชท ระบบสรุปข้อความ หรือ agents ได้โดยไม่ต้องส่ง prompt ของผู้ใช้ไปยังผู้ให้บริการภายนอก

Background agents

Agent ที่ทำงานต่อเนื่องและประมวลผลอีเมลเป็นชุด ดึงข้อมูลจากเว็บ หรือแท็ก ticket อัตโนมัติ ไม่เหมาะกับ API แบบคิดราคาตามการใช้งาน แต่ VPS แบบค่าบริการคงที่ตอบโจทย์ได้ดี ตั้ง Cron job, เรียก Ollama, พักเครื่อง, วนซ้ำ

Code assistants

รัน DeepSeek-Coder หรือ Qwen-Coder เบื้องหลังปลั๊กอิน Continue หรือ Tabby ของ editor คุณ Autocomplete ฉับไว ไม่มีค่าใช้จ่ายรายครั้ง และโค้ดไม่ถูกส่งออกไปยัง vendor

แชทสำหรับ hobby และ demo RAG

Pull model มา เชื่อมต่อกับ Open WebUI หรือ LibreChat แล้วแชร์ลิงก์ให้เพื่อน ทั้ง stack อยู่บน VPS เดียว ในราคาแค่กาแฟไม่กี่แก้วต่อเดือน

LLM ที่เป็นมิตรต่อข้อกำหนดการปฏิบัติตามกฎระเบียบ

ข้อมูลที่ละเอียดอ่อน ไม่ว่าจะเป็นด้านกฎหมาย สาธารณสุข หรือเอกสารภายใน จะอยู่บน VPS ของคุณเท่านั้น ตรวจสอบการเข้าถึงด้วย iptables และ journald ทุกอย่างอยู่ใน perimeter ของคุณ

สร้าง fine-tune ของคุณเอง

Pull base weights มา fine-tune บนเครื่อง GPU แล้วนำ GGUF กลับไปรันบน Ollama VPS แบบ CPU สำหรับ inference ประหยัดค่าใช้จ่ายในวันธรรมดา จ่ายเพิ่มเฉพาะตอน train เท่านั้น

60s
การจัดสรรทรัพยากร
40 Gbps
Uplink
NVMe-only
พื้นที่จัดเก็บข้อมูล
12
ภูมิภาค
99.95%
Uptime SLA
14 วัน
คืนเงิน

เครือข่ายทั่วโลก

12 ภูมิภาค. สี่ทวีป.
เลือกแผนของคุณ แล้ว pull model

วาง inference host ไว้ใกล้กับผู้ใช้ของคุณ P50 latency เฉลี่ยต่ำกว่า 10 ms ในอเมริกาเหนือและยุโรป

us-utah-1us-dal-1us-lax-1us-nyc-1us-mia-1eu-ams-1eu-lon-1eu-fra-1eu-zrh-1me-dxb-1ap-sgp-1ap-tyo-1

ราคา

จ่ายเฉพาะที่ใช้จริง แค่นั้นเอง

รายชั่วโมง รายเดือน หรือรายปี ไม่มีค่าธรรมเนียมข้อมูลขาออก ไม่มีสัญญาผูกมัด ขณะนี้ ลด 50% ทุกแพลน

1 GB DDR5

โมเดล CPU ขนาดเล็ก · 1B–3B

$3.48/เดือน
$6.95/mo−50%
Deploy เลย
คืนเงินภายใน 14 วัน
  • 1 vCPU @ EPYC
  • 25 GB NVMe
  • 1 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • ติดตั้ง Ollama ด้วยคลิกเดียว
2 GB DDR5

7B / 8B on CPU

$7.475/เดือน
$14.95/mo−50%
Deploy เลย
คืนเงินภายใน 14 วัน
  • 1 vCPU @ EPYC
  • 60 GB NVMe
  • 3 TB · 40 Gbps
  • Dedicated IPv4 + IPv6
  • ติดตั้ง Ollama ด้วยคลิกเดียว

คำถามที่พบบ่อย Ollama VPS

คำถามที่พบบ่อย คำตอบตรงๆ

Ollama VPS คืออะไร?

Ollama VPS คือเซิร์ฟเวอร์คลาวด์ Cloudzy ที่ตั้งค่ามาเพื่อรัน Ollama ซึ่งเป็น runtime สำหรับ LLM แบบโลคัล ดึงโมเดล open-source อย่าง Llama 3, Mistral, Qwen, DeepSeek หรือ Gemma มาใช้งาน, เปิด API ที่เข้ากันได้กับ OpenAI บนเซิร์ฟเวอร์ของคุณเอง, และสร้างแอปแชท, agent, รวมถึงเครื่องมือต่าง ๆ โดยไม่ต้องส่ง traffic ไปยังผู้ให้บริการโมเดลภายนอก

มี Ollama ติดตั้งไว้ให้แล้วหรือไม่?

Ollama ติดตั้งได้ด้วยคลิกเดียวจาก panel เลือก template Linux, ไฟล์ binary จะอยู่ใน PATH ทันที และ `ollama pull llama3` พร้อมใช้งานภายในหนึ่งนาที API HTTP จะ listen บนพอร์ต 11434 ตามค่าเริ่มต้น และสามารถผูก IP เฉพาะไว้หลัง reverse proxy ได้

รัน LLM บน VPS ที่มีแค่ CPU ได้ไหม?

ได้ สำหรับโมเดลขนาดเล็ก Llama 3 8B และ Mistral 7B รันได้บนเครื่องที่มี CPU 16 GB, Qwen 0.5B–3B และ Gemma 2B รันได้สบาย ๆ บน 4 GB throughput ขึ้นอยู่กับขนาดโมเดลและ prompt; CPU ช้ากว่า GPU แต่เพียงพอสำหรับ API ที่ไม่ได้ใช้งานหนัก, side project, และงาน dev

มีแพลน GPU สำหรับโมเดลขนาดใหญ่ด้วยไหม?

มี สำหรับโมเดลระดับ 70B หรือ inference ที่ต้องการ throughput สูง ดูแพลน GPU ของเราได้ที่ RTX 4090, RTX 5090, A100 การ์ด 4090 รอง Llama 3 70B แบบ quantization ได้, ส่วน A100 80GB รันโมเดลขนาดใหญ่แบบ full-precision ดูราคาเพิ่มเติมได้ที่หน้า pricing

รองรับ API ที่เข้ากันได้กับ OpenAI หรือไม่?

รองรับ Ollama เปิด endpoint `/v1/chat/completions` ที่ใช้แทน OpenAI client ได้ทันที เพียงชี้แอปที่มีอยู่ไปที่ `http://your-vps:11434/v1` แล้วเปลี่ยนชื่อโมเดล ใช้ SDK เดิมได้เลย ไม่ต้องแก้โค้ด

โมเดลหนึ่งตัวใช้ disk เท่าไหร่?

ขึ้นอยู่กับโมเดล โมเดล 7B แบบ 4-bit quantized ใช้ประมาณ 4 GB, 8B ใช้ประมาณ 5 GB, 70B แบบ 4-bit ใช้ประมาณ 40 GB ดึงมาเท่าที่พื้นที่จะรองรับได้ แพลนเริ่มต้นที่ NVMe 60 GB และขยายได้ถึง 1.5 TB รัน mix โมเดลหลายตัวบนเครื่องเดียวได้

การจัดเตรียมเซิร์ฟเวอร์ใช้เวลานานแค่ไหน?

เมื่อยืนยันการชำระเงินแล้ว VPS ของคุณจะพร้อมใช้งานภายใน 60 วินาที เมื่อติดตั้ง Ollama ด้วยคลิกเดียว runtime จะพร้อมในอีกหนึ่งนาที การดึงโมเดลครั้งแรกจะใช้เวลานานกว่า (ขึ้นอยู่กับเครือข่าย) แต่ครั้งถัดไปจะโหลดจาก cache บน NVMe ได้เลย

Do I get a dedicated IP?

ทุก VPS มาพร้อม IP สแตติกเฉพาะและ IPv6 เข้าถึง API ของ Ollama ผ่าน IP เฉพาะ, ติดตั้ง reverse proxy Caddy ด้านหน้าเพื่อใช้ HTTPS บน hostname จริง เท่านี้ก็พร้อมใช้งาน รองรับ Floating IP ด้วย

มีค่าใช้จ่ายแอบแฝงไหม?

ไม่มี Egress รวมอยู่ในโควตา transfer รายเดือนแล้ว Snapshot ฟรี IPv4 และ IPv6 รวมอยู่ในแพลน Root access รวมอยู่ด้วย ส่วนรายการที่คิดค่าใช้จ่ายเพิ่มเติมมีเพียง Floating IP (2.50 ดอลลาร์/เดือน) และ snapshot เพิ่มเติมที่เกินโควตาฟรี

มีนโยบายคืนเงินไหม?

ได้ ภายใน 14 วันนับจากวันที่ซื้อ ไม่ต้องชี้แจงเหตุผล คืนเงินเต็มจำนวน ขอผ่าน panel หรือส่งอีเมลมาที่ [email protected]

พร้อมให้บริการทุกเมื่อที่คุณต้องการ
ollama run ภายใน 60 วินาที

เลือก region, กดคลิก, ดึงโมเดล IP เฉพาะและ LLM ส่วนตัวของคุณ

ไม่ต้องใช้บัตรเครดิต · รับประกันคืนเงินภายใน 14 วัน · ยกเลิกได้ทุกเมื่อ