Diskon 50%. semua paket, waktu terbatas. Mulai dari $2.48/mo

Hosting VPS Ollama

Jalankan sumber terbuka
LLM di VPS Anda.

VPS siap Ollama pada AMD EPYC terbaru dan NVMe murni.
Mandiri sejak tahun 2008. Llama, Mistral, Qwen, DeepSeek, Gemma, semuanya di bawah IP Anda.

4.6· 708 reviews on Trustpilot

Mulai dari $2.48/mo · Diskon 50% · Tanpa kartu kredit

~ ssh root@ollama-lon-001terhubung
root@ollama-lon-001:~# ollama tarik llama3
menarik manifes... menarik model 5.0 GB ✔
root@ollama-lon-001:~# ollama run llama3 "Apa itu VPS?"
VPS, atau Virtual Private Server, adalah sebuah virtualisasi
lingkungan komputasi dengan OS sendiri dan berdedikasi
sumber daya, dihosting di cloud...
root@ollama-lon-001:~# _

Sekilas tentang VPS Ollama

Cloudzy tuan rumah Ollama-VPS siap pakai dari 12 region di Amerika Utara, Eropa, Timur Tengah, dan Asia, mulai dari $2,48 per bulan. Paket berkisar dari 512 MB to 64 GB DDR5, semuanya aktif Penyimpanan NVMe dengan 40 Gbps uplink. Ollama menginstal dalam satu klik; menarik Llama 3, Mistral, Qwen, DeepSeek, Gemma dan melayani mereka di belakang sebuah API yang kompatibel dengan OpenAI. Penyediaan server di 60 detik. Cloudzy telah beroperasi secara independen sejak 2008 dan dinilai 4.6 / 5 by 708+ reviewers di Trustpilot.

Harga mulai
$2,48 / bulan
Penyediaan
60 detik
Daerah
12 di seluruh dunia
Uptime SLA
99.95%
Uang kembali
14 hari
Didirikan
2008

Mengapa pengembang memilih Cloudzy

Tuan rumah LLM favorit.

Empat hal yang benar-benar dibandingkan pembeli, dikerjakan dengan benar.

Disetel untuk inferensi

AMD EPYC, penyimpanan khusus NVMe, memori DDR5, uplink 40 Gbps. Bobot model dimuat dari NVMe dalam hitungan detik; tidak ada disk lambat yang menghambat respons pertama Anda.

Uji coba bebas risiko

Garansi uang kembali 14 hari pada setiap paket. Tanpa pertanyaan. Tanpa biaya setup. Batalkan dari dashboard kapan saja.

SLA uptime 99,95%

Monitoring otomatis di 12 region. SLA 30 hari terakhir dilacak secara publik di status.cloudzy.com, tanpa bersembunyi di balik PR.

Dukungan manusia 24/7

Live chat dan balasan tiket biasanya di bawah 5 menit. Engineer, bukan pembaca skrip. Median resolusi di bawah 1 jam.

Pilih model Anda

Model berbobot terbuka.
Satu tarikan.

Llama 3 untuk pilihan aman, Mistral untuk obrolan umum, Qwen untuk multibahasa, DeepSeek untuk kode, Gemma untuk pekerjaan kecil CPU. Padu padankan, semuanya di NVMe yang sama.

Unggahan GGUF khusus didukung di setiap paket
Lama 3
8B / 70B / 405B
Mistral
7B / Campuran 8x7B
Qwen
0,5 miliar – 72 miliar Alibaba
Pencarian Mendalam
Pembuat Kode / Obrolan / R1
permata
2B / 7B Google
Phi
Model kecil Microsoft

Kasus penggunaan

Kenapa pengembang memilih
VPS Ollama Cloudzy.

API Pribadi untuk aplikasi Anda

Masukkan titik akhir yang kompatibel dengan OpenAI pada IP khusus Anda. Bangun fitur obrolan, ringkasan, atau agen tanpa mengirimkan perintah pengguna ke penyedia pihak ketiga.

Agen latar belakang

Agen yang sudah berjalan lama yang memproses email secara batch, mengikis situs, atau memberi tag otomatis pada tiket tidak sesuai dengan harga penggunaan API. VPS berbiaya tetap dapat melakukannya. Cron pekerjaan, tekan Ollama, tidur, ulangi.

Asisten kode

Jalankan DeepSeek-Coder atau Qwen-Coder di belakang plugin Lanjutkan/Tabby editor Anda. Pelengkapan otomatis yang cepat, tanpa biaya per saran, tidak ada kode yang dikirimkan ke vendor.

Obrolan hobi & demo RAG

Tarik model, sambungkan Open WebUI atau LibreChat, bagikan tautan dengan teman. Seluruh tumpukan pada satu VPS dengan harga beberapa kopi sebulan.

LLM yang ramah kepatuhan

Data sensitif (hukum, layanan kesehatan, dokumen internal) tetap ada di VPS Anda. Akses audit dengan iptables dan journald, model Anda, perimeter Anda.

Buat lagu Anda sendiri

Tarik bobot dasar, sempurnakan pada kotak GPU, kirimkan GGUF kembali ke CPU Ollama VPS untuk inferensi. Penyajian hari kerja yang murah, berbelanja secara royal hanya saat Anda berlatih.

60s
Penyediaan
40 Gbps
Tautan ke atas
Khusus NVMe
Penyimpanan
12
Daerah
99.95%
Uptime SLA
14 hari
Uang kembali

Jaringan global

12 region. Empat benua.
Pilih milikmu, tarik modelnya.

Letakkan host inferensi Anda di dekat pengguna Anda. Latensi P50 median di bawah 10 ms di Amerika Utara dan Eropa.

us-utah-1us-dal-1us-lax-1us-nyc-1us-mia-1eu-ams-1eu-lon-1eu-fra-1eu-zrh-1me-dxb-1ap-sgp-1ap-tyo-1

Harga

Bayar sesuai pemakaian. Cuma itu.

Per jam, bulanan, atau tahunan. Tanpa biaya egress. Tanpa komitmen. Saat ini Diskon 50%. semua paket.

1 GB DDR5

Model CPU kecil · 1B–3B

$3.48/bln
$6.95/mo−50%
Deploy sekarang
Garansi uang kembali 14 hari
  • 1 vCPU @ EPYC
  • 25 GB NVMe
  • 1 TB · 40 Gbps
  • IPv4 + IPv6 dedicated
  • Ollama sekali klik
2 GB DDR5

7B / 8B pada CPU

$7.475/bln
$14.95/mo−50%
Deploy sekarang
Garansi uang kembali 14 hari
  • 1 vCPU @ EPYC
  • 60 GB NVMe
  • 3 TB · 40 Gbps
  • IPv4 + IPv6 dedicated
  • Ollama sekali klik

Pertanyaan Umum. Ollama VPS

Pertanyaan umum, jawaban lugas.

Apa itu VPS Ollama?

VPS Ollama adalah server cloud Cloudzy yang disiapkan untuk menjalankan Ollama, runtime LLM lokal. Tarik model sumber terbuka seperti Llama 3, Mistral, Qwen, DeepSeek, atau Gemma; sajikan di belakang API Anda yang kompatibel dengan OpenAI; membangun aplikasi, agen, dan alat obrolan tanpa mengirimkan lalu lintas ke penyedia model pihak ketiga.

Apakah Ollama sudah diinstal sebelumnya?

Ollama tersedia sebagai instalasi sekali klik dari panel. Pilih template Linux, binernya mendarat di PATH Anda, dan `ollama pull llama3` berfungsi dalam satu menit. HTTP API mendengarkan pada port 11434 secara default; ikat ke IP khusus Anda di belakang proxy terbalik.

Bisakah saya menjalankan LLM pada VPS khusus CPU?

Ya, untuk model yang lebih kecil. Llama 3 8B dan Mistral 7B berjalan pada kotak CPU 16 GB, Qwen 0.5B–3B dan Gemma 2B berjalan dengan nyaman pada 4 GB. Throughput bergantung pada ukuran model dan prompt; CPU lebih lambat dari GPU tetapi baik untuk API volume rendah, proyek sampingan, dan pekerjaan pengembangan.

Apakah Anda menawarkan paket GPU untuk model yang lebih besar?

Ya. Untuk model kelas 70B atau inferensi throughput tinggi, lihat paket GPU kami (RTX 4090, RTX 5090, A100). 4090 menangani Llama 3 70B dengan kuantisasi; A100 80GB menjalankan model besar dengan presisi penuh. Ditautkan dari halaman harga.

Apakah API yang kompatibel dengan OpenAI didukung?

Ya. Ollama memperlihatkan titik akhir `/v1/chat/completions` yang kompatibel dengan klien OpenAI. Arahkan aplikasi Anda yang ada ke `http://your-vps:11434/v1` dan ganti nama modelnya. SDK yang sama, tanpa penulisan ulang.

Berapa banyak disk yang dibutuhkan suatu model?

Itu tergantung. Model 7B terkuantisasi 4-bit berukuran sekitar 4 GB. 8B berukuran sekitar 5 GB. 70B pada 4-bit adalah ~40 GB. Tarik sebanyak yang Anda punya ruang. Paket mulai dari NVMe 60 GB hingga 1,5 TB; memadupadankan model dalam satu kotak.

Seberapa cepat provisioning?

Setelah pembayaran dikonfirmasi, VPS Anda aktif dalam 60 detik. Dengan satu klik Ollama terinstal, runtime akan habis dalam satu menit lagi. Penarikan model pertama membutuhkan waktu lebih lama (terikat jaringan) tetapi penarikan model berikutnya disimpan dalam cache di NVMe.

Apakah aku dapat IP dedicated?

Ya, setiap VPS dilengkapi dengan IPv4 statis khusus ditambah IPv6. Jangkau API Ollama melalui IP khusus, tempelkan proxy terbalik Caddy di depan untuk HTTPS pada nama host asli, dan selesai. IP mengambang tersedia.

Apakah ada biaya tersembunyi?

Tidak. Egress sudah termasuk dalam jatah transfer bulanan. Snapshot gratis. IPv4 + IPv6 sudah termasuk. Akses root sudah termasuk. Satu-satunya tambahan berbayar adalah Floating IP ($2,50/bulan) dan snapshot tambahan di luar kuota gratis.

Apakah ada garansi uang kembali?

Ya, 14 hari sejak pembelian, tanpa ditanya, refund penuh. Ajukan dari panel atau email [email protected].

Siap saat Anda siap.
ollama lari, dalam 60 detik.

Pilih wilayah, klik, tarik model. LLM pribadi Anda, IP khusus Anda.

Tanpa kartu kredit · Garansi uang kembali 14 hari · Batal kapan saja