Ollama VPS-hosting
Ollama, forudinstalleret og privat
Din egen Ollama-server, forudinstalleret og privat på Ubuntu 24.04 med OpenWebUI forudinstalleret. Brug de forudinstallerede modeller til at teste hurtigt, hent nye efter behov, og bevar fuld root-kontrol over porte, tjenester og snapshots på NVMe med en forbindelse på op til 40 Gbps.
There’s a reason 121,000+ developers & businesses choose us.
Pengene-tilbage-garanti
Online support
Netværkshastighed
Netværkets oppetid
Pay for what you use. That's it.
Hourly, monthly, or yearly. No egress fees. No surprise bills. No commitments.
- Betal årligt (40 % rabat)
- Betal månedligt (25 rabat)
- Betaling pr. time (20 % rabat)
- Standard
Need more power, GPU, or custom specs?
Build your own serverHvad er Ollama VPS?
Ollama er et letvægts-runtime til at køre store sprogmodeller lokalt med enkle kommandoer og en HTTP API. På Cloudzy leveres det på Ubuntu 24.04 LTS med OpenWebUI forudinstalleret for en ren, browserbaseret chatgrænseflade. Du får fuld root-adgang plus startmodeller som llama3.2 og deepseek r1, så du kan begynde at eksperimentere og tilføje mere med ollama pull. Få adgang til webappen på port 8080 og Ollama API på 11434 for at integrere med værktøjer og kode. Ressourcerne er dimensioneret til privat test eller brug i små teams med dedikerede vCPU'er, DDR5-hukommelse og NVMe-lager på en forbindelse på op til 40 Gbps. Snapshots gør rollbacks sikre, og du kan skalere CPU, RAM eller disk, efterhånden som behovet vokser. Hvis du ønsker en privat AI-tjeneste, som du selv kontrollerer, giver CloudzyOllama VPS Hosting dig en enkel base til at køre chat, embeddings og simple RAG uden at være afhængig af tredjepartsclouds.
-
DDoS-beskyttelse
-
Forskellige betalingsmetoder til rådighed
-
Fuld administratoradgang
-
Forbindelse uden forsinkelse
-
Dallas GPU
En favorit blandt teknologientusiaster!
Kør en klar Ollama-stack med OpenWebUI på NVMe og dedikerede vCPU'er for responsive chats og hurtige modelskift. Et netværk på op til 40 Gbps og generøs båndbredde holder anmodningerne hurtige i det område, du vælger. Med en SLA på 99,99 % oppetid forbliver din private AI tilgængelig.
Højtydende infrastruktur
Servere på en infrastruktur i topklasse sikrer, at dine opgaver behandles problemfrit og til tiden.
Risikofri
Vi tilbyder dig en pengene-tilbage-garanti, så du kan være helt tryg.
Garanteret oppetid
Pålidelig og stabil forbindelse med en garanteret oppetid på 99,99 %.
24/7 omsorgsfuld support
Dit arbejde er vigtigt. Det ved vi, og det betyder noget for os – og det samme gælder vores kundesupport.
Hvorfor vælge CloudzyOllama VPS-hosting?
Frigør fleksibilitetens og ydeevnens potentiale
Klar til lancering
Ubuntu 24.04 LTS med OpenWebUI og Ollama forudinstalleret, plus startmodeller, der kan testes med det samme.
Ydeevne-optimeret
Dedikerede vCPU'er, NVMe og DDR5 hjælper med at holde responstiderne hurtige i spidsbelastningsperioder.
Fuld kontrol
Root-adgang til porte, systemd-tjenester, miljøvariabler og automatisering af første opstart med cloud-init.
Rene mønstre for flere brugere
Brug OpenWebUI-konti, bind API'en, og adskil arbejdet med snapshots og lagring pr. model.
Pålideligt fundament
Hurtig provisionering, statisk IP og en SLA med 99,99 % oppetid til laboratorier, staging eller mindre produktionsbrug.
Hvem er det for?
AI-forskere tester ræsonnementsmodeller
Skift mellem modeller som deepseek-r1 og llama3.2, log resultaterne, og hold eksperimenterne private med fuld root-adgang og snapshots.
Privatlivsfokuserede teams, der håndterer følsomme udkast
Opbevar prompts og output på en dedikeret server med statisk IP, firewallkontrol og regional hosting for datalokalitet.
Produktingeniører Prototyping af AI-funktioner
Kald 11434 API fra tjenester, gentag med OpenWebUI, og tag et øjebliksbillede før hver ændring for at beskytte arbejdsstatus.
ML Ops-grupper, der standardiserer miljøer
Bag cloud-init, indstil serviceenheder og repliker et rent billede på tværs af regioner for forudsigelige udrulninger og hurtige gendannelser.
Undervisere og laboratorieinstruktører
Giv eleverne et ensartet OpenWebUI-frontend med root-adgang til at lære pull, prompts og grundlæggende RAG-øvelser.
Små teams opbygger interne assistenter
Kør privat chat, indlejringer og enkle dokument-spørgsmål og svar med NVMe-lagerplads og dedikerede vCPU'er, som du kan skalere senere.
Hvordan bruges det?
Sådan opsætter du en Ollama VPS
Er du ikke sikker på, hvordan du skal komme i gang? Med CloudzyOllama VPS Hosting får du Ubuntu 24.04 LTS med Ollama og OpenWebUI installeret. SSH som root, gennemgå /rootcloudzy, og bekræft, at tjenesterne er aktive. Åbn http://:8080 for OpenWebUI, og gå til API'en på http://:11434. Træk eller skift modeller efter behov. Hvis du planlægger at få adgang til API'en fra andre værter eller via en proxy, skal du indstille de relevante miljøvariabler og firewall-regler. Trinene nedenfor dækker det grundlæggende.
Cloudzy, gennem vores brugeres ord
Hør, hvordan 121454 %-udviklere integrerer Cloudzy i deres arbejdsgang.
Teknik uden afbrydelser
Cloudzy vores ingeniørteam Cloudzy for at fokusere på innovation i stedet for infrastruktur. Vi bruger deres højtydende servere til at administrere store filer og softwarelicenser, og vi har ikke oplevet tekniske problemer eller nedetid siden første dag.
Holdkaptajn ved UTFR, University of Toronto
Ofte stillede spørgsmål | Ollama VPS
Hvad er Ollama, og hvordan fungerer det?
Ollama er en lokal runtime, der betjener store sprogmodeller gennem enkle kommandoer og en HTTP API. Du kører eller henter modeller og interagerer derefter via endpoints såsom /api/generate eller OpenAI-kompatible /v1/chat/completions.
Har Ollama brug for en GPU køre?
Nej. CPU fungerer, men en kompatibel GPU fremskynde inferens. NVIDIA, AMD ROCm og Apple Silicon understøttes gennem deres respektive stakke.
Hvor meget RAM har Ollama brug for til almindelige modeller?
Som tommelfingerregel har 7B-modellerne brug for ca. 8 GB RAM, 13B ca. 16 GB og 70B ca. 64 GB, når der anvendes typiske kvantiseringer.
Kan Ollama bruges offline?
Ja. Når den første model er downloadet, kan du køre modeller lokalt uden en ekstern tjeneste. API'en leveres som standard fra værten på port 11434.
Hvordan tilføjer eller skifter man modeller i Ollama?
Brug kommandoer som ollama pull til at downloade og ollama run til at starte chatten. Modelsider som llama3.2 og deepseek-r1 viser tags og størrelser.
Hvilken adgang får jeg på Cloudzy VPS?
Du får fuld root-adgang på Ubuntu 24.04 med Ollama og OpenWebUI installeret. OpenWebUI er tilgængelig på port 8080 og Ollama API på 11434 til integrationer på din Ollama VPS.
Hvordan Cloudzy ydeevnen for Ollama VPS Hosting?
Planerne bruger dedikerede vCPU'er, DDR5-hukommelse og NVMe-lagerplads på en forbindelse med op til 40 Gbps for at holde rundrejsetiden lav. Du kan starte CPU og derefter overveje GPU billeder, hvis dine arbejdsbelastninger udvides på Ollama VPS Hosting.
Hvordan får jeg adgang til OpenWebUI og API'en på Cloudzy -serveren?
Besøg http://:8080 for OpenWebUI. Programmatisk adgang bruger http://:11434. Hvis du opretter forbindelse fra andre værter, skal du konfigurere binding og tilladte oprindelser efter behov.
Hvilke sikkerhedsindstillinger er tilgængelige på Cloudzy VPS?
Kontroller SSH-nøgler og firewall-regler, begræns API-eksponering, og placer tjenesten bag din proxy, hvis det er nødvendigt. OpenWebUI understøtter eksterne Ollama-endpoints via miljøkonfiguration.
Kan jeg skalere eller tage et snapshot af min Cloudzy VPS, og hvilken oppetid gælder?
Ja. Skalér CPU, RAM eller disk i takt med projektets vækst, og tag et snapshot før større ændringer. Platformen sigter mod en SLA på 99,99 % oppetid for forudsigelig adgang.
Brug for hjælp? Kontakt vores supportteam.
16 regions. Four continents. One click away.
Put your server next to your users. Anywhere in the world, in under a minute.
0 Gbps Netværkshastighed
0,00 Netværkets oppetid
<0ms Average Latency
0/7 Overvågning