Ollama VPS-hosting
Ollama, vooraf geladen en privé
Uw eigen Ollama-server vooraf geïnstalleerd en privé op Ubuntu 24.04 met OpenWebUI vooraf geïnstalleerd. Gebruik de vooraf geïnstalleerde modellen om snel te testen, haal indien nodig nieuwe modellen op en behoud volledige root-controle voor poorten, services en snapshots op NVMe met een link tot 40 Gbps.
There’s a reason 121,000+ developers & businesses choose us.
Geld-terug-garantie
Online ondersteuning
Netwerksnelheid
Netwerkbeschikbaarheid
Pay for what you use. That's it.
Hourly, monthly, or yearly. No egress fees. No surprise bills. No commitments.
- Jaarlijks betalen (40% KORTING)
- Maandelijks betalen (25 KORTING)
- Uurloon (20% KORTING)
- Standaard
Need more power, GPU, or custom specs?
Build your own serverWat is Ollama VPS?
Ollama is een lichtgewicht runtime voor het lokaal uitvoeren van grote taalmodellen met eenvoudige commando's en een HTTP API. Op Cloudzy wordt het geleverd op Ubuntu 24.04 LTS met OpenWebUI vooraf geïnstalleerd voor een schone, browsergebaseerde chatinterface. Je krijgt volledige root-toegang plus startersmodellen zoals llama3.2 en deepseek r1, zodat je kunt beginnen met experimenteren en meer kunt toevoegen met ollama pull. Open de webapp op poort 8080 en de Ollama API op 11434 om te integreren met tools en code. De resources zijn precies op maat voor privétesten of gebruik door kleine teams, met dedicated vCPU's, DDR5-geheugen en NVMe-opslag op een link van maximaal 40 Gbps. Snapshots maken rollbacks veilig en u kunt CPU, RAM of schijfruimte opschalen naarmate de behoeften toenemen. Als u een privé AI-service wilt die u zelf beheert, biedt CloudzyOllama VPS Hosting u een eenvoudige basis om chat, embeddings en eenvoudige RAG uit te voeren zonder afhankelijk te zijn van clouds van derden.
-
DDoS-bescherming
-
Verschillende betaalmethoden beschikbaar
-
Volledige beheerdersrechten
-
Latency-vrije connectiviteit
-
Locatie van GPU in Dallas
Een favoriet onder techneuten!
Voer een kant-en-klare Ollama-stack uit met OpenWebUI op NVMe en speciale vCPU's voor responsieve chats en snelle modelwisselingen. Een netwerk met een snelheid tot 40 Gbps en royale bandbreedte zorgen ervoor dat verzoeken in de door u gekozen regio snel worden verwerkt. Met een SLA van 99,99% uptime blijft uw privé-AI beschikbaar.
Hoogwaardige infrastructuur
Servers op een infrastructuur van topkwaliteit zorgen ervoor dat uw taken soepel en op tijd worden verwerkt.
Risicovrij
Wij bieden u een geld-terug-garantie, zodat u zich geen zorgen hoeft te maken.
Gegarandeerde uptime
Betrouwbare en stabiele verbinding met een gegarandeerde uptime van 99,99%.
24/7 zorgzame ondersteuning
Uw werk is belangrijk. Dat weten we en dat vinden we belangrijk – en dat geldt ook voor onze klantenservice.
Waarom kiezen voor CloudzyOllama VPS-hosting?
Ontgrendel de kracht van flexibiliteit en prestaties
Klaar voor lancering
Ubuntu 24.04 LTS met OpenWebUI en Ollama vooraf geïnstalleerd, plus startersmodellen om meteen te testen.
Prestatiegericht
Speciale vCPU's, NVMe en DDR5 zorgen ervoor dat reacties tijdens piekuren snel blijven.
Volledige stackcontrole
Root-toegang voor poorten, systemd-services, omgevingsvariabelen en automatisering bij eerste opstart met cloud-init.
Schone patronen voor meerdere gebruikers
Gebruik OpenWebUI-accounts, koppel de API en werk gescheiden met snapshots en opslag per model.
Betrouwbare basis
Snelle provisioning, statisch IP-adres en een SLA met een uptime van 99,99% voor labs, staging of kleinschalig productiegebruik.
Voor wie is het bedoeld?
AI-onderzoekers testen redeneringsmodellen
Schakel tussen modellen zoals deepseek-r1 en llama3.2, log resultaten en houd experimenten privé met volledige root en snapshots.
Privacygerichte teams die gevoelige concepten behandelen
Bewaar prompts en outputs op een speciale server met statisch IP-adres, firewallcontrole en regionale hosting voor datalocaliteit.
Productingenieurs Prototyping AI-functies
Roep de 11434 API aan vanuit services, herhaal met OpenWebUI en maak een snapshot vóór elke wijziging om de werkstatus te beschermen.
ML Ops-groepen die omgevingen standaardiseren
Bake cloud-init, stel service-eenheden in en repliceer een schone image in verschillende regio's voor voorspelbare implementaties en snelle herstelbewerkingen.
Docenten en laboratoriuminstructeurs
Geef studenten een consistente OpenWebUI-frontend met root-toegang voor het leren van pulls, prompts en basis RAG-oefeningen.
Kleine teams die interne assistenten opleiden
Voer privéchat, embeddings en eenvoudige document-Q&A uit met NVMe-opslag en speciale vCPU's die u later kunt schalen.
Hoe te gebruiken?
Hoe een Ollama VPS instellen
Weet u niet zeker hoe u moet beginnen? Met CloudzyOllama VPS Hosting komt u terecht op Ubuntu 24.04 LTS met Ollama en OpenWebUI geïnstalleerd. SSH als root, bekijk /rootcloudzy en controleer of de services actief zijn. Open http://:8080 voor OpenWebUI en ga naar de API op http://:11434. Pull of wissel modellen naar behoefte. Als u van plan bent om de API vanaf andere hosts of via een proxy te benaderen, stel dan de juiste omgevingsvariabelen en firewallregels in. De onderstaande stappen behandelen de basisprincipes.
Cloudzy, door de woorden van onze gebruikers
Ontdek hoe 121457 %-ontwikkelaars Cloudzy in hun workflow integreren.
Techniek zonder onderbrekingen
Cloudzy ons engineeringteam zich richten op innovatie in plaats van op infrastructuur. We gebruiken hun krachtige servers om grote bestanden en softwarelicenties te beheren en hebben sinds dag één geen technische problemen of downtime gehad.
Teamcaptain bij UTFR, Universiteit van Toronto
Veelgestelde vragen | Ollama VPS
Wat is Ollama en hoe werkt het?
Ollama is een lokale runtime die grote taalmodellen bedient via eenvoudige commando's en een HTTP API. Je voert modellen uit of haalt ze op, en communiceert vervolgens via eindpunten zoals /api/generate of OpenAI-compatibele /v1/chat/completions.
Heeft Ollama een GPU nodig GPU te werken?
Nee. CPU werkt, maar een compatibele GPU de inferentie versnellen. NVIDIA, AMD ROCm en Apple Silicon worden ondersteund via hun respectievelijke stacks.
Hoeveel RAM heeft Ollama nodig voor gangbare modellen?
Als vuistregel geldt dat 7B-modellen bij gebruik van standaardkwantiseringen doorgaans ongeveer 8 GB RAM nodig hebben, 13B-modellen ongeveer 16 GB en 70B-modellen ongeveer 64 GB.
Is Ollama offline te gebruiken?
Ja. Nadat het eerste model is gedownload, kunt u modellen lokaal uitvoeren zonder externe service. De API wordt standaard aangeboden vanaf de host op poort 11434.
Hoe voeg je modellen toe of wissel je van model in Ollama?
Gebruik commando's zoals ollama pull om te downloaden en ollama run om te beginnen met chatten. Modelpagina's zoals llama3.2 en deepseek-r1 geven een overzicht van tags en formaten.
Welke toegang krijg ik op Cloudzy VPS?
Je krijgt volledige root-toegang op Ubuntu 24.04 met Ollama en OpenWebUI geïnstalleerd. OpenWebUI is beschikbaar op poort 8080 en de Ollama API op 11434 voor integraties op je Ollama VPS.
Hoe gaat Cloudzy de prestaties van Ollama VPS Hosting?
Plannen maken gebruik van speciale vCPU's, DDR5-geheugen en NVMe-opslag op een verbinding van maximaal 40 Gbps om de round-trip-tijd laag te houden. U kunt beginnen CPU en vervolgens GPU images overwegen als uw workloads op Ollama VPS Hosting uitbreiden.
Hoe bereik ik OpenWebUI en de API op de Cloudzy -server?
Ga naar http://:8080 voor OpenWebUI. Programmatische toegang maakt gebruik van http://:11434. Als u verbinding maakt vanaf andere hosts, configureer dan de binding en toegestane oorsprongen zoals nodig.
Welke beveiligingsopties zijn beschikbaar op Cloudzy VPS?
Beheer SSH-sleutels en firewallregels, beperk API-blootstelling en plaats de service indien nodig achter uw proxy. OpenWebUI ondersteunt externe Ollama-eindpunten via omgevingsconfiguratie.
Kan ik mijn Cloudzy VPS schalen of een snapshot maken en welke uptime geldt er?
Ja. Schaal CPU, RAM of schijfruimte naarmate projecten groeien en maak een snapshot voordat u grote wijzigingen doorvoert. Het platform streeft naar een SLA van 99,99% uptime voor voorspelbare toegang.
Hulp nodig? Neem contact op met ons ondersteuningsteam.
16 regions. Four continents. One click away.
Put your server next to your users. Anywhere in the world, in under a minute.
0 Gbps Netwerksnelheid
0,00% Netwerk-uptime
<0ms Average Latency
0/7 Monitoring