Ollama VPS-hosting

Ollama VPS-hosting

Ollama, vooraf geladen en privé

Uw eigen Ollama-server vooraf geïnstalleerd en privé op Ubuntu 24.04 met OpenWebUI vooraf geïnstalleerd. Gebruik de vooraf geïnstalleerde modellen om snel te testen, haal indien nodig nieuwe modellen op en behoud volledige root-controle voor poorten, services en snapshots op NVMe met een link tot 40 Gbps.

Uitstekend
TrustPilot-sterren
Meer dan 500 beoordelingen op

There’s a reason 121,000+ developers & businesses choose us.

100% DDoS-bescherming
0 dagen

Geld-terug-garantie

24/7 ondersteuning
0/0

Online ondersteuning

Netwerksnelheid
0 Gbps

Netwerksnelheid

Netwerkbeschikbaarheid
0%

Netwerkbeschikbaarheid

PRIJZEN

Pay for what you use. That's it.

Hourly, monthly, or yearly. No egress fees. No surprise bills. No commitments.

  • Jaarlijks betalen (40% KORTING)
  • Maandelijks betalen (25 KORTING)
  • Uurloon (20% KORTING)
  • Standaard
Ollama VPS

Wat is Ollama VPS?

Ollama is een lichtgewicht runtime voor het lokaal uitvoeren van grote taalmodellen met eenvoudige commando's en een HTTP API. Op Cloudzy wordt het geleverd op Ubuntu 24.04 LTS met OpenWebUI vooraf geïnstalleerd voor een schone, browsergebaseerde chatinterface. Je krijgt volledige root-toegang plus startersmodellen zoals llama3.2 en deepseek r1, zodat je kunt beginnen met experimenteren en meer kunt toevoegen met ollama pull. Open de webapp op poort 8080 en de Ollama API op 11434 om te integreren met tools en code. De resources zijn precies op maat voor privétesten of gebruik door kleine teams, met dedicated vCPU's, DDR5-geheugen en NVMe-opslag op een link van maximaal 40 Gbps. Snapshots maken rollbacks veilig en u kunt CPU, RAM of schijfruimte opschalen naarmate de behoeften toenemen. Als u een privé AI-service wilt die u zelf beheert, biedt CloudzyOllama VPS Hosting u een eenvoudige basis om chat, embeddings en eenvoudige RAG uit te voeren zonder afhankelijk te zijn van clouds van derden.

Ollama VPS
Ollama VPS-functies
  • controleer
    DDoS-bescherming
  • controleer
    Verschillende betaalmethoden beschikbaar
  • controleer
    Volledige beheerdersrechten
  • controleer
    Latency-vrije connectiviteit
  • controleer
    Locatie van GPU in Dallas
server
Actieve VPS 0
schild
0 Geld-terug-garantie
Ollama VPS

Waarom kiezen voor CloudzyOllama VPS-hosting?

Ontgrendel de kracht van flexibiliteit en prestaties

Klaar voor lancering

Ubuntu 24.04 LTS met OpenWebUI en Ollama vooraf geïnstalleerd, plus startersmodellen om meteen te testen.

vervaging

Prestatiegericht

Speciale vCPU's, NVMe en DDR5 zorgen ervoor dat reacties tijdens piekuren snel blijven.

vervaging

Volledige stackcontrole

Root-toegang voor poorten, systemd-services, omgevingsvariabelen en automatisering bij eerste opstart met cloud-init.

vervaging

Schone patronen voor meerdere gebruikers

Gebruik OpenWebUI-accounts, koppel de API en werk gescheiden met snapshots en opslag per model.

vervaging

Betrouwbare basis

Snelle provisioning, statisch IP-adres en een SLA met een uptime van 99,99% voor labs, staging of kleinschalig productiegebruik.

vervaging
Cloudzy Ollama VPS-gebruiksscenario's

Voor wie is het bedoeld?

 

AI-onderzoekers testen redeneringsmodellen

Schakel tussen modellen zoals deepseek-r1 en llama3.2, log resultaten en houd experimenten privé met volledige root en snapshots.

Nu implementeren
 

Privacygerichte teams die gevoelige concepten behandelen

Bewaar prompts en outputs op een speciale server met statisch IP-adres, firewallcontrole en regionale hosting voor datalocaliteit.

Nu implementeren
 

Productingenieurs Prototyping AI-functies

Roep de 11434 API aan vanuit services, herhaal met OpenWebUI en maak een snapshot vóór elke wijziging om de werkstatus te beschermen.

Nu implementeren
 

ML Ops-groepen die omgevingen standaardiseren

Bake cloud-init, stel service-eenheden in en repliceer een schone image in verschillende regio's voor voorspelbare implementaties en snelle herstelbewerkingen.

Nu implementeren
 

Docenten en laboratoriuminstructeurs

Geef studenten een consistente OpenWebUI-frontend met root-toegang voor het leren van pulls, prompts en basis RAG-oefeningen.

Nu implementeren
 

Kleine teams die interne assistenten opleiden

Voer privéchat, embeddings en eenvoudige document-Q&A uit met NVMe-opslag en speciale vCPU's die u later kunt schalen.

Nu implementeren

Hoe te gebruiken?

Hoe een Ollama VPS instellen

Weet u niet zeker hoe u moet beginnen? Met CloudzyOllama VPS Hosting komt u terecht op Ubuntu 24.04 LTS met Ollama en OpenWebUI geïnstalleerd. SSH als root, bekijk /rootcloudzy en controleer of de services actief zijn. Open http://:8080 voor OpenWebUI en ga naar de API op http://:11434. Pull of wissel modellen naar behoefte. Als u van plan bent om de API vanaf andere hosts of via een proxy te benaderen, stel dan de juiste omgevingsvariabelen en firewallregels in. De onderstaande stappen behandelen de basisprincipes.

Donkere, gestippelde achtergrond met een groot wit Ollama-logo in het midden; daarboven het woord 'PULL' en een pijl naar beneden, wat suggereert dat je een afbeelding of model moet trekken.
Getuigenis

Cloudzy, door de woorden van onze gebruikers

Ontdek hoe 121457 %-ontwikkelaars Cloudzy in hun workflow integreren.

Techniek zonder onderbrekingen

Cloudzy ons engineeringteam zich richten op innovatie in plaats van op infrastructuur. We gebruiken hun krachtige servers om grote bestanden en softwarelicenties te beheren en hebben sinds dag één geen technische problemen of downtime gehad.

Eric
Eric

Teamcaptain bij UTFR, Universiteit van Toronto

Veelgestelde vragen

Veelgestelde vragen | Ollama VPS

Wat is Ollama en hoe werkt het?

Ollama is een lokale runtime die grote taalmodellen bedient via eenvoudige commando's en een HTTP API. Je voert modellen uit of haalt ze op, en communiceert vervolgens via eindpunten zoals /api/generate of OpenAI-compatibele /v1/chat/completions.

Heeft Ollama een GPU nodig GPU te werken?

Nee. CPU werkt, maar een compatibele GPU de inferentie versnellen. NVIDIA, AMD ROCm en Apple Silicon worden ondersteund via hun respectievelijke stacks.

Hoeveel RAM heeft Ollama nodig voor gangbare modellen?

Als vuistregel geldt dat 7B-modellen bij gebruik van standaardkwantiseringen doorgaans ongeveer 8 GB RAM nodig hebben, 13B-modellen ongeveer 16 GB en 70B-modellen ongeveer 64 GB.

Is Ollama offline te gebruiken?

Ja. Nadat het eerste model is gedownload, kunt u modellen lokaal uitvoeren zonder externe service. De API wordt standaard aangeboden vanaf de host op poort 11434.

Hoe voeg je modellen toe of wissel je van model in Ollama?

Gebruik commando's zoals ollama pull om te downloaden en ollama run om te beginnen met chatten. Modelpagina's zoals llama3.2 en deepseek-r1 geven een overzicht van tags en formaten.

Welke toegang krijg ik op Cloudzy VPS?

Je krijgt volledige root-toegang op Ubuntu 24.04 met Ollama en OpenWebUI geïnstalleerd. OpenWebUI is beschikbaar op poort 8080 en de Ollama API op 11434 voor integraties op je Ollama VPS.

Hoe gaat Cloudzy de prestaties van Ollama VPS Hosting?

Plannen maken gebruik van speciale vCPU's, DDR5-geheugen en NVMe-opslag op een verbinding van maximaal 40 Gbps om de round-trip-tijd laag te houden. U kunt beginnen CPU en vervolgens GPU images overwegen als uw workloads op Ollama VPS Hosting uitbreiden.

Hoe bereik ik OpenWebUI en de API op de Cloudzy -server?

Ga naar http://:8080 voor OpenWebUI. Programmatische toegang maakt gebruik van http://:11434. Als u verbinding maakt vanaf andere hosts, configureer dan de binding en toegestane oorsprongen zoals nodig.

Welke beveiligingsopties zijn beschikbaar op Cloudzy VPS?

Beheer SSH-sleutels en firewallregels, beperk API-blootstelling en plaats de service indien nodig achter uw proxy. OpenWebUI ondersteunt externe Ollama-eindpunten via omgevingsconfiguratie.

Kan ik mijn Cloudzy VPS schalen of een snapshot maken en welke uptime geldt er?

Ja. Schaal CPU, RAM of schijfruimte naarmate projecten groeien en maak een snapshot voordat u grote wijzigingen doorvoert. Het platform streeft naar een SLA van 99,99% uptime voor voorspelbare toegang.

Heb je nog vragen?

Hulp nodig? Neem contact op met ons ondersteuningsteam.

ticket Een ticket indienen

16 regions. Four continents. One click away.

Put your server next to your users. Anywhere in the world, in under a minute.

Utah
Utah Verenigde Staten
New York
New York Verenigde Staten
Dallas
Dallas Verenigde Staten
Miami
Miami Verenigde Staten
Las Vegas
Las Vegas Verenigde Staten
Los Angeles
Los Angeles Verenigde Staten
Londen
Londen Verenigd Koninkrijk
Amsterdam
Amsterdam Nederland
Frankfurt
Frankfurt Duitsland
Zwitserland
Zwitserland Zwitserland
Roemenië
Roemenië Roemenië
Binnenkort beschikbaar
Singapore
Singapore Singapore
Dubai
Dubai Verenigde Arabische Emiraten
Maleisië
Maleisië Maleisië
Binnenkort beschikbaar
Tokio
Tokio Japan
Binnenkort beschikbaar
Sydney
Sydney Australië
netwerksnelheid

0 Gbps Netwerksnelheid

Netwerkbeschikbaarheid

0,00% Netwerk-uptime

Gemiddelde latentie

<0ms Average Latency

Monitoring

0/7 Monitoring

Wereldkaart Globe Globe Globe Globe Globe Globe Globe
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Roemenië Roemenië
Binnenkort beschikbaar
 
 
 
 
 
 
 
 
Dubai Dubai
 
 
 
 
Maleisië Maleisië
Binnenkort beschikbaar
 
 
 
 
Tokio Tokio
Binnenkort beschikbaar
 
 
 
 
Sydney Sydney
 
 
 
 
Klaar om uw cloudtraject van A tot ZY te beginnen? Begin zonder risico met onze basisabonnementen en profiteer van onze 14 dagen geld-terug-garantie.
wolk