Hosting VPS Ollama
Ollama, Precaricato e Privato
Il tuo server Ollama precaricato e privato su Ubuntu 24.04 con OpenWebUI preinstallato. Utilizza i modelli precaricati per eseguire test rapidi, scarica quelli nuovi secondo necessità e mantieni il controllo root completo su porte, servizi e snapshot su NVMe con un collegamento fino a 40 Gbps.
There’s a reason 121,000+ developers & businesses choose us.
Garanzia di rimborso
Assistenza online
Velocità di rete
Tempo di attività della rete
Pay for what you use. That's it.
Hourly, monthly, or yearly. No egress fees. No surprise bills. No commitments.
- Pagamento annuale (40% di sconto)
- Pagamento mensile (25 di sconto)
- Pagamento orario (20% di sconto)
- Impostazione predefinita
Need more power, GPU, or custom specs?
Build your own serverCos'è Ollama VPS?
Ollama è un runtime leggero per l'esecuzione locale di modelli linguistici di grandi dimensioni con comandi semplici e un'API HTTP. Su Cloudzy, viene fornito su Ubuntu 24.04 LTS con OpenWebUI preinstallato per un'interfaccia di chat pulita e basata su browser. Si ottiene l'accesso root completo più modelli di base come llama3.2 e deepseek r1, in modo da poter iniziare a sperimentare e aggiungere altro con ollama pull. Accedi all'applicazione web sulla porta 8080 e all'API Ollama sulla 11434 per integrarla con strumenti e codice. Le risorse sono dimensionate in modo adeguato per test privati o per l'uso da parte di piccoli team, con vCPU dedicate, memoria DDR5 e storage NVMe su un collegamento fino a 40 Gbps. Le istantanee rendono sicuri i rollback ed è possibile scalare CPU, RAM o disco in base alle esigenze. Se desideri un servizio di IA privato che puoi controllare, l'hosting VPS Ollama Cloudzyti offre una base semplice per eseguire chat, incorporamenti e RAG semplici senza fare affidamento su cloud di terze parti.
-
Protezione DDoS
-
Sono disponibili vari metodi di pagamento
-
Accesso amministrativo completo
-
Connettività senza latenza
-
Posizione GPU di Dallas
Il preferito dagli esperti di tecnologia!
Esegui uno stack Ollama pronto all'uso con OpenWebUI su NVMe e vCPU dedicate per chat reattive e rapidi cambi di modello. Una rete fino a 40 Gbps e una generosa larghezza di banda mantengono le richieste veloci nella regione che scegli. Con uno SLA con uptime del 99,99%, la tua IA privata rimane sempre disponibile.
Infrastruttura ad alte prestazioni
I server, supportati da un'infrastruttura di prim'ordine, garantiscono che il tuo carico di lavoro venga elaborato senza intoppi e nei tempi previsti.
Senza rischi
Ti offriamo una garanzia di rimborso per la tua tranquillità.
Tempo di attività garantito
Connettività affidabile e stabile con un tempo di attività garantito del 99,99%.
Assistenza 24 ore su 24, 7 giorni su 7
Il tuo lavoro è importante. Lo sappiamo e ci sta a cuore, così come al nostro servizio clienti.
Perché scegliere l'hosting VPS Ollama Cloudzy
Sblocca il potere della flessibilità e delle prestazioni
Pronto per il lancio
Ubuntu 24.04 LTS con OpenWebUI e Ollama preinstallati, oltre a modelli base da provare immediatamente.
Ottimizzazione delle prestazioni
Le vCPU dedicate, NVMe e DDR5 aiutano a mantenere rapide le risposte durante le ore di punta.
Controllo completo dello stack
Accesso root per porte, servizi systemd, variabili d'ambiente e automazione del primo avvio con cloud-init.
Modelli multiutente puliti
Utilizza gli account OpenWebUI, associa l'API e separa il lavoro con snapshot e archiviazione per modello.
Fondazione affidabile
Provisioning rapido, IP statico e SLA con uptime del 99,99% per laboratori, staging o piccoli utilizzi produttivi.
A chi è rivolto?
Ricercatori di IA testano modelli di ragionamento
Passa da un modello all'altro, come deepseek-r1 e llama3.2, registra i risultati e mantieni privati gli esperimenti con root completo e snapshot.
Team incentrati sulla privacy che gestiscono bozze sensibili
Conserva i prompt e gli output su un server dedicato con IP statico, controllo firewall e hosting regionale per la localizzazione dei dati.
Ingegneri di prodotto Prototipazione Funzionalità AI
Chiama l'API 11434 dai servizi, esegui iterazioni con OpenWebUI e crea uno snapshot prima di ogni modifica per proteggere gli stati di lavoro.
Gruppi ML Ops che standardizzano gli ambienti
Esegui cloud-init, imposta le unità di servizio e replica un'immagine pulita in tutte le regioni per implementazioni prevedibili e ripristini rapidi.
Docenti e istruttori di laboratorio
Fornisci agli studenti un front-end OpenWebUI coerente con accesso root per imparare a eseguire pull, prompt ed esercizi RAG di base.
Piccoli team che creano assistenti interni
Esegui chat private, incorporamenti e semplici domande e risposte sui documenti con storage NVMe e vCPU dedicate che potrai scalare in un secondo momento.
Come si usa?
Come configurare un VPS Ollama
Non sai da dove iniziare? Con l'hosting VPS Ollama Cloudzy, avrai a disposizione Ubuntu 24.04 LTS con Ollama e OpenWebUI già installati. Accedi come root tramite SSH, controlla /rootcloudzy e verifica che i servizi siano attivi. Apri http://:8080 per OpenWebUI e raggiungi l'API all'indirizzo http://:11434. Estrai o cambia i modelli secondo necessità. Se prevedi di accedere all'API da altri host o tramite un proxy, imposta le variabili di ambiente e le regole del firewall appropriate. I passaggi seguenti coprono le nozioni di base.
Cloudzy, attraverso le parole dei nostri utenti
Scopri come gli sviluppatori 121459 integrano Cloudzy nel loro flusso di lavoro.
Ingegneria senza interruzioni
Cloudzy al nostro team di ingegneri di concentrarsi sull'innovazione, non sull'infrastruttura. Utilizziamo i loro server ad alte prestazioni per gestire file di grandi dimensioni e licenze software e, sin dal primo giorno, non abbiamo riscontrato alcun problema tecnico né tempi di inattività.
Capitano della squadra UTFR, Università di Toronto
Domande frequenti | Ollama VPS
Cos'è Ollama e come funziona?
Ollama è un runtime locale che gestisce modelli linguistici di grandi dimensioni tramite semplici comandi e un'API HTTP. È possibile eseguire o recuperare modelli, quindi interagire tramite endpoint quali /api/generate o /v1/chat/completions compatibile con OpenAI.
Ollama necessita di una GPU funzionare?
No. CPU funziona, ma una GPU compatibile GPU accelerare l'inferenza. NVIDIA, AMD ROCm e Apple Silicon sono supportati attraverso i rispettivi stack.
Quanta RAM serve a Ollama per i modelli più comuni?
Come regola generale, i modelli 7B tendono a richiedere circa 8 GB di RAM, quelli 13B circa 16 GB e quelli 70B circa 64 GB quando si utilizzano quantizzazioni tipiche.
Ollama è utilizzabile offline?
Sì. Dopo aver scaricato il modello iniziale, è possibile eseguire i modelli localmente senza un servizio esterno. L'API è fornita dall'host sulla porta 11434 per impostazione predefinita.
Come si aggiungono o si cambiano i modelli in Ollama?
Utilizza comandi come ollama pull per scaricare e ollama run per avviare la chat. Le pagine dei modelli come llama3.2 e deepseek-r1 elencano tag e dimensioni.
Quali sono i diritti di accesso che ottengo su Cloudzy VPS?
Riceverai i diritti di root completi su Ubuntu 24.04 con Ollama e OpenWebUI installati. OpenWebUI è disponibile sulla porta 8080 e l'API Ollama sulla porta 11434 per le integrazioni sul tuo VPS Ollama.
Come Cloudzy le prestazioni per l'hosting VPS Ollama?
I piani utilizzano vCPU dedicate, memoria DDR5 e storage NVMe su un collegamento fino a 40 Gbps per mantenere bassi i tempi di andata e ritorno. È possibile iniziare CPU, quindi prendere in considerazione immagini GPU se i carichi di lavoro si espandono su Ollama VPS Hosting.
Come posso accedere a OpenWebUI e all'API sul server Cloudzy ?
Visita http://:8080 per OpenWebUI. L'accesso programmatico utilizza http://:11434. Se ti connetti da altri host, configura il binding e le origini consentite secondo necessità.
Quali opzioni di sicurezza sono disponibili su Cloudzy VPS?
Controlla le chiavi SSH e le regole del firewall, limita l'esposizione delle API e, se necessario, colloca il servizio dietro il tuo proxy. OpenWebUI supporta gli endpoint Ollama remoti tramite la configurazione dell'ambiente.
Posso scalare o creare uno snapshot del mio VPS Cloudzy e qual è il tempo di attività applicabile?
Sì. Scala CPU, RAM o disco man mano che i progetti crescono ed esegui snapshot prima di apportare modifiche importanti. La piattaforma punta a un SLA con uptime del 99,99% per un accesso prevedibile.
Hai bisogno di aiuto? Contatta il nostro team di assistenza.
16 regions. Four continents. One click away.
Put your server next to your users. Anywhere in the world, in under a minute.
0 Gbps Velocità di rete
0,00% Tempo di attività della rete
<0ms Average Latency
0/7 Monitoraggio