Hospedagem VPS Ollama
Ollama, pré-carregado e privado
O seu próprio servidor Ollama pré-carregado e privado no Ubuntu 24.04 com OpenWebUI pré-instalado. Use os modelos pré-carregados para testar rapidamente, baixe novos conforme necessário e mantenha controle root total sobre portas, serviços e instantâneos no NVMe com um link de até 40 Gbps.
There’s a reason 121,000+ developers & businesses choose us.
Garantia de reembolso
Suporte online
Velocidade da rede
Tempo de atividade da rede
Preços transparentes. Sem taxas ocultas
Há (definitivamente mais do que) uma razão para mais de 0 desenvolvedores e empresas nos escolherem.
- Anualmente (40% de desconto)
- Mensal (desconto de 25%)
- Por hora (20% de desconto)
- Padrão
Precisa de algo diferente?
Personalize o seu planoO que é o Ollama VPS?
O Ollama é um runtime leve para executar grandes modelos de linguagem localmente com comandos simples e uma API HTTP. No Cloudzy, ele é fornecido no Ubuntu 24.04 LTS com o OpenWebUI pré-instalado para uma interface de chat limpa e baseada no navegador. Você obtém acesso root completo, além de modelos iniciais, como llama3.2 e deepseek r1, para que possa começar a experimentar e adicionar mais com o ollama pull. Aceda à aplicação web na porta 8080 e à API Ollama na 11434 para integrar com ferramentas e código. Os recursos têm o tamanho certo para testes privados ou uso em pequenas equipas, com vCPUs dedicadas, memória DDR5 e armazenamento NVMe em um link de até 40 Gbps. Os instantâneos tornam as reversões seguras e pode dimensionar CPU, a RAM ou o disco à medida que as necessidades crescem. Se deseja um serviço de IA privado que possa controlar, o Ollama VPS Hosting Cloudzyoferece uma base simples para executar chat, embeddings e RAG simples sem depender de nuvens de terceiros.
-
Proteção contra DDoS
-
Vários métodos de pagamento disponíveis
-
Acesso administrativo total
-
Conectividade sem latência
-
Localização GPU em Dallas
Um favorito dos entusiastas da tecnologia!
Execute uma pilha Ollama pronta com OpenWebUI em NVMe e vCPUs dedicadas para chats responsivos e trocas rápidas de modelos. Uma rede de até 40 Gbps e largura de banda generosa mantêm as solicitações rápidas na região que escolher. Com um SLA de 99,99% de tempo de atividade, a sua IA privada permanece disponível.
Infraestrutura de alta especificação
Os servidores, instalados numa infraestrutura de ponta, garantem que a sua carga de trabalho seja processada sem problemas e dentro do prazo.
Sem riscos
Oferecemos uma garantia de devolução do dinheiro para que fique tranquilo.
Tempo de atividade garantido
Conectividade fiável e estável com a nossa garantia de 99,99% de tempo de atividade.
Suporte atencioso 24 horas por dia, 7 dias por semana
O seu trabalho é importante. Sabemos disso e preocupamo-nos com isso, assim como o nosso apoio ao cliente.
Porquê escolher a hospedagem VPS Ollama Cloudzy?
Descubra o poder da flexibilidade e do desempenho
Pronto para o lançamento
Ubuntu 24.04 LTS com OpenWebUI e Ollama pré-instalados, além de modelos iniciais para testar imediatamente.
Otimizado para desempenho
vCPUs dedicadas, NVMe e DDR5 ajudam a manter respostas rápidas durante os horários de pico.
Controlo total
Acesso root para portas, serviços systemd, variáveis de ambiente e automação da primeira inicialização com cloud-init.
Padrões limpos para múltiplos utilizadores
Use contas OpenWebUI, vincule a API e separe o trabalho com instantâneos e armazenamento por modelo.
Fundação confiável
Provisionamento rápido, IP estático e um SLA com 99,99% de tempo de atividade para laboratórios, testes ou pequenas utilizações de produção.
Para quem é?
Pesquisadores de IA testam modelos de raciocínio
Alterne entre modelos como deepseek-r1 e llama3.2, registre os resultados e mantenha as experiências privadas com root completo e instantâneos.
Equipas focadas na privacidade que lidam com rascunhos confidenciais
Mantenha os prompts e os resultados num servidor dedicado com IP estático, controlo de firewall e alojamento regional para localização de dados.
Engenheiros de produto Prototipagem de funcionalidades de IA
Chame a API 11434 a partir dos serviços, itere com o OpenWebUI e faça um snapshot antes de cada alteração para proteger os estados de funcionamento.
Grupos de operações de ML padronizando ambientes
Crie o cloud-init, defina unidades de serviço e replique uma imagem limpa em todas as regiões para implementações previsíveis e restaurações rápidas.
Educadores e instrutores de laboratório
Ofereça aos alunos uma interface OpenWebUI consistente com acesso root para aprender a fazer pull requests, prompts e exercícios básicos de RAG.
Pequenas equipas a criar assistentes internos
Execute conversas privadas, incorporações e perguntas e respostas simples sobre documentos com armazenamento NVMe e vCPUs dedicadas que você pode dimensionar posteriormente.
Como usar?
Como configurar um VPS Ollama
Não sabe por onde começar? Com a hospedagem VPS Ollama Cloudzy, você acessa o Ubuntu 24.04 LTS com o Ollama e o OpenWebUI instalados. SSH como root, revise /rootcloudzy e confirme se os serviços estão ativos. Abra http://:8080 para o OpenWebUI e acesse a API em http://:11434. Puxe ou alterne modelos conforme necessário. Se pretender aceder à API a partir de outros hosts ou através de um proxy, defina as variáveis de ambiente e regras de firewall apropriadas. Os passos abaixo cobrem o básico.
Cloudzy, através das palavras dos nossos utilizadores
Descubra como os programadores 121218 integram Cloudzy seu fluxo de trabalho.
Engenharia sem interrupções
Cloudzy a nossa equipa de engenharia se concentre na inovação, e não na infraestrutura. Utilizamos os seus servidores de alto desempenho para gerir ficheiros grandes e licenças de software, e não tivemos nenhum problema técnico ou tempo de inatividade desde o primeiro dia.
Capitão da equipa da UTFR, Universidade de Toronto
Perguntas frequentes | Ollama VPS
O que é o Ollama e como funciona?
O Ollama é um ambiente de execução local que serve grandes modelos de linguagem por meio de comandos simples e uma API HTTP. Você executa ou extrai modelos e, em seguida, interage por meio de pontos finais, como /api/generate ou /v1/chat/completions compatível com OpenAI.
O Ollama precisa de uma GPU funcionar?
Não. CPU funciona CPU, mas uma GPU compatível GPU acelerar a inferência. NVIDIA, AMD ROCm e Apple Silicon são suportados através das suas respetivas pilhas.
Quanta memória RAM o Ollama precisa para modelos comuns?
Como regra geral, os modelos 7B tendem a precisar de cerca de 8 GB de RAM, os 13B de cerca de 16 GB e os 70B de cerca de 64 GB quando se utilizam quantizações típicas.
O Ollama pode ser usado offline?
Sim. Após o download inicial dos modelos, pode executá-los localmente sem um serviço externo. A API é servida a partir do host na porta 11434 por predefinição.
Como adicionar ou alternar modelos no Ollama?
Use comandos como ollama pull para fazer o download e ollama run para iniciar o chat. Páginas de modelos como llama3.2 e deepseek-r1 listam tags e tamanhos.
Que tipo de acesso tenho no Cloudzy VPS?
Receberá acesso root completo no Ubuntu 24.04 com o Ollama e o OpenWebUI instalados. O OpenWebUI está disponível na porta 8080 e a API do Ollama na porta 11434 para integrações no seu VPS Ollama.
Como é que Cloudzy o desempenho do Ollama VPS Hosting?
Os planos utilizam vCPUs dedicadas, memória DDR5 e armazenamento NVMe numa ligação de até 40 Gbps para manter o tempo de ida e volta baixo. Pode começar CPU e, em seguida, considerar imagens GPU se as suas cargas de trabalho se expandirem na hospedagem VPS Ollama.
Como posso aceder ao OpenWebUI e à API no servidor Cloudzy ?
Visite http://:8080 para o OpenWebUI. O acesso programático utiliza http://:11434. Se estiver a ligar a partir de outros hosts, configure a ligação e as origens permitidas conforme necessário.
Quais opções de segurança estão disponíveis no Cloudzy VPS?
Controle as chaves SSH e as regras de firewall, restrinja a exposição da API e coloque o serviço atrás do seu proxy, se necessário. O OpenWebUI suporta pontos finais Ollama remotos através da configuração do ambiente.
Posso dimensionar ou criar um instantâneo do meu VPS Cloudzy e qual é o tempo de atividade aplicável?
Sim. Escale CPU, a RAM ou o disco à medida que os projetos crescem e faça snapshots antes de grandes alterações. A plataforma tem como meta um SLA de 99,99% de tempo de atividade para acesso previsível.
Precisa de ajuda? Entre em contacto com a nossa equipa de suporte.
Mais de 16 locais. Porque cada milésimo de segundo é importante
Implemente o seu VPS mais perto dos utilizadores para obter um desempenho ideal.
0 Gbps Velocidade da rede
0,00% Tempo de atividade da rede
<0ms Average Latency
0/7 Monitorização