Hosting VPS Ollama
Ollama, Preloaded i Private
Twój własny serwer Ollama z preinstalowanym oprogramowaniem OpenWebUI, działający w systemie Ubuntu 24.04. Skorzystaj z preinstalowanych modeli, aby szybko przeprowadzić testy, pobieraj nowe w razie potrzeby i zachowaj pełną kontrolę nad portami, usługami i migawkami na NVMe dzięki łączu o przepustowości do 40 Gb/s.
There’s a reason 121,000+ developers & businesses choose us.
Gwarancja zwrotu pieniędzy
Wsparcie online
Szybkość sieci
Czas działania sieci
Przejrzyste ceny. Bez ukrytych opłat
Istnieje (zdecydowanie więcej niż) jeden powód, dla którego ponad 0 programistów i firm wybiera właśnie nas.
- Rocznie (40% zniżki)
- Miesięcznie (25% zniżki)
- Co godzinę (20% zniżki)
- Domyślnie
Potrzebujesz czegoś innego?
Dostosuj swój planCzym jest Ollama VPS?
Ollama to lekki środowisko uruchomieniowe do lokalnego uruchamiania dużych modeli językowych za pomocą prostych poleceń i interfejsu API HTTP. W Cloudzy jest dostarczane na systemie Ubuntu 24.04 LTS z preinstalowanym OpenWebUI, zapewniającym przejrzysty interfejs czatu oparty na przeglądarce. Otrzymujesz pełny dostęp root oraz modele startowe, takie jak llama3.2 i deepseek r1, dzięki czemu możesz rozpocząć eksperymenty i dodawać kolejne modele za pomocą ollama pull. Aby zintegrować się z narzędziami i kodem, należy uzyskać dostęp do aplikacji internetowej na porcie 8080 i interfejsu API Ollama na porcie 11434. Zasoby są odpowiednio dostosowane do prywatnych testów lub użytku przez małe zespoły, z dedykowanymi procesorami vCPU, pamięcią DDR5 i pamięcią masową NVMe na łączu o przepustowości do 40 Gb/s. Migawki zapewniają bezpieczeństwo przywracania, a wraz ze wzrostem potrzeb można skalować CPU, pamięć RAM lub dysk. Jeśli chcesz mieć prywatną usługę AI, którą sam kontrolujesz, hosting VPS Ollama Cloudzyzapewnia prostą podstawę do uruchamiania czatu, osadzania i prostego RAG bez konieczności polegania na chmurach innych firm.
-
Ochrona przed atakami DDoS
-
Dostępne różne metody płatności
-
Pełny dostęp administratora
-
Łączność bez opóźnień
-
Lokalizacja GPU w Dallas
Ulubiony produkt miłośników technologii!
Uruchom gotowy stos Ollama z OpenWebUI na NVMe i dedykowanych procesorach vCPU, aby zapewnić responsywne czaty i szybką zmianę modeli. Sieć o przepustowości do 40 Gb/s i duża przepustowość zapewniają szybką obsługę żądań w wybranym regionie. Dzięki umowie SLA gwarantującej dostępność na poziomie 99,99% Twoja prywatna sztuczna inteligencja pozostaje zawsze dostępna.
Infrastruktura o wysokich parametrach
Serwery oparte na infrastrukturze najwyższej klasy gwarantują płynną i terminową obsługę Twoich zadań.
Bez ryzyka
Oferujemy gwarancję zwrotu pieniędzy, abyś mógł czuć się spokojny.
Gwarantowany czas działania
Niezawodna i stabilna łączność dzięki gwarantowanej dostępności na poziomie 99,99%.
Całodobowa pomoc techniczna
Twoja praca jest ważna. Wiemy o tym i dbamy o nią – podobnie jak nasz dział obsługi klienta.
Dlaczego warto wybrać hosting VPS Ollama Cloudzy?
Odkryj potęgę elastyczności i wydajności
Gotowy do uruchomienia
Ubuntu 24.04 LTS z preinstalowanym OpenWebUI i Ollama oraz modele startowe do natychmiastowego przetestowania.
Optymalizacja wydajności
Dedykowane procesory vCPU, NVMe i DDR5 pomagają utrzymać szybkie reakcje w godzinach szczytu.
Pełna kontrola stosu
Dostęp root do portów, usług systemd, zmiennych środowiskowych i automatyzacji pierwszego uruchomienia za pomocą cloud-init.
Czyste wzorce wieloużytkownikowe
Korzystaj z kont OpenWebUI, połącz API i rozdziel pracę z migawkami i pamięcią masową dla poszczególnych modeli.
Niezawodna podstawa
Szybkie dostarczanie, statyczny adres IP i umowa SLA gwarantująca dostępność na poziomie 99,99% dla laboratoriów, środowisk testowych lub małych środowisk produkcyjnych.
Dla kogo jest przeznaczony?
Badacze sztucznej inteligencji testują modele rozumowania
Przełączaj się między modelami, takimi jak deepseek-r1 i llama3.2, rejestruj wyniki i zachowaj prywatność eksperymentów dzięki pełnym uprawnieniom administratora i migawkom.
Zespoły skupione na ochronie prywatności zajmujące się poufnymi projektami
Przechowuj monity i dane wyjściowe na dedykowanym serwerze ze statycznym adresem IP, kontrolą zapory sieciowej i regionalnym hostingiem w celu zapewnienia lokalizacji danych.
Inżynierowie produktu Prototypowanie funkcji AI
Wywołaj API 11434 z usług, iteruj za pomocą OpenWebUI i wykonuj migawkę przed każdą zmianą, aby chronić stany robocze.
Grupy ML Ops standaryzujące środowiska
Uruchom cloud-init, skonfiguruj jednostki usług i replikuj czysty obraz w różnych regionach, aby zapewnić przewidywalne wdrożenia i szybkie przywracanie.
Nauczyciele i instruktorzy laboratoryjni
Zapewnij studentom spójny interfejs OpenWebUI z dostępem root do nauki pobierania, monitów i podstawowych ćwiczeń RAG.
Małe zespoły tworzące wewnętrznych asystentów
Korzystaj z prywatnego czatu, osadzania i prostych pytań i odpowiedzi dotyczących dokumentów dzięki pamięci NVMe i dedykowanym procesorom vCPU, które można później skalować.
Jak używać?
Jak skonfigurować serwer VPS Ollama
Nie wiesz, jak zacząć? Dzięki hostingowi VPS Ollama Cloudzyotrzymujesz system Ubuntu 24.04 LTS z zainstalowanym Ollama i OpenWebUI. Zaloguj się jako root przez SSH, sprawdź /rootcloudzy i upewnij się, że usługi działają. Otwórz http://:8080 dla OpenWebUI i przejdź do API pod adresem http://:11434. Pobieraj lub przełączaj modele w razie potrzeby. Jeśli planujesz uzyskać dostęp do API z innych hostów lub przez proxy, ustaw odpowiednie zmienne środowiskowe i reguły zapory sieciowej. Poniższe kroki obejmują podstawowe informacje.
Cloudzy, słowami naszych użytkowników
Posłuchaj, jak programiści 121218 włączają Cloudzy swojego procesu pracy.
Inżynieria bez zakłóceń
Cloudzy naszemu zespołowi inżynierów skupić się na innowacjach, a nie na infrastrukturze. Korzystamy z ich wysokowydajnych serwerów do zarządzania dużymi plikami i licencjami na oprogramowanie i od samego początku nie doświadczyliśmy żadnych problemów technicznych ani przestojów.
Kapitan drużyny UTFR, Uniwersytet w Toronto
FAQ | Ollama VPS
Czym jest Ollama i jak działa?
Ollama to lokalne środowisko uruchomieniowe, które obsługuje duże modele językowe za pomocą prostych poleceń i interfejsu API HTTP. Uruchamiasz lub pobierasz modele, a następnie komunikujesz się za pośrednictwem punktów końcowych, takich jak /api/generate lub zgodny z OpenAI /v1/chat/completions.
Czy Ollama potrzebuje GPU działania?
Nie. Działa CPU, ale kompatybilna GPU przyspieszyć wnioskowanie. Obsługiwane są procesory NVIDIA, AMD ROCm i Apple Silicon poprzez odpowiednie stosy.
Ile pamięci RAM potrzebuje Ollama do obsługi popularnych modeli?
Zasadniczo modele 7B wymagają około 8 GB pamięci RAM, modele 13B około 16 GB, a modele 70B około 64 GB przy użyciu typowych kwantyzacji.
Czy Ollama może być używana w trybie offline?
Tak. Po pobraniu początkowego modelu można uruchamiać modele lokalnie bez konieczności korzystania z usług zewnętrznych. Interfejs API jest domyślnie obsługiwany przez hosta na porcie 11434.
Jak dodać lub zmienić modele w Ollama?
Użyj poleceń takich jak ollama pull, aby pobrać, i ollama run, aby rozpocząć czatowanie. Strony modeli, takie jak llama3.2 i deepseek-r1, zawierają listę tagów i rozmiarów.
Jaki dostęp otrzymam w ramach usługi Cloudzy VPS?
Otrzymujesz pełne uprawnienia administratora w systemie Ubuntu 24.04 z zainstalowanymi programami Ollama i OpenWebUI. OpenWebUI jest dostępne na porcie 8080, a API Ollama na porcie 11434, co umożliwia integrację z serwerem VPS Ollama.
W jaki sposób Cloudzy wydajność hostingu VPS Ollama?
Plany wykorzystują dedykowane procesory vCPU, pamięć DDR5 i pamięć masową NVMe w połączeniu o przepustowości do 40 Gb/s, aby zapewnić krótki czas przesyłu w obie strony. Możesz rozpocząć CPU, a następnie rozważyć obrazy GPU, jeśli Twoje obciążenia wzrosną w ramach hostingu Ollama VPS.
Jak uzyskać dostęp do OpenWebUI i API na serwerze Cloudzy ?
Odwiedź stronę http://:8080, aby uzyskać dostęp do OpenWebUI. Dostęp programowy wykorzystuje adres http://:11434. W przypadku łączenia się z innych hostów skonfiguruj powiązania i dozwolone źródła zgodnie z potrzebami.
Jakie opcje bezpieczeństwa są dostępne w Cloudzy VPS?
Kontroluj klucze SSH i reguły zapory sieciowej, ogranicz dostęp do API i w razie potrzeby umieść usługę za serwerem proxy. OpenWebUI obsługuje zdalne punkty końcowe Ollama poprzez konfigurację środowiska.
Czy mogę skalować lub tworzyć migawki mojego Cloudzy VPS i jaki jest czas działania?
Tak. Skaluj CPU, pamięć RAM lub dysk w miarę rozwoju projektów i wykonuj migawki przed wprowadzeniem większych zmian. Platforma zapewnia dostępność na poziomie 99,99% zgodnie z umową SLA, co gwarantuje przewidywalny dostęp.
Potrzebujesz pomocy? Skontaktuj się z naszym zespołem pomocy technicznej.
Ponad 16 lokalizacji. Ponieważ liczy się każda milisekunda
Wdroż swój VPS bliżej użytkowników, aby uzyskać optymalną wydajność.
0 Gb/s Prędkość sieci
0,00% Czas działania sieci
<0ms Average Latency
0/7 Monitorowanie