Difference between revisions of "SLM: Ubuntu 24.04 ollama open-webui"
Onnowpurbo (talk | contribs) |
Onnowpurbo (talk | contribs) |
||
Line 1: | Line 1: | ||
− | Ya, | + | Ya, '''sangat mungkin''' membuat dan menjalankan '''Small Language Model (SLM)''' dengan '''Ollama + Open WebUI''' di '''Ubuntu 24.04'''. Justru ini adalah salah satu cara '''paling gampang dan praktis''' untuk implementasi '''chatbot lokal berbasis SLM''', bahkan tanpa perlu coding berat atau setup environment manual. |
− | |||
− | + | =='''Tujuan'''== | |
− | + | '''Jalankan SLM secara lokal''' (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan: | |
− | * | + | * '''Ollama''' → engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll) |
− | * | + | * '''Open WebUI''' → tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama |
− | + | =='''Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04'''== | |
− | + | ==='''Install Ollama'''=== | |
− | |||
− | + | curl -fsSL https://ollama.com/install.sh | sh | |
− | curl -fsSL https://ollama.com/install.sh | sh | ||
− | |||
Lalu jalankan: | Lalu jalankan: | ||
− | + | ollama run phi | |
− | ollama run phi | ||
− | |||
− | ✅ Ini otomatis download dan menjalankan | + | ✅ Ini otomatis download dan menjalankan '''SLM Phi''' (hanya \~1.9GB), cocok untuk laptop. |
− | + | ===2. '''Jalankan Open WebUI via Docker'''=== | |
− | + | a. '''Install Docker (kalau belum)''' | |
− | + | sudo apt install docker.io docker-compose -y | |
+ | sudo systemctl enable docker --now | ||
− | + | b. '''Jalankan Open WebUI''' | |
− | |||
− | |||
− | |||
− | + | docker run -d \ | |
+ | -p 3000:3000 \ | ||
+ | -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ | ||
+ | -v open-webui:/app/backend/data \ | ||
+ | --name open-webui \ | ||
+ | --add-host=host.docker.internal:host-gateway \ | ||
+ | ghcr.io/open-webui/open-webui:main | ||
− | + | ✅ Setelah itu, akses: | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | http://localhost:3000 | |
− | |||
− | |||
− | + | Dan kamu bisa langsung chatting seperti di ChatGPT, tapi '''100% offline dan gratis.''' | |
− | + | =='''Model SLM yang Bisa Kamu Jalankan di Ollama'''== | |
Ketik perintah berikut: | Ketik perintah berikut: | ||
− | + | ollama run <nama-model> | |
− | ollama run <nama-model> | ||
− | |||
Contoh model kecil: | Contoh model kecil: | ||
Line 73: | Line 59: | ||
* `tinyllama` → TinyLlama (1.1B) | * `tinyllama` → TinyLlama (1.1B) | ||
− | + | =='''Mengganti Model Default di Open WebUI'''== | |
− | |||
− | |||
Setelah masuk ke [http://localhost:3000](http://localhost:3000), kamu bisa: | Setelah masuk ke [http://localhost:3000](http://localhost:3000), kamu bisa: | ||
− | + | * Buka Settings | |
− | + | * Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | =='''Kelebihan Ollama + Open WebUI'''== | |
− | + | {| class="wikitable" | |
+ | ! Fitur !! Keterangan | ||
+ | |- | ||
+ | | ✅ Mudah & cepat || 1 command install, langsung jalan | ||
+ | |- | ||
+ | | ✅ Offline & privat || Tidak perlu koneksi internet setelah download model | ||
+ | |- | ||
+ | | ✅ UI seperti ChatGPT || Friendly buat pengguna awam | ||
+ | |- | ||
+ | | ✅ Sumber terbuka & gratis || Tanpa subscription, tanpa login | ||
+ | |- | ||
+ | | ✅ Cocok untuk laptop || Bisa jalan dengan 8–16GB RAM (model quantized) | ||
+ | |- | ||
− | + | ==Kesimpulan== | |
− | + | '''Ya''', kamu '''bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI''' di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python. | |
+ | Kalau kamu mau, aku bisa bantu '''buatkan script `.sh` otomatis untuk setup semua ini sekaligus'''. Mau sekalian dibuatkan? | ||
==Pranala Menarik== | ==Pranala Menarik== | ||
* [[SLM]] | * [[SLM]] |
Revision as of 07:37, 5 May 2025
Ya, sangat mungkin membuat dan menjalankan Small Language Model (SLM) dengan Ollama + Open WebUI di Ubuntu 24.04. Justru ini adalah salah satu cara paling gampang dan praktis untuk implementasi chatbot lokal berbasis SLM, bahkan tanpa perlu coding berat atau setup environment manual.
Tujuan
Jalankan SLM secara lokal (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan:
- Ollama → engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll)
- Open WebUI → tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama
Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04
Install Ollama
curl -fsSL https://ollama.com/install.sh | sh
Lalu jalankan:
ollama run phi
✅ Ini otomatis download dan menjalankan SLM Phi (hanya \~1.9GB), cocok untuk laptop.
2. Jalankan Open WebUI via Docker
a. Install Docker (kalau belum)
sudo apt install docker.io docker-compose -y sudo systemctl enable docker --now
b. Jalankan Open WebUI
docker run -d \ -p 3000:3000 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ --add-host=host.docker.internal:host-gateway \ ghcr.io/open-webui/open-webui:main
✅ Setelah itu, akses:
http://localhost:3000
Dan kamu bisa langsung chatting seperti di ChatGPT, tapi 100% offline dan gratis.
Model SLM yang Bisa Kamu Jalankan di Ollama
Ketik perintah berikut:
ollama run <nama-model>
Contoh model kecil:
- `phi` → Microsoft Phi 1.5 (ultra ringan)
- `mistral` → Mistral 7B (cukup ringan)
- `llama2` → Meta LLaMA 2 7B
- `gemma` → Google Gemma 2B
- `tinyllama` → TinyLlama (1.1B)
Mengganti Model Default di Open WebUI
Setelah masuk ke [1](http://localhost:3000), kamu bisa:
- Buka Settings
- Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu
Kelebihan Ollama + Open WebUI
Kesimpulan
Ya, kamu bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python.
Kalau kamu mau, aku bisa bantu buatkan script `.sh` otomatis untuk setup semua ini sekaligus. Mau sekalian dibuatkan?
Pranala Menarik
Fitur | Keterangan |
---|---|
✅ Mudah & cepat | 1 command install, langsung jalan |
✅ Offline & privat | Tidak perlu koneksi internet setelah download model |
✅ UI seperti ChatGPT | Friendly buat pengguna awam |
✅ Sumber terbuka & gratis | Tanpa subscription, tanpa login |
✅ Cocok untuk laptop | Bisa jalan dengan 8–16GB RAM (model quantized) |