Difference between revisions of "SLM: Ubuntu 24.04 ollama open-webui"
Onnowpurbo (talk | contribs) (Created page with "Ya, **sangat mungkin** membuat dan menjalankan **Small Language Model (SLM)** dengan **Ollama + Open WebUI** di **Ubuntu 24.04**. Justru ini adalah salah satu cara **paling ga...") |
Onnowpurbo (talk | contribs) |
||
Line 101: | Line 101: | ||
Kalau kamu mau, aku bisa bantu **buatkan script `.sh` otomatis untuk setup semua ini sekaligus**. Mau sekalian dibuatkan? | Kalau kamu mau, aku bisa bantu **buatkan script `.sh` otomatis untuk setup semua ini sekaligus**. Mau sekalian dibuatkan? | ||
+ | |||
+ | |||
+ | ==Pranala Menarik== | ||
+ | |||
+ | * [[SLM]] |
Revision as of 07:24, 5 May 2025
Ya, **sangat mungkin** membuat dan menjalankan **Small Language Model (SLM)** dengan **Ollama + Open WebUI** di **Ubuntu 24.04**. Justru ini adalah salah satu cara **paling gampang dan praktis** untuk implementasi **chatbot lokal berbasis SLM**, bahkan tanpa perlu coding berat atau setup environment manual.
---
- ✅ **Ringkasan Tujuan**
- Jalankan SLM secara lokal** (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan:
- 🧠 **Ollama** → engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll)
- 🌐 **Open WebUI** → tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama
---
- ⚙️ **Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04**
- 🔧 1. **Install Ollama**
```bash curl -fsSL https://ollama.com/install.sh | sh ```
Lalu jalankan:
```bash ollama run phi ```
✅ Ini otomatis download dan menjalankan **SLM Phi** (hanya \~1.9GB), cocok untuk laptop.
---
- 🌍 2. **Jalankan Open WebUI via Docker**
- a. **Install Docker (kalau belum)**
```bash sudo apt install docker.io docker-compose -y sudo systemctl enable docker --now ```
- b. **Jalankan Open WebUI**
```bash docker run -d \
-p 3000:3000 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ --add-host=host.docker.internal:host-gateway \ ghcr.io/open-webui/open-webui:main
```
✅ Setelah itu, akses: [1](http://localhost:3000) Dan kamu bisa langsung chatting seperti di ChatGPT, tapi **100% offline dan gratis.**
---
- 🤖 **Model SLM yang Bisa Kamu Jalankan di Ollama**
Ketik perintah berikut:
```bash ollama run <nama-model> ```
Contoh model kecil:
- `phi` → Microsoft Phi 1.5 (ultra ringan)
- `mistral` → Mistral 7B (cukup ringan)
- `llama2` → Meta LLaMA 2 7B
- `gemma` → Google Gemma 2B
- `tinyllama` → TinyLlama (1.1B)
---
- 🔁 **Mengganti Model Default di Open WebUI**
Setelah masuk ke [2](http://localhost:3000), kamu bisa:
1. Buka Settings 2. Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu
---
- 📦 **Kelebihan Ollama + Open WebUI**
| Fitur | Keterangan | | ------------------------- | --------------------------------------------------- | | ✅ Mudah & cepat | 1 command install, langsung jalan | | ✅ Offline & privat | Tidak perlu koneksi internet setelah download model | | ✅ UI seperti ChatGPT | Friendly buat pengguna awam | | ✅ Sumber terbuka & gratis | Tanpa subscription, tanpa login | | ✅ Cocok untuk laptop | Bisa jalan dengan 8–16GB RAM (model quantized) |
---
- 🔚 Kesimpulan
- Ya**, kamu **bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI** di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python.
Kalau kamu mau, aku bisa bantu **buatkan script `.sh` otomatis untuk setup semua ini sekaligus**. Mau sekalian dibuatkan?