Difference between revisions of "SLM: Ubuntu 24.04 ollama open-webui"

From OnnoWiki
Jump to navigation Jump to search
Line 1: Line 1:
Ya, **sangat mungkin** membuat dan menjalankan **Small Language Model (SLM)** dengan **Ollama + Open WebUI** di **Ubuntu 24.04**. Justru ini adalah salah satu cara **paling gampang dan praktis** untuk implementasi **chatbot lokal berbasis SLM**, bahkan tanpa perlu coding berat atau setup environment manual.
+
Ya, '''sangat mungkin''' membuat dan menjalankan '''Small Language Model (SLM)''' dengan '''Ollama + Open WebUI''' di '''Ubuntu 24.04'''. Justru ini adalah salah satu cara '''paling gampang dan praktis''' untuk implementasi '''chatbot lokal berbasis SLM''', bahkan tanpa perlu coding berat atau setup environment manual.
  
---
 
  
## ✅ **Ringkasan Tujuan**
+
=='''Tujuan'''==
  
**Jalankan SLM secara lokal** (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan:
+
'''Jalankan SLM secara lokal''' (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan:
  
* 🧠 **Ollama** → engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll)
+
* '''Ollama''' → engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll)
* 🌐 **Open WebUI** → tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama
+
* '''Open WebUI''' → tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama
  
---
+
=='''Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04'''==
  
## ⚙️ **Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04**
+
==='''Install Ollama'''===
  
### 🔧 1. **Install Ollama**
 
  
```bash
+
curl -fsSL https://ollama.com/install.sh | sh
curl -fsSL https://ollama.com/install.sh | sh
 
```
 
  
 
Lalu jalankan:
 
Lalu jalankan:
  
```bash
+
ollama run phi
ollama run phi
 
```
 
  
✅ Ini otomatis download dan menjalankan **SLM Phi** (hanya \~1.9GB), cocok untuk laptop.
+
✅ Ini otomatis download dan menjalankan '''SLM Phi''' (hanya \~1.9GB), cocok untuk laptop.
  
---
+
===2. '''Jalankan Open WebUI via Docker'''===
  
### 🌍 2. **Jalankan Open WebUI via Docker**
+
a. '''Install Docker (kalau belum)'''
  
#### a. **Install Docker (kalau belum)**
+
sudo apt install docker.io docker-compose -y
 +
sudo systemctl enable docker --now
  
```bash
+
b. '''Jalankan Open WebUI'''
sudo apt install docker.io docker-compose -y
 
sudo systemctl enable docker --now
 
```
 
  
#### b. **Jalankan Open WebUI**
+
docker run -d \
 +
  -p 3000:3000 \
 +
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
 +
  -v open-webui:/app/backend/data \
 +
  --name open-webui \
 +
  --add-host=host.docker.internal:host-gateway \
 +
  ghcr.io/open-webui/open-webui:main
  
```bash
+
✅ Setelah itu, akses:
docker run -d \
 
  -p 3000:3000 \
 
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
 
  -v open-webui:/app/backend/data \
 
  --name open-webui \
 
  --add-host=host.docker.internal:host-gateway \
 
  ghcr.io/open-webui/open-webui:main
 
```
 
  
✅ Setelah itu, akses:
+
http://localhost:3000
[http://localhost:3000](http://localhost:3000)
 
Dan kamu bisa langsung chatting seperti di ChatGPT, tapi **100% offline dan gratis.**
 
  
---
+
Dan kamu bisa langsung chatting seperti di ChatGPT, tapi '''100% offline dan gratis.'''
  
## 🤖 **Model SLM yang Bisa Kamu Jalankan di Ollama**
+
=='''Model SLM yang Bisa Kamu Jalankan di Ollama'''==
  
 
Ketik perintah berikut:
 
Ketik perintah berikut:
  
```bash
+
ollama run <nama-model>
ollama run <nama-model>
 
```
 
  
 
Contoh model kecil:
 
Contoh model kecil:
Line 73: Line 59:
 
* `tinyllama` → TinyLlama (1.1B)
 
* `tinyllama` → TinyLlama (1.1B)
  
---
+
=='''Mengganti Model Default di Open WebUI'''==
 
 
## 🔁 **Mengganti Model Default di Open WebUI**
 
  
 
Setelah masuk ke [http://localhost:3000](http://localhost:3000), kamu bisa:
 
Setelah masuk ke [http://localhost:3000](http://localhost:3000), kamu bisa:
  
1. Buka Settings
+
* Buka Settings
2. Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu
+
* Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu
 
 
---
 
 
 
## 📦 **Kelebihan Ollama + Open WebUI**
 
 
 
| Fitur                    | Keterangan                                          |
 
| ------------------------- | --------------------------------------------------- |
 
| ✅ Mudah & cepat          | 1 command install, langsung jalan                  |
 
| ✅ Offline & privat        | Tidak perlu koneksi internet setelah download model |
 
| ✅ UI seperti ChatGPT      | Friendly buat pengguna awam                        |
 
| ✅ Sumber terbuka & gratis | Tanpa subscription, tanpa login                    |
 
| ✅ Cocok untuk laptop      | Bisa jalan dengan 8–16GB RAM (model quantized)      |
 
  
---
+
=='''Kelebihan Ollama + Open WebUI'''==
  
## 🔚 Kesimpulan
+
{| class="wikitable"
 +
! Fitur                    !! Keterangan
 +
|-
 +
| ✅ Mudah & cepat          || 1 command install, langsung jalan
 +
|-
 +
| ✅ Offline & privat        || Tidak perlu koneksi internet setelah download model
 +
|-
 +
| ✅ UI seperti ChatGPT      || Friendly buat pengguna awam
 +
|-
 +
| ✅ Sumber terbuka & gratis || Tanpa subscription, tanpa login
 +
|-
 +
| ✅ Cocok untuk laptop      || Bisa jalan dengan 8–16GB RAM (model quantized)
 +
|-
  
**Ya**, kamu **bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI** di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python.
+
==Kesimpulan==
  
Kalau kamu mau, aku bisa bantu **buatkan script `.sh` otomatis untuk setup semua ini sekaligus**. Mau sekalian dibuatkan?
+
'''Ya''', kamu '''bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI''' di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python.
  
 +
Kalau kamu mau, aku bisa bantu '''buatkan script `.sh` otomatis untuk setup semua ini sekaligus'''. Mau sekalian dibuatkan?
  
 
==Pranala Menarik==
 
==Pranala Menarik==
  
 
* [[SLM]]
 
* [[SLM]]

Revision as of 07:37, 5 May 2025

Ya, sangat mungkin membuat dan menjalankan Small Language Model (SLM) dengan Ollama + Open WebUI di Ubuntu 24.04. Justru ini adalah salah satu cara paling gampang dan praktis untuk implementasi chatbot lokal berbasis SLM, bahkan tanpa perlu coding berat atau setup environment manual.


Tujuan

Jalankan SLM secara lokal (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan:

  • Ollama → engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll)
  • Open WebUI → tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama

Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04

Install Ollama

curl -fsSL https://ollama.com/install.sh | sh

Lalu jalankan:

ollama run phi

✅ Ini otomatis download dan menjalankan SLM Phi (hanya \~1.9GB), cocok untuk laptop.

2. Jalankan Open WebUI via Docker

a. Install Docker (kalau belum)

sudo apt install docker.io docker-compose -y
sudo systemctl enable docker --now

b. Jalankan Open WebUI

docker run -d \
  -p 3000:3000 \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --add-host=host.docker.internal:host-gateway \
  ghcr.io/open-webui/open-webui:main 

✅ Setelah itu, akses:

http://localhost:3000

Dan kamu bisa langsung chatting seperti di ChatGPT, tapi 100% offline dan gratis.

Model SLM yang Bisa Kamu Jalankan di Ollama

Ketik perintah berikut:

ollama run <nama-model>

Contoh model kecil:

  • `phi` → Microsoft Phi 1.5 (ultra ringan)
  • `mistral` → Mistral 7B (cukup ringan)
  • `llama2` → Meta LLaMA 2 7B
  • `gemma` → Google Gemma 2B
  • `tinyllama` → TinyLlama (1.1B)

Mengganti Model Default di Open WebUI

Setelah masuk ke [1](http://localhost:3000), kamu bisa:

  • Buka Settings
  • Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu

Kelebihan Ollama + Open WebUI

Kesimpulan

Ya, kamu bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python.

Kalau kamu mau, aku bisa bantu buatkan script `.sh` otomatis untuk setup semua ini sekaligus. Mau sekalian dibuatkan?

Pranala Menarik

Fitur Keterangan
✅ Mudah & cepat 1 command install, langsung jalan
✅ Offline & privat Tidak perlu koneksi internet setelah download model
✅ UI seperti ChatGPT Friendly buat pengguna awam
✅ Sumber terbuka & gratis Tanpa subscription, tanpa login
✅ Cocok untuk laptop Bisa jalan dengan 8–16GB RAM (model quantized)