SLM: Ubuntu 24.04 ollama open-webui

From OnnoWiki
Jump to navigation Jump to search

Ya, **sangat mungkin** membuat dan menjalankan **Small Language Model (SLM)** dengan **Ollama + Open WebUI** di **Ubuntu 24.04**. Justru ini adalah salah satu cara **paling gampang dan praktis** untuk implementasi **chatbot lokal berbasis SLM**, bahkan tanpa perlu coding berat atau setup environment manual.

---

    1. βœ… **Ringkasan Tujuan**
    • Jalankan SLM secara lokal** (seperti `phi`, `mistral`, `llama2`, dll.) di Ubuntu 24.04 menggunakan:
  • 🧠 **Ollama** β†’ engine untuk menjalankan model SLM secara lokal (termasuk download, quantized model, API, dll)
  • 🌐 **Open WebUI** β†’ tampilan antarmuka web seperti ChatGPT, terhubung langsung ke Ollama

---

    1. βš™οΈ **Langkah Implementasi Ollama + Open WebUI di Ubuntu 24.04**
      1. πŸ”§ 1. **Install Ollama**

```bash curl -fsSL https://ollama.com/install.sh | sh ```

Lalu jalankan:

```bash ollama run phi ```

βœ… Ini otomatis download dan menjalankan **SLM Phi** (hanya \~1.9GB), cocok untuk laptop.

---

      1. 🌍 2. **Jalankan Open WebUI via Docker**
        1. a. **Install Docker (kalau belum)**

```bash sudo apt install docker.io docker-compose -y sudo systemctl enable docker --now ```

        1. b. **Jalankan Open WebUI**

```bash docker run -d \

 -p 3000:3000 \
 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
 -v open-webui:/app/backend/data \
 --name open-webui \
 --add-host=host.docker.internal:host-gateway \
 ghcr.io/open-webui/open-webui:main

```

βœ… Setelah itu, akses: [1](http://localhost:3000) Dan kamu bisa langsung chatting seperti di ChatGPT, tapi **100% offline dan gratis.**

---

    1. πŸ€– **Model SLM yang Bisa Kamu Jalankan di Ollama**

Ketik perintah berikut:

```bash ollama run <nama-model> ```

Contoh model kecil:

  • `phi` β†’ Microsoft Phi 1.5 (ultra ringan)
  • `mistral` β†’ Mistral 7B (cukup ringan)
  • `llama2` β†’ Meta LLaMA 2 7B
  • `gemma` β†’ Google Gemma 2B
  • `tinyllama` β†’ TinyLlama (1.1B)

---

    1. πŸ” **Mengganti Model Default di Open WebUI**

Setelah masuk ke [2](http://localhost:3000), kamu bisa:

1. Buka Settings 2. Ganti default model ke `phi`, `mistral`, dll sesuai preferensimu

---

    1. πŸ“¦ **Kelebihan Ollama + Open WebUI**

| Fitur | Keterangan | | ------------------------- | --------------------------------------------------- | | βœ… Mudah & cepat | 1 command install, langsung jalan | | βœ… Offline & privat | Tidak perlu koneksi internet setelah download model | | βœ… UI seperti ChatGPT | Friendly buat pengguna awam | | βœ… Sumber terbuka & gratis | Tanpa subscription, tanpa login | | βœ… Cocok untuk laptop | Bisa jalan dengan 8–16GB RAM (model quantized) |

---

    1. πŸ”š Kesimpulan
    • Ya**, kamu **bisa dengan mudah membuat SLM menggunakan Ollama + Open WebUI** di Ubuntu 24.04. Ini cara yang paling cocok kalau kamu mau eksperimen chatbot lokal, AI offline, atau SLM tanpa ribet setup kode Python.

Kalau kamu mau, aku bisa bantu **buatkan script `.sh` otomatis untuk setup semua ini sekaligus**. Mau sekalian dibuatkan?


Pranala Menarik