SLM: Ubuntu 24.04 script .sh automatis install
Berikut adalah script `.sh` otomatis untuk **setup Ollama + Open WebUI** di Ubuntu 24.04 agar kamu bisa langsung menjalankan Small Language Model (SLM) secara lokal (seperti `phi`, `mistral`, dll).
---
- ✅ **Script: `setup_ollama_webui.sh`**
```bash
- !/bin/bash
echo "🚀 Mulai setup Ollama + Open WebUI di Ubuntu 24.04..."
- Update sistem dan install dependensi dasar
echo "📦 Update & install dependensi..." sudo apt update && sudo apt install -y curl docker.io docker-compose
- Enable dan jalankan Docker
echo "🧱 Mengaktifkan Docker..." sudo systemctl enable docker --now
- Install Ollama
echo "🤖 Menginstall Ollama..." curl -fsSL https://ollama.com/install.sh | sh
- Jalankan model SLM default (phi, bisa diganti)
echo "🧠 Menjalankan model SLM 'phi' (bisa diganti nanti)..." ollama run phi &
- Jalankan Open WebUI menggunakan Docker
echo "🌐 Menjalankan Open WebUI di Docker..." docker run -d \
-p 3000:3000 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ --add-host=host.docker.internal:host-gateway \ ghcr.io/open-webui/open-webui:main
echo "" echo "✅ Selesai! Akses Open WebUI di browser:" echo " 👉 http://localhost:3000" echo "🔁 Model default: phi (bisa diganti ke mistral, llama2, dll)" ```
---
- 🔧 **Cara Menggunakan:**
1. Simpan file di Ubuntu sebagai `setup_ollama_webui.sh` 2. Jalankan perintah berikut:
```bash chmod +x setup_ollama_webui.sh ./setup_ollama_webui.sh ```
---
- ⚠️ Catatan Penting:
- Script ini mengasumsikan bahwa Docker dan internet aktif.
- Jika kamu ingin model lain seperti `mistral`, cukup ganti baris ini:
```bash ollama run phi ```
menjadi:
```bash ollama run mistral ```
- Kalau kamu pakai **VM**, pastikan kamu **aktifkan virtualisasi dan akses internet.**
---
Mau aku bantu buatkan versi script yang juga otomatis install model-model tambahan seperti `mistral`, `llama2`, atau `gemma` sekaligus?