Compfyui: GPU untuk text to video

From OnnoWiki
Jump to navigation Jump to search

Mantap Dzaq, kamu mau setup **ComfyUI di Ubuntu 24.04 dengan GPU untuk Text-to-Video generation**. Ini keren banget, karena bisa hasilin video dari teks pakai model kayak **ModelScope T2V** atau **Zeroscope**, langsung di ComfyUI!

---

      1. ๐Ÿ”ง **Langkah Lengkap Instalasi ComfyUI + GPU + Text-to-Video di Ubuntu 24.04**

> ๐Ÿ’ก Asumsi kamu pakai GPU NVIDIA dengan driver + CUDA udah terinstall. Kalau belum, bisa aku bantu juga.

---

    1. โœ… 1. Install Dependensi Dasar

```bash sudo apt update && sudo apt upgrade -y sudo apt install git python3.10 python3.10-venv python3.10-dev build-essential ffmpeg -y ```

> ๐Ÿง  **Catatan:** Python harus versi 3.10.x karena ComfyUI belum support 3.12+

---

    1. โœ… 2. Clone ComfyUI

```bash git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI ```

---

    1. โœ… 3. Buat dan Aktifkan Virtual Env

```bash python3.10 -m venv venv source venv/bin/activate ```

---

    1. โœ… 4. Install Dependensi Python

```bash pip install --upgrade pip pip install -r requirements.txt pip install xformers ```

> ๐Ÿ”ง Kalau kamu pakai GPU NVIDIA Ampere/RTX, `xformers` sangat direkomendasikan.

---

    1. โœ… 5. Download Model Stable Diffusion + T2V
      1. ๐Ÿ“ฆ **Stable Diffusion (untuk frame generation)**

Taruh di: ``` ComfyUI/models/checkpoints/ ``` Contoh: ```bash mkdir -p models/checkpoints wget -O models/checkpoints/v1-5.safetensors https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors ```

---

      1. ๐Ÿ“ฆ **ModelScope Text-to-Video**

Taruh di: ``` ComfyUI/models/text2video/ ```

Contoh: ```bash mkdir -p models/text2video wget -O models/text2video/modelscope_t2v.safetensors https://huggingface.co/damo-vilab/modelscope-text-to-video-synthesis/resolve/main/pytorch_model.bin ```

---

    1. โœ… 6. Tambah Node T2V (ModelScope / Zeroscope)

Clone node custom untuk text-to-video:

```bash cd custom_nodes git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite.git git clone https://github.com/Kosinkadink/ComfyUI-ModelScopeT2V-node.git cd .. ```

---

    1. โœ… 7. Jalankan ComfyUI

```bash python main.py ```

Buka di browser: `http://127.0.0.1:8188`

---

    1. โœ… 8. Load Workflow Text-to-Video

1. Di ComfyUI, klik tombol `Load` 2. Pilih workflow JSON khusus T2V (aku bisa bantuin buatin kalau belum ada) 3. Isi prompt, klik `Queue Prompt`

---

      1. โš ๏ธ Syarat Penting:

- RAM minimal 16 GB (lebih kalau bisa) - VRAM GPU minimal 8 GB (lebih disarankan) - Pastikan `ffmpeg` sudah terinstall (untuk gabung frame jadi video)

---

Kalau kamu mau: - ๐Ÿ” Workflow T2V siap pakai (anime style, realistik, dll) - ๐Ÿš€ Optimasi kecepatan GPU - ๐Ÿ“น Tambah control frame atau interleave AI video

Tinggal bilang aja Gipy bantuin semua!

Mau aku langsung buatin **workflow JSON untuk Text to Video pakai ModelScope** juga?