LLM: ubuntu 24.04 ollama instalasi CUDA

From OnnoWiki
Jump to navigation Jump to search

Dari: Sanaya Almatin

Perintah instalasi CUDA core versi 12.8 pada ubuntu versi 24.04:

sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Isi tambahan docker-compose agar dapat memanfaatkan GPU: ollama:

   container_name: ollama
   image: ollama/ollama:latest
   runtime: nvidia
   environment:
     - NVIDIA_VISIBLE_DEVICES=all
     - NVIDIA_DRIVER_CAPABILITIES=compute,utility
     - CUDA_VISIBLE_DEVICES=0
     - LOG_LEVEL=debug
   deploy:
     resources:
       reservations:
         devices:
           - driver: nvidia
             capabilities: [gpu]
             count: all

Untuk mengetahui apakah model sudah berhasil memanfaatkan GPU:

sudo docker exec -it ollama nvidia-smi
Nvidia-smi.jpg


Sumber Informasi: 1. https://github.com/open-webui/open-webui 2. https://developer.nvidia.com/cuda-downloads

Catatan tambahan: Aktivasi CUDA core nvidia untuk akselerasi AI hanya bisa dilakukan pada arsitektur nvidia AMPERE (3000 series) ke atas seperti Ada Lovelace (4000 series) dan Blackwell (5000 series).

Kemudian saya juga menyertakan gambar jika memang model AI telah berhasil terhubung dengan GPU dan berhasil memanfaatkan CUDA Core-nya untuk akselerasi dalam hal membuat jawaban.

Kiranya itu saja yang dapat saya sampaikan melalui pesan ini, terimakasih atas waktu dan kesempatan yang telah diberikan Prof.