<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://onnocenter.or.id/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Onnowpurbo</id>
	<title>OnnoWiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://onnocenter.or.id/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Onnowpurbo"/>
	<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php/Special:Contributions/Onnowpurbo"/>
	<updated>2026-04-10T04:07:24Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.35.4</generator>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73525</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73525"/>
		<updated>2026-03-25T23:48:06Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv GPU]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73524</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73524"/>
		<updated>2026-03-25T23:47:52Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* ComfyUI */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73523</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73523"/>
		<updated>2026-03-25T23:32:58Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat==&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''===&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''===&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan===&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== B. Model audio==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''===&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice===&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73522</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73522"/>
		<updated>2026-03-25T23:32:43Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* = Pilihan terbaik untuk mulai: SDXL Base 1.0 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''===&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''===&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan===&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== B. Model audio==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''===&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice===&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73521</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73521"/>
		<updated>2026-03-25T23:32:15Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Model yang relevan */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''==&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''===&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan===&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== B. Model audio==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''===&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice===&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73520</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73520"/>
		<updated>2026-03-25T23:26:35Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.  C...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== B. Model audio&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73519</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73519"/>
		<updated>2026-03-25T23:26:19Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* ComfyUI */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv GPU]]&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73518</id>
		<title>ComfyUI: Instalasi venv</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73518"/>
		<updated>2026-03-25T23:23:28Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 16) Paket perintah singkat yang langsung jalan */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut cara yang paling aman dan rapi untuk '''instal ComfyUI di Ubuntu 24.04''', lalu '''menaruh model gambar''' seperti '''SDXL''', '''LoRA''', dan opsi '''FLUX'''.&lt;br /&gt;
&lt;br /&gt;
Saya sarankan jalur '''Python virtual environment (`venv`)''' karena ini memang selaras dengan dokumentasi resmi ComfyUI untuk Linux: buat venv, clone repo, install dependensi, lalu jalankan. ComfyUI juga punya `comfy-cli`, tetapi untuk Ubuntu server/desktop saya lebih suka langkah manual karena lebih mudah di-debug. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan sistem==&lt;br /&gt;
&lt;br /&gt;
Update paket dulu:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
&lt;br /&gt;
Install paket dasar:&lt;br /&gt;
&lt;br /&gt;
 sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
&lt;br /&gt;
Ini konsisten dengan prasyarat Linux + venv yang dicantumkan pada dokumentasi ComfyUI Manager/CLI. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 2) Buat folder kerja dan virtual environment==&lt;br /&gt;
&lt;br /&gt;
Contoh saya simpan di home user:&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
&lt;br /&gt;
Lalu upgrade `pip`:&lt;br /&gt;
&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
&lt;br /&gt;
== 3) Clone ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Repo resmi ComfyUI memang dijalankan dari source dengan `python main.py` setelah dependensi terpasang. ([GitHub][3])&lt;br /&gt;
&lt;br /&gt;
== 4) Install dependensi Python==&lt;br /&gt;
&lt;br /&gt;
Dengan venv masih aktif:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
Lalu jalankan:&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI menyebut alur manual Linux sebagai: '''buat venv → clone repo → install dependencies → start ComfyUI'''. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
Secara default nanti ComfyUI biasanya terbuka di:&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1:8188&lt;br /&gt;
&lt;br /&gt;
== 5) Kalau ingin akses dari komputer lain di jaringan==&lt;br /&gt;
&lt;br /&gt;
Jalankan begini:&lt;br /&gt;
&lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Lalu akses dari browser:&lt;br /&gt;
&lt;br /&gt;
 http://IP_UBUNTU_ANDA:8188&lt;br /&gt;
&lt;br /&gt;
== 6) Struktur folder model di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang paling penting. Dokumentasi ComfyUI menjelaskan bahwa model harus diletakkan di subfolder yang sesuai di dalam direktori `models/`, dan node loader akan membacanya dari sana. Loader checkpoint bawaan secara otomatis membaca model dari `ComfyUI/models/checkpoints`, dan dokumen troubleshooting resmi juga merinci folder penting lain seperti `vae`, `loras`, `controlnet`, dan `embeddings`. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
Folder yang umum dipakai:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/checkpoints/&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
 ComfyUI/models/controlnet/&lt;br /&gt;
 ComfyUI/models/embeddings/&lt;br /&gt;
&lt;br /&gt;
Buat semuanya sekalian:&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/embeddings&lt;br /&gt;
&lt;br /&gt;
== 7) Install model gambar paling aman untuk mulai: SDXL&lt;br /&gt;
&lt;br /&gt;
Untuk pemula, saya sarankan mulai dari '''SDXL base 1.0''' karena stabil, ekosistem luas, dan mudah dipakai di ComfyUI. Model card resmi Stability AI menyebut performa SDXL base lebih baik dari generasi sebelumnya, dan kombinasi dengan refiner memberi hasil terbaik secara keseluruhan. File `sd_xl_base_1.0.safetensors` juga tersedia di Hugging Face. ([Hugging Face][5])&lt;br /&gt;
&lt;br /&gt;
===Download SDXL base===&lt;br /&gt;
&lt;br /&gt;
Pindah ke folder checkpoints:&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
&lt;br /&gt;
Download dengan `wget` atau `curl`. Karena Hugging Face kadang butuh redirect, `wget` biasanya lebih enak:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
Opsional, kalau ingin refiner juga:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Setelah file selesai, restart ComfyUI bila sedang berjalan. Dokumentasi resmi menyebut restart atau refresh bisa diperlukan agar model baru terbaca. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
==8) Cara pakai model SDXL di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Di UI:&lt;br /&gt;
&lt;br /&gt;
* buka workflow dasar text-to-image&lt;br /&gt;
* tambahkan node '''Load Checkpoint'''&lt;br /&gt;
* pilih `sd_xl_base_1.0.safetensors`&lt;br /&gt;
* sambungkan ke sampler dan save image&lt;br /&gt;
* klik '''Queue'''&lt;br /&gt;
&lt;br /&gt;
Dokumentasi “first generation” ComfyUI juga menunjukkan pola dasar yang sama: pilih model di node '''Load Checkpoint''', lalu jalankan workflow. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== 9) Install LoRA==&lt;br /&gt;
&lt;br /&gt;
LoRA harus masuk ke folder:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi tutorial LoRA ComfyUI memang menjelaskan penggunaan model LoRA melalui node loader LoRA, setelah model dipasang di folder model yang sesuai. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/loras&lt;br /&gt;
 wget -O nama-lora.safetensors &amp;quot;URL_LANGSUNG_FILE_LORA&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Lalu di ComfyUI:&lt;br /&gt;
&lt;br /&gt;
* tambahkan node '''Load LoRA'''&lt;br /&gt;
* pilih file LoRA&lt;br /&gt;
* hubungkan output model/clip dari checkpoint ke node LoRA&lt;br /&gt;
* atur strength&lt;br /&gt;
&lt;br /&gt;
== 10) Install VAE tambahan==&lt;br /&gt;
&lt;br /&gt;
Kalau model Anda butuh VAE terpisah, letakkan di:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/vae&lt;br /&gt;
 wget -O nama-vae.safetensors &amp;quot;URL_LANGSUNG_FILE_VAE&amp;quot;&lt;br /&gt;
&lt;br /&gt;
== 11) Install FLUX di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''', model card resmi Hugging Face dari Black Forest Labs menyebut ada bagian penggunaan untuk ComfyUI. FLUX.1 [dev] adalah model 12B open-weight untuk text-to-image. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Tetapi ada catatan penting:&lt;br /&gt;
&lt;br /&gt;
* '''FLUX lebih berat''' daripada SDXL&lt;br /&gt;
* sering butuh workflow/nodes yang lebih spesifik&lt;br /&gt;
* pada GPU kecil, pengalaman bisa kurang nyaman&lt;br /&gt;
* untuk banyak pengguna Ubuntu rumahan, '''SDXL lebih aman untuk awal'''&lt;br /&gt;
&lt;br /&gt;
Kalau tetap ingin FLUX, biasanya yang dicari adalah file model `.safetensors` yang sesuai workflow ComfyUI, lalu diletakkan di folder model yang relevan. Untuk pemakaian praktis di mesin terbatas, banyak pengguna memilih varian '''FP8''' komunitas, tetapi itu bukan sumber resmi Black Forest Labs. Jadi untuk instalasi awal saya lebih menyarankan: '''mulai dari SDXL dulu, baru FLUX setelah ComfyUI sudah sehat'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
== 12) Install ComfyUI Manager==&lt;br /&gt;
&lt;br /&gt;
Ini sangat membantu untuk cari dan pasang custom nodes. Repo resmi menyebut ComfyUI-Manager dipakai untuk mengelola instal, hapus, aktif/nonaktif berbagai custom nodes, dan dokumentasi ComfyUI juga menyebut Manager dapat membantu mengotomatisasi pencarian, download, dan instal model. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
Pasang dengan:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/custom_nodes&lt;br /&gt;
 git clone https://github.com/Comfy-Org/ComfyUI-Manager.git&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensinya dari venv aktif:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 pip install -r custom_nodes/ComfyUI-Manager/requirements.txt&lt;br /&gt;
&lt;br /&gt;
Restart ComfyUI.&lt;br /&gt;
&lt;br /&gt;
== 13) Update ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi update menyarankan:&lt;br /&gt;
&lt;br /&gt;
* aktifkan venv&lt;br /&gt;
* `git pull`&lt;br /&gt;
* update dependencies bila perlu. ([ComfyUI Documentation][10])&lt;br /&gt;
&lt;br /&gt;
Perintahnya:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 git pull&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
== 14) Error yang paling sering terjadi==&lt;br /&gt;
&lt;br /&gt;
=== Model tidak muncul===&lt;br /&gt;
&lt;br /&gt;
Biasanya karena:&lt;br /&gt;
&lt;br /&gt;
* file salah folder&lt;br /&gt;
* nama file belum selesai download&lt;br /&gt;
* ComfyUI belum di-restart&lt;br /&gt;
* model tidak cocok dengan node/workflow&lt;br /&gt;
&lt;br /&gt;
Dokumentasi troubleshooting resmi memang menekankan cek subfolder model yang benar dan kompatibilitas arsitektur. ([ComfyUI Documentation][11])&lt;br /&gt;
&lt;br /&gt;
===CUDA out of memory===&lt;br /&gt;
&lt;br /&gt;
Artinya VRAM GPU kurang. Solusinya:&lt;br /&gt;
&lt;br /&gt;
* mulai dari '''SDXL''' dulu, bukan FLUX&lt;br /&gt;
* kecilkan resolusi&lt;br /&gt;
* tutup aplikasi lain yang pakai GPU&lt;br /&gt;
* hindari workflow berat&lt;br /&gt;
&lt;br /&gt;
===`No module named ...`===&lt;br /&gt;
&lt;br /&gt;
Biasanya dari custom node. Dokumentasi resmi custom node menyebut instalasinya memang dua langkah: clone ke `custom_nodes` lalu install dependensi Python yang dibutuhkan. ([ComfyUI Documentation][12])&lt;br /&gt;
&lt;br /&gt;
== 15) Rekomendasi urutan terbaik==&lt;br /&gt;
&lt;br /&gt;
Saya sarankan urutan ini:&lt;br /&gt;
&lt;br /&gt;
1. Install '''ComfyUI'''&lt;br /&gt;
2. Install '''SDXL base'''&lt;br /&gt;
3. Tes generate gambar pertama&lt;br /&gt;
4. Install '''ComfyUI Manager'''&lt;br /&gt;
5. Tambahkan '''LoRA'''&lt;br /&gt;
6. Setelah stabil, baru coba '''FLUX'''&lt;br /&gt;
&lt;br /&gt;
== 16) Paket perintah singkat yang langsung jalan==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang ringkas:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
 &lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/embeddings&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan '''panduan lengkap NVIDIA driver + CUDA + PyTorch untuk Ubuntu 24.04''', atau saya buatkan '''skrip bash otomatis''' untuk instal '''ComfyUI + SDXL + Manager''' sekali jalan.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://docs.comfy.org/installation/manual_install?utm_source=chatgpt.com &amp;quot;How to install ComfyUI manually in different systems&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/manager/install?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager Installation&amp;quot;&lt;br /&gt;
 [3]: https://github.com/comfy-org/ComfyUI?utm_source=chatgpt.com &amp;quot;Comfy-Org/ComfyUI: The most powerful and modular ...&amp;quot;&lt;br /&gt;
 [4]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [5]: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0?utm_source=chatgpt.com &amp;quot;stabilityai/stable-diffusion-xl-base-1.0&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/tutorials/basic/lora?utm_source=chatgpt.com &amp;quot;ComfyUI LoRA Example&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev?utm_source=chatgpt.com &amp;quot;black-forest-labs/FLUX.1-dev&amp;quot;&lt;br /&gt;
 [9]: https://github.com/Comfy-Org/ComfyUI-Manager?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager is an extension designed to enhance ...&amp;quot;&lt;br /&gt;
 [10]: https://docs.comfy.org/installation/update_comfyui?utm_source=chatgpt.com &amp;quot;How to Update ComfyUI&amp;quot;&lt;br /&gt;
 [11]: https://docs.comfy.org/troubleshooting/model-issues?utm_source=chatgpt.com &amp;quot;How to Troubleshoot and Solve ComfyUI Model Issues&amp;quot;&lt;br /&gt;
 [12]: https://docs.comfy.org/installation/install_custom_node?utm_source=chatgpt.com &amp;quot;How to Install Custom Nodes in ComfyUI&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73517</id>
		<title>ComfyUI: Instalasi venv</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73517"/>
		<updated>2026-03-25T23:13:09Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Berikut cara yang paling aman dan rapi untuk '''instal ComfyUI di Ubuntu 24.04''', lalu '''menaruh model gambar''' seperti '''SDXL''', '''LoRA''', dan opsi '''FLUX'''.  Saya s...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut cara yang paling aman dan rapi untuk '''instal ComfyUI di Ubuntu 24.04''', lalu '''menaruh model gambar''' seperti '''SDXL''', '''LoRA''', dan opsi '''FLUX'''.&lt;br /&gt;
&lt;br /&gt;
Saya sarankan jalur '''Python virtual environment (`venv`)''' karena ini memang selaras dengan dokumentasi resmi ComfyUI untuk Linux: buat venv, clone repo, install dependensi, lalu jalankan. ComfyUI juga punya `comfy-cli`, tetapi untuk Ubuntu server/desktop saya lebih suka langkah manual karena lebih mudah di-debug. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan sistem==&lt;br /&gt;
&lt;br /&gt;
Update paket dulu:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
&lt;br /&gt;
Install paket dasar:&lt;br /&gt;
&lt;br /&gt;
 sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
&lt;br /&gt;
Ini konsisten dengan prasyarat Linux + venv yang dicantumkan pada dokumentasi ComfyUI Manager/CLI. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 2) Buat folder kerja dan virtual environment==&lt;br /&gt;
&lt;br /&gt;
Contoh saya simpan di home user:&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
&lt;br /&gt;
Lalu upgrade `pip`:&lt;br /&gt;
&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
&lt;br /&gt;
== 3) Clone ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Repo resmi ComfyUI memang dijalankan dari source dengan `python main.py` setelah dependensi terpasang. ([GitHub][3])&lt;br /&gt;
&lt;br /&gt;
== 4) Install dependensi Python==&lt;br /&gt;
&lt;br /&gt;
Dengan venv masih aktif:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
Lalu jalankan:&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI menyebut alur manual Linux sebagai: '''buat venv → clone repo → install dependencies → start ComfyUI'''. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
Secara default nanti ComfyUI biasanya terbuka di:&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1:8188&lt;br /&gt;
&lt;br /&gt;
== 5) Kalau ingin akses dari komputer lain di jaringan==&lt;br /&gt;
&lt;br /&gt;
Jalankan begini:&lt;br /&gt;
&lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Lalu akses dari browser:&lt;br /&gt;
&lt;br /&gt;
 http://IP_UBUNTU_ANDA:8188&lt;br /&gt;
&lt;br /&gt;
== 6) Struktur folder model di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang paling penting. Dokumentasi ComfyUI menjelaskan bahwa model harus diletakkan di subfolder yang sesuai di dalam direktori `models/`, dan node loader akan membacanya dari sana. Loader checkpoint bawaan secara otomatis membaca model dari `ComfyUI/models/checkpoints`, dan dokumen troubleshooting resmi juga merinci folder penting lain seperti `vae`, `loras`, `controlnet`, dan `embeddings`. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
Folder yang umum dipakai:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/checkpoints/&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
 ComfyUI/models/controlnet/&lt;br /&gt;
 ComfyUI/models/embeddings/&lt;br /&gt;
&lt;br /&gt;
Buat semuanya sekalian:&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/embeddings&lt;br /&gt;
&lt;br /&gt;
== 7) Install model gambar paling aman untuk mulai: SDXL&lt;br /&gt;
&lt;br /&gt;
Untuk pemula, saya sarankan mulai dari '''SDXL base 1.0''' karena stabil, ekosistem luas, dan mudah dipakai di ComfyUI. Model card resmi Stability AI menyebut performa SDXL base lebih baik dari generasi sebelumnya, dan kombinasi dengan refiner memberi hasil terbaik secara keseluruhan. File `sd_xl_base_1.0.safetensors` juga tersedia di Hugging Face. ([Hugging Face][5])&lt;br /&gt;
&lt;br /&gt;
===Download SDXL base===&lt;br /&gt;
&lt;br /&gt;
Pindah ke folder checkpoints:&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
&lt;br /&gt;
Download dengan `wget` atau `curl`. Karena Hugging Face kadang butuh redirect, `wget` biasanya lebih enak:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
Opsional, kalau ingin refiner juga:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Setelah file selesai, restart ComfyUI bila sedang berjalan. Dokumentasi resmi menyebut restart atau refresh bisa diperlukan agar model baru terbaca. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
==8) Cara pakai model SDXL di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Di UI:&lt;br /&gt;
&lt;br /&gt;
* buka workflow dasar text-to-image&lt;br /&gt;
* tambahkan node '''Load Checkpoint'''&lt;br /&gt;
* pilih `sd_xl_base_1.0.safetensors`&lt;br /&gt;
* sambungkan ke sampler dan save image&lt;br /&gt;
* klik '''Queue'''&lt;br /&gt;
&lt;br /&gt;
Dokumentasi “first generation” ComfyUI juga menunjukkan pola dasar yang sama: pilih model di node '''Load Checkpoint''', lalu jalankan workflow. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== 9) Install LoRA==&lt;br /&gt;
&lt;br /&gt;
LoRA harus masuk ke folder:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi tutorial LoRA ComfyUI memang menjelaskan penggunaan model LoRA melalui node loader LoRA, setelah model dipasang di folder model yang sesuai. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/loras&lt;br /&gt;
 wget -O nama-lora.safetensors &amp;quot;URL_LANGSUNG_FILE_LORA&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Lalu di ComfyUI:&lt;br /&gt;
&lt;br /&gt;
* tambahkan node '''Load LoRA'''&lt;br /&gt;
* pilih file LoRA&lt;br /&gt;
* hubungkan output model/clip dari checkpoint ke node LoRA&lt;br /&gt;
* atur strength&lt;br /&gt;
&lt;br /&gt;
== 10) Install VAE tambahan==&lt;br /&gt;
&lt;br /&gt;
Kalau model Anda butuh VAE terpisah, letakkan di:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/vae&lt;br /&gt;
 wget -O nama-vae.safetensors &amp;quot;URL_LANGSUNG_FILE_VAE&amp;quot;&lt;br /&gt;
&lt;br /&gt;
== 11) Install FLUX di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''', model card resmi Hugging Face dari Black Forest Labs menyebut ada bagian penggunaan untuk ComfyUI. FLUX.1 [dev] adalah model 12B open-weight untuk text-to-image. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Tetapi ada catatan penting:&lt;br /&gt;
&lt;br /&gt;
* '''FLUX lebih berat''' daripada SDXL&lt;br /&gt;
* sering butuh workflow/nodes yang lebih spesifik&lt;br /&gt;
* pada GPU kecil, pengalaman bisa kurang nyaman&lt;br /&gt;
* untuk banyak pengguna Ubuntu rumahan, '''SDXL lebih aman untuk awal'''&lt;br /&gt;
&lt;br /&gt;
Kalau tetap ingin FLUX, biasanya yang dicari adalah file model `.safetensors` yang sesuai workflow ComfyUI, lalu diletakkan di folder model yang relevan. Untuk pemakaian praktis di mesin terbatas, banyak pengguna memilih varian '''FP8''' komunitas, tetapi itu bukan sumber resmi Black Forest Labs. Jadi untuk instalasi awal saya lebih menyarankan: '''mulai dari SDXL dulu, baru FLUX setelah ComfyUI sudah sehat'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
== 12) Install ComfyUI Manager==&lt;br /&gt;
&lt;br /&gt;
Ini sangat membantu untuk cari dan pasang custom nodes. Repo resmi menyebut ComfyUI-Manager dipakai untuk mengelola instal, hapus, aktif/nonaktif berbagai custom nodes, dan dokumentasi ComfyUI juga menyebut Manager dapat membantu mengotomatisasi pencarian, download, dan instal model. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
Pasang dengan:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/custom_nodes&lt;br /&gt;
 git clone https://github.com/Comfy-Org/ComfyUI-Manager.git&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensinya dari venv aktif:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 pip install -r custom_nodes/ComfyUI-Manager/requirements.txt&lt;br /&gt;
&lt;br /&gt;
Restart ComfyUI.&lt;br /&gt;
&lt;br /&gt;
== 13) Update ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi update menyarankan:&lt;br /&gt;
&lt;br /&gt;
* aktifkan venv&lt;br /&gt;
* `git pull`&lt;br /&gt;
* update dependencies bila perlu. ([ComfyUI Documentation][10])&lt;br /&gt;
&lt;br /&gt;
Perintahnya:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 git pull&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
== 14) Error yang paling sering terjadi==&lt;br /&gt;
&lt;br /&gt;
=== Model tidak muncul===&lt;br /&gt;
&lt;br /&gt;
Biasanya karena:&lt;br /&gt;
&lt;br /&gt;
* file salah folder&lt;br /&gt;
* nama file belum selesai download&lt;br /&gt;
* ComfyUI belum di-restart&lt;br /&gt;
* model tidak cocok dengan node/workflow&lt;br /&gt;
&lt;br /&gt;
Dokumentasi troubleshooting resmi memang menekankan cek subfolder model yang benar dan kompatibilitas arsitektur. ([ComfyUI Documentation][11])&lt;br /&gt;
&lt;br /&gt;
===CUDA out of memory===&lt;br /&gt;
&lt;br /&gt;
Artinya VRAM GPU kurang. Solusinya:&lt;br /&gt;
&lt;br /&gt;
* mulai dari '''SDXL''' dulu, bukan FLUX&lt;br /&gt;
* kecilkan resolusi&lt;br /&gt;
* tutup aplikasi lain yang pakai GPU&lt;br /&gt;
* hindari workflow berat&lt;br /&gt;
&lt;br /&gt;
===`No module named ...`===&lt;br /&gt;
&lt;br /&gt;
Biasanya dari custom node. Dokumentasi resmi custom node menyebut instalasinya memang dua langkah: clone ke `custom_nodes` lalu install dependensi Python yang dibutuhkan. ([ComfyUI Documentation][12])&lt;br /&gt;
&lt;br /&gt;
== 15) Rekomendasi urutan terbaik==&lt;br /&gt;
&lt;br /&gt;
Saya sarankan urutan ini:&lt;br /&gt;
&lt;br /&gt;
1. Install '''ComfyUI'''&lt;br /&gt;
2. Install '''SDXL base'''&lt;br /&gt;
3. Tes generate gambar pertama&lt;br /&gt;
4. Install '''ComfyUI Manager'''&lt;br /&gt;
5. Tambahkan '''LoRA'''&lt;br /&gt;
6. Setelah stabil, baru coba '''FLUX'''&lt;br /&gt;
&lt;br /&gt;
== 16) Paket perintah singkat yang langsung jalan==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang ringkas:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
 &lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/embeddings&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan '''panduan lengkap NVIDIA driver + CUDA + PyTorch untuk Ubuntu 24.04''', atau saya buatkan '''skrip bash otomatis''' untuk instal '''ComfyUI + SDXL + Manager''' sekali jalan.&lt;br /&gt;
&lt;br /&gt;
[1]: https://docs.comfy.org/installation/manual_install?utm_source=chatgpt.com &amp;quot;How to install ComfyUI manually in different systems&amp;quot;&lt;br /&gt;
[2]: https://docs.comfy.org/manager/install?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager Installation&amp;quot;&lt;br /&gt;
[3]: https://github.com/comfy-org/ComfyUI?utm_source=chatgpt.com &amp;quot;Comfy-Org/ComfyUI: The most powerful and modular ...&amp;quot;&lt;br /&gt;
[4]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
[5]: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0?utm_source=chatgpt.com &amp;quot;stabilityai/stable-diffusion-xl-base-1.0&amp;quot;&lt;br /&gt;
[6]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
[7]: https://docs.comfy.org/tutorials/basic/lora?utm_source=chatgpt.com &amp;quot;ComfyUI LoRA Example&amp;quot;&lt;br /&gt;
[8]: https://huggingface.co/black-forest-labs/FLUX.1-dev?utm_source=chatgpt.com &amp;quot;black-forest-labs/FLUX.1-dev&amp;quot;&lt;br /&gt;
[9]: https://github.com/Comfy-Org/ComfyUI-Manager?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager is an extension designed to enhance ...&amp;quot;&lt;br /&gt;
[10]: https://docs.comfy.org/installation/update_comfyui?utm_source=chatgpt.com &amp;quot;How to Update ComfyUI&amp;quot;&lt;br /&gt;
[11]: https://docs.comfy.org/troubleshooting/model-issues?utm_source=chatgpt.com &amp;quot;How to Troubleshoot and Solve ComfyUI Model Issues&amp;quot;&lt;br /&gt;
[12]: https://docs.comfy.org/installation/install_custom_node?utm_source=chatgpt.com &amp;quot;How to Install Custom Nodes in ComfyUI&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73516</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73516"/>
		<updated>2026-03-25T23:07:06Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* ComfyUI */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv]]&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73515</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73515"/>
		<updated>2026-03-25T23:06:10Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 &lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;br /&gt;
 docker exec -it ollama ollama OpenNix/wazuh-llama-3.1-8B-v1:latest&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73514</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73514"/>
		<updated>2026-03-25T23:05:53Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - openwebui_data:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73513</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73513"/>
		<updated>2026-03-25T23:05:38Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data  &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73512</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73512"/>
		<updated>2026-03-25T23:05:21Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 12) Hal yang paling penting */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73511</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73511"/>
		<updated>2026-03-25T22:54:41Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 &lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;br /&gt;
 docker exec -it ollama ollama OpenNix/wazuh-llama-3.1-8B-v1:latest&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73510</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73510"/>
		<updated>2026-03-25T22:54:23Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;br /&gt;
 docker exec -it ollama ollama OpenNix/wazuh-llama-3.1-8B-v1:latest&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73509</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73509"/>
		<updated>2026-03-25T22:52:16Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73508</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73508"/>
		<updated>2026-03-25T22:47:59Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;  # embedding  docker exec -it ollama ollama pull nomic-embed-text:latest  docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest  docker exec -it ollama ollama pul...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73507</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73507"/>
		<updated>2026-03-25T22:42:07Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73506</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73506"/>
		<updated>2026-03-25T22:40:03Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - openwebui_data:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73505</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73505"/>
		<updated>2026-03-25T22:39:30Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data  &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73504</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73504"/>
		<updated>2026-03-25T22:35:26Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;docker-compose.yaml   services:    ################################    # 1. OLLAMA (GPU)    ################################    ollama:      image: ollama/ollama:latest      c...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data  &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73503</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73503"/>
		<updated>2026-03-25T22:32:44Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73502</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73502"/>
		<updated>2026-03-24T10:19:07Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;docker-compose.yaml   services:    ################################    # 1. OLLAMA (GPU)    ################################    ollama:      image: ollama/ollama:latest      c...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - openwebui_data:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73501</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73501"/>
		<updated>2026-03-24T10:14:40Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73500</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73500"/>
		<updated>2026-03-12T19:58:22Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 5) Buat `docker-compose.yml` */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73499</id>
		<title>ROBOT Tempur</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73499"/>
		<updated>2026-03-12T07:41:36Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Ground Drone / Land Drone */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Pengembangan teknologi '''drone dan robot''' untuk pertahanan negara sangat penting di masa depan karena beberapa alasan strategis dan praktis:&lt;br /&gt;
&lt;br /&gt;
==1. '''Efisiensi Operasional &amp;amp; Pengurangan Risiko Nyawa'''==&lt;br /&gt;
* Drone dan robot dapat menggantikan peran prajurit dalam misi berbahaya, seperti '''pengintaian di medan musuh''', '''pembasmian ranjau''', atau '''operasi di lingkungan beracun'''.&lt;br /&gt;
* Menggunakan teknologi ini mengurangi risiko korban jiwa dalam operasi militer atau penanggulangan terorisme.&lt;br /&gt;
&lt;br /&gt;
==2. '''Keunggulan dalam Pengintaian &amp;amp; Intelijen'''==&lt;br /&gt;
* Drone dapat digunakan untuk '''pengawasan real-time''', memungkinkan deteksi dini terhadap ancaman tanpa harus mengirimkan personel langsung ke lokasi.&lt;br /&gt;
* AI yang tertanam dalam drone dapat menganalisis pergerakan musuh dan memberikan '''prediksi strategi lawan'''.&lt;br /&gt;
&lt;br /&gt;
==3. '''Penguatan Pertahanan Udara &amp;amp; Perang Asimetris'''==&lt;br /&gt;
* Negara-negara besar seperti AS, Rusia, dan China sudah menggunakan '''drone tempur''' (UCAV - Unmanned Combat Aerial Vehicle) dalam berbagai operasi militer.&lt;br /&gt;
* Drone dapat melakukan serangan presisi ke target musuh tanpa perlu menerbangkan pesawat tempur berawak.&lt;br /&gt;
* Dalam perang asimetris, drone dapat digunakan oleh negara dengan anggaran militer terbatas untuk melawan musuh yang lebih besar dengan '''strategi gerilya berbasis teknologi'''.&lt;br /&gt;
&lt;br /&gt;
==4. '''Pencegahan &amp;amp; Penanganan Ancaman Siber'''==&lt;br /&gt;
* '''Robot keamanan siber''' bisa dikembangkan untuk '''mendeteksi serangan siber secara otomatis''' dan menanggulangi ancaman sebelum terjadi kerusakan besar pada sistem pertahanan.&lt;br /&gt;
* Drone juga bisa digunakan untuk mengidentifikasi '''serangan elektromagnetik (EMP) atau serangan drone musuh''' yang berpotensi mengganggu infrastruktur pertahanan.&lt;br /&gt;
&lt;br /&gt;
==5. '''Otomatisasi Logistik &amp;amp; Dukungan Medis'''==&lt;br /&gt;
* Robot dan drone dapat mempercepat '''pengiriman logistik ke medan perang''' tanpa keterlibatan langsung manusia.&lt;br /&gt;
* '''Drone medis''' bisa mengirim suplai obat atau melakukan '''evakuasi korban''' di wilayah konflik tanpa perlu mengirim personel medis langsung.&lt;br /&gt;
&lt;br /&gt;
==6. '''Ekonomi Pertahanan yang Lebih Efisien'''==&lt;br /&gt;
* Mengembangkan drone dan robot lebih hemat dibanding '''memproduksi dan memelihara armada pesawat tempur atau kendaraan tempur tradisional'''.&lt;br /&gt;
* Operasi drone lebih murah dibanding operasi militer dengan jet tempur yang membutuhkan pilot terlatih dan perawatan mahal.&lt;br /&gt;
&lt;br /&gt;
==7. '''Penguatan Pertahanan Maritim &amp;amp; Perbatasan'''==&lt;br /&gt;
* Drone laut (USV - Unmanned Surface Vehicle) dapat digunakan untuk '''pengawasan wilayah perairan''', terutama untuk '''mendeteksi kapal asing atau penyelundupan di perbatasan'''.&lt;br /&gt;
* Robot bawah air (UUV - Unmanned Underwater Vehicle) dapat digunakan untuk '''mendeteksi kapal selam musuh atau ranjau laut'''.&lt;br /&gt;
&lt;br /&gt;
==8. '''Kemampuan Respons Cepat terhadap Ancaman'''==&lt;br /&gt;
* Dengan AI, drone dan robot dapat mengambil '''keputusan cepat''' dalam situasi darurat, seperti '''serangan mendadak dari musuh'''.&lt;br /&gt;
* Negara yang memiliki '''armada drone patroli otomatis''' akan lebih siap menghadapi ancaman serangan udara maupun darat.&lt;br /&gt;
&lt;br /&gt;
==9. '''Perlombaan Teknologi Militer di Dunia'''==&lt;br /&gt;
* Banyak negara besar sudah berlomba-lomba dalam mengembangkan '''military AI, drone swarm (drone berkelompok), dan robot tempur'''.&lt;br /&gt;
* Jika sebuah negara '''tidak berinvestasi dalam teknologi ini''', maka akan tertinggal dalam strategi pertahanan modern.&lt;br /&gt;
&lt;br /&gt;
==10. '''Adaptasi dengan Medan Perang Masa Depan'''==&lt;br /&gt;
* Perang masa depan tidak hanya akan terjadi di '''medan darat atau udara''', tetapi juga di '''ruang siber dan menggunakan teknologi AI'''.&lt;br /&gt;
* Drone dan robot akan menjadi bagian penting dalam '''pertahanan berbasis teknologi, perang elektronik, dan pengamanan infrastruktur digital'''.&lt;br /&gt;
&lt;br /&gt;
=='''Kesimpulan'''==&lt;br /&gt;
Pengembangan drone dan robot dalam pertahanan negara bukan lagi '''opsional''', tetapi sudah menjadi '''kebutuhan strategis'''. Negara yang tidak mengembangkan teknologi ini akan '''tertinggal secara militer''', rentan terhadap serangan siber, dan kurang efisien dalam menangani ancaman modern. Oleh karena itu, '''investasi dalam teknologi drone dan robot militer sangat krusial''' untuk memastikan '''kedaulatan dan keamanan nasional di masa depan'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE AI for Defence==&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=VdOK8RvT7Ic - Ukraine’s Revolutionary ACOUSTIC Weapon STUNS Even NATO&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE Drone dalam Pertempuran==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=YhieYTf260M - Ukrainian drone industry on the rise: New designs developed on near daily basis&lt;br /&gt;
* https://www.youtube.com/watch?v=cLnYpcQYQWQ - ONE Thing Russia Never Accounted For... Now They Are Paying In BLOOD&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=InP5xmECiio - Ukraine’s Long-Range Drones UNLEASHED on Crimea – THEN THIS Happens…&lt;br /&gt;
&lt;br /&gt;
===Sea Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=Iv1WbNY-yB0 - Faster than anything else in the Black Sea': See Ukraine's latest sea drone&lt;br /&gt;
* https://www.youtube.com/watch?v=yBtWgUq-bcU - How Ukraine's boat drones sank a THIRD of the Black Sea Fleet and changed naval warfare forever&lt;br /&gt;
* https://www.youtube.com/watch?v=kYY4t1VVY1E - How Ukraine Sea Drone Shot Russian Helicopter?&lt;br /&gt;
* https://www.youtube.com/watch?v=gO2sqsB8Wwc - How Ukraine Sea Drone With Heat Seeking Missile Works?&lt;br /&gt;
* https://www.youtube.com/watch?v=dVNXPRy2-_w - Inside the Ukrainian drone unit responsible for high-profile strikes&lt;br /&gt;
* https://www.youtube.com/watch?v=YFhADRYXi_8 - Naval Kamikaze Sea Drone How it works using Starlink Satellite&lt;br /&gt;
* https://www.youtube.com/watch?v=bA_f5foFmi8 - Russian Jet Hunts Sea Drone — BIG MISTAKE&lt;br /&gt;
* https://www.youtube.com/watch?v=CcYvjJfnv70 - Something TERRIFYING Just Entered The Baltic Sea... Russia Can't Stop It&lt;br /&gt;
* https://www.youtube.com/watch?v=T4sZktXct4Q - Ukrainian Drone Strike Russia Doesn’t Want You To See&lt;br /&gt;
* https://www.youtube.com/watch?v=JIUaBrK2n74 - Ukraine sea drone attack on Russian ship | Raw video&lt;br /&gt;
&lt;br /&gt;
===Ground Drone / Land Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DrZOXlXOVc0 - AI Just Started KILLING Russians on the Front Lines for the First Time&lt;br /&gt;
* https://www.youtube.com/watch?v=skPRtSIJl7Y - How Ground Drones In Ukraine Are Changing The Future Of War&lt;br /&gt;
* https://www.youtube.com/watch?v=UhyMzs_hyz4 - Mines Strapped to Ground Drones Are Ukraine's Next Game-Changer&lt;br /&gt;
* https://www.youtube.com/watch?v=R3m4z9CoXEY - The deadly ground drones giving Ukraine's frontline soldiers an advantage&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/shorts/eeHeK1VJdTs - Ukraine’s kamikaze ground drone&lt;br /&gt;
* https://www.youtube.com/watch?v=IHJrt5myTYw - Ukrainian Land Drones Revolutionize Warfare: Clearing Mines and Deploying Explosives&lt;br /&gt;
* https://www.youtube.com/watch?v=y6swzGpJDdQ - Ukrainian Soldiers Found a GENIUS Way to Build a Robot Army&lt;br /&gt;
* https://www.youtube.com/watch?v=YrrXNZyoc8k - Unmanned Ground Vehicles in Ukraine - Robotic warfare, Ground Combat &amp;amp; Supply drones&lt;br /&gt;
&lt;br /&gt;
===Air Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=GneLEijIUT8 - A night with Ukraine’s Vampire drone team near Kurakhove&lt;br /&gt;
* https://www.youtube.com/watch?v=L_djKZ4m7iQ - Australian company supplying Ukraine with cardboard drones to fight Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=iE18uraHOcs - DIY Drones: War Will Never be the Same&lt;br /&gt;
* https://www.youtube.com/watch?v=vUsv9RpOMqo - Drones, Tanks, Trench Warfare &amp;amp; Everything Else | War On Tape | 2025 Ukraine Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=iTaBPromlLA - Drone Ukraina MENYERANG Kereta Rusia - Lalu INI YANG TERJADI...&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=PXLQKIkN_WI - Drone UJ-22 | How Ukraine Mysterious Drone Strikes Deep into Russia?&lt;br /&gt;
* https://www.youtube.com/watch?v=-RPNbZaFUmM - How a $55K Ukrainian Drone CRIPPLED Russia’s ENTIRE War Machine&lt;br /&gt;
* https://www.youtube.com/watch?v=Cc8nrJYvq3A - How CHEAP Ukrainian PAPER PLANES are Destroying EXPENSIVE Russian Weapons - FULL EPISODE&lt;br /&gt;
* https://www.youtube.com/watch?v=WC5fD_B-o80 - How Ukrainian DIY Drones Are Taking Out Russian Tanks | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=Jdvh5O25mZQ - How Ukraine drone war can help Europe win the next conflict&lt;br /&gt;
* https://www.youtube.com/watch?v=CRRYmT6hhQA - Inside the Most Secret Ukrainian Factory Producing Thousands Vampire Drones a Day&lt;br /&gt;
* https://www.youtube.com/watch?v=Cmv1frnURHA - Inside Ukraine’s deadly drone war | Times Reports&lt;br /&gt;
* https://www.youtube.com/watch?v=ct0G-vZHbMk - MASTERS of Drone War - Even US Can't Believe What Ukrine is Doing&lt;br /&gt;
* https://www.youtube.com/watch?v=9gHgxl9zAjw - New Ukrainian DRONE MOTHERSHIP Can turn Any Russian Tank To Dust&lt;br /&gt;
* https://www.youtube.com/shorts/y9j1F8c037I - New Ukrainian Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=-JN-TRYmLA8 - New Ukrainian FRAGS Go Through Russian Tanks Like Butter&lt;br /&gt;
* https://www.youtube.com/watch?v=xnYsv1diMH0 - Professor Michael Clarke assesses Ukraine's dragon drones | Ukraine war&lt;br /&gt;
* https://www.youtube.com/watch?v=a4RhMTbG3Fc - Russian drone factories are successfully shot down by Ukrainian UAVs, Russians lose air battle&lt;br /&gt;
* https://www.youtube.com/watch?v=6HtXA24chuE - Russia-Ukraine War: Ukraine Rolls Out Interceptor Drones To Boost Air Defence&lt;br /&gt;
* https://www.youtube.com/watch?v=vThvJznTdFg - Russia Will Never Forget This Ukrainian Drone Attack&lt;br /&gt;
* https://www.youtube.com/watch?v=dLP8fvx-PuU - Seconds Before Collapse: FPV Drone Hunts Russia Forces at Night | Ukraine War&lt;br /&gt;
* https://www.youtube.com/watch?v=gpJpgc8sUQI - Secret Launches of Liutyi Drones Against Russian Oil Plants and Airbases. 14th Deep-Strike Regiment&lt;br /&gt;
* https://www.youtube.com/watch?v=r6bD0uP3WGg - SHOCKING! Ukraine’s Most Powerful Drones CRIPPLE Russia’s War Machine – Putin Forced to Retreat!&lt;br /&gt;
* https://www.youtube.com/watch?v=egEwObPT8zE - Sky News at launch of long-range drones as top secret Ukrainian unit strikes Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=pkb3-Wksh7Y - The Drones Winning and Losing the War in Ukraine | War On Tape Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=BoirTLwxLs0 - Ukraine War: More Gun Drones&lt;br /&gt;
* https://www.youtube.com/watch?v=-PG5SJcEt0I - Ukraine's Drones Are Dropping Anti Tank Mines as Bombs&lt;br /&gt;
* https://www.youtube.com/watch?v=AaacETBOW2A - Ukrainian drones fly to front from every direction, Russia is helpless against these &amp;quot;birds&amp;quot;&lt;br /&gt;
* https://www.youtube.com/watch?v=SYj47OfPsVk - Ukraine’s drones take 53 million tons of Russian oil offline, crippling 10% of refining capacity&lt;br /&gt;
* https://www.youtube.com/watch?v=C5rAWfIjiiI - Ukrainian Drones STRIKE Russian Boat - Then THIS Happened…&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=unW7qBu7XSw - Ukraine's Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=q0DcBXtxSe8 - Ukraine's flat-pack cardboard drones destroying Russian tanks&lt;br /&gt;
* https://www.youtube.com/watch?v=8hZlFT5sWaU - Ukraine’s “SEARCH &amp;amp; DESTROY” Units Are Russia’s New NIGHTMARISH Reality&lt;br /&gt;
* https://www.youtube.com/watch?v=Gha9oDJpjAU - Ukraine frontline: The killer drones changing warfare&lt;br /&gt;
* https://www.youtube.com/watch?v=VUYNRANuqH4 - Ukrainian Soldiers Unraveling The Secrets: Why Fiber-Optic FPV Drones Unstoppable Against Russian EW&lt;br /&gt;
* https://www.youtube.com/watch?v=EqPF5OLWLqE - VAMPIRE Drones Are Dropping ROBOT DOGS on Russians&lt;br /&gt;
* https://www.youtube.com/watch?v=weQdAVg-BUI - Watch Ukrainian Uncrewed Aerial Mothership Launch Kamikaze Drones in Action&lt;br /&gt;
* https://www.youtube.com/watch?v=B4OJvxq7c6E - Why UJ-22 Kamikaze Drone is BIGGEST NIGHTMARE Russia Has Ever Faced&lt;br /&gt;
* https://www.youtube.com/watch?v=9hzIMI2DLys - Why Ukraine’s Deadly Drone Operation Runs Like a ‘McDonald’s’ | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=t_oWzN25icA - Ukraine’s DIY Drone Interceptor Takes Down 10 Iranian Shaheeds — No Missiles Needed&lt;br /&gt;
* https://www.youtube.com/watch?v=hWxUt41DlB4 - Why Ukraine’s FPV Drones are a Russian Soldier’s Nightmare | War On Tape | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=cLA_qgl2YYs - Why Ukraine War's Deadly Drones Are Now Flying By 12-Mile-Long ‘Wires' | Frontline | Daily Mail&lt;br /&gt;
&lt;br /&gt;
===Glide Bomb===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=WK2W-lNBnA8 - How Ukraine is Jamming Russia's Glide Bombs!&lt;br /&gt;
* https://www.youtube.com/watch?v=XWmGKsitMD4 - The Glide BOMB War in Ukraine&lt;br /&gt;
&lt;br /&gt;
===Air Defence===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=mp9veoRY1G4 - See How Ukraine's NEW WEAPON Made Russia's Air Force USELESS&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73498</id>
		<title>ROBOT Tempur</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73498"/>
		<updated>2026-03-12T07:41:22Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Ground Drone / Land Drone */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Pengembangan teknologi '''drone dan robot''' untuk pertahanan negara sangat penting di masa depan karena beberapa alasan strategis dan praktis:&lt;br /&gt;
&lt;br /&gt;
==1. '''Efisiensi Operasional &amp;amp; Pengurangan Risiko Nyawa'''==&lt;br /&gt;
* Drone dan robot dapat menggantikan peran prajurit dalam misi berbahaya, seperti '''pengintaian di medan musuh''', '''pembasmian ranjau''', atau '''operasi di lingkungan beracun'''.&lt;br /&gt;
* Menggunakan teknologi ini mengurangi risiko korban jiwa dalam operasi militer atau penanggulangan terorisme.&lt;br /&gt;
&lt;br /&gt;
==2. '''Keunggulan dalam Pengintaian &amp;amp; Intelijen'''==&lt;br /&gt;
* Drone dapat digunakan untuk '''pengawasan real-time''', memungkinkan deteksi dini terhadap ancaman tanpa harus mengirimkan personel langsung ke lokasi.&lt;br /&gt;
* AI yang tertanam dalam drone dapat menganalisis pergerakan musuh dan memberikan '''prediksi strategi lawan'''.&lt;br /&gt;
&lt;br /&gt;
==3. '''Penguatan Pertahanan Udara &amp;amp; Perang Asimetris'''==&lt;br /&gt;
* Negara-negara besar seperti AS, Rusia, dan China sudah menggunakan '''drone tempur''' (UCAV - Unmanned Combat Aerial Vehicle) dalam berbagai operasi militer.&lt;br /&gt;
* Drone dapat melakukan serangan presisi ke target musuh tanpa perlu menerbangkan pesawat tempur berawak.&lt;br /&gt;
* Dalam perang asimetris, drone dapat digunakan oleh negara dengan anggaran militer terbatas untuk melawan musuh yang lebih besar dengan '''strategi gerilya berbasis teknologi'''.&lt;br /&gt;
&lt;br /&gt;
==4. '''Pencegahan &amp;amp; Penanganan Ancaman Siber'''==&lt;br /&gt;
* '''Robot keamanan siber''' bisa dikembangkan untuk '''mendeteksi serangan siber secara otomatis''' dan menanggulangi ancaman sebelum terjadi kerusakan besar pada sistem pertahanan.&lt;br /&gt;
* Drone juga bisa digunakan untuk mengidentifikasi '''serangan elektromagnetik (EMP) atau serangan drone musuh''' yang berpotensi mengganggu infrastruktur pertahanan.&lt;br /&gt;
&lt;br /&gt;
==5. '''Otomatisasi Logistik &amp;amp; Dukungan Medis'''==&lt;br /&gt;
* Robot dan drone dapat mempercepat '''pengiriman logistik ke medan perang''' tanpa keterlibatan langsung manusia.&lt;br /&gt;
* '''Drone medis''' bisa mengirim suplai obat atau melakukan '''evakuasi korban''' di wilayah konflik tanpa perlu mengirim personel medis langsung.&lt;br /&gt;
&lt;br /&gt;
==6. '''Ekonomi Pertahanan yang Lebih Efisien'''==&lt;br /&gt;
* Mengembangkan drone dan robot lebih hemat dibanding '''memproduksi dan memelihara armada pesawat tempur atau kendaraan tempur tradisional'''.&lt;br /&gt;
* Operasi drone lebih murah dibanding operasi militer dengan jet tempur yang membutuhkan pilot terlatih dan perawatan mahal.&lt;br /&gt;
&lt;br /&gt;
==7. '''Penguatan Pertahanan Maritim &amp;amp; Perbatasan'''==&lt;br /&gt;
* Drone laut (USV - Unmanned Surface Vehicle) dapat digunakan untuk '''pengawasan wilayah perairan''', terutama untuk '''mendeteksi kapal asing atau penyelundupan di perbatasan'''.&lt;br /&gt;
* Robot bawah air (UUV - Unmanned Underwater Vehicle) dapat digunakan untuk '''mendeteksi kapal selam musuh atau ranjau laut'''.&lt;br /&gt;
&lt;br /&gt;
==8. '''Kemampuan Respons Cepat terhadap Ancaman'''==&lt;br /&gt;
* Dengan AI, drone dan robot dapat mengambil '''keputusan cepat''' dalam situasi darurat, seperti '''serangan mendadak dari musuh'''.&lt;br /&gt;
* Negara yang memiliki '''armada drone patroli otomatis''' akan lebih siap menghadapi ancaman serangan udara maupun darat.&lt;br /&gt;
&lt;br /&gt;
==9. '''Perlombaan Teknologi Militer di Dunia'''==&lt;br /&gt;
* Banyak negara besar sudah berlomba-lomba dalam mengembangkan '''military AI, drone swarm (drone berkelompok), dan robot tempur'''.&lt;br /&gt;
* Jika sebuah negara '''tidak berinvestasi dalam teknologi ini''', maka akan tertinggal dalam strategi pertahanan modern.&lt;br /&gt;
&lt;br /&gt;
==10. '''Adaptasi dengan Medan Perang Masa Depan'''==&lt;br /&gt;
* Perang masa depan tidak hanya akan terjadi di '''medan darat atau udara''', tetapi juga di '''ruang siber dan menggunakan teknologi AI'''.&lt;br /&gt;
* Drone dan robot akan menjadi bagian penting dalam '''pertahanan berbasis teknologi, perang elektronik, dan pengamanan infrastruktur digital'''.&lt;br /&gt;
&lt;br /&gt;
=='''Kesimpulan'''==&lt;br /&gt;
Pengembangan drone dan robot dalam pertahanan negara bukan lagi '''opsional''', tetapi sudah menjadi '''kebutuhan strategis'''. Negara yang tidak mengembangkan teknologi ini akan '''tertinggal secara militer''', rentan terhadap serangan siber, dan kurang efisien dalam menangani ancaman modern. Oleh karena itu, '''investasi dalam teknologi drone dan robot militer sangat krusial''' untuk memastikan '''kedaulatan dan keamanan nasional di masa depan'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE AI for Defence==&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=VdOK8RvT7Ic - Ukraine’s Revolutionary ACOUSTIC Weapon STUNS Even NATO&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE Drone dalam Pertempuran==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=YhieYTf260M - Ukrainian drone industry on the rise: New designs developed on near daily basis&lt;br /&gt;
* https://www.youtube.com/watch?v=cLnYpcQYQWQ - ONE Thing Russia Never Accounted For... Now They Are Paying In BLOOD&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=InP5xmECiio - Ukraine’s Long-Range Drones UNLEASHED on Crimea – THEN THIS Happens…&lt;br /&gt;
&lt;br /&gt;
===Sea Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=Iv1WbNY-yB0 - Faster than anything else in the Black Sea': See Ukraine's latest sea drone&lt;br /&gt;
* https://www.youtube.com/watch?v=yBtWgUq-bcU - How Ukraine's boat drones sank a THIRD of the Black Sea Fleet and changed naval warfare forever&lt;br /&gt;
* https://www.youtube.com/watch?v=kYY4t1VVY1E - How Ukraine Sea Drone Shot Russian Helicopter?&lt;br /&gt;
* https://www.youtube.com/watch?v=gO2sqsB8Wwc - How Ukraine Sea Drone With Heat Seeking Missile Works?&lt;br /&gt;
* https://www.youtube.com/watch?v=dVNXPRy2-_w - Inside the Ukrainian drone unit responsible for high-profile strikes&lt;br /&gt;
* https://www.youtube.com/watch?v=YFhADRYXi_8 - Naval Kamikaze Sea Drone How it works using Starlink Satellite&lt;br /&gt;
* https://www.youtube.com/watch?v=bA_f5foFmi8 - Russian Jet Hunts Sea Drone — BIG MISTAKE&lt;br /&gt;
* https://www.youtube.com/watch?v=CcYvjJfnv70 - Something TERRIFYING Just Entered The Baltic Sea... Russia Can't Stop It&lt;br /&gt;
* https://www.youtube.com/watch?v=T4sZktXct4Q - Ukrainian Drone Strike Russia Doesn’t Want You To See&lt;br /&gt;
* https://www.youtube.com/watch?v=JIUaBrK2n74 - Ukraine sea drone attack on Russian ship | Raw video&lt;br /&gt;
&lt;br /&gt;
===Ground Drone / Land Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DrZOXlXOVc0 - &lt;br /&gt;
AI Just Started KILLING Russians on the Front Lines for the First Time&lt;br /&gt;
* https://www.youtube.com/watch?v=skPRtSIJl7Y - How Ground Drones In Ukraine Are Changing The Future Of War&lt;br /&gt;
* https://www.youtube.com/watch?v=UhyMzs_hyz4 - Mines Strapped to Ground Drones Are Ukraine's Next Game-Changer&lt;br /&gt;
* https://www.youtube.com/watch?v=R3m4z9CoXEY - The deadly ground drones giving Ukraine's frontline soldiers an advantage&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/shorts/eeHeK1VJdTs - Ukraine’s kamikaze ground drone&lt;br /&gt;
* https://www.youtube.com/watch?v=IHJrt5myTYw - Ukrainian Land Drones Revolutionize Warfare: Clearing Mines and Deploying Explosives&lt;br /&gt;
* https://www.youtube.com/watch?v=y6swzGpJDdQ - Ukrainian Soldiers Found a GENIUS Way to Build a Robot Army&lt;br /&gt;
* https://www.youtube.com/watch?v=YrrXNZyoc8k - Unmanned Ground Vehicles in Ukraine - Robotic warfare, Ground Combat &amp;amp; Supply drones&lt;br /&gt;
&lt;br /&gt;
===Air Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=GneLEijIUT8 - A night with Ukraine’s Vampire drone team near Kurakhove&lt;br /&gt;
* https://www.youtube.com/watch?v=L_djKZ4m7iQ - Australian company supplying Ukraine with cardboard drones to fight Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=iE18uraHOcs - DIY Drones: War Will Never be the Same&lt;br /&gt;
* https://www.youtube.com/watch?v=vUsv9RpOMqo - Drones, Tanks, Trench Warfare &amp;amp; Everything Else | War On Tape | 2025 Ukraine Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=iTaBPromlLA - Drone Ukraina MENYERANG Kereta Rusia - Lalu INI YANG TERJADI...&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=PXLQKIkN_WI - Drone UJ-22 | How Ukraine Mysterious Drone Strikes Deep into Russia?&lt;br /&gt;
* https://www.youtube.com/watch?v=-RPNbZaFUmM - How a $55K Ukrainian Drone CRIPPLED Russia’s ENTIRE War Machine&lt;br /&gt;
* https://www.youtube.com/watch?v=Cc8nrJYvq3A - How CHEAP Ukrainian PAPER PLANES are Destroying EXPENSIVE Russian Weapons - FULL EPISODE&lt;br /&gt;
* https://www.youtube.com/watch?v=WC5fD_B-o80 - How Ukrainian DIY Drones Are Taking Out Russian Tanks | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=Jdvh5O25mZQ - How Ukraine drone war can help Europe win the next conflict&lt;br /&gt;
* https://www.youtube.com/watch?v=CRRYmT6hhQA - Inside the Most Secret Ukrainian Factory Producing Thousands Vampire Drones a Day&lt;br /&gt;
* https://www.youtube.com/watch?v=Cmv1frnURHA - Inside Ukraine’s deadly drone war | Times Reports&lt;br /&gt;
* https://www.youtube.com/watch?v=ct0G-vZHbMk - MASTERS of Drone War - Even US Can't Believe What Ukrine is Doing&lt;br /&gt;
* https://www.youtube.com/watch?v=9gHgxl9zAjw - New Ukrainian DRONE MOTHERSHIP Can turn Any Russian Tank To Dust&lt;br /&gt;
* https://www.youtube.com/shorts/y9j1F8c037I - New Ukrainian Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=-JN-TRYmLA8 - New Ukrainian FRAGS Go Through Russian Tanks Like Butter&lt;br /&gt;
* https://www.youtube.com/watch?v=xnYsv1diMH0 - Professor Michael Clarke assesses Ukraine's dragon drones | Ukraine war&lt;br /&gt;
* https://www.youtube.com/watch?v=a4RhMTbG3Fc - Russian drone factories are successfully shot down by Ukrainian UAVs, Russians lose air battle&lt;br /&gt;
* https://www.youtube.com/watch?v=6HtXA24chuE - Russia-Ukraine War: Ukraine Rolls Out Interceptor Drones To Boost Air Defence&lt;br /&gt;
* https://www.youtube.com/watch?v=vThvJznTdFg - Russia Will Never Forget This Ukrainian Drone Attack&lt;br /&gt;
* https://www.youtube.com/watch?v=dLP8fvx-PuU - Seconds Before Collapse: FPV Drone Hunts Russia Forces at Night | Ukraine War&lt;br /&gt;
* https://www.youtube.com/watch?v=gpJpgc8sUQI - Secret Launches of Liutyi Drones Against Russian Oil Plants and Airbases. 14th Deep-Strike Regiment&lt;br /&gt;
* https://www.youtube.com/watch?v=r6bD0uP3WGg - SHOCKING! Ukraine’s Most Powerful Drones CRIPPLE Russia’s War Machine – Putin Forced to Retreat!&lt;br /&gt;
* https://www.youtube.com/watch?v=egEwObPT8zE - Sky News at launch of long-range drones as top secret Ukrainian unit strikes Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=pkb3-Wksh7Y - The Drones Winning and Losing the War in Ukraine | War On Tape Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=BoirTLwxLs0 - Ukraine War: More Gun Drones&lt;br /&gt;
* https://www.youtube.com/watch?v=-PG5SJcEt0I - Ukraine's Drones Are Dropping Anti Tank Mines as Bombs&lt;br /&gt;
* https://www.youtube.com/watch?v=AaacETBOW2A - Ukrainian drones fly to front from every direction, Russia is helpless against these &amp;quot;birds&amp;quot;&lt;br /&gt;
* https://www.youtube.com/watch?v=SYj47OfPsVk - Ukraine’s drones take 53 million tons of Russian oil offline, crippling 10% of refining capacity&lt;br /&gt;
* https://www.youtube.com/watch?v=C5rAWfIjiiI - Ukrainian Drones STRIKE Russian Boat - Then THIS Happened…&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=unW7qBu7XSw - Ukraine's Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=q0DcBXtxSe8 - Ukraine's flat-pack cardboard drones destroying Russian tanks&lt;br /&gt;
* https://www.youtube.com/watch?v=8hZlFT5sWaU - Ukraine’s “SEARCH &amp;amp; DESTROY” Units Are Russia’s New NIGHTMARISH Reality&lt;br /&gt;
* https://www.youtube.com/watch?v=Gha9oDJpjAU - Ukraine frontline: The killer drones changing warfare&lt;br /&gt;
* https://www.youtube.com/watch?v=VUYNRANuqH4 - Ukrainian Soldiers Unraveling The Secrets: Why Fiber-Optic FPV Drones Unstoppable Against Russian EW&lt;br /&gt;
* https://www.youtube.com/watch?v=EqPF5OLWLqE - VAMPIRE Drones Are Dropping ROBOT DOGS on Russians&lt;br /&gt;
* https://www.youtube.com/watch?v=weQdAVg-BUI - Watch Ukrainian Uncrewed Aerial Mothership Launch Kamikaze Drones in Action&lt;br /&gt;
* https://www.youtube.com/watch?v=B4OJvxq7c6E - Why UJ-22 Kamikaze Drone is BIGGEST NIGHTMARE Russia Has Ever Faced&lt;br /&gt;
* https://www.youtube.com/watch?v=9hzIMI2DLys - Why Ukraine’s Deadly Drone Operation Runs Like a ‘McDonald’s’ | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=t_oWzN25icA - Ukraine’s DIY Drone Interceptor Takes Down 10 Iranian Shaheeds — No Missiles Needed&lt;br /&gt;
* https://www.youtube.com/watch?v=hWxUt41DlB4 - Why Ukraine’s FPV Drones are a Russian Soldier’s Nightmare | War On Tape | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=cLA_qgl2YYs - Why Ukraine War's Deadly Drones Are Now Flying By 12-Mile-Long ‘Wires' | Frontline | Daily Mail&lt;br /&gt;
&lt;br /&gt;
===Glide Bomb===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=WK2W-lNBnA8 - How Ukraine is Jamming Russia's Glide Bombs!&lt;br /&gt;
* https://www.youtube.com/watch?v=XWmGKsitMD4 - The Glide BOMB War in Ukraine&lt;br /&gt;
&lt;br /&gt;
===Air Defence===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=mp9veoRY1G4 - See How Ukraine's NEW WEAPON Made Russia's Air Force USELESS&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73497</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73497"/>
		<updated>2026-03-12T05:11:55Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 5) Buat `docker-compose.yml` */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu]&lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73496</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73496"/>
		<updated>2026-03-11T06:01:23Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n'''...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 yaml&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu]&lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73495</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73495"/>
		<updated>2026-03-11T05:54:19Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Orange:_Install_di_Ubuntu_24.04.1_%2B_GPU_RTX_4060&amp;diff=73494</id>
		<title>Orange: Install di Ubuntu 24.04.1 + GPU RTX 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Orange:_Install_di_Ubuntu_24.04.1_%2B_GPU_RTX_4060&amp;diff=73494"/>
		<updated>2026-03-11T05:44:35Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Berikut **versi update** yang lebih rapi, relevan untuk **Ubuntu 24.04.1 + Orange Data Mining + Word Cloud**, sekaligus menyiapkan **GPU RTX 4060 internal** agar **siap dipaka...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut **versi update** yang lebih rapi, relevan untuk **Ubuntu 24.04.1 + Orange Data Mining + Word Cloud**, sekaligus menyiapkan **GPU RTX 4060 internal** agar **siap dipakai oleh Python/CUDA** bila workflow Orange memanggil library yang mendukung GPU. Yang penting: **Word Cloud di Orange Text sendiri bukan widget yang secara umum membutuhkan GPU**, jadi RTX 4060 tidak akan otomatis mempercepat Word Cloud. Orange memang bisa dipasang via `pip`, butuh **PyQt** untuk GUI, dan add-on dipasang lewat **Options → Add-ons** atau `pip`; untuk Ubuntu, Orange juga menyarankan jalur `pip install orange3` dengan **PyQt6 + PyQt6-WebEngine**. ([Orange Data Mining][1])&lt;br /&gt;
&lt;br /&gt;
## Versi yang diperbarui&lt;br /&gt;
&lt;br /&gt;
# Orange: Install di Ubuntu 24.04.1 + siapkan GPU RTX 4060 internal&lt;br /&gt;
&lt;br /&gt;
## 1. Install driver NVIDIA yang direkomendasikan Ubuntu&lt;br /&gt;
&lt;br /&gt;
Untuk RTX 4060 di Ubuntu 24.04, jalur paling aman adalah pakai utilitas resmi Ubuntu `ubuntu-drivers`. Canonical memang merekomendasikan cara ini untuk memilih driver NVIDIA yang cocok. ([Ubuntu][2])&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
sudo ubuntu-drivers list&lt;br /&gt;
sudo ubuntu-drivers install&lt;br /&gt;
sudo reboot&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Setelah reboot, cek apakah GPU sudah aktif:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
nvidia-smi&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Kalau berhasil, Anda akan melihat **GeForce RTX 4060**, versi driver, dan status VRAM. Driver aktif adalah syarat dasar sebelum CUDA atau library Python berbasis GPU bisa bekerja. ([Ubuntu][2])&lt;br /&gt;
&lt;br /&gt;
## 2. Pasang dependensi sistem untuk Orange&lt;br /&gt;
&lt;br /&gt;
Tidak perlu memasang campuran **PyQt5 + PyQt6 + PySide6** sekaligus. Orange saat ini menyarankan **PyQt6 + PyQt6-WebEngine** untuk instalasi `pip`. Anda cukup siapkan paket sistem dasar dan library GUI yang umum dibutuhkan. ([Orange Data Mining][1])&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y \&lt;br /&gt;
  python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
  libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
## 3. Buat virtual environment Python&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
cd ~&lt;br /&gt;
python3 -m venv orangenv&lt;br /&gt;
source ~/orangenv/bin/activate&lt;br /&gt;
python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
## 4. Install PyQt yang sesuai untuk Orange&lt;br /&gt;
&lt;br /&gt;
Dokumentasi Orange menyarankan memasang **PyQt6** dan **PyQt6-WebEngine** bila sistem belum menyediakannya. Jadi bagian ini sebaiknya diubah dari PyQt5/PyQtWebEngine menjadi berikut: ([Orange Data Mining][1])&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
## 5. Install Orange3&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install orange3&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Untuk menjalankan Orange, dokumentasi Orange menyebut dua cara yang valid:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
orange-canvas&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
atau&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
python -m Orange.canvas&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
([Orange Data Mining][1])&lt;br /&gt;
&lt;br /&gt;
## 6. Install add-on Text Mining untuk Word Cloud&lt;br /&gt;
&lt;br /&gt;
Widget **Word Cloud** berasal dari add-on **Orange3-Text / Orange Text Mining**. Dokumentasi widget Word Cloud dan repositori add-on Text sama-sama menunjukkan bahwa Word Cloud memang bagian dari add-on Text Mining. ([Orange Data Mining][3])&lt;br /&gt;
&lt;br /&gt;
Ada dua cara:&lt;br /&gt;
&lt;br /&gt;
### Cara A — dari dalam Orange&lt;br /&gt;
&lt;br /&gt;
Buka Orange:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
orange-canvas&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Lalu masuk ke:&lt;br /&gt;
&lt;br /&gt;
**Options → Add-ons → centang Text / Orange3-Text → OK**&lt;br /&gt;
&lt;br /&gt;
### Cara B — langsung via pip&lt;br /&gt;
&lt;br /&gt;
Lebih praktis dan sering lebih stabil:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install Orange3-Text&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
## 7. Tambahkan dependensi Word Cloud&lt;br /&gt;
&lt;br /&gt;
Untuk fitur Word Cloud, paket `wordcloud` tetap masuk akal dipasang. Anda juga bisa memastikan paket ilmiah dasarnya tersedia:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install numpy pandas matplotlib pillow wordcloud&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
## 8. Siapkan CUDA Toolkit agar RTX 4060 bisa dipakai Python&lt;br /&gt;
&lt;br /&gt;
NVIDIA merekomendasikan instalasi CUDA di Linux melalui **package manager**, dan untuk Ubuntu 24.04 mereka menyediakan `cuda-keyring` untuk repo resmi. Ini cocok bila nanti Anda ingin Orange memanggil library GPU seperti **PyTorch** atau **CuPy** dari widget **Python Script**. ([NVIDIA Docs][4])&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb&lt;br /&gt;
sudo dpkg -i cuda-keyring_1.1-1_all.deb&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y cuda-toolkit&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Tambahkan environment variable:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
echo 'export PATH=/usr/local/cuda/bin:$PATH' &amp;gt;&amp;gt; ~/.bashrc&lt;br /&gt;
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' &amp;gt;&amp;gt; ~/.bashrc&lt;br /&gt;
source ~/.bashrc&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
nvcc --version&lt;br /&gt;
nvidia-smi&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
## 9. Uji apakah Python bisa melihat GPU&lt;br /&gt;
&lt;br /&gt;
Ini langkah penting supaya Anda tahu bahwa **Ubuntu + driver + CUDA** sudah benar.&lt;br /&gt;
&lt;br /&gt;
### Opsi PyTorch&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install torch&lt;br /&gt;
python -c &amp;quot;import torch; print('CUDA available:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU detected')&amp;quot;&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### Opsi CuPy&lt;br /&gt;
&lt;br /&gt;
Untuk CUDA 12.x:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install cupy-cuda12x&lt;br /&gt;
python -c &amp;quot;import cupy as cp; x=cp.arange(5); print(x); print(cp.cuda.runtime.getDeviceProperties(0)['name'])&amp;quot;&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya menunjukkan GPU NVIDIA, maka **RTX 4060 sudah siap dipakai library Python berbasis CUDA**.&lt;br /&gt;
&lt;br /&gt;
## 10. Catatan penting tentang Orange + GPU&lt;br /&gt;
&lt;br /&gt;
Bagian ini perlu ditulis jelas supaya tidak menyesatkan:&lt;br /&gt;
&lt;br /&gt;
* **Orange bisa diinstal dan berjalan normal tanpa GPU**&lt;br /&gt;
* **Word Cloud** adalah widget dari add-on Text Mining, tetapi **bukan berarti otomatis memanfaatkan RTX 4060**&lt;br /&gt;
* GPU baru terasa manfaatnya bila Anda memakai library yang memang mendukung CUDA, misalnya lewat widget **Python Script** di Orange&lt;br /&gt;
* Jadi, untuk kasus **Word Cloud saja**, yang paling penting adalah **Orange3 + Orange3-Text + wordcloud + PyQt6**, bukan GPU acceleration. Hal ini konsisten dengan dokumentasi Orange yang hanya menempatkan Word Cloud sebagai bagian dari alur **Corpus → Preprocess Text → Word Cloud**, tanpa menyatakan kebutuhan GPU khusus. ([Orange Data Mining][3])&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
# Teks revisi siap pakai&lt;br /&gt;
&lt;br /&gt;
## Orange: Install di Ubuntu 24.04.1 untuk Word Cloud + siapkan GPU RTX 4060&lt;br /&gt;
&lt;br /&gt;
Untuk menginstal **Orange Data Mining** di **Ubuntu 24.04.1** dan memastikan fitur **Word Cloud** berfungsi dengan baik, sekaligus menyiapkan **GPU NVIDIA RTX 4060 internal**, ikuti langkah berikut.&lt;br /&gt;
&lt;br /&gt;
### 1. Install driver NVIDIA&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
sudo ubuntu-drivers list&lt;br /&gt;
sudo ubuntu-drivers install&lt;br /&gt;
sudo reboot&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Setelah reboot, verifikasi:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
nvidia-smi&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 2. Install dependensi dasar&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y \&lt;br /&gt;
  python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
  libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 3. Buat virtual environment&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
cd ~&lt;br /&gt;
python3 -m venv orangenv&lt;br /&gt;
source ~/orangenv/bin/activate&lt;br /&gt;
python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 4. Install PyQt untuk GUI Orange&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 5. Install Orange3&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install orange3&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 6. Install add-on Text Mining untuk Word Cloud&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install Orange3-Text&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 7. Install dependensi tambahan Word Cloud&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install numpy pandas matplotlib pillow wordcloud&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 8. Install CUDA Toolkit untuk RTX 4060&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb&lt;br /&gt;
sudo dpkg -i cuda-keyring_1.1-1_all.deb&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y cuda-toolkit&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Tambahkan path CUDA:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
echo 'export PATH=/usr/local/cuda/bin:$PATH' &amp;gt;&amp;gt; ~/.bashrc&lt;br /&gt;
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' &amp;gt;&amp;gt; ~/.bashrc&lt;br /&gt;
source ~/.bashrc&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 9. Uji GPU dari Python&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install torch&lt;br /&gt;
python -c &amp;quot;import torch; print('CUDA available:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU detected')&amp;quot;&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 10. Jalankan Orange&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
orange-canvas&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### 11. Catatan&lt;br /&gt;
&lt;br /&gt;
Fitur **Word Cloud** di Orange berasal dari add-on **Text Mining**. **RTX 4060 tidak otomatis dipakai untuk mempercepat Word Cloud**, tetapi GPU dapat digunakan oleh library Python berbasis CUDA bila dipanggil dari workflow Orange, misalnya melalui widget **Python Script**.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## Yang perlu dibuang dari versi lama&lt;br /&gt;
&lt;br /&gt;
Bagian lama ini sebaiknya **jangan dipakai lagi**:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
pip install pyqt5 pyqt6 pyside6 pywayland&lt;br /&gt;
sudo apt install python3-pyqt5.qtsvg python3-pyqt5.qtwebkit&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Alasannya:&lt;br /&gt;
&lt;br /&gt;
* terlalu campur banyak toolkit GUI sekaligus&lt;br /&gt;
* Orange saat ini menyarankan **PyQt6 + PyQt6-WebEngine** untuk jalur `pip` ([Orange Data Mining][1])&lt;br /&gt;
* `qtwebkit` sudah bukan pilihan utama untuk setup Orange modern&lt;br /&gt;
&lt;br /&gt;
## Yang paling praktis&lt;br /&gt;
&lt;br /&gt;
Kalau ingin versi paling sederhana:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y ubuntu-drivers-common python3-pip python3-venv python3-dev build-essential libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
sudo ubuntu-drivers install&lt;br /&gt;
sudo reboot&lt;br /&gt;
&lt;br /&gt;
python3 -m venv ~/orangenv&lt;br /&gt;
source ~/orangenv/bin/activate&lt;br /&gt;
pip install --upgrade pip setuptools wheel&lt;br /&gt;
pip install PyQt6 PyQt6-WebEngine orange3 Orange3-Text numpy pandas matplotlib pillow wordcloud torch&lt;br /&gt;
orange-canvas&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjut ubahkan ini menjadi **panduan final yang sangat rapi untuk wiki/modul**, lengkap dengan bagian **troubleshooting** seperti `nvidia-smi gagal`, `Orange blank window`, `Word Cloud tidak muncul`, dan `CUDA available: False`.&lt;br /&gt;
&lt;br /&gt;
[1]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
[2]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
[3]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
[4]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/?utm_source=chatgpt.com &amp;quot;CUDA Installation Guide for Linux&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Orange&amp;diff=73493</id>
		<title>Orange</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Orange&amp;diff=73493"/>
		<updated>2026-03-11T05:44:28Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Instalasi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Machine Learning open source dan visualisasi data untuk pemula dan ahli. Workflow analisis data interaktif dengan toolbox yang banyak.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Youtube==&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/channel/UClKKWBe2SCAEyv7ZNGhIe4g&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://orange.biolab.si/getting-started/&lt;br /&gt;
* http://www.saedsayad.com/data_mining_map.htm&lt;br /&gt;
* https://orange.biolab.si/&lt;br /&gt;
* https://orange.biolab.si/workflows/&lt;br /&gt;
* [https://www.youtube.com/watch?v=x3M5fJJSMm0 AI: Orek2an Strategi AI Indonesia]&lt;br /&gt;
&lt;br /&gt;
==Konsep==&lt;br /&gt;
&lt;br /&gt;
* [[Data Science]]&lt;br /&gt;
* [https://www.youtube.com/watch?v=Bsk4_5cYmFw Society 5.0]&lt;br /&gt;
&lt;br /&gt;
==Instalasi==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Install di Ubuntu 24.04.1 + GPU RTX 4060]]&lt;br /&gt;
* [[Orange: Install dengan Anaconda Ubuntu 20.04.1]] &lt;br /&gt;
* [[Orange: Install dengan Anaconda Ubuntu 22.04.1]]&lt;br /&gt;
* [[Orange: Install dengan pip di Ubuntu 22.04]]&lt;br /&gt;
* [[Orange: Install dengan pip di Ubuntu 24.04]]&lt;br /&gt;
* [[Orange: Install di Ubuntu 24.04.1 untuk wordcloud]] '''RECOMMENDED'''&lt;br /&gt;
* [[Orange: Upgrade ke Python3]]&lt;br /&gt;
* [[Orange: Compile Python Terakhir]]&lt;br /&gt;
* [[Orange: Instalasi]]&lt;br /&gt;
* [[Orange: Install Ubuntu 18.04]] '''JANGAN DIPAKAI - GAGAL'''&lt;br /&gt;
* [[Orange: Install Ubuntu 20.04]] '''JANGAN DIPAKAI - GAGAL'''&lt;br /&gt;
* [[Orange: Install dengan Anaconda]]&lt;br /&gt;
* [[Orange: Install dengan Anaconda Ubuntu 20.04]]&lt;br /&gt;
* [[Orange: Lokasi Dataset]]&lt;br /&gt;
* [[Orange: Menjalankan]]&lt;br /&gt;
&lt;br /&gt;
==Contoh Data Mining==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Iris]]&lt;br /&gt;
* [[Orange: Misclassifications]]&lt;br /&gt;
* [[Orange: Cross Validation]]&lt;br /&gt;
* [[Orange: Feature Ranking]]&lt;br /&gt;
* [[Orange: Cluster Inspection]]&lt;br /&gt;
* [[Orange: Hierarchical Clustering Example]]&lt;br /&gt;
* [[Orange: Principal Component Analysis]]&lt;br /&gt;
* [[Orange: Classification Tree]]&lt;br /&gt;
* [[Orange: Pivot Table Example]]&lt;br /&gt;
* [[Orange: Visalization of Data Subsets]]&lt;br /&gt;
* [[Orange: Interactive Visualizations]]&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Word Cloud dari File Text]]&lt;br /&gt;
* [[Orange: Word Cloud dari Dokumen]]&lt;br /&gt;
* [[Orange: Bag of Words]]&lt;br /&gt;
* [[Orange: Bag of Words 2]]&lt;br /&gt;
* [[Orange: Text Analysis]]&lt;br /&gt;
* [[Orange: Text Prediction]]&lt;br /&gt;
* [[Orange: untuk Politik]]&lt;br /&gt;
* [[Orange: Sentimen Analysis Bahasa Indonesia]]&lt;br /&gt;
* [[Orange: Image Analysis]]&lt;br /&gt;
* [[Orange: Tweeter Analysis]]&lt;br /&gt;
* [[Orange: Data Mining for Business and Public Administration]]&lt;br /&gt;
* [[Orange: Automasi Penjurian SATU Indonesia AWARDS]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Dataset==&lt;br /&gt;
&lt;br /&gt;
* [[Dataset]]&lt;br /&gt;
* [[Dataset URL]]&lt;br /&gt;
* [[Dataset Ideal]]&lt;br /&gt;
* [[Dataset Test]]&lt;br /&gt;
* [[Dataset Holdout Validation]]&lt;br /&gt;
* [[Dataset K-Fold Cross Validation]]&lt;br /&gt;
* [[Dataset Stratifikasi Data]]&lt;br /&gt;
* [[Dataset Akurasi]]&lt;br /&gt;
* [[Dataset Precision, Recall, dan F1-Score]]&lt;br /&gt;
* [[Dataset Confusion Matrix]]&lt;br /&gt;
* [[Dataset missing values imputation]]&lt;br /&gt;
&lt;br /&gt;
==Data==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Financial Datasets]]&lt;br /&gt;
* [[Orange: The Data]]&lt;br /&gt;
* [[Orange: Data Format]] ''en''&lt;br /&gt;
* [[Orange: Loading Your Data]]&lt;br /&gt;
* [[Orange: Membuat Data File dengan Python]]&lt;br /&gt;
* [[Orange: File]]&lt;br /&gt;
* [[Orange: CSV File Import]]&lt;br /&gt;
* [[Orange: Datasets]]&lt;br /&gt;
* [[Orange: SQL Table]]&lt;br /&gt;
* [[Orange: Save Data]]&lt;br /&gt;
* [[Orange: Data Info]]&lt;br /&gt;
* [[Orange: Data Table]]&lt;br /&gt;
* [[Orange: Select Columns]]&lt;br /&gt;
* [[Orange: Select Rows]]&lt;br /&gt;
* [[Orange: Data Sampler]]&lt;br /&gt;
* [[Orange; Transpose]]&lt;br /&gt;
* [[Orange: Discretize]]&lt;br /&gt;
* [[Orange: Continuize]]&lt;br /&gt;
* [[Orange: Create Class]]&lt;br /&gt;
* [[Orange: Randomize]]&lt;br /&gt;
* [[Orange: Concatenate]]&lt;br /&gt;
* [[Orange: Select by Data Index]]&lt;br /&gt;
* [[Orange: Paint Data]]&lt;br /&gt;
* [[Orange: Pivot Table]]&lt;br /&gt;
* [[Orange: Python Script]]&lt;br /&gt;
* [[Orange: Feature Constructor]]&lt;br /&gt;
* [[Orange: Edit Domain]]&lt;br /&gt;
* [[Orange: Impute]]&lt;br /&gt;
* [[Orange: Merge Data]]&lt;br /&gt;
* [[Orange: Outliers]]&lt;br /&gt;
* [[Orange: Preprocess]]&lt;br /&gt;
* [[Orange: Apply Domain]]&lt;br /&gt;
* [[Orange: Purge Domain]]&lt;br /&gt;
* [[Orange: Rank]]&lt;br /&gt;
* [[Orange: Correlations]]&lt;br /&gt;
* [[Orange: Color]]&lt;br /&gt;
* [[Orange: Feature Statistics]]&lt;br /&gt;
* [[Orange: Neighbors]]&lt;br /&gt;
&lt;br /&gt;
==Visualization==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Box Plot]]&lt;br /&gt;
* [[Orange: Distributions]]&lt;br /&gt;
* [[Orange: Heat Map]]&lt;br /&gt;
* [[Orange: Scatter Plot]]&lt;br /&gt;
* [[Orange: Line Plot]]&lt;br /&gt;
* [[Orange: Venn Diagram]]&lt;br /&gt;
* [[Orange: Linear Projection]]&lt;br /&gt;
* [[Orange: Sieve Diagram]]&lt;br /&gt;
* [[Orange: Pythagorean Tree]]&lt;br /&gt;
* [[Orange: Pythagorean Forest]]&lt;br /&gt;
* [[Orange: CN2 Rule Viewer]]&lt;br /&gt;
* [[Orange: Mosaic Display]]&lt;br /&gt;
* [[Orange: Silhouette Plot]]&lt;br /&gt;
* [[Orange: Tree Viewer]]&lt;br /&gt;
* [[Orange: Nomogram]]&lt;br /&gt;
* [[Orange: FreeViz]]&lt;br /&gt;
* [[Orange: Radviz]]&lt;br /&gt;
&lt;br /&gt;
==Model==&lt;br /&gt;
&lt;br /&gt;
* [https://www.youtube.com/watch?v=Z4Zgj5y-nFU ORANGE: Model Overview]&lt;br /&gt;
* [[Orange: Constant]]&lt;br /&gt;
* [[Orange: CN2 Rule Induction]]&lt;br /&gt;
* [[Orange: Calibrated Learner]]&lt;br /&gt;
* [[Orange: kNN]]&lt;br /&gt;
* [[Orange: Tree]]&lt;br /&gt;
* [[Orange: Random Forest]]&lt;br /&gt;
* [[Orange: SVM]]&lt;br /&gt;
* [[Orange: Linear Regression]]&lt;br /&gt;
* [[Orange: Logistic Regression]]&lt;br /&gt;
* [[Orange: Naive Bayes]]&lt;br /&gt;
* [[Orange: AdaBoost]]&lt;br /&gt;
* [[Orange: Neural Network]]&lt;br /&gt;
* [[Orange: Stochastic Gradient Descent]]&lt;br /&gt;
* [[Orange: Stacking]]&lt;br /&gt;
* [[Orange: Load Model]]&lt;br /&gt;
* [[Orange: Save Model]]&lt;br /&gt;
* [[Orange: Metric Evaluation Model]]&lt;br /&gt;
&lt;br /&gt;
==Evaluate==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Calibration Plot]]&lt;br /&gt;
* [[Orange: Confusion Matrix]]&lt;br /&gt;
* [[Orange: Lift Curve]]&lt;br /&gt;
* [[Orange: Predictions]]&lt;br /&gt;
* [[Orange: ROC Analysis]]&lt;br /&gt;
* [[Orange: Test and Score]]&lt;br /&gt;
&lt;br /&gt;
==Unsupervised==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: PCA]]&lt;br /&gt;
* [[Orange: Correspondence Analysis]]&lt;br /&gt;
* [[Orange: Distance Map]]&lt;br /&gt;
* [[Orange: Distances]]&lt;br /&gt;
* [[Orange: Distance Matrix]]&lt;br /&gt;
* [[Orange: Distance Transformation]]&lt;br /&gt;
* [[Orange: Distance File]]&lt;br /&gt;
* [[Orange: Save Distance Matrix]]&lt;br /&gt;
* [[Orange: Hierarchical Clustering]]&lt;br /&gt;
* [[Orange: k-Means]]&lt;br /&gt;
* [[Orange: Louvain Clustering]]&lt;br /&gt;
* [[Orange: DBSCAN]]&lt;br /&gt;
* [[Orange: MDS]]&lt;br /&gt;
* [[Orange: t-SNE]]&lt;br /&gt;
* [[Orange: Manifold Learning]]&lt;br /&gt;
* [[Orange: Self-Organizing Map]]&lt;br /&gt;
&lt;br /&gt;
==File &amp;amp; Data Format==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Network .pajek]]&lt;br /&gt;
* [[Orange: Network .gml]]&lt;br /&gt;
&lt;br /&gt;
==Text Mining==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Corpus]]&lt;br /&gt;
* [[Orange: Import Documents]]&lt;br /&gt;
* [[Orange: The Guardian]]&lt;br /&gt;
* [[Orange: NY Times]]&lt;br /&gt;
* [[Orange: Pubmed]]&lt;br /&gt;
* [[Orange: Twitter]]&lt;br /&gt;
* [[Orange: Wikipedia]]&lt;br /&gt;
* [[Orange: Text Preprocessing]]&lt;br /&gt;
* [[Orange: Bag of Words]]&lt;br /&gt;
* [[Orange: Similarity Hashing]]&lt;br /&gt;
* [[Orange: Sentiment Analysis]]&lt;br /&gt;
* [[Orange: Tweet Profiler]]&lt;br /&gt;
* [[Orange: Topic Modelling]]&lt;br /&gt;
* [[Orange: Word Cloud]]&lt;br /&gt;
* [[Orange: Corpus Viewer]]&lt;br /&gt;
* [[Orange: Concordance]]&lt;br /&gt;
* [[Orange: Document Map]]&lt;br /&gt;
* [[Orange: Word Enrichment]]&lt;br /&gt;
* [[Orange: Duplicate Detection]]&lt;br /&gt;
* [[Orange: Corpus to Network]]&lt;br /&gt;
* [https://www.youtube.com/watch?v=gIW_OzSx4_M YOUTUBE: Membuat API Key untuk Akses Twitter, The Guardian, NY Times]&lt;br /&gt;
&lt;br /&gt;
==Image Analysis==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Image Analytics Clustering]]&lt;br /&gt;
* [[Orange: Image Analysis]]&lt;br /&gt;
* [[Orange: Import Images]]&lt;br /&gt;
* [[Orange: Image Viewer]]&lt;br /&gt;
* [[Orange: Image Embedding]]&lt;br /&gt;
* [[Orange: Image Grid]]&lt;br /&gt;
* [[Orange: Save Images]]&lt;br /&gt;
&lt;br /&gt;
==Networks==&lt;br /&gt;
&lt;br /&gt;
* [[Orange: Network File]]&lt;br /&gt;
* [[Orange: Network Explorer]]&lt;br /&gt;
* [[Orange: Network Generator]]&lt;br /&gt;
* [[Orange: Network Analysis]]&lt;br /&gt;
* [[Orange: Network Clustering]]&lt;br /&gt;
* [[Orange: Network Of Groups]]&lt;br /&gt;
* [[Orange: Network From Distances]]&lt;br /&gt;
* [[Orange: Single Mode]]&lt;br /&gt;
&lt;br /&gt;
==Time Series==&lt;br /&gt;
&lt;br /&gt;
* [[Data Science: Time Series Dataset]]&lt;br /&gt;
* [[Orange: Yahoo Finance]]&lt;br /&gt;
* [[Orange: As Timeseries]] ''&amp;lt;- problem''&lt;br /&gt;
* [[Orange: Interpolate]]&lt;br /&gt;
* [[Orange: Moving Transform]]&lt;br /&gt;
* [[Orange: Line Chart]]&lt;br /&gt;
* [[Orange: Periodogram]]&lt;br /&gt;
* [[Orange: Correlogram]]&lt;br /&gt;
* [[Orange: Spiralogram]]&lt;br /&gt;
* [[Orange: Granger Causality]]&lt;br /&gt;
* [[Orange: ARIMA Model]]&lt;br /&gt;
* [[Orange: VAR Model]]&lt;br /&gt;
* [[Orange: Model Evaluation]]&lt;br /&gt;
* [[Orange: Time Slice]]&lt;br /&gt;
* [[Orange: Aggregate]]&lt;br /&gt;
* [[Orange: Difference]]&lt;br /&gt;
* [[Orange: Seasonal Adjustment]]&lt;br /&gt;
&lt;br /&gt;
==Youtube==&lt;br /&gt;
&lt;br /&gt;
* [https://www.youtube.com/watch?v=_cj0P3GrWFk YOUTUBE: Data Science &amp;amp; Data Engineering]&lt;br /&gt;
* [https://www.youtube.com/watch?v=JTpDz0EtkK0 YOUTUBE: Big Data &amp;amp; Data Science]&lt;br /&gt;
* [https://www.youtube.com/watch?v=Bsk4_5cYmFw YOUTUBE: Society 5.0]&lt;br /&gt;
* https://www.youtube.com/watch?v=bINV2-YoR_4 (Aplikasi Orange)&lt;br /&gt;
* https://www.youtube.com/watch?v=RzHaWsU-z54&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Process Mining]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=GHUB:_Hapus_entry_yang_tidak_di_inginkan&amp;diff=73492</id>
		<title>GHUB: Hapus entry yang tidak di inginkan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=GHUB:_Hapus_entry_yang_tidak_di_inginkan&amp;diff=73492"/>
		<updated>2026-03-04T00:39:30Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Untuk menghapus entry:&lt;br /&gt;
&lt;br /&gt;
 Ubuntu, with Linux 6.17.0-14-generic&lt;br /&gt;
&lt;br /&gt;
'''Jangan edit `/boot/grub/grub.cfg` langsung''', karena file itu auto-generated. Nanti akan muncul lagi setelah `update-grub`.&lt;br /&gt;
&lt;br /&gt;
=Cara yang Benar Menghapus Entry Kernel=&lt;br /&gt;
&lt;br /&gt;
==Cek kernel yang terinstal==&lt;br /&gt;
&lt;br /&gt;
 dpkg --list | grep linux-image&lt;br /&gt;
&lt;br /&gt;
Pastikan kernel `6.17.0-14-generic` memang ada.&lt;br /&gt;
&lt;br /&gt;
==Hapus kernel tersebut==&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove linux-image-6.17.0-14-generic&lt;br /&gt;
&lt;br /&gt;
Jika ada headernya juga:&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove linux-headers-6.17.0-14-generic&lt;br /&gt;
&lt;br /&gt;
Kalau mau sekalian bersih:&lt;br /&gt;
&lt;br /&gt;
 sudo apt autoremove&lt;br /&gt;
&lt;br /&gt;
==Update GRUB==&lt;br /&gt;
&lt;br /&gt;
 sudo update-grub&lt;br /&gt;
&lt;br /&gt;
Sekarang entry tersebut akan hilang dari menu boot.&lt;br /&gt;
&lt;br /&gt;
==Alternatif (Kalau Tidak Mau Hapus Kernel)==&lt;br /&gt;
&lt;br /&gt;
Kalau hanya ingin '''tidak ditampilkan''', bisa:&lt;br /&gt;
&lt;br /&gt;
Edit file:&lt;br /&gt;
&lt;br /&gt;
 sudo nano /etc/default/grub&lt;br /&gt;
&lt;br /&gt;
Tambahkan atau ubah:&lt;br /&gt;
&lt;br /&gt;
 GRUB_DISABLE_SUBMENU=y&lt;br /&gt;
&lt;br /&gt;
Lalu:&lt;br /&gt;
&lt;br /&gt;
 sudo update-grub&lt;br /&gt;
&lt;br /&gt;
Atau bisa juga mengatur default boot kernel saja tanpa menghapus.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Penting==&lt;br /&gt;
&lt;br /&gt;
Pastikan kamu '''tidak sedang menggunakan kernel 6.17.0-14''' saat menghapusnya.&lt;br /&gt;
&lt;br /&gt;
Cek kernel aktif:&lt;br /&gt;
&lt;br /&gt;
 uname -r&lt;br /&gt;
&lt;br /&gt;
Kalau outputnya:&lt;br /&gt;
&lt;br /&gt;
 6.17.0-14-generic&lt;br /&gt;
&lt;br /&gt;
Jangan dihapus dulu. Reboot ke kernel lain dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Kalau mau, kirim isi `dpkg --list | grep linux-image` saya bantu pastikan aman dihapus 👍&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_LLM_Ollama_Open-WebUI&amp;diff=73491</id>
		<title>USB OFFLINE: Ubuntu 24.04 LLM Ollama Open-WebUI</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_LLM_Ollama_Open-WebUI&amp;diff=73491"/>
		<updated>2026-03-03T06:04:59Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Check Model di ollama */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
==1. '''Instalasi Docker''':==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker.io curl&lt;br /&gt;
&lt;br /&gt;
==2. '''Skip Instalasi NVIDIA Container Toolkit''':==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3. '''Menjalankan Ollama dan Open WebUI menggunakan Docker''':==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Menggunakan Docker Compose''':&lt;br /&gt;
&lt;br /&gt;
Install&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 apt install docker.io curl&lt;br /&gt;
 curl -L &amp;quot;https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -s)-$(uname -m)&amp;quot; -o /usr/local/bin/docker-compose&lt;br /&gt;
 chmod +x /usr/local/bin/docker-compose&lt;br /&gt;
&lt;br /&gt;
Buat file `docker-compose.yaml`:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     deploy:&lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_API_BASE_URL=http://ollama:11434&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama: {}&lt;br /&gt;
   open-webui: {}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Kemudian, jalankan perintah berikut untuk memulai layanan:&lt;br /&gt;
&lt;br /&gt;
 sudo docker-compose up -d&lt;br /&gt;
&lt;br /&gt;
Metode ini memungkinkan Anda untuk menjalankan kedua layanan dengan mudah dan memastikan integrasi yang stabil antara Ollama dan Open WebUI.&lt;br /&gt;
&lt;br /&gt;
==Check Model di ollama==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
1. '''Masuk ke Kontainer Ollama''':&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 docker ps&lt;br /&gt;
&lt;br /&gt;
Cari kontainer dengan image `ollama/ollama`. Setelah Anda mengetahui nama atau ID kontainernya, akses shell interaktif di dalamnya:&lt;br /&gt;
&lt;br /&gt;
 sudo docker exec -it nama_atau_id_kontainer /bin/bash&lt;br /&gt;
 sudo docker exec -it ollama /bin/bash&lt;br /&gt;
&lt;br /&gt;
2. '''Menampilkan Daftar Model''':&lt;br /&gt;
&lt;br /&gt;
 ollama list&lt;br /&gt;
&lt;br /&gt;
Perintah ini akan menampilkan semua model yang saat ini tersedia di Ollama.&lt;br /&gt;
&lt;br /&gt;
 ollama pull gemma3:270m&lt;br /&gt;
 ollama pull gemma3:1b&lt;br /&gt;
&lt;br /&gt;
 ollama list&lt;br /&gt;
&lt;br /&gt;
==Konfigrasi RAG di OpenWebUI==&lt;br /&gt;
&lt;br /&gt;
* Models: pilih default chat model → qwen2.5:1.5b-instruct (atau yg Anda suka).&lt;br /&gt;
* Knowledge / Documents:&lt;br /&gt;
&lt;br /&gt;
** Masuk menu Knowledge → Add → unggah PDF/TXT/MD atau folder.&lt;br /&gt;
** Di Settings → Embeddings, pilih nomic-embed-text via Ollama sebagai embedder.&lt;br /&gt;
** Index akan dibuat otomatis; itu yang dipakai saat Anda menanyakan sesuatu.&lt;br /&gt;
&lt;br /&gt;
* Bahasa:&lt;br /&gt;
** Di prompt/system instruction, set: “Jawab dalam Bahasa Indonesia yang ringkas.”&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Tips supaya lancar di CPU==&lt;br /&gt;
&lt;br /&gt;
* Gunakan quantisasi kecil: Q4_0 atau Q4_K_M.&lt;br /&gt;
* Batasi konteks: OLLAMA_NUM_CTX=2048 cukup untuk tugas sederhana.&lt;br /&gt;
* Batasi prediksi output: --num-predict 256.&lt;br /&gt;
&lt;br /&gt;
==Setting==&lt;br /&gt;
&lt;br /&gt;
* Pastikan di Open-WebUI Connection ke Ollama di set ke host http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=OpenWRT:_Printer_Server&amp;diff=73490</id>
		<title>OpenWRT: Printer Server</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=OpenWRT:_Printer_Server&amp;diff=73490"/>
		<updated>2026-03-01T14:00:41Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; ssh -o HostKeyAlgorithms=+ssh-rsa \&lt;br /&gt;
     -o PubkeyAcceptedAlgorithms=+ssh-rsa \&lt;br /&gt;
     root@192.168.1.1&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 opkg update&lt;br /&gt;
 opkg install kmod-usb-printer&lt;br /&gt;
 opkg install p910nd luci-app-p910nd&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cek&lt;br /&gt;
&lt;br /&gt;
 ls /dev/usb/lp*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==rc.local==&lt;br /&gt;
&lt;br /&gt;
Edit /etc/rc.local tambah sebelum exit 0&lt;br /&gt;
&lt;br /&gt;
 /etc/init.d/p910nd restart&lt;br /&gt;
&lt;br /&gt;
==Allow Firewall==&lt;br /&gt;
&lt;br /&gt;
 uci add firewall rule&lt;br /&gt;
 uci set firewall.@rule[-1].name='Allow-Printer-9100'&lt;br /&gt;
 uci set firewall.@rule[-1].src='wan'&lt;br /&gt;
 uci set firewall.@rule[-1].src_ip='192.168.68.0/22'&lt;br /&gt;
 uci set firewall.@rule[-1].dest='lan'&lt;br /&gt;
 uci set firewall.@rule[-1].dest_ip='192.168.1.1'&lt;br /&gt;
 uci set firewall.@rule[-1].proto='tcp'&lt;br /&gt;
 uci set firewall.@rule[-1].dest_port='9100'&lt;br /&gt;
 uci set firewall.@rule[-1].target='ACCEPT'&lt;br /&gt;
 &lt;br /&gt;
 uci commit firewall&lt;br /&gt;
 /etc/init.d/firewall restart&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Linux &amp;amp; Windows==&lt;br /&gt;
&lt;br /&gt;
Pastikan Settingan di arahkan ke&lt;br /&gt;
&lt;br /&gt;
 ip-address-openwrt:9100&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Android==&lt;br /&gt;
&lt;br /&gt;
* Install Let's Print Droid&lt;br /&gt;
* Manual Printer Config&lt;br /&gt;
** Printer Name &amp;gt; Nama Printer&lt;br /&gt;
** Protocol &amp;gt; Raw - Jet Direct&lt;br /&gt;
** IP Address/Computer Name &amp;gt; IP address openwrt&lt;br /&gt;
** Save Changes&lt;br /&gt;
&lt;br /&gt;
Untuk print file&lt;br /&gt;
* Select File&lt;br /&gt;
* Kirim ke Printer&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=OpenWRT:_Printer_Server&amp;diff=73489</id>
		<title>OpenWRT: Printer Server</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=OpenWRT:_Printer_Server&amp;diff=73489"/>
		<updated>2026-03-01T13:54:28Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; ssh -o HostKeyAlgorithms=+ssh-rsa \&lt;br /&gt;
     -o PubkeyAcceptedAlgorithms=+ssh-rsa \&lt;br /&gt;
     root@192.168.1.1&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 opkg update&lt;br /&gt;
 opkg install kmod-usb-printer&lt;br /&gt;
 opkg install p910nd luci-app-p910nd&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cek&lt;br /&gt;
&lt;br /&gt;
 ls /dev/usb/lp*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==rc.local==&lt;br /&gt;
&lt;br /&gt;
Edit /etc/rc.local tambah sebelum exit 0&lt;br /&gt;
&lt;br /&gt;
 /etc/init.d/p910nd restart&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Linux &amp;amp; Windows==&lt;br /&gt;
&lt;br /&gt;
Pastikan Settingan di arahkan ke&lt;br /&gt;
&lt;br /&gt;
 ip-address-openwrt:9100&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Android==&lt;br /&gt;
&lt;br /&gt;
* Install Let's Print Droid&lt;br /&gt;
* Manual Printer Config&lt;br /&gt;
** Printer Name &amp;gt; Nama Printer&lt;br /&gt;
** Protocol &amp;gt; Raw - Jet Direct&lt;br /&gt;
** IP Address/Computer Name &amp;gt; IP address openwrt&lt;br /&gt;
** Save Changes&lt;br /&gt;
&lt;br /&gt;
Untuk print file&lt;br /&gt;
* Select File&lt;br /&gt;
* Kirim ke Printer&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=OpenWRT:_Printer_Server&amp;diff=73488</id>
		<title>OpenWRT: Printer Server</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=OpenWRT:_Printer_Server&amp;diff=73488"/>
		<updated>2026-03-01T13:50:39Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; ssh -o HostKeyAlgorithms=+ssh-rsa \&lt;br /&gt;
     -o PubkeyAcceptedAlgorithms=+ssh-rsa \&lt;br /&gt;
     root@192.168.1.1&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 opkg update&lt;br /&gt;
 opkg install kmod-usb-printer&lt;br /&gt;
 opkg install p910nd luci-app-p910nd&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cek&lt;br /&gt;
&lt;br /&gt;
 ls /dev/usb/lp*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Linux &amp;amp; Windows==&lt;br /&gt;
&lt;br /&gt;
Pastikan Settingan di arahkan ke&lt;br /&gt;
&lt;br /&gt;
 ip-address-openwrt:9100&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Android==&lt;br /&gt;
&lt;br /&gt;
* Install Let's Print Droid&lt;br /&gt;
* Manual Printer Config&lt;br /&gt;
** Printer Name &amp;gt; Nama Printer&lt;br /&gt;
** Protocol &amp;gt; Raw - Jet Direct&lt;br /&gt;
** IP Address/Computer Name &amp;gt; IP address openwrt&lt;br /&gt;
** Save Changes&lt;br /&gt;
&lt;br /&gt;
Untuk print file&lt;br /&gt;
* Select File&lt;br /&gt;
* Kirim ke Printer&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04_-_Mediawiki_1.39&amp;diff=73487</id>
		<title>Mediawiki Reinstall database di Ubuntu 24.04 - Mediawiki 1.39</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04_-_Mediawiki_1.39&amp;diff=73487"/>
		<updated>2026-03-01T10:37:15Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot; rm -Rf /usr/local/src/var  cd /usr/local/src  tar zxvf images.tar.gz  cp -Rf var/www/html/wiki/images/* /var/www/html/wiki/images/ &amp;amp;  chown -Rf www-data:www-data /var/www/htm...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; rm -Rf /usr/local/src/var&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 tar zxvf images.tar.gz&lt;br /&gt;
 cp -Rf var/www/html/wiki/images/* /var/www/html/wiki/images/ &amp;amp;&lt;br /&gt;
 chown -Rf www-data:www-data /var/www/html/wiki &amp;amp;&lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 /usr/bin/mysqladmin --user=mediawiki --password=mediawiki --force drop mediawiki&lt;br /&gt;
 /usr/bin/mysqladmin --user=mediawiki --password=mediawiki create mediawiki&lt;br /&gt;
 /usr/bin/mysql -u mediawiki -pmediawiki mediawiki &amp;lt; /var/www/html/wiki/maintenance/tables.sql&lt;br /&gt;
 /usr/bin/mysql -u mediawiki -pmediawiki mediawiki &amp;lt; /usr/local/src/wikidb.sql&lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 cd /var/www/html/wiki/maintenance&lt;br /&gt;
 /usr/bin/php update.php&lt;br /&gt;
 cd /var/www/html/wiki/&lt;br /&gt;
 ./maintenance/cleanupUsersWithNoId.php&lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 chown -Rf nobody:nogroup /var/data &amp;amp;&lt;br /&gt;
 chmod -Rf 777 /var/data &amp;amp;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki&amp;diff=73486</id>
		<title>Mediawiki</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki&amp;diff=73486"/>
		<updated>2026-03-01T08:45:42Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;MediaWiki adalah sebuah paket [[perangkat lunak]] [[open source]] gratis wiki yang ditulis dalam PHP, awalnya untuk digunakan di Wikipedia. Hal ini sekarang digunakan oleh beberapa proyek lain non-profit Wikimedia Foundation dan oleh wiki lain.&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Mediawiki]]&lt;br /&gt;
* [[Mediawiki Instalasi di Ubuntu 24.04]]&lt;br /&gt;
* [[Mediawiki Reinstall database di Ubuntu 24.04]]&lt;br /&gt;
* [[Mediawiki Reinstall database di Ubuntu 24.04 - Mediawiki 1.39]]&lt;br /&gt;
* [[Mediawiki Maintenance dumping database]]&lt;br /&gt;
* [[Mediawiki Maintence delete user]]&lt;br /&gt;
* [[Mediawiki Maintenance add user dan editor via CLI]]&lt;br /&gt;
* [[Mediawiki Instalasi openlitespeed PHP7 mariadb di ubuntu 20.04]]&lt;br /&gt;
* [[Mediawiki Script Re-Install SpeedyWiki di Ubuntu 24.04]]&lt;br /&gt;
* [[Mediawiki: Instalasi Apache PHP7 mariadb di ubuntu 20.04]]&lt;br /&gt;
* [[Mediawiki: Instal Apache PHP7 mariadb di ubuntu 20.04]]&lt;br /&gt;
* [[Mediawiki: Instalasi Apache PHP7 Mariadb ubuntu 20.04]]&lt;br /&gt;
* [[Instalasi MediaWiki]]&lt;br /&gt;
* [[IPv6 Web: Mediawiki]]&lt;br /&gt;
* [[Debian: Instalasi MediaWiki]]&lt;br /&gt;
* [[Melihat Aktifitas dan Statistik Mediawiki]]&lt;br /&gt;
* [[Mediawiki SMTP Server untuk Authentikasi]]&lt;br /&gt;
* [[Dumping Seluruh Database MediaWiki]]&lt;br /&gt;
* [[Replikasi Database dan Image MediaWiki]]&lt;br /&gt;
* [[Membuka Fasilitas Upload di MediaWiki]]&lt;br /&gt;
* [[Mengaktifkan Math di MediaWiki]]&lt;br /&gt;
* [[Mengubah Logo di MediaWiki]]&lt;br /&gt;
* [[Mediawiki: Disable User Registration]]&lt;br /&gt;
* [[Proteksi agar hanya registered member yang dapat menulis]]&lt;br /&gt;
* [[Proteksi Spammer Menggunakan reCAPTHCA]]&lt;br /&gt;
* [[MediaWiki - Proteksi Spammer Menggunakan ConfirmEdit]]&lt;br /&gt;
* [[MediaWiki - Proteksi Spammer Menggunakan wgSpamRegex]]&lt;br /&gt;
* [[Script Re-Install SpeedyWiki]] '''*PENTING*'''&lt;br /&gt;
* [[Script Re-Install SpeedyWiki di Ubuntu 10.04]] '''*PENTING*'''&lt;br /&gt;
* [[Update SpeedyWiki lokal secara automatis]]&lt;br /&gt;
* [[Update database SpeedyWiki lokal secara automatis tanpa update Image]]&lt;br /&gt;
* [[Instalasi MediaWiki]] Cara menginstalasi [[MediaWiki]]&lt;br /&gt;
* [[Mediawiki Mereset Isi Database Mediawiki]]&lt;br /&gt;
* [[Mediawiki ganti IP address server]]&lt;br /&gt;
* [[Mediawiki Edit Admin]]&lt;br /&gt;
* [[Mediawiki ubah password user]]&lt;br /&gt;
* [[Mediawiki user database]]&lt;br /&gt;
* [[Mediawiki create and Promote user]]&lt;br /&gt;
* [[Mediawiki Nuke Page Spam]]&lt;br /&gt;
* [[Mediawiki Mendelete User Spam]]&lt;br /&gt;
* [[Linux Howto]]&lt;br /&gt;
&lt;br /&gt;
[[Category: Linux]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04&amp;diff=73485</id>
		<title>Mediawiki Reinstall database di Ubuntu 24.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04&amp;diff=73485"/>
		<updated>2026-02-28T23:28:34Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 tar zxvf images.tar.gz&lt;br /&gt;
 gunzip wikidb.sql.gz&lt;br /&gt;
 &lt;br /&gt;
 cp -Rf /usr/local/src/images/* /var/www/html/wiki/images/ &amp;amp;&lt;br /&gt;
 chown -Rf www-data:www-data /var/www/html/wiki &amp;amp;&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 mysqladmin --user=root --password=123456 --force drop mediawiki&lt;br /&gt;
 mysqladmin --user=root --password=123456 create mediawiki&lt;br /&gt;
 &lt;br /&gt;
 cd /var/www/wiki/&lt;br /&gt;
 php maintenance/run.php install \&lt;br /&gt;
   --dbname=mediawiki \&lt;br /&gt;
   --dbuser=mediawiki \&lt;br /&gt;
   --dbpass=mediawiki \&lt;br /&gt;
   --dbserver=localhost \&lt;br /&gt;
   --scriptpath=/wiki \&lt;br /&gt;
   --lang=id \&lt;br /&gt;
   --pass='Admin123456!' \&lt;br /&gt;
   &amp;quot;OnnoWiki&amp;quot; &amp;quot;onno&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 mysql -u mediawiki -pmediawiki mediawiki &amp;lt; /usr/local/src/wikidb.sql&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 cd /var/www/html/wiki/maintenance/&lt;br /&gt;
 ./update.php&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 chown -Rf nobody:nogroup /var/data &amp;amp;&lt;br /&gt;
 chmod -Rf 777 /var/data &amp;amp;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Mediawiki]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04&amp;diff=73484</id>
		<title>Mediawiki Reinstall database di Ubuntu 24.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04&amp;diff=73484"/>
		<updated>2026-02-28T23:26:38Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 tar zxvf images.tar.gz&lt;br /&gt;
 gunzip wikidb.sql.gz&lt;br /&gt;
 &lt;br /&gt;
 cp -Rf /usr/local/src/images/* /var/www/html/wiki/images/ &amp;amp;&lt;br /&gt;
 chown -Rf www-data:www-data /var/www/html/wiki &amp;amp;&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 mysqladmin --user=root --password=123456 --force drop mediawiki&lt;br /&gt;
 mysqladmin --user=root --password=123456 create mediawiki&lt;br /&gt;
 &lt;br /&gt;
 cd /var/www/wiki/&lt;br /&gt;
 php maintenance/run.php install \&lt;br /&gt;
   --dbname=mediawiki \&lt;br /&gt;
   --dbuser=mediawiki \&lt;br /&gt;
   --dbpass=mediawiki \&lt;br /&gt;
   --dbserver=localhost \&lt;br /&gt;
   --scriptpath=/wiki \&lt;br /&gt;
   --lang=id \&lt;br /&gt;
   --pass='Admin123456!' \&lt;br /&gt;
   &amp;quot;OnnoWiki&amp;quot; &amp;quot;onno&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 mysql -u mediawiki -pmediawiki mediawiki &amp;lt; /usr/local/src/wikidb.sql&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 cd /var/www/html/wiki/maintenance/&lt;br /&gt;
 ./update.php&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 chown -Rf nobody.nogroup /var/data &amp;amp;&lt;br /&gt;
 chmod -Rf 777 /var/data &amp;amp;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Mediawiki]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04&amp;diff=73483</id>
		<title>Mediawiki Reinstall database di Ubuntu 24.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Reinstall_database_di_Ubuntu_24.04&amp;diff=73483"/>
		<updated>2026-02-28T23:26:13Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;  cd /usr/local/src  tar zxvf images.tar.gz  gunzip wikidb.sql.gz    cp -Rf /usr/local/src/images/* /var/www/html/wiki/images/ &amp;amp;  chown -Rf www-data:www-data /var/www/html/wik...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 tar zxvf images.tar.gz&lt;br /&gt;
 gunzip wikidb.sql.gz&lt;br /&gt;
 &lt;br /&gt;
 cp -Rf /usr/local/src/images/* /var/www/html/wiki/images/ &amp;amp;&lt;br /&gt;
 chown -Rf www-data:www-data /var/www/html/wiki &amp;amp;&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 mysqladmin --user=root --password=123456 --force drop mediawiki&lt;br /&gt;
 mysqladmin --user=root --password=123456 create mediawiki&lt;br /&gt;
&lt;br /&gt;
 cd /var/www/wiki/&lt;br /&gt;
 php maintenance/run.php install \&lt;br /&gt;
   --dbname=mediawiki \&lt;br /&gt;
   --dbuser=mediawiki \&lt;br /&gt;
   --dbpass=mediawiki \&lt;br /&gt;
   --dbserver=localhost \&lt;br /&gt;
   --scriptpath=/wiki \&lt;br /&gt;
   --lang=id \&lt;br /&gt;
   --pass='Admin123456!' \&lt;br /&gt;
   &amp;quot;OnnoWiki&amp;quot; &amp;quot;onno&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 mysql -u mediawiki -pmediawiki mediawiki &amp;lt; /usr/local/src/wikidb.sql&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 cd /var/www/html/wiki/maintenance/&lt;br /&gt;
 ./update.php&lt;br /&gt;
 &lt;br /&gt;
 service mysql stop&lt;br /&gt;
 service mysql start&lt;br /&gt;
 &lt;br /&gt;
 chown -Rf nobody.nogroup /var/data &amp;amp;&lt;br /&gt;
 chmod -Rf 777 /var/data &amp;amp;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Mediawiki]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki&amp;diff=73482</id>
		<title>Mediawiki</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki&amp;diff=73482"/>
		<updated>2026-02-28T23:23:42Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;MediaWiki adalah sebuah paket [[perangkat lunak]] [[open source]] gratis wiki yang ditulis dalam PHP, awalnya untuk digunakan di Wikipedia. Hal ini sekarang digunakan oleh beberapa proyek lain non-profit Wikimedia Foundation dan oleh wiki lain.&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Mediawiki]]&lt;br /&gt;
* [[Mediawiki Instalasi di Ubuntu 24.04]]&lt;br /&gt;
* [[Mediawiki Reinstall database di Ubuntu 24.04]]&lt;br /&gt;
* [[Mediawiki Maintenance dumping database]]&lt;br /&gt;
* [[Mediawiki Maintence delete user]]&lt;br /&gt;
* [[Mediawiki Maintenance add user dan editor via CLI]]&lt;br /&gt;
* [[Mediawiki Instalasi openlitespeed PHP7 mariadb di ubuntu 20.04]]&lt;br /&gt;
* [[Mediawiki Script Re-Install SpeedyWiki di Ubuntu 24.04]]&lt;br /&gt;
* [[Mediawiki: Instalasi Apache PHP7 mariadb di ubuntu 20.04]]&lt;br /&gt;
* [[Mediawiki: Instal Apache PHP7 mariadb di ubuntu 20.04]]&lt;br /&gt;
* [[Mediawiki: Instalasi Apache PHP7 Mariadb ubuntu 20.04]]&lt;br /&gt;
* [[Instalasi MediaWiki]]&lt;br /&gt;
* [[IPv6 Web: Mediawiki]]&lt;br /&gt;
* [[Debian: Instalasi MediaWiki]]&lt;br /&gt;
* [[Melihat Aktifitas dan Statistik Mediawiki]]&lt;br /&gt;
* [[Mediawiki SMTP Server untuk Authentikasi]]&lt;br /&gt;
* [[Dumping Seluruh Database MediaWiki]]&lt;br /&gt;
* [[Replikasi Database dan Image MediaWiki]]&lt;br /&gt;
* [[Membuka Fasilitas Upload di MediaWiki]]&lt;br /&gt;
* [[Mengaktifkan Math di MediaWiki]]&lt;br /&gt;
* [[Mengubah Logo di MediaWiki]]&lt;br /&gt;
* [[Mediawiki: Disable User Registration]]&lt;br /&gt;
* [[Proteksi agar hanya registered member yang dapat menulis]]&lt;br /&gt;
* [[Proteksi Spammer Menggunakan reCAPTHCA]]&lt;br /&gt;
* [[MediaWiki - Proteksi Spammer Menggunakan ConfirmEdit]]&lt;br /&gt;
* [[MediaWiki - Proteksi Spammer Menggunakan wgSpamRegex]]&lt;br /&gt;
* [[Script Re-Install SpeedyWiki]] '''*PENTING*'''&lt;br /&gt;
* [[Script Re-Install SpeedyWiki di Ubuntu 10.04]] '''*PENTING*'''&lt;br /&gt;
* [[Update SpeedyWiki lokal secara automatis]]&lt;br /&gt;
* [[Update database SpeedyWiki lokal secara automatis tanpa update Image]]&lt;br /&gt;
* [[Instalasi MediaWiki]] Cara menginstalasi [[MediaWiki]]&lt;br /&gt;
* [[Mediawiki Mereset Isi Database Mediawiki]]&lt;br /&gt;
* [[Mediawiki ganti IP address server]]&lt;br /&gt;
* [[Mediawiki Edit Admin]]&lt;br /&gt;
* [[Mediawiki ubah password user]]&lt;br /&gt;
* [[Mediawiki user database]]&lt;br /&gt;
* [[Mediawiki create and Promote user]]&lt;br /&gt;
* [[Mediawiki Nuke Page Spam]]&lt;br /&gt;
* [[Mediawiki Mendelete User Spam]]&lt;br /&gt;
* [[Linux Howto]]&lt;br /&gt;
&lt;br /&gt;
[[Category: Linux]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_KIWIX&amp;diff=73481</id>
		<title>USB OFFLINE: Ubuntu 24.04 Install KIWIX</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_KIWIX&amp;diff=73481"/>
		<updated>2026-02-27T20:14:08Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Script start-kiwix.sh */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Install==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 apt -y install kiwix-tools&lt;br /&gt;
&lt;br /&gt;
==Download zim backup wikipedia dan wikitionary==&lt;br /&gt;
&lt;br /&gt;
 sudo&lt;br /&gt;
 mkdir -p /var/www/html/kiwix&lt;br /&gt;
 chmod -Rf 777 /var/www/html/kiwix/&lt;br /&gt;
 chown -Rf nobody: /var/www/html/kiwix/&lt;br /&gt;
 cd /var/www/html/kiwix&lt;br /&gt;
 wget https://download.kiwix.org/zim/wikipedia/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Atau&lt;br /&gt;
&lt;br /&gt;
 # wget https://download.kiwix.org/zim/wikipedia/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
&lt;br /&gt;
==Run==&lt;br /&gt;
 sudo &lt;br /&gt;
 cd /var/www/html/kiwix&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 wikipedia_id_all_maxi_2026-02.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
atau&lt;br /&gt;
&lt;br /&gt;
 sudo&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 /var/www/html/kiwix/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
 &amp;amp;&lt;br /&gt;
&lt;br /&gt;
==Script start-kiwix.sh==&lt;br /&gt;
&lt;br /&gt;
 vi /home/offline/start-kiwix.sh&lt;br /&gt;
&lt;br /&gt;
Isi dengan,&lt;br /&gt;
&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 /var/www/html/kiwix/wikipedia_id_all_maxi_2026-02.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Save, dan chmod,&lt;br /&gt;
&lt;br /&gt;
 chmod 777 /home/offline/start-kiwix.sh &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Contoh Lain:&lt;br /&gt;
&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8001 /usr/local/src/kiwix/wikipedia_id_all_nopic_2022-12.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8002 /usr/local/src/kiwix/wikipedia_en_computer_maxi_2022-08.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8003 /usr/local/src/kiwix/wikipedia_id_all_maxi_2022-05.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8004 /usr/local/src/kiwix/wikipedia_id_top_maxi_2022-07.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8005 /usr/local/src/kiwix/wikipedia_id_all_nopic_2022-05.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8006 /usr/local/src/kiwix/wikipedia_id_top_mini_2022-09.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8007 /usr/local/src/kiwix/wiktionary_id_all_maxi_2021-08.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
==Edit /etc/rc.local==&lt;br /&gt;
&lt;br /&gt;
 vi /etc/rc.local&lt;br /&gt;
&lt;br /&gt;
Isi dengan,&lt;br /&gt;
&lt;br /&gt;
 #!/bin/sh -e&lt;br /&gt;
 &lt;br /&gt;
 /home/offline/start-kiwix.sh&lt;br /&gt;
 &lt;br /&gt;
 exit 0&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Kiwix]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_KIWIX&amp;diff=73480</id>
		<title>USB OFFLINE: Ubuntu 24.04 Install KIWIX</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_KIWIX&amp;diff=73480"/>
		<updated>2026-02-27T20:13:47Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Run */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Install==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 apt -y install kiwix-tools&lt;br /&gt;
&lt;br /&gt;
==Download zim backup wikipedia dan wikitionary==&lt;br /&gt;
&lt;br /&gt;
 sudo&lt;br /&gt;
 mkdir -p /var/www/html/kiwix&lt;br /&gt;
 chmod -Rf 777 /var/www/html/kiwix/&lt;br /&gt;
 chown -Rf nobody: /var/www/html/kiwix/&lt;br /&gt;
 cd /var/www/html/kiwix&lt;br /&gt;
 wget https://download.kiwix.org/zim/wikipedia/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Atau&lt;br /&gt;
&lt;br /&gt;
 # wget https://download.kiwix.org/zim/wikipedia/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
&lt;br /&gt;
==Run==&lt;br /&gt;
 sudo &lt;br /&gt;
 cd /var/www/html/kiwix&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 wikipedia_id_all_maxi_2026-02.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
atau&lt;br /&gt;
&lt;br /&gt;
 sudo&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 /var/www/html/kiwix/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
 &amp;amp;&lt;br /&gt;
&lt;br /&gt;
==Script start-kiwix.sh==&lt;br /&gt;
&lt;br /&gt;
 vi /home/offline/start-kiwix.sh&lt;br /&gt;
&lt;br /&gt;
Isi dengan,&lt;br /&gt;
&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 /var/www/html/kiwix/wikipedia_id_top_maxi_2024-06.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Save, dan chmod,&lt;br /&gt;
&lt;br /&gt;
 chmod 777 /home/offline/start-kiwix.sh &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Contoh Lain:&lt;br /&gt;
&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8001 /usr/local/src/kiwix/wikipedia_id_all_nopic_2022-12.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8002 /usr/local/src/kiwix/wikipedia_en_computer_maxi_2022-08.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8003 /usr/local/src/kiwix/wikipedia_id_all_maxi_2022-05.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8004 /usr/local/src/kiwix/wikipedia_id_top_maxi_2022-07.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8005 /usr/local/src/kiwix/wikipedia_id_all_nopic_2022-05.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8006 /usr/local/src/kiwix/wikipedia_id_top_mini_2022-09.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8007 /usr/local/src/kiwix/wiktionary_id_all_maxi_2021-08.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
==Edit /etc/rc.local==&lt;br /&gt;
&lt;br /&gt;
 vi /etc/rc.local&lt;br /&gt;
&lt;br /&gt;
Isi dengan,&lt;br /&gt;
&lt;br /&gt;
 #!/bin/sh -e&lt;br /&gt;
 &lt;br /&gt;
 /home/offline/start-kiwix.sh&lt;br /&gt;
 &lt;br /&gt;
 exit 0&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Kiwix]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_KIWIX&amp;diff=73479</id>
		<title>USB OFFLINE: Ubuntu 24.04 Install KIWIX</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_KIWIX&amp;diff=73479"/>
		<updated>2026-02-27T20:12:59Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Download zim backup wikipedia dan wikitionary */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Install==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 apt -y install kiwix-tools&lt;br /&gt;
&lt;br /&gt;
==Download zim backup wikipedia dan wikitionary==&lt;br /&gt;
&lt;br /&gt;
 sudo&lt;br /&gt;
 mkdir -p /var/www/html/kiwix&lt;br /&gt;
 chmod -Rf 777 /var/www/html/kiwix/&lt;br /&gt;
 chown -Rf nobody: /var/www/html/kiwix/&lt;br /&gt;
 cd /var/www/html/kiwix&lt;br /&gt;
 wget https://download.kiwix.org/zim/wikipedia/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Atau&lt;br /&gt;
&lt;br /&gt;
 # wget https://download.kiwix.org/zim/wikipedia/wikipedia_id_all_maxi_2026-02.zim&lt;br /&gt;
&lt;br /&gt;
==Run==&lt;br /&gt;
 sudo &lt;br /&gt;
 cd /var/www/html/kiwix&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 wikipedia_id_top_maxi_2024-06.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
atau&lt;br /&gt;
&lt;br /&gt;
 sudo&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 /var/www/html/kiwix/wikipedia_id_top_maxi_2024-06.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
==Script start-kiwix.sh==&lt;br /&gt;
&lt;br /&gt;
 vi /home/offline/start-kiwix.sh&lt;br /&gt;
&lt;br /&gt;
Isi dengan,&lt;br /&gt;
&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8000 /var/www/html/kiwix/wikipedia_id_top_maxi_2024-06.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Save, dan chmod,&lt;br /&gt;
&lt;br /&gt;
 chmod 777 /home/offline/start-kiwix.sh &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Contoh Lain:&lt;br /&gt;
&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8001 /usr/local/src/kiwix/wikipedia_id_all_nopic_2022-12.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8002 /usr/local/src/kiwix/wikipedia_en_computer_maxi_2022-08.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8003 /usr/local/src/kiwix/wikipedia_id_all_maxi_2022-05.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8004 /usr/local/src/kiwix/wikipedia_id_top_maxi_2022-07.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8005 /usr/local/src/kiwix/wikipedia_id_all_nopic_2022-05.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8006 /usr/local/src/kiwix/wikipedia_id_top_mini_2022-09.zim &amp;amp;&lt;br /&gt;
 /usr/bin/kiwix-serve --port=8007 /usr/local/src/kiwix/wiktionary_id_all_maxi_2021-08.zim &amp;amp;&lt;br /&gt;
&lt;br /&gt;
==Edit /etc/rc.local==&lt;br /&gt;
&lt;br /&gt;
 vi /etc/rc.local&lt;br /&gt;
&lt;br /&gt;
Isi dengan,&lt;br /&gt;
&lt;br /&gt;
 #!/bin/sh -e&lt;br /&gt;
 &lt;br /&gt;
 /home/offline/start-kiwix.sh&lt;br /&gt;
 &lt;br /&gt;
 exit 0&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Kiwix]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_Moodle,_Apache2,_MariaDB,_PHP_8&amp;diff=73478</id>
		<title>USB OFFLINE: Ubuntu 24.04 Install Moodle, Apache2, MariaDB, PHP 8</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=USB_OFFLINE:_Ubuntu_24.04_Install_Moodle,_Apache2,_MariaDB,_PHP_8&amp;diff=73478"/>
		<updated>2026-02-27T20:07:07Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Install PHP Extension */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Update Repo==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt -y install software-properties-common ca-certificates lsb-release \&lt;br /&gt;
 apt-transport-https unzip mariadb-server&lt;br /&gt;
&lt;br /&gt;
==Install Apache2==&lt;br /&gt;
&lt;br /&gt;
 apt -y install apache2&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Install PHP Extension==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 apt -y install php-common php-mysql php-xml php-xmlrpc \&lt;br /&gt;
 php-curl php-gd php-imagick php-cli php-dev \&lt;br /&gt;
 php-imap php-mbstring php-opcache php-soap \&lt;br /&gt;
 php-zip php-intl php-cli curl \&lt;br /&gt;
 imagemagick git zip libgd-dev libapache2-mod-php \&lt;br /&gt;
 php php-common libapache2-mod-php php-cli&lt;br /&gt;
&lt;br /&gt;
Edit&lt;br /&gt;
&lt;br /&gt;
 sudo vi /etc/php/8.3/apache2/php.ini&lt;br /&gt;
 sudo vi /etc/php/8.3/cli/php.ini&lt;br /&gt;
&lt;br /&gt;
 upload_max_filesize = 100M&lt;br /&gt;
 post_max_size = 48M&lt;br /&gt;
 memory_limit = 512M&lt;br /&gt;
 max_input_time = 1000&lt;br /&gt;
 max_input_vars = 5000&lt;br /&gt;
 max_execution_time = 600&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Switch ke PHP8.3&lt;br /&gt;
&lt;br /&gt;
 sudo update-alternatives --config php&lt;br /&gt;
&lt;br /&gt;
 There is 1 choice for the alternative php (providing /usr/bin/php).&lt;br /&gt;
 &lt;br /&gt;
   Selection    Path             Priority   Status&lt;br /&gt;
 ------------------------------------------------------------&lt;br /&gt;
 * 0            /usr/bin/php8.3   83        auto mode&lt;br /&gt;
   1            /usr/bin/php8.3   83        manual mode&lt;br /&gt;
 &lt;br /&gt;
 Press &amp;lt;enter&amp;gt; to keep the current choice[*], or type selection number: &lt;br /&gt;
 &lt;br /&gt;
Atau kalau cuma ada 1 PHP&lt;br /&gt;
&lt;br /&gt;
 There is only one alternative in link group php (providing /usr/bin/php): /usr/bin/php8.3&lt;br /&gt;
 Nothing to configure.&lt;br /&gt;
&lt;br /&gt;
Restart apache2&lt;br /&gt;
&lt;br /&gt;
 sudo systemctl restart apache2.service&lt;br /&gt;
 sudo systemctl enable apache2.service&lt;br /&gt;
&lt;br /&gt;
==Install MariaDB==&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install mariadb-server&lt;br /&gt;
&lt;br /&gt;
Restart &amp;amp; Enable&lt;br /&gt;
&lt;br /&gt;
 sudo systemctl start mariadb&lt;br /&gt;
 sudo systemctl enable mariadb&lt;br /&gt;
&lt;br /&gt;
==Install Moodle==&lt;br /&gt;
&lt;br /&gt;
==Setup Database==&lt;br /&gt;
&lt;br /&gt;
===Kalau Operasional===&lt;br /&gt;
&lt;br /&gt;
Setup root password (jika di perlukan saja)&lt;br /&gt;
&lt;br /&gt;
 mysql&lt;br /&gt;
 mysql&amp;gt; SET PASSWORD FOR root@localhost=PASSWORD('password');&lt;br /&gt;
&lt;br /&gt;
Setup database operasonal dengan username &amp;amp; password akses&lt;br /&gt;
&lt;br /&gt;
 # mysql -u root -p&lt;br /&gt;
 Enter password:&lt;br /&gt;
 create database moodle;&lt;br /&gt;
 ALTER DATABASE moodle charset=utf8mb4;&lt;br /&gt;
 ALTER DATABASE moodle CHARACTER SET = utf8mb4 COLLATE = utf8mb4_unicode_ci;&lt;br /&gt;
 grant INSERT,SELECT on moodle.* to root@localhost;&lt;br /&gt;
 grant CREATE, INSERT, SELECT, DELETE, UPDATE on moodle.* to usermoodle@localhost identified by &amp;quot;moodlepassword&amp;quot;;&lt;br /&gt;
 grant CREATE, INSERT, SELECT, DELETE, UPDATE on moodle.* to usermoodle identified by &amp;quot;moodlepassword&amp;quot;;&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
===Kalau hanya Latihan===&lt;br /&gt;
&lt;br /&gt;
Password root 123456&lt;br /&gt;
&lt;br /&gt;
 # mysql -u root -p123456&lt;br /&gt;
&lt;br /&gt;
 create database moodle;&lt;br /&gt;
 ALTER DATABASE moodle charset=utf8mb4;&lt;br /&gt;
 ALTER DATABASE moodle CHARACTER SET = utf8mb4 COLLATE = utf8mb4_unicode_ci;&lt;br /&gt;
 grant ALL on moodle.* to root@localhost;&lt;br /&gt;
 grant ALL on moodle.* to moodle@localhost identified by &amp;quot;moodle&amp;quot;;&lt;br /&gt;
 grant ALL on moodle.* to moodle identified by &amp;quot;moodle&amp;quot;;&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
 service mysqld start&lt;br /&gt;
 service mysqld restart&lt;br /&gt;
&lt;br /&gt;
 systemctl restart mysqld&lt;br /&gt;
 systemctl enable mysqld&lt;br /&gt;
&lt;br /&gt;
==Siapkan folder /var/moodledata/==&lt;br /&gt;
&lt;br /&gt;
Download language pack lewat web&lt;br /&gt;
&lt;br /&gt;
 https://download.moodle.org/download.php/langpack/5.0/id.zip&lt;br /&gt;
&lt;br /&gt;
transfer menggunakan scp ke&lt;br /&gt;
&lt;br /&gt;
 /usr/local/src&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
Install language pack&lt;br /&gt;
&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 mkdir -p /var/moodledata/lang&lt;br /&gt;
 cp id.zip /var/moodledata/lang&lt;br /&gt;
 cd /var/moodledata/lang&lt;br /&gt;
 unzip id.zip&lt;br /&gt;
 chmod -Rf 777 /var/moodledata/lang/&lt;br /&gt;
 chown -Rf www-data: /var/moodledata/lang/&lt;br /&gt;
&lt;br /&gt;
==Install Moodle==&lt;br /&gt;
&lt;br /&gt;
Download oleh manusia dari&lt;br /&gt;
&lt;br /&gt;
 https://download.moodle.org/download.php/stable405/moodle-4.5.tgz&lt;br /&gt;
&lt;br /&gt;
Copykan menggunakan scp ke&lt;br /&gt;
&lt;br /&gt;
 /usr/local/src&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Install&lt;br /&gt;
&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 cp moodle-4.5.tgz /var/www/html/&lt;br /&gt;
 cd /var/www/html/&lt;br /&gt;
 tar zxvf moodle-4.5.tgz&lt;br /&gt;
 chown -Rf www-data: /var/moodledata/&lt;br /&gt;
 chmod -Rf 777 /var/www/html/moodle	&lt;br /&gt;
 chown -Rf www-data: /var/www/html/moodle&lt;br /&gt;
&lt;br /&gt;
Lanjutkan dengan konfigurasi via web&lt;br /&gt;
&lt;br /&gt;
 http://localhost/moodle&lt;br /&gt;
 http://ip-address/moodle&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 Language       -&amp;gt; id  -&amp;gt; Selanjutnya&lt;br /&gt;
 Web Address           http://ip-address/moodle&lt;br /&gt;
 Moodle Directory      /var/www/html/moodle&lt;br /&gt;
 Data Directory        /var/moodledata/&lt;br /&gt;
 Confirm paths         -&amp;gt; Selanjutnya&lt;br /&gt;
 Choose database driver&lt;br /&gt;
 Type -&amp;gt; MySQL         -&amp;gt; Selanjutnya&lt;br /&gt;
 Database settings&lt;br /&gt;
   Improved MySQL (mariadb)&lt;br /&gt;
   Database host      localhost&lt;br /&gt;
   Database name      moodle&lt;br /&gt;
   Database user      moodle&lt;br /&gt;
   Database password  moodle&lt;br /&gt;
   Tables prefix      mdl_ &lt;br /&gt;
   '''unix socket (check)''' -&amp;gt; Selanjutnya&lt;br /&gt;
&lt;br /&gt;
 Installation      -&amp;gt; Lanjut&lt;br /&gt;
 Server checks     -&amp;gt; Selanjutnya&lt;br /&gt;
&lt;br /&gt;
 Installation&lt;br /&gt;
   Nama Pengguna&lt;br /&gt;
   Password &lt;br /&gt;
   Nama Depan&lt;br /&gt;
   Nama akhir&lt;br /&gt;
   Alamat Email&lt;br /&gt;
   Kota&lt;br /&gt;
   Pilih Negara             -&amp;gt; Perbaharui Profile&lt;br /&gt;
 &lt;br /&gt;
 Installation&lt;br /&gt;
   Nama lengkap situs&lt;br /&gt;
   Nama singkat untuk situs (mis. kata tunggal)&lt;br /&gt;
   Keterangan halaman depan -&amp;gt; Save Changes&lt;br /&gt;
&lt;br /&gt;
==Akses Moodle==&lt;br /&gt;
&lt;br /&gt;
 http://localhost/moodle/&lt;br /&gt;
 http://ip-address/moodle/&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Youtube==&lt;br /&gt;
&lt;br /&gt;
* [https://www.youtube.com/watch?v=thrLiTitbSY YOUTUBE: Instalasi web server Apache2 PHP7.4 Percona5.7]&lt;br /&gt;
* [https://www.youtube.com/watch?v=zfGd-_2L6fQ YOUTUBE: MOODLE instalasi server e-learning moodle]&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Moodle]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Netplan:_statik&amp;diff=73477</id>
		<title>Netplan: statik</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Netplan:_statik&amp;diff=73477"/>
		<updated>2026-02-27T04:28:38Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;edit file&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 vi /etc/netplan/50-cloud-init.yaml&lt;br /&gt;
&lt;br /&gt;
isi&lt;br /&gt;
&lt;br /&gt;
 network:&lt;br /&gt;
   version: 2&lt;br /&gt;
   renderer: networkd&lt;br /&gt;
   ethernets:&lt;br /&gt;
     enp3s0:&lt;br /&gt;
       dhcp4: no&lt;br /&gt;
       addresses:&lt;br /&gt;
         - 192.168.1.10/24&lt;br /&gt;
       routes:&lt;br /&gt;
         - to: default&lt;br /&gt;
           via: 192.168.1.1&lt;br /&gt;
       nameservers:&lt;br /&gt;
         addresses:&lt;br /&gt;
           - 8.8.8.8&lt;br /&gt;
           - 1.1.1.1&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[netplan]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Dark_Web:_Open_Source_Tools&amp;diff=73476</id>
		<title>Dark Web: Open Source Tools</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Dark_Web:_Open_Source_Tools&amp;diff=73476"/>
		<updated>2026-02-25T02:51:49Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Robin (AI-Powered Dark Web OSINT Tool) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut beberapa '''tool open source''' untuk analisis dark web (terutama OSINT, crawling, scanning .onion sites) yang tersedia di GitHub dan relatif '''mudah di-install &amp;amp; dipakai''' (prioritas pada yang punya Docker support, Python sederhana, atau go get / pip install mudah).&lt;br /&gt;
&lt;br /&gt;
Saya urutkan dari yang paling mudah/rekomendasi utama berdasarkan kemudahan install dan popularitas terkini (2025-2026):&lt;br /&gt;
&lt;br /&gt;
=='''Robin''' (AI-Powered Dark Web OSINT Tool)==  &lt;br /&gt;
* Repo: https://github.com/apurvsinghgautam/robin  &lt;br /&gt;
* Fungsi: Search multi dark web engine, filter hasil pakai AI/LLM, summary investigasi, punya Web UI (Streamlit). Cocok buat pemula yang ingin cepat analisa tanpa ribet crawl manual.  &lt;br /&gt;
* Kemudahan install: '''Sangat mudah''' → pakai Docker (rekomendasi resmi):  &lt;br /&gt;
&lt;br /&gt;
 sudo snap install docker&lt;br /&gt;
  &lt;br /&gt;
 sudo docker pull apurvsg/robin:latest&lt;br /&gt;
 sudo docker run -p 8501:8501 apurvsg/robin:latest&lt;br /&gt;
     &lt;br /&gt;
* Buka http://localhost:8501 → langsung pakai UI-nya.  &lt;br /&gt;
* Kalau tanpa Docker: Python + pip, tapi Docker jauh lebih clean &amp;amp; aman.&lt;br /&gt;
&lt;br /&gt;
=='''TorBot''' (OWASP Project) ==&lt;br /&gt;
* Repo: https://github.com/DedSecInside/TorBot  &lt;br /&gt;
* Fungsi: Crawler .onion sites, ekstrak title, description, link, save output. Simple dark web reconnaissance.  &lt;br /&gt;
* Kemudahan install: Python-based, cukup clone &amp;amp; pip install:  &lt;br /&gt;
     &lt;br /&gt;
 git clone https://github.com/DedSecInside/TorBot.git&lt;br /&gt;
 cd TorBot&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 python torBot.py --help&lt;br /&gt;
     &lt;br /&gt;
* Butuh Tor running di background (bisa pakai tor browser atau tor service). Sangat straightforward.&lt;br /&gt;
&lt;br /&gt;
=='''OnionScan'''==&lt;br /&gt;
* Repo: https://github.com/s-rah/onionscan  &lt;br /&gt;
* Fungsi: Scan .onion site untuk leak info (misalnya server version, email, bitcoin address, dll). Bagus buat analisis keamanan/footprint satu onion site.  &lt;br /&gt;
* Kemudahan install: Go-based → super simpel kalau sudah punya Go:  &lt;br /&gt;
     &lt;br /&gt;
 go install github.com/s-rah/onionscan@latest&lt;br /&gt;
 onionscan --torProxyAddress=127.0.0.1:9050 http://exampleonion...&lt;br /&gt;
     &lt;br /&gt;
* Atau go get dulu kalau versi lama. Butuh Tor proxy.&lt;br /&gt;
&lt;br /&gt;
=='''OnionSearch'''==&lt;br /&gt;
*  Repo: https://github.com/megadose/OnionSearch  &lt;br /&gt;
* Fungsi: Search keyword di berbagai dark web search engine (Ahmia, Torch, dll) sekaligus, kumpulin .onion links. Bagus buat initial discovery.  &lt;br /&gt;
* Kemudahan install: Python, sangat ringan:  &lt;br /&gt;
     &lt;br /&gt;
 pip install onionsearch&lt;br /&gt;
 onionsearch &amp;quot;keyword&amp;quot; --engines all&lt;br /&gt;
     &lt;br /&gt;
* Bisa langsung pakai tanpa clone repo.&lt;br /&gt;
&lt;br /&gt;
=='''Prying Deep'''==&lt;br /&gt;
* Repo: https://github.com/iudicium/pryingdeep  &lt;br /&gt;
* Fungsi: Crawler + ekstrak intel sebanyak mungkin dari .onion atau clearnet (golang). Cocok buat deep analysis.  &lt;br /&gt;
* Kemudahan install: Go binary → mudah kalau punya Go:  &lt;br /&gt;
     &lt;br /&gt;
 go install github.com/iudicium/pryingdeep@latest&lt;br /&gt;
     &lt;br /&gt;
* Lalu jalankan dengan config Tor.&lt;br /&gt;
&lt;br /&gt;
=='''Catatan Penting''':==&lt;br /&gt;
* Hampir semua tool dark web '''butuh Tor''' berjalan (install Tor Browser atau `tor` service di Linux/Windows).&lt;br /&gt;
* Gunakan di lingkungan aman (VM recommended), jangan pakai di komputer pribadi tanpa proteksi.&lt;br /&gt;
* Tool di atas legal untuk riset/OSINT/penelitian keamanan, tapi hindari aktivitas ilegal.&lt;br /&gt;
* Kalau ingin list lengkap, cek curated repo ini: https://github.com/apurvsinghgautam/dark-web-osint-tools (kumpulan banyak tool dark web OSINT).&lt;br /&gt;
&lt;br /&gt;
Yang paling mudah &amp;amp; modern saat ini (2026) → '''Robin via Docker''' atau '''OnionSearch via pip'''. Mulai dari situ kalau kamu pemula.&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
</feed>