<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=LLM%3A_Lora_vs_Fine_Tuning</id>
	<title>LLM: Lora vs Fine Tuning - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=LLM%3A_Lora_vs_Fine_Tuning"/>
	<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Lora_vs_Fine_Tuning&amp;action=history"/>
	<updated>2026-04-21T03:44:58Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.35.4</generator>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Lora_vs_Fine_Tuning&amp;diff=72944&amp;oldid=prev</id>
		<title>Onnowpurbo: Created page with &quot;Baik Pak Onno 🙏 berikut perbandingan lengkap dan jelas antara **LoRA** dan **Fine-Tuning penuh**, fokus pada konteks model seperti **Ollama / LLM open-source (LLaMA, Gemma,...&quot;</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Lora_vs_Fine_Tuning&amp;diff=72944&amp;oldid=prev"/>
		<updated>2025-10-04T21:06:46Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;Baik Pak Onno 🙏 berikut perbandingan lengkap dan jelas antara **LoRA** dan **Fine-Tuning penuh**, fokus pada konteks model seperti **Ollama / LLM open-source (LLaMA, Gemma,...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Baik Pak Onno 🙏 berikut perbandingan lengkap dan jelas antara **LoRA** dan **Fine-Tuning penuh**, fokus pada konteks model seperti **Ollama / LLM open-source (LLaMA, Gemma, Mistral, dsb)** di hardware lokal (mis. RTX 4060 8 GB).&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧠 1. Konsep Utama&lt;br /&gt;
&lt;br /&gt;
| Aspek           | **Fine-Tuning Penuh**                                                   | **LoRA (Low-Rank Adaptation)**                                                                                                                  |&lt;br /&gt;
| :-------------- | :---------------------------------------------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------------- |&lt;br /&gt;
| **Definisi**    | Melatih **seluruh parameter** model dari checkpoint dasar (base model). | Melatih **lapisan tambahan kecil** (low-rank matrices) yang “menempel” pada lapisan tertentu, sementara parameter utama **dibekukan (frozen)**. |&lt;br /&gt;
| **Tujuan**      | Membuat model benar-benar belajar ulang sesuai data baru.               | Menyesuaikan gaya atau domain tanpa mengubah bobot inti model.                                                                                  |&lt;br /&gt;
| **Metode**      | Backpropagation ke semua bobot.                                         | Backpropagation hanya ke modul *adapter* kecil.                                                                                                 |&lt;br /&gt;
| **Hasil Akhir** | Model baru penuh (`.bin`, `.gguf`, dsb).                                | File adapter ringan (`adapter_model.safetensors` atau `.gguf`).                                                                                 |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## ⚙️ 2. Sumber Daya &amp;amp; Kecepatan&lt;br /&gt;
&lt;br /&gt;
| Aspek                   | **Fine-Tuning Penuh**                                  | **LoRA**                                                        |&lt;br /&gt;
| :---------------------- | :----------------------------------------------------- | :-------------------------------------------------------------- |&lt;br /&gt;
| **VRAM/RAM**            | Sangat besar (butuh 24–80 GB VRAM untuk model 7–13 B). | Sangat hemat (bisa jalan di 6–8 GB VRAM dengan QLoRA).          |&lt;br /&gt;
| **Waktu Latih**         | Lama — berjam-jam sampai berhari-hari.                 | Cepat — bisa selesai dalam 30 menit – 2 jam tergantung dataset. |&lt;br /&gt;
| **Disk Space**          | File output besar (10 GB +).                           | File kecil (&amp;lt; 500 MB, sering hanya 100–200 MB).                 |&lt;br /&gt;
| **Biaya Listrik/Cloud** | Tinggi.                                                | Rendah.                                                         |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🔍 3. Kualitas &amp;amp; Fleksibilitas&lt;br /&gt;
&lt;br /&gt;
| Aspek                       | **Fine-Tuning Penuh**                              | **LoRA**                                                |&lt;br /&gt;
| :-------------------------- | :------------------------------------------------- | :------------------------------------------------------ |&lt;br /&gt;
| **Kualitas Adaptasi**       | Paling optimal bila dataset besar (≥ 50 k contoh). | Cukup baik untuk dataset kecil (ratusan–ribuan contoh). |&lt;br /&gt;
| **Risiko *Overfitting***    | Tinggi bila data sedikit.                          | Lebih aman karena bobot inti tetap beku.                |&lt;br /&gt;
| **Transfer ke Domain Baru** | Lebih kuat (bisa ubah perilaku mendasar).          | Cocok untuk *style tuning* atau *task specialization*.  |&lt;br /&gt;
| **Re-use / Kombinasi**      | Susah: model besar dan tunggal.                    | Mudah: adapter bisa diganti-ganti (*plug &amp;amp; play*).      |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧩 4. Implementasi di **Ollama**&lt;br /&gt;
&lt;br /&gt;
| Aspek               | **Fine-Tuning Penuh**                                                                                                         | **LoRA di Ollama**                                                           |&lt;br /&gt;
| :------------------ | :---------------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------- |&lt;br /&gt;
| **Proses**          | Tidak dilakukan langsung di Ollama. Harus dilatih di framework lain (Transformers, Unsloth, Axolotl) lalu dikonversi ke GGUF. | Bisa langsung “ditempelkan” ke base model dengan `ADAPTER` di **Modelfile**. |&lt;br /&gt;
| **Integrasi**       | `FROM llama3:8b` lalu ganti model hasil fine-tuning.                                                                          | `FROM llama3:8b` + `ADAPTER ./my_lora_adapter`.                              |&lt;br /&gt;
| **Ukuran Build**    | 8–12 GB per model.                                                                                                            | &amp;lt; 500 MB per adapter.                                                        |&lt;br /&gt;
| **Manajemen Versi** | Satu model per domain.                                                                                                        | Multi-domain mudah: cukup banyakkan adapter.                                 |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🎓 5. Contoh Kasus&lt;br /&gt;
&lt;br /&gt;
| Kebutuhan                                                                                | Solusi Tepat                         |&lt;br /&gt;
| :--------------------------------------------------------------------------------------- | :----------------------------------- |&lt;br /&gt;
| Ingin melatih ulang model sepenuhnya (mis. ubah bahasa dari Inggris ke Indonesia total). | Fine-Tuning penuh.                   |&lt;br /&gt;
| Ingin menyesuaikan gaya menjawab agar lebih “sopan, formal, atau teknis SMK”.            | LoRA.                                |&lt;br /&gt;
| Ingin adaptasi cepat dengan dataset 1 000 – 10 000 contoh.                               | LoRA (QLoRA lebih hemat).            |&lt;br /&gt;
| Ingin riset akademik mendalam tentang *representation drift*.                            | Fine-Tuning penuh.                   |&lt;br /&gt;
| Ingin jalankan di RTX 4060 8 GB.                                                         | LoRA (Fine-Tuning penuh tidak muat). |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧮 6. Analogi Sederhana&lt;br /&gt;
&lt;br /&gt;
&amp;gt; 🔧 *Fine-Tuning penuh:* seperti membongkar seluruh mesin mobil dan mengganti komponennya.&lt;br /&gt;
&amp;gt; 🎛️ *LoRA:* seperti menambahkan modul ECU kecil di mesin lama agar lebih efisien — ringan, bisa dilepas pasang, dan aman.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 📦 7. Ringkasan Cepat&lt;br /&gt;
&lt;br /&gt;
| Aspek            | Fine-Tuning Penuh             | LoRA                                            |&lt;br /&gt;
| :--------------- | :---------------------------- | :---------------------------------------------- |&lt;br /&gt;
| Modifikasi bobot | Semua                         | Sebagian kecil                                  |&lt;br /&gt;
| Resource         | Tinggi                        | Rendah                                          |&lt;br /&gt;
| Waktu training   | Lama                          | Singkat                                         |&lt;br /&gt;
| File hasil       | Model baru besar              | Adapter kecil                                   |&lt;br /&gt;
| Risiko           | Overfit, sulit dikontrol      | Aman, modular                                   |&lt;br /&gt;
| Cocok untuk      | Dataset besar, riset mendalam | Adaptasi cepat, proyek pendidikan, edge/offline |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
Kalau Bapak mau, saya bisa bantu buat **diagram arsitektur perbandingan** LoRA vs Fine-Tuning (alur parameter, storage, &amp;amp; training) + **contoh JSONL dataset** kecil agar siswa SMK bisa coba LoRA training lokal di RTX 4060. Mau saya buatkan versi itu?&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
</feed>