<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=LLM%3A_Lora_tidak_bisa_dijalankan_di_ollama</id>
	<title>LLM: Lora tidak bisa dijalankan di ollama - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=LLM%3A_Lora_tidak_bisa_dijalankan_di_ollama"/>
	<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Lora_tidak_bisa_dijalankan_di_ollama&amp;action=history"/>
	<updated>2026-04-21T03:46:31Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.35.4</generator>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Lora_tidak_bisa_dijalankan_di_ollama&amp;diff=72946&amp;oldid=prev</id>
		<title>Onnowpurbo: Created page with &quot;Pertanyaan yang **sangat bagus dan penting**, Pak 🙏  Jawaban singkatnya:  &gt; ⚙️ **Ollama tidak langsung menjalankan file `.safetensors` sebagai model utama.** &gt; Tetapi...&quot;</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Lora_tidak_bisa_dijalankan_di_ollama&amp;diff=72946&amp;oldid=prev"/>
		<updated>2025-10-04T21:20:16Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;Pertanyaan yang **sangat bagus dan penting**, Pak 🙏  Jawaban singkatnya:  &amp;gt; ⚙️ **Ollama tidak langsung menjalankan file `.safetensors` sebagai model utama.** &amp;gt; Tetapi...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Pertanyaan yang **sangat bagus dan penting**, Pak 🙏&lt;br /&gt;
&lt;br /&gt;
Jawaban singkatnya:&lt;br /&gt;
&lt;br /&gt;
&amp;gt; ⚙️ **Ollama tidak langsung menjalankan file `.safetensors` sebagai model utama.**&lt;br /&gt;
&amp;gt; Tetapi — Ollama **bisa memanfaatkan file `.safetensors` jika isinya adalah *LoRA adapter*** yang ditempelkan ke model dasar melalui **Modelfile**.&lt;br /&gt;
&lt;br /&gt;
Mari saya jelaskan dengan rinci dan praktis.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧠 1. Struktur Umum Model di Ollama&lt;br /&gt;
&lt;br /&gt;
Ollama dirancang untuk menjalankan model **yang sudah dikonversi ke format `.gguf`**&lt;br /&gt;
(*binari terkuantisasi* dari proyek `llama.cpp`).&lt;br /&gt;
&lt;br /&gt;
Jadi, model utama (base model) seperti:&lt;br /&gt;
&lt;br /&gt;
```&lt;br /&gt;
llama3.2:3b → disimpan di ~/.ollama/models/blobs/*.gguf&lt;br /&gt;
gemma2:2b  → juga berbentuk .gguf&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
File `.safetensors` **tidak bisa langsung dijalankan sebagai model penuh**,&lt;br /&gt;
karena Ollama hanya membaca bobot dari file `.gguf`.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧩 2. Namun, `.safetensors` **bisa dipakai sebagai ADAPTER (LoRA)**&lt;br /&gt;
&lt;br /&gt;
Nah, inilah *pengecualian penting*.&lt;br /&gt;
&lt;br /&gt;
Kalau file `.safetensors` itu hasil dari **training LoRA (PEFT)** —&lt;br /&gt;
misalnya berisi *adapter weights* seperti:&lt;br /&gt;
&lt;br /&gt;
```&lt;br /&gt;
my_lora_adapter/&lt;br /&gt;
 ├─ adapter_config.json&lt;br /&gt;
 ├─ adapter_model.safetensors&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Maka Ollama **bisa membaca dan menempelkannya ke model dasar**&lt;br /&gt;
melalui perintah di **Modelfile** seperti ini:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
# Modelfile&lt;br /&gt;
FROM llama3.2:3b&lt;br /&gt;
ADAPTER ./my_lora_adapter&lt;br /&gt;
PARAMETER temperature 0.6&lt;br /&gt;
PARAMETER num_ctx 4096&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Lalu jalankan:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
ollama create sekolah-lora -f Modelfile&lt;br /&gt;
ollama run sekolah-lora&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
✅ Dalam mode ini:&lt;br /&gt;
&lt;br /&gt;
* Ollama akan memuat `llama3.2:3b` dari `.gguf`&lt;br /&gt;
* Lalu menambahkan *LoRA adapter* dari `adapter_model.safetensors`&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧱 3. Jika ingin menjalankan model hasil fine-tuning penuh (.safetensors besar)&lt;br /&gt;
&lt;br /&gt;
Kalau file `.safetensors` itu **bukan adapter**, melainkan hasil *full fine-tuning*&lt;br /&gt;
(misal `pytorch_model.safetensors` berukuran besar),&lt;br /&gt;
Ollama **tidak bisa langsung memuatnya**.&lt;br /&gt;
&lt;br /&gt;
Langkah yang harus dilakukan:&lt;br /&gt;
&lt;br /&gt;
1. **Gunakan skrip konversi HuggingFace → GGUF**, misalnya dari `llama.cpp`:&lt;br /&gt;
&lt;br /&gt;
   ```bash&lt;br /&gt;
   python3 convert-hf-to-gguf.py /path/to/hf_model --outfile mymodel.gguf&lt;br /&gt;
   ```&lt;br /&gt;
2. Setelah itu, baru bisa dibuat model di Ollama:&lt;br /&gt;
&lt;br /&gt;
   ```bash&lt;br /&gt;
   FROM ./mymodel.gguf&lt;br /&gt;
   ```&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 💡 4. Ringkasan Cepat&lt;br /&gt;
&lt;br /&gt;
| Kasus                                            | Bisa Dipakai di Ollama? | Catatan                          |&lt;br /&gt;
| :----------------------------------------------- | :---------------------- | :------------------------------- |&lt;br /&gt;
| `.gguf` model (hasil convert atau bawaan Ollama) | ✅ Ya                    | Format utama Ollama              |&lt;br /&gt;
| `.safetensors` **hasil LoRA adapter (PEFT)**     | ✅ Ya, via `ADAPTER`     | Tempel ke base model             |&lt;br /&gt;
| `.safetensors` **hasil full fine-tuning**        | ❌ Tidak langsung        | Harus dikonversi ke `.gguf` dulu |&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## 🧠 Kesimpulan&lt;br /&gt;
&lt;br /&gt;
&amp;gt; **Ollama tidak menjalankan `.safetensors` langsung, kecuali jika itu adapter LoRA.**&lt;br /&gt;
&amp;gt; Untuk model penuh → ubah ke `.gguf`.&lt;br /&gt;
&amp;gt; Untuk adapter → langsung pakai di `ADAPTER ./my_lora_adapter`.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
Kalau Bapak mau, saya bisa bantu buatkan contoh struktur direktori lengkap:&lt;br /&gt;
&lt;br /&gt;
```&lt;br /&gt;
📁 proyek_lora/&lt;br /&gt;
 ├─ Modelfile&lt;br /&gt;
 ├─ my_lora_adapter/&lt;br /&gt;
 │   ├─ adapter_config.json&lt;br /&gt;
 │   └─ adapter_model.safetensors&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
beserta contoh `ollama create` dan `ollama run` yang bisa langsung dites di Ubuntu 24.04.&lt;br /&gt;
Apakah mau saya buatkan contoh siap jalan seperti itu?&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
</feed>