KI: PRAKTEK 8: Analisis Keamanan Sistem AI (Pre-Attack Lab)
Tujuan
Setelah menyelesaikan praktikum ini, mahasiswa mampu:
- Memahami AI sebagai bagian dari sistem, bukan sekadar model
- Mengidentifikasi attack surface pada sistem AI
- Menganalisis risiko keamanan AI menggunakan CIA Triad
- Menyusun peta risiko awal sebelum melakukan eksperimen serangan AI
- Mengembangkan mindset security-first sebelum menyentuh teknik ofensif
Fokus utama praktikum ini adalah cara berpikir, bukan koding.
Konsep Inti
- AI sebagai Sistem Sosio-Teknis
- Attack Surface
- CIA Triad (Confidentiality, Integrity, Availability)
- Asset – Threat – Impact
- Risk Awareness sebelum Attack
Tools yang Digunakan (Ringan & Open Source)
Tidak ada tools kompleks. Gunakan:
- Kertas / Whiteboard (diskusi awal)
- draw.io / Excalidraw → diagram sistem AI
- Spreadsheet (LibreOffice / Google Sheets)
- (Opsional) Python + Jupyter Notebook → hanya untuk eksplorasi data sederhana
⚠️ Tidak ada eksploitasi, fuzzing, atau serangan di modul ini.
Skenario Praktikum (Wajib Dipilih 1)
Mahasiswa memilih satu sistem AI fiktif tapi realistis:
Pilihan Skenario:
- AI Deteksi Phishing Email
- AI Penilaian Risiko Kredit UMKM
- AI Deteksi Anomali Log Server
- AI Chatbot Layanan Publik
- AI Audit Data Pribadi (PII Scanner)
Langkah Praktikum (Step-by-Step)
STEP 1 — Memahami Sistem AI Secara Utuh
Mahasiswa tidak langsung bicara model, tetapi menjawab:
- Siapa pengguna sistem?
- Data apa yang masuk?
- Keputusan apa yang dihasilkan AI?
- Dampak apa jika AI salah?
Output singkat (1 paragraf):
“Sistem AI ini digunakan untuk … dan berdampak pada …”
STEP 2 — Identifikasi Komponen Sistem AI
Mahasiswa memetakan sistem AI menjadi komponen berikut:
Data
- data training
- data input (inferensi)
Model
- file model
- versi model
Pipeline
- preprocessing
- training / inference
Infrastruktur
- server / VM / container
Output
- prediksi
- rekomendasi
- keputusan otomatis
Manusia
- user
- admin
- operator
Output: daftar komponen sistem AI.
STEP 3 — Membuat Diagram AI sebagai Sistem
Gunakan draw.io / Excalidraw.
Diagram minimal harus memuat:
- alur data → model → output
- interaksi manusia
- titik input & output
Contoh sederhana (teks):
User → Input Data → Preprocessing → AI Model → Output
↑
Training Dataset
Output: 1 diagram sistem AI.
STEP 4 — Identifikasi Attack Surface
Untuk setiap komponen, mahasiswa menjawab:
- Bagian mana yang bisa diakses?
- Bagian mana yang bisa disalahgunakan?
- Bagian mana yang paling sering dipercaya tanpa dicek?
Contoh:
- Input bebas dari user → attack surface
- Dataset training → attack surface
- API inference → attack surface
Output: tabel sederhana Attack Surface.
STEP 5 — Pemetaan CIA Triad pada Sistem AI
Mahasiswa menganalisis dampak kegagalan AI terhadap CIA.
Contoh tabel:
| Komponen | Confidentiality | Integrity | Availability | Dampak |
|---|---|---|---|---|
| Dataset training | ❌ | ❌ | ✔️ | Model bias |
| Model AI | ❌ | ❌ | ❌ | Keputusan salah |
| API inference | ✔️ | ❌ | ❌ | Layanan lumpuh |
Output: Tabel CIA Impact.
STEP 6 — Analisis Risiko Awal (Tanpa Angka Rumit)
Mahasiswa memilih 3 risiko terbesar, lalu menjawab:
- Mengapa risiko ini berbahaya?
- Siapa yang terdampak?
- Apakah risikonya teknis, etis, atau sosial?
Output: 3 paragraf analisis risiko.
STEP 7 — Refleksi Pra-Serangan (WAJIB)
Mahasiswa menulis refleksi singkat:
- Apa asumsi paling berbahaya dalam sistem AI ini?
- Bagian mana yang paling sering dianggap “aman” padahal tidak?
- Apa yang bisa salah tanpa ada “hacker”?
Output: 1 halaman refleksi.
Output yang Wajib Dikumpulkan
- Diagram sistem AI
- Tabel attack surface
- Tabel CIA impact
- Analisis 3 risiko utama
- Refleksi pra-serangan
- Evaluasi Penilaian
| Aspek | Bobot |
|---|---|
| Pemahaman sistem AI | 25% |
| Ketepatan attack surface | 25% |
| Analisis CIA | 20% |
| Kualitas refleksi | 20% |
| Kerapihan & kejelasan | 10% |
Kesalahan Umum (Wajib Dihindari)
- Langsung bicara algoritma tanpa memahami sistem
- Menganggap AI selalu benar
- Fokus ke hacker, lupa human error
- Mengira “belum diserang” berarti “aman”
Insight Penting
Sebelum AI diserang, AI biasanya sudah berbahaya karena asumsi yang salah.
Praktikum ini menjadi fondasi mental agar pada BAB selanjutnya, mahasiswa:
- tidak sekadar “menyerang model”,
- tetapi memahami mengapa serangan itu relevan dan berbahaya.