KI: PRAKTEK 8: Analisis Keamanan Sistem AI (Pre-Attack Lab)

From OnnoWiki
Jump to navigation Jump to search

Tujuan

Setelah menyelesaikan praktikum ini, mahasiswa mampu:

  • Memahami AI sebagai bagian dari sistem, bukan sekadar model
  • Mengidentifikasi attack surface pada sistem AI
  • Menganalisis risiko keamanan AI menggunakan CIA Triad
  • Menyusun peta risiko awal sebelum melakukan eksperimen serangan AI
  • Mengembangkan mindset security-first sebelum menyentuh teknik ofensif

Fokus utama praktikum ini adalah cara berpikir, bukan koding.

Konsep Inti

  • AI sebagai Sistem Sosio-Teknis
  • Attack Surface
  • CIA Triad (Confidentiality, Integrity, Availability)
  • Asset – Threat – Impact
  • Risk Awareness sebelum Attack

Tools yang Digunakan (Ringan & Open Source)

Tidak ada tools kompleks. Gunakan:

  • Kertas / Whiteboard (diskusi awal)
  • draw.io / Excalidraw → diagram sistem AI
  • Spreadsheet (LibreOffice / Google Sheets)
  • (Opsional) Python + Jupyter Notebook → hanya untuk eksplorasi data sederhana
⚠️ Tidak ada eksploitasi, fuzzing, atau serangan di modul ini.

Skenario Praktikum (Wajib Dipilih 1)

Mahasiswa memilih satu sistem AI fiktif tapi realistis:

Pilihan Skenario:

  • AI Deteksi Phishing Email
  • AI Penilaian Risiko Kredit UMKM
  • AI Deteksi Anomali Log Server
  • AI Chatbot Layanan Publik
  • AI Audit Data Pribadi (PII Scanner)

Langkah Praktikum (Step-by-Step)

STEP 1 — Memahami Sistem AI Secara Utuh

Mahasiswa tidak langsung bicara model, tetapi menjawab:

  • Siapa pengguna sistem?
  • Data apa yang masuk?
  • Keputusan apa yang dihasilkan AI?
  • Dampak apa jika AI salah?

Output singkat (1 paragraf):

“Sistem AI ini digunakan untuk … dan berdampak pada …”

STEP 2 — Identifikasi Komponen Sistem AI

Mahasiswa memetakan sistem AI menjadi komponen berikut:

Data

  • data training
  • data input (inferensi)

Model

  • file model
  • versi model

Pipeline

  • preprocessing
  • training / inference

Infrastruktur

  • server / VM / container

Output

  • prediksi
  • rekomendasi
  • keputusan otomatis

Manusia

  • user
  • admin
  • operator

Output: daftar komponen sistem AI.


STEP 3 — Membuat Diagram AI sebagai Sistem

Gunakan draw.io / Excalidraw.

Diagram minimal harus memuat:

  • alur data → model → output
  • interaksi manusia
  • titik input & output

Contoh sederhana (teks):

User → Input Data → Preprocessing → AI Model → Output
                       ↑
                 Training Dataset
Output: 1 diagram sistem AI.

STEP 4 — Identifikasi Attack Surface

Untuk setiap komponen, mahasiswa menjawab:

  • Bagian mana yang bisa diakses?
  • Bagian mana yang bisa disalahgunakan?
  • Bagian mana yang paling sering dipercaya tanpa dicek?

Contoh:

  • Input bebas dari user → attack surface
  • Dataset training → attack surface
  • API inference → attack surface

Output: tabel sederhana Attack Surface.

STEP 5 — Pemetaan CIA Triad pada Sistem AI

Mahasiswa menganalisis dampak kegagalan AI terhadap CIA.

Contoh tabel:

Komponen Confidentiality Integrity Availability Dampak
Dataset training ✔️ Model bias
Model AI Keputusan salah
API inference ✔️ Layanan lumpuh

Output: Tabel CIA Impact.

STEP 6 — Analisis Risiko Awal (Tanpa Angka Rumit)

Mahasiswa memilih 3 risiko terbesar, lalu menjawab:

  • Mengapa risiko ini berbahaya?
  • Siapa yang terdampak?
  • Apakah risikonya teknis, etis, atau sosial?

Output: 3 paragraf analisis risiko.

STEP 7 — Refleksi Pra-Serangan (WAJIB)

Mahasiswa menulis refleksi singkat:

  • Apa asumsi paling berbahaya dalam sistem AI ini?
  • Bagian mana yang paling sering dianggap “aman” padahal tidak?
  • Apa yang bisa salah tanpa ada “hacker”?

Output: 1 halaman refleksi.

Output yang Wajib Dikumpulkan

  • Diagram sistem AI
  • Tabel attack surface
  • Tabel CIA impact
  • Analisis 3 risiko utama
  • Refleksi pra-serangan
  • Evaluasi Penilaian
Aspek Bobot
Pemahaman sistem AI 25%
Ketepatan attack surface 25%
Analisis CIA 20%
Kualitas refleksi 20%
Kerapihan & kejelasan 10%

Kesalahan Umum (Wajib Dihindari)

  • Langsung bicara algoritma tanpa memahami sistem
  • Menganggap AI selalu benar
  • Fokus ke hacker, lupa human error
  • Mengira “belum diserang” berarti “aman”

Insight Penting

Sebelum AI diserang,
AI biasanya sudah berbahaya karena asumsi yang salah.

Praktikum ini menjadi fondasi mental agar pada BAB selanjutnya, mahasiswa:

  • tidak sekadar “menyerang model”,
  • tetapi memahami mengapa serangan itu relevan dan berbahaya.

Pranala Menarik