Difference between revisions of "KI: Keamanan AI"

From OnnoWiki
Jump to navigation Jump to search
(Created page with " BAB 9: Keamanan AI (AI sebagai Target Serangan) Fokus: AI tidak otomatis aman Pada tahap awal belajar AI, banyak orang beranggapan bahwa model AI adalah “otak pintar” yan...")
 
 
(One intermediate revision by the same user not shown)
Line 1: Line 1:
 +
Fokus: AI tidak otomatis aman
  
BAB 9: Keamanan AI (AI sebagai Target Serangan)
 
Fokus: AI tidak otomatis aman
 
 
Pada tahap awal belajar AI, banyak orang beranggapan bahwa model AI adalah “otak pintar” yang kebal terhadap serangan. Padahal, dalam dunia nyata, AI justru menjadi target yang sangat menarik bagi penyerang. Alasannya sederhana: AI membuat keputusan, dan siapa pun yang bisa memanipulasi keputusan tersebut akan mendapatkan keuntungan besar — finansial, politik, maupun strategis.
 
Pada tahap awal belajar AI, banyak orang beranggapan bahwa model AI adalah “otak pintar” yang kebal terhadap serangan. Padahal, dalam dunia nyata, AI justru menjadi target yang sangat menarik bagi penyerang. Alasannya sederhana: AI membuat keputusan, dan siapa pun yang bisa memanipulasi keputusan tersebut akan mendapatkan keuntungan besar — finansial, politik, maupun strategis.
 +
 
AI berbeda dengan software tradisional. Jika aplikasi biasa rusak, dampaknya mungkin terbatas. Namun jika AI rusak atau dimanipulasi, maka kesalahan akan direplikasi secara otomatis dan masif. Inilah mengapa keamanan AI (AI Security) menjadi isu kritis dalam sistem modern.
 
AI berbeda dengan software tradisional. Jika aplikasi biasa rusak, dampaknya mungkin terbatas. Namun jika AI rusak atau dimanipulasi, maka kesalahan akan direplikasi secara otomatis dan masif. Inilah mengapa keamanan AI (AI Security) menjadi isu kritis dalam sistem modern.
Mengubah Cara Pandang: AI sebagai Attack Surface
+
 
 +
==Mengubah Cara Pandang: AI sebagai Attack Surface==
 
Dalam keamanan klasik, kita mengenal attack surface seperti port jaringan, API, atau database. Pada sistem berbasis AI, model dan data itu sendiri adalah attack surface baru.
 
Dalam keamanan klasik, kita mengenal attack surface seperti port jaringan, API, atau database. Pada sistem berbasis AI, model dan data itu sendiri adalah attack surface baru.
 +
 
Beberapa fakta penting yang perlu dipahami sejak awal:
 
Beberapa fakta penting yang perlu dipahami sejak awal:
Model AI belajar dari data → data bisa diserang
+
* Model AI belajar dari data → data bisa diserang
Model AI membuat prediksi → prediksi bisa dimanipulasi
+
* Model AI membuat prediksi → prediksi bisa dimanipulasi
Model AI bisa di-query → informasi internal bisa bocor
+
* Model AI bisa di-query → informasi internal bisa bocor
AI bukan hanya alat pertahanan, tetapi juga objek yang harus dilindungi.
+
 
Adversarial Attack — Menipu AI Tanpa Merusak Sistem
+
AI bukan hanya alat pertahanan,
Apa itu Adversarial Attack?
+
tetapi juga objek yang harus dilindungi.
 +
 
 +
==Adversarial Attack — Menipu AI Tanpa Merusak Sistem==
 +
 
 +
===Apa itu Adversarial Attack?===
 +
 
 
Adversarial attack adalah teknik menyerang AI dengan memberikan input yang tampak normal bagi manusia, tetapi menyebabkan AI salah mengambil keputusan.
 
Adversarial attack adalah teknik menyerang AI dengan memberikan input yang tampak normal bagi manusia, tetapi menyebabkan AI salah mengambil keputusan.
 +
 
Yang menarik (dan menakutkan):
 
Yang menarik (dan menakutkan):
Tidak perlu hack server
+
* Tidak perlu hack server
Tidak perlu exploit OS
+
* Tidak perlu exploit OS
Cukup memanipulasi input
+
* Cukup memanipulasi input
 +
 
 
Contoh nyata:
 
Contoh nyata:
Gambar stop sign yang ditempeli stiker kecil → AI mobil otonom mengira itu speed limit
+
* Gambar stop sign yang ditempeli stiker kecil → AI mobil otonom mengira itu speed limit
Email yang tampak biasa → lolos dari spam filter
+
* Email yang tampak biasa → lolos dari spam filter
Prompt teks yang dirancang khusus → membuat chatbot melanggar aturan
+
* Prompt teks yang dirancang khusus → membuat chatbot melanggar aturan
Mengapa Ini Berbahaya?
+
 
 +
===Mengapa Ini Berbahaya?===
 
Karena:
 
Karena:
Manusia tidak menyadari ada serangan
+
* Manusia tidak menyadari ada serangan
Sistem tetap berjalan normal
+
* Sistem tetap berjalan normal
Kesalahan terjadi di level keputusan
+
* Kesalahan terjadi di level keputusan
AI bisa “salah dengan percaya diri tinggi”, dan itulah masalah terbesarnya.
+
 
 +
AI bisa “salah dengan percaya diri tinggi”,
 +
dan itulah masalah terbesarnya.
 +
 
 
Cara Kerja Sederhana (Intuisi)
 
Cara Kerja Sederhana (Intuisi)
 +
 
AI belajar pola statistik. Adversarial input:
 
AI belajar pola statistik. Adversarial input:
Tidak melanggar format
+
* Tidak melanggar format
Tidak terlihat aneh
+
* Tidak terlihat aneh
Tetapi menggeser distribusi data sedikit demi sedikit
+
* Tetapi menggeser distribusi data sedikit demi sedikit
 +
 
 
Hasilnya:
 
Hasilnya:
Model “tersesat” secara matematis
+
* Model “tersesat” secara matematis
Tapi terlihat “baik-baik saja” secara kasat mata
+
* Tapi terlihat “baik-baik saja” secara kasat mata
Data Poisoning — Meracuni AI dari Dalam
+
 
Apa itu Data Poisoning?
+
==Data Poisoning — Meracuni AI dari Dalam==
 +
 
 +
===Apa itu Data Poisoning?===
 +
 
 
Data poisoning adalah serangan dengan menyusupkan data yang salah, bias, atau berbahaya ke dalam dataset pelatihan AI.
 
Data poisoning adalah serangan dengan menyusupkan data yang salah, bias, atau berbahaya ke dalam dataset pelatihan AI.
 +
 
Jika adversarial attack menyerang saat AI digunakan, maka data poisoning menyerang saat AI dilatih.
 
Jika adversarial attack menyerang saat AI digunakan, maka data poisoning menyerang saat AI dilatih.
 +
 
Analogi sederhana:
 
Analogi sederhana:
“Kalau sejak kecil seseorang diajari informasi salah, maka ia akan membuat keputusan salah seumur hidup.”
+
 
 +
“Kalau sejak kecil seseorang diajari informasi salah,
 +
maka ia akan membuat keputusan salah seumur hidup.”
 +
 
 
Contoh Kasus Nyata
 
Contoh Kasus Nyata
Dataset wajah berisi label keliru → sistem face recognition salah identifikasi
+
* Dataset wajah berisi label keliru → sistem face recognition salah identifikasi
Data transaksi dimanipulasi → model deteksi fraud jadi tidak sensitif
+
* Data transaksi dimanipulasi → model deteksi fraud jadi tidak sensitif
Data opini publik dimasukkan bot → AI analisis sentimen jadi bias
+
* Data opini publik dimasukkan bot → AI analisis sentimen jadi bias
 +
 
 
Yang membuat ini berbahaya:
 
Yang membuat ini berbahaya:
Kesalahan tertanam permanen
+
* Kesalahan tertanam permanen
Sulit dideteksi setelah model jadi
+
* Sulit dideteksi setelah model jadi
Validasi sering kali lolos karena data terlihat “normal”
+
* Validasi sering kali lolos karena data terlihat “normal”
 +
 
 
Titik Lemah yang Sering Terjadi
 
Titik Lemah yang Sering Terjadi
Dataset dikumpulkan otomatis (scraping)
+
* Dataset dikumpulkan otomatis (scraping)
Tidak ada verifikasi sumber
+
* Tidak ada verifikasi sumber
Tidak ada data lineage
+
* Tidak ada data lineage
Tidak ada audit dataset
+
* Tidak ada audit dataset
 +
 
 
AI sekuat data yang melahirkannya.
 
AI sekuat data yang melahirkannya.
Model Leakage — Ketika Model “Bocor” Tanpa Disadari
+
 
Apa itu Model Leakage?
+
==Model Leakage — Ketika Model “Bocor” Tanpa Disadari==
 +
 
 +
===Apa itu Model Leakage?===
 
Model leakage terjadi ketika informasi internal model atau data sensitif bisa ditebak melalui interaksi dengan model tersebut.
 
Model leakage terjadi ketika informasi internal model atau data sensitif bisa ditebak melalui interaksi dengan model tersebut.
 +
 
Penyerang tidak perlu akses ke file model. Cukup:
 
Penyerang tidak perlu akses ke file model. Cukup:
Mengirim banyak query
+
* Mengirim banyak query
Mengamati output
+
* Mengamati output
Menyimpulkan pola internal
+
* Menyimpulkan pola internal
 +
 
 
Bentuk-Bentuk Kebocoran Model
 
Bentuk-Bentuk Kebocoran Model
Model inversion
+
* Model inversion
 
Menebak data training (misalnya wajah, teks, atau atribut pribadi)
 
Menebak data training (misalnya wajah, teks, atau atribut pribadi)
Membership inference
+
* Membership inference
 
Menentukan apakah suatu data pernah digunakan untuk melatih model
 
Menentukan apakah suatu data pernah digunakan untuk melatih model
Model extraction
+
* Model extraction
 
Meniru model dengan mengamati input–output (mencuri intellectual property)
 
Meniru model dengan mengamati input–output (mencuri intellectual property)
 +
 
Mengapa Ini Masalah Besar?
 
Mengapa Ini Masalah Besar?
 +
 
Karena:
 
Karena:
Bisa melanggar privasi
+
* Bisa melanggar privasi
Bisa melanggar UU Perlindungan Data
+
* Bisa melanggar UU Perlindungan Data
Bisa mencuri nilai bisnis model AI
+
* Bisa mencuri nilai bisnis model AI
 +
 
 
AI bukan hanya teknologi — ia adalah aset.
 
AI bukan hanya teknologi — ia adalah aset.
Refleksi Penting untuk Mahasiswa
+
 
 +
==Refleksi Penting untuk Mahasiswa==
 
Beberapa takeaway kunci yang harus benar-benar dipahami:
 
Beberapa takeaway kunci yang harus benar-benar dipahami:
AI tidak netral, tidak kebal, dan tidak sakral
+
* AI tidak netral, tidak kebal, dan tidak sakral
Keamanan AI dimulai dari desain, bukan setelah insiden
+
* Keamanan AI dimulai dari desain, bukan setelah insiden
Data adalah titik lemah terbesar AI
+
* Data adalah titik lemah terbesar AI
Input yang “halus” bisa lebih berbahaya daripada malware
+
* Input yang “halus” bisa lebih berbahaya daripada malware
Mindset yang Ingin Dibangun
+
 
 +
==Mindset yang Ingin Dibangun==
 
Di akhir pertemuan ini, mahasiswa diharapkan memiliki pola pikir:
 
Di akhir pertemuan ini, mahasiswa diharapkan memiliki pola pikir:
“Jika saya membangun AI, saya juga harus memikirkan bagaimana AI itu bisa diserang.”
+
“Jika saya membangun AI,
 +
saya juga harus memikirkan bagaimana AI itu bisa diserang.”
 +
 
 
Karena di dunia nyata:
 
Karena di dunia nyata:
Penyerang selalu lebih kreatif
+
* Penyerang selalu lebih kreatif
AI tidak pernah sepenuhnya benar
+
* AI tidak pernah sepenuhnya benar
Keamanan adalah proses, bukan fitur
+
* Keamanan adalah proses, bukan fitur
 
 
  
 
==Pranala Menarik==
 
==Pranala Menarik==
  
 
* [[Keamanan Informasi: Kuliah]]
 
* [[Keamanan Informasi: Kuliah]]

Latest revision as of 13:42, 23 January 2026

Fokus: AI tidak otomatis aman

Pada tahap awal belajar AI, banyak orang beranggapan bahwa model AI adalah “otak pintar” yang kebal terhadap serangan. Padahal, dalam dunia nyata, AI justru menjadi target yang sangat menarik bagi penyerang. Alasannya sederhana: AI membuat keputusan, dan siapa pun yang bisa memanipulasi keputusan tersebut akan mendapatkan keuntungan besar — finansial, politik, maupun strategis.

AI berbeda dengan software tradisional. Jika aplikasi biasa rusak, dampaknya mungkin terbatas. Namun jika AI rusak atau dimanipulasi, maka kesalahan akan direplikasi secara otomatis dan masif. Inilah mengapa keamanan AI (AI Security) menjadi isu kritis dalam sistem modern.

Mengubah Cara Pandang: AI sebagai Attack Surface

Dalam keamanan klasik, kita mengenal attack surface seperti port jaringan, API, atau database. Pada sistem berbasis AI, model dan data itu sendiri adalah attack surface baru.

Beberapa fakta penting yang perlu dipahami sejak awal:

  • Model AI belajar dari data → data bisa diserang
  • Model AI membuat prediksi → prediksi bisa dimanipulasi
  • Model AI bisa di-query → informasi internal bisa bocor
AI bukan hanya alat pertahanan,
tetapi juga objek yang harus dilindungi.

Adversarial Attack — Menipu AI Tanpa Merusak Sistem

Apa itu Adversarial Attack?

Adversarial attack adalah teknik menyerang AI dengan memberikan input yang tampak normal bagi manusia, tetapi menyebabkan AI salah mengambil keputusan.

Yang menarik (dan menakutkan):

  • Tidak perlu hack server
  • Tidak perlu exploit OS
  • Cukup memanipulasi input

Contoh nyata:

  • Gambar stop sign yang ditempeli stiker kecil → AI mobil otonom mengira itu speed limit
  • Email yang tampak biasa → lolos dari spam filter
  • Prompt teks yang dirancang khusus → membuat chatbot melanggar aturan

Mengapa Ini Berbahaya?

Karena:

  • Manusia tidak menyadari ada serangan
  • Sistem tetap berjalan normal
  • Kesalahan terjadi di level keputusan

AI bisa “salah dengan percaya diri tinggi”, dan itulah masalah terbesarnya.

Cara Kerja Sederhana (Intuisi)

AI belajar pola statistik. Adversarial input:

  • Tidak melanggar format
  • Tidak terlihat aneh
  • Tetapi menggeser distribusi data sedikit demi sedikit

Hasilnya:

  • Model “tersesat” secara matematis
  • Tapi terlihat “baik-baik saja” secara kasat mata

Data Poisoning — Meracuni AI dari Dalam

Apa itu Data Poisoning?

Data poisoning adalah serangan dengan menyusupkan data yang salah, bias, atau berbahaya ke dalam dataset pelatihan AI.

Jika adversarial attack menyerang saat AI digunakan, maka data poisoning menyerang saat AI dilatih.

Analogi sederhana:

“Kalau sejak kecil seseorang diajari informasi salah,
maka ia akan membuat keputusan salah seumur hidup.”

Contoh Kasus Nyata

  • Dataset wajah berisi label keliru → sistem face recognition salah identifikasi
  • Data transaksi dimanipulasi → model deteksi fraud jadi tidak sensitif
  • Data opini publik dimasukkan bot → AI analisis sentimen jadi bias

Yang membuat ini berbahaya:

  • Kesalahan tertanam permanen
  • Sulit dideteksi setelah model jadi
  • Validasi sering kali lolos karena data terlihat “normal”

Titik Lemah yang Sering Terjadi

  • Dataset dikumpulkan otomatis (scraping)
  • Tidak ada verifikasi sumber
  • Tidak ada data lineage
  • Tidak ada audit dataset

AI sekuat data yang melahirkannya.

Model Leakage — Ketika Model “Bocor” Tanpa Disadari

Apa itu Model Leakage?

Model leakage terjadi ketika informasi internal model atau data sensitif bisa ditebak melalui interaksi dengan model tersebut.

Penyerang tidak perlu akses ke file model. Cukup:

  • Mengirim banyak query
  • Mengamati output
  • Menyimpulkan pola internal

Bentuk-Bentuk Kebocoran Model

  • Model inversion

Menebak data training (misalnya wajah, teks, atau atribut pribadi)

  • Membership inference

Menentukan apakah suatu data pernah digunakan untuk melatih model

  • Model extraction

Meniru model dengan mengamati input–output (mencuri intellectual property)

Mengapa Ini Masalah Besar?

Karena:

  • Bisa melanggar privasi
  • Bisa melanggar UU Perlindungan Data
  • Bisa mencuri nilai bisnis model AI

AI bukan hanya teknologi — ia adalah aset.

Refleksi Penting untuk Mahasiswa

Beberapa takeaway kunci yang harus benar-benar dipahami:

  • AI tidak netral, tidak kebal, dan tidak sakral
  • Keamanan AI dimulai dari desain, bukan setelah insiden
  • Data adalah titik lemah terbesar AI
  • Input yang “halus” bisa lebih berbahaya daripada malware

Mindset yang Ingin Dibangun

Di akhir pertemuan ini, mahasiswa diharapkan memiliki pola pikir: “Jika saya membangun AI,

saya juga harus memikirkan bagaimana AI itu bisa diserang.”

Karena di dunia nyata:

  • Penyerang selalu lebih kreatif
  • AI tidak pernah sepenuhnya benar
  • Keamanan adalah proses, bukan fitur

Pranala Menarik