<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=TF%3A_Penjelasan_Model_TensorFlow</id>
	<title>TF: Penjelasan Model TensorFlow - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=TF%3A_Penjelasan_Model_TensorFlow"/>
	<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=TF:_Penjelasan_Model_TensorFlow&amp;action=history"/>
	<updated>2026-04-17T12:54:31Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.35.4</generator>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=TF:_Penjelasan_Model_TensorFlow&amp;diff=71978&amp;oldid=prev</id>
		<title>Onnowpurbo: Created page with &quot;Model:   model = tf.keras.models.Sequential([    tf.keras.layers.Flatten(input_shape=(28, 28)),    tf.keras.layers.Dense(128, activation='relu'),    tf.keras.layers.Dropout(0....&quot;</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=TF:_Penjelasan_Model_TensorFlow&amp;diff=71978&amp;oldid=prev"/>
		<updated>2025-03-17T00:13:06Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;Model:   model = tf.keras.models.Sequential([    tf.keras.layers.Flatten(input_shape=(28, 28)),    tf.keras.layers.Dense(128, activation=&amp;#039;relu&amp;#039;),    tf.keras.layers.Dropout(0....&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Model:&lt;br /&gt;
&lt;br /&gt;
 model = tf.keras.models.Sequential([&lt;br /&gt;
   tf.keras.layers.Flatten(input_shape=(28, 28)),&lt;br /&gt;
   tf.keras.layers.Dense(128, activation='relu'),&lt;br /&gt;
   tf.keras.layers.Dropout(0.2),&lt;br /&gt;
   tf.keras.layers.Dense(10)&lt;br /&gt;
 ])&lt;br /&gt;
&lt;br /&gt;
Berikut adalah penjelasan dari setiap lapisan dalam model TensorFlow/Keras yang kamu berikan:&lt;br /&gt;
&lt;br /&gt;
==1. '''Flatten'''==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Flatten(input_shape=(28, 28))&lt;br /&gt;
&lt;br /&gt;
* Lapisan ini digunakan untuk mengubah (flatten) input dari bentuk '''matriks 2D''' menjadi '''vektor 1D'''.&lt;br /&gt;
* Dalam kasus ini, inputnya adalah gambar berukuran '''28x28''' piksel, yang akan diratakan menjadi '''vektor 1D dengan panjang 784 (28×28)'''.&lt;br /&gt;
* Flatten '''tidak memiliki parameter yang dipelajari''', hanya mengubah bentuk data.&lt;br /&gt;
&lt;br /&gt;
==2. '''Dense'''==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Dense(128, activation='relu')&lt;br /&gt;
&lt;br /&gt;
* Ini adalah '''fully connected layer (dense layer)''' dengan '''128 neuron'''.&lt;br /&gt;
* Setiap neuron menerima input dari semua elemen di lapisan sebelumnya (lapisan Flatten).&lt;br /&gt;
* Menggunakan fungsi aktivasi '''ReLU (Rectified Linear Unit)''' untuk memperkenalkan non-linearitas:&lt;br /&gt;
&lt;br /&gt;
 ReLU(x) = max(0, x)&lt;br /&gt;
&lt;br /&gt;
* Fungsi aktivasi ini membantu jaringan belajar representasi yang lebih kompleks.&lt;br /&gt;
&lt;br /&gt;
==3. '''Dropout'''==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Dropout(0.2)&lt;br /&gt;
&lt;br /&gt;
* Digunakan untuk '''regularisasi''' agar model tidak overfitting.&lt;br /&gt;
* '''Dropout 0.2''' berarti 20% dari neuron di lapisan sebelumnya (Dense 128) akan '''dinonaktifkan secara acak''' selama training.&lt;br /&gt;
* Ini membantu model untuk tidak terlalu bergantung pada fitur tertentu dan meningkatkan generalisasi pada data baru.&lt;br /&gt;
&lt;br /&gt;
==4. '''Dense (Output Layer)'''==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Dense(10)&lt;br /&gt;
&lt;br /&gt;
* Lapisan ini memiliki '''10 neuron''', sesuai dengan jumlah '''kelas yang ingin diprediksi''' (misalnya untuk klasifikasi digit 0-9 dalam dataset MNIST).&lt;br /&gt;
* '''Tidak ada fungsi aktivasi''' dalam lapisan ini karena biasanya '''fungsi aktivasi softmax''' akan diterapkan di luar model (misalnya dalam fungsi loss `SparseCategoricalCrossentropy` yang sudah mengandung softmax secara internal).&lt;br /&gt;
* Jika ingin eksplisit, kita bisa menambahkan `activation='softmax'` agar output berupa probabilitas untuk setiap kelas.&lt;br /&gt;
&lt;br /&gt;
=='''Kesimpulan'''==&lt;br /&gt;
Model ini digunakan untuk klasifikasi gambar digit 28x28 piksel, kemungkinan besar dataset MNIST. Alurnya adalah:&lt;br /&gt;
* '''Flatten''' → Meratakan gambar dari (28,28) menjadi vektor 784.&lt;br /&gt;
* '''Dense (128 ReLU)''' → Lapisan tersembunyi dengan 128 neuron dan aktivasi ReLU.&lt;br /&gt;
* '''Dropout (0.2)''' → Mengurangi overfitting dengan menonaktifkan 20% neuron secara acak saat training.&lt;br /&gt;
* '''Dense (10 output tanpa aktivasi)''' → Menghasilkan 10 nilai logit untuk klasifikasi ke 10 kelas.&lt;br /&gt;
&lt;br /&gt;
Jika model ini digunakan untuk klasifikasi, umumnya loss function yang digunakan adalah '''SparseCategoricalCrossentropy''' atau '''CategoricalCrossentropy''', tergantung pada format label.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[TensorFlow]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
</feed>