Difference between revisions of "Keras: Gradient Descent For Machine Learning"

From OnnoWiki
Jump to navigation Jump to search
 
(8 intermediate revisions by the same user not shown)
Line 62: Line 62:
 
Beberapa algoritma machine learning memiliki koefisien yang mencirikan estimasi algoritma untuk fungsi target (f). Algoritma yang berbeda memiliki representasi yang berbeda dan koefisien yang berbeda, tetapi banyak dari mereka memerlukan proses optimasi untuk menemukan set koefisien yang menghasilkan estimasi terbaik dari fungsi target.
 
Beberapa algoritma machine learning memiliki koefisien yang mencirikan estimasi algoritma untuk fungsi target (f). Algoritma yang berbeda memiliki representasi yang berbeda dan koefisien yang berbeda, tetapi banyak dari mereka memerlukan proses optimasi untuk menemukan set koefisien yang menghasilkan estimasi terbaik dari fungsi target.
  
Common examples of algorithms with coefficients that can be optimized using gradient descent are Linear Regression and Logistic Regression.
+
Contoh umum dari algoritma dengan koefisien yang dapat dioptimalkan menggunakan gradient descent adalah Linear Regression dan Logistic Regression.
  
The evaluation of how close a fit a machine learning model estimates the target function can be calculated a number of different ways, often specific to the machine learning algorithm. The cost function involves evaluating the coefficients in the machine learning model by calculating a prediction for the model for each training instance in the dataset and comparing the predictions to the actual output values and calculating a sum or average error (such as the Sum of Squared Residuals or SSR in the case of linear regression).
+
Evaluasi seberapa dekat model machine learning memperkirakan fungsi target dapat dihitung dengan berbagai cara, seringkali khusus untuk algoritma machine learning. Fungsi cost melibatkan evaluasi koefisien dalam model machine learning dengan menghitung prediksi untuk model untuk setiap contoh training instance dalam dataset dan membandingkan prediksi dengan nilai output aktual dan menghitung jumlah atau kesalahan rata-rata (seperti Sum of Squared Residuals atau SSR dalam hal linear regression).
  
From the cost function a derivative can be calculated for each coefficient so that it can be updated using exactly the update equation described above.
+
Dari fungsi cost, turunan dapat dihitung untuk setiap koefisien sehingga dapat di update menggunakan persamaan update yang dijelaskan di atas.
  
The cost is calculated for a machine learning algorithm over the entire training dataset for each iteration of the gradient descent algorithm. One iteration of the algorithm is called one batch and this form of gradient descent is referred to as batch gradient descent.
+
Cost dihitung untuk algoritma machine learning atas seluruh dataset training untuk setiap iterasi dari algoritma gradient descent. Satu iterasi dari algoritma ini disebut satu batch dan bentuk gradient descent ini disebut sebagai batch gradient descent.
  
Batch gradient descent is the most common form of gradient descent described in machine learning.
+
Batch gradient descent adalah bentuk paling umum dari gradient descent yang dijelaskan dalam machine learning.
  
==Stochastic Gradient Descent for Machine Learning==
+
==Stochastic Gradient Descent untuk Machine Learning==
  
Gradient descent can be slow to run on very large datasets.
+
Gradient descent bisa berjalan lambat pada dataset yang sangat besar.
  
Because one iteration of the gradient descent algorithm requires a prediction for each instance in the training dataset, it can take a long time when you have many millions of instances.
+
Karena satu iterasi dari algoritma gradient descent memerlukan prediksi untuk setiap instance dalam dataset training, ini bisa memakan waktu lama ketika kita memiliki jutaan instance.
  
In situations when you have large amounts of data, you can use a variation of gradient descent called stochastic gradient descent.
+
Pada saat kita memiliki data yang besar, kita dapat menggunakan variasi gradient descent yang disebut stochastic gradient descent.
  
In this variation, the gradient descent procedure described above is run but the update to the coefficients is performed for each training instance, rather than at the end of the batch of instances.
+
Dalam variasi ini, prosedur gradient descent yang dijelaskan di atas dijalankan tetapi update koefisien dilakukan untuk setiap instance training, bukan pada akhir batch instance.
  
The first step of the procedure requires that the order of the training dataset is randomized. This is to mix up the order that updates are made to the coefficients. Because the coefficients are updated after every training instance, the updates will be noisy jumping all over the place, and so will the corresponding cost function. By mixing up the order for the updates to the coefficients, it harnesses this random walk and avoids it getting distracted or stuck.
+
Langkah pertama dari prosedur ini mensyaratkan bahwa urutan dataset training di acak. Ini untuk mengacak urutan update untuk koefisien. Karena koefisien di update setelah setiap training instance, update merupakan melompat acak di semua tempat, dan demikian pula fungsi cost yang sesuai. Dengan mengacak urutan update untuk koefisien, ini akan mengacak jalan dan menghindari  akan gangguan atau macet.
  
The update procedure for the coefficients is the same as that above, except the cost is not summed over all training patterns, but instead calculated for one training pattern.
+
Prosedur update untuk koefisien sama dengan yang di atas, kecuali cost tidak dijumlahkan pada semua pola training, tetapi dihitung untuk satu pola training.
  
The learning can be much faster with stochastic gradient descent for very large training datasets and often you only need a small number of passes through the dataset to reach a good or good enough set of coefficients, e.g. 1-to-10 passes through the dataset.
+
Proses learning bisa jauh lebih cepat dengan stochastic gradient descent untuk dataset training yang sangat besar dan seringkali kita hanya perlu sejumlah kecil lintasan melalui dataset untuk mencapai set koefisien yang baik atau cukup baik, mis. 1-sampai-10 pass melewati dataset.
  
 +
==Tips untuk Gradient Descent==
  
==Tips for Gradient Descent==
+
Bagian ini mencantumkan beberapa tip dan trik untuk mendapatkan hasil maksimal dari algoritma gradient descent untuk machine learning.
  
This section lists some tips and tricks for getting the most out of the gradient descent algorithm for machine learning.
+
* Plot Cost vs Time: Kumpulkan dan plot nilai cost yang dihitung oleh algoritma setiap iterasi. Berharap untuk menjalankan gradient descent yang berkinerja baik adalah penurunan cost setiap iterasi. Jika tidak berkurang, coba kurangi learning rate.
 
+
* Learning Rate: Nilai learning rate adalah nilai real kecil seperti 0,1, 0,001 atau 0,0001. Coba nilai yang berbeda untuk masalah anda dan lihat mana yang paling berhasil.
* Plot Cost versus Time: Collect and plot the cost values calculated by the algorithm each iteration. The expectation for a well performing gradient descent run is a decrease in cost each iteration. If it does not decrease, try reducing your learning rate.
+
* Rescale Input: Algoritma akan mencapai cost minimum lebih cepat jika bentuk fungsi cost tidak skewed dan terdistorsi. Kita dapat mencapai ini dengan mengubah skala semua variabel input (X) ke rentang yang sama, seperti [0, 1] atau [-1, 1].
* Learning Rate: The learning rate value is a small real value such as 0.1, 0.001 or 0.0001. Try different values for your problem and see which works best.
+
* Sedikit saja Pass: Stochastic gradient descent sering tidak membutuhkan lebih dari 1 hingga 10 pass pada dataset training untuk bertemu pada koefisien yang baik atau cukup baik.
* Rescale Inputs: The algorithm will reach the minimum cost faster if the shape of the cost function is not skewed and distorted. You can achieved this by rescaling all of the input variables (X) to the same range, such as [0, 1] or [-1, 1].
+
* Plot Mean Cost: Pembaruan untuk setiap instance dataset pelatihan dapat menghasilkan plot cost yang noisy dari waktu ke waktu saat menggunakan  stochastic gradient descent. Mengambil rata-rata lebih dari 10, 100, atau 1000 update dapat memberi anda ide yang lebih baik dari learning trend untuk algoritma tersebut.
* Few Passes: Stochastic gradient descent often does not need more than 1-to-10 passes through the training dataset to converge on good or good enough coefficients.
 
* Plot Mean Cost: The updates for each training dataset instance can result in a noisy plot of cost over time when using stochastic gradient descent. Taking the average over 10, 100, or 1000 updates can give you a better idea of the learning trend for the algorithm.
 
  
 
==Summary==
 
==Summary==
  
In this post you discovered gradient descent for machine learning. You learned that:
+
Dalam tulisan ini anda mempelajari tentang gradient descent untuk machine learning. Anda belajar bahwa:
 
 
* Optimization is a big part of machine learning.
 
* Gradient descent is a simple optimization procedure that you can use with many machine learning algorithms.
 
* Batch gradient descent refers to calculating the derivative from all training data before calculating an update.
 
* Stochastic gradient descent refers to calculating the derivative from each training data instance and calculating the update immediately.
 
  
 +
* Optimisasi adalah bagian terbesar dari machine learning.
 +
* Gradient descent adalah prosedur sederhana dari optimisasi that you can use with many machine learning algorithms.
 +
* Batch gradient descent mengacu pada menghitung turunan dari semua data training sebelum menghitung update.
 +
* Stochastic gradient descent mengacu pada menghitung turunan dari setiap instance data training dan menghitung update segera.
  
 
==Referensi==
 
==Referensi==

Latest revision as of 10:44, 8 September 2019

Sumber: https://machinelearningmastery.com/gradient-descent-for-machine-learning/


Optimalisasi adalah bagian utama dari machine learning. Hampir setiap algoritma pembelajaran mesin memiliki algoritma pengoptimalan pada intinya.

Dalam posting ini anda akan menemukan algoritma optimasi sederhana yang dapat anda gunakan dengan algoritma machine learning apa pun. Mudah dimengerti dan mudah diterapkan. Setelah membaca posting ini anda akan tahu:

  • Apakah gradient descent?
  • Bagaimana gradient descent digunakan sebagai algoritma seperti linear regression?
  • Bagaimana gradient descent digunakan untuk dataset yang sangat besar?
  • Apa tip untuk memaksimalkan gradient descent?

Gradient Descent

Gradient descent adalah algoritma optimasi yang digunakan untuk menemukan nilai-nilai parameter (koefisien) dari suatu fungsi (f) yang meminimalkan fungsi cost.

Gradient descent paling baik digunakan ketika parameter tidak dapat dihitung secara analitik (mis. Menggunakan aljabar linier) dan harus dicari dengan algoritma optimalisasi.

Intuisi untuk Gradient Descent

Bayangkan sebuah mangkuk besar seperti saat anda makan mie. Mangkuk ini adalah sebidang fungsi cost (f).

Posisi acak pada permukaan mangkuk adalah cost dari nilai saat ini dari koefisien (cost).

Bagian bawah mangkuk adalah cost untuk set koefisien terbaik, merupakan titik minimum dari fungsi.

Tujuannya adalah untuk terus mencoba nilai koefisien yang berbeda, mengevaluasi cost dan memilih koefisien baru yang memiliki cost yang sedikit lebih baik (lebih rendah).

Mengulangi proses ini cukup waktu akan mengarah ke dasar mangkuk dan anda akan tahu nilai-nilai koefisien yang menghasilkan cost minimum.

Prosedur Gradient Descent

Prosedur dimulai dengan nilai awal untuk koefisien atau koefisien untuk fungsi. Ini bisa 0,0 atau nilai acak yang kecil.

coefficient = 0.0

Cost dari koefisien dievaluasi dengan memasukkannya ke dalam fungsi dan menghitung cost.

cost = f(coefficient)

atau

cost = evaluate(f(coefficient))

Turunan dari cost dihitung. Turunan adalah konsep dari kalkulus dan mengacu pada kemiringan fungsi pada titik tertentu. Kita perlu mengetahui kemiringan sehingga kita tahu arah (tanda) untuk memindahkan nilai-nilai koefisien untuk mendapatkan cost yang lebih rendah pada iterasi berikutnya.

delta = derivative(cost)

Sekarang kita tahu dari turunan akan arah mana yang menurun, kita sekarang dapat memperbarui nilai koefisien. Parameter laju pembelajaran (alfa) harus ditentukan yang mengontrol seberapa banyak koefisien dapat berubah pada setiap update.

coefficient = coefficient – (alpha * delta)

Proses ini diulangi sampai cost dari koefisien (cost) adalah 0,0 atau cukup dekat dengan nol agar cukup baik.

Kita dapat melihat bagaimana sederhananya gradient descent. Itu memang mengharuskan kita untuk mengetahui gradien dari fungsi cost kita atau fungsi yang kita optimalkan, tetapi selain itu, itu sangat mudah. Selanjutnya kita akan melihat bagaimana kita dapat menggunakan ini dalam algoritma machine learning.

Batch Gradient Descent untuk Machine Learning

Tujuan dari semua algoritma supervised machine learning adalah untuk memperkirakan fungsi target (f) terbaik yang memetakan data input (X) ke variabel output (Y). Ini menjelaskan semua masalah klasifikasi dan regresi.

Beberapa algoritma machine learning memiliki koefisien yang mencirikan estimasi algoritma untuk fungsi target (f). Algoritma yang berbeda memiliki representasi yang berbeda dan koefisien yang berbeda, tetapi banyak dari mereka memerlukan proses optimasi untuk menemukan set koefisien yang menghasilkan estimasi terbaik dari fungsi target.

Contoh umum dari algoritma dengan koefisien yang dapat dioptimalkan menggunakan gradient descent adalah Linear Regression dan Logistic Regression.

Evaluasi seberapa dekat model machine learning memperkirakan fungsi target dapat dihitung dengan berbagai cara, seringkali khusus untuk algoritma machine learning. Fungsi cost melibatkan evaluasi koefisien dalam model machine learning dengan menghitung prediksi untuk model untuk setiap contoh training instance dalam dataset dan membandingkan prediksi dengan nilai output aktual dan menghitung jumlah atau kesalahan rata-rata (seperti Sum of Squared Residuals atau SSR dalam hal linear regression).

Dari fungsi cost, turunan dapat dihitung untuk setiap koefisien sehingga dapat di update menggunakan persamaan update yang dijelaskan di atas.

Cost dihitung untuk algoritma machine learning atas seluruh dataset training untuk setiap iterasi dari algoritma gradient descent. Satu iterasi dari algoritma ini disebut satu batch dan bentuk gradient descent ini disebut sebagai batch gradient descent.

Batch gradient descent adalah bentuk paling umum dari gradient descent yang dijelaskan dalam machine learning.

Stochastic Gradient Descent untuk Machine Learning

Gradient descent bisa berjalan lambat pada dataset yang sangat besar.

Karena satu iterasi dari algoritma gradient descent memerlukan prediksi untuk setiap instance dalam dataset training, ini bisa memakan waktu lama ketika kita memiliki jutaan instance.

Pada saat kita memiliki data yang besar, kita dapat menggunakan variasi gradient descent yang disebut stochastic gradient descent.

Dalam variasi ini, prosedur gradient descent yang dijelaskan di atas dijalankan tetapi update koefisien dilakukan untuk setiap instance training, bukan pada akhir batch instance.

Langkah pertama dari prosedur ini mensyaratkan bahwa urutan dataset training di acak. Ini untuk mengacak urutan update untuk koefisien. Karena koefisien di update setelah setiap training instance, update merupakan melompat acak di semua tempat, dan demikian pula fungsi cost yang sesuai. Dengan mengacak urutan update untuk koefisien, ini akan mengacak jalan dan menghindari akan gangguan atau macet.

Prosedur update untuk koefisien sama dengan yang di atas, kecuali cost tidak dijumlahkan pada semua pola training, tetapi dihitung untuk satu pola training.

Proses learning bisa jauh lebih cepat dengan stochastic gradient descent untuk dataset training yang sangat besar dan seringkali kita hanya perlu sejumlah kecil lintasan melalui dataset untuk mencapai set koefisien yang baik atau cukup baik, mis. 1-sampai-10 pass melewati dataset.

Tips untuk Gradient Descent

Bagian ini mencantumkan beberapa tip dan trik untuk mendapatkan hasil maksimal dari algoritma gradient descent untuk machine learning.

  • Plot Cost vs Time: Kumpulkan dan plot nilai cost yang dihitung oleh algoritma setiap iterasi. Berharap untuk menjalankan gradient descent yang berkinerja baik adalah penurunan cost setiap iterasi. Jika tidak berkurang, coba kurangi learning rate.
  • Learning Rate: Nilai learning rate adalah nilai real kecil seperti 0,1, 0,001 atau 0,0001. Coba nilai yang berbeda untuk masalah anda dan lihat mana yang paling berhasil.
  • Rescale Input: Algoritma akan mencapai cost minimum lebih cepat jika bentuk fungsi cost tidak skewed dan terdistorsi. Kita dapat mencapai ini dengan mengubah skala semua variabel input (X) ke rentang yang sama, seperti [0, 1] atau [-1, 1].
  • Sedikit saja Pass: Stochastic gradient descent sering tidak membutuhkan lebih dari 1 hingga 10 pass pada dataset training untuk bertemu pada koefisien yang baik atau cukup baik.
  • Plot Mean Cost: Pembaruan untuk setiap instance dataset pelatihan dapat menghasilkan plot cost yang noisy dari waktu ke waktu saat menggunakan stochastic gradient descent. Mengambil rata-rata lebih dari 10, 100, atau 1000 update dapat memberi anda ide yang lebih baik dari learning trend untuk algoritma tersebut.

Summary

Dalam tulisan ini anda mempelajari tentang gradient descent untuk machine learning. Anda belajar bahwa:

  • Optimisasi adalah bagian terbesar dari machine learning.
  • Gradient descent adalah prosedur sederhana dari optimisasi that you can use with many machine learning algorithms.
  • Batch gradient descent mengacu pada menghitung turunan dari semua data training sebelum menghitung update.
  • Stochastic gradient descent mengacu pada menghitung turunan dari setiap instance data training dan menghitung update segera.

Referensi

Pranala Menarik