Daftar Isi
LancangKuning - Pengertian Backpropagation | Backpropagation ialah salah satu bagian dari Neural Network. Backpropagation ialah tata cara pelatihan terawasi (supervised learning), dalam artian memiliki sasaran yang hendak dicari. Karakteristik dari Backpropagation merupakan meminimalkan error pada output yang dihasilkan oleh jaringan. Dalam tata cara backpropagation, umumnya digunakan jaringan multilayer.
Jaringan multilayer yang diartikan merupakan layer yang terdiri dari input layer (layer masukan), hidden layer (layer tersembunyi), output layer( layer keluaran). Dalam pengembangannya, hidden layer bisa terdiri dari satu ataupun lebih unit hidden layer.
Arsitektur jaringan backpropagation merupakan selaku berikut:
Pada foto, diperlihatkan arsitektur jaringan backpropagation dengan satu unit hidden layer. Xi merupakan unit input layer, Zj merupakan unit hidden layer, serta Yk merupakan unit output layer. Tiap unit mempunyai bobotnya tiap- tiap. Vij merupakan bobot dari unit input layer ke unit hidden layer dan Wjk merupakan bobot dari unit hidden layer ke unit output layer.
Metode Backpropagation
Metode Backpropagation (perambatan balik) ialah salah satu tipe Jaringan Syaraf Tiruan yang kerap digunakan dalam menuntaskan permasalahan peramalan. Perihal ini dimungkinkan sebab tata cara Backpropagation ialah salah satu tipe tata cara pelatihan JST dengan supervisi. Pada jaringan diberikan sejoli pola yang terdiri atas pola masukan serta pola yang di idamkan. Kala sesuatu pola diberikan kepada jaringan, bobot- bobot diganti buat memperkecil perbandingan pola keluaran serta pola yang di idamkan. Latihan ini dilakukan berulang-ulang sehingga seluruh pola yang dikeluarkan jaringan bisa penuhi pola yang di idamkan. Arsitektur jaringan ini terdiri dari input layer, hidden layer, serta output layer.
Ketentuan pendidikan Backpropagation dibesarkan dari delta rule dengan meningkatkan hidden layer. Melatih jaringan dengan memakai tata cara Backpropagation mengaitkan 3 tahapan: feedforward pola pelatihan masukan, Backpropagation terhadap error, dan penyesuain bobot.
Algoritma pelatihan Backpropagation buat jaringan dengan satu layer tersembunyi memakai guna aktivasi sigmoid biner merupakan selaku berikut:
Langkah 0: Inisialisasi bobot( ambil bobot dini dengan nilai random yang lumayan kecil)
Langkah 1: kala keadaan menyudahi salah, jalani langkah 2- 9.
Langkah 2: buat tiap- tiap pendamping training, jalani langkah 3- 8.
Feedforward:
Langkah 3: Masing- masing unit input (Xi, i=1, 2, 3,…n) menerima sinyal xi serta meneruskan sinyal tersebut ke seluruh unit pada susunan yang terdapat diatasnya( susunan tersembunyi)
Langkah 4: Masing- masing unit tersembunyi (Zi, j=1, 2, 3,…p) menjumlahkan sinyal- sinyal input terbobot:
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya:
Zj = f(Z_inj)
Hitung fungsi aktivasi untuk menghitung sinyal keluaran, Zj=f(z_in), lalu mengirimkan sinyal ini kesemua unit pada layer diatasnya (unit keluaran).
Langkah 5 : Tiap-tiap unit output (Yk,, K=1,2,3,…m) menjumlahkan sinyal-sinyal input terbobot.
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya:
Yk = f(Y_ink)
Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output).
Langkah 6 : Tiap-tiap unit output (Yk, K=1, 2, 3, …m) menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi error-nya:
Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai Wjk):
Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai Wok):
Kirimkan ini ke unit-unit yang ada di lapisan bawahnya.
Langkah 7 : Tiap-tiap unit tersembunyi (Zj, j=1,2,3,…p) menjumlahkan delta inputnya (dari unit-unit yang berada pada lapisan diatasnya):
Kali kan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error:
Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai V1j):
Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai V0j):
Langkah 8: Masing- masing unit output( Yk=1, 2, 3,…m) membetulkan bias serta bobotnya( i=1, 2, 3,…p):
Wjk( baru)=wjk( lama)+wij
Masing- masing unit tersembunyi (Zj, j=1, 2, 3,…p) membetulkan bias serta bobotnya( i=0, 1, 2,…n):
vjk( baru)=vjk( lama)+vij
Langkah 9: Uji ketentuan berhenti
Sehabis pelatihan berakhir dicoba, jaringan bisa dipakai buat pengenalan pola dengan memakai fase propagasi maju saja( langkah 3 serta 4) buat memastikan keluaran jaringan.(Rahmad)
Komentar