Jaringan saraf tiruan: Perbedaan antara revisi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Konten dihapus Konten ditambahkan
S Rifqi (bicara | kontrib)
k Menyunting ejaan, istilah, dan markah wiki.
HsfBot (bicara | kontrib)
k Bot: Perubahan kosmetika
Baris 2: Baris 2:
'''Jaringan saraf tiruan (JST)''' ([[Bahasa Inggris]]: ''artificial neural network (ANN)'', atau juga disebut ''simulated neural network (SNN)'', atau umumnya hanya disebut ''neural network (NN)''), adalah [[jaringan]] dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan [[Sistem saraf|sistem saraf manusia]]. JST merupakan sistem adaptif yang dapat mengubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Oleh karena sifatnya yang adaptif, JST juga sering disebut dengan jaringan adaptif.
'''Jaringan saraf tiruan (JST)''' ([[Bahasa Inggris]]: ''artificial neural network (ANN)'', atau juga disebut ''simulated neural network (SNN)'', atau umumnya hanya disebut ''neural network (NN)''), adalah [[jaringan]] dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan [[Sistem saraf|sistem saraf manusia]]. JST merupakan sistem adaptif yang dapat mengubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Oleh karena sifatnya yang adaptif, JST juga sering disebut dengan jaringan adaptif.


Secara sederhana, JST adalah sebuah alat pemodelan [[data]] [[statistik]] non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input dan output untuk menemukan pola-pola pada data. Menurut suatu teorema yang disebut "teorema penaksiran universal", JST dengan minimal sebuah lapis tersembunyi dengan fungsi aktivasi non-linear dapat memodelkan seluruh fungsi terukur Boreal apapun dari suatu dimensi ke dimensi lainnya.<ref> Kurt Hornik, Maxwell Stinchcombe, Halbert White, Multilayer feedforward networks are universal approximators, Neural Networks, Volume 2, Issue 5, 1989, Pages 359-366, ISSN 0893-6080, <nowiki>http://dx.doi.org/10.1016/0893-6080(89)90020-8</nowiki>. (<nowiki>http://www.sciencedirect.com/science/article/pii/0893608089900208</nowiki>) Keywords: Feedforward networks; Universal approximation; Mapping networks; Network representation capability; Stone-Weierstrass Theorem; Squashing functions; Sigma-Pi networks; Back-propagation networks
Secara sederhana, JST adalah sebuah alat pemodelan [[data]] [[statistik]] non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input dan output untuk menemukan pola-pola pada data. Menurut suatu teorema yang disebut "teorema penaksiran universal", JST dengan minimal sebuah lapis tersembunyi dengan fungsi aktivasi non-linear dapat memodelkan seluruh fungsi terukur Boreal apapun dari suatu dimensi ke dimensi lainnya.<ref> Kurt Hornik, Maxwell Stinchcombe, Halbert White, Multilayer feedforward networks are universal approximators, Neural Networks, Volume 2, Issue 5, 1989, Pages 359-366, ISSN 0893-6080, <nowiki>http://dx.doi.org/10.1016/0893-6080(89)90020-8</nowiki>. (<nowiki>http://www.sciencedirect.com/science/article/pii/0893608089900208</nowiki>) Keywords: Feedforward networks; Universal approximation; Mapping networks; Network representation capability; Stone-Weierstrass Theorem; Squashing functions; Sigma-Pi networks; Back-propagation networks
</ref>
</ref>


Baris 9: Baris 9:


== Model ==
== Model ==
Model pada JST pada dasarnya merupakan fungsi model matematika yang mendefinisikan fungsi <math>f : X \rightarrow Y</math>. Istilah "jaringan" pada JST merujuk pada interkoneksi dari beberapa ''neuron'' yang diletakkan pada lapisan yang berbeda. Secara umum, lapisan pada JST dibagi menjadi tiga bagian:
Model pada JST pada dasarnya merupakan fungsi model matematika yang mendefinisikan fungsi <math>f : X \rightarrow Y</math>. Istilah "jaringan" pada JST merujuk pada interkoneksi dari beberapa ''neuron'' yang diletakkan pada lapisan yang berbeda. Secara umum, lapisan pada JST dibagi menjadi tiga bagian:
* Lapis masukan (''input layer'') terdiri dari ''neuron'' yang menerima data masukan dari variabel X. Semua ''neuron'' pada lapis ini dapat terhubung ke ''neuron'' pada lapisan tersembunyi atau langsung ke lapisan luaran jika jaringan tidak menggunakan lapisan tersembunyi.
* Lapis masukan (''input layer'') terdiri dari ''neuron'' yang menerima data masukan dari variabel X. Semua ''neuron'' pada lapis ini dapat terhubung ke ''neuron'' pada lapisan tersembunyi atau langsung ke lapisan luaran jika jaringan tidak menggunakan lapisan tersembunyi.
* Lapisan tersembunyi (''hidden layer'') terdiri dari ''neuron'' yang menerima data dari lapisan masukan.
* Lapisan tersembunyi (''hidden layer'') terdiri dari ''neuron'' yang menerima data dari lapisan masukan.
* Lapisan luaran (''output layer'') terdiri dari ''neuron'' yang menerima data dari lapisan tersembunyi atau langsung dari lapisan masukan yang nilai luarannya melambangkan hasil kalkulasi dari X menjadi nilai Y.
* Lapisan luaran (''output layer'') terdiri dari ''neuron'' yang menerima data dari lapisan tersembunyi atau langsung dari lapisan masukan yang nilai luarannya melambangkan hasil kalkulasi dari X menjadi nilai Y.


Baris 70: Baris 70:
* Haykin, S. (1999) '' Neural Networks: A Comprehensive Foundation'', Prentice Hall, ISBN 0-13-273350-1
* Haykin, S. (1999) '' Neural Networks: A Comprehensive Foundation'', Prentice Hall, ISBN 0-13-273350-1


* Fahlman, S, Lebiere, C (1991). ''The Cascade-Correlation Learning Architecture'', created for [[National Science Foundation]], Contract Number EET-8716324, and [[Defense Advanced Research Projects Agency]] (DOD), ARPA Order No. 4976 under Contract F33615-87-C-1499. [http://www.cs.iastate.edu/~honavar/fahlman.pdf electronic version]
* Fahlman, S, Lebiere, C (1991). ''The Cascade-Correlation Learning Architecture'', created for [[National Science Foundation]], Contract Number EET-8716324, and [[Defense Advanced Research Projects Agency]] (DOD), ARPA Order No. 4976 under Contract F33615-87-C-1499. [http://www.cs.iastate.edu/~honavar/fahlman.pdf electronic version]


* Hertz, J., Palmer, R.G., Krogh. A.S. (1990) ''Introduction to the theory of neural computation'', Perseus Books. ISBN 0-201-51560-1
* Hertz, J., Palmer, R.G., Krogh. A.S. (1990) ''Introduction to the theory of neural computation'', Perseus Books. ISBN 0-201-51560-1

Revisi per 24 Januari 2017 13.40

Jaringan saraf tiruan merupakan jaringan dari unit pemroses kecil yang saling terhubung, yang dimodelkan berdasar jaringan saraf (neuron) jaringan saraf.

Jaringan saraf tiruan (JST) (Bahasa Inggris: artificial neural network (ANN), atau juga disebut simulated neural network (SNN), atau umumnya hanya disebut neural network (NN)), adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan sistem saraf manusia. JST merupakan sistem adaptif yang dapat mengubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Oleh karena sifatnya yang adaptif, JST juga sering disebut dengan jaringan adaptif.

Secara sederhana, JST adalah sebuah alat pemodelan data statistik non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input dan output untuk menemukan pola-pola pada data. Menurut suatu teorema yang disebut "teorema penaksiran universal", JST dengan minimal sebuah lapis tersembunyi dengan fungsi aktivasi non-linear dapat memodelkan seluruh fungsi terukur Boreal apapun dari suatu dimensi ke dimensi lainnya.[1]

Sejarah

Saat ini bidang kecerdasan buatan dalam usahanya menirukan intelegensi manusia, belum mengadakan pendekatan dalam bentuk fisiknya melainkan dari sisi yang lain. Pertama-tama diadakan studi mengenai teori dasar mekanisme proses terjadinya intelegensi. Bidang ini disebut Cognitive Science. Dari teori dasar ini dibuatlah suatu model untuk disimulasikan pada komputer, dan dalam perkembangannya yang lebih lanjut dikenal berbagai sistem kecerdasan buatan yang salah satunya adalah jaringan saraf tiruan. Dibandingkan dengan bidang ilmu yang lain, jaringan saraf tiruan relatif masih baru. Sejumlah literatur menganggap bahwa konsep jaringan saraf tiruan bermula pada makalah Waffen McCulloch dan Walter Pitts pada tahun 1943. Dalam makalah tersebut mereka mencoba untuk memformulasikan model matematis sel-sel otak. Metode yang dikembangkan berdasarkan sistem saraf biologi ini, merupakan suatu langkah maju dalam industri komputer.

Model

Model pada JST pada dasarnya merupakan fungsi model matematika yang mendefinisikan fungsi . Istilah "jaringan" pada JST merujuk pada interkoneksi dari beberapa neuron yang diletakkan pada lapisan yang berbeda. Secara umum, lapisan pada JST dibagi menjadi tiga bagian:

  • Lapis masukan (input layer) terdiri dari neuron yang menerima data masukan dari variabel X. Semua neuron pada lapis ini dapat terhubung ke neuron pada lapisan tersembunyi atau langsung ke lapisan luaran jika jaringan tidak menggunakan lapisan tersembunyi.
  • Lapisan tersembunyi (hidden layer) terdiri dari neuron yang menerima data dari lapisan masukan.
  • Lapisan luaran (output layer) terdiri dari neuron yang menerima data dari lapisan tersembunyi atau langsung dari lapisan masukan yang nilai luarannya melambangkan hasil kalkulasi dari X menjadi nilai Y.

Secara matematis, neuron merupakan sebuah fungsi yang menerima masukan dari lapisan sebelumnya (lapisan ke-). Fungsi ini pada umumnya mengolah sebuah vektor untuk kemudian diubah ke nilai skalar melalui komposisi nonlinear weighted sum, dimana , merupakan fungsi khusus yang sering disebut dengan fungsi aktivasi dan merupakan beban atau weight.

Lihat pula

Daftar pustaka

  • Duda, R.O., Hart, P.E., Stork, D.G. (2001) Pattern classification (2nd edition), Wiley, ISBN 0-471-05669-3
  • Haykin, S. (1999) Neural Networks: A Comprehensive Foundation, Prentice Hall, ISBN 0-13-273350-1
  • Hertz, J., Palmer, R.G., Krogh. A.S. (1990) Introduction to the theory of neural computation, Perseus Books. ISBN 0-201-51560-1
  • Lawrence, Jeanette (1994) Introduction to Neural Networks, California Scientific Software Press. ISBN 1-883157-00-5
  • Masters, Timothy (1994) Signal and Image Processing with Neural Networks, John Wiley & Sons, Inc. ISBN 0-471-04963-8
  • Ness, Erik. 2005. SPIDA-Web. Conservation in Practice 6(1):35-36. On the use of artificial neural networks in species taxonomy.
  • Smith, Murray (1993) Neural Networks for Statistical Modeling, Van Nostrand Reinhold, ISBN 0-442-01310-8
  • Wasserman, Philip (1993) Advanced Methods in Neural Computing, Van Nostrand Reinhold, ISBN 0-442-00461-3

Referensi

  1. ^ Kurt Hornik, Maxwell Stinchcombe, Halbert White, Multilayer feedforward networks are universal approximators, Neural Networks, Volume 2, Issue 5, 1989, Pages 359-366, ISSN 0893-6080, http://dx.doi.org/10.1016/0893-6080(89)90020-8. (http://www.sciencedirect.com/science/article/pii/0893608089900208) Keywords: Feedforward networks; Universal approximation; Mapping networks; Network representation capability; Stone-Weierstrass Theorem; Squashing functions; Sigma-Pi networks; Back-propagation networks

Pranala luar