Bootstrap aggregating: Perbedaan antara revisi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Konten dihapus Konten ditambahkan
k Mimihitam memindahkan halaman Bagging Ensemble Methods ke Bootstrap aggregating
Tidak ada ringkasan suntingan
Baris 1: Baris 1:
{{rapikan}}
'''BAGGING DALAM ENSEMBLE METHODS'''


'''''Bootstrap aggregating''''' atau yang sering disingkat '''''bagging''''' merupakan salah satu cara untuk mengurangi varians dari prediksi yang dimiliki,
Bagging dalam ''Ensemble Methods'' bisa juga di sebut ''Bootstrap aggregating''
lalu menghasilkan data tambahan untuk pelatihan dari dataset asli. ''Bagging'' menggunakan metode kombinasi dengan perulangan untuk menghasilkan multiset dari kardinalitas atau ukuran yang sama dengan data asli, dengan meningkatkan ukuran set pelatihan. Bagging hanya dapat mengurangi varians dan tidak dapat meningkatkan kekuatan prediksi model .
Bagging merupakan salah satu cara untuk mengurangi varians dari prediksi yang anda punya .
lalu menghasilkan data tambahan untuk pelatihan dari dataset asli anda.
menggunakan metode kombinasi dengan perulangan untuk menghasilkan multiset dari kardinalitas atau ukuran yang sama dengan data asli anda, dengan meningkatkan ukuran set pelatihan anda .
anda hanya dapat mengurangi varians dan tidak dapat meningkatkan kekuatan prediksi model .


== Perbedaan dengan boosting ==

Salah satu perbedaan utama adalah cara bagaimana menggunakan sampel setiap set pelatihan. Mengantongi memungkinkan penggantian dalam sampel bootstrapped tetapi Boosting tidak.

'''PERBEDAAN BAGGING (BOOTSTRAP AGGREGATING) DAN BOOSTING'''
Salah satu perbedaan utama adalah cara bagaimana menggunakan sampel setiap set pelatihan. Mengantongi memungkinkan penggantian dalam sampel bootstrapped tetapi Boosting tidak.


Dalam teori Bagging baik untuk mengurangi varians (Over-fitting) dimana Boosting membantu mengurangi Bias dan Variance sesuai dengan Boosting Vs Bagging ini, tetapi dalam prakteknya Boosting (Adaptive Boosting) tahu memiliki varian yang tinggi karena over-fitting
Dalam teori Bagging baik untuk mengurangi varians (Over-fitting) dimana Boosting membantu mengurangi Bias dan Variance sesuai dengan Boosting Vs Bagging ini, tetapi dalam prakteknya Boosting (Adaptive Boosting) tahu memiliki varian yang tinggi karena over-fitting


== Sejarah ==
Bagging atau ''Agregasi Bootstrap'' ditemukan oleh [[Leo Breim pada tahun 1994 dengan tujuan untuk meningkatkan klasifikasi dengan menggabungkan klasifikasi dari set pelatihan yang dihasilkan secara acak .


== Referensi ==
* {{Cite journal
| last = Breiman
| first = Leo
| authorlink = Leo Breiman
| title = Bagging predictors
| journal = [[Machine Learning (journal)|Machine Learning]]
| volume = 24
| issue = 2
| pages = 123–140
| year = 1996
| citeseerx = 10.1.1.32.9399
| doi = 10.1007/BF00058655
}}


* {{Cite journal
'''SEJARAH BAGGING'''
| last = Alfaro

| first = E., Gámez, M. and García, N.
Bagging atau ''Agregasi Bootstrap'' ditemukan oleh Leo Breiman pada tahun 1994
| title = adabag: An R package for classification with AdaBoost.M1, AdaBoost-SAMME and Bagging
dengan tujuan untuk meningkatkan klasifikasi dengan menggabungkan klasifikasi dari set paltihan yang dihasilkan secara acak .
| year = 2012

| url = https://cran.r-project.org/package=adabag

}}

'''REFERENSI'''


[[Kategori:Ensemble learning]]
https://en.wikipedia.org/wiki/Bootstrap_aggregating
https://id.wikipedia.org/wiki/Metode_Ensemble

Revisi per 11 Mei 2018 09.59


Bootstrap aggregating atau yang sering disingkat bagging merupakan salah satu cara untuk mengurangi varians dari prediksi yang dimiliki, lalu menghasilkan data tambahan untuk pelatihan dari dataset asli. Bagging menggunakan metode kombinasi dengan perulangan untuk menghasilkan multiset dari kardinalitas atau ukuran yang sama dengan data asli, dengan meningkatkan ukuran set pelatihan. Bagging hanya dapat mengurangi varians dan tidak dapat meningkatkan kekuatan prediksi model .

Perbedaan dengan boosting

Salah satu perbedaan utama adalah cara bagaimana menggunakan sampel setiap set pelatihan. Mengantongi memungkinkan penggantian dalam sampel bootstrapped tetapi Boosting tidak.

Dalam teori Bagging baik untuk mengurangi varians (Over-fitting) dimana Boosting membantu mengurangi Bias dan Variance sesuai dengan Boosting Vs Bagging ini, tetapi dalam prakteknya Boosting (Adaptive Boosting) tahu memiliki varian yang tinggi karena over-fitting

Sejarah

Bagging atau Agregasi Bootstrap ditemukan oleh [[Leo Breim pada tahun 1994 dengan tujuan untuk meningkatkan klasifikasi dengan menggabungkan klasifikasi dari set pelatihan yang dihasilkan secara acak .

Referensi