The platform will undergo maintenance on Sep 14 at about 7:45 AM EST and will be unavailable for approximately 2 hours.
2013
DOI: 10.1109/mci.2012.2228600
|View full text |Cite
|
Sign up to set email alerts
|

Ensemble Methods: Foundations and Algorithms [Book Review]

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
30
0
3

Year Published

2018
2018
2023
2023

Publication Types

Select...
6
2

Relationship

0
8

Authors

Journals

citations
Cited by 52 publications
(33 citation statements)
references
References 0 publications
0
30
0
3
Order By: Relevance
“…To evaluate the power of the candidate features, it is necessary to calculate the proportion of the revenue increase coalitions according to Eqs. (2) and (1). Theoretically, calculating the Shapley value requires summing over all possible feature subsets, which may lead to high computational complexity.…”
Section: Computational Complexitymentioning
confidence: 99%
See 1 more Smart Citation
“…To evaluate the power of the candidate features, it is necessary to calculate the proportion of the revenue increase coalitions according to Eqs. (2) and (1). Theoretically, calculating the Shapley value requires summing over all possible feature subsets, which may lead to high computational complexity.…”
Section: Computational Complexitymentioning
confidence: 99%
“…E NSEMBLE methods are learning algorithms that construct and combine a set of classifiers to classify new unseen data [1]. They tend to use multiple learning algorithms for better predictive performance compared with any other constituent learning algorithms alone [2][3][4][5].…”
Section: Introductionmentioning
confidence: 99%
“…Kelebihan dari penggunaan teknik bagging adalah dapat mengurangi varians dari algoritma dengan penyesuaian antara estimasi dan hasil yang diinginkan dari peningkatan akurasi suatu model [12]. Prediksi dari out-of-bag menunjukan H(X) pada vektor X. Learner yang tidak dilatih X yang akan terlibat pada prosesnya [13]. Adapun rumusnya adalah sebagai berikut: dimana X adalah vector, x adalah variabel, y adalah output spaces, N adalah data sample, T adalah jumlah learner (t=1,....,T), H adalah learner dan (.)…”
Section: Tinjauan Pustaka a Baggingunclassified
“…Secara umum algoritma AdaBoost melatih pengklasifikasian dasar secara sekuensial dalam setiap iterasi menggunakan data latih dengan koefisien bobot yang bergantung dari performa pengklasifikasian pada iterasi sebelumnya untuk memberikan bobot yang lebih besar pada data yang salah terklasifikasi (Schapire & Freund, 2013), (Schwenker, 2013).…”
Section: Adaptive Boosting (Adaboost)unclassified