PERBANDINGAN PERFORMA BAGGING DAN ADABOOST UNTUK KLASIFIKASI DATA MULTI-CLASS

Penulis

  • Samuel Lukas Universitas Pelita Harapan
  • Osvaldo Vigo Universitas Pelita Harapan
  • Dion Krisnadi
  • Petrus Widjaja Universitas Pelita Harapan

DOI:

https://doi.org/10.19166/isd.v7i2.547

Kata Kunci:

Ensemble Learning, Bagging, Boosting, AdaBoost, multi-class classification

Abstrak

Salah satu teknik untuk meningkatkan performa algoritma Machine Learning adalah menggunakan Ensemble Learning. Ide teknik ini menggabungkan beberapa algoritma Machine Learning atau yang biasa disebut sebagai base learners. Tujuan penlitian ini adalah membandingkan dua performa algoritma Ensemble Learning yaitu metode Bootstrap Aggregating (Bagging) dan metode Adaptive Boosting (AdaBoost). Penelitian menggunakan sebelas dataset dengan klasifikasi multi-class yang independen terhadap karakteristik (proporsi data, jumlah data, dan masalah) serta jumlah kelas variabel target berbeda. Hasil penelitian menunjukkan bahwa akurasi dan F1 model yang dibentuk oleh metode Bagging cenderung menunjukkan performa nilai yang lebih baik dari metode AdaBoost pada metrik evaluasi dengan rata-rata nilai evaluasi sebesar 72,21% dan 61% untuk Bagging serta 66,25% dan 53,7% untuk AdaBoost. Namun hasil pengujian hipotesis memperlihatkan tidak cukup signifikan. Selain itu lama lama waktu komputasi untuk membentuk model Bagging dan model AdaBoost tidaklah berbeda.

Biografi Penulis

Samuel Lukas, Universitas Pelita Harapan

Informatics Department

Dion Krisnadi

Universitas Pelita Harapan

Referensi

[1] R. Bell and Y. Koren, "Lessons from the Netflix prize challenge", ACM SIGKDD Explorations Newsletter, vol. 9, no. 2, pp. 75–79, 2007. Available: https://doi.org/10.1145/1345448.1345465.
[2] H. Jiang, H. Bin, Z. Liu, G. Wang, L. Zhang, X. Li, and H. Kang, "Detecting depression using an ensemble logistic regression model based on multiple speech features", Computational and Mathematical Methods in Medicine, vol. 2018, pp. 1–9, 2018. Available: https://doi.org/10.1155/2018/6508319.
[3] Z. Zhou, Ensemble Methods: Foundations and Algorithms, Chapman and Hall/CRC, 2019.
[4] J. Han, J. Pei, and M. Kamber, Data Mining: Concepts and Techniques, Elsevier, 2011.
[5] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, et al., "Scikit-learn: Machine learning in python", Journal of Machine Learning Research, vol. 12, pp. 2825–2830, Oct. 2011.
[6] J. Mohajon, "Confusion matrix for your multi-class machine learning model", Towards Data Science, 2020.
[7] Y. Wu, Y. Ke, Z. Chen, S. Liang, H. Zhao, and H. Hong, "Application of alternating decision tree with adaboost and bagging ensembles for landslide susceptibility mapping", Catena, vol. 187, pp. 104396, 2020. Available: https://doi.org/10.1016/j.catena.2019.104396.

Unduhan

Diterbitkan

2022-07-28