Estudo comparativo entre algoritmos de árvores de classificação e máquinas de vetores suporte baseados em ensembles de classificadores
Resumo
Este artigo apresenta uma análise comparativa de desempenho de um algoritmo de árvores de classificação (J48) e um algoritmo de máquinas de vetores suporte (SMO) quando combinados na forma de ensembles bagging e boosting. As duas questões principais são: a) Para um certo algoritmo, que configuração entre Bagging e Boosting resulta em maior acurácia? b) Há evidência de que um algoritmo seja consistentemente superior ao outro sob as configurações ensemble? Os resultados sugerem que o J48 tende a obter maiores acurácias sob a configuração Boosting, enquanto o SMO parece menos sensível à configuração ensemble utilizada. Não obstante, ambos os algoritmos obtiveram números de vitórias similares entre os datasets
Referências
Bauer,E.; Kohavi R. (1998) An Empirical Comparison of Voting Classification Algorithms: Bagging, Boosting, and Variants. Kluwer Academic Publishers, Boston: Machine Learning, vv, 1-38Bouckaert, R.R., Frank, E., Hall, M., Kirkby, R., Reutemann, P., Seewald, A., Scuse, D. (2012) WEKA Manual for Version 3-7-7. Hamilton: The University of Waikato.
Breiman, L. (1996) Bagging predictors. Machine Learning, 24, 123–140.
Coelho, G.P. (2006). Geração, Seleção e Combinação de Componentes para Ensembles de Redes Neurais Aplicadas a Problemas de Classificação. Dissertação de Mestrado. Faculdade de Engenharia Elétrica e de Computação. Universidade Estadual de Campinas.
Frank, A. and Asuncion, A. (2010). UCI Machine Learning Repository [http://archive.ics.uci.edu/ml]. Irvine, CA: University of California, School of Information and Computer Science.
Freund, Y.; Schapire, E.R. (1996); Experiments with a new boosting algorithm. In Proceedings of the International Conference on Machine Learning, p.148–156. Morgan Kaufmann, San Francisco.
Hall, M.; Frank, E.; Holmes, G.; Pfahringer, B.; Reutemann, P.; Witten, I. H. (2009); The WEKA Data Mining Software: An Update; SIGKDD Explorations, Volume 11, Issue 1.
Hosmer, D.W., Lemeshow, S. (2000). Applied Logistic Regression. 2nd ed. New York: Wiley.
Lehmann,C.; Koenig, T.; Jelic,V.; Prichep,L.; John,R.E.; Wahlund,L.; Dodgee,Y.; Dierks,T. (2007) Application and comparison of classification algorithms for recognition of Alzheimer’s disease in electrical brain activity (EEG). Journal of Neuroscience Methods, 161, 342–350
Loh,W.; Shih,Y. (2000) A Comparison of Prediction Accuracy, Complexity, and Training Time of Thirty-three Old and New Classification Algorithms. Kluwer Academic Publishers, Boston: Machine Learning, 40, 203-229.
Maclin, R.; Opitz, D. (1999) Popular Ensemble Methods: An Empirical Study. Journal Of Artificial Intelligence Research, Vol. 11, pag. 169-198.Magalhaes, R. M. (2007); Uma investigação sobre a utilização de processamento paralelo no projeto de máquinas de comitê centro de tecnologia. Dissertação de Mestrado. Universidade Federal do Rio Grande do Norte, Natal, RN.
Mitchell, T.M. (1997). Machine Learning. McGraw-Hill.
Nascimento, D.S.C. (2009) Configuração Heterogênea de Ensembles de Classificadores: Investigação em Bagging, Boosting e MultiBoosting. Dissertação de Mestrado, Universidade de Fortaleza, Fortaleza, CE.
Noether, G.E. (1983). Introdução à Estatística: Uma Abordagem Não Paramétrica. 2ed. Rio de Janeiro: Guanabara Dois.
Platt, J. C. (1998) Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines. Microsoft Research, Technical Report MSR-TR-98-14, USA.
Quinlan, R. (1993) C4.5: Programs for Machine Learning Morgan Kaufmann Publishers Inc., San Francisco, CA, USA.
R Core Team (2011). R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria. http://www.R-project.org
Witten, I. H.; Frank, E. (2005) Data Mining: Practical Machine Learning Tools and Techniques. Segunda Edição. Ed. Elsevier.