Empirical comparison of 16 regression algorithms on 59 datasets

dc.creatorFrondana, Giovani, 1981-
dc.date2017
dc.date2017-03-16T00:00:00Z
dc.date2017-08-24T18:35:10Z
dc.date2017-08-24T18:35:10Z
dc.date.accessioned2018-03-29T05:28:19Z
dc.date.available2018-03-29T05:28:19Z
dc.identifierFRONDANA, Giovani. Comparação empírica de 16 algoritmos de regressão em 59 datasets. 2017. 1 recurso online (63 p.). Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação, Campinas, SP.
dc.identifierhttp://repositorio.unicamp.br/jspui/handle/REPOSIP/324331
dc.identifier.urihttp://repositorioslatinoamericanos.uchile.cl/handle/2250/1358538
dc.descriptionOrientador: Jacques Wainer
dc.descriptionDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
dc.descriptionResumo: Foram testados 16 algoritmos de regressão (random forest, support vector machine ¿ linear, polinomial e radial ¿, 1-hidden-layer neural network, gradient boosting machine, k-nearest neighbor, generalized linear model com regularização lasso ou elasticnet, multivariate adaptive regression splines, cubist, relevance vector machine, partial least squares, principal component regression, extreme learning machine, RBF network e gaussian process) em 59 datasets reais, com as métricas MAE e MSE. Os algoritmos foram comparados segundo os testes de Friedman com post-hoc Nemenyi e Wilcoxon corrigido por Hommel e por meio de análise bayesiana. Os resultados sugerem que o melhor algoritmo de regressão é o cubist, ainda que para fins práticos, em datasets muito grandes, a melhor opção seja o gradient boosting machine
dc.descriptionAbstract: We evaluated 16 regression algorithms (random forest, support vector machine ¿ linear, polynomial e radial ¿, 1-hidden-layer neural network, gradient boosting machine, k-nearest neighbor, generalized linear model with regularization lasso or elasticnet, multivariate adaptive regression splines, cubist, relevance vector machine, partial least squares, principal component regression, extreme learning machine, RBF network e gaussian process) on 59 real datasets with MAE and MSE metrics. For comparisons, we followed Friedman test with Nemenyi post-hoc, Wilcoxon corrected by Hommel procedure and Bayesian analysis. The results suggest that the best regression algorithm is cubist, although for practical purposes, in very large datasets, the best option is gradient boosting machine
dc.descriptionMestrado
dc.descriptionCiência da Computação
dc.descriptionMestre em Ciência da Computação
dc.format1 recurso online (63 p.) : il., digital, arquivo PDF.
dc.formatapplication/pdf
dc.publisher[s.n.]
dc.relationRequisitos do sistema: Software para leitura de arquivo em PDF
dc.subjectComparações múltiplas (Estatística)
dc.subjectAnálise de regressão
dc.subjectAnálise de algoritmos
dc.subjectAprendizado de máquina
dc.subjectMultiple comparisons (Statistics)
dc.subjectRegression analysis
dc.subjectAlgorithm analysis
dc.subjectMachine learning
dc.titleComparação empírica de 16 algoritmos de regressão em 59 datasets
dc.titleEmpirical comparison of 16 regression algorithms on 59 datasets
dc.typeTesis


Este ítem pertenece a la siguiente institución