dc.contributorHasperué, Waldo
dc.contributorChichizola, Franco
dc.creatorDe Luca, Julián
dc.date2016-03
dc.date2016
dc.date2017-04-06T13:31:07Z
dc.identifierhttp://sedici.unlp.edu.ar/handle/10915/59489
dc.descriptionLa presente tesina analiza, diseña e implementa una solución para el problema de la detección de neologismos y extranjerismos en la lengua Española. Para este fin, realizamos un análisis de investigaciones previas y problemáticas surgidas, y decidimos realizar un aporte mediante un sistema de cloud computing. Nuestra solución se centra en el uso de tecnologías de análisis masivo de datos para el tratamiento de corpus grandes de una manera eficiente. Realizamos un repaso general de las tecnologías existentes, sin especificar herramientas puntuales, para luego introducir herramientas concisas. Logramos alcanzar una solución sencilla pero eficaz y escalable mediante el uso de herramientas provistas por Amazon Web Services, utilizando el corpus público llamado Google Books Ngrams. Finalmente, abrimos la posibilidad de utilizar otras herramientas, y la misma metodología en otro tipo de estudios. Demostramos que logramos un aporte a la comunidad de lingüística computacional, y seguiremos trabajando en el tema en cuestión.
dc.descriptionFacultad de Informática
dc.formatapplication/pdf
dc.languagees
dc.rightshttp://creativecommons.org/licenses/by/4.0/
dc.rightsCreative Commons Attribution 4.0 International (CC BY 4.0)
dc.subjectCiencias Informáticas
dc.subjectbig data
dc.subjectcloud computing
dc.subjectneología
dc.subjectextranjerismos
dc.titleIncidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams
dc.typeTesis
dc.typeTesis de grado


Este ítem pertenece a la siguiente institución