dc.creatorFLOR DE MARIA MARTINEZ SERMEÑO
dc.date2015-01-29
dc.date.accessioned2023-07-21T15:46:55Z
dc.date.available2023-07-21T15:46:55Z
dc.identifierhttp://cimat.repositorioinstitucional.mx/jspui/handle/1008/1116
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/7729652
dc.descriptionLos métodos kernel o métodos de transformaciones implícitas han sido de gran utilidad para el reconocimiento de patrones en diversos tipos de datos. Dichos métodos son convenientes en dos situaciones. La primera es cuando se tienen datos sin una representación vectorial natural. Por ejemplo, cuando las observaciones son cadenas de carácteres. La segunda, la cual es de particular interés en esta tesis, es cuando se requiere mapear los datos a un (otro) espacio de Hilbert en el cual se puedan analizar más fácilmente mediante técnicas estadísticas clásicas como: regresión lineal, análisis de discriminante lineal (LDA), análisis de componentes principales (PCA), clustering, entre otros. Se tiene un interés particular en funciones kernel para análisis de componentes principales. Dichas funciones serán útiles para el caso en que los datos tienen patrones no lineales y por lo tanto, PCA no es una herramienta adecuada para analizarlos. La idea es emplear las funciones kernel para mapear los datos a un espacio donde tengan estructura lineal y posteriormente realizar PCA sobre los datos transformados. El procedimiento anterior es un método kernel conocido como Kernel análisis de componentes principales (KPCA). Los métodos kernel pueden implicar trabajo con matrices de gran dimensión, lo cual computacionalmente puede ser un problema. Por lo anterior, en esta tesis se presentan diversos métodos aleatorizados para aproximación de matrices, los cuales han recibido gran atención en el área de álgebra lineal. Dichos métodos utilizan un elemento aleatorio para aproximar matrices mediante otras cuya estructura es más sencilla (menor dimensión, rango menor, etc.). En la presente tesis se puede encontrar una descripción y reseña de los siguientes métodos aleatorizados para aproximación de matrices: el de columnas, el de Nyström y el Random Fourier Features (RFF). Los primeros dos métodos son bastante similares en su estructuración ya que la idea básica de estos es utilizar un subconjunto o una muestra de los datos para obtener una aproximación. El método Random Fourier Features es diferente a estos en cuanto a su formulación, ya que está basado en aproximaciones probabilísticas de las funciones kernel. Como se explica en esta tesis, la formulación del método RFF es independiente de la distribución los datos y se intuye que dicha característica hace que el método sea menos eficiente para algunas tareas. Por dicha razón, se presenta una modificación realizada al algoritmo RF
dc.formatapplication/pdf
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://creativecommons.org/licenses/by-nc/4.0
dc.subjectinfo:eu-repo/classification/MSC/PROBABILIDAD
dc.subjectinfo:eu-repo/classification/MSC/ESTADÍSTICA
dc.subjectinfo:eu-repo/classification/cti/1
dc.subjectinfo:eu-repo/classification/cti/12
dc.subjectinfo:eu-repo/classification/cti/1299
dc.subjectinfo:eu-repo/classification/cti/129999
dc.subjectinfo:eu-repo/classification/cti/129999
dc.titleProyecciones aleatorias para aproximar métodos kernel
dc.typeinfo:eu-repo/semantics/other
dc.typeinfo:mx-repo/semantics/masterDegreeWork
dc.typeinfo:eu-repo/semantics/acceptedVersion


Este ítem pertenece a la siguiente institución