dc.contributorQuiroz Salazar, Adolfo José
dc.contributorVelasco Gregory, Mauricio
dc.contributorAngel Cárdenas, Jairo Andrés
dc.creatorLópez Cortés, Xamy Johanna
dc.date.accessioned2023-06-29T20:49:12Z
dc.date.accessioned2023-09-07T00:40:13Z
dc.date.available2023-06-29T20:49:12Z
dc.date.available2023-09-07T00:40:13Z
dc.date.created2023-06-29T20:49:12Z
dc.date.issued2023-06-02
dc.identifierhttp://hdl.handle.net/1992/67994
dc.identifierinstname:Universidad de los Andes
dc.identifierreponame:Repositorio Institucional Séneca
dc.identifierrepourl:https://repositorio.uniandes.edu.co/
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/8727616
dc.description.abstractEste proyecto busca estimar los índices de Morse de una variedad topológica, dada una muestra iid de datos. Partiendo de la muestra de datos, mediante métodos estadísticos, se hallan los puntos que son aproximadamente ortogonales a un vector fijo. Con estos puntos cuasi-ortogonales, se propone un método de clustering para agruparlos. Para cada grupo, se encuentra un centroide y se estima su espacio tangente. Se propone una función de Morse para, de esta menera, poder encontrar la estimación de los índices de Morse. En este documento, en primer lugar, se habla sobre los conceptos de clustering que se usaron en el algoritmo computacional y definiciones y ejemplos de la teoría de Morse que fueron útiles. En segundo lugar, se explica cómo se estima el espacio tangente de la variedad en los centroides de cada cluster y la estimación de la función de Morse con sus errores, además de explicar un algoritmo de clustering. En tercer lugar, se muestran los resultados de los tres ejemplos computacionales que se consideraron: un círculo, una esfera y una hélice, además se adjuntan los códigos en R que se usaron. Por último, en la sección de apéndice se muestra técnicas para estimar la dimensión de la variedad que mejor representa a una muestra de datos, que es un paso que se da por conocido.
dc.languagespa
dc.publisherUniversidad de los Andes
dc.publisherMatemáticas
dc.publisherFacultad de Ciencias
dc.publisherDepartamento de Matemáticas
dc.relationA. Singer y H. T. Wu. Vector diffusion maps and the connection laplacian. 2011.
dc.relationMateo Díaz, Adolfo J. Quiroz y Mauricio Velasco. Local angles and dimension estimation from data on manifolds. Mayo de 2018. url: https://doi.org/10.48550/arXiv.1805.01577.
dc.relationMateo Díaz, Adolfo Quiroz y Mauricio Velasco. HOMOTOPY ESTIMATION FROM DATA ON MANIFOLDS. Unpublished article. 2019.
dc.relationAlan Julian Izenman. En: Modern multivariate statistical techniques: Regression, classification, and Manifold Learning. Springer, 2013, págs. 597-632.
dc.relationImad Dabbura. K-means clustering: Algorithm, applications, evaluation methods, and drawbacks. Sep. de 2022. url: https://towardsdatascience.com/k-means-clustering-algorithm-applications- evaluation-methods-and-drawbacks-aa03e644b48a.
dc.relationWikipedia. Morse theory - en línea. https://en.wikipedia.org/wiki/Morse_theory. Nov. de 2022.
dc.relationJavaTpoint. K-means clustering algorithm - javatpoint. 2021. url: https://www.javatpoint.com/k- means-clustering-algorithm-in-machine-learning.
dc.relationBrian Everitt et al. Cluster analysis. Wiley, 2011.
dc.relationGlenn Milligan y Martha Cooper. An Examination of Procedures for Determining the Number of Cluster in a Data Set. Jun. de 1985.
dc.relationMalika Charrad et al. NBCLUST package. An examination of indices for determining the number of clusters - en línea. https://hal.archives-ouvertes.fr/hal-01126138/document. Jun. de 2019.
dc.relationPyShark.Calinski-Harabaszindexfork-meansclusteringevaluationusingPython-en línea.https: / / pyshark . com / calinski - harabasz - index - for - k - means - clustering - evaluation - using - python/. Mar. de 2022.
dc.relationWikipedia. Standard score. Mar. de 2023. url: https://en.wikipedia.org/wiki/Standard_score.
dc.relationPurnima Bholowalia y Arvind Kumar. EBK-Means: A Clustering Technique based on Elbow Method and K-Means in WSN. En: International Journal of Computer Applications (0975 - 8887) 105.9 (nov. de 2014), págs. 17-24.
dc.relationTola Alade. Tutorial: How to determine the optimal number of clusters for K-means clustering. https: //blog.cambridgespark.com/how-to-determine-the-optimal-number-of-clusters-for-k- means-clustering-14f27070048f. Dic. de 2019.
dc.relationAshutosh Bhardwaj. Silhouette coefficientnbsp;: Validating clustering techniques. https://towardsdatascienc com/silhouette-coefficient-validating-clustering-techniques-e976bb81d10c. Mayo de 2020.
dc.relationAlind Gupta. Silhouette algorithm to determine the optimal value of k. https://www.geeksforgeeks. org/silhouette-algorithm-to-determine-the-optimal-value-of-k/. Jun. de 2019.
dc.relationMojgan Mohajer, Karl Englmeier y Volker Schmid. A comparison of Gap statistic definitions with and with-out logarithm function. 2010. url: https://core.ac.uk/download/pdf/12172514.pdf.
dc.relationWikipedia.MarstonMorse-enlínea.https://en.wikipedia.org/wiki/Marston_Morse.Oct.de 2022.
dc.relationnLab. NLAB Morse function - en línea. https://ncatlab.org/nlab/show/Morse+function. Ene. de 2021.
dc.relationMPostnikovyBRudyak.Morseindex-enlínea.https://encyclopediaofmath.org/wiki/Morse_ index. Mar. de 2022.
dc.relationamd (https://math.stackexchange.com/users/265466/amd). Geometric Intuition of Eigenvalues of Hessian Matrix. Mathematics Stack Exchange. URL:https://math.stackexchange.com/q/1896325 (ver- sion: 2016-08-18). eprint: https://math.stackexchange.com/q/1896325. url: https://math. stackexchange.com/q/1896325.
dc.relationWikipedia. K-Cell (mathematics) - en línea. https://en.wikipedia.org/wiki/K-cell_(mathematics). Mayo de 2022.
dc.relationJohn W. Milnor, R. Wells y M. Spivak. Morse theory. Princeton University Press, 1973.
dc.relationMBarileyEWeisstein.Bettinumber-enlínea.https://mathworld.wolfram.com/BettiNumber.html. 2022.
dc.relationWikipedia.Bettinumber-enlínea.https://en.wikipedia.org/wiki/Betti_number#Geometric_interpretation. Oct. de 2022.
dc.relationamoeba (https://stats.stackexchange.com/users/28666/amoeba). Relationship between SVD and PCA. How to use SVD to perform PCA? Cross Validated. URL:https://stats.stackexchange.com/q/134283 (version: 2023-02-22). eprint: https://stats.stackexchange.com/q/134283. url: https://stats. stackexchange.com/q/134283.
dc.relationAnil Damle. CS 3220: The singular value decomposition - department of Computer Science. url: https://www.cs.cornell.edu/courses/cs3220/2019fa/SVD.pdf.
dc.relationCédric Villani. Optimal transport, old and new. Jun. de 2008.
dc.relationDurham University. Stochastic Processes III/IV. url: https://maths.dur.ac.uk/stats/courses/StochProc34/1516Coupling34.pdf.
dc.relationJerry Kazdan. Matrices a T depending on a parameter. url: https : / / www2 . math . upenn . edu / ~kazdan/504/eigenv.pdf.
dc.relationM.R. Brito et al. Connectivity of the mutual k-nearest-neighbor graph in clustering and outlier detection. En: Statistics and Probability Letters 35 (1997), págs. 33-42.
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional
dc.rightshttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://purl.org/coar/access_right/c_abf2
dc.titleEstimación de los índices de Morse de una variedad topológica a partir de una muestra iid de datos
dc.typeTrabajo de grado - Pregrado


Este ítem pertenece a la siguiente institución