info:eu-repo/semantics/doctoralThesis
Fisher information measure and causal probability distribution of Bandt and Pompe: application to the chaotic dynamical systems analysis
Medida de Información de Fisher y distribución causal de probabilidad de Bandt y Pompe: Aplicaciones al análisis de sistemas dinámicos caóticos
Autor
Olivares-Zamora, Felipe Esteban
Institución
Resumen
The potentiality of a special approximation of the Theory of Information is studied with the purpose of unveil dynamical structures of nonlinear dynamics. The focus here lies on information quantifiers: Shannon entropy, Statistical complexity and Fisher information measure. These functionals characterize the probability distribution associated to a time series generated by a dynamical system. The appropriate way to build up such distribution is defined by the methodology proposed by Bandt and Pompe, which is one of the most simple symbolization techniques available. In addition, It takes into account the temporal causality of the process under analysis. Firstly, Fisher information is defined in a discrete escenario with the correct normalization. Its local sensibility is analyzed as well as certain ambiguities in Bandt–Pompe’s methodology for this local quantifier applied to the logistic dynamics. In a second instance, two representation spaces were introduced, called informational causal plane entropy-complexity (HxC), which quantifies global characteristics of the distribution function as well the presence of internal dynamical structures and temporal correlations; And the informational causal plane entropy-Fisher information (HxF), which quantifies local features. These two informational planes allow us to distinguish between deterministic and stochastic dynamics. Besides, we observe a good characterization different routes to chaos: period doubling, tangent and Hopf bifurcation. Furthermore, it is possible to identifícate characteristic temporal scales from periodic, quasi periodic and chaotic orbits. Estudiamos la potencialidad de una aproximación especial de la Teoría de la Información con el fin de desentrañar las particularidades de la dinámica no lineal. El eje central de este trabajo de tesis lo constituye los cuantificadores de información: entropía de Shannon, complejidad estadística y la información de Fisher. Éstos son funcionales que caracterizan la distribución de probabilidad asociada a una serie temporal generada por un sistema dinámico. La manera adecuada de elegir tal distribución es alcanzada por medio de la metodología propuesta por Bandt y Pompe, la cual es una de las técnicas más simples de simbolización disponibles, y que además, considera la causalidad temporal del proceso bajo análisis. Primeramente definimos la información de Fisher en el caso discreto, correctamente normalizada. Estudiamos la sensibilidad local de la misma, como también cierta ambigüedad, y sus consecuencias, en la metodología de Bandt y Pompe para cuantificadores locales bajo la aplicación a la dinámica generada por el mapa logístico. En una segunda instancia, introdujimos dos espacios de representación, llamados plano informacional causal entropía - complejidad (HxC), que cuantifica características globales de la distribución, como la presencia estructuras internas y correlaciones y, el plano informacional causal entropía - información de Fisher (HxF), que cuantifica características locales. Estos dos planos de información nos permiten distinguir entre dinámica determinista y estocástica, como también caracterizar diferentes rutas hacia el caos: duplicación de periodo, bifurcación tangente y bifurcación de Hopf y, además, determinar las escalas temporales características de órbitas periódicas, cuasiperiódicas y caóticas.