Objeto de conferencia
Escalabilidad y paralelización mediante el uso de Hadoop Distributed File System
Registro en:
Autor
Barry, Damián
Buckle, Carlos
Jaramillo, Rodrigo
Real, Ignacio
Tinetti, Fernando Gustavo
Institución
Resumen
En el marco del proyecto de investigación "Técnicas de recuperación de información en grandes volúmenes de datos heterogéneos con bases de datos NOSQL" , el presente trabajo se orienta a evaluar configuraciones de clusters utilizando Hadoop Distributed File System (HDFS) para comprobar las capacidades de disponibilidad, escalabilidad y paralelización en la recuperación de información.
Dicha evaluación permitirá establecer las capacidades necesarias con las que debería contar un File System Distribuido, tanto desde la perspectiva de almacenamiento y técnicas de indexación, como de distribución de las consultas, paralelización, escalabilidad y rendimiento en ambientes heterogéneos.
Para ello se diseñarán arquitecturas tanto centralizadas como distribuidas, y se realizarán las correspondientes verificaciones, estableciendo los porcentajes de mejora de rendimiento para cada arquitectura. Eje: Procesamiento Distribuido y Paralelo Red de Universidades con Carreras en Informática (RedUNCI)