CEO - an infrastructure to service workflow orchestration in hybrid computational systems

dc.creatorSenna, Carlos Roberto, 1956-
dc.date2014
dc.date2017-04-02T13:01:28Z
dc.date2017-06-09T15:07:59Z
dc.date2017-04-02T13:01:28Z
dc.date2017-06-09T15:07:59Z
dc.date.accessioned2018-03-29T02:20:17Z
dc.date.available2018-03-29T02:20:17Z
dc.identifierSENNA, Carlos Roberto. CEO - uma infraestrutura para orquestração de workflows de serviços em ambientes computacionais híbridos. 2014. 271 p. Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação, Campinas, SP. Disponível em: <http://www.bibliotecadigital.unicamp.br/document/?code=000945050>. Acesso em: 2 abr. 2017.
dc.identifierhttp://repositorio.unicamp.br/jspui/handle/REPOSIP/275535
dc.identifier.urihttp://repositorioslatinoamericanos.uchile.cl/handle/2250/1314394
dc.descriptionOrientador: Edmundo Roberto Mauro Madeira
dc.descriptionTese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação
dc.descriptionResumo: Ao longo dos últimos anos bons resultados foram alcançados em iniciativas de computação paralela e distribuída que culminaram nas nuvens computacionais, transformando a Internet em uma usina virtual de processamento. Aplicações complexas organizadas através de workflows em geral são candidatas à paralelização e podem ter seu desempenho fortemente beneficiado quando executadas em grades, nuvens ou ambientes híbridos. No entanto, ainda cabe ao usuário uma parte significativa da preparação desse ambiente (software e hardware) antes de efetivamente usar todo esse poder computacional na execução de workflows. Esta tese apresenta uma infraestrutura para gerenciamento da execução de workflows de serviços fortemente acoplados em ambientes híbridos compostos por grades e nuvens computacionais. A infraestrutura denominada Cloud Execution Orchestration (CEO) é composta por um middleware que faz a gerência da execução de workflows e por uma linguagem (CEO Language - CEOL) especialmente desenhada para a construção de workflows de serviços para esses ambientes. A infraestrutura proposta suporta a execução de workflows interagindo com os domínios do ambiente (grades e nuvens) de forma transparente sem qualquer intervenção do usuário. Com a CEOL o usuário pode construir workflows abstratos, sem a localização dos recursos computacionais, pois os recursos serão escolhidos em conjunto com o escalonador e serão devidamente preparados pelo CEO para a execução. Além das funcionalidades para aprovisionamento de serviços sob demanda durante a execução de workflows, a macro arquitetura facilita a conexão da nuvem privada com nuvens públicas e oferece suporte ao processamento paralelo na medida em que opera em ambientes totalmente híbridos formados pela combinação de grades e nuvens computacionais
dc.descriptionAbstract: Over the last few years good results have been achieved in initiatives of parallel and distributed computing that culminated in computational clouds, transforming the Internet into a virtual processing plant. Complex applications organized by workflows in general are candidates for parallelization, and can have their performance strongly benefited when executed on grids, clouds, or hybrid environments. However, it is still up to the user a significant part of preparing this environment (software and hardware) before using all that computing power for execution of workflows. This thesis presents an infrastructure for managing the execution of workflows with tightly coupled services in hybrid environments composed of grids and computational clouds. The Infrastructure, called Cloud Execution Orchestration (CEO), consists of a middleware that makes the management and execution of workflows through the CEO Language (CEOL) specially designed for building workflows of services for these environments. The proposed infrastructure supports the execution of workflows interacting with the domains of the environment (grids and clouds) transparently without any user intervention. With CEOL the user can build abstract workflows, without the location of computational resources, since resources will be chosen in conjunction with the scheduler and the CEO going to prepare them before the execution. Besides of functionalities for provisioning services on demand during the execution of workflows, the macro architecture facilitates the connection of private cloud with public cloud and supports parallel processing because may operate in hybrid environments formed by the combination of computational grids and clouds
dc.descriptionDoutorado
dc.descriptionCiência da Computação
dc.descriptionDoutor em Ciência da Computação
dc.format271 p. : il.
dc.formatapplication/octet-stream
dc.publisher[s.n.]
dc.subjectFluxo de trabalho
dc.subjectComputação em nuvem
dc.subjectRedes de computadores
dc.subjectWorkflow
dc.subjectCloud computing
dc.subjectComputer networks
dc.titleCEO - uma infraestrutura para orquestração de workflows de serviços em ambientes computacionais híbridos
dc.titleCEO - an infrastructure to service workflow orchestration in hybrid computational systems
dc.typeTesis


Este ítem pertenece a la siguiente institución