dc.contributorSilveira, Ricardo Azambuja
dc.contributorMarchi, Jerusa
dc.contributorUniversidade Federal de Santa Catarina
dc.creatorGelaim, Thiago Angelo
dc.date2016-05-24T17:54:52Z
dc.date2016-05-24T17:54:52Z
dc.date2016
dc.date.accessioned2017-04-04T04:31:08Z
dc.date.available2017-04-04T04:31:08Z
dc.identifier339453
dc.identifierhttps://repositorio.ufsc.br/xmlui/handle/123456789/162829
dc.identifier.urihttp://repositorioslatinoamericanos.uchile.cl/handle/2250/773760
dc.descriptionDissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016.
dc.descriptionEm sistemas multiagente, seus integrantes precisam interagir a fim de realizar seus objetivos. Existem situações em que entidades mal-intencionadas fazem parte do ambiente. Desta forma, para decidir com quem interagir é preciso considerar o comportamento dos candidatos. Neste contexto, mecanismos de confiança são utilizados como forma de proteção contra entidades fraudulentas. Na literatura são encontrados diversos modelos de confiança, em muitos casos considerando mais o aspecto funcional do modelo do que a sua influência no ciclo de raciocínio do agente. De acordo com a perspectiva do agente, um modelo de confiança é como uma  caixa-preta . O objetivo deste trabalho é propor um modelo de agente em que a confiança faça parte de seu raciocínio. O modelo proposto, inspirado em BDI, é definido a partir de um sistema multi-contexto e faz uso de um modelo computacional de emoções, visando vincular a subjetividade das experiências do agente com a definição de confiança.<br>
dc.descriptionAbstract : In multiagent systems, its members need to interact in order to fulfill its goals. There are situations where malicious entities are inhabiting the environment. Thus, to decide with whom to interact it is necessary to consider the behavior of the candidates. In this context, trust mechanisms are used as a protection against fraudulent entities. The literature presents various trust models, in many cases considering more functional aspect of the model than its influence on the agent s reasoning cycle. According to the agent s perspective, a trust model is like a  black box . The goal of this work is to propose an agent model where trust is part of its reasoning. The proposed model, inspired by BDI, is defined as a multi-context system and makes use of a computational model of emotions aiming to link the subjectivity of the agent s experiences with the definition of trust.
dc.format93 p.| il., tabs.
dc.languagepor
dc.subjectInformática
dc.subjectComputação
dc.subjectSistemas multiagentes
dc.subjectAgentes inteligentes (Software)
dc.titleModelo de agentes e-BDI integrando confiança baseado em sistemas multi-contexto
dc.typeTesis


Este ítem pertenece a la siguiente institución