Tesis
Estudo do carregamento diagonal e da redução do custo computacional no processamento de arranjos de antenas
Fecha
2019-07-17Registro en:
SILVEIRA, Filipe de Castro Borges da. Estudo do carregamento diagonal e da redução do custo computacional no processamento de arranjos de antenas. 2018. ix, 98 f., il. Dissertação (Mestrado em Engenharia Elétrica)—Universidade de Brasília, Brasília, 2018.
Autor
Silveira, Filipe de Castro Borges da
Institución
Resumen
Diversas aplicações utilizam arranjos de sensores, por exemplo: radares; sonares; comunicações
wireless; e aplicações de conformação de feixe - também conhecido beamforming, em
inglês. Isso porque, com eles, é possível se obter diversas vantagens: ganhos de arranjo; rejeições
de interferências; eficiência de potência ao maximizar a do sinal-de-interesse e minimizar
as dos sinais interferentes; etc. Quando se trata de beamforming especificamente, o arranjo a ser
utilizado pode conter um número elevado de elementos, o que acaba aumentando a quantidade de
dados a serem processados e, consequentemente, o custo computacional.
O objetivo principal desse trabalho é desenvolver formas de se reduzir essa complexidade
computacional afetando, no mínimo possível, o desempenho do algoritmo. Já os objetivos específicos
incluem: propor valores ótimos para determinados parâmetros do algoritmo utilizado no
beamformer em questão; analisar o erro nos bits recebidos de acordo com adaptações intermitentes;
e analisar o comportamento de algoritmos que estimam e re-estimam a direção-de-chegada
dos sinais a partir de métodos consagrados.
O algoritmo SMI - sample matrix inversion1 - utiliza das amostras colhidas na fase de treinamento
para estimar a matriz de autocorrelação do sinal de interesse; já o LSMI - loaded sample
matrix inversion2 - utiliza um fator de carga
para carregar a diagonal, porém o valor ótimo para
esse parâmetro não está bem definido na literatura. Por isso, um estudo sobre o fator de carga
do algoritmo LSMI é feito. Na literatura, apresentam-se dois valores para esse parâmetro que
proveem bom desempenho para o algoritmo. No entanto, verifica-se que, a depender do cenário,
ele pode sofrer variações e não corresponder a esse dois valores sugeridos. Dessarte, faz-se um
estudo acerca dos melhores valores do fator de carga
conforme diferentes parâmetros são variados:
número de antenas; número de sinais interferentes; potência do ruído ambiente; e incerteza
na direção-de-chegada do sinal.
O fator responsável pela maior parcela do custo computacional inerente aos algoritmos que se
utilizam de matrizes de auto-correlação amostrais é justamente calcular essa matriz. Muitas das vezes, a diferença entre essas matrizes para adaptações sucessivas é pequena de forma que manter
a matriz calculada anteriormente não degrada tão significativamente o desempenho do algoritmo.
Por isso, algoritmos que a recalculam essas matrizes apenas quando ela já não estiver provendo
desempenho satisfatório são desenvolvidos neste trabalho.
Duas soluções em beamforming são interessantes: DS - delay-and-sum3 - pela simplicidade;
LSMI pela robustez. Então, desenvolve-se um beamformer capaz de chavear entre os métodos
de forma a reduzir o custo computacional quando o cenário estiver mais favorável e manter o
desempenho quando o cenário estiver mais desfavorável. Duas situações são tratadas: quando
a direção-de-chegada do sinal é fixa - não há ruído nela - e quando há incerteza na direção-dechegada
e ela é variada aleatoriamente dentro de uma faixa designada - há ruído nela.
Analisam-se também os casos em que a direção-de-chegada do sinal varia conforme o tempo
e o beamformer tenta re-estimá-la quando o erro atinge determinado patamar. As adaptações são
feitas em todas as iterações ou de acordo com o erro de recepção.
O método WL é conhecido por prover ganhos em desempenho de sistemas de beamforming
e, por isso, ele é testado em algoritmos já consagrados: DS; SMI; e LSMI. Dois cenários em
relação à direção-de-chegada são tratados aqui: sem incertezas; e com incertezas. Curvas e dados
estatísticos são levantados das simulações para se analisar as consequências nos comportamentos
dos algoritmos.