PPGINF PÓS-GRADUAÇÃO EM ENGENHARIA DA INFORMAÇÃO FUNDAÇÃO UNIVERSIDADE FEDERAL DO ABC Telefone/Ramal: Não informado http://propg.ufabc.edu.br/ppginfo
Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações Sucupira/CAPES. Preencha os campos desejados para fazer a busca.

2024
Dissertações
1
  • ERIKA YAHATA
  • INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL APLICADA À PREDIÇÃO DA OBESIDADE INFANTIL

  • Orientador : PRISCYLA WALESKA TARGINO DE AZEVEDO SIMOES
  • Data: 31/01/2024

  • Mostrar Resumo
  • Técnicas baseadas em Inteligência Artificial se mostram promissoras no apoio à decisão na área da saúde no qual diversos estudos mostram a eficiência computacional no processamento de grande quantidade de dados e sua eficácia na contribuição para decisões baseadas nas informações obtidas. Porém, a falta de compreensão nos mecanismos preditivos dos modelos tem levado a busca de novas técnicas baseadas em Inteligência Artificial Explicável que permitam elucidar questões sobre como as predições são realizadas. Neste contexto, esta pesquisa buscou desenvolver um método baseado em Inteligência Artificial Explicável demonstrando a relação entre dados de entrada e a resposta preditiva. Nos resultados preliminares foram considerando dois métodos de explicabilidade (Local Interpretable Model-agnostic Explanation e Shapley Additive Explanations) aplicados à predição da obesidade infantil, e concluiu-se que a circunferência abdominal revelou-se fator de risco para o desfecho, com evidências que sugerem maior incorporação na prática clínica.


  • Mostrar Abstract
  • Técnicas baseadas em Inteligência Artificial se mostram promissoras no apoio à decisão na área da saúde no qual diversos estudos mostram a eficiência computacional no processamento de grande quantidade de dados e sua eficácia na contribuição para decisões baseadas nas informações obtidas. Porém, a falta de compreensão nos mecanismos preditivos dos modelos tem levado a busca de novas técnicas baseadas em Inteligência Artificial Explicável que permitam elucidar questões sobre como as predições são realizadas. Neste contexto, esta pesquisa buscou desenvolver um método baseado em Inteligência Artificial Explicável demonstrando a relação entre dados de entrada e a resposta preditiva. Nos resultados preliminares foram considerando dois métodos de explicabilidade (Local Interpretable Model-agnostic Explanation e Shapley Additive Explanations) aplicados à predição da obesidade infantil, e concluiu-se que a circunferência abdominal revelou-se fator de risco para o desfecho, com evidências que sugerem maior incorporação na prática clínica.

2
  • CAMILA DAS MERCES SILVA
  • Classificação Automática e Análise de Explicabilidade para Especialidades Biomédicas em Artigos Científicos Sobre a COVID-19 em Português

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 17/05/2024

  • Mostrar Resumo
  • Neste trabalho, estudamos a aplicação de cinco diferentes classificadores, sendo eles os classificadores Naive Bayes baseados nas distribuições multinomial e gaussiana, o Support Vector Classifier (SVC) e os modelos baseados em árvores de decisão Random Forest e eXtreme Gradient Boosting (XGBoost), para a classificação automática de artigos científicos de seis diferentes especialidades biomédicas em um corpus previamente adquirido sobre a COVID-19 em português brasileiro (CorpusCovid-19 UFABC). Estudamos também a explicabilidade global, com o uso do SHapley Additive exPlanations (SHAP), e a explicabilidade local, com o Local Interpretable Model-agnostic Explanations (LIME) para o algoritmo XGBoost. Esse corpus foi extraído da base PubMed com técnicas e métodos de Processamento de Linguagem Natural (PLN), e correspondem a textos científicos do início da pandemia. Os textos do corpus possuem especialidades biomédicas anotadas manualmente com base no título dos artigos, nome dos periódicos, palavras-chave e resumo. As features utilizadas foram o Term Frequency – Inverse Document Frequency (TF-IDF) de dois grupos diferentes: com todos os types dos textos em unigramas e bigramas, e com apenas os types biomédicos em suas raízes (stemming). Além disso, foram considerados os subgrupos para análise: todas as classes (CARDIOLOGIA, CIRURGIA, ENFERMAGEM, EPIDEMIOLOGIA, NEFROLOGIA e SAÚDE PÚBLICA), classes mais específicas (CARDIOLOGIA, CIRURGIA e NEFROLOGIA) e classes menos específicas (ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA). Os melhores resultados, para todos os grupos e subgrupos, foram obtidos pelo classificador XGBoost, que é o mais complexo do conjunto utilizado. Comparando os grupos, no geral, o uso de todos os types obteve maiores métricas em relação ao uso de apenas types biomédicos. Além disso, sobre os subgrupos, o melhor desempenho foi para as classes mais específicas, que são as de maior lexicalidade biomédica, seguido por todas as classes e o pior resultado foi para as classes menos específicas. Para a explicabilidade, os resultados sugerem que o XGBoost seja um bom classificador, em especial para classificação das especialidades CARDIOLOGIA, CIRURGIA e NEFROLOGIA, em que não há sobreposição das features mais importantes entre as classes e elas destacarem termos condizentes com as respectivas especialidades, em comparação às classes ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA, em que os atributos utilizados pelo classificador são preponderantemente não específicos de uma determinada especialidade ou são até mesmo da linguagem geral.



  • Mostrar Abstract
  • Neste trabalho, estudamos a aplicação de cinco diferentes classificadores, sendo eles os classificadores Naive Bayes baseados nas distribuições multinomial e gaussiana, o Support Vector Classifier (SVC) e os modelos baseados em árvores de decisão Random Forest e eXtreme Gradient Boosting (XGBoost), para a classificação automática de artigos científicos de seis diferentes especialidades biomédicas em um corpus previamente adquirido sobre a COVID-19 em português brasileiro (CorpusCovid-19 UFABC). Estudamos também a explicabilidade global, com o uso do SHapley Additive exPlanations (SHAP), e a explicabilidade local, com o Local Interpretable Model-agnostic Explanations (LIME) para o algoritmo XGBoost. Esse corpus foi extraído da base PubMed com técnicas e métodos de Processamento de Linguagem Natural (PLN), e correspondem a textos científicos do início da pandemia. Os textos do corpus possuem especialidades biomédicas anotadas manualmente com base no título dos artigos, nome dos periódicos, palavras-chave e resumo. As features utilizadas foram o Term Frequency – Inverse Document Frequency (TF-IDF) de dois grupos diferentes: com todos os types dos textos em unigramas e bigramas, e com apenas os types biomédicos em suas raízes (stemming). Além disso, foram considerados os subgrupos para análise: todas as classes (CARDIOLOGIA, CIRURGIA, ENFERMAGEM, EPIDEMIOLOGIA, NEFROLOGIA e SAÚDE PÚBLICA), classes mais específicas (CARDIOLOGIA, CIRURGIA e NEFROLOGIA) e classes menos específicas (ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA). Os melhores resultados, para todos os grupos e subgrupos, foram obtidos pelo classificador XGBoost, que é o mais complexo do conjunto utilizado. Comparando os grupos, no geral, o uso de todos os types obteve maiores métricas em relação ao uso de apenas types biomédicos. Além disso, sobre os subgrupos, o melhor desempenho foi para as classes mais específicas, que são as de maior lexicalidade biomédica, seguido por todas as classes e o pior resultado foi para as classes menos específicas. Para a explicabilidade, os resultados sugerem que o XGBoost seja um bom classificador, em especial para classificação das especialidades CARDIOLOGIA, CIRURGIA e NEFROLOGIA, em que não há sobreposição das features mais importantes entre as classes e elas destacarem termos condizentes com as respectivas especialidades, em comparação às classes ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA, em que os atributos utilizados pelo classificador são preponderantemente não específicos de uma determinada especialidade ou são até mesmo da linguagem geral.


3
  • EDUARDO HENRIQUE DOS SANTOS MARQUES
  • Metodologia de baixo custo para Transferência de Estilo em Sistemas TTS

  • Orientador : KENJI NOSE FILHO
  • Data: 29/05/2024

  • Mostrar Resumo
  • Em Síntese de Fala por conversão Texto-Fala já foram alcançados grandes avanços e propostas soluções capazes de sintetizar sinais de fala com expressividade, em especial, contendo emoção. No entanto, quando consideramos métodos baseados em conversão de voz, ainda existem problemas como confusão entre classes de emoção na fala sintetizada, e dificuldade para transferir emoções sem que sejam conjuntamente enviadas informações do locutor. Uma solução recente para estes problemas, proposta por Li T. et al., foi aumentar a capacidade de diferenciação das emoções através de um classificador de emoção adicionado ao encoder. No entanto, foi utilizado uma base de dados própria, em língua chinesa, dificultando a reprodutibilidade de estudos relacionados a este tema. Além disso, no cenário apresentado seria necessário o treino de um modelo de síntese, pois não é possível inserir as informações de estilo em modelos já treinados. Assim, neste trabalho são apresentadas algumas análises para esta solução utilizando bases de dados conhecidas, como as bases de dados TESS, RAVDESS e CREMA-D, em língua inglesa, e o uso do modelo Mellotron, pré-treinado, que, além disso, consegue utilizar informações explícitas da fala, as quais podem ser úteis para as tarefas analisadas. Deste modo, foram realizados testes adicionando ao modelo pré-treinado um encoder para emoções, e ajustando-o para a tarefa de conversão de voz com emoções, a partir das bases de dados TESS, RAVDESS e CREMA-D. Em seguida foi verificada a capacidade de transferência de emoção por meio de um classificador de emoção e da visualização, em espaço de características, das classes de emoção presentes. Para esta tarefa nas base de dados TESS e RAVDESS foi obtida uma acurácia em torno de 35% para um subconjunto de 4 classes, mostrando que é possível realizar a tarefa, embora o desempenho alcançado não seja satisfatório. Por sua vez, na base de dados CREMA-D foi obtido um valor de acurácia em torno 25%, portanto não garantindo a efetividade do método. Uma explicação para o baixo desempenho é o equilíbrio necessário entre inteligibilidade e acurácia na classificação de emoção sintetizada.


  • Mostrar Abstract
  • Em Síntese de Fala por conversão Texto-Fala já foram alcançados grandes avanços e propostas soluções capazes de sintetizar sinais de fala com expressividade, em especial, contendo emoção. No entanto, quando consideramos métodos baseados em conversão de voz, ainda existem problemas como confusão entre classes de emoção na fala sintetizada, e dificuldade para transferir emoções sem que sejam conjuntamente enviadas informações do locutor. Uma solução recente para estes problemas, proposta por Li T. et al., foi aumentar a capacidade de diferenciação das emoções através de um classificador de emoção adicionado ao encoder. No entanto, foi utilizado uma base de dados própria, em língua chinesa, dificultando a reprodutibilidade de estudos relacionados a este tema. Além disso, no cenário apresentado seria necessário o treino de um modelo de síntese, pois não é possível inserir as informações de estilo em modelos já treinados. Assim, neste trabalho são apresentadas algumas análises para esta solução utilizando bases de dados conhecidas, como as bases de dados TESS, RAVDESS e CREMA-D, em língua inglesa, e o uso do modelo Mellotron, pré-treinado, que, além disso, consegue utilizar informações explícitas da fala, as quais podem ser úteis para as tarefas analisadas. Deste modo, foram realizados testes adicionando ao modelo pré-treinado um encoder para emoções, e ajustando-o para a tarefa de conversão de voz com emoções, a partir das bases de dados TESS, RAVDESS e CREMA-D. Em seguida foi verificada a capacidade de transferência de emoção por meio de um classificador de emoção e da visualização, em espaço de características, das classes de emoção presentes. Para esta tarefa nas base de dados TESS e RAVDESS foi obtida uma acurácia em torno de 35% para um subconjunto de 4 classes, mostrando que é possível realizar a tarefa, embora o desempenho alcançado não seja satisfatório. Por sua vez, na base de dados CREMA-D foi obtido um valor de acurácia em torno 25%, portanto não garantindo a efetividade do método. Uma explicação para o baixo desempenho é o equilíbrio necessário entre inteligibilidade e acurácia na classificação de emoção sintetizada.

4
  • BRUNA CUNHA DE CARVALHO
  • Exploração e Desenvolvimento de Funcionalidades de Gateways em Ambientes de IoT com P4

  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 04/06/2024

  • Mostrar Resumo
  • A linguagem de programação P4 tem sido utilizada para a programação do plano de dados em dispositivos de redes, incluindo switches e roteadores, permitindo que os desenvolvedores especifiquem o processamento de pacotes dentro do elemento de rede, tanto físico quanto virtual. Originada com o propósito de superar limitações e desafios presentes nas redes definidas por software, como a demanda por maior flexibilidade e capacidade de customização, a linguagem P4 oferece uma abordagem inovadora. Este trabalho se concentra na aplicação de P4 em ambientes de IoT, explorando as oportunidades de implementação em aplicações IoT e realizando uma comparação, entre cenários com e sem o uso de P4, sendo este último caso com a utilização do protocolo OpenFlow. Os cenários propostos têm como objetivo aprofundar o entendimento sobre o uso de P4 direcionado para IoT, abordando os contextos de filtragem de pacotes, automação de serviços e interoperabilidade nas redes IoT. Para tanto, foram empregados o simulador de redes Mininet-WiFi e a ferramenta P4Docker. Como parte deste estudo, foi desenvolvida uma solução de gateway multiprotocolo que demonstra eficácia na identificação de diferentes protocolos e tipos de dados, bem como um sistema de geração de alertas com base em mensagens utilizando o protocolo MQTT.


  • Mostrar Abstract
  • A linguagem de programação P4 tem sido utilizada para a programação do plano de dados em dispositivos de redes, incluindo switches e roteadores, permitindo que os desenvolvedores especifiquem o processamento de pacotes dentro do elemento de rede, tanto físico quanto virtual. Originada com o propósito de superar limitações e desafios presentes nas redes definidas por software, como a demanda por maior flexibilidade e capacidade de customização, a linguagem P4 oferece uma abordagem inovadora. Este trabalho se concentra na aplicação de P4 em ambientes de IoT, explorando as oportunidades de implementação em aplicações IoT e realizando uma comparação, entre cenários com e sem o uso de P4, sendo este último caso com a utilização do protocolo OpenFlow. Os cenários propostos têm como objetivo aprofundar o entendimento sobre o uso de P4 direcionado para IoT, abordando os contextos de filtragem de pacotes, automação de serviços e interoperabilidade nas redes IoT. Para tanto, foram empregados o simulador de redes Mininet-WiFi e a ferramenta P4Docker. Como parte deste estudo, foi desenvolvida uma solução de gateway multiprotocolo que demonstra eficácia na identificação de diferentes protocolos e tipos de dados, bem como um sistema de geração de alertas com base em mensagens utilizando o protocolo MQTT.

5
  • MARCIO VALVERDE
  • Modelagem de Tópicos para Análise de Indícios de Depressão e Ideação Suicida de Postagens do Reddit em Língua Portuguesa

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 17/06/2024

  • Mostrar Resumo
  • Este trabalho tem como objetivo examinar como técnicas de processamento de linguagem natural (PLN) e de aprendizado de máquina não supervisionado podem ser empregadas para detectar sinais de depressão e ideação suicida em postagens extraídas da plataforma de rede social Reddit. O estudo aborda a crescente importância da Internet como um espaço de expressão de sentimentos e investiga o potencial da modelagem de tópicos para revelar temas importantes em discussões sobre saúde mental. A pesquisa destaca a aplicabilidade de métodos como a Alocação Latente de Dirichlet (LDA) e a Fatoração de Matrizes Não-Negativas (NMF) para caracterizar postagens de forma que se possa identificar padrões de linguagem e tópicos associados à depressão e à ideação suicida. Este trabalho não só busca entender os sinais linguísticos relevantes para o estado emocional dos usuários, mas também busca oferecer uma potencial ferramenta para profissionais da saúde mental, pesquisadores e formuladores de políticas públicas, visando fornecer insights para intervenções precoces e suporte psicológico. Ao focar na língua portuguesa, o estudo contribui para diversificar a pesquisa em PLN, ampliando a compreensão das comunidades de língua portuguesa online, entre muitos estudos realizados em diferentes línguas. A dissertação é fundamentada em uma revisão da literatura que abrange trabalhos relevantes na área, que demonstram a eficácia da modelagem de tópicos em dados sensíveis e a importância de analisar conteúdo online para prevenir comportamentos depressivos e suicidas. As questões de pesquisa focam na capacidade da modelagem de tópicos de identificar automaticamente indícios de depressão e ideação suicida e na busca de padrões linguísticos específicos que caracterizam tais postagens e de tópicos mais comuns relacionados à saúde mental na comunidade de língua portuguesa do Reddit.


  • Mostrar Abstract
  • Este trabalho tem como objetivo examinar como técnicas de processamento de linguagem natural (PLN) e de aprendizado de máquina não supervisionado podem ser empregadas para detectar sinais de depressão e ideação suicida em postagens extraídas da plataforma de rede social Reddit. O estudo aborda a crescente importância da Internet como um espaço de expressão de sentimentos e investiga o potencial da modelagem de tópicos para revelar temas importantes em discussões sobre saúde mental. A pesquisa destaca a aplicabilidade de métodos como a Alocação Latente de Dirichlet (LDA) e a Fatoração de Matrizes Não-Negativas (NMF) para caracterizar postagens de forma que se possa identificar padrões de linguagem e tópicos associados à depressão e à ideação suicida. Este trabalho não só busca entender os sinais linguísticos relevantes para o estado emocional dos usuários, mas também busca oferecer uma potencial ferramenta para profissionais da saúde mental, pesquisadores e formuladores de políticas públicas, visando fornecer insights para intervenções precoces e suporte psicológico. Ao focar na língua portuguesa, o estudo contribui para diversificar a pesquisa em PLN, ampliando a compreensão das comunidades de língua portuguesa online, entre muitos estudos realizados em diferentes línguas. A dissertação é fundamentada em uma revisão da literatura que abrange trabalhos relevantes na área, que demonstram a eficácia da modelagem de tópicos em dados sensíveis e a importância de analisar conteúdo online para prevenir comportamentos depressivos e suicidas. As questões de pesquisa focam na capacidade da modelagem de tópicos de identificar automaticamente indícios de depressão e ideação suicida e na busca de padrões linguísticos específicos que caracterizam tais postagens e de tópicos mais comuns relacionados à saúde mental na comunidade de língua portuguesa do Reddit.

6
  • GUILHERME GARCIA HORTA
  • Desbalanceamento, sobreposição e classificação de dados com aplicação em detecção de fraudes em cartões de crédito.

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 21/06/2024

  • Mostrar Resumo
  • As fraudes em cartões de crédito são um problema crescente na sociedade moderna, especialmente com o aumento das modalidades de compras e pagamentos online. Logo, há alta demanda para sistemas de prevenção e detecção de fraudes que sejam robustos e confiáveis. A tarefa de detecção de fraudes pode ser tratada como um problema de classificação e, neste contexto, múltiplos autores relatam dificuldades ao treinar os classificadores nos conjuntos de dados de fraudes, que possivelmente apresentam desbalanceamento e sobreposição entre as classes. Técnicas de pré-processamento de amostragem, como sobre-amostragem e sub-amostragem, são frequentemente utilizadas na fase de pré-processamento para tratar o problema do desbalanceamento. Por outro lado, métricas de avaliação como o R-Valor e o R-Valor Aumentado foram apresentadas nos últimos anos para medir o nível de sobreposição presente nos dados. Portanto, este trabalho se propõe a analisar os comportamentos de diferentes classificadores quando há utilização de técnicas de amostragem em conjuntos de dados sintéticos desbalanceados e sobrepostos, além de efetuar este estudo em aplicação real, para um conjunto de dados de fraudes em cartões de crédito, objetivamente medindo os efeitos nas métricas acima mencionadas e também nos desempenhos de classificação. Este trabalho, bem como outros autores apontaram por meio de estudos em diversos conjuntos de dados, demonstra que a utilização da métrica R-Valor Aumentado é mais apropriada em cenário de dados desbalanceados em comparação ao R-Valor. Entretanto, este trabalho conclui que, para os conjuntos de dados estudados, os resultados de classificação obtidos após a aplicação das técnicas escolhidas de amostragem não apresentaram diferenças significativas em relação a não aplicação das mesmas, reforçando ponto trazido por certos autores que, supostamente, o problema de sobreposição dos dados pode ser mais oneroso de lidar que o desbalanceamento. Outra questão trazida a tona por este estudo é a relação entre a dispersão observada dos dados de cada classe em relação ao desempenho de classificação dos estimadores. Além disso, aponta-se que os algoritmos de classificação baseados em árvores de decisão obtiveram resultados bons para o conjunto de dados real de fraudes, considerando as circunstâncias de alto desbalanceamento e classes sobrepostas significativamente.


  • Mostrar Abstract
  • As fraudes em cartões de crédito são um problema crescente na sociedade moderna, especialmente com o aumento das modalidades de compras e pagamentos online. Logo, há alta demanda para sistemas de prevenção e detecção de fraudes que sejam robustos e confiáveis. A tarefa de detecção de fraudes pode ser tratada como um problema de classificação e, neste contexto, múltiplos autores relatam dificuldades ao treinar os classificadores nos conjuntos de dados de fraudes, que possivelmente apresentam desbalanceamento e sobreposição entre as classes. Técnicas de pré-processamento de amostragem, como sobre-amostragem e sub-amostragem, são frequentemente utilizadas na fase de pré-processamento para tratar o problema do desbalanceamento. Por outro lado, métricas de avaliação como o R-Valor e o R-Valor Aumentado foram apresentadas nos últimos anos para medir o nível de sobreposição presente nos dados. Portanto, este trabalho se propõe a analisar os comportamentos de diferentes classificadores quando há utilização de técnicas de amostragem em conjuntos de dados sintéticos desbalanceados e sobrepostos, além de efetuar este estudo em aplicação real, para um conjunto de dados de fraudes em cartões de crédito, objetivamente medindo os efeitos nas métricas acima mencionadas e também nos desempenhos de classificação. Este trabalho, bem como outros autores apontaram por meio de estudos em diversos conjuntos de dados, demonstra que a utilização da métrica R-Valor Aumentado é mais apropriada em cenário de dados desbalanceados em comparação ao R-Valor. Entretanto, este trabalho conclui que, para os conjuntos de dados estudados, os resultados de classificação obtidos após a aplicação das técnicas escolhidas de amostragem não apresentaram diferenças significativas em relação a não aplicação das mesmas, reforçando ponto trazido por certos autores que, supostamente, o problema de sobreposição dos dados pode ser mais oneroso de lidar que o desbalanceamento. Outra questão trazida a tona por este estudo é a relação entre a dispersão observada dos dados de cada classe em relação ao desempenho de classificação dos estimadores. Além disso, aponta-se que os algoritmos de classificação baseados em árvores de decisão obtiveram resultados bons para o conjunto de dados real de fraudes, considerando as circunstâncias de alto desbalanceamento e classes sobrepostas significativamente.

7
  • MAURICIO DE SOUZA SEBASTIÃO
  • Análise de vulnerabilidade contra interceptações em redes FFH-OCDMA.

  • Orientador : ANDERSON LEONARDO SANCHES
  • Data: 26/06/2024

  • Mostrar Resumo
  • A cibersegurança e a resiliência cibernética estão se tornando cruciais para o desenvolvimento de muitas tecnologias, especialmente nos dias atuais de uma era da constante transformação digital. Esta dissertação apresenta uma análise realista da vulnerabilidade em segurança à nível de camada física para redes ópticas baseadas em acesso múltiplo por divisão de código OCDMA e codificação com espalhamento espectral com saltos rápidos em frequência (FFH-OCDMA). O desempenho da rede é avaliado considerando tanto o formato de modulação incoerente ordinário conhecido como chaveamento liga-desliga (OOK) quanto os formatos de modulação coerentes avançados que ocorrem por chaveamento por deslocamento de fase binário (BPSK) e chaveamento por mudança de fase e quadratura (QPSK). Em todos os casos, os efeitos da interceptação de sinais simultaneamente transmitidos por meio de um invasor portando uma réplica similar do receptor do usuário de interesse são avaliados. As análises consideram dois cenários apresentando efeitos deletérios distintos sobre o sinal interceptado pelo invasor: 1) apenas a interferência de acesso múltiplo (MAI) atua sobre o sinal de interesse e 2) ambos a MAI e os ruídos do originários da recepção atuam sobre o sinal de interesse. Para ambos os cenários, foram propostos novas expressões para a composição do formalismo matemático responsável pela quantificação do desempenho em termos da figura de mérito nomeada taxa de erro de bit (BER). Os resultados numéricos indicam que a decodificação e recomposição da informação do sinal interceptado é continuamente dificultada à medida em que invasor comete mais erros de filtragem (relativos ao projeto das Redes de Bragg que compõem o decodificador) durante a inferência do código atribuído ao usuário de interesse. Adicionalmente, foi verificado que os efeitos deletérios da MAI sobre o sinal transmitido do usuário de interesse impactam significativamente e de maneira negativa na capacidade de recomposição da informação pelo invasor. Isso significa que as redes FFH-OCDMA são robustas contra interceptação de sinais proveniente de invasões e oferecem uma solução viável para aumentar a segurança em sistemas ópticos.


  • Mostrar Abstract
  • A cibersegurança e a resiliência cibernética estão se tornando cruciais para o desenvolvimento de muitas tecnologias, especialmente nos dias atuais de uma era da constante transformação digital. Esta dissertação apresenta uma análise realista da vulnerabilidade em segurança à nível de camada física para redes ópticas baseadas em acesso múltiplo por divisão de código OCDMA e codificação com espalhamento espectral com saltos rápidos em frequência (FFH-OCDMA). O desempenho da rede é avaliado considerando tanto o formato de modulação incoerente ordinário conhecido como chaveamento liga-desliga (OOK) quanto os formatos de modulação coerentes avançados que ocorrem por chaveamento por deslocamento de fase binário (BPSK) e chaveamento por mudança de fase e quadratura (QPSK). Em todos os casos, os efeitos da interceptação de sinais simultaneamente transmitidos por meio de um invasor portando uma réplica similar do receptor do usuário de interesse são avaliados. As análises consideram dois cenários apresentando efeitos deletérios distintos sobre o sinal interceptado pelo invasor: 1) apenas a interferência de acesso múltiplo (MAI) atua sobre o sinal de interesse e 2) ambos a MAI e os ruídos do originários da recepção atuam sobre o sinal de interesse. Para ambos os cenários, foram propostos novas expressões para a composição do formalismo matemático responsável pela quantificação do desempenho em termos da figura de mérito nomeada taxa de erro de bit (BER). Os resultados numéricos indicam que a decodificação e recomposição da informação do sinal interceptado é continuamente dificultada à medida em que invasor comete mais erros de filtragem (relativos ao projeto das Redes de Bragg que compõem o decodificador) durante a inferência do código atribuído ao usuário de interesse. Adicionalmente, foi verificado que os efeitos deletérios da MAI sobre o sinal transmitido do usuário de interesse impactam significativamente e de maneira negativa na capacidade de recomposição da informação pelo invasor. Isso significa que as redes FFH-OCDMA são robustas contra interceptação de sinais proveniente de invasões e oferecem uma solução viável para aumentar a segurança em sistemas ópticos.

8
  • JOÃO PAULO DAL POZ PEREIRA
  • Detecção de Anomalias em Tráfego de Dados em Redes IoT

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 24/07/2024

  • Mostrar Resumo
  • Nos últimos anos, os avanços tecnológicos relacionados aos dispositivos e à infraestrutura da Internet das Coisas (IoT, do inglês Internet of things) possibilitou às grandes indústrias rastrear estoques, gerenciar máquinas e monitorar processos industriais de maneira mais rápida e eficaz, além de contribuir para o desenvolvimento de veículos autônomos e, no caso de consumidores individuais, automatizar residências e monitorar a saúde pessoal. Essa evolução também permitiu, devido às conexões com a Internet, que cada um desses dispositivos se tornasse um potencial alvo de ataque por indivíduos mal intencionados, sendo necessária uma maior preocupação com a segurança desse ambiente bastante heterogêneo. Como os dispositivos IoT são restritos em recursos computacionais e energia, os modelos de segurança tradicionais, que atuam como uma linha de defesa, agindo no processo de detecção de intrusos e ameaças, não podem ser diretamente adotados para eles. Uma alternativa é implementar um sistema de detecção de intrusão (IDS, do inglês Intrusion Detection System) em um gateway, protegendo assim os dispositivos IoT. Embora IDS's tradicionais empreguem técnicas estatísticas, abordagens mais recentes se concentram na utilização de algoritmos de aprendizado de máquina (ML, do inglês Machine Learning), que procuram aprender as características de cada tipo de ataque a partir de dados de tráfego de rede.

    Devido à grande quantidade de dados de tráfego disponíveis, restringir os atributos de tráfego empregados para detecção de uma eventual ameaça é uma garantia de ganho computacional e de tempo. Assim, técnicas de seleção de atributos (ou de características) são fundamentais para uma implementação prática de um IDS usando ML. Além disso, como a disponibilidade de dados de tráfego normal é muito maior que a de dados de intrusões, é comum utilizar técnicas de reamostragem, que procuram equilibrar as quantidades de dados das duas classes de tráfego (normal e ataque), antes dos classificadores baseados em ML. Portanto, um dos objetivos principais deste trabalho é realizar uma análise comparativa de desempenho de diversas técnicas de seleção de atributos aplicadas a algoritmos de aprendizagem de máquina para IDS. Outro objetivo desta dissertação é avaliar a efetividade de técnicas de reamostragem para balanceamento dos dados. Em particular, neste trabalho de mestrado, foram utilizados três algoritmos para classificar os dados de tráfego IoT em normal ou de ataque, três técnicas de seleção de atributos e uma técnica de reamostragem. Os resultados obtidos indicam que classificadores baseados em árvores de decisão, com seleção de atributos usando a informação mútua, fornecem uma boa solução de compromisso entre complexidade computacional e desempenho de classificação. Além disso, para as bases de dados consideradas, não houve alteração significativa de desempenho dos classificadores ao se empregar a técnica de reamostragem simulada.


  • Mostrar Abstract
  • Nos últimos anos, os avanços tecnológicos relacionados aos dispositivos e à infraestrutura da Internet das Coisas (IoT, do inglês Internet of things) possibilitou às grandes indústrias rastrear estoques, gerenciar máquinas e monitorar processos industriais de maneira mais rápida e eficaz, além de contribuir para o desenvolvimento de veículos autônomos e, no caso de consumidores individuais, automatizar residências e monitorar a saúde pessoal. Essa evolução também permitiu, devido às conexões com a Internet, que cada um desses dispositivos se tornasse um potencial alvo de ataque por indivíduos mal intencionados, sendo necessária uma maior preocupação com a segurança desse ambiente bastante heterogêneo. Como os dispositivos IoT são restritos em recursos computacionais e energia, os modelos de segurança tradicionais, que atuam como uma linha de defesa, agindo no processo de detecção de intrusos e ameaças, não podem ser diretamente adotados para eles. Uma alternativa é implementar um sistema de detecção de intrusão (IDS, do inglês Intrusion Detection System) em um gateway, protegendo assim os dispositivos IoT. Embora IDS's tradicionais empreguem técnicas estatísticas, abordagens mais recentes se concentram na utilização de algoritmos de aprendizado de máquina (ML, do inglês Machine Learning), que procuram aprender as características de cada tipo de ataque a partir de dados de tráfego de rede.

    Devido à grande quantidade de dados de tráfego disponíveis, restringir os atributos de tráfego empregados para detecção de uma eventual ameaça é uma garantia de ganho computacional e de tempo. Assim, técnicas de seleção de atributos (ou de características) são fundamentais para uma implementação prática de um IDS usando ML. Além disso, como a disponibilidade de dados de tráfego normal é muito maior que a de dados de intrusões, é comum utilizar técnicas de reamostragem, que procuram equilibrar as quantidades de dados das duas classes de tráfego (normal e ataque), antes dos classificadores baseados em ML. Portanto, um dos objetivos principais deste trabalho é realizar uma análise comparativa de desempenho de diversas técnicas de seleção de atributos aplicadas a algoritmos de aprendizagem de máquina para IDS. Outro objetivo desta dissertação é avaliar a efetividade de técnicas de reamostragem para balanceamento dos dados. Em particular, neste trabalho de mestrado, foram utilizados três algoritmos para classificar os dados de tráfego IoT em normal ou de ataque, três técnicas de seleção de atributos e uma técnica de reamostragem. Os resultados obtidos indicam que classificadores baseados em árvores de decisão, com seleção de atributos usando a informação mútua, fornecem uma boa solução de compromisso entre complexidade computacional e desempenho de classificação. Além disso, para as bases de dados consideradas, não houve alteração significativa de desempenho dos classificadores ao se empregar a técnica de reamostragem simulada.

9
  • MARCOS LIMA ROMERO
  • Garantia da Qualidade dos Dados na Internet das Coisas Utilizando Aprendizado de Máquina Online

  • Orientador : RICARDO SUYAMA
  • Data: 05/08/2024

  • Mostrar Resumo
  • "A qualidade dos dados é crucial para uma tomada de decisão sólida em aplicações de Internet das Coisas (IoT), mas as ferramentas existentes muitas vezes carecem de flexibilidade e modularidade. Este estudo aborda essa lacuna propondo três contribuições principais: (1) identificar limitações críticas nas abordagens existentes de avaliação da qualidade dos dados por meio de uma revisão sistemática da literatura, (2) desenvolver uma ferramenta de software de código aberto e orientada por eventos chamada Ferramenta de Garantia da Qualidade dos Dados (DQAT) para avaliação de dados em tempo real em diversas aplicações de IoT, e (3) avaliar a viabilidade de métodos de aprendizado de máquina de ponta para a melhoria da qualidade dos dados em cenários de dados em fluxo. A modularidade e escalabilidade do DQAT permitem a simulação de cenários de ponta a ponta e a integração com aplicações do mundo real. Sua eficácia será avaliada usando um conjunto de dados agrícolas e métricas como precisão, completude, pontualidade, consistência e melhoria geral na qualidade dos dados. Este trabalho visa abordar a melhoria da qualidade dos dados na IoT e explicar como liberar todo o seu potencial para uma tomada de decisão confiável."


  • Mostrar Abstract
  • "A qualidade dos dados é crucial para uma tomada de decisão sólida em aplicações de Internet das Coisas (IoT), mas as ferramentas existentes muitas vezes carecem de flexibilidade e modularidade. Este estudo aborda essa lacuna propondo três contribuições principais: (1) identificar limitações críticas nas abordagens existentes de avaliação da qualidade dos dados por meio de uma revisão sistemática da literatura, (2) desenvolver uma ferramenta de software de código aberto e orientada por eventos chamada Ferramenta de Garantia da Qualidade dos Dados (DQAT) para avaliação de dados em tempo real em diversas aplicações de IoT, e (3) avaliar a viabilidade de métodos de aprendizado de máquina de ponta para a melhoria da qualidade dos dados em cenários de dados em fluxo. A modularidade e escalabilidade do DQAT permitem a simulação de cenários de ponta a ponta e a integração com aplicações do mundo real. Sua eficácia será avaliada usando um conjunto de dados agrícolas e métricas como precisão, completude, pontualidade, consistência e melhoria geral na qualidade dos dados. Este trabalho visa abordar a melhoria da qualidade dos dados na IoT e explicar como liberar todo o seu potencial para uma tomada de decisão confiável."

10
  • LÍCIA SALES COSTA LIMA
  • Otimização dos parâmetros do modelo do diodo Schottky usando aprendizado por reforço para aplicações em retificadores de RF

  • Orientador : CARLOS EDUARDO CAPOVILLA
  • Data: 26/08/2024

  • Mostrar Resumo
  • Os sistemas de colheita de energia de radiofrequência (RFEH) representam uma avançada tecnologia para converter a radiação eletromagnética em energia elétrica, especialmente relevante para a Internet das Coisas (IoT). Apesar de sua importância, há uma lacuna na otimização do componente de retificação, o diodo retificador, essencial para a eficiência energética dos dispositivos. Este estudo propõe explorar e otimizar o diodo retificador em sistemas RFEH, usando aprendizado por reforço para generalizar seu comportamento e otimizar seus parâmetros. O modelo visa a melhorar a eficiência de conversão de energia RF em DC, contribuindo para o desenvolvimento de sistemas RFEH mais eficientes e sustentáveis. O trabalho iniciou-se com a análise de um modelo de circuito do diodo, seguido pelo desenvolvimento de um ambiente de simulação. A metodologia de aprendizado por reforço, especialmente o Advantage Actor-Critic (A2C), foi adotada para otimizar os parâmetros do diodo. O estudo também avaliou a generalização do modelo de aprendizagem por reforço e comparou a eficiência do diodo proposto com diodos comerciais, investigando a influência dos parâmetros na eficiência do circuito. Essa pesquisa visa preencher a lacuna na otimização dos componentes de retificação em sistemas RFEH, crucial para a eficiência dos dispositivos IoT alimentados por essa tecnologia.


  • Mostrar Abstract
  • Os sistemas de colheita de energia de radiofrequência (RFEH) representam uma avançada tecnologia para converter a radiação eletromagnética em energia elétrica, especialmente relevante para a Internet das Coisas (IoT). Apesar de sua importância, há uma lacuna na otimização do componente de retificação, o diodo retificador, essencial para a eficiência energética dos dispositivos. Este estudo propõe explorar e otimizar o diodo retificador em sistemas RFEH, usando aprendizado por reforço para generalizar seu comportamento e otimizar seus parâmetros. O modelo visa a melhorar a eficiência de conversão de energia RF em DC, contribuindo para o desenvolvimento de sistemas RFEH mais eficientes e sustentáveis. O trabalho iniciou-se com a análise de um modelo de circuito do diodo, seguido pelo desenvolvimento de um ambiente de simulação. A metodologia de aprendizado por reforço, especialmente o Advantage Actor-Critic (A2C), foi adotada para otimizar os parâmetros do diodo. O estudo também avaliou a generalização do modelo de aprendizagem por reforço e comparou a eficiência do diodo proposto com diodos comerciais, investigando a influência dos parâmetros na eficiência do circuito. Essa pesquisa visa preencher a lacuna na otimização dos componentes de retificação em sistemas RFEH, crucial para a eficiência dos dispositivos IoT alimentados por essa tecnologia.

11
  • GUSTAVO FREGONEZI DEPIERI
  • Algoritmos Bioinspirados para Separação Cega de Misturas Post-Nonlinear

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 28/08/2024

  • Mostrar Resumo
  • A separação cega de fontes (BSS - Blind Source Separation) compreende um conjunto de técnicas não-supervisionadas para recuperação de fontes a partir da observação de suas misturas. Neste trabalho são investigadas aplicações de algoritmos bioinspirados de otimização ao problema de BSS no contexto não-linear Post-Nonlinear (PNL), dentro das premissas de independência estatística da Análise por Componentes Independentes (ICA- Independent Component Analysis) . Em especial, são utilizados o algoritmo de Otimização por Enxame de Partículas (OEP) e sua versão híbrida com o algoritmo de Evolução Diferencial (OEP-ED) é proposta, em diferentes topologias para separação das misturas, sendo adotada a informação mútua como função objetivo. Os resultados das simulações computacionais mostram que o algoritmo híbrido OEP-ED na topologia quadrada apresenta os melhores resultados para recuperação das fontes. No mesmo contexto de misturas são analisados os algoritmos bioinspirados modificados para incorporar o Estimador baseado em kernel (KDE-Kernel Density Estimator), e ao final, uma versão adaptada do OEP-ED é aplicada ao problema de equalização cega não linear seguindo o princípio PNL, onde também se verificam uma boa estimativa das fontes em cenários diversos de simulação


  • Mostrar Abstract
  • A separação cega de fontes (BSS - Blind Source Separation) compreende um conjunto de técnicas não-supervisionadas para recuperação de fontes a partir da observação de suas misturas. Neste trabalho são investigadas aplicações de algoritmos bioinspirados de otimização ao problema de BSS no contexto não-linear Post-Nonlinear (PNL), dentro das premissas de independência estatística da Análise por Componentes Independentes (ICA- Independent Component Analysis) . Em especial, são utilizados o algoritmo de Otimização por Enxame de Partículas (OEP) e sua versão híbrida com o algoritmo de Evolução Diferencial (OEP-ED) é proposta, em diferentes topologias para separação das misturas, sendo adotada a informação mútua como função objetivo. Os resultados das simulações computacionais mostram que o algoritmo híbrido OEP-ED na topologia quadrada apresenta os melhores resultados para recuperação das fontes. No mesmo contexto de misturas são analisados os algoritmos bioinspirados modificados para incorporar o Estimador baseado em kernel (KDE-Kernel Density Estimator), e ao final, uma versão adaptada do OEP-ED é aplicada ao problema de equalização cega não linear seguindo o princípio PNL, onde também se verificam uma boa estimativa das fontes em cenários diversos de simulação

Teses
1
  • ROBERTO GUTIERREZ BERALDO
  • Métodos de regularização com aprendizagem profunda para solução do problema inverso de tomografia por impedância elétrica

  • Orientador : RICARDO SUYAMA
  • Data: 04/04/2024

  • Mostrar Resumo
  •  

    A tomografia por impedância elétrica é um problema inverso que visa obter informações de propriedades elétricas de uma região de interesse a partir apenas de medidas de tensão elétrica em torno dessa mesma região. Sendo um problema mal-posto, a sua discretização para solução computacional resulta em sistemas de equações mal-condicionados, instáveis na presença de ruídos e erros de modelagem. Uma forma de resolvê-lo é através do método de regularização, tratando-o como um problema de otimização e restringindo o espaço de soluções com informações a priori das soluções.

    A presente tese estuda a união dos paradigmas dos métodos de regularização e de aprendizagem profunda na reconstrução de imagens de tomografia por impedância elétrica. Especificamente, redes neurais convolucionais que realizam denoising e remoção de artefatos foram incluídas em algoritmos convencionais para reconstrução de imagens absolutas e imagens a diferenças. Foram considerados tanto os casos em que todos os eletrodos estão disponíveis, quanto o caso da progressiva desativação de eletrodos. As propostas apresentaram ganho de performance sem necessidade de um aumento expressivo do poder computacional, indicando o potencial que aprendizagem profunda pode trazer para a área de pesquisa de tomografia por impedância elétrica.

     

     


  • Mostrar Abstract
  •  

    A tomografia por impedância elétrica é um problema inverso que visa obter informações de propriedades elétricas de uma região de interesse a partir apenas de medidas de tensão elétrica em torno dessa mesma região. Sendo um problema mal-posto, a sua discretização para solução computacional resulta em sistemas de equações mal-condicionados, instáveis na presença de ruídos e erros de modelagem. Uma forma de resolvê-lo é através do método de regularização, tratando-o como um problema de otimização e restringindo o espaço de soluções com informações a priori das soluções.

    A presente tese estuda a união dos paradigmas dos métodos de regularização e de aprendizagem profunda na reconstrução de imagens de tomografia por impedância elétrica. Especificamente, redes neurais convolucionais que realizam denoising e remoção de artefatos foram incluídas em algoritmos convencionais para reconstrução de imagens absolutas e imagens a diferenças. Foram considerados tanto os casos em que todos os eletrodos estão disponíveis, quanto o caso da progressiva desativação de eletrodos. As propostas apresentaram ganho de performance sem necessidade de um aumento expressivo do poder computacional, indicando o potencial que aprendizagem profunda pode trazer para a área de pesquisa de tomografia por impedância elétrica.

     

     

2
  • MARCELO BEZERRA GRILO JÚNIOR
  • Separação Cega de Fontes Conjunta Aplicada a Sinais de EEG para Estudo de Reações Empáticas


  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 13/05/2024

  • Mostrar Resumo
  •  

    Esta tese explora a aplicação das técnicas de Separação Cega de Fontes (BSS – Blind Source Separation) e Separação Cega de Fontes Conjunta (JBSS – Joint Blind Source Separtion) no pré-processamento e na análise de sinais de EEG para reconhecimento de emoções, com foco na classificação de reações empáticas. Desenvolvemos um protocolo para a coleta de dados de EEG voltados para estudos emocionais a fim de verificar se uma pessoa apresenta atividade elétrica cerebral diferente dependendo de quem ela observa, não apenas em relação à situação emocional envolvida. Adicionalmente, avaliamos algoritmos de BSS quanto à sua eficácia na remoção de artefatos. Nesse contexto, exploramos a aplicação de algoritmos baseados na informação mútua incluindo o uso de estimadores baseados em kernel. Nossos resultados indicam uma melhoria significativa na acurácia da classificação de estados emocionais dependendo da função kernel utilizada, com o kernel Epanechnikov melhorando o desempenho em até 10% em relação ao algoritmo clássico SOBI e obtendo uma melhoria absoluta de 21% quando nenhuma remoção de artefato foi aplicada. Isso indica a importância da etapa da remoção de artefatos na melhora do desempenho da classificação de sinais de EEG. Outro objeto de estudo foram os métodos de JBSS, que em um cenário simulado mostraram a superioridade no desempenho de técnicas baseadas na Análise por Vetores Independentes (IVA – Independent Vector Analysis) quando comparado a técnicas baseadas em diagonalização conjunta de matrizes de correlação. Por fim, aplicamos o IVA em diferentes conjuntos de dados de sinais de EEG, tanto para extração de características, como no contexto de remoção de artefatos. Foi possível observar que o desempenho de técnicas de IVA depende muito do valor do passo de adaptação e do conjunto de dados sendo tratados simultaneamente. Concluímos que a remoção de artefatos é crucial para melhorar a classificação de reações empáticas em EEG, independente da forma como os dados são analisados. Para a classificação de reações empáticas, o JBSS pode ser inadequado devido à variabilidade individual na atividade elétrica cerebral, que dificulta a exploração de uma possível correlação entre sinais de diferentes sujeitos.



  • Mostrar Abstract
  •  

    Esta tese explora a aplicação das técnicas de Separação Cega de Fontes (BSS – Blind Source Separation) e Separação Cega de Fontes Conjunta (JBSS – Joint Blind Source Separtion) no pré-processamento e na análise de sinais de EEG para reconhecimento de emoções, com foco na classificação de reações empáticas. Desenvolvemos um protocolo para a coleta de dados de EEG voltados para estudos emocionais a fim de verificar se uma pessoa apresenta atividade elétrica cerebral diferente dependendo de quem ela observa, não apenas em relação à situação emocional envolvida. Adicionalmente, avaliamos algoritmos de BSS quanto à sua eficácia na remoção de artefatos. Nesse contexto, exploramos a aplicação de algoritmos baseados na informação mútua incluindo o uso de estimadores baseados em kernel. Nossos resultados indicam uma melhoria significativa na acurácia da classificação de estados emocionais dependendo da função kernel utilizada, com o kernel Epanechnikov melhorando o desempenho em até 10% em relação ao algoritmo clássico SOBI e obtendo uma melhoria absoluta de 21% quando nenhuma remoção de artefato foi aplicada. Isso indica a importância da etapa da remoção de artefatos na melhora do desempenho da classificação de sinais de EEG. Outro objeto de estudo foram os métodos de JBSS, que em um cenário simulado mostraram a superioridade no desempenho de técnicas baseadas na Análise por Vetores Independentes (IVA – Independent Vector Analysis) quando comparado a técnicas baseadas em diagonalização conjunta de matrizes de correlação. Por fim, aplicamos o IVA em diferentes conjuntos de dados de sinais de EEG, tanto para extração de características, como no contexto de remoção de artefatos. Foi possível observar que o desempenho de técnicas de IVA depende muito do valor do passo de adaptação e do conjunto de dados sendo tratados simultaneamente. Concluímos que a remoção de artefatos é crucial para melhorar a classificação de reações empáticas em EEG, independente da forma como os dados são analisados. Para a classificação de reações empáticas, o JBSS pode ser inadequado devido à variabilidade individual na atividade elétrica cerebral, que dificulta a exploração de uma possível correlação entre sinais de diferentes sujeitos.


3
  • CAROLINE PIRES ALAVEZ MORAES
  • Multifaceted Independent Vector Analysis for Brain Signal Processing

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 27/05/2024

  • Mostrar Resumo
  • A Separação Cega de Fontes Conjunta (JBSS, do inglês Joint Blind Source Separartion) é uma extensão do problema de Separação Cega de Fontes (BSS, do inglês Blind Source Separation) para múltiplos conjuntos de dados, sendo um importante tópico de pesquisa aplicado em muitas áreas devido à sua ampla versatilidade. Ao lidar com vários conjuntos de dados e explorar suas informações simultaneamente, esse método tem chamado a atenção dos pesquisadores na última década e ainda é um desafio. Entre os vários métodos possíveis no contexto de JBSS, a Análise de Vetores Independentes (IVA, do inglês Independent Vector Analysis) é uma abordagem interessante, uma vez que é baseada na Análise de Componentes Independentes (ICA, do inglês Independent Component Analysis) e explora a dependência estatística entre diferentes conjuntos de dados por meio do uso da Informação Mútua (Mutinf, do inglês Mutual Information). Este trabalho propõe três abordagens diferentes de IVA para lidar com sinais biomédicos, focando no paradigma de Imaginação Motora (MI, do inglês Motor Imagery) e uma possível extensão para o transtorno de Convulsões Epilépticas. Primeiramente, no contexto da classificação de MI com base em sinais de Eletroencefalograma (EEG, do inglês Electroencephalogram) para Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface), vários métodos tem sido propostos para extrair atributos de maneira eficiente, principalmente com base em Padrões Espaciais Comuns e Bancos de filtros. Nesse cenário, propomos uma abordagem original para extração de atributos no contexto de imagética motora, baseada na exploração da minimização da Mutinf por meio do IVA, seguida pelo uso de filtros Autorregressivos. Para a classificação dos movimentos imaginados, utilizamos alguns classificadores consolidados: Análise Discriminante Linear, Máquinas de Vetores de Suporte, K-Vizinhos Mais Próximos, e classificadores de aprendizagem profunda: EEGNet e EEG-Inception. Essa abordagem foi avaliada em dois conjuntos de dados de MI diferentes: BCI Competition IV - Dataset 1 (DS1) e BCI Competition III - Dataset 4a (DS4a). Na segunda abordagem, propomos uma aplicação inovadora de IVA como técnica de Aprendizado por Transferência para a classificação de MI. A exploração da dependência estatística entre os conjuntos de dados por meio da Mutinf poderia auxiliar na classificação de MI, uma vez que permite um tratamento genérico e homogêneo de todos os dados e uma possível transferência de conhecimento entre sujeitos/pacientes. Os resultados foram avaliados no conjunto de dados DS1, mostrando uma alta correlação e pequeno desvio padrão entre os sujeitos cruzados. Além disso, inspirados pelos resultados anteriores, na terceira abordagem, apresentamos os resultados para a técnica de agrupamento com um conjunto de dados epilépticos desenvolvido em colaboração com o Laboratório de Processamento de Sinais (LTS4, do inglês Signal Processing Laboratory 4) na École Polytechnique Fédérale de Lausanne (EPFL, do inglês Swiss Federal Institute of Technology in Lausanne), na Suíça.


  • Mostrar Abstract
  • A Separação Cega de Fontes Conjunta (JBSS, do inglês Joint Blind Source Separartion) é uma extensão do problema de Separação Cega de Fontes (BSS, do inglês Blind Source Separation) para múltiplos conjuntos de dados, sendo um importante tópico de pesquisa aplicado em muitas áreas devido à sua ampla versatilidade. Ao lidar com vários conjuntos de dados e explorar suas informações simultaneamente, esse método tem chamado a atenção dos pesquisadores na última década e ainda é um desafio. Entre os vários métodos possíveis no contexto de JBSS, a Análise de Vetores Independentes (IVA, do inglês Independent Vector Analysis) é uma abordagem interessante, uma vez que é baseada na Análise de Componentes Independentes (ICA, do inglês Independent Component Analysis) e explora a dependência estatística entre diferentes conjuntos de dados por meio do uso da Informação Mútua (Mutinf, do inglês Mutual Information). Este trabalho propõe três abordagens diferentes de IVA para lidar com sinais biomédicos, focando no paradigma de Imaginação Motora (MI, do inglês Motor Imagery) e uma possível extensão para o transtorno de Convulsões Epilépticas. Primeiramente, no contexto da classificação de MI com base em sinais de Eletroencefalograma (EEG, do inglês Electroencephalogram) para Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface), vários métodos tem sido propostos para extrair atributos de maneira eficiente, principalmente com base em Padrões Espaciais Comuns e Bancos de filtros. Nesse cenário, propomos uma abordagem original para extração de atributos no contexto de imagética motora, baseada na exploração da minimização da Mutinf por meio do IVA, seguida pelo uso de filtros Autorregressivos. Para a classificação dos movimentos imaginados, utilizamos alguns classificadores consolidados: Análise Discriminante Linear, Máquinas de Vetores de Suporte, K-Vizinhos Mais Próximos, e classificadores de aprendizagem profunda: EEGNet e EEG-Inception. Essa abordagem foi avaliada em dois conjuntos de dados de MI diferentes: BCI Competition IV - Dataset 1 (DS1) e BCI Competition III - Dataset 4a (DS4a). Na segunda abordagem, propomos uma aplicação inovadora de IVA como técnica de Aprendizado por Transferência para a classificação de MI. A exploração da dependência estatística entre os conjuntos de dados por meio da Mutinf poderia auxiliar na classificação de MI, uma vez que permite um tratamento genérico e homogêneo de todos os dados e uma possível transferência de conhecimento entre sujeitos/pacientes. Os resultados foram avaliados no conjunto de dados DS1, mostrando uma alta correlação e pequeno desvio padrão entre os sujeitos cruzados. Além disso, inspirados pelos resultados anteriores, na terceira abordagem, apresentamos os resultados para a técnica de agrupamento com um conjunto de dados epilépticos desenvolvido em colaboração com o Laboratório de Processamento de Sinais (LTS4, do inglês Signal Processing Laboratory 4) na École Polytechnique Fédérale de Lausanne (EPFL, do inglês Swiss Federal Institute of Technology in Lausanne), na Suíça.

4
  • JOYCE DE SOUZA ZANIRATO MAIA
  • Avaliação do Desempenho Escolar Brasileiro: uma abordagem com Modelos de Inteligência Artificial

  • Orientador : JOAO RICARDO SATO
  • Data: 04/06/2024

  • Mostrar Resumo
  • A Educação exerce um papel fundamental no desenvolvimento de um país, em sociedades que a priorizam são verificados baixos índices de criminalidade e maior estado de bem-estar.  De acordo com a teoria do capital humano, os efeitos da educação podem ser associados a um maior desenvolvimento econômico. No Brasil, apenas nas últimas décadas houve um maior progresso em termos educacionais, dada a implementação de novas leis e expansão na oferta de matrículas. Contudo, segundo as avaliações nacionais e internacionais, o desempenho acadêmico ainda é baixo, considerando o quanto se investe. Dado este cenário, torna-se necessário intervenções, por meio de políticas públicas, que considerem as reais necessidades de cada ciclo escolar da educação básica. Ademais, identifica-se que o Brasil dispõe de uma série de dados em Educação, obtidos por pesquisas governamentais, que no momento são pouco explorados, mas que possibilitariam uma melhor compreensão sobre a Educação no país. Desta forma, foi proposta a avaliação do desempenho educacional brasileiro utilizando modelos de Inteligência Artificial (IA), priorizando os modelos de melhor performance preditiva nas diferentes análises realizadas. Foi identificado que os modelos de IA possuem melhor desempenho (métricas de erro e coeficiente de determina) em relação aos modelos tradicionais, o que corrobora com a literatura. Além disso, foi caracterizado que a importância relativa das variáveis é distinta para cada nível escolar. Por fim, sugere-se que a elaboração de políticas públicas educacionais destinada à melhora do desempenho acadêmico escolar, considere os resultados de estudos que avaliam os dados educacionais disponíveis e se possível sob a perspectiva de IA. 



  • Mostrar Abstract
  • A Educação exerce um papel fundamental no desenvolvimento de um país, em sociedades que a priorizam são verificados baixos índices de criminalidade e maior estado de bem-estar.  De acordo com a teoria do capital humano, os efeitos da educação podem ser associados a um maior desenvolvimento econômico. No Brasil, apenas nas últimas décadas houve um maior progresso em termos educacionais, dada a implementação de novas leis e expansão na oferta de matrículas. Contudo, segundo as avaliações nacionais e internacionais, o desempenho acadêmico ainda é baixo, considerando o quanto se investe. Dado este cenário, torna-se necessário intervenções, por meio de políticas públicas, que considerem as reais necessidades de cada ciclo escolar da educação básica. Ademais, identifica-se que o Brasil dispõe de uma série de dados em Educação, obtidos por pesquisas governamentais, que no momento são pouco explorados, mas que possibilitariam uma melhor compreensão sobre a Educação no país. Desta forma, foi proposta a avaliação do desempenho educacional brasileiro utilizando modelos de Inteligência Artificial (IA), priorizando os modelos de melhor performance preditiva nas diferentes análises realizadas. Foi identificado que os modelos de IA possuem melhor desempenho (métricas de erro e coeficiente de determina) em relação aos modelos tradicionais, o que corrobora com a literatura. Além disso, foi caracterizado que a importância relativa das variáveis é distinta para cada nível escolar. Por fim, sugere-se que a elaboração de políticas públicas educacionais destinada à melhora do desempenho acadêmico escolar, considere os resultados de estudos que avaliam os dados educacionais disponíveis e se possível sob a perspectiva de IA. 


5
  • RAFAEL VINICIUS TAYETTE DA NOBREGA
  • Modelagem e Avaliação de Desempenho de Circuitos Osciladores Baseados em Diodos de Tunelamento Ressonante para Comunicação Sem Fio em Terahertz

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 06/06/2024

  • Mostrar Resumo
  • As futuras redes 6G proporcionarão novos mercados, serviços e indústrias, possibilitando uma infinidade de novas oportunidades e aplicações. Além disso, o 6G se beneficiará de tecnologias emergentes e disruptivas, como o sistema de comunicação sem fio em terahertz (THz). A banda THz (0,1–10 THz) vem recebendo uma atenção substancial devido seu amplo espectro não alocado, que viabiliza aplicações com grande largura de banda e alta capacidade. Felizmente, estes requisitos podem ser atendidos pelo diodo de tunelamento ressonante (RTD). Entretanto, suas potencias de saída são relativamente pequenas. Sendo assim, quando o RTD é empregado em transmissores, essa limitação prática impede o aumento do alcance de sistemas de comunicação sem fio. Assim, estudos buscando alternativas para aumentar a potência de saída do RTD continuam em desenvolvimento. Neste contexto, a presente tese objetiva-se a realização da modelagem analítica e avaliação de desempenho de circuitos osciladores em RTDs, para aplicação em sistemas de comunicação sem fio em THz. Para isso, desenvolvem-se modelagens numérica e analítica (simplificada) para a obtenção da atenuação atmosférica no canal. O modelo simplificado é composto por equações fechadas e tem validade no intervalo de 100 a 600 GHz. O modelo foi validado e comparado com vários modelos diferentes. Os resultados reproduzem corretamente os dados experimentais fornecidos, tornando o modelo de canal útil para avaliar o desempenho das redes THz. Na sequência, apresentam-se conceitos sobre o funcionamento dos circuitos baseados em RTDs, bem como suas principais figuras de mérito. Posteriormente, propõe-se um modelo compacto para caracterizar analiticamente circuitos osciladores baseados em RTDs. O modelo é formado por equações fechadas que descrevem o comportamento elétrico do dispositivo, considerando efeitos parasitas e sua degradação com o aumento da frequência de operação. Depois, o formalismo é validado e modelam-se diferentes circuitos osciladores. Com os resultados, os circuitos osciladores formados por um único RTD forneceram potências de saída de ate 5,0 mW em 300 GHz. Assim, o dispositivo modelado é um potencial candidato para aumentar a potência de saída das fontes no gap THz, principalmente no intervalo de frequência de 300 a 500 GHz, operando a temperatura ambiente. Logo a seguir, realiza-se a avaliação de desempenho de enlaces sem fio em ambiente externo, utilizando transmissores baseados em RTDs, sob diferentes condições climáticas adversas, tais como turbulência, chuva e erro de alinhamento entre antenas. À ferramenta analítica desenvolvida, combinam-se os efeitos determinísticos e aleatórios do canal de propagação, fornecendo assim equações fechadas para calcular a BER e a capacidade média do canal dos enlaces analisados. Portanto, após a validação do formalismo, aplica-se a ferramenta para modelar enlaces sem fio operando em 342 GHz. Agora, no ambito das aplicações em nanoescala, modelam-se circuitos osciladores baseados em RTDs de nanocoluna de GaAs/AlAs. Os resultados mostram que o sistema opera com nível ultra-baixo de potencia de consumo DC (160 nW), uma excelente eficiência de conversão DC-AC (2,4%) e taxa de dados da ordem de centena de Gb/s. Finalmente, o nanodispositivo pode ser usado em uma infinidade de aplicações nas futuras redes 6G, principalmente na área de saúde.



  • Mostrar Abstract
  • As futuras redes 6G proporcionarão novos mercados, serviços e indústrias, possibilitando uma infinidade de novas oportunidades e aplicações. Além disso, o 6G se beneficiará de tecnologias emergentes e disruptivas, como o sistema de comunicação sem fio em terahertz (THz). A banda THz (0,1–10 THz) vem recebendo uma atenção substancial devido seu amplo espectro não alocado, que viabiliza aplicações com grande largura de banda e alta capacidade. Felizmente, estes requisitos podem ser atendidos pelo diodo de tunelamento ressonante (RTD). Entretanto, suas potencias de saída são relativamente pequenas. Sendo assim, quando o RTD é empregado em transmissores, essa limitação prática impede o aumento do alcance de sistemas de comunicação sem fio. Assim, estudos buscando alternativas para aumentar a potência de saída do RTD continuam em desenvolvimento. Neste contexto, a presente tese objetiva-se a realização da modelagem analítica e avaliação de desempenho de circuitos osciladores em RTDs, para aplicação em sistemas de comunicação sem fio em THz. Para isso, desenvolvem-se modelagens numérica e analítica (simplificada) para a obtenção da atenuação atmosférica no canal. O modelo simplificado é composto por equações fechadas e tem validade no intervalo de 100 a 600 GHz. O modelo foi validado e comparado com vários modelos diferentes. Os resultados reproduzem corretamente os dados experimentais fornecidos, tornando o modelo de canal útil para avaliar o desempenho das redes THz. Na sequência, apresentam-se conceitos sobre o funcionamento dos circuitos baseados em RTDs, bem como suas principais figuras de mérito. Posteriormente, propõe-se um modelo compacto para caracterizar analiticamente circuitos osciladores baseados em RTDs. O modelo é formado por equações fechadas que descrevem o comportamento elétrico do dispositivo, considerando efeitos parasitas e sua degradação com o aumento da frequência de operação. Depois, o formalismo é validado e modelam-se diferentes circuitos osciladores. Com os resultados, os circuitos osciladores formados por um único RTD forneceram potências de saída de ate 5,0 mW em 300 GHz. Assim, o dispositivo modelado é um potencial candidato para aumentar a potência de saída das fontes no gap THz, principalmente no intervalo de frequência de 300 a 500 GHz, operando a temperatura ambiente. Logo a seguir, realiza-se a avaliação de desempenho de enlaces sem fio em ambiente externo, utilizando transmissores baseados em RTDs, sob diferentes condições climáticas adversas, tais como turbulência, chuva e erro de alinhamento entre antenas. À ferramenta analítica desenvolvida, combinam-se os efeitos determinísticos e aleatórios do canal de propagação, fornecendo assim equações fechadas para calcular a BER e a capacidade média do canal dos enlaces analisados. Portanto, após a validação do formalismo, aplica-se a ferramenta para modelar enlaces sem fio operando em 342 GHz. Agora, no ambito das aplicações em nanoescala, modelam-se circuitos osciladores baseados em RTDs de nanocoluna de GaAs/AlAs. Os resultados mostram que o sistema opera com nível ultra-baixo de potencia de consumo DC (160 nW), uma excelente eficiência de conversão DC-AC (2,4%) e taxa de dados da ordem de centena de Gb/s. Finalmente, o nanodispositivo pode ser usado em uma infinidade de aplicações nas futuras redes 6G, principalmente na área de saúde.


6
  • DENER EDSON OTTOLINI GUEDES DA SILVA
  • Uma arquitetura multi-camadas de gerenciamento de sistemas de internet das coisas fim a fim com nuvem, névoa e bruma 

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 19/08/2024

  • Mostrar Resumo
  • A gestão de soluções de Internet das Coisas (IoT) é uma tarefa complexa devido à sua distribuição e heterogeneidade inerentes. As abordagens tradicionais de gerenciamento de IoT frequentemente se concentram em dispositivos e conectividade, deixando de lado uma compreensão abrangente dos diversos componentes de software, hardware e comunicação que constituem uma solução baseada em IoT. Esta tese propõe uma nova arquitetura de gerenciamento de IoT em quatro camadas, denominada IoTManA, que abrange diversos aspectos de uma infraestrutura distribuída para gerenciar, controlar e monitorar componentes de software, hardware e comunicação, bem como fluxos e qualidade dos dados. A arquitetura fornece uma visão baseada em grafos multicamadas do caminho fim-a-fim entre os dispositivos e a nuvem. O IoTManA foi implementado em um conjunto de componentes de software denominado Sistema de Gerenciamento de IoT (IoTManS) e testado em diferentes cenários: Agricultura Inteligente e Cidades Inteligentes. Os resultados indicam que essa abordagem pode contribuir significativamente para lidar com a complexidade do gerenciamento de soluções IoT. A modelagem baseada em grafos acíclicos direcionados (DAGs) multicamadas do IoTManA facilita ao sistema de gerenciamento implementado (IoTManS). O uso de DAGs permite que o sistema tenha controle no relacionamento entre componentes de infraestrutura e software, permitindo ainda a detecção e identificação de causas-raiz de falhas tipicamente distribuídas em soluções de IoT. A arquitetura e o sistema utilizam microserviços responsáveis pela descoberta e exposição de capacidades no ambiente monitorado, além de técnicas de balanceamento de carga e de gestão FCAPs (Fault, Configuration, Accounting, Performance, Security), que permitem que o grafo se adapte dinamicamente às mudanças no ambiente gerenciado. Realizamos uma análise de desempenho do IoTManS com foco em dois aspectos: tempo de detecção de falhas e escalabilidade, para demonstrar cenários e recursos de aplicativos. Os resultados mostram que o IoTManS pode detectar e identificar a causa-raiz das falhas em tempos variando de 806ms a 90.036ms, dependendo do seu modo de operação, adaptando-se às diferentes necessidades de IoT. Além de validar a viabilidade da implementação da arquitetura, os experimentos também demonstram que a escalabilidade do IoTManS é diretamente proporcional à escalabilidade da plataforma IoT subjacente, gerenciando até 5.000 componentes simultaneamente. Por fim, discutimos os recursos que ainda podem ser implementados na arquitetura e nos sistemas propostos, destacando áreas para desenvolvimento futuro.


  • Mostrar Abstract
  • A gestão de soluções de Internet das Coisas (IoT) é uma tarefa complexa devido à sua distribuição e heterogeneidade inerentes. As abordagens tradicionais de gerenciamento de IoT frequentemente se concentram em dispositivos e conectividade, deixando de lado uma compreensão abrangente dos diversos componentes de software, hardware e comunicação que constituem uma solução baseada em IoT. Esta tese propõe uma nova arquitetura de gerenciamento de IoT em quatro camadas, denominada IoTManA, que abrange diversos aspectos de uma infraestrutura distribuída para gerenciar, controlar e monitorar componentes de software, hardware e comunicação, bem como fluxos e qualidade dos dados. A arquitetura fornece uma visão baseada em grafos multicamadas do caminho fim-a-fim entre os dispositivos e a nuvem. O IoTManA foi implementado em um conjunto de componentes de software denominado Sistema de Gerenciamento de IoT (IoTManS) e testado em diferentes cenários: Agricultura Inteligente e Cidades Inteligentes. Os resultados indicam que essa abordagem pode contribuir significativamente para lidar com a complexidade do gerenciamento de soluções IoT. A modelagem baseada em grafos acíclicos direcionados (DAGs) multicamadas do IoTManA facilita ao sistema de gerenciamento implementado (IoTManS). O uso de DAGs permite que o sistema tenha controle no relacionamento entre componentes de infraestrutura e software, permitindo ainda a detecção e identificação de causas-raiz de falhas tipicamente distribuídas em soluções de IoT. A arquitetura e o sistema utilizam microserviços responsáveis pela descoberta e exposição de capacidades no ambiente monitorado, além de técnicas de balanceamento de carga e de gestão FCAPs (Fault, Configuration, Accounting, Performance, Security), que permitem que o grafo se adapte dinamicamente às mudanças no ambiente gerenciado. Realizamos uma análise de desempenho do IoTManS com foco em dois aspectos: tempo de detecção de falhas e escalabilidade, para demonstrar cenários e recursos de aplicativos. Os resultados mostram que o IoTManS pode detectar e identificar a causa-raiz das falhas em tempos variando de 806ms a 90.036ms, dependendo do seu modo de operação, adaptando-se às diferentes necessidades de IoT. Além de validar a viabilidade da implementação da arquitetura, os experimentos também demonstram que a escalabilidade do IoTManS é diretamente proporcional à escalabilidade da plataforma IoT subjacente, gerenciando até 5.000 componentes simultaneamente. Por fim, discutimos os recursos que ainda podem ser implementados na arquitetura e nos sistemas propostos, destacando áreas para desenvolvimento futuro.

7
  • LEONARDO ALVES FERREIRA
  • Deep Image Prior para solução de problemas inversos em imageamento

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 30/08/2024

  • Mostrar Resumo
  • Deep Image Prior (DIP) é um método que introduziu uma nova forma de usar Redes Neurais Artificiais sem a necessidade de treinar seus parâmetros com um grande dataset. Esse método permite resolver problemas inversos na área de imagem usando apenas as medidas do caso a ser resolvido. Esta tese objetiva investigar se DIP é um método que vale a pena ser explorado para a solução de problemas inversos atuais na área de imagem. Testamos o método para a reconstruir imagens de Tomografia de Impedância Elétrica da cabeça humana, restaurar imagens de texto gravemente borradas, e reconstruir imagens de Tomografia Computadorizada de ângulo limitado. Também propomos modificações para a técnica objetivando melhorar sua performance. Nossos resultados mostraram que DIP atinge uma boa performance até mesmo para níveis moderadamente altos de degradação dos dados, superando métodos tradicionais e algumas implementações de algoritmos supervisionados de Deep Learning. Também conseguimos melhorar a performance da proposta original do método com nossas modificações. No entanto, não fomos capazes de alcançar a performance de métodos end-to-end de Deep Learning. Em conclusão, DIP é um método poderoso e versátil, sendo um bom candidato a ser explorado para resolver problemas inversos na área de imagens, sobretudo quando a obtenção de um grande dataset não é viável.

  • Mostrar Abstract
  • Deep Image Prior (DIP) é um método que introduziu uma nova forma de usar Redes Neurais Artificiais sem a necessidade de treinar seus parâmetros com um grande dataset. Esse método permite resolver problemas inversos na área de imagem usando apenas as medidas do caso a ser resolvido. Esta tese objetiva investigar se DIP é um método que vale a pena ser explorado para a solução de problemas inversos atuais na área de imagem. Testamos o método para a reconstruir imagens de Tomografia de Impedância Elétrica da cabeça humana, restaurar imagens de texto gravemente borradas, e reconstruir imagens de Tomografia Computadorizada de ângulo limitado. Também propomos modificações para a técnica objetivando melhorar sua performance. Nossos resultados mostraram que DIP atinge uma boa performance até mesmo para níveis moderadamente altos de degradação dos dados, superando métodos tradicionais e algumas implementações de algoritmos supervisionados de Deep Learning. Também conseguimos melhorar a performance da proposta original do método com nossas modificações. No entanto, não fomos capazes de alcançar a performance de métodos end-to-end de Deep Learning. Em conclusão, DIP é um método poderoso e versátil, sendo um bom candidato a ser explorado para resolver problemas inversos na área de imagens, sobretudo quando a obtenção de um grande dataset não é viável.
2023
Dissertações
1
  • LUCAS HENRIQUE GOIS DE CAMPOS
  • Análise da Correntropia com Kernel Epanechnikov em Equalização de Canais de Comunicação

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 30/01/2023

  • Mostrar Resumo
  • A equalização de canais baseada em aprendizagem por Teoria de Informação (ITL) tem o potencial de lidar com cenários onde técnicas clássicas apresentam dificuldades, como sinais correlacionados e canais não-lineares. No entanto, tais critérios necessitam de funções kernel para calcular as medidas utilizadas no processo de equalização. Na literatura, a função kernel comumente utilizada é a Gaussiana. Neste trabalho é proposto a utilização do kernel  Epanechnikov para estimar valores, assim é possível inferir como o  desempenho dos algoritmos é afetado com esta nova função.

    Dentro do contexto de ITL, temos o critério baseado na correntropia (COR), definida como uma medida de correlação generalizada que pode ser utilizada no processo de equalização do sinal, sendo particularmente interessante por conta das suas propriedades envolvendo a função  kernel e os momentos estatísticos considerados. Incluímos na análise o Correlation Retrieval (CR), que faz uso exclusivo de momentos estatísticos de segunda ordem. Através da modelagem e simulação do processo de equalização, discutimos as similaridades entre os critérios e os resultados obtidos.

    Além disso, estudamos os filtros adaptativos baseados em kernel (KAF - Kernel Adaptive Filter), que são interessantes pela sua capacidade de lidar com sistemas não-lineares, algo que os algoritmos clássicos não conseguem. Dentro deste contexto, incluímos a análise do Kernel Least-Mean-Square (KLMS) e o Kernel Maximum Correntropy (KMC), visando comparar o desempenho dos algoritmos em diversos cenários.


  • Mostrar Abstract
  • A equalização de canais baseada em aprendizagem por Teoria de Informação (ITL) tem o potencial de lidar com cenários onde técnicas clássicas apresentam dificuldades, como sinais correlacionados e canais não-lineares. No entanto, tais critérios necessitam de funções kernel para calcular as medidas utilizadas no processo de equalização. Na literatura, a função kernel comumente utilizada é a Gaussiana. Neste trabalho é proposto a utilização do kernel  Epanechnikov para estimar valores, assim é possível inferir como o  desempenho dos algoritmos é afetado com esta nova função.

    Dentro do contexto de ITL, temos o critério baseado na correntropia (COR), definida como uma medida de correlação generalizada que pode ser utilizada no processo de equalização do sinal, sendo particularmente interessante por conta das suas propriedades envolvendo a função  kernel e os momentos estatísticos considerados. Incluímos na análise o Correlation Retrieval (CR), que faz uso exclusivo de momentos estatísticos de segunda ordem. Através da modelagem e simulação do processo de equalização, discutimos as similaridades entre os critérios e os resultados obtidos.

    Além disso, estudamos os filtros adaptativos baseados em kernel (KAF - Kernel Adaptive Filter), que são interessantes pela sua capacidade de lidar com sistemas não-lineares, algo que os algoritmos clássicos não conseguem. Dentro deste contexto, incluímos a análise do Kernel Least-Mean-Square (KLMS) e o Kernel Maximum Correntropy (KMC), visando comparar o desempenho dos algoritmos em diversos cenários.

2
  • DANIEL FREITAS DE JESUS
  • Explorando o potencial da rede neural em histerese L2P, para previsões de energias intermitentes nos sistemas de Smartgrids

  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 28/03/2023

  • Mostrar Resumo
  • Usando uma função de ativação histerética e o modelo de histerese L2P, o estudo atual investiga a previsão de energia intermitente para melhorar as redes neurais. O objetivo deste estudo é demonstrar que as fontes de energia intermitentes têm um alto potencial para substituir as fontes não renováveis. Devido às flutuações de geração, as previsões são necessárias para atender com segurança e eficiência os mercados de oferta e demanda. À medida que redes distribuídas e redes inteligentes se tornam mais importantes no mix global de energia, modelos de previsão devem ser desenvolvidos e a importância da previsão para geração de rede inteligente avaliada. Um estudo prático de histerese revela que sua aplicação reduz erros de MSE, tornando-se uma ferramenta potencialmente útil. Vários fenômenos naturais e biológicos, como redes cerebrais biológicas e desenvolvimento da memória, exibem histerese, de acordo com uma revisão da literatura. Como o modelo utilizado em sua função de ativação é conhecido, os resultados confirmam a importância da predição em um cenário de fonte de alimentação e descrevem a rede neural e os neurônios de histerese L2P. A rede neural possui quatro parâmetros de configuração que podem ser usados para alterar a forma da curva de histerese, permitindo que ela seja mais flexível ao treinar e prever séries não lineares. Os gráficos contrastam três funções de ativação comuns usadas na previsão de séries temporais. Os valores da rede neural no experimento foram menores do que os do Simoid, RELU e Tangente Hiperbólica. No entanto, como há uma compensação de sobrecarga de processamento maior por previsão futura, um número maior de camadas é necessário para aproximar os valores de treinamento. Como a curva foi modelada por dados anteriores da rede neural, a histerese forneceu uma melhor aproximação. Por fim, mais dados de treinamento podem ajudá-lo a ter um desempenho melhor. A retropropagação e a descida do gradiente exigem que a rede atualize seus pesos em resposta aos dados previstos. Usando uma memória de atraso, a curva é atualizada com base no sinal neste método.


  • Mostrar Abstract
  • Usando uma função de ativação histerética e o modelo de histerese L2P, o estudo atual investiga a previsão de energia intermitente para melhorar as redes neurais. O objetivo deste estudo é demonstrar que as fontes de energia intermitentes têm um alto potencial para substituir as fontes não renováveis. Devido às flutuações de geração, as previsões são necessárias para atender com segurança e eficiência os mercados de oferta e demanda. À medida que redes distribuídas e redes inteligentes se tornam mais importantes no mix global de energia, modelos de previsão devem ser desenvolvidos e a importância da previsão para geração de rede inteligente avaliada. Um estudo prático de histerese revela que sua aplicação reduz erros de MSE, tornando-se uma ferramenta potencialmente útil. Vários fenômenos naturais e biológicos, como redes cerebrais biológicas e desenvolvimento da memória, exibem histerese, de acordo com uma revisão da literatura. Como o modelo utilizado em sua função de ativação é conhecido, os resultados confirmam a importância da predição em um cenário de fonte de alimentação e descrevem a rede neural e os neurônios de histerese L2P. A rede neural possui quatro parâmetros de configuração que podem ser usados para alterar a forma da curva de histerese, permitindo que ela seja mais flexível ao treinar e prever séries não lineares. Os gráficos contrastam três funções de ativação comuns usadas na previsão de séries temporais. Os valores da rede neural no experimento foram menores do que os do Simoid, RELU e Tangente Hiperbólica. No entanto, como há uma compensação de sobrecarga de processamento maior por previsão futura, um número maior de camadas é necessário para aproximar os valores de treinamento. Como a curva foi modelada por dados anteriores da rede neural, a histerese forneceu uma melhor aproximação. Por fim, mais dados de treinamento podem ajudá-lo a ter um desempenho melhor. A retropropagação e a descida do gradiente exigem que a rede atualize seus pesos em resposta aos dados previstos. Usando uma memória de atraso, a curva é atualizada com base no sinal neste método.

3
  • ALÍPIO MOREIRA MOTTA
  • Estudo do circuito de Chua com indutor não linear: Modelo de
    histerese L2P.

  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 18/05/2023

  • Mostrar Resumo
  • Este trabalho propõe o estudo e desenvolvimento de um ambiente de
    simulação computacional, que possibilita observar o comportamento de um
    circuito de Chua com a adição de um indutor não linear utilizando o
    modelo de histerese L2P. Para realizar isto, foi descrito em uma
    fundamentação teórica todo o funcionamento do circuito de Chua e sobre a
    aplicação do indutor não linear utilizando o modelo de histerese L2P.
    Desta forma, foi possível se obter os parâmetros utilizados na
    construção do circuito. Por fim, o projeto foi elaborado por meio de
    simulação em conjunto do circuito no software LTspice e de sua modelagem
    em linguagem Python, em que foi possível se observar a resposta do
    circuito com a geração do caos e sua resposta com o modelo de histerese
    L²P. Na simulação, é realizado a obtenção de dados necessários para a
    elaboração do circuito utilizando o LTspice, de modo que em seguida pôde
    ser feita a codificação do modelo desejado em linguagem Python, que por
    fim tornou possível a obtenção e a comparação das respostas do circuito
    com e sem a adição de um indutor não linear e a observação das mudanças
    que isso causa ao comportamento deste sistema caótico.


  • Mostrar Abstract
  • Este trabalho propõe o estudo e desenvolvimento de um ambiente de
    simulação computacional, que possibilita observar o comportamento de um
    circuito de Chua com a adição de um indutor não linear utilizando o
    modelo de histerese L2P. Para realizar isto, foi descrito em uma
    fundamentação teórica todo o funcionamento do circuito de Chua e sobre a
    aplicação do indutor não linear utilizando o modelo de histerese L2P.
    Desta forma, foi possível se obter os parâmetros utilizados na
    construção do circuito. Por fim, o projeto foi elaborado por meio de
    simulação em conjunto do circuito no software LTspice e de sua modelagem
    em linguagem Python, em que foi possível se observar a resposta do
    circuito com a geração do caos e sua resposta com o modelo de histerese
    L²P. Na simulação, é realizado a obtenção de dados necessários para a
    elaboração do circuito utilizando o LTspice, de modo que em seguida pôde
    ser feita a codificação do modelo desejado em linguagem Python, que por
    fim tornou possível a obtenção e a comparação das respostas do circuito
    com e sem a adição de um indutor não linear e a observação das mudanças
    que isso causa ao comportamento deste sistema caótico.

4
  • DEMETRIUS BARAHUNA GUIMARÃES BEZERRA
  • ESTUDO DO CIRCUITO DE CHUA COM INDUTOR NÃO LINEAR: MODELO DE HISTERESE DE PREISACH

  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 25/05/2023

  • Mostrar Resumo
  • Existem muitos estudos sobre sistemas caóticos devido a suas aplicações,
    um destes estudos é o circuito de Chua que prova que um sistema ativo
    simples pode gerar atrator caótico. Este trabalho propõe um novo estudo
    para o circuito de Chua por meio de simulações, e aplicando uma
    histerese de Preisach no indutor a fim de torna-lo não linear com a
    ideia de ainda gerar um atrator caótico. Para isso foi feita uma análise
    do circuito e foi criado um código para sua simulação em Python, esta
    simulação nos dá os gráficos das tensões nos capacitores, a corrente no
    induto o atrator caótico, a indutância e a histerese no indutor. Após
    isso, o circuito foi simulado com e sem o indutor não linear e depois os
    resultados de ambas simulações foram comparadas.


  • Mostrar Abstract
  • Existem muitos estudos sobre sistemas caóticos devido a suas aplicações,
    um destes estudos é o circuito de Chua que prova que um sistema ativo
    simples pode gerar atrator caótico. Este trabalho propõe um novo estudo
    para o circuito de Chua por meio de simulações, e aplicando uma
    histerese de Preisach no indutor a fim de torna-lo não linear com a
    ideia de ainda gerar um atrator caótico. Para isso foi feita uma análise
    do circuito e foi criado um código para sua simulação em Python, esta
    simulação nos dá os gráficos das tensões nos capacitores, a corrente no
    induto o atrator caótico, a indutância e a histerese no indutor. Após
    isso, o circuito foi simulado com e sem o indutor não linear e depois os
    resultados de ambas simulações foram comparadas.

5
  • SÂMYA CATTA PRÊTA SENA
  • Equalização Cega de Canais SIMO utilizando Autocodificadores Variacionais

  • Orientador : CLAUDIO JOSE BORDIN JUNIOR
  • Data: 23/06/2023

  • Mostrar Resumo
  • Os autocodificadores variacionais (VAEs) são redes neurais amplamente utilizadas em tarefas de aprendizado não supervisionado. Deduz-se neste trabalho uma extensão do algoritmo de equalização cega baseado em VAEs de Caciularu et al. para canais SIMO (Single-Input Multiple-Output). Propõe-se, ainda, uma formulação alternativa deste método com complexidade computacional reduzida. O desempenho dos algoritmos propostos foi avaliado através de simulações numéricas, que indicaram vantagens em relação a técnicas anteriores.


  • Mostrar Abstract
  • Os autocodificadores variacionais (VAEs) são redes neurais amplamente utilizadas em tarefas de aprendizado não supervisionado. Deduz-se neste trabalho uma extensão do algoritmo de equalização cega baseado em VAEs de Caciularu et al. para canais SIMO (Single-Input Multiple-Output). Propõe-se, ainda, uma formulação alternativa deste método com complexidade computacional reduzida. O desempenho dos algoritmos propostos foi avaliado através de simulações numéricas, que indicaram vantagens em relação a técnicas anteriores.

6
  • DEBORA BATISTA DA SILVA PAULO
  • Conexões e Contradições entre o Mundo Virtual e Real: Um Estudo da Relação entre o Twitter e o Big Brother Brasil

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 15/09/2023

  • Mostrar Resumo
  • A evolução da Internet e das Redes Sociais Online têm transformado a forma como as pessoas se relacionam e se comunicam. O advento da Internet abriu um novo mundo de possibilidades, permitindo a interação instantânea entre pessoas de diferentes lugares do mundo. Com o surgimento das Redes Sociais, essa interação se tornou ainda mais intensa e dinâmica, permitindo que as pessoas se conectem de forma rápida e fácil, compartilhem informações, ideias, interesses e opiniões. No entanto, essa nova realidade virtual tem gerado questionamentos sobre o comportamento das pessoas e como elas se relacionam nesse universo em relação às suas experiências tradicionais. Há muitos questionamentos se essa conexão virtual não estaria criando uma certa alienação social, levando as pessoas a se isolarem do mundo real e a se concentrarem apenas no universo virtual sem se preocupar com a consequência dos seus atos. Diante disso, este estudo se concentrou em identificar algum tipo de padrão que pudesse correlacionar as Conexões e Contradições entre o Mundo Virtual e Real, pois sugere que existem diferenças e tensões entre esses dois mundos. Para tanto, os dados coletados para análise foram extraídos da Rede Social Twitter, sobre o tema Big Brother Brasil 21 e 22, transmitido pela mídia televisiva Rede Globo. Como recursos, foram utilizadas API do Twitter, linguagem de programação Python, organização em Planilhas Eletrônicas, método estatístico da Correlação Linear de Pearson, modelagem em formato de Grafo para melhor visualização dos dados e tabelas e gráficos para melhor identificação e compreensão dos resultados. Ao investigar os dados sobre o comportamento das pessoas em um programa de televisão que, por sua natureza, pode gerar contrastes e conflitos entre a percepção virtual e a realidade, foi possível ter uma compreensão mais profunda sobre como as pessoas interagem em diferentes contextos e como a comunicação mediada por computador pode afetar a forma com que as emoções são expressas e percebidas. Pesquisas futuras são necessárias para ir além das limitações metodológicas e estatísticas utilizadas nesta pesquisa. O que pode concluir com propriedade é que analisar os dados produzidos pelas Redes Sociais Online é enriquecedor e podem promover a compreensão de como as interações humanas podem ser moldadas por meio delas, sejam no mundo real ou virtual.


  • Mostrar Abstract
  • A evolução da Internet e das Redes Sociais Online têm transformado a forma como as pessoas se relacionam e se comunicam. O advento da Internet abriu um novo mundo de possibilidades, permitindo a interação instantânea entre pessoas de diferentes lugares do mundo. Com o surgimento das Redes Sociais, essa interação se tornou ainda mais intensa e dinâmica, permitindo que as pessoas se conectem de forma rápida e fácil, compartilhem informações, ideias, interesses e opiniões. No entanto, essa nova realidade virtual tem gerado questionamentos sobre o comportamento das pessoas e como elas se relacionam nesse universo em relação às suas experiências tradicionais. Há muitos questionamentos se essa conexão virtual não estaria criando uma certa alienação social, levando as pessoas a se isolarem do mundo real e a se concentrarem apenas no universo virtual sem se preocupar com a consequência dos seus atos. Diante disso, este estudo se concentrou em identificar algum tipo de padrão que pudesse correlacionar as Conexões e Contradições entre o Mundo Virtual e Real, pois sugere que existem diferenças e tensões entre esses dois mundos. Para tanto, os dados coletados para análise foram extraídos da Rede Social Twitter, sobre o tema Big Brother Brasil 21 e 22, transmitido pela mídia televisiva Rede Globo. Como recursos, foram utilizadas API do Twitter, linguagem de programação Python, organização em Planilhas Eletrônicas, método estatístico da Correlação Linear de Pearson, modelagem em formato de Grafo para melhor visualização dos dados e tabelas e gráficos para melhor identificação e compreensão dos resultados. Ao investigar os dados sobre o comportamento das pessoas em um programa de televisão que, por sua natureza, pode gerar contrastes e conflitos entre a percepção virtual e a realidade, foi possível ter uma compreensão mais profunda sobre como as pessoas interagem em diferentes contextos e como a comunicação mediada por computador pode afetar a forma com que as emoções são expressas e percebidas. Pesquisas futuras são necessárias para ir além das limitações metodológicas e estatísticas utilizadas nesta pesquisa. O que pode concluir com propriedade é que analisar os dados produzidos pelas Redes Sociais Online é enriquecedor e podem promover a compreensão de como as interações humanas podem ser moldadas por meio delas, sejam no mundo real ou virtual.

7
  • GISELDA CRISTINA FERREIRA
  • “Covid-19 vs. Política e a Polarização no Twitter”




  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 21/11/2023

  • Mostrar Resumo
  • Nos últimos três anos, com a pandemia  da Covid-19, o movimento antivacina voltou a crescer, apoiados em teorias conspiratórias e informações falsas, disseminadas de diversas formas entre a população mundial. Neste contexto, a  pandemia da COVID-19 potencializou o movimento antivacina no Brasil, apoiado em teorias não científicas e notícias falsas e na possibilidade de ampla comunicação por meio de redes sociais como Twitter, Facebook e YouTube. A Organização Mundial da Saúde (OMS) classificou o grande volume de informações sobre o tema contra a COVID-19 como Infodemia. Neste artigo, apresentamos um protocolo para identificar usuários polarizadores (chamados de polarizadores) e estudar os perfis dos polarizadores brasileiros no Twitter (renomeado para X há algumas semanas). Analisamos as interações polarizadoras no Twitter (em português) para identificar os principais polarizadores e como os conflitos que eles causaram influenciaram a taxa de vacinação da COVID-19 ao longo da pandemia. Este protocolo usa dados desta rede social, teoria dos grafos, Java e scripts R-studio para modelar e analisar os dados. As informações sobre a taxa de vacinação foram obtidas em um banco de dados público do governo chamado OpenDataSus. Os resultados apresentam os perfis do Polarizador do Twitter (posição política, gênero, atividade profissional, opiniões sobre imunização). Observamos que os acontecimentos sociais e políticos influenciaram a participação desses diferentes perfis nos conflitos e na taxa de vacinação.


  • Mostrar Abstract
  • Nos últimos três anos, com a pandemia  da Covid-19, o movimento antivacina voltou a crescer, apoiados em teorias conspiratórias e informações falsas, disseminadas de diversas formas entre a população mundial. Neste contexto, a  pandemia da COVID-19 potencializou o movimento antivacina no Brasil, apoiado em teorias não científicas e notícias falsas e na possibilidade de ampla comunicação por meio de redes sociais como Twitter, Facebook e YouTube. A Organização Mundial da Saúde (OMS) classificou o grande volume de informações sobre o tema contra a COVID-19 como Infodemia. Neste artigo, apresentamos um protocolo para identificar usuários polarizadores (chamados de polarizadores) e estudar os perfis dos polarizadores brasileiros no Twitter (renomeado para X há algumas semanas). Analisamos as interações polarizadoras no Twitter (em português) para identificar os principais polarizadores e como os conflitos que eles causaram influenciaram a taxa de vacinação da COVID-19 ao longo da pandemia. Este protocolo usa dados desta rede social, teoria dos grafos, Java e scripts R-studio para modelar e analisar os dados. As informações sobre a taxa de vacinação foram obtidas em um banco de dados público do governo chamado OpenDataSus. Os resultados apresentam os perfis do Polarizador do Twitter (posição política, gênero, atividade profissional, opiniões sobre imunização). Observamos que os acontecimentos sociais e políticos influenciaram a participação desses diferentes perfis nos conflitos e na taxa de vacinação.

8
  • LUAN GONÇALVES MIRANDA
  • Detecção de Anomalias em Redes Utilizando Autoencoders

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 27/11/2023

  • Mostrar Resumo
  • Nas últimas décadas, houve um aumento significativo de dispositivos e sistemas conectados à internet, o que exige uma evolução contínua das estratégias de segurança cibernética devido à sensibilidade dos dados transmitidos por essas redes. Dentre as estratégias emergentes, os sistemas de detecção de intrusão têm ganhado destaque, particularmente uma subclasse chamada de sistema de detecção de anomalia (ADS, do inglês Anomaly Detection System), que detecta ameaças ao identificar anomalias em relação aos dados de tráfego normais da rede.
    A importância dos ADSs reside na capacidade de identificar ataques desconhecidos sem a necessidade de conhecimento prévio das suas características.


    Uma possível implementação de ADS que vêm sendo investigada é a que faz uso de algoritmos de aprendizado de máquina (ML, do inglês Machine Learning). No entanto, estes algoritmos precisam de dados para o seu treinamento, e é comum que dados de ataque estejam em um número menor que dados de tráfego normais, o que pode enviesar esses algoritmos. Assim, auto codificadores (AE, do inglês Autoencoders) têm sido empregados pelo fato de ser possível treiná-los com os dados de apenas uma classe, geralmente a majoritária. Parâmetros extraídos do AE, como o erro de reconstrução (RE, do inglês Reconstruction Error), podem ser utilizados para distinguir os dados normais de dados de ataques, o que geralmente é feito comparando-o com um limiar.
    A obtenção deste limiar pode ser feita através de diferentes critérios e depende geralmente de parâmetros que não são conhecidos e que precisam ser estimados. Exemplos vão desde valores simples, como média e variância, até funções mais complicadas, como distribuições de probabilidade e momentos estatísticos de ordens superiores.


    Esta dissertação, portanto, propõe uma estrutura conjunta de um AE e um classificador usando ML, este último com o objetivo de substituir o limiar de detecção. O uso de ML para a detecção também abre a possibilidade de se incluir outras características que podem ser obtidas com o AE, como os valores da camada intermediária, visando uma melhora na detecção dos ataques.
    Nesta dissertação, diversos cenários foram avaliados, combinando diferentes técnicas de ML e diferentes combinações de características. Os resultados mostram que há uma melhora na detecção de ataques em grande parte dos cenários ao se utilizar a estrutura proposta.


  • Mostrar Abstract
  • Nas últimas décadas, houve um aumento significativo de dispositivos e sistemas conectados à internet, o que exige uma evolução contínua das estratégias de segurança cibernética devido à sensibilidade dos dados transmitidos por essas redes. Dentre as estratégias emergentes, os sistemas de detecção de intrusão têm ganhado destaque, particularmente uma subclasse chamada de sistema de detecção de anomalia (ADS, do inglês Anomaly Detection System), que detecta ameaças ao identificar anomalias em relação aos dados de tráfego normais da rede.
    A importância dos ADSs reside na capacidade de identificar ataques desconhecidos sem a necessidade de conhecimento prévio das suas características.


    Uma possível implementação de ADS que vêm sendo investigada é a que faz uso de algoritmos de aprendizado de máquina (ML, do inglês Machine Learning). No entanto, estes algoritmos precisam de dados para o seu treinamento, e é comum que dados de ataque estejam em um número menor que dados de tráfego normais, o que pode enviesar esses algoritmos. Assim, auto codificadores (AE, do inglês Autoencoders) têm sido empregados pelo fato de ser possível treiná-los com os dados de apenas uma classe, geralmente a majoritária. Parâmetros extraídos do AE, como o erro de reconstrução (RE, do inglês Reconstruction Error), podem ser utilizados para distinguir os dados normais de dados de ataques, o que geralmente é feito comparando-o com um limiar.
    A obtenção deste limiar pode ser feita através de diferentes critérios e depende geralmente de parâmetros que não são conhecidos e que precisam ser estimados. Exemplos vão desde valores simples, como média e variância, até funções mais complicadas, como distribuições de probabilidade e momentos estatísticos de ordens superiores.


    Esta dissertação, portanto, propõe uma estrutura conjunta de um AE e um classificador usando ML, este último com o objetivo de substituir o limiar de detecção. O uso de ML para a detecção também abre a possibilidade de se incluir outras características que podem ser obtidas com o AE, como os valores da camada intermediária, visando uma melhora na detecção dos ataques.
    Nesta dissertação, diversos cenários foram avaliados, combinando diferentes técnicas de ML e diferentes combinações de características. Os resultados mostram que há uma melhora na detecção de ataques em grande parte dos cenários ao se utilizar a estrutura proposta.

9
  • FELIPE AUGUSTO DOS SANTOS TAVARES
  • Avaliação de Desempenho de Redes Ópticas com Uso de Segmentação de Rotas, Conversores Ópticos de Comprimentos de Onda de Banda Larga e Acréscimo de Fibras
  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 19/12/2023

  • Mostrar Resumo
  • As redes ópticas são atualmente o principal meio de comunicação de alta velocidade sendo amplamente utilizadas nos backbones de operadoras de telecomunicação. O uso crescente de tecnologias como 5G e até mesmo o surgimento do 6G trazem a perspectiva de um aumento da demanda por maiores taxas de bit. Porém as redes atuais têm algumas limitações que são inerentes à atual arquitetura das redes WDM. Esse trabalho tem como objetivo propor uma abordagem de utilização de segmentação de rotas, a adição de conversores de comprimento de onda de banda larga e o acréscimo de fibras em rotas selecionadas, como formas de melhorar a performance de redes ópticas. A possibilidade de conversão óptica do comprimento de onda tanto por meio da segmentação quanto pelo uso de conversores ópticos trouxe como resultado uma melhoria de indicadores como a razão de bloqueio de conexões e a utilização da rede, porém o principal vantagem do uso dessas técnicas é a possibilidade de acréscimo na taxa de bits total que a rede é capaz de prover.


  • Mostrar Abstract
  • As redes ópticas são atualmente o principal meio de comunicação de alta velocidade sendo amplamente utilizadas nos backbones de operadoras de telecomunicação. O uso crescente de tecnologias como 5G e até mesmo o surgimento do 6G trazem a perspectiva de um aumento da demanda por maiores taxas de bit. Porém as redes atuais têm algumas limitações que são inerentes à atual arquitetura das redes WDM. Esse trabalho tem como objetivo propor uma abordagem de utilização de segmentação de rotas, a adição de conversores de comprimento de onda de banda larga e o acréscimo de fibras em rotas selecionadas, como formas de melhorar a performance de redes ópticas. A possibilidade de conversão óptica do comprimento de onda tanto por meio da segmentação quanto pelo uso de conversores ópticos trouxe como resultado uma melhoria de indicadores como a razão de bloqueio de conexões e a utilização da rede, porém o principal vantagem do uso dessas técnicas é a possibilidade de acréscimo na taxa de bits total que a rede é capaz de prover.

Teses
1
  • AMANDA YUMI AMBRIOLA OKU
  •  

    Modelos de aprendizagem de máquinas e teoria de grafos em dados de Espectroscopia Funcional no Infravermelho Próximo aplicados a educação de STEM

  • Orientador : JOAO RICARDO SATO
  • Data: 22/05/2023

  • Mostrar Resumo
  • Este trabalho apresenta o uso da técnica de espectroscopia funcional de infravermelho próximo (fNIRS) para pesquisa educacional. A técnica de fNIRS permite o estudo de aspectos cognitivos envolvidos na aprendizagem e a identificação de padrões na atividade cerebral. O estudo propõe novos métodos para analisar dados do ensino de STEM (Ciência, Tecnologia, Engenharias e Matemática) em diferentes estágios da educação: educação infantil, ensino básico e educação superior. Para isso, foram utilizados métodos de aprendizado de máquinas (Floresta Aleatória e Regressão Logística com LASSO) para prever o desempenho dos alunos de ensino superior em aula virutal e também foram utilizadas medidas de teoria dos grafos para estudar as interações entre professores e alunos de educação básica e infantil. Dentre os resultados obtidos, foi observado que  possível detectar níveis de engajamento de alunos em tarefas bem como distinguir métodos de ensino expositivo e interativo na interação de alunos com professor. Esses resultados permitem afirmar a necessidade de metodologias mais ativas para aprendizagem e avaliar a importância da interação professor e aluno.


  • Mostrar Abstract
  • Este trabalho apresenta o uso da técnica de espectroscopia funcional de infravermelho próximo (fNIRS) para pesquisa educacional. A técnica de fNIRS permite o estudo de aspectos cognitivos envolvidos na aprendizagem e a identificação de padrões na atividade cerebral. O estudo propõe novos métodos para analisar dados do ensino de STEM (Ciência, Tecnologia, Engenharias e Matemática) em diferentes estágios da educação: educação infantil, ensino básico e educação superior. Para isso, foram utilizados métodos de aprendizado de máquinas (Floresta Aleatória e Regressão Logística com LASSO) para prever o desempenho dos alunos de ensino superior em aula virutal e também foram utilizadas medidas de teoria dos grafos para estudar as interações entre professores e alunos de educação básica e infantil. Dentre os resultados obtidos, foi observado que  possível detectar níveis de engajamento de alunos em tarefas bem como distinguir métodos de ensino expositivo e interativo na interação de alunos com professor. Esses resultados permitem afirmar a necessidade de metodologias mais ativas para aprendizagem e avaliar a importância da interação professor e aluno.

2
  • GIULIO GUIYTI ROSSIGNOLO SUZUMURA
  • Uma Abordagem Alternativa para Avaliação de Sinais de Áudio Baseada em Métricas de Processamento de Imagens

  • Orientador : RICARDO SUYAMA
  • Data: 31/05/2023

  • Mostrar Resumo
  • A avaliação de sinais de áudio é geralmente realizada utilizando diferentes técnicas, como análise de domínio temporal, frequência ou tempo-frequência. No entanto, explorar a avaliação do sinal de áudio a partir do conceito de nitidez em imagens, que geralmente está associado a contornos e bordas, apresenta uma abordagem interessante e potencialmente inovadora. Este trabalho investiga as características de bordas e contornos em domínios transformados dos sinais de áudio e sua correlação com a relação sinal-ruído (SNR). A pesquisa envolveu a degradação e avaliação de fontes sonoras de maneiras específicas, analisando a conexão entre as bordas de diferentes representações e a SNR dos sinais, empregando transformação de domínio tempo-frequência e processos de suavização de escala para transpor o conceito de nitidez. Embora a metodologia tenha alcançado um primeiro objetivo ao avaliar sinais ruidosos, não apresentou vantagens significativas sobre uma avaliação referência. Portanto, foi investigado a aplicação da metodologia na avaliação de sinais misturados, comparando-a com outras abordagens e avaliando sua eficácia na separação de sinais. Os resultados indicam que a metodologia é menos susceptível aos diferentes tipos de fontes misturadas e, consequentemente, sua aplicação permite obter matrizes estimadas mais próximas das matrizes de mistura em comparação com as medidas de referência. Contudo, considerando a abrangência e diversidade do problema de separação de sinais, futuras investigações ainda devem ser realizadas para expandir o conhecimento sobre a aplicação do conceito de nitidez de imagens em sinais de áudio. Além disso, a metodologia oferece potencial para explorar e desenvolver outras técnicas de processamento de imagens no contexto dos sinais de áudio transformados.


  • Mostrar Abstract
  • A avaliação de sinais de áudio é geralmente realizada utilizando diferentes técnicas, como análise de domínio temporal, frequência ou tempo-frequência. No entanto, explorar a avaliação do sinal de áudio a partir do conceito de nitidez em imagens, que geralmente está associado a contornos e bordas, apresenta uma abordagem interessante e potencialmente inovadora. Este trabalho investiga as características de bordas e contornos em domínios transformados dos sinais de áudio e sua correlação com a relação sinal-ruído (SNR). A pesquisa envolveu a degradação e avaliação de fontes sonoras de maneiras específicas, analisando a conexão entre as bordas de diferentes representações e a SNR dos sinais, empregando transformação de domínio tempo-frequência e processos de suavização de escala para transpor o conceito de nitidez. Embora a metodologia tenha alcançado um primeiro objetivo ao avaliar sinais ruidosos, não apresentou vantagens significativas sobre uma avaliação referência. Portanto, foi investigado a aplicação da metodologia na avaliação de sinais misturados, comparando-a com outras abordagens e avaliando sua eficácia na separação de sinais. Os resultados indicam que a metodologia é menos susceptível aos diferentes tipos de fontes misturadas e, consequentemente, sua aplicação permite obter matrizes estimadas mais próximas das matrizes de mistura em comparação com as medidas de referência. Contudo, considerando a abrangência e diversidade do problema de separação de sinais, futuras investigações ainda devem ser realizadas para expandir o conhecimento sobre a aplicação do conceito de nitidez de imagens em sinais de áudio. Além disso, a metodologia oferece potencial para explorar e desenvolver outras técnicas de processamento de imagens no contexto dos sinais de áudio transformados.

3
  • DANIEL HENRIQUE MIGUEL DE SOUZA
  • Detecção de Fraudes em Operações com Cartões de Crédito: uma Abordagem de Aprendizado de Máquina

  • Orientador : CLAUDIO JOSE BORDIN JUNIOR
  • Data: 06/06/2023

  • Mostrar Resumo
  • Neste trabalho, é analisado o problema de aprendizado de máquina supervisionado e suas aplicações no reconhecimento de transações fraudulentas em pagamentos com cartão de crédito. Primeiramente, é discutido o conceito de fraude em meios de pagamento, suas consequências e a importância de detectar esse tipo de transação para mitigar riscos. Em seguida, são apresentados problemas de aprendizado de máquina supervisionado e não-supervisionado, bem como os principais algoritmos utilizados (como Redes Bayesianas, Redes Neurais, Árvores de Decisão e K-Means), suas aplicações, implementação computacional e métodos de avaliação de desempenho.

    Em seguida, são descritas metodologias para combinação de algoritmos de aprendizado de máquina, com destaque para a agregação de classificadores e a combinação de métodos de aprendizado supervisionado e não-supervisionado (Mixed Learning). Como principais contribuições deste trabalho, destacam-se os novos algoritmos CC-OR, CCK-VM e CCK-OR, baseados em uma nova função para agregação de classificadores, aliada ao conceito de Mixed Learning, além de uma variação do algoritmo K-Nearest Neighbors adaptado para dados desbalanceados.

    Para avaliar os diferentes estimadores, foram comparados os principais classificadores da literatura, operando individualmente e agregados por meio de voto majoritário, bem como os algoritmos propostos neste trabalho, avaliando-se o desempenho dos mesmos na detecção de operações fraudulentas. Foram realizadas simulações numéricas por meio de programas escritos em Python, utilizando dados reais e sintéticos, as quais revelaram ganhos no uso dos métodos propostos quando comparados com o estado da arte da área.


  • Mostrar Abstract
  • Neste trabalho, é analisado o problema de aprendizado de máquina supervisionado e suas aplicações no reconhecimento de transações fraudulentas em pagamentos com cartão de crédito. Primeiramente, é discutido o conceito de fraude em meios de pagamento, suas consequências e a importância de detectar esse tipo de transação para mitigar riscos. Em seguida, são apresentados problemas de aprendizado de máquina supervisionado e não-supervisionado, bem como os principais algoritmos utilizados (como Redes Bayesianas, Redes Neurais, Árvores de Decisão e K-Means), suas aplicações, implementação computacional e métodos de avaliação de desempenho.

    Em seguida, são descritas metodologias para combinação de algoritmos de aprendizado de máquina, com destaque para a agregação de classificadores e a combinação de métodos de aprendizado supervisionado e não-supervisionado (Mixed Learning). Como principais contribuições deste trabalho, destacam-se os novos algoritmos CC-OR, CCK-VM e CCK-OR, baseados em uma nova função para agregação de classificadores, aliada ao conceito de Mixed Learning, além de uma variação do algoritmo K-Nearest Neighbors adaptado para dados desbalanceados.

    Para avaliar os diferentes estimadores, foram comparados os principais classificadores da literatura, operando individualmente e agregados por meio de voto majoritário, bem como os algoritmos propostos neste trabalho, avaliando-se o desempenho dos mesmos na detecção de operações fraudulentas. Foram realizadas simulações numéricas por meio de programas escritos em Python, utilizando dados reais e sintéticos, as quais revelaram ganhos no uso dos métodos propostos quando comparados com o estado da arte da área.

4
  • CARLOS ALVES MOREIRA
  • Magre-II: Predizendo, por meio de Aprendizagem de Máquina, Regiões em Proteínas com tendência à Agregação utilizando  Estrutura Terciária

  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 15/06/2023

  • Mostrar Resumo
  • A A expectativa de vida global está aumentando, mas junto com esse aumento, observa-se um aumento na incidência de doenças neurodegenerativas, como Parkinson, Alzheimer, Esclerose Lateral Amiotrófica, Diabetes Tipo II, doença de Huntington e Atrofia Muscular Espinhal. Embora muitas pesquisas tenham sido realizadas nessa área, ainda não temos um entendimento completo das bases moleculares dessas doenças. Estudos recentes sugerem que essas doenças estão relacionadas a alterações nas proteínas, que desempenham um papel crucial nos processos biológicos, dependendo de sua estrutura tridimensional (3D) ou conformação nativa. Pesquisas recentes sugerem que segmentos curtos de aminoácidos presentes em proteínas precursoras de amiloide podem desempenhar um papel no desenvolvimento dessas agregações, tornando essas regiões alvos promissores para investigações futuras. Um dos desafios atuais na área de bioinformática é desenvolver métodos precisos de predição de regiões propensas à agregação. Em trabalhos anteriores, utilizamos técnicas de aprendizado de máquina para desenvolver o Magre-I, um método que permitiu a predição de regiões de agregação com base na sequência primária de aminoácidos das proteínas, usando um modelo de consenso para classificação. Agora, apresentamos o Magre-II, uma abordagem aprimorada que utiliza anotações experimentais de agregação e informações da estrutura tridimensional (3D) das proteínas, empregando um modelo estático para realizar as previsões. Comparando-o com outros preditores amplamente utilizados, demonstramos que o Magre-II possui um alto potencial como um preditor preciso de regiões propensas à agregação. A integração de informações experimentais de agregação e estrutura 3D das proteínas oferece uma abordagem mais abrangente e confiável para a predição dessas regiões críticas. Essa metodologia pode auxiliar não apenas na compreensão dos mecanismos moleculares envolvidos na agregação protéica, mas também na identificação de potenciais alvos terapêuticos e no desenvolvimento de estratégias de intervenção mais eficazes. Em resumo, o Magre-II representa uma contribuição significativa para o campo da bioinformática e estudos relacionados à agregação de proteínas. Sua capacidade de prever regiões propensas à agregação com base em informações experimentais de agregação e estrutura 3D o torna uma ferramenta valiosa para investigações futuras e pode impulsionar avanços significativos no entendimento e tratamento de doenças neurodegenerativas e outras patologias associadas à agregação proteica.


  • Mostrar Abstract
  • A A expectativa de vida global está aumentando, mas junto com esse aumento, observa-se um aumento na incidência de doenças neurodegenerativas, como Parkinson, Alzheimer, Esclerose Lateral Amiotrófica, Diabetes Tipo II, doença de Huntington e Atrofia Muscular Espinhal. Embora muitas pesquisas tenham sido realizadas nessa área, ainda não temos um entendimento completo das bases moleculares dessas doenças. Estudos recentes sugerem que essas doenças estão relacionadas a alterações nas proteínas, que desempenham um papel crucial nos processos biológicos, dependendo de sua estrutura tridimensional (3D) ou conformação nativa. Pesquisas recentes sugerem que segmentos curtos de aminoácidos presentes em proteínas precursoras de amiloide podem desempenhar um papel no desenvolvimento dessas agregações, tornando essas regiões alvos promissores para investigações futuras. Um dos desafios atuais na área de bioinformática é desenvolver métodos precisos de predição de regiões propensas à agregação. Em trabalhos anteriores, utilizamos técnicas de aprendizado de máquina para desenvolver o Magre-I, um método que permitiu a predição de regiões de agregação com base na sequência primária de aminoácidos das proteínas, usando um modelo de consenso para classificação. Agora, apresentamos o Magre-II, uma abordagem aprimorada que utiliza anotações experimentais de agregação e informações da estrutura tridimensional (3D) das proteínas, empregando um modelo estático para realizar as previsões. Comparando-o com outros preditores amplamente utilizados, demonstramos que o Magre-II possui um alto potencial como um preditor preciso de regiões propensas à agregação. A integração de informações experimentais de agregação e estrutura 3D das proteínas oferece uma abordagem mais abrangente e confiável para a predição dessas regiões críticas. Essa metodologia pode auxiliar não apenas na compreensão dos mecanismos moleculares envolvidos na agregação protéica, mas também na identificação de potenciais alvos terapêuticos e no desenvolvimento de estratégias de intervenção mais eficazes. Em resumo, o Magre-II representa uma contribuição significativa para o campo da bioinformática e estudos relacionados à agregação de proteínas. Sua capacidade de prever regiões propensas à agregação com base em informações experimentais de agregação e estrutura 3D o torna uma ferramenta valiosa para investigações futuras e pode impulsionar avanços significativos no entendimento e tratamento de doenças neurodegenerativas e outras patologias associadas à agregação proteica.

5
  • SELMA REGINA CARLOTO MARTINS GUEDES ROSSINI
  • DISCRIMINAÇÃO ALGORÍTMICA EM PROCESSOS SELETIVOS ELETRÔNICOS E UMA METODOLOGIA PARA ELIMINAÇÃO DE VIESES DISCRIMINATÓRIOS

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 21/07/2023

  • Mostrar Resumo
  • Em virtude dos avanços da tecnologia, as empresas estão, cada vez mais, adotando sistemas de Inteligência Artificial (IA) em seus departamentos, incluindo Recursos Humanos (RH) e Recrutamento e Seleção. No entanto, constata-se que aumentam os riscos de violações aos direitos humanos e fundamentais, principalmente por meio de discriminação algorítmica, quando vieses e estereótipos são reproduzidos. A metodologia adotada nesta tese envolveu a revisão de artigos técnicos da engenharia e computação, juntamente com a análise jurídica comparativa, abrangendo a legislação brasileira e a União Europeia, que é mais avançada nesse tema. Além disso, foram realizados estudos de casos com análise técnica e jurídica dos vieses discriminatórios e estereótipos, considerando a Lei Geral de Proteção de Dados (LGPD) e o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, em diálogo interdisciplinar com outras áreas, como a filosofia. Foi desenvolvido um algoritmo de Recrutamento e Seleção e foram avaliadas métricas estatísticas relacionadas à discriminação. Também foi realizado o teste t-student para analisar diferenças estatisticamente significativas entre grupos. Com base nos resultados e análises obtidos, foi proposta uma metodologia em quatro fases para eliminar vieses discriminatórios nos processos seletivos eletrônicos. Essa metodologia inclui a implementação de ferramentas de compliance trabalhista para eliminar vieses históricos, a utilização de algoritmos que não tratam dados sensíveis, a validação da não discriminação algorítmica por meio de métricas estatísticas e a adoção de ações afirmativas, quando necessário.




  • Mostrar Abstract
  • Em virtude dos avanços da tecnologia, as empresas estão, cada vez mais, adotando sistemas de Inteligência Artificial (IA) em seus departamentos, incluindo Recursos Humanos (RH) e Recrutamento e Seleção. No entanto, constata-se que aumentam os riscos de violações aos direitos humanos e fundamentais, principalmente por meio de discriminação algorítmica, quando vieses e estereótipos são reproduzidos. A metodologia adotada nesta tese envolveu a revisão de artigos técnicos da engenharia e computação, juntamente com a análise jurídica comparativa, abrangendo a legislação brasileira e a União Europeia, que é mais avançada nesse tema. Além disso, foram realizados estudos de casos com análise técnica e jurídica dos vieses discriminatórios e estereótipos, considerando a Lei Geral de Proteção de Dados (LGPD) e o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, em diálogo interdisciplinar com outras áreas, como a filosofia. Foi desenvolvido um algoritmo de Recrutamento e Seleção e foram avaliadas métricas estatísticas relacionadas à discriminação. Também foi realizado o teste t-student para analisar diferenças estatisticamente significativas entre grupos. Com base nos resultados e análises obtidos, foi proposta uma metodologia em quatro fases para eliminar vieses discriminatórios nos processos seletivos eletrônicos. Essa metodologia inclui a implementação de ferramentas de compliance trabalhista para eliminar vieses históricos, a utilização de algoritmos que não tratam dados sensíveis, a validação da não discriminação algorítmica por meio de métricas estatísticas e a adoção de ações afirmativas, quando necessário.



6
  • DOUGLAS CANONE GARCIA
  •  

    “Classificação de Biosinais de Eletrofisiologia Não Invasiva (sEMG e EEG): Uma Proposta Unificada de Processamento

  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 01/08/2023

  • Mostrar Resumo
  • Com o objetivo de desenvolver interfaces que permitam maior independência a pessoas acometidas por limitações motoras, foi desenvolvido o conceito de Interface Cérebro-Máquina (BCI) que propõe o desenvolvimento de dispositivos de tecnologia assistiva utilizando a análise de sinais produzidos pelo cérebro. Motivado pelas limitações do BCI, foi desenvolvido o conceito de Interface Cérebro-Máquina híbrida (hBCI), onde através da fusão entre sinais cerebrais e biosinais obtidos de outras partes do corpo, é possível compor um sistema híbrido com potencial de maximizar resultados de classificação de comandos. Esta tese fundamenta-se na revisão de artigos relacionados aos avanços do hBCI nos últimos 12 anos, apresentando um cenário de pesquisa multifacetado onde pesquisadores desenvolvem algoritmos e apresentam soluções de difícil reprodução devido ao baixo índice de compartilhamento de bases de dados. Com o objetivo de contribuir para o desenvolvimento de um cenário de pesquisa mais prolífico no âmbito do hBCI, neste trabalho foram utilizadas duas bases de dados públicas: Multimodal Signal Dataset (MMSD), onde são registrados biosinais de EEG e sEMG em sincronia com a execução de movimentos previamente estabelecidos, e BCI Competition IV (dataset 2a), utilizada para validação. A principal contribuição científica desta tese é o desenvolvimento de um mesmo e único pipeline de processamento de biosinais, com potencial de classificar tanto sinais eletroencefalográficos (EEG) como sinais eletromiográficos (sEMG), captados (de forma não invasiva) respectivamente sobre a superfície do escalpo e da pele. O pipeline de processamento desenvolvido nesta tese faz uso de um sistema de extração de características de biosinais denominado FBRCSP (Filter Bank Regularized Common Spatial Pattern), que permite a seleção de características de biosinais de EEG e sEMG através da técnica NCA (Neighborhood Component Analysis), que por sua vez possibilita a classificação dos biosinais através da técnica de Support Vectors Machine (SVM), onde são usadas as métricas de classificação Accuracy e Kappa de Cohen para avaliação de desempenho. Os resultados obtidos para os sinais de EEG da base de dados BCI Competition IV (dataset 2a) superam os resultados de classificação alcançados através do uso de abordagens clássicas de aprendizado de máquina, divulgados em periódicos científicos nos últimos 12 anos. O mesmo pipeline de processamento foi aplicado aos sinais de sEMG da base de dados MMSD, permitindo classificar grupos de movimentos com uma acurácia média entre sujeitos de 84,5%, e com Kappa médio de 0,722.


  • Mostrar Abstract
  • Com o objetivo de desenvolver interfaces que permitam maior independência a pessoas acometidas por limitações motoras, foi desenvolvido o conceito de Interface Cérebro-Máquina (BCI) que propõe o desenvolvimento de dispositivos de tecnologia assistiva utilizando a análise de sinais produzidos pelo cérebro. Motivado pelas limitações do BCI, foi desenvolvido o conceito de Interface Cérebro-Máquina híbrida (hBCI), onde através da fusão entre sinais cerebrais e biosinais obtidos de outras partes do corpo, é possível compor um sistema híbrido com potencial de maximizar resultados de classificação de comandos. Esta tese fundamenta-se na revisão de artigos relacionados aos avanços do hBCI nos últimos 12 anos, apresentando um cenário de pesquisa multifacetado onde pesquisadores desenvolvem algoritmos e apresentam soluções de difícil reprodução devido ao baixo índice de compartilhamento de bases de dados. Com o objetivo de contribuir para o desenvolvimento de um cenário de pesquisa mais prolífico no âmbito do hBCI, neste trabalho foram utilizadas duas bases de dados públicas: Multimodal Signal Dataset (MMSD), onde são registrados biosinais de EEG e sEMG em sincronia com a execução de movimentos previamente estabelecidos, e BCI Competition IV (dataset 2a), utilizada para validação. A principal contribuição científica desta tese é o desenvolvimento de um mesmo e único pipeline de processamento de biosinais, com potencial de classificar tanto sinais eletroencefalográficos (EEG) como sinais eletromiográficos (sEMG), captados (de forma não invasiva) respectivamente sobre a superfície do escalpo e da pele. O pipeline de processamento desenvolvido nesta tese faz uso de um sistema de extração de características de biosinais denominado FBRCSP (Filter Bank Regularized Common Spatial Pattern), que permite a seleção de características de biosinais de EEG e sEMG através da técnica NCA (Neighborhood Component Analysis), que por sua vez possibilita a classificação dos biosinais através da técnica de Support Vectors Machine (SVM), onde são usadas as métricas de classificação Accuracy e Kappa de Cohen para avaliação de desempenho. Os resultados obtidos para os sinais de EEG da base de dados BCI Competition IV (dataset 2a) superam os resultados de classificação alcançados através do uso de abordagens clássicas de aprendizado de máquina, divulgados em periódicos científicos nos últimos 12 anos. O mesmo pipeline de processamento foi aplicado aos sinais de sEMG da base de dados MMSD, permitindo classificar grupos de movimentos com uma acurácia média entre sujeitos de 84,5%, e com Kappa médio de 0,722.

7
  • PAULA GABRIELLY RODRIGUES
  • Conectividade Funcional Dinâmica em Sinais de Eletroencefalografia Aplicada ao Desenvolvimento de Interfaces
    Cérebro-Computador baseadas em Imagética Motora

  • Orientador : DIOGO COUTINHO SORIANO
  • Data: 12/12/2023

  • Mostrar Resumo
  • A teoria de grafos vem sendo muito bem sucedida na tentativa de representar de forma eficiente a relação entre objetos ou elementos de diferentes naturezas e propostas envolvendo sua utilização na caracterização do funcionamento cerebral tem se mostrado uma opção interessante no contexto do desenvolvimento de interfaces cérebro-computador (BCIs), por permitir que seja possível a caracterização do cérebro a partir de sinais eletroencefalográficos (EEG) durante diferentes tarefas mentais, como por exemplo a imagética motora (MI). A quantificação e avaliação da conectividade funcional tem sido aplicada no estudo da organização cerebral durante tarefas motoras com o intuito de buscar um melhor entendimento do processo de imagética que permita o desenvolvimento de BCIs mais robustas. No entanto, até agora, a dinâmica do processo de imagética e a interação entre diferentes áreas cerebrais ao longo do tempo tem sido raramente levadas em consideração e estudos recentes sugerem que essa dinâmica possa fornecer informações relevantes para a discriminação entre
    movimento e repouso, bem como na distinção entre diferentes tarefas de MI. Com isso em mente, o objetivo deste trabalho é avaliar a aplicabilidade da conectividade funcional dinâmica nesses dois cenários, repouso vs. MI e imagética da mão direita vs. mão esquerda, buscando a extração de informações relevantes para a distinção dos diferentes estados mentais. Para isso, três medidas de similaridade e quatro métricas de grafo foram estimadas tanto de forma estática como dinâmica para fins de comparar e melhor caracterizar a
    conectividade dinâmica. Além disso, os eletrodos mais relevantes para diferenciação dos estados foram analisados. No caso da análise de repouso vs. MI, a conectividade dinâmica permitiu a distinção dos estados ao longo do tempo. Para o estudo da diferenciação das tarefas de imagética, foi utilizada uma estratégia baseada em classificadores lineares e uma análise complementar baseada em deep learning (DL) devido a limitações observadas no caso linear. Os resultados obtidos apontam para a possível utilização da conectividade
    funcional dinâmica na classificação de tarefas mentais em BCIs baseadas em MI, porém não se mostrou vantajoso no contexto de estratégias de DL em comparação ao que é feito comumente na literatura.


  • Mostrar Abstract
  • A teoria de grafos vem sendo muito bem sucedida na tentativa de representar de forma eficiente a relação entre objetos ou elementos de diferentes naturezas e propostas envolvendo sua utilização na caracterização do funcionamento cerebral tem se mostrado uma opção interessante no contexto do desenvolvimento de interfaces cérebro-computador (BCIs), por permitir que seja possível a caracterização do cérebro a partir de sinais eletroencefalográficos (EEG) durante diferentes tarefas mentais, como por exemplo a imagética motora (MI). A quantificação e avaliação da conectividade funcional tem sido aplicada no estudo da organização cerebral durante tarefas motoras com o intuito de buscar um melhor entendimento do processo de imagética que permita o desenvolvimento de BCIs mais robustas. No entanto, até agora, a dinâmica do processo de imagética e a interação entre diferentes áreas cerebrais ao longo do tempo tem sido raramente levadas em consideração e estudos recentes sugerem que essa dinâmica possa fornecer informações relevantes para a discriminação entre
    movimento e repouso, bem como na distinção entre diferentes tarefas de MI. Com isso em mente, o objetivo deste trabalho é avaliar a aplicabilidade da conectividade funcional dinâmica nesses dois cenários, repouso vs. MI e imagética da mão direita vs. mão esquerda, buscando a extração de informações relevantes para a distinção dos diferentes estados mentais. Para isso, três medidas de similaridade e quatro métricas de grafo foram estimadas tanto de forma estática como dinâmica para fins de comparar e melhor caracterizar a
    conectividade dinâmica. Além disso, os eletrodos mais relevantes para diferenciação dos estados foram analisados. No caso da análise de repouso vs. MI, a conectividade dinâmica permitiu a distinção dos estados ao longo do tempo. Para o estudo da diferenciação das tarefas de imagética, foi utilizada uma estratégia baseada em classificadores lineares e uma análise complementar baseada em deep learning (DL) devido a limitações observadas no caso linear. Os resultados obtidos apontam para a possível utilização da conectividade
    funcional dinâmica na classificação de tarefas mentais em BCIs baseadas em MI, porém não se mostrou vantajoso no contexto de estratégias de DL em comparação ao que é feito comumente na literatura.

2022
Dissertações
1
  • KELLY CRISTINA MACIEL DA SILVA COSTA
  • Análise de Desempenho de Redes Ópticas Elásticas, Considerando Rotas e Tipos de Serviços, com Distribuição da Quantidade de Rotas em Função do Tamanho da População dos Nós

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 11/02/2022

  • Mostrar Resumo
  • Este estudo tem o propósito de analisar o desempenho de redes ópticas elásticas, tomando as características de distribuição de rotas e de tipos de serviços, considerando a distribuição homogênea de rotas, com igual probabilidade na atribuição de rotas entre os nós de rede, em relação à distribuição heterogênea, em que a a probabilidade de atribuição de rotas é ponderada de acordo com a densidade demográfica dos nós de rede. Duas topologias conhecidas são consideradas para o estudo: a NSFNET e a Pan Europeia (PANEUR). Entre os indicadores de desempenho usados neste trabalho, que inclui uma análise de fairness (imparcialidade) nas redes, estão as probabilidades de bloqueio da rede, por tipo de serviço e por tamanho das rotas. A utilização dos recursos e o número médio de hops (saltos) são outros parâmetros também usados neste estudo, que por abordar a imparcialidade em termos de tamanhos de rotas e de tipos de serviços, com adaptações da técnica denominada Trunk Reservation(TR), também incluiu o índice de Jain e a vazão normalizada da rede. As análises gráficas das métricas de desempenho mencionadas (apresentadas neste trabalho de forma conjunta: (a) sem aplicação de TR, (b) com TR inter rotas e (c) com TR interserviços) e os cálculos para a obtenção dos índices de fairness e de vazão foram feitos por meio dos dados obtidos do simulador OfNetSim, que teve como contribuição pontual deste trabalho a implementação de uma distribuição fundamentada na distribuição de rotas orientada pela densidade demográfica dos nós. Os resultados deste estudo mostram que na rede NSFNET os valores de probabilidade de bloqueios foram mais acentuados na distribuição heterogênea de rotas do que na homogênea. Já para a topologia PANEUR foi observado o efeito inverso no que se refere às probabilidades de bloqueio relacionadas às distribuições homogênea e heterogênea para todos os cenários, porém com valores mais próximos entre si do que no caso da NSFNET. Uma análise global, feita por meio de todos os parâmetros de desempenho utilizados neste trabalho foi feita, de forma a apresentar possíveis explicações para este comportamento.


  • Mostrar Abstract
  • Este estudo tem o propósito de analisar o desempenho de redes ópticas elásticas, tomando as características de distribuição de rotas e de tipos de serviços, considerando a distribuição homogênea de rotas, com igual probabilidade na atribuição de rotas entre os nós de rede, em relação à distribuição heterogênea, em que a a probabilidade de atribuição de rotas é ponderada de acordo com a densidade demográfica dos nós de rede. Duas topologias conhecidas são consideradas para o estudo: a NSFNET e a Pan Europeia (PANEUR). Entre os indicadores de desempenho usados neste trabalho, que inclui uma análise de fairness (imparcialidade) nas redes, estão as probabilidades de bloqueio da rede, por tipo de serviço e por tamanho das rotas. A utilização dos recursos e o número médio de hops (saltos) são outros parâmetros também usados neste estudo, que por abordar a imparcialidade em termos de tamanhos de rotas e de tipos de serviços, com adaptações da técnica denominada Trunk Reservation(TR), também incluiu o índice de Jain e a vazão normalizada da rede. As análises gráficas das métricas de desempenho mencionadas (apresentadas neste trabalho de forma conjunta: (a) sem aplicação de TR, (b) com TR inter rotas e (c) com TR interserviços) e os cálculos para a obtenção dos índices de fairness e de vazão foram feitos por meio dos dados obtidos do simulador OfNetSim, que teve como contribuição pontual deste trabalho a implementação de uma distribuição fundamentada na distribuição de rotas orientada pela densidade demográfica dos nós. Os resultados deste estudo mostram que na rede NSFNET os valores de probabilidade de bloqueios foram mais acentuados na distribuição heterogênea de rotas do que na homogênea. Já para a topologia PANEUR foi observado o efeito inverso no que se refere às probabilidades de bloqueio relacionadas às distribuições homogênea e heterogênea para todos os cenários, porém com valores mais próximos entre si do que no caso da NSFNET. Uma análise global, feita por meio de todos os parâmetros de desempenho utilizados neste trabalho foi feita, de forma a apresentar possíveis explicações para este comportamento.

2
  • HÉLIO HENRIQUE GONÇALVES GUARDABAXO
  • Gerenciamento de QoE para tráfego HTTP/2 em redes de longa distância definidas por software

  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 10/03/2022

  • Mostrar Resumo
  • O protocolo HTTP/2 introduz o conceito de priorização de requisições, onde o cliente manifesta ao servidor suas preferências para completar requisições importantes mais rapidamente. Neste trabalho, propomos que essa priorização também pode ocorrer na camada de rede com o auxílio de uma rede definida por software. Classificando e marcando os fluxos, que estão relacionados aos recursos mais críticos para a renderização de páginas da web, como tráfego de alta prioridade, é possível obter uma melhor Qualidade de Experiência (QoE) para os usuários da web. Para demonstrar os benefícios da abordagem proposta, um protótipo foi construído para emular uma rede de longa distância definida por software, onde caminhos com diferentes características de Qualidade de Serviço (QoS) estavam disponíveis. As métricas SpeedIndex and LargestContentPaint foram usadas para medir a QoE dos vinte principais sítios do Alexa na web. Os resultados obtidos indicam que a abordagem proposta pode melhorar significativamente a QoE em ambientes com perdas, que são conhecidos por serem desafiadores para o protocolo HTTP/2.


  • Mostrar Abstract
  • O protocolo HTTP/2 introduz o conceito de priorização de requisições, onde o cliente manifesta ao servidor suas preferências para completar requisições importantes mais rapidamente. Neste trabalho, propomos que essa priorização também pode ocorrer na camada de rede com o auxílio de uma rede definida por software. Classificando e marcando os fluxos, que estão relacionados aos recursos mais críticos para a renderização de páginas da web, como tráfego de alta prioridade, é possível obter uma melhor Qualidade de Experiência (QoE) para os usuários da web. Para demonstrar os benefícios da abordagem proposta, um protótipo foi construído para emular uma rede de longa distância definida por software, onde caminhos com diferentes características de Qualidade de Serviço (QoS) estavam disponíveis. As métricas SpeedIndex and LargestContentPaint foram usadas para medir a QoE dos vinte principais sítios do Alexa na web. Os resultados obtidos indicam que a abordagem proposta pode melhorar significativamente a QoE em ambientes com perdas, que são conhecidos por serem desafiadores para o protocolo HTTP/2.

3
  • FABIO DELLA NINA
  • Análise de Desempenho de Redes Ópticas Elásticas com Cenários de Distribuição Desigual de Tipos de Serviço por Tamanhos de Rota

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 02/05/2022

  • Mostrar Resumo
  • A Rede Óptica Elástica – Elastic Optical Networks (EON) -  surgiu como uma solução para gerenciar diferentes tipos de serviços, melhorando a escalabilidade e eficiência da rede. No entanto, as EONs tendem a apresentar diferenças no desempenho do serviço devido aos requisitos de largura de banda desiguais. Assim, a proposta deste trabalho é abordar o problema da distribuição dos tipos de serviço de maneira heterogênea de acordo com o tamanho da rota, diferentemente da maior parte das análises que são feitas nos dias de hoje com distribuição homogênea dos tipos de serviços, já que divide os tipos de serviços de maneira proporcional independentemente dos tamanhos das rotas. Pode ser que em algumas situações esta distribuição proporcional não seja a mais adequada, como no caso de existir a escolha do formato de modulação, que implica no requisito de largura de banda. Dessa forma, os resultados de distribuição heterogênea, com o uso de simulação, podem ser muito mais próximos daqueles observados quando existe a escolha do formato de modulação em função do tamanho das rotas. A motivação para tal estudo é determinar o impacto que estas variações pontuais nas probabilidades de tráfego tem no desempenho global da rede.


  • Mostrar Abstract
  • A Rede Óptica Elástica – Elastic Optical Networks (EON) -  surgiu como uma solução para gerenciar diferentes tipos de serviços, melhorando a escalabilidade e eficiência da rede. No entanto, as EONs tendem a apresentar diferenças no desempenho do serviço devido aos requisitos de largura de banda desiguais. Assim, a proposta deste trabalho é abordar o problema da distribuição dos tipos de serviço de maneira heterogênea de acordo com o tamanho da rota, diferentemente da maior parte das análises que são feitas nos dias de hoje com distribuição homogênea dos tipos de serviços, já que divide os tipos de serviços de maneira proporcional independentemente dos tamanhos das rotas. Pode ser que em algumas situações esta distribuição proporcional não seja a mais adequada, como no caso de existir a escolha do formato de modulação, que implica no requisito de largura de banda. Dessa forma, os resultados de distribuição heterogênea, com o uso de simulação, podem ser muito mais próximos daqueles observados quando existe a escolha do formato de modulação em função do tamanho das rotas. A motivação para tal estudo é determinar o impacto que estas variações pontuais nas probabilidades de tráfego tem no desempenho global da rede.

4
  • EDILTON TORRES DE ANDRADE
  • Treinamento de Redes Neurais Convolucionais com Uso de Imagens Sintéticas e Técnicas de Interpretabilidade

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 03/05/2022

  • Mostrar Resumo
  • A acurácia do Reconhecimento de Imagens por meio de Redes Neurais Convolucionais depende da quantidade e diversidade de cenas das imagens utilizadas no treinamento da rede. Assim, frequentemente a obtenção de várias imagens de uma classe é uma tarefa custosa para o treinamento adequado dessas redes.

    Neste trabalho, avaliamos o uso de imagens sintéticas geradas a partir de Modelos 3D para treinamento da rede. Para tanto, foram utilizadas Modelos 3D de cães de diferentes raças com uso de um ambiente virtual tridimensional obtivemos de maneira sintética imagens em diferentes ambientes e posições de câmera.

    As simulações realizadas demonstraram que as imagens sintéticas podem ser utilizadas para reconhecimento de objetos reais sendo uma alternativa para obtenção de amostras para treinamento das Redes Neurais Convolucionais. Também aplicando as técnicas de Interpretabilidade de Aprendizado de Máquina podemos medir como o objeto de interesse ante o fundo ou região da imagem foi considerado na classificação e dessa forma diversificar a base de imagens para obter melhor acurácia na classificação.


  • Mostrar Abstract
  • A acurácia do Reconhecimento de Imagens por meio de Redes Neurais Convolucionais depende da quantidade e diversidade de cenas das imagens utilizadas no treinamento da rede. Assim, frequentemente a obtenção de várias imagens de uma classe é uma tarefa custosa para o treinamento adequado dessas redes.

    Neste trabalho, avaliamos o uso de imagens sintéticas geradas a partir de Modelos 3D para treinamento da rede. Para tanto, foram utilizadas Modelos 3D de cães de diferentes raças com uso de um ambiente virtual tridimensional obtivemos de maneira sintética imagens em diferentes ambientes e posições de câmera.

    As simulações realizadas demonstraram que as imagens sintéticas podem ser utilizadas para reconhecimento de objetos reais sendo uma alternativa para obtenção de amostras para treinamento das Redes Neurais Convolucionais. Também aplicando as técnicas de Interpretabilidade de Aprendizado de Máquina podemos medir como o objeto de interesse ante o fundo ou região da imagem foi considerado na classificação e dessa forma diversificar a base de imagens para obter melhor acurácia na classificação.

5
  • JANAINA DA SILVA LEITE
  • FUNDAMENTAÇÃO E ELABORAÇÃO DE CORPUS DE LINGUAGEM ESPECIALIZADA PARA O DOMÍNIO DA SAÚDE  SOBRE A COVID-19 EM PORTUGUÊS BRASILEIRO

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 19/08/2022

  • Mostrar Resumo
  • Esta  dissertação propõe-se a apresentar a fundamentação teórica e o processo metodológico que nortearam a elaboração do corpus COVID-19 UFABC. O corpus aqui proposto compõe-se de textos de linguagem especializada do domínio da saúde em língua portuguesa publicados entre os meses de março de 2020 a setembro de 2020, período inicial da pandemia. À época indicada, o conhecimento a respeito do coronavírus era inicialmente restrito à comunidade acadêmica especializada e, em consequência disso, a difusão de conhecimento acerca do COVID-19 e dos seus protocolos de prevenção, como o isolamento social, desempenhou papel de protagonismo no enfrentamento da pandemia. Dessa forma, os conteúdos veiculados nesse contexto continham termos importados de domínios especializados, contendo palavras complexas que trazem ao leitor leigo ou pouco familiarizado com o jargão médico dificuldade em decodificar tais informações. Essa dissertação, portanto, apresenta esforços de um primeiro estudo para elaboração de recursos para viabilizar pesquisas em tarefas de simplificação lexicais e identificação de palavras complexas no contexto de combate à COVID-19 por meio do desenvolvimento do Corpus proposto. A metodologia baseou-se na extração, compilação, armazenamento e categorização de textos da base de dados científicos Pubmed, resultando em 254 textos. O processo de categorização indicou prevalência de cerca de 30% para textos relacionados às áreas de Saúde Coletiva e Epidemiologia, em detrimento de outras especialidades médicas e áreas mais exploratórias de pesquisa que tratam de virologia ou genômica, refletindo os padrões de um recorte do comportamento da comunidade científica na pandemia, em especial no que concerne as publicações em língua portuguesa.


  • Mostrar Abstract
  • Esta  dissertação propõe-se a apresentar a fundamentação teórica e o processo metodológico que nortearam a elaboração do corpus COVID-19 UFABC. O corpus aqui proposto compõe-se de textos de linguagem especializada do domínio da saúde em língua portuguesa publicados entre os meses de março de 2020 a setembro de 2020, período inicial da pandemia. À época indicada, o conhecimento a respeito do coronavírus era inicialmente restrito à comunidade acadêmica especializada e, em consequência disso, a difusão de conhecimento acerca do COVID-19 e dos seus protocolos de prevenção, como o isolamento social, desempenhou papel de protagonismo no enfrentamento da pandemia. Dessa forma, os conteúdos veiculados nesse contexto continham termos importados de domínios especializados, contendo palavras complexas que trazem ao leitor leigo ou pouco familiarizado com o jargão médico dificuldade em decodificar tais informações. Essa dissertação, portanto, apresenta esforços de um primeiro estudo para elaboração de recursos para viabilizar pesquisas em tarefas de simplificação lexicais e identificação de palavras complexas no contexto de combate à COVID-19 por meio do desenvolvimento do Corpus proposto. A metodologia baseou-se na extração, compilação, armazenamento e categorização de textos da base de dados científicos Pubmed, resultando em 254 textos. O processo de categorização indicou prevalência de cerca de 30% para textos relacionados às áreas de Saúde Coletiva e Epidemiologia, em detrimento de outras especialidades médicas e áreas mais exploratórias de pesquisa que tratam de virologia ou genômica, refletindo os padrões de um recorte do comportamento da comunidade científica na pandemia, em especial no que concerne as publicações em língua portuguesa.

6
  • KARHYNE SOUSA PADILHA DE ASSIS
  • Caracterização de Léxico Biomédico em um Corpus Sobre a COVID-19 em Língua Portuguesa

  • Orientador : ANDRE KAZUO TAKAHATA
  • Data: 29/08/2022

  • Mostrar Resumo
  • No presente estudo, buscamos compreender, do ponto de vista da língua de especialidade, o léxico biomédico de um corpus de textos científicos sobre COVID-19 em língua portuguesa. Além disso, o trabalho teve como objetivo fornecer subsídios que possibilitem identificar padrões na linguagem biomédica e que a posteriori poderão alimentar algoritmos de inteligência artificial no processo de detecção automática de padrões gramaticais e lexicais para auxiliar a máquina na identificação e diferenciação de conteúdo do domínio biomédico. Diante disso, na primeira fase do estudo, foi desenvolvido um novo indicador, Lex-BioMed (ASSIS et al., 2021), que se mostrou capaz de mensurar a distribuição das palavras de conteúdo biomédico por especialidade e gênero que compõem o corpus COVID-19 UFABC (LEITE et al., 2020). Durante o desenvolvimento do Lex-BioMed, identificamos uma alta frequência de sintagmas nominais com presença acumulada de modificadores adjetivais no corpus. Diante disso, iniciamos um estudo onde criamos um modelo estatístico capaz de mensurar a biomedicalidade contextual de um termo dentro do contexto em que está inserido. Na etapa final do trabalho, concluímos que o contexto em que os adjetivos (não biomédico neste caso) aparece é um fator importante na determinação da biomedicalidade, pois em nossos resultados se mostrou difusa se espalhando por todo eixo sintagmático, tornando esses contextos de exceção vinculados a estruturas de dependências. Para os adjetivos classificados como Intrínsecos neste estudo, observamos que prevaleceu a linearidade, o que já era esperado, pois a linguagem biomédica é considerada uma linguagem mais objetiva, com frases mais curtas, onde temos um compromisso maior de linearidade.


  • Mostrar Abstract
  • No presente estudo, buscamos compreender, do ponto de vista da língua de especialidade, o léxico biomédico de um corpus de textos científicos sobre COVID-19 em língua portuguesa. Além disso, o trabalho teve como objetivo fornecer subsídios que possibilitem identificar padrões na linguagem biomédica e que a posteriori poderão alimentar algoritmos de inteligência artificial no processo de detecção automática de padrões gramaticais e lexicais para auxiliar a máquina na identificação e diferenciação de conteúdo do domínio biomédico. Diante disso, na primeira fase do estudo, foi desenvolvido um novo indicador, Lex-BioMed (ASSIS et al., 2021), que se mostrou capaz de mensurar a distribuição das palavras de conteúdo biomédico por especialidade e gênero que compõem o corpus COVID-19 UFABC (LEITE et al., 2020). Durante o desenvolvimento do Lex-BioMed, identificamos uma alta frequência de sintagmas nominais com presença acumulada de modificadores adjetivais no corpus. Diante disso, iniciamos um estudo onde criamos um modelo estatístico capaz de mensurar a biomedicalidade contextual de um termo dentro do contexto em que está inserido. Na etapa final do trabalho, concluímos que o contexto em que os adjetivos (não biomédico neste caso) aparece é um fator importante na determinação da biomedicalidade, pois em nossos resultados se mostrou difusa se espalhando por todo eixo sintagmático, tornando esses contextos de exceção vinculados a estruturas de dependências. Para os adjetivos classificados como Intrínsecos neste estudo, observamos que prevaleceu a linearidade, o que já era esperado, pois a linguagem biomédica é considerada uma linguagem mais objetiva, com frases mais curtas, onde temos um compromisso maior de linearidade.

7
  • CAROLINA ZAMBELLI KAMADA
  • REDE NEURAL PULSADA HIERÁRQUICA PARA CONTROLE DE AGENTES REATIVOS

  • Orientador : JOAO HENRIQUE RANHEL RIBEIRO
  • Data: 31/08/2022

  • Mostrar Resumo
  • Compreender o meio através do processamento de informação é uma capacidade que os seres vivos passaram a possuir no período cambriano [542 e 488 mya]. Durante este período, surgiram as células e sistemas nervosos, especialistas em processamento de informação. Desde então, os animais puderam interagir e reagir aos elementos do ambiente sem alterar a estrutura e organização de nossos corpos.
    Compreender como o sistema nervoso se organiza e se estrutura é a linha de investigação de muitos pesquisadores. Seja essa investigação por meio da compreensão e/ou descrição dos fenômenos observados, seja uma abordagem interpretativa, ou ainda como inspiração para fins de engenharia.
    O presente trabalho se encaixa no grupo dos interpretativos, uma vez que busca entender quais seriam os recursos mínimos computacionais que um sistema, que mimetiza o biológico, precisaria possuir para buscar um objetivo específico em um ambiente com obstáculos.
    Uma estrutura mínima é o ponto de partida para a ideação de como as estruturas e organizações devem evoluir para responder às mudanças no ambiente que estão inseridas.
    Dessa forma, foi desenvolvida uma estrutura computacional mínima, seguindo todos os requisitos de um sistema neural biológico, capaz de perseguir um objetivo específico em um ambiente com obstáculos.


  • Mostrar Abstract
  • Compreender o meio através do processamento de informação é uma capacidade que os seres vivos passaram a possuir no período cambriano [542 e 488 mya]. Durante este período, surgiram as células e sistemas nervosos, especialistas em processamento de informação. Desde então, os animais puderam interagir e reagir aos elementos do ambiente sem alterar a estrutura e organização de nossos corpos.
    Compreender como o sistema nervoso se organiza e se estrutura é a linha de investigação de muitos pesquisadores. Seja essa investigação por meio da compreensão e/ou descrição dos fenômenos observados, seja uma abordagem interpretativa, ou ainda como inspiração para fins de engenharia.
    O presente trabalho se encaixa no grupo dos interpretativos, uma vez que busca entender quais seriam os recursos mínimos computacionais que um sistema, que mimetiza o biológico, precisaria possuir para buscar um objetivo específico em um ambiente com obstáculos.
    Uma estrutura mínima é o ponto de partida para a ideação de como as estruturas e organizações devem evoluir para responder às mudanças no ambiente que estão inseridas.
    Dessa forma, foi desenvolvida uma estrutura computacional mínima, seguindo todos os requisitos de um sistema neural biológico, capaz de perseguir um objetivo específico em um ambiente com obstáculos.

8
  • RENAN ZIROLDO DOS SANTOS
  • PREDIÇÃO DE ESTADO DE REPOUSO E DE MOVIMENTO DE PACIENTES PARKINSONIANOS A PARTIR DE POTENCIAIS DE CAMPO LOCAL DO NÚCLEO SUBTALÂMICO: POSSÍVEL APLICAÇÃO EM NOVOS PROTOCOLOS DE ESTIMULAÇÃO CEREBRAL PROFUNDA

  • Orientador : DIOGO COUTINHO SORIANO
  • Data: 05/09/2022

  • Mostrar Resumo
  • A doença de Parkinson (PD, do inglês Parkinson’s Disease) é a segunda doença neurodegenerativa de maior incidência, afetando aproximadamente 1-3 % dos adultos com mais de 60 anos. Dentre outros fatores, a PD impacta as atividades motoras e a qualidade de vida do paciente. A alteração do padrão oscilatório do potencial de campo local do núcleo subtlâmico (STN-LFP) é frequentemente observada em pacientes com PD, o que ocorre, em particular, nas sub-bandas beta (13-35 Hz) e gamma (35-100 Hz), as quais também estão associados à modulação do movimento. Um tratamento tipicamente utilizado na PD grave é a estimulação cerebral profunda contínua, a qual especula-se não ser completamente eficiente por ignorar típicas variações oscilatórias características do estado motor. Neste sentido, a previsão do estado de movimento baseado na composição espectral do STN-LFP ainda é um desafio e uma questão de debate para projetar novas estratégias para a estimulação cerebral profunda, ou seja, um tratamento essencial na PD. Este trabalho busca detectar o estado motor de pacientes parkinsonianos a partir dos sinais de campo local do núcleo subtalâmico submetidos à procedimento para implantação de eletrodos para estimulação elétrica profunda. Para tanto, múltiplas técnicas associadas às estratégias de processamento de sinais e aprendizado supervisionado são aplicadas, tais como: filtragem digital, estimação de espectro, validação cruzada e classificação (análise do discriminante linear, naive Bayes, k-vizinhos mais próximos, máquinas de vetores suporte).


  • Mostrar Abstract
  • A doença de Parkinson (PD, do inglês Parkinson’s Disease) é a segunda doença neurodegenerativa de maior incidência, afetando aproximadamente 1-3 % dos adultos com mais de 60 anos. Dentre outros fatores, a PD impacta as atividades motoras e a qualidade de vida do paciente. A alteração do padrão oscilatório do potencial de campo local do núcleo subtlâmico (STN-LFP) é frequentemente observada em pacientes com PD, o que ocorre, em particular, nas sub-bandas beta (13-35 Hz) e gamma (35-100 Hz), as quais também estão associados à modulação do movimento. Um tratamento tipicamente utilizado na PD grave é a estimulação cerebral profunda contínua, a qual especula-se não ser completamente eficiente por ignorar típicas variações oscilatórias características do estado motor. Neste sentido, a previsão do estado de movimento baseado na composição espectral do STN-LFP ainda é um desafio e uma questão de debate para projetar novas estratégias para a estimulação cerebral profunda, ou seja, um tratamento essencial na PD. Este trabalho busca detectar o estado motor de pacientes parkinsonianos a partir dos sinais de campo local do núcleo subtalâmico submetidos à procedimento para implantação de eletrodos para estimulação elétrica profunda. Para tanto, múltiplas técnicas associadas às estratégias de processamento de sinais e aprendizado supervisionado são aplicadas, tais como: filtragem digital, estimação de espectro, validação cruzada e classificação (análise do discriminante linear, naive Bayes, k-vizinhos mais próximos, máquinas de vetores suporte).

9
  • FERNANDO MARQUES DOS SANTOS
  • Avaliação de desempenho em redes LoRaWAN sob ataques de interferência

    .

  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 14/09/2022

  • Mostrar Resumo
  • O avanço tecnológico permite que uma variedade de objetos sejam conectados e controlados remotamente pela Internet, na chamada Internet das Coisas. As redes LoRaWAN possibilitam a comunicação por longas distâncias e com baixo consumo de energia. No entanto, estas redes são suscetíveis a ataques de interferência, em que os atacantes realizam transmissões com o intuito de interferir na comunicação de outros dispositivos na rede. Este trabalho analisa o impacto de jammers em redes LoRaWAN posicionados em diferentes lugares da rede. Os resultados de simulação mostram que os atacantes podem degradar o desempenho da rede, principalmente quando situados próximos ao gateway.


  • Mostrar Abstract
  • O avanço tecnológico permite que uma variedade de objetos sejam conectados e controlados remotamente pela Internet, na chamada Internet das Coisas. As redes LoRaWAN possibilitam a comunicação por longas distâncias e com baixo consumo de energia. No entanto, estas redes são suscetíveis a ataques de interferência, em que os atacantes realizam transmissões com o intuito de interferir na comunicação de outros dispositivos na rede. Este trabalho analisa o impacto de jammers em redes LoRaWAN posicionados em diferentes lugares da rede. Os resultados de simulação mostram que os atacantes podem degradar o desempenho da rede, principalmente quando situados próximos ao gateway.

10
  • PAULO CESAR DIAS LIMA
  • Otimização do fronthaul em Redes de Acesso por Rádio em Nuvem 5G por meio de algoritmos genéticos e georreferenciamento

  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 15/09/2022

  • Mostrar Resumo
  • Para dar suporte as demandas previstas de densidade, escala, variedade de uso e velocidade no 5G, que é o padrão de tecnologia de quinta geração para redes móveis, novas arquiteturas de rede estão sendo propostas como alternativas de otimização das redes de telefonia celular atuais. Neste contexto, a arquitetura de rede de acesso por rádio em nuvem (C-RAN, do inglês Cloud Radio Access Networks) surge como alternativa de viabilização da evolução para 5G, na qual a conectividade de rádio para usuários finais é fornecida por meio de unidades remotas de rádio (RRH, do inglês Remote Radio Head) e a maioria das tarefas de processamento de sinal são executadas em unidades de banda base (BBU, do inglês BaseBand Unit) na nuvem. Com efeito, ao se separar as BBUs das antenas, há importantes reduções no consumo de energia e de custo. Entretanto, isso implica a criação de uma rede óptica de baixa latência para interconexão de BBU e RRHs, que é chamada de fronthaul. Nesse contexto, este trabalho busca a otimização da distribuição de BBUs e RRHs através do fronthaul e que minimize os custos de capital para implantação.

    Dada a complexidade do problema, este trabalho propõe o uso de uma técnica de otimização baseada em computação evolutiva através da implementação de algoritmo genético (GA, do inglês Genetic Algorithm). Nesse sentido, são avaliados cenários baseados em dados georreferenciados da implantação da rede 4G atual, considerando-se as restrições de: (i) distância, que está relacionadas à latência, (ii) número de RRHs por BBU, que é limitado pela rede de multiplexação por comprimento de onda (WDM, do inglês Wavelength Division Multiplexing) utilizada no fronthaul, e (iii) proteção do tráfego no fronthaul. Os resultados obtidos indicam a eficácia da abordagem proposta, sendo que é possível visualizá-los através de uma ferramenta Web georreferenciada.


  • Mostrar Abstract
  • Para dar suporte as demandas previstas de densidade, escala, variedade de uso e velocidade no 5G, que é o padrão de tecnologia de quinta geração para redes móveis, novas arquiteturas de rede estão sendo propostas como alternativas de otimização das redes de telefonia celular atuais. Neste contexto, a arquitetura de rede de acesso por rádio em nuvem (C-RAN, do inglês Cloud Radio Access Networks) surge como alternativa de viabilização da evolução para 5G, na qual a conectividade de rádio para usuários finais é fornecida por meio de unidades remotas de rádio (RRH, do inglês Remote Radio Head) e a maioria das tarefas de processamento de sinal são executadas em unidades de banda base (BBU, do inglês BaseBand Unit) na nuvem. Com efeito, ao se separar as BBUs das antenas, há importantes reduções no consumo de energia e de custo. Entretanto, isso implica a criação de uma rede óptica de baixa latência para interconexão de BBU e RRHs, que é chamada de fronthaul. Nesse contexto, este trabalho busca a otimização da distribuição de BBUs e RRHs através do fronthaul e que minimize os custos de capital para implantação.

    Dada a complexidade do problema, este trabalho propõe o uso de uma técnica de otimização baseada em computação evolutiva através da implementação de algoritmo genético (GA, do inglês Genetic Algorithm). Nesse sentido, são avaliados cenários baseados em dados georreferenciados da implantação da rede 4G atual, considerando-se as restrições de: (i) distância, que está relacionadas à latência, (ii) número de RRHs por BBU, que é limitado pela rede de multiplexação por comprimento de onda (WDM, do inglês Wavelength Division Multiplexing) utilizada no fronthaul, e (iii) proteção do tráfego no fronthaul. Os resultados obtidos indicam a eficácia da abordagem proposta, sendo que é possível visualizá-los através de uma ferramenta Web georreferenciada.

11
  • LEANDRO ABIDIAS DA SILVA SERAFIM
  • Estudo de Técnicas de Redução de Dimensionalidade Aplicadas a EEG para Reconhecimento de Emoções

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 15/12/2022

  • Mostrar Resumo
  •  A classificação de emoções através do uso de sinais de EEG é um assunto que tem atraído a atenção de pesquisadores de diversas áreas, inclusive relacionado ao desenvolvimento de interfaces cérebro-máquina. Neste trabalho, focamos na etapa de redução de dimensionalidade, necessária antes da etapa de classificação. Foram testados o clássico método baseado em Análise por Componentes Principais (PCA) e também o método Máxima Relevância Mínima Redundância (mRMR). Propomos uma alteração no método de Máxima Relevância Mínima Redundância (mRMR) de forma a trabalhar com o sinal de EEG sem a necessidade de discretizar. Mostramos como o método proposto melhora significativamente o desempenho dos classificadores quando comparado ao clássico PCA ou mesmo ao uso de todas as informações disponíveis. Uma análise detalhada do mRMR discreto também foi incluída neste trabalho, além da comparação dos métodos citados com o clássico Backward Wrapper.


  • Mostrar Abstract
  •  A classificação de emoções através do uso de sinais de EEG é um assunto que tem atraído a atenção de pesquisadores de diversas áreas, inclusive relacionado ao desenvolvimento de interfaces cérebro-máquina. Neste trabalho, focamos na etapa de redução de dimensionalidade, necessária antes da etapa de classificação. Foram testados o clássico método baseado em Análise por Componentes Principais (PCA) e também o método Máxima Relevância Mínima Redundância (mRMR). Propomos uma alteração no método de Máxima Relevância Mínima Redundância (mRMR) de forma a trabalhar com o sinal de EEG sem a necessidade de discretizar. Mostramos como o método proposto melhora significativamente o desempenho dos classificadores quando comparado ao clássico PCA ou mesmo ao uso de todas as informações disponíveis. Uma análise detalhada do mRMR discreto também foi incluída neste trabalho, além da comparação dos métodos citados com o clássico Backward Wrapper.

12
  • CAIO LIMA
  • Plataformas de Código Aberto para Simulação, Captura de Sinais Miográficos e Visão Computacional para Análise Cinemática e Classificação de Movimentos Utilizando Aprendizado de Máquinas

  • Orientador : RICARDO SUYAMA
  • Data: 22/12/2022

  • Mostrar Resumo
  • Aproximadamente 7\% da população brasileira possui alguma deficiência motora, sendo que este público tem de maneira geral uma maior vulnerabilidade social. Visando mitigar estes impactos, tecnologias assistivas como próteses de membros superiores têm sido desenvolvidas, em especial as que se utilizam de sinais eletromiográficos de superfície (sEMG). Apesar de diversas dessas próteses possuírem elevada taxa de acerto (acima de 90\% em alguns casos), têm um custo médio bastante elevado, da ordem de \$50 mil dólares.Em vista destas dificuldades, ferramentas e softwares de simulação tem sido desenvolvidos com objetivo de melhorar o uso das próteses já existentes bem como facilitar o seu desenvolvimento e assim se buscar a redução dos preços destes aparelhos. Com base nestes objetivos, foi desenvolvido um simulador de código aberto controlado por sinais sEMG que busca de maneira prática e econômica realizar a captura e processamento destes sinais e suas respectivas posições(separadas por categorias) e, além disso, realizar a simulação de próteses de membros superiores e braços robóticos, representando adequadamente os movimentos de flexão e extensão do cotovelo. Para esta tarefa o simulador foi separado em três módulos, sendo o primeiro o módulo de obtenção de sinais sEMG conjuntamente com a captura do ângulo de flexão e extensão do cotovelo, utilizando-se uma {Webcam} comum para e registrar os ângulos de extensão e flexão do cotovelo e o dispositivo Myo, da empresa Thalmic Labs para a obtenção dos sinais sEMG. O segundo módulo sendo o responsável pelo treinamento dos sinais sEMG e geração de classificadores, utilizando a linguagem Python, conjuntamente com a biblioteca scikit-learn, e o terceiro módulo aquele que realiza a simulação do braço robótico, utilizando-se do software de simulação Gazebo, conjuntamente com o software de controle ROS 2. Obteve-se com esses módulos, ferramentas que permitem flexibilidade na captura de sinais EMG, visualização, treinamento e projeto de classificadores, bem como uma interface gráfica simples de modelagem e simulação de braços robóticos.


  • Mostrar Abstract
  • Aproximadamente 7\% da população brasileira possui alguma deficiência motora, sendo que este público tem de maneira geral uma maior vulnerabilidade social. Visando mitigar estes impactos, tecnologias assistivas como próteses de membros superiores têm sido desenvolvidas, em especial as que se utilizam de sinais eletromiográficos de superfície (sEMG). Apesar de diversas dessas próteses possuírem elevada taxa de acerto (acima de 90\% em alguns casos), têm um custo médio bastante elevado, da ordem de \$50 mil dólares.Em vista destas dificuldades, ferramentas e softwares de simulação tem sido desenvolvidos com objetivo de melhorar o uso das próteses já existentes bem como facilitar o seu desenvolvimento e assim se buscar a redução dos preços destes aparelhos. Com base nestes objetivos, foi desenvolvido um simulador de código aberto controlado por sinais sEMG que busca de maneira prática e econômica realizar a captura e processamento destes sinais e suas respectivas posições(separadas por categorias) e, além disso, realizar a simulação de próteses de membros superiores e braços robóticos, representando adequadamente os movimentos de flexão e extensão do cotovelo. Para esta tarefa o simulador foi separado em três módulos, sendo o primeiro o módulo de obtenção de sinais sEMG conjuntamente com a captura do ângulo de flexão e extensão do cotovelo, utilizando-se uma {Webcam} comum para e registrar os ângulos de extensão e flexão do cotovelo e o dispositivo Myo, da empresa Thalmic Labs para a obtenção dos sinais sEMG. O segundo módulo sendo o responsável pelo treinamento dos sinais sEMG e geração de classificadores, utilizando a linguagem Python, conjuntamente com a biblioteca scikit-learn, e o terceiro módulo aquele que realiza a simulação do braço robótico, utilizando-se do software de simulação Gazebo, conjuntamente com o software de controle ROS 2. Obteve-se com esses módulos, ferramentas que permitem flexibilidade na captura de sinais EMG, visualização, treinamento e projeto de classificadores, bem como uma interface gráfica simples de modelagem e simulação de braços robóticos.

Teses
1
  • PEDRO IVO DA CRUZ
  • Physical Layer Security Using the Wireless Channel Information

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 22/03/2022

  • Mostrar Resumo
  • Given the amount of communication devices that make use of wireless networks, it is natural the concerning about their security. Cryptographic mechanisms currently used to protect such networks might no longer be reliable in the near future. In addition to that, low computational power and low power consumption devices, such as the ones devised for Internet of Things (IoT), require new security mechanisms, once the traditional ones might not be feasible in such scenarios. Therefore, physical-layer security arises in order to provide alternative security mechanisms by taking advantage of the random wireless channel characteristics. The present work presents the precoding technique, which does not rely on cryptography to secure information. Instead, it pre-distorts the confidential information using the authentic channel information in such a way that only the authentic receiver is able to recover it. However, it is shown that by using linear precoders, an eavesdropper might recover some information by employing blind equalization techniques. To prevent this, it is proposed the use of a non-linear precoder. Although precoding mechanisms are well documented for multiple antenna systems and for orthogonal frequency division multiplexing modulation, the precoders presented in this work deal with single antenna devices and single carrier modulation, which are important for devices that have energy and space constraints. It is shown that the non-linear precoder outperform the linear one in terms of bit error rate and secrecy capacity in a scenario where the authentic and eavesdropper channels are correlated, and in a scenario where the eavesdropper uses blind equalization to try to recover the confidential information.

    A different physical layer security mechanism, also presented in this work, consists in using the channel information to generate encryption keys at the authentic users. Several techniques are presented and some preliminary results are shown.


  • Mostrar Abstract
  • Given the amount of communication devices that make use of wireless networks, it is natural the concerning about their security. Cryptographic mechanisms currently used to protect such networks might no longer be reliable in the near future. In addition to that, low computational power and low power consumption devices, such as the ones devised for Internet of Things (IoT), require new security mechanisms, once the traditional ones might not be feasible in such scenarios. Therefore, physical-layer security arises in order to provide alternative security mechanisms by taking advantage of the random wireless channel characteristics. The present work presents the precoding technique, which does not rely on cryptography to secure information. Instead, it pre-distorts the confidential information using the authentic channel information in such a way that only the authentic receiver is able to recover it. However, it is shown that by using linear precoders, an eavesdropper might recover some information by employing blind equalization techniques. To prevent this, it is proposed the use of a non-linear precoder. Although precoding mechanisms are well documented for multiple antenna systems and for orthogonal frequency division multiplexing modulation, the precoders presented in this work deal with single antenna devices and single carrier modulation, which are important for devices that have energy and space constraints. It is shown that the non-linear precoder outperform the linear one in terms of bit error rate and secrecy capacity in a scenario where the authentic and eavesdropper channels are correlated, and in a scenario where the eavesdropper uses blind equalization to try to recover the confidential information.

    A different physical layer security mechanism, also presented in this work, consists in using the channel information to generate encryption keys at the authentic users. Several techniques are presented and some preliminary results are shown.

2
  • ANDRÉ KLIOUSOFF JUNIOR
  • Explorando  a assinatura de dinâmica estrutural em proteínas intrinsecamente desordenadas.

  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 20/04/2022

  • Mostrar Resumo
  • Macromoléculas adotam várias conformações preferidas em solução dependendo de sua estrutura e forma, determinando sua dinâmica e função.Vários estudos indicaram que essas propriedades dinâmicas são determinadas principalmente pela topologia dos contatos nativos. Estudos nos últimos anos estabeleceram o papel da dinâmica estrutural, também chamada de dinâmica intrínseca, para facilitar, se não impulsionar, as interações e o funcionamento dos sistemas biomoleculares. Portanto, é importante explorar diferentes conformações para modelar processos dinâmicos e determinar estados estáveis (Zhang et al., 2020). A compreensão da correlação entre a dinâmica estrutural de proteínas e suas funções exigem métodos computacionais híbridos que integram movimentos de frequência mais baixa obtidos por Análise de Modo Normal (NM) e movimentos mais rápidos de Dinâmica Molecular (MD) aliados a dados de técnicas biofísicas. O reconhecimento da abundância natural e importância funcional de proteínas intrinsecamente desordenadas (IDPs) e híbridos de proteínas que contêm tanto regiões de proteínas intrinsecamente desordenadas (IDPRs) quanto regiões ordenadas está mudando a ciência das proteínas. IDPs e IDPRs, ou seja, proteínas funcionais e regiões proteicas sem estruturas únicas, podem ser encontradas em todos os organismos e normalmente desempenham papéis vitais em vários processos biológicos. A funcionalidade baseada em desordem complementa as funções de proteínas e domínios ordenados. No entanto, em virtude de sua existência, IDPs/IDPRs, que são caracterizados por notável flexibilidade conformacional e plasticidade estrutural, quebram várias regras estabelecidas ao longo dos anos para explicar a estrutura, dobramento e funcionalidade de proteínas bem dobradas com estruturas únicas.Neste trabalho, investigamos a assinatura dinâmica de certas famílias de proteínas intrinsecamente Desordenada, utilizando  métodos híbridos como SignDy. 



  • Mostrar Abstract
  • Macromoléculas adotam várias conformações preferidas em solução dependendo de sua estrutura e forma, determinando sua dinâmica e função.Vários estudos indicaram que essas propriedades dinâmicas são determinadas principalmente pela topologia dos contatos nativos. Estudos nos últimos anos estabeleceram o papel da dinâmica estrutural, também chamada de dinâmica intrínseca, para facilitar, se não impulsionar, as interações e o funcionamento dos sistemas biomoleculares. Portanto, é importante explorar diferentes conformações para modelar processos dinâmicos e determinar estados estáveis (Zhang et al., 2020). A compreensão da correlação entre a dinâmica estrutural de proteínas e suas funções exigem métodos computacionais híbridos que integram movimentos de frequência mais baixa obtidos por Análise de Modo Normal (NM) e movimentos mais rápidos de Dinâmica Molecular (MD) aliados a dados de técnicas biofísicas. O reconhecimento da abundância natural e importância funcional de proteínas intrinsecamente desordenadas (IDPs) e híbridos de proteínas que contêm tanto regiões de proteínas intrinsecamente desordenadas (IDPRs) quanto regiões ordenadas está mudando a ciência das proteínas. IDPs e IDPRs, ou seja, proteínas funcionais e regiões proteicas sem estruturas únicas, podem ser encontradas em todos os organismos e normalmente desempenham papéis vitais em vários processos biológicos. A funcionalidade baseada em desordem complementa as funções de proteínas e domínios ordenados. No entanto, em virtude de sua existência, IDPs/IDPRs, que são caracterizados por notável flexibilidade conformacional e plasticidade estrutural, quebram várias regras estabelecidas ao longo dos anos para explicar a estrutura, dobramento e funcionalidade de proteínas bem dobradas com estruturas únicas.Neste trabalho, investigamos a assinatura dinâmica de certas famílias de proteínas intrinsecamente Desordenada, utilizando  métodos híbridos como SignDy. 


3
  • JOEL CARLOS FARIAS DE QUEIROZ
  • Heurísticas de Ordenamento Ponderado Aplicadas ao Processo de Roteamento em Redes Ópticas

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 29/04/2022

  • Mostrar Resumo
  • As Redes Ópticas são a parte mais importante da infraestrutura de telecomunicações sobre a qual funciona a  Internet. No entanto, a demanda por largura de banda, maior a cada ano, exige estratégias para uso mais eficiente dos recursos. Entre as questões abordadas em Redes Ópticas estão os problemas de roteamento e atribuição de recursos, os quais podem ser um comprimento de onda para Redes WDM ou uma porção espectral para Redes Ópticas Elásticas (EON). Este trabalho aborda especificamente o problema do roteamento, tanto em redes WDM como em EONs, a partir do uso de uma estratégia aqui proposta, chamada genericamente de Heurísticas de Ordenamento Ponderado (WOH). Os resultados para roteamento fixo, já publicados, e para roteamento fixo-alternado, mostram um significativo ganho de desempenho e um melhor balanceamento de carga. 


  • Mostrar Abstract
  • As Redes Ópticas são a parte mais importante da infraestrutura de telecomunicações sobre a qual funciona a  Internet. No entanto, a demanda por largura de banda, maior a cada ano, exige estratégias para uso mais eficiente dos recursos. Entre as questões abordadas em Redes Ópticas estão os problemas de roteamento e atribuição de recursos, os quais podem ser um comprimento de onda para Redes WDM ou uma porção espectral para Redes Ópticas Elásticas (EON). Este trabalho aborda especificamente o problema do roteamento, tanto em redes WDM como em EONs, a partir do uso de uma estratégia aqui proposta, chamada genericamente de Heurísticas de Ordenamento Ponderado (WOH). Os resultados para roteamento fixo, já publicados, e para roteamento fixo-alternado, mostram um significativo ganho de desempenho e um melhor balanceamento de carga. 

4
  • MAURICIO ANTONIO DEFFERT
  • Heurísticas para a Alocação Eficiente de Serviços no Espectro Óptico em Redes Ópticas Elásticas

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 23/11/2022

  • Mostrar Resumo
  • Diante do constante crescimento do tráfego de dados, em grande parte causados pelas redes sociais, trabalhos remotos, voz e vídeo sob demanda, jogos on-line, entre outros, as Redes Ópticas são fundamentais e possuem um papel importante para o transporte de dados, garantindo a qualidade dos serviços oferecidos. Com a tecnologia das Redes Ópticas Elásticas (Elastic Optical Network (EON)s), existem novas soluções para uma melhor otimização de largura de banda no espectro óptico, sem a necessidade de implementação física de novas fibras ópticas nas redes existentes. As EONs diferem das tradicionais Redes de Multiplexação por Divisão de Comprimentos de Onda (Wavelength Division Multiplex (WDM)s), pelo controle da granularidade espectral, aumentando a eficiência do espectro óptico, comparativamente às redes existentes. Devido as tecnologias de modulação óptica: Multiplexação por Divisão de Frequêcias Ortogonais (Ortogonal Frequency Division Multiplexing (OFDM)) e Nyquist-Wavelength Division Multiplex (N-WDM), é possível o controle da granularidade espectral, para uma largura espectral muito reduzida. As Redes EONs são gerenciadas por algoritmos de Roteamento e Atribuição de Espectro (Routing and Spectrum Assignment (RSA)s), que determinam rotas e posição espectral, para a atribuição da demanda solicitada, mantendo as restrições de contiguidade e continuidade, impostas pelas Redes EONs. Este trabalho tem a finalidade de avaliar, com o uso de simulação, novas heurísticas RSAs, desenvolvidas com o objetivo de melhorar a utilização e ocupação do espectro óptico. Com os algoritmos de melhor ocupação espectral, será realizada a atribuição de serviços e a organização de todos os espaços (slots), do espectro óptico, utilizando a banda C de 4,4 THz, permitindo um melhor aproveitamento e flexibilidade do espectro total, pois o mesmo apresenta espaços não contíguos de largura de banda ao longo do tempo, gerando a Probabilidade de Bloqueio (Blocking Probability (BP)) e a fragmentação da rede óptica. As novas heurísticas desenvolvidas apresentaram melhores resultados de desempenho da EON, minimizando a carga computacional do Sistema de Gerenciamento de Rede (Network Management System (NMS)), nas três topologias avaliadas, comparados com algoritmos presentes na literatura científica.


  • Mostrar Abstract
  • Diante do constante crescimento do tráfego de dados, em grande parte causados pelas redes sociais, trabalhos remotos, voz e vídeo sob demanda, jogos on-line, entre outros, as Redes Ópticas são fundamentais e possuem um papel importante para o transporte de dados, garantindo a qualidade dos serviços oferecidos. Com a tecnologia das Redes Ópticas Elásticas (Elastic Optical Network (EON)s), existem novas soluções para uma melhor otimização de largura de banda no espectro óptico, sem a necessidade de implementação física de novas fibras ópticas nas redes existentes. As EONs diferem das tradicionais Redes de Multiplexação por Divisão de Comprimentos de Onda (Wavelength Division Multiplex (WDM)s), pelo controle da granularidade espectral, aumentando a eficiência do espectro óptico, comparativamente às redes existentes. Devido as tecnologias de modulação óptica: Multiplexação por Divisão de Frequêcias Ortogonais (Ortogonal Frequency Division Multiplexing (OFDM)) e Nyquist-Wavelength Division Multiplex (N-WDM), é possível o controle da granularidade espectral, para uma largura espectral muito reduzida. As Redes EONs são gerenciadas por algoritmos de Roteamento e Atribuição de Espectro (Routing and Spectrum Assignment (RSA)s), que determinam rotas e posição espectral, para a atribuição da demanda solicitada, mantendo as restrições de contiguidade e continuidade, impostas pelas Redes EONs. Este trabalho tem a finalidade de avaliar, com o uso de simulação, novas heurísticas RSAs, desenvolvidas com o objetivo de melhorar a utilização e ocupação do espectro óptico. Com os algoritmos de melhor ocupação espectral, será realizada a atribuição de serviços e a organização de todos os espaços (slots), do espectro óptico, utilizando a banda C de 4,4 THz, permitindo um melhor aproveitamento e flexibilidade do espectro total, pois o mesmo apresenta espaços não contíguos de largura de banda ao longo do tempo, gerando a Probabilidade de Bloqueio (Blocking Probability (BP)) e a fragmentação da rede óptica. As novas heurísticas desenvolvidas apresentaram melhores resultados de desempenho da EON, minimizando a carga computacional do Sistema de Gerenciamento de Rede (Network Management System (NMS)), nas três topologias avaliadas, comparados com algoritmos presentes na literatura científica.

5
  • FELIPE SADAMI OIWA DA COSTA
  • Design of a wireless SEMG signal and fingers trajectory acquisition experimental platform for bionic hand applications

  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 16/12/2022

  • Mostrar Resumo
  • Milhões de pessoas em todo o mundo sofrem com a ausência de um membro. A ausência de uma mão afeta diretamente a mobilidade na vida diária. Mesmo com as atuais próteses robóticas avançadas, ainda há necessidade de interfaces homem-máquina portáteis que sejam capazes de explorar o movimento natural simultâneo, proporcional e independente dos dedos. Este estudo propõe o desenvolvimento de uma plataforma experimental para aquisição sEMG e rastreamento das trajetórias de dedos no espaço 3D. Uma revisão completa da literatura foi realizada para entender os sinais e as técnicas atualmente usadas para desenvolver uma plataforma experimental capaz de investigar o movimento natural dos dedos para mãos robóticas. Os dados sEMG foram capturados de um único indivíduo saudável por dois canais simultaneamente, cada um com uma frequência de amostragem de 20 kHz, com nível de ruído abaixo de 5 uV. O sistema de rastreamento da trajetória dos dedos forneceu os deslocamentos angulares e de aceleração usando sensores IMU posicionados nas extremidades de cada dedo, resultando na trajetória dos dedos no espaço 3D. Os dados de saída se mantiveram dentro das especificações do projeto, onde os resultados foram analisados nos domínios de tempo e tempo-frequência e foram consistentes com a literatura. O sistema de rastreamento de trajetória de dedos proposto provou ser único na literatura e forneceu uma forma simples de rastrear trajetórias de dedos no espaço 3D, permitindo o estudo do movimento simultâneo, proporcional e independente dos dedos. A plataforma experimental desenvolvida mostrou se uma poderosa ferramenta para fins de pesquisa e ensino.


  • Mostrar Abstract
  • Milhões de pessoas em todo o mundo sofrem com a ausência de um membro. A ausência de uma mão afeta diretamente a mobilidade na vida diária. Mesmo com as atuais próteses robóticas avançadas, ainda há necessidade de interfaces homem-máquina portáteis que sejam capazes de explorar o movimento natural simultâneo, proporcional e independente dos dedos. Este estudo propõe o desenvolvimento de uma plataforma experimental para aquisição sEMG e rastreamento das trajetórias de dedos no espaço 3D. Uma revisão completa da literatura foi realizada para entender os sinais e as técnicas atualmente usadas para desenvolver uma plataforma experimental capaz de investigar o movimento natural dos dedos para mãos robóticas. Os dados sEMG foram capturados de um único indivíduo saudável por dois canais simultaneamente, cada um com uma frequência de amostragem de 20 kHz, com nível de ruído abaixo de 5 uV. O sistema de rastreamento da trajetória dos dedos forneceu os deslocamentos angulares e de aceleração usando sensores IMU posicionados nas extremidades de cada dedo, resultando na trajetória dos dedos no espaço 3D. Os dados de saída se mantiveram dentro das especificações do projeto, onde os resultados foram analisados nos domínios de tempo e tempo-frequência e foram consistentes com a literatura. O sistema de rastreamento de trajetória de dedos proposto provou ser único na literatura e forneceu uma forma simples de rastrear trajetórias de dedos no espaço 3D, permitindo o estudo do movimento simultâneo, proporcional e independente dos dedos. A plataforma experimental desenvolvida mostrou se uma poderosa ferramenta para fins de pesquisa e ensino.

2021
Dissertações
1
  • ALEXANDRE MICCHELETI LUCENA
  • Técnicas baseadas em Filtro de Kalman e Semblance para Separação Cega de Fontes

  • Orientador : RICARDO SUYAMA
  • Data: 30/04/2021

  • Mostrar Resumo
  • A Separação Cega de Fontes (BSS) é um problema bem estabelecido em processamento de sinais, e continua recebendo atenção da comunidade científica dada sua aplicabilidade em diferentes áreas. O uso do Filtro de Kalman, uma clássica ferramenta de estimação de estado, tem sido explorada como uma solução para o problema de BSS, como uma etapa adicional em algoritmos de separação ou numa abordagem de estimador de parâmetros.

    Este trabalho apresenta uma revisão teórica sobre o problema de BSS e a aplicação do filtro de Kalman na separação de fontes como um estimador de parâmetros, segundo duas abordagens distintas: estimação conjunta e dual dos parâmetros. As abordagens foram avaliadas em diferentes cenários, analizando a inicialização e variação dos parâmetros dos algoritmos, em termos da SIR e MER. Os resultados mostram que ambas as abordagens são capazes de separar as fontes em cenários com duas fontes, mas pode não convergir para mais fontes.

    Além disso, o trabalho apresenta uma nova abordagem baseada na ideia de formatação de feixe, explorando a função de semblance dos sinais. A avaliação do algoritmos para sinais sintéticos foi feita considerando uma medida de inteligibilidade objetiva (STOI) em dois cenários e diferentes valores de SNR. Os resultados foram comparados com algoritmos clássicos (GSS e Delay-and-Sum) e mostraram que a abordagem apresenta a melhor performance dentre os algoritmos avaliados, em cenários sem ruído.



  • Mostrar Abstract
  • A Separação Cega de Fontes (BSS) é um problema bem estabelecido em processamento de sinais, e continua recebendo atenção da comunidade científica dada sua aplicabilidade em diferentes áreas. O uso do Filtro de Kalman, uma clássica ferramenta de estimação de estado, tem sido explorada como uma solução para o problema de BSS, como uma etapa adicional em algoritmos de separação ou numa abordagem de estimador de parâmetros.

    Este trabalho apresenta uma revisão teórica sobre o problema de BSS e a aplicação do filtro de Kalman na separação de fontes como um estimador de parâmetros, segundo duas abordagens distintas: estimação conjunta e dual dos parâmetros. As abordagens foram avaliadas em diferentes cenários, analizando a inicialização e variação dos parâmetros dos algoritmos, em termos da SIR e MER. Os resultados mostram que ambas as abordagens são capazes de separar as fontes em cenários com duas fontes, mas pode não convergir para mais fontes.

    Além disso, o trabalho apresenta uma nova abordagem baseada na ideia de formatação de feixe, explorando a função de semblance dos sinais. A avaliação do algoritmos para sinais sintéticos foi feita considerando uma medida de inteligibilidade objetiva (STOI) em dois cenários e diferentes valores de SNR. Os resultados foram comparados com algoritmos clássicos (GSS e Delay-and-Sum) e mostraram que a abordagem apresenta a melhor performance dentre os algoritmos avaliados, em cenários sem ruído.


2
  • MARCOS IMPERIO
  • Estudo técnico-econômico de compartilhamento da rede de acesso de rádio com uso de redes neutras para a implantação das redes móveis 5G no Brasil

  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 03/05/2021

  • Mostrar Resumo
  • Neste trabalho, busca-se realizar uma análise técnico-econômica para se avaliar os ganhos que o compartilhamento de infraestrutura na implantação da rede móvel 5G no Brasil. Com efeito, são avaliadas arquiteturas de compartilhamento da rede de acesso de rádio e de redes neutras para alcançar este objetivo tendo como base a rede móvel já instalada para a tecnologia 4G. Nesse contexto, são apresentados os possíveis ganhos de compartilhamento de infraestrutura para as Estações Rádio Base (ERBs) e para a rede de backhaul. Também é apresentada uma ferramenta de visualização para as ERBs 4G implantadas no Brasil e para a hipotética rede de backhaul necessária para atendimento dos requisitos do 5G.


  • Mostrar Abstract
  • Neste trabalho, busca-se realizar uma análise técnico-econômica para se avaliar os ganhos que o compartilhamento de infraestrutura na implantação da rede móvel 5G no Brasil. Com efeito, são avaliadas arquiteturas de compartilhamento da rede de acesso de rádio e de redes neutras para alcançar este objetivo tendo como base a rede móvel já instalada para a tecnologia 4G. Nesse contexto, são apresentados os possíveis ganhos de compartilhamento de infraestrutura para as Estações Rádio Base (ERBs) e para a rede de backhaul. Também é apresentada uma ferramenta de visualização para as ERBs 4G implantadas no Brasil e para a hipotética rede de backhaul necessária para atendimento dos requisitos do 5G.

3
  • MIGUEL BOZER DA SILVA
  •  

    Deep Convolutional Networks para Reconstrução de Imagens em Super Resolução


  • Orientador : RICARDO SUYAMA
  • Data: 26/05/2021

  • Mostrar Resumo
  • A necessidade de obter-se imagens em alta resolução existe em diversas áreas,como a medicina, astronomia, segurança e monitoramento sísmico. Entretanto, nemsempre as câmeras possuem a alta resolução desejada ou algum fator externo podereduzir a qualidade de uma imagem que se deseja estudar. Assim, diversos estudossurgiram na área de Super Resolução de imagens, cujo o objetivo é obter-se imagensde alta resolução a partir de imagens de baixa resolução utilizandosoftwaresparaessa tarefa. Os métodos comumente utilizados atualmente são baseados em apenasuma única imagem de entrada (single image super resolution(SISR)) e, a partirdo uso de técnicas dedeep learning, é possível treinar uma rede com o objetivode obter-se imagens de alta resolução com características similares ao conjunto detreino.O método proposto para esse trabalho utiliza dois ramos de convolução quese diferenciam na forma com a qual a imagem tem o seu fator de escala aumentadopela primeira vez na arquitetura proposta. Em um dos ramos utiliza-se a convoluçãotransposta e no outro a interpolação bicúbica. Após isso, em cada um dos ramos, osmapas de características passam por𝑛unidades deup and down-projectionparaposteriormente serem concatenados e ser aplicada uma última camada de convoluçãopara obter a imagem em alta resolução. Com esse tipo de estrutura podemos notarque o cenário com dois ramos consegue desempenho superior em termos de PSNRe SSIM quando comparados com o mesmo cenário com apenas um ramo quandoutilizamos𝑛= 1e𝑛= 4unidades deup and down-projection units. Para o cenáriocom𝑛= 6não houve diferenças significativas entre os modelos de um e dois ramos.


  • Mostrar Abstract
  • A necessidade de obter-se imagens em alta resolução existe em diversas áreas,como a medicina, astronomia, segurança e monitoramento sísmico. Entretanto, nemsempre as câmeras possuem a alta resolução desejada ou algum fator externo podereduzir a qualidade de uma imagem que se deseja estudar. Assim, diversos estudossurgiram na área de Super Resolução de imagens, cujo o objetivo é obter-se imagensde alta resolução a partir de imagens de baixa resolução utilizandosoftwaresparaessa tarefa. Os métodos comumente utilizados atualmente são baseados em apenasuma única imagem de entrada (single image super resolution(SISR)) e, a partirdo uso de técnicas dedeep learning, é possível treinar uma rede com o objetivode obter-se imagens de alta resolução com características similares ao conjunto detreino.O método proposto para esse trabalho utiliza dois ramos de convolução quese diferenciam na forma com a qual a imagem tem o seu fator de escala aumentadopela primeira vez na arquitetura proposta. Em um dos ramos utiliza-se a convoluçãotransposta e no outro a interpolação bicúbica. Após isso, em cada um dos ramos, osmapas de características passam por𝑛unidades deup and down-projectionparaposteriormente serem concatenados e ser aplicada uma última camada de convoluçãopara obter a imagem em alta resolução. Com esse tipo de estrutura podemos notarque o cenário com dois ramos consegue desempenho superior em termos de PSNRe SSIM quando comparados com o mesmo cenário com apenas um ramo quandoutilizamos𝑛= 1e𝑛= 4unidades deup and down-projection units. Para o cenáriocom𝑛= 6não houve diferenças significativas entre os modelos de um e dois ramos.

4
  • RENAN RODRIGUES MENDES
  • Avaliação de Desempenho da Tecnologia LoRa para Aplicações na Indústria 4.0

  • Orientador : CARLOS EDUARDO CAPOVILLA
  • Data: 14/06/2021

  • Mostrar Resumo
  • Nos últimos anos, um novo conceito, fundamentado nas recentes funcionalidades da Internet
    of Things (IoT), vem sendo implantado nas indústrias. Este denominado de Indústria 4.0,
    traz a necessidade de monitorar e/ou controlar uma grande quantidade de dispositivos
    e processos à distância, em áreas importantes como, por exemplo, as redes de energia e
    as redes industriais. Sua implementação é baseada no uso de diferentes tecnologias de
    comunicação, entretanto, o uso das tecnologias sem fio de Low Power Wide Area (LPWA)
    tem se destacado recentemente por apresentar um baixo custo, grande flexibilidade de
    instalação e manutenção, gerenciamento de uma grande quantidade de dispositivos, além
    do baixo consumo de energia e longo alcance. Dentre as tecnologias sem fio de LPWA
    existentes, a tecnologia Long Range (LoRa) tem se mostrado bastante promissora por
    utilizar uma modulação por Chirp Spread Spectrum (CSS), que a torna mais robusta a
    interferências e aos efeitos degradantes do canal de propagação. Em função disto, este
    trabalho apresenta uma análise do desempenho de um sistema de comunicação ponto-aponto
    que opera na faixa de 915 MHz, baseado na tecnologia LoRa, para aplicações da
    Indústria 4.0 em plantas de pequeno e médio porte.


  • Mostrar Abstract
  • Nos últimos anos, um novo conceito, fundamentado nas recentes funcionalidades da Internet
    of Things (IoT), vem sendo implantado nas indústrias. Este denominado de Indústria 4.0,
    traz a necessidade de monitorar e/ou controlar uma grande quantidade de dispositivos
    e processos à distância, em áreas importantes como, por exemplo, as redes de energia e
    as redes industriais. Sua implementação é baseada no uso de diferentes tecnologias de
    comunicação, entretanto, o uso das tecnologias sem fio de Low Power Wide Area (LPWA)
    tem se destacado recentemente por apresentar um baixo custo, grande flexibilidade de
    instalação e manutenção, gerenciamento de uma grande quantidade de dispositivos, além
    do baixo consumo de energia e longo alcance. Dentre as tecnologias sem fio de LPWA
    existentes, a tecnologia Long Range (LoRa) tem se mostrado bastante promissora por
    utilizar uma modulação por Chirp Spread Spectrum (CSS), que a torna mais robusta a
    interferências e aos efeitos degradantes do canal de propagação. Em função disto, este
    trabalho apresenta uma análise do desempenho de um sistema de comunicação ponto-aponto
    que opera na faixa de 915 MHz, baseado na tecnologia LoRa, para aplicações da
    Indústria 4.0 em plantas de pequeno e médio porte.

5
  • OSVALDO RODRIGUES SÉRGIO
  • Metodologia para Análise da Evolução da Ocupação Espectral em Enlaces de Redes Ópticas Elásticas operando com Carga Normalizada

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 14/09/2021

  • Mostrar Resumo
  • As Redes Ópticas Elásticas (EON) têm sido consideradas como soluções promissoras para satisfazer as necessidades atuais por demanda de largura de banda. Isso ocorre devido à melhor eficiência espectral obtida por meio da utilização de tecnologias baseadas em grades flexíveis e alocação de larguras de bandas ajustáveis para serviços com demandas heterogêneas. Contudo, a implementação robusta e escalável de EONs passa pelo gerenciamento eficiente do roteamento e alocação de espectro, recursos de rede e qualidade dos serviços ofertados. Essa tarefa se torna primordial devido ao problema de fragmentação espectral resultante da necessidade de alocação de Unidades de slots de Frequência (FSU) de maneiras contíguas e contínuas aliada à natureza dinâmica dos processos de atendimento e liberação das conexões. As propostas comumente empregadas para lidar com o gerenciamento dos recursos de rede operam com o roteamento no nível do caminho óptico. Porém, os resultados publicados recentemente em um artigo considerando a normalização da carga da rede e sua relação com a utilização geral despertam o interesse pela caracterização da ocupação espectral dos enlaces para potenciais utilizações em métodos de gerenciamento de recursos de rede.

    Neste trabalho foi analisada, pela primeira vez, a evolução de ocupação espectral em enlaces de uma EON com carga normalizada. Tal análise foi baseada no cálculo dos coeficientes diretamente relacionados ao nível de ocupação dos enlaces de uma EON sob topologia NSFNet com 14 nós e 21 enlaces bidirecionais. Adicionalmente, foi proposto um método de gerenciamento de rede utilizando limitação de tráfego de dados baseado no nível de ocupação dos enlaces fornecido pelos valores dos coeficientes de utilização calculados. Os impactos de tal técnica de gerenciamento de rede no desempenho da rede EON mencionada também foram analisados e discutidos. Os resultados indicaram que a estratégia de limitação de tráfego de dados considerada não é indicada para o gerenciamento de recursos de rede devido à elevada probabilidade de bloqueio de conexões observada. Essa degradação do desempenho geral da EON é decorrente tanto do impacto negativo que os enlaces com menor número de rotas exercem sobre os enlaces contendo maiores quantidades de rotas quanto dos níveis similares de utilização teórica e futura dos enlaces. Por outro lado, a análise acerca da evolução de ocupação do espectro nos enlaces com carga normalizada obtida pode contribuir significativamente para o desenvolvimento de novas metodologias de normalização de carga nos enlaces e, consequentemente, técnicas inovadoras de gerenciamento de desempenho em redes EON.


  • Mostrar Abstract
  • As Redes Ópticas Elásticas (EON) têm sido consideradas como soluções promissoras para satisfazer as necessidades atuais por demanda de largura de banda. Isso ocorre devido à melhor eficiência espectral obtida por meio da utilização de tecnologias baseadas em grades flexíveis e alocação de larguras de bandas ajustáveis para serviços com demandas heterogêneas. Contudo, a implementação robusta e escalável de EONs passa pelo gerenciamento eficiente do roteamento e alocação de espectro, recursos de rede e qualidade dos serviços ofertados. Essa tarefa se torna primordial devido ao problema de fragmentação espectral resultante da necessidade de alocação de Unidades de slots de Frequência (FSU) de maneiras contíguas e contínuas aliada à natureza dinâmica dos processos de atendimento e liberação das conexões. As propostas comumente empregadas para lidar com o gerenciamento dos recursos de rede operam com o roteamento no nível do caminho óptico. Porém, os resultados publicados recentemente em um artigo considerando a normalização da carga da rede e sua relação com a utilização geral despertam o interesse pela caracterização da ocupação espectral dos enlaces para potenciais utilizações em métodos de gerenciamento de recursos de rede.

    Neste trabalho foi analisada, pela primeira vez, a evolução de ocupação espectral em enlaces de uma EON com carga normalizada. Tal análise foi baseada no cálculo dos coeficientes diretamente relacionados ao nível de ocupação dos enlaces de uma EON sob topologia NSFNet com 14 nós e 21 enlaces bidirecionais. Adicionalmente, foi proposto um método de gerenciamento de rede utilizando limitação de tráfego de dados baseado no nível de ocupação dos enlaces fornecido pelos valores dos coeficientes de utilização calculados. Os impactos de tal técnica de gerenciamento de rede no desempenho da rede EON mencionada também foram analisados e discutidos. Os resultados indicaram que a estratégia de limitação de tráfego de dados considerada não é indicada para o gerenciamento de recursos de rede devido à elevada probabilidade de bloqueio de conexões observada. Essa degradação do desempenho geral da EON é decorrente tanto do impacto negativo que os enlaces com menor número de rotas exercem sobre os enlaces contendo maiores quantidades de rotas quanto dos níveis similares de utilização teórica e futura dos enlaces. Por outro lado, a análise acerca da evolução de ocupação do espectro nos enlaces com carga normalizada obtida pode contribuir significativamente para o desenvolvimento de novas metodologias de normalização de carga nos enlaces e, consequentemente, técnicas inovadoras de gerenciamento de desempenho em redes EON.

6
  • VICTOR COSTA BERALDO
  • Um estudo sobre a robustez de técnicas de verificação de locutores com D-vectors

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 14/09/2021

  • Mostrar Resumo
  • A verificação de locutores é uma das principais tarefas na modelagem de reconhecimento de locutor, sendo realizada a partir de dados do principal meio de comunicação entre os seres humanos, a voz. Caracterizada como uma das formas de biometria, a verificação de locutores destaca-se principalmente pela forma não intrusiva e amplamente disponível de se coletar dados. Este tipo de tecnologia é de extrema importância para controle de acessos, segurança e análise forense em geral.

    A verificação de locutores é feita através da confirmação, ou não, da identidade de um locutor, com base na comparação de características extraídas de segmentos de voz diferentes. Graças ao grande avanço tecnológico, tanto de infraestrutura, quanto de modelagem, a utilização de aprendizado profundo de redes neurais aplicado a este problema vem crescendo muito. Uma destas técnicas é chamada de \emph{d-vectors}, que são representações da voz em tamanho fixo, extraídas a partir de camadas anteriores à camada de saída de uma rede neural profunda, e que tem se tornado o estado da arte na resolução deste problema.

    Diferente de redes neurais treinadas para classificar locutores específicos, com a utilização de \emph{d-vector} é possível realizar a verificação de locutores inexistentes nas bases de treinamento. Neste contexto, notou-se a necessidade de comparar estas técnicas de forma padronizada, em situações onde há dados para treinamento que não foram obtidos da mesma origem que a base de teste, representando um problema real, onde necessita-se escolher um modelo, porém não há dados de treinamento e teste com as mesmas características. Foram realizados três experimentos: O primeiro foi feito comparando-se os modelos SincNet e GE2E treinados em diferentes bases de treinamento, também utilizando estratégias de \emph{data augmentation}, e testados na mesma base de dados. O segundo experimento foi feito utilizando-se uma única combinação de treino e teste do primeiro experimento, porém desta vez são utilizados mais dois tipos de modelos: redes ResNet, com função de custo triplet loss, e também um modelo proposto neste trabalho, chamado SincNet + GE2E, em que foi adaptada a rede SincNet para ser treinada com a função de custo GE2E. O Terceiro e último experimento foi feito utilizando-se os modelos já treinados dos experimentos anteriores, em uma única base de treino, mas desta vez testados em diferentes outras bases de teste, extraídas a partir de fontes de dados de origens diferentes.

    Os resultados obtidos no primeiro experimento mostraram que a SincNet apresentou melhor desempenho em todas as bases de treinamento, em comparação com o modelo GE2E. As estratégias de \emph{data augmentation} foram menos efetivas para diminuir o EER do que a possibilidade de aumentar a base de dados de treinamento com dados da mesma origem que a base de teste. A variação grande de EER relativo a modelagem em relação ao esforço de aumentar os dados, motivou o segundo experimento, onde foram utilizadas formas diferentes de modelagem. o modelo SincNet + GE2e teve um desempenho melhor que o do GE2E original, porém não superou a SincNet padrão, nem as redes ResNet com função de custo triplet loss.

    No terceiro experimento, as comparações realizadas continuaram com a SincNet como o melhor modelo, porém em uma das condições de teste, o modelo utilizando ResNet obteve melhor desempenho. Este resultado indica que, entre todos os modelos, experimentos e banco de dados apresentados nesta dissertação, mesmo com o problema de variabilidade nos dados de voz, a rede SincNet é a melhor escolha na maioria deles.


  • Mostrar Abstract
  • A verificação de locutores é uma das principais tarefas na modelagem de reconhecimento de locutor, sendo realizada a partir de dados do principal meio de comunicação entre os seres humanos, a voz. Caracterizada como uma das formas de biometria, a verificação de locutores destaca-se principalmente pela forma não intrusiva e amplamente disponível de se coletar dados. Este tipo de tecnologia é de extrema importância para controle de acessos, segurança e análise forense em geral.

    A verificação de locutores é feita através da confirmação, ou não, da identidade de um locutor, com base na comparação de características extraídas de segmentos de voz diferentes. Graças ao grande avanço tecnológico, tanto de infraestrutura, quanto de modelagem, a utilização de aprendizado profundo de redes neurais aplicado a este problema vem crescendo muito. Uma destas técnicas é chamada de \emph{d-vectors}, que são representações da voz em tamanho fixo, extraídas a partir de camadas anteriores à camada de saída de uma rede neural profunda, e que tem se tornado o estado da arte na resolução deste problema.

    Diferente de redes neurais treinadas para classificar locutores específicos, com a utilização de \emph{d-vector} é possível realizar a verificação de locutores inexistentes nas bases de treinamento. Neste contexto, notou-se a necessidade de comparar estas técnicas de forma padronizada, em situações onde há dados para treinamento que não foram obtidos da mesma origem que a base de teste, representando um problema real, onde necessita-se escolher um modelo, porém não há dados de treinamento e teste com as mesmas características. Foram realizados três experimentos: O primeiro foi feito comparando-se os modelos SincNet e GE2E treinados em diferentes bases de treinamento, também utilizando estratégias de \emph{data augmentation}, e testados na mesma base de dados. O segundo experimento foi feito utilizando-se uma única combinação de treino e teste do primeiro experimento, porém desta vez são utilizados mais dois tipos de modelos: redes ResNet, com função de custo triplet loss, e também um modelo proposto neste trabalho, chamado SincNet + GE2E, em que foi adaptada a rede SincNet para ser treinada com a função de custo GE2E. O Terceiro e último experimento foi feito utilizando-se os modelos já treinados dos experimentos anteriores, em uma única base de treino, mas desta vez testados em diferentes outras bases de teste, extraídas a partir de fontes de dados de origens diferentes.

    Os resultados obtidos no primeiro experimento mostraram que a SincNet apresentou melhor desempenho em todas as bases de treinamento, em comparação com o modelo GE2E. As estratégias de \emph{data augmentation} foram menos efetivas para diminuir o EER do que a possibilidade de aumentar a base de dados de treinamento com dados da mesma origem que a base de teste. A variação grande de EER relativo a modelagem em relação ao esforço de aumentar os dados, motivou o segundo experimento, onde foram utilizadas formas diferentes de modelagem. o modelo SincNet + GE2e teve um desempenho melhor que o do GE2E original, porém não superou a SincNet padrão, nem as redes ResNet com função de custo triplet loss.

    No terceiro experimento, as comparações realizadas continuaram com a SincNet como o melhor modelo, porém em uma das condições de teste, o modelo utilizando ResNet obteve melhor desempenho. Este resultado indica que, entre todos os modelos, experimentos e banco de dados apresentados nesta dissertação, mesmo com o problema de variabilidade nos dados de voz, a rede SincNet é a melhor escolha na maioria deles.

Teses
1
  • GABRIELA OLIVEIRA BIONDI
  • Modelos de Dados Rastreáveis em Arquiteturas de Aplicações Inteligentes

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 22/02/2021

  • Mostrar Resumo
  • Não informado.


  • Mostrar Abstract
  • Não informado.

2
  • ALEXANDRE HEIDEKER
  • Identificação de Gargalos em SFC para Gerenciamento de Elasticidade de Serviços

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 12/05/2021

  • Mostrar Resumo
  • Na ultima década observou-se um grande movimento de virtualização e “softwarização” promovendo a ampla adoção do paradigma de computação em nuvem, reduzindo despesas operacionais e tornando o mercado de serviços digitais mais acessível e competitivo. Esta revolução apresenta novas oportunidades, mas também novos desafios para a gestão, demandando a esperada gestão autonômica. O encadeamento de funções de serviço (SFC) promove estudos de como automatizar e otimizar o uso de tecnologias como virtualização de funções de rede (NFV) e redes definidas por software (SDN), e neste cenário, identificar funções sobrecarregadas, ou gargalos, torna-se essencial. Tradicionalmente esta identificação é realizada por métricas de hardware como CPU e memória, ou através de informações fornecidas pelas próprias aplicações. Além de sofrerem influência do ambiente de virtualização e da qualidade da implementação do algoritmo, o que compromete a confiabilidade destas métricas, a coleta de informações dos usuários e rastreamento de tráfego se faz necessário para observar a qualidade do serviço ofertado. Neste trabalho, apresentamos a técnica de Avaliação de Enfileiramento de Rede (NQA) para detecção de gargalos. Esta técnica permite identificar o gargalo sem o feedback do usuário ou qualquer interferência no tráfego de rede, independente da composição do SFC. Uma ampla avaliação experimental é apresentada para suportar as conclusões deste trabalho.   


  • Mostrar Abstract
  • Na ultima década observou-se um grande movimento de virtualização e “softwarização” promovendo a ampla adoção do paradigma de computação em nuvem, reduzindo despesas operacionais e tornando o mercado de serviços digitais mais acessível e competitivo. Esta revolução apresenta novas oportunidades, mas também novos desafios para a gestão, demandando a esperada gestão autonômica. O encadeamento de funções de serviço (SFC) promove estudos de como automatizar e otimizar o uso de tecnologias como virtualização de funções de rede (NFV) e redes definidas por software (SDN), e neste cenário, identificar funções sobrecarregadas, ou gargalos, torna-se essencial. Tradicionalmente esta identificação é realizada por métricas de hardware como CPU e memória, ou através de informações fornecidas pelas próprias aplicações. Além de sofrerem influência do ambiente de virtualização e da qualidade da implementação do algoritmo, o que compromete a confiabilidade destas métricas, a coleta de informações dos usuários e rastreamento de tráfego se faz necessário para observar a qualidade do serviço ofertado. Neste trabalho, apresentamos a técnica de Avaliação de Enfileiramento de Rede (NQA) para detecção de gargalos. Esta técnica permite identificar o gargalo sem o feedback do usuário ou qualquer interferência no tráfego de rede, independente da composição do SFC. Uma ampla avaliação experimental é apresentada para suportar as conclusões deste trabalho.   

3
  • JEFERSON RODRIGUES COTRIM
  • LoRaWAN Multihop Networks: Classification, Modeling, and Practical Implementation
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 27/08/2021

  • Mostrar Resumo
  • The IoT demands of a wireless protocol with a higher coverage area and low energy consumption motivate the development of the LPWAN networks. The LoRaWAN is one of the most recognized and used protocols in the sub-GHz non-licensed frequency band. The TheLoRaWAN networks use a star-of-stars topology with a central element responsible to receives the data from the other devices and forward them to a server that will connect the data to the applications. Besides the large coverage area provided by the LoRaWAN, many applications can find obstacles to transmit their data. Thus, the studies of multihop solutions have grown in the last years, focused on improvements to the LoRaWAN network’s performance. First of all, the presented work provides a survey on the research field with a classification of the related work according to new criteria proposed by the author. The classification includes a new devices nomenclature and a description of the multihop topologies. The related works, in general, are focused on providing a solution to a specific problem. The proposed work developed an analytical model for LoRaWAN multihop definition, including the energy consumption, throughput, packet delivery ratio, and delay models. Based on the proposed model, we provide an analytical evaluation of some scenarios and network configurations that uses relay nodes. The results show that the relay usage improves the network performance by decreasing the energy consumption and increasing the packet delivery ratio. The presented work includes the practical development and installation of a relay at the UFABC campus. The realized tests demonstrate the feasibility of the relay usage. The tests demonstrate the feasibility of the relay usage. The tests results show the relay increases the coverage area, and the RSSI data indicate that it is possible to decreases the transmission power of the devices that uses the relay, resulting in energy consumption decreasing. Considering the analytical and practical results presented, we can conclude the usage of a relay brings benefits to the theLoRaWAN network.


  • Mostrar Abstract
  • The IoT demands of a wireless protocol with a higher coverage area and low energy consumption motivate the development of the LPWAN networks. The LoRaWAN is one of the most recognized and used protocols in the sub-GHz non-licensed frequency band. The TheLoRaWAN networks use a star-of-stars topology with a central element responsible to receives the data from the other devices and forward them to a server that will connect the data to the applications. Besides the large coverage area provided by the LoRaWAN, many applications can find obstacles to transmit their data. Thus, the studies of multihop solutions have grown in the last years, focused on improvements to the LoRaWAN network’s performance. First of all, the presented work provides a survey on the research field with a classification of the related work according to new criteria proposed by the author. The classification includes a new devices nomenclature and a description of the multihop topologies. The related works, in general, are focused on providing a solution to a specific problem. The proposed work developed an analytical model for LoRaWAN multihop definition, including the energy consumption, throughput, packet delivery ratio, and delay models. Based on the proposed model, we provide an analytical evaluation of some scenarios and network configurations that uses relay nodes. The results show that the relay usage improves the network performance by decreasing the energy consumption and increasing the packet delivery ratio. The presented work includes the practical development and installation of a relay at the UFABC campus. The realized tests demonstrate the feasibility of the relay usage. The tests demonstrate the feasibility of the relay usage. The tests results show the relay increases the coverage area, and the RSSI data indicate that it is possible to decreases the transmission power of the devices that uses the relay, resulting in energy consumption decreasing. Considering the analytical and practical results presented, we can conclude the usage of a relay brings benefits to the theLoRaWAN network.

4
  • LUCINDA DE ALMEIDA LERIA
  • AVALIAÇÃO EM LARGA ESCALA E TECNOLOGIA ASSISTIVA: PROTAGONISMO DA PESSOA  COM DEFICIÊNCIA VISUAL NO EXAME NACIONAL DO ENSINO MÉDIO (ENEM)

     


  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 09/09/2021

  • Mostrar Resumo
  • Os testes baseados em computador são amplamente usados em avaliações educacionais em larga escala, no âmbito mundial. No entanto, a participação efetiva de pessoas com deficiência visual (PcDvs) nestas avaliações, por meio do uso de Tecnologia Assistiva (TA) de forma equitativa e independente, ainda é um desafio. O Exame Nacional do Ensino Médio (ENEM) é o principal instrumento de acesso à Educação Superior brasileira, sendo seus resultados utilizados por políticas públicas para ofertas de vagas subsidiadas pelo Estado. Assim, qualquer barreira ou dificuldade encontrada pela PcDv, ao realizar o exame, pode comprometer o seu acesso à Educação Superior. Neste contexto, o objetivo desta tese foi investigar a transição do Ensino Médio para a Educação Superior da PcDv, por meio do ENEM, procurando identificar fatores sociais que possam estar relacionados ao seu desempenho no exame, bem como buscar soluções tecnológicas acessíveis e mecanismos que promovam a acessibilidade no ENEM para esta população. Assim, este trabalho foi estruturado em três estudos, com finalidades e metodologias distintas, conforme o objetivo de pesquisa.

    No Estudo 1, foi realizada uma revisão sistemática de literatura investigando as experiências internacionais do uso de soluções tecnológicas acessíveis e TAs, para participação da PcDv em avaliações em larga escala. Na sequência, no Estudo 2, foram analisados os fatores sociais relacionados ao desempenho acadêmico na prova do ENEM e, consequentemente,nao acesso à Educação Superior pelo candidato com deficiência visual, por meio da análise quantitativa dos microdados das edições de 2017 e 2018 do exame. Por fim, para entendimento e análise do  contexto o qual a PcDv  realiza o exame, foi efetuada a análise documental dos documentos oficiais do ENEM e averiguada a validade social do processo atual para acessibilização do exame, dando voz a 29 PcDvs, de 10 estados diferentes, através da pesquisa qualitativa sobre acessibilidade no ENEM realizada no Estudo 3.

    Os resultados dos três estudos demonstraram a viabilidade do uso de TAs em avaliações em larga escala para PcDvs, bem como apontaram propostas e recomendações para promover o acesso à Educação Superior deste público. Espera-se que os avanços no tema, identificados na pesquisa detalhada e minuciosa realizada nesta tese, com foco específico na PcDv e baseado na avaliação do ENEM, possa apoiar na decisão de formulação de políticas públicas e colaborar no avanço de pesquisas futuras no tema. Por fim, pretende-se que este trabalho possa contribuir para promover acessibilidade e condições de igualdade no ENEM e demais avaliações educacionais em larga escala, garantindo  assim o direito educacional da  PcDv e  demais estudantes brasileiros com repertórios diversos.


  • Mostrar Abstract
  • Os testes baseados em computador são amplamente usados em avaliações educacionais em larga escala, no âmbito mundial. No entanto, a participação efetiva de pessoas com deficiência visual (PcDvs) nestas avaliações, por meio do uso de Tecnologia Assistiva (TA) de forma equitativa e independente, ainda é um desafio. O Exame Nacional do Ensino Médio (ENEM) é o principal instrumento de acesso à Educação Superior brasileira, sendo seus resultados utilizados por políticas públicas para ofertas de vagas subsidiadas pelo Estado. Assim, qualquer barreira ou dificuldade encontrada pela PcDv, ao realizar o exame, pode comprometer o seu acesso à Educação Superior. Neste contexto, o objetivo desta tese foi investigar a transição do Ensino Médio para a Educação Superior da PcDv, por meio do ENEM, procurando identificar fatores sociais que possam estar relacionados ao seu desempenho no exame, bem como buscar soluções tecnológicas acessíveis e mecanismos que promovam a acessibilidade no ENEM para esta população. Assim, este trabalho foi estruturado em três estudos, com finalidades e metodologias distintas, conforme o objetivo de pesquisa.

    No Estudo 1, foi realizada uma revisão sistemática de literatura investigando as experiências internacionais do uso de soluções tecnológicas acessíveis e TAs, para participação da PcDv em avaliações em larga escala. Na sequência, no Estudo 2, foram analisados os fatores sociais relacionados ao desempenho acadêmico na prova do ENEM e, consequentemente,nao acesso à Educação Superior pelo candidato com deficiência visual, por meio da análise quantitativa dos microdados das edições de 2017 e 2018 do exame. Por fim, para entendimento e análise do  contexto o qual a PcDv  realiza o exame, foi efetuada a análise documental dos documentos oficiais do ENEM e averiguada a validade social do processo atual para acessibilização do exame, dando voz a 29 PcDvs, de 10 estados diferentes, através da pesquisa qualitativa sobre acessibilidade no ENEM realizada no Estudo 3.

    Os resultados dos três estudos demonstraram a viabilidade do uso de TAs em avaliações em larga escala para PcDvs, bem como apontaram propostas e recomendações para promover o acesso à Educação Superior deste público. Espera-se que os avanços no tema, identificados na pesquisa detalhada e minuciosa realizada nesta tese, com foco específico na PcDv e baseado na avaliação do ENEM, possa apoiar na decisão de formulação de políticas públicas e colaborar no avanço de pesquisas futuras no tema. Por fim, pretende-se que este trabalho possa contribuir para promover acessibilidade e condições de igualdade no ENEM e demais avaliações educacionais em larga escala, garantindo  assim o direito educacional da  PcDv e  demais estudantes brasileiros com repertórios diversos.

5
  • RODRIGO MAROTTI TOGNERI
  • Water Need Estimation for Smart Irrigation: From Traditional to Machine Learning Approaches

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 20/12/2021

  • Mostrar Resumo
  • In recent years, the development and popularization of the Internet of Things have allowed spatial-temporal fine-grained data for agriculture, which favored the advancement of data-driven approaches and the deepening of precision agriculture. In this context, this work investigates and contributes to state-of-the-art specifically in water need estimation for IoT-based precision irrigation. For that, we first survey the area and each of their key subjects, build up a graph-shaped map to guide solution designers, and investigate and extrapolate research trends. After, we recognize that data quality is an issue to machine learning approaches applied to IoT data, addressing possible solutions. Finally, we test the feasibility of machine learning approaches to water need estimation based on soil moisture forecast in a real case with a 2–4-year history of 12 fields from 4 farms of diverse geographic and climatic characteristics, with 55 crops from 8 different crop types. We show that machine learning is a promising alternative to traditional approaches, and we also provide a guide for machine learning-based soil moisture forecast modeling.


  • Mostrar Abstract
  • In recent years, the development and popularization of the Internet of Things have allowed spatial-temporal fine-grained data for agriculture, which favored the advancement of data-driven approaches and the deepening of precision agriculture. In this context, this work investigates and contributes to state-of-the-art specifically in water need estimation for IoT-based precision irrigation. For that, we first survey the area and each of their key subjects, build up a graph-shaped map to guide solution designers, and investigate and extrapolate research trends. After, we recognize that data quality is an issue to machine learning approaches applied to IoT data, addressing possible solutions. Finally, we test the feasibility of machine learning approaches to water need estimation based on soil moisture forecast in a real case with a 2–4-year history of 12 fields from 4 farms of diverse geographic and climatic characteristics, with 55 crops from 8 different crop types. We show that machine learning is a promising alternative to traditional approaches, and we also provide a guide for machine learning-based soil moisture forecast modeling.

2020
Dissertações
1
  • TITO CACO CURIMBABA SPADINI
  • Generative Adversarial Networks para Aprimoramento de áudio e Voz

  • Orientador : RICARDO SUYAMA
  • Data: 30/01/2020

  • Mostrar Resumo
  • Em todo um universo de aplicações multimídia, a observação de informações tende a ser uma composição tipicamente resultante de algum processo de mistura. Para algumas aplicações, tal Status quo pode ser justamente o que se almeja, contudo, como nem sempre é o caso, é desejável que cada fonte geradora seja representada em um canal diferente de informação; a tarefa que realiza tal processo é conhecida como separação de fontes (ou separação de sinais), independentemente do que representam esses sinais. Tal tarefa não é limitada a um único método; existem muitas formas distintas para se realizar o processo de separação.

    Neste trabalho, foram explorados arcabouços de GANs (Generative Adversarial Networks) aliados a técnicas mais tradicionais para se realizar a tarefa de separação de fontes com o objetivo de se provocar um efeito de aprimoramento de áudio para sinais de vozes humanas, o que inclui um processo de atenuação de ruído.


  • Mostrar Abstract
  • Em todo um universo de aplicações multimídia, a observação de informações tende a ser uma composição tipicamente resultante de algum processo de mistura. Para algumas aplicações, tal Status quo pode ser justamente o que se almeja, contudo, como nem sempre é o caso, é desejável que cada fonte geradora seja representada em um canal diferente de informação; a tarefa que realiza tal processo é conhecida como separação de fontes (ou separação de sinais), independentemente do que representam esses sinais. Tal tarefa não é limitada a um único método; existem muitas formas distintas para se realizar o processo de separação.

    Neste trabalho, foram explorados arcabouços de GANs (Generative Adversarial Networks) aliados a técnicas mais tradicionais para se realizar a tarefa de separação de fontes com o objetivo de se provocar um efeito de aprimoramento de áudio para sinais de vozes humanas, o que inclui um processo de atenuação de ruído.

2
  • VINÍCIUS SANTANA DA SILVA
  • PROJETO DE ANTENAS PARA RECEPÇÃO SIMULTÂNEA DE ENERGIA E INFORMAÇÃO: UMA ABORDAGEM OUT-OF-BAND

  • Orientador : CARLOS EDUARDO CAPOVILLA
  • Data: 31/01/2020

  • Mostrar Resumo
  • Sistemas de transmissão simultânea de potência e informação sem fio (do acrônimo inglês, SWIPT) são uma das soluções propostas para a utilização em redes de sensores sem fio, tornando-os totalmente ou parcialmente independente de cabos e/ou baterias. Apesar dacrescente demanda de artigos de SWIPT, pouco se debate sobre projetos de hardwares nessa área. Visando preencher essa lacuna, esse trabalho contempla o projeto, síntese e comparação de arquiteturas de recepção baseados em SWIPT em estruturas planares de baixo custo utilizando as bandas de comunicações móveis em 1,8 GHz para comunicação e ISM de 2,4 GHz para harvesting de energia out-of-band. Nesse trabalho são apresentadas as antenas patch dupla e a Dual-Output Quasi-Yagi (DOQY) como arquiteturas do tipo Separated Receiver e Power Splitting, respectivamente. É apresentado também um dispositivo divisor de potência baseado em frequência que integra a DOQY, que se mostra uma alternativa mais eficiente para sistemas de harvesting out-of-band de arquitetura Power Splitting se comparado aos divisores de potência convencionais. Os resultados preliminares apontam um desempenho satisfatório da patch dupla, apresentando bom isolamento entre portas e Pout = 17 uW. A antena DOQY apresentou ganho de 70% em relação a uma antena Quasi-Yagi de mesmas dimensões (QYref), e o mesmo desempenho no quesito harvesting. O desempenho em 1.8 GHz foi elevado a 81% da QYref quando o retificador foi adicionado na sua respectiva porta. Os resultados apresentados pela DOQY a credenciam a topologia de sistemas SWIPT com harvesting out-of-band. 


  • Mostrar Abstract
  • Sistemas de transmissão simultânea de potência e informação sem fio (do acrônimo inglês, SWIPT) são uma das soluções propostas para a utilização em redes de sensores sem fio, tornando-os totalmente ou parcialmente independente de cabos e/ou baterias. Apesar dacrescente demanda de artigos de SWIPT, pouco se debate sobre projetos de hardwares nessa área. Visando preencher essa lacuna, esse trabalho contempla o projeto, síntese e comparação de arquiteturas de recepção baseados em SWIPT em estruturas planares de baixo custo utilizando as bandas de comunicações móveis em 1,8 GHz para comunicação e ISM de 2,4 GHz para harvesting de energia out-of-band. Nesse trabalho são apresentadas as antenas patch dupla e a Dual-Output Quasi-Yagi (DOQY) como arquiteturas do tipo Separated Receiver e Power Splitting, respectivamente. É apresentado também um dispositivo divisor de potência baseado em frequência que integra a DOQY, que se mostra uma alternativa mais eficiente para sistemas de harvesting out-of-band de arquitetura Power Splitting se comparado aos divisores de potência convencionais. Os resultados preliminares apontam um desempenho satisfatório da patch dupla, apresentando bom isolamento entre portas e Pout = 17 uW. A antena DOQY apresentou ganho de 70% em relação a uma antena Quasi-Yagi de mesmas dimensões (QYref), e o mesmo desempenho no quesito harvesting. O desempenho em 1.8 GHz foi elevado a 81% da QYref quando o retificador foi adicionado na sua respectiva porta. Os resultados apresentados pela DOQY a credenciam a topologia de sistemas SWIPT com harvesting out-of-band. 

3
  • CAROLINE PIRES ALAVEZ MORAES
  • Novas Abordagens Para Separação Cega de Fontes no Contexto Post-Nonlinear

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 03/02/2020

  • Mostrar Resumo
  • Na área de processamento de sinais, o problema de separação cega de fontes
    (BSS, do inglês Blind Source Separation) ocupa uma posição de notoriedade em vista
    de sua versatilidade e de possíveis aplicações práticas. Apesar de contar com um sólido
    arcabouço teórico em sua vertente linear, a abordagem não linear genérica ainda
    carece de metodologias que possam garantir a separação das fontes, tornando este
    tópico de pesquisa bastante atual e desafiador. Este trabalho propõe duas abordagens
    empregando o modelo Post-Nonlinear (PNL), uma baseada na minimização da
    informação mútua e a outra baseada em estatísticas de segunda ordem. Na primeira
    abordagem, é necessária a estimação da distribuição das fontes, que podem ser
    estimadas usando funções kernel. Frequentemente, a função kernel Gaussiana é
    utilizada. No entanto, outras funções kernel com propriedades interessantes podem
    ser aplicadas, como o kernel Epanechnikov. Com base nisso, aplicamos o kernel
    Epanechnikov para estimar as distribuições, a fim de recuperar as fontes. Além disso,
    comparamos um kernel Gaussiano clássico com o kernel Epanechnikov, mostrando
    que este último tem um desempenho melhor que o anterior. Ainda dentro do contexto
    de misturas não lineares, o conhecimento prévio de algumas informações adicionais
    como a estrutura temporal e o conhecimento a priori de certas características das
    fontes podem auxiliar no desenvolvimento de novos métodos de separação que
    sejam mais robustos. A maioria das técnicas de separação envolvem estatísticas de
    ordem superior e algoritmos que utilizam redes neurais ou metaheurísticas. Com o
    intuito de facilitar o processo de recuperação, na segunda abordagem tratada neste
    trabalho, desenvolvemos um algoritmo de separação chamado A-SOBIPNL, baseado
    no gradiente descendente, que utiliza apenas estatísticas de segunda ordem para
    explorar a estrutura temporal dos sinais das fontes. Para isso, combinamos dois
    algoritmos clássicos, o AMUSE e o SOBI, para atuarem na parte linear e não linear,
    respectivamente, obtendo um bom desempenho.


  • Mostrar Abstract
  • Na área de processamento de sinais, o problema de separação cega de fontes
    (BSS, do inglês Blind Source Separation) ocupa uma posição de notoriedade em vista
    de sua versatilidade e de possíveis aplicações práticas. Apesar de contar com um sólido
    arcabouço teórico em sua vertente linear, a abordagem não linear genérica ainda
    carece de metodologias que possam garantir a separação das fontes, tornando este
    tópico de pesquisa bastante atual e desafiador. Este trabalho propõe duas abordagens
    empregando o modelo Post-Nonlinear (PNL), uma baseada na minimização da
    informação mútua e a outra baseada em estatísticas de segunda ordem. Na primeira
    abordagem, é necessária a estimação da distribuição das fontes, que podem ser
    estimadas usando funções kernel. Frequentemente, a função kernel Gaussiana é
    utilizada. No entanto, outras funções kernel com propriedades interessantes podem
    ser aplicadas, como o kernel Epanechnikov. Com base nisso, aplicamos o kernel
    Epanechnikov para estimar as distribuições, a fim de recuperar as fontes. Além disso,
    comparamos um kernel Gaussiano clássico com o kernel Epanechnikov, mostrando
    que este último tem um desempenho melhor que o anterior. Ainda dentro do contexto
    de misturas não lineares, o conhecimento prévio de algumas informações adicionais
    como a estrutura temporal e o conhecimento a priori de certas características das
    fontes podem auxiliar no desenvolvimento de novos métodos de separação que
    sejam mais robustos. A maioria das técnicas de separação envolvem estatísticas de
    ordem superior e algoritmos que utilizam redes neurais ou metaheurísticas. Com o
    intuito de facilitar o processo de recuperação, na segunda abordagem tratada neste
    trabalho, desenvolvemos um algoritmo de separação chamado A-SOBIPNL, baseado
    no gradiente descendente, que utiliza apenas estatísticas de segunda ordem para
    explorar a estrutura temporal dos sinais das fontes. Para isso, combinamos dois
    algoritmos clássicos, o AMUSE e o SOBI, para atuarem na parte linear e não linear,
    respectivamente, obtendo um bom desempenho.

4
  • SERGIO POLIMANTE SOUTO
  • Evolução multiobjetivo de trajetórias como múltiplas curvas de Bézier para VANTs

  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 29/06/2020

  • Mostrar Resumo
  • Os Veículos Aéreos Não Tripulados (VANTs) foram inicialmente utilizados em
    aplicações militares, mas têm se tornado cada vez mais populares em aplicações civis
    dado o avanço da tecnologia na miniaturização dos componentes e minimização dos
    custos. Entretanto, os VANTs possuem limitações em sua capacidade de operação
    dadas pela baixa capacidade energética e restrições cinemáticas, que limitam a
    autonomia e manobrabilidade do veículo. Portanto, o método de planejamento de
    trajetória para VANTs deve considerar essas limitações, encontrando trajetórias que
    respeitem os limites cinemáticos, tenham comprimento minimizado e visitem múltiplos
    waypoints. Os métodos encontrados atualmente são capazes de encontrar trajetórias
    válidas para VANTs, mas não fazem minimização do comprimento, ou são incapazes
    de encontrar a trajetória para múltiplos waypoints. Este trabalho apresenta o TEvol, um
    algoritmo capaz de encontrar trajetórias que respeitem os limites cinemáticos de
    curvatura, torção e inclinação para múltiplos waypoints com comprimento minimizado.
    Além disso, o TEvol também pode considerar restrições cinemáticas de Velocidade e
    Fator de carga baseadas no diagrama V-n específico de um VANT, o que pode
    proteger o veículo de falhas estruturais e estolagem. No TEvol, as trajetórias são
    modeladas como curvas de Bézier e otimizadas utilizando um algoritmo genético de
    otimização multiobjetivo baseado em seleção não dominante denominado NSGAII. Os
    resultados mostram que o algoritmo é capaz de encontrar trajetórias que visitem
    múltiplos waypoints respeitando as restrições de curvatura, torção e inclinação, ou as
    restrições de velocidade e fator de carga, e também todas as restrições
    simultaneamente. Foram encontradas trajetórias válidas em até 81.66% dos
    experimentos realizados.


  • Mostrar Abstract
  • Os Veículos Aéreos Não Tripulados (VANTs) foram inicialmente utilizados em
    aplicações militares, mas têm se tornado cada vez mais populares em aplicações civis
    dado o avanço da tecnologia na miniaturização dos componentes e minimização dos
    custos. Entretanto, os VANTs possuem limitações em sua capacidade de operação
    dadas pela baixa capacidade energética e restrições cinemáticas, que limitam a
    autonomia e manobrabilidade do veículo. Portanto, o método de planejamento de
    trajetória para VANTs deve considerar essas limitações, encontrando trajetórias que
    respeitem os limites cinemáticos, tenham comprimento minimizado e visitem múltiplos
    waypoints. Os métodos encontrados atualmente são capazes de encontrar trajetórias
    válidas para VANTs, mas não fazem minimização do comprimento, ou são incapazes
    de encontrar a trajetória para múltiplos waypoints. Este trabalho apresenta o TEvol, um
    algoritmo capaz de encontrar trajetórias que respeitem os limites cinemáticos de
    curvatura, torção e inclinação para múltiplos waypoints com comprimento minimizado.
    Além disso, o TEvol também pode considerar restrições cinemáticas de Velocidade e
    Fator de carga baseadas no diagrama V-n específico de um VANT, o que pode
    proteger o veículo de falhas estruturais e estolagem. No TEvol, as trajetórias são
    modeladas como curvas de Bézier e otimizadas utilizando um algoritmo genético de
    otimização multiobjetivo baseado em seleção não dominante denominado NSGAII. Os
    resultados mostram que o algoritmo é capaz de encontrar trajetórias que visitem
    múltiplos waypoints respeitando as restrições de curvatura, torção e inclinação, ou as
    restrições de velocidade e fator de carga, e também todas as restrições
    simultaneamente. Foram encontradas trajetórias válidas em até 81.66% dos
    experimentos realizados.

5
  • LUIZ FERNANDO NUNES VERÍSSIMO
  • Simulação de sistemas celulares 5G NR

  • Orientador : CLAUDIO JOSE BORDIN JUNIOR
  • Data: 06/08/2020

  • Mostrar Resumo
  • Nesta dissertação, avalia-se o desempenho de sistemas celulares 5G NR operando em ondas milimétricas através de simulações numéricas. As simulações empregam dados sintéticos e utilizam modelos estatísticos para a geração de parâmetros de canais de comunicação que reflitam condições realistas de propagação, nas bandas de 28 e 73GHz.
    Os cenários simulados consideram um modelo MIMO Massivo operando em TDD (time-division duplexing).
    Os receptores utilizam diferentes equalizadores e formatadores de feixe lineares cujos cálculos levam em consideração a ocorrência de interferência intercelular e uso de parâmetros de canal estimados.
    Resultados de simulação mostram que a interferência intercelular é o principal fator limitante de desempenho em tais sistemas, que pode, porém, ser mitigada com o emprego de algoritmos de equalização e formatação de feixe cooperativos.


  • Mostrar Abstract
  • Nesta dissertação, avalia-se o desempenho de sistemas celulares 5G NR operando em ondas milimétricas através de simulações numéricas. As simulações empregam dados sintéticos e utilizam modelos estatísticos para a geração de parâmetros de canais de comunicação que reflitam condições realistas de propagação, nas bandas de 28 e 73GHz.
    Os cenários simulados consideram um modelo MIMO Massivo operando em TDD (time-division duplexing).
    Os receptores utilizam diferentes equalizadores e formatadores de feixe lineares cujos cálculos levam em consideração a ocorrência de interferência intercelular e uso de parâmetros de canal estimados.
    Resultados de simulação mostram que a interferência intercelular é o principal fator limitante de desempenho em tais sistemas, que pode, porém, ser mitigada com o emprego de algoritmos de equalização e formatação de feixe cooperativos.

6
  • JOSE EDSON MORENO JUNIOR
  • Análise comparativa de técnicas de aprendizado de máquina implementadas em hardwares de baixo custo.

  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 07/08/2020

  • Mostrar Resumo
  • Devido à facilidade de acesso a hardwares de alto desempenho, há um crescimento exponencial da utilização dos algoritmos e das técnicas de aprendizado de máquina nos últimos anos. Em paralelo a isso, o acesso à Internet tem se popularizado e a prova disso é que estamos cercados de dispositivos inteligentes como televisores, celulares, assistentes pessoais e outros dispositivos portáteis, como relógios, por exemplo. Além disso, vários equipamentos industriais de baixo custo e com hardware simples para aplicações específicas, como dispositivos de monitoramento ambiental, controles remotos e câmeras, começam a ser dotados de acesso à Internet, o que possibilita a utilização de algoritmos de aprendizado de máquina, rodando em um servidor ou cluster externo (na nuvem), para análise dos dados obtidos. Com este cenário, é útil saber quais são as restrições para execução dos algoritmos de aprendizagem de máquina em hardware de baixo custo, bem como os respectivos desempenhos. Isto se faz necessário, pois nem sempre é possível processar os dados coletados por estes dispositivos em equipamentos de maior poder de processamento. Neste trabalho, é proposta uma avaliação de alguns algoritmos de aprendizado de máquina, analisando as necessidades para execução destes algoritmos, implementando em um conjunto de hardwares de uso comum do mercado, efetuando comparativos e análise do uso do algoritmo com o hardware.


  • Mostrar Abstract
  • Devido à facilidade de acesso a hardwares de alto desempenho, há um crescimento exponencial da utilização dos algoritmos e das técnicas de aprendizado de máquina nos últimos anos. Em paralelo a isso, o acesso à Internet tem se popularizado e a prova disso é que estamos cercados de dispositivos inteligentes como televisores, celulares, assistentes pessoais e outros dispositivos portáteis, como relógios, por exemplo. Além disso, vários equipamentos industriais de baixo custo e com hardware simples para aplicações específicas, como dispositivos de monitoramento ambiental, controles remotos e câmeras, começam a ser dotados de acesso à Internet, o que possibilita a utilização de algoritmos de aprendizado de máquina, rodando em um servidor ou cluster externo (na nuvem), para análise dos dados obtidos. Com este cenário, é útil saber quais são as restrições para execução dos algoritmos de aprendizagem de máquina em hardware de baixo custo, bem como os respectivos desempenhos. Isto se faz necessário, pois nem sempre é possível processar os dados coletados por estes dispositivos em equipamentos de maior poder de processamento. Neste trabalho, é proposta uma avaliação de alguns algoritmos de aprendizado de máquina, analisando as necessidades para execução destes algoritmos, implementando em um conjunto de hardwares de uso comum do mercado, efetuando comparativos e análise do uso do algoritmo com o hardware.

7
  • PAULO OMAR AUGUSTO VIEIRA
  • Avaliação do Processo de Fragmentação em Redes Ópticas Elásticas usando Aprendizado de Máquina

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 18/12/2020

  • Mostrar Resumo
  • Redes óticas elásticas (Elastic Optical Network - EON) são uma proposta para aumentar a eficiência no uso do espectro óptico em comparação com a forma como é usado pelas redes WDM convencionais, de grade fixa. Porém, 
    ao permitir o estabelecimento de canais com larguras de banda variadas, aumenta-se o potencial de fragmentação espectral da rede. Apesar de muitos esforços de pesquisa para a solução desse problema, até hoje não existem técnicas universalmente aceitas como ótimas. Este trabalho busca apresentar uma proposta que utiliza um algoritmo de aprendizado de máquina para entender quais estados da rede, ou combinações de estados, tem maior impacto sobre a fragmentação e, com base nestas informações, buscar maneiras mais eficientes para tratar esse problema.


  • Mostrar Abstract
  • Redes óticas elásticas (Elastic Optical Network - EON) são uma proposta para aumentar a eficiência no uso do espectro óptico em comparação com a forma como é usado pelas redes WDM convencionais, de grade fixa. Porém, 
    ao permitir o estabelecimento de canais com larguras de banda variadas, aumenta-se o potencial de fragmentação espectral da rede. Apesar de muitos esforços de pesquisa para a solução desse problema, até hoje não existem técnicas universalmente aceitas como ótimas. Este trabalho busca apresentar uma proposta que utiliza um algoritmo de aprendizado de máquina para entender quais estados da rede, ou combinações de estados, tem maior impacto sobre a fragmentação e, com base nestas informações, buscar maneiras mais eficientes para tratar esse problema.

Teses
1
  • THAÍNA APARECIDA AZEVEDO TOSTA
  • Algoritmos Computacionais para Normalização de Corantes de Hematoxilina e Eosina em Imagens Histológicas Digitais

  • Data: 20/01/2020

  • Mostrar Resumo
  • Diagnósticos de diferentes tipos de câncer podem ser confirmados por análises microscópicas de amostras de tecido retiradas do corpo do paciente. Com a digitalização dessas amostras, é possível obter as chamadas imagens histológicas, que permitem o desenvolvimento de sistemas computacionais que auxiliem patologistas na definição de diagnósticos. Entretanto, essas imagens podem sofrer variações de cores que podem prejudicar o desempenho de métodos computacionais de processamento de imagens histológicas. Para corrigir essas variações, técnicas de normalização são utilizadas para ajustar as cores das imagens. Neste trabalho, são propostos novos algoritmos para a normalização de imagens histológicas coradas com hematoxilina e eosina, corantes comumente utilizados em práticas clínicas. Para isso, conceitos biológicos e dos corantes foram utilizados para estimativas de matrizes de aparência de cores dos corantes e mapas de densidade dos corantes. As matrizes estimadas definem as cores dos corantes no espaço RGB, e os mapas estimam a quantidade de cada corante representada pelos pixels das imagens. Após realizar essas estimativas para as imagens original e de referência, a matriz de referência é combinada ao mapa original para que as cores da imagem de referência sejam transferidas para a imagem original, enquanto a representação de suas estruturas são preservadas. Esta proposta foi avaliada em imagens histológicas de diferentes tipos de câncer, com evidentes variações de cores, demonstrando resultados relevantes pelos critérios de avaliação utilizados. Métricas quantitativas indicaram o bom desempenho do método proposto em comparação a técnicas já publicadas na literatura. Entre essas avaliações, destaca-se o alto desempenho desta proposta para representação da eosina, sua vantajosa aplicação para os resultados da segmentação e da classificação de imagens histológicas, e sua alta eficiência computacional.


  • Mostrar Abstract
  • Diagnósticos de diferentes tipos de câncer podem ser confirmados por análises microscópicas de amostras de tecido retiradas do corpo do paciente. Com a digitalização dessas amostras, é possível obter as chamadas imagens histológicas, que permitem o desenvolvimento de sistemas computacionais que auxiliem patologistas na definição de diagnósticos. Entretanto, essas imagens podem sofrer variações de cores que podem prejudicar o desempenho de métodos computacionais de processamento de imagens histológicas. Para corrigir essas variações, técnicas de normalização são utilizadas para ajustar as cores das imagens. Neste trabalho, são propostos novos algoritmos para a normalização de imagens histológicas coradas com hematoxilina e eosina, corantes comumente utilizados em práticas clínicas. Para isso, conceitos biológicos e dos corantes foram utilizados para estimativas de matrizes de aparência de cores dos corantes e mapas de densidade dos corantes. As matrizes estimadas definem as cores dos corantes no espaço RGB, e os mapas estimam a quantidade de cada corante representada pelos pixels das imagens. Após realizar essas estimativas para as imagens original e de referência, a matriz de referência é combinada ao mapa original para que as cores da imagem de referência sejam transferidas para a imagem original, enquanto a representação de suas estruturas são preservadas. Esta proposta foi avaliada em imagens histológicas de diferentes tipos de câncer, com evidentes variações de cores, demonstrando resultados relevantes pelos critérios de avaliação utilizados. Métricas quantitativas indicaram o bom desempenho do método proposto em comparação a técnicas já publicadas na literatura. Entre essas avaliações, destaca-se o alto desempenho desta proposta para representação da eosina, sua vantajosa aplicação para os resultados da segmentação e da classificação de imagens histológicas, e sua alta eficiência computacional.

2
  • FABRIZIO FERREIRA BORELLI
  • BIoTA : Uma plataforma de desenvolvimento de software para IoT

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 11/05/2020

  • Mostrar Resumo
  • A Internet das Coisas (IoT) é um ambiente dinâmico e distribuído composto por diversos dispositivos inteligentes que detectam características e mudanças do ambiente. Devido a esses dispositivos, é possível monitorar o ambiente externo, coletar informações sobre o mundo real e criar um tipo de computação onipresente que permite que cada dispositivo se comunique com qualquer outro dispositivo do mundo, de qualquer lugar. A sinergia dos componentes computacionais e físicos levou ao avanço das implementações da Internet das Coisas.

    Muitos componentes de software precisam ser projetados do zero para abordar problemas fragmentados, exigindo assim uma grande quantidade de esforço, pois os desenvolvedores devem ter uma compreensão profunda das tecnologias, do novo domínio de aplicação e da interação com os sistemas legados. Além disso, esses sistemas enfrentam muitos desafios, como lidar com um grande número de sensores e atuadores, como aplicações que exigem ações em tempo real e com a necessidade de sistemas automatizados baseados em gerenciamento de contexto para adaptar seu comportamento as condições do ambiente atual.

    Desenvolvedores de aplicativos IoT precisam usar um ambiente de desenvolvimento integrado (IDE) baseado em uma linguagem de alto nível de domínio específico na qual suas entidades e definições de componentes, conexões entre outras entidades serão abstraídas. Combinadas com um compilador, as linguagens de alto nível podem oferecer conhecimento para facilitar a tomada de decisões melhores, por parte dos desenvolvedores de aplicações de IoT, na escolha da arquitetura de software.


  • Mostrar Abstract
  • A Internet das Coisas (IoT) é um ambiente dinâmico e distribuído composto por diversos dispositivos inteligentes que detectam características e mudanças do ambiente. Devido a esses dispositivos, é possível monitorar o ambiente externo, coletar informações sobre o mundo real e criar um tipo de computação onipresente que permite que cada dispositivo se comunique com qualquer outro dispositivo do mundo, de qualquer lugar. A sinergia dos componentes computacionais e físicos levou ao avanço das implementações da Internet das Coisas.

    Muitos componentes de software precisam ser projetados do zero para abordar problemas fragmentados, exigindo assim uma grande quantidade de esforço, pois os desenvolvedores devem ter uma compreensão profunda das tecnologias, do novo domínio de aplicação e da interação com os sistemas legados. Além disso, esses sistemas enfrentam muitos desafios, como lidar com um grande número de sensores e atuadores, como aplicações que exigem ações em tempo real e com a necessidade de sistemas automatizados baseados em gerenciamento de contexto para adaptar seu comportamento as condições do ambiente atual.

    Desenvolvedores de aplicativos IoT precisam usar um ambiente de desenvolvimento integrado (IDE) baseado em uma linguagem de alto nível de domínio específico na qual suas entidades e definições de componentes, conexões entre outras entidades serão abstraídas. Combinadas com um compilador, as linguagens de alto nível podem oferecer conhecimento para facilitar a tomada de decisões melhores, por parte dos desenvolvedores de aplicações de IoT, na escolha da arquitetura de software.

3
  • ANDRÉ LUIZ DOS SANTOS
  • Protocolo para Estudo de Estabilidade de Proteínas por meio da Perturbação local de Ângulos Diedros

  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 28/07/2020

  • Mostrar Resumo
  • Neste trabalho investigamos a aplicação de um protocolo para estudar perturbar estrturas protéicas por meio dos ângulos diedrais (Cα e Cβ) do backbone localmente por meio de janelas deslizantes ao longo da sequência da macromolécula.   Esse tipo de protocolo pode ser útil  no estudo de estabilidade de proteínas e no estudo de processos de mudança conformacional. O protocolo é inspirado na MDeNM (Molecular Dynamics with excited Normal Modes), na qual a excitação é calculada  a partir dos ângulos diedrais ao invés de  modos normais. As duas etapas fundamentais são: i)  excitação por meio de perturbação dos diedros e a ii) a perturbação é feita através do método de janelas deslizantes. A primeira etapa está relacionada com varredura local do espaço conformacional, e a segunda está associada com uma maior contribuição dos primeiros vizinhos para estabilidade local. Para validação do protocolo, aplicamos a nova metodologia a 4 sistemas: SH3, mioglobina, lisozima e Prion. As três primeiras são amplamente utilizadas na validação de novas metodologias por possuir suas propriedades estruturais e termodinâmicas bem caracterizadas. A comparação com  dados experimentais e teóricos (in silico) indicou que esse novo protocolo é capaz  de prever regiões estáveis e não estáveis.


  • Mostrar Abstract
  • Neste trabalho investigamos a aplicação de um protocolo para estudar perturbar estrturas protéicas por meio dos ângulos diedrais (Cα e Cβ) do backbone localmente por meio de janelas deslizantes ao longo da sequência da macromolécula.   Esse tipo de protocolo pode ser útil  no estudo de estabilidade de proteínas e no estudo de processos de mudança conformacional. O protocolo é inspirado na MDeNM (Molecular Dynamics with excited Normal Modes), na qual a excitação é calculada  a partir dos ângulos diedrais ao invés de  modos normais. As duas etapas fundamentais são: i)  excitação por meio de perturbação dos diedros e a ii) a perturbação é feita através do método de janelas deslizantes. A primeira etapa está relacionada com varredura local do espaço conformacional, e a segunda está associada com uma maior contribuição dos primeiros vizinhos para estabilidade local. Para validação do protocolo, aplicamos a nova metodologia a 4 sistemas: SH3, mioglobina, lisozima e Prion. As três primeiras são amplamente utilizadas na validação de novas metodologias por possuir suas propriedades estruturais e termodinâmicas bem caracterizadas. A comparação com  dados experimentais e teóricos (in silico) indicou que esse novo protocolo é capaz  de prever regiões estáveis e não estáveis.

4
  • ELIANA MARIA DOS SANTOS
  • Aprimoramento do Pré-Processamento, Extração de Características e Classificação para Interfaces Cérebro-Computador no Paradigma de Imagética Motora


  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 13/08/2020

  • Mostrar Resumo
  • Interfaces Cérebro-Computador (Brain-Computer Interfaces - BCI) são utilizadas em geral para reabilitar funções motoras deficientes no indivíduo, a partir da modelagem de padrões de sinais cerebrais. Um dos paradigmas mais utilizado em sistemas BCI é a imagética motora (Motor Imagery – MI), onde a aquisição do sinal de eletroencefalografia (EEG) é feita durante a execução de tarefas que exigem a concentração na intenção de realizar movimentos corporais específicos, mas sem executá-los de fato. A correta identificação da atividade cerebral associada à imaginação motora é crucial para o desenvolvimento de sistemas MI-BCI funcionais. Este trabalho tem como objetivo principal o aprimoramento do processamento de sinais de EEG para aplicação em MI-BCI, focando nas etapas de pré-processamento, extração de características e classificação. Para isso, investigamos diversas metodologias em cada uma das etapas citadas, a saber: no pré-processamento, investigamos a técnica de filtragem no domínio frequência de modulação para melhorar a relação sinal-ruído dos sinais de EEG. Os resultados obtidos mostraram que a solução proposta superou em 3,5% os melhores resultados do estado da arte. Na etapa de extração de características utilizou-se dois métodos principais, um baseado no Padrão Espacial Comum (Common Spatial Patterns - CSP) e outro baseado na técnica de localização de fontes de sinais de EEG, denominada Tomografia Eletromagnética Cerebral de Baixa Resolução (Low-Resolution Brain Electromagnetic Tomography - LORETA). Com a técnica CSP, os resultados foram significativamente superiores aos resultados do estado da arte em MI-BCI. No entanto, usando LORETA, os resultados ficaram levemente abaixo dos resultados obtidos com CSP na literatura. Finalmente, na etapa de classificação, foi proposto um modelo de MI-BCI independente do sujeito (Subject Independent BCI – SI-BCI) que foi comparado ao modelo tradicional de BCI para um sujeito específico (Subject Specific BCI – SS-BCI). Nossos resultados mostraram que SI-BCI é uma opção totalmente viável e possível, e que seu uso pode ser relevante em determinadas condições, como por exemplo quando os participantes não estão disponíveis para realizar longas sessões de treinamento ou para uma rápida avaliação do analfabetismo BCI, reduzindo custos operacionais e recursos humanos, bem como o estresse dos sujeitos envolvidos. Em todos os estudos anteriormente citados, utilizou-se bases de dados públicas de imagética motora, disponíveis na internet.


  • Mostrar Abstract
  • Interfaces Cérebro-Computador (Brain-Computer Interfaces - BCI) são utilizadas em geral para reabilitar funções motoras deficientes no indivíduo, a partir da modelagem de padrões de sinais cerebrais. Um dos paradigmas mais utilizado em sistemas BCI é a imagética motora (Motor Imagery – MI), onde a aquisição do sinal de eletroencefalografia (EEG) é feita durante a execução de tarefas que exigem a concentração na intenção de realizar movimentos corporais específicos, mas sem executá-los de fato. A correta identificação da atividade cerebral associada à imaginação motora é crucial para o desenvolvimento de sistemas MI-BCI funcionais. Este trabalho tem como objetivo principal o aprimoramento do processamento de sinais de EEG para aplicação em MI-BCI, focando nas etapas de pré-processamento, extração de características e classificação. Para isso, investigamos diversas metodologias em cada uma das etapas citadas, a saber: no pré-processamento, investigamos a técnica de filtragem no domínio frequência de modulação para melhorar a relação sinal-ruído dos sinais de EEG. Os resultados obtidos mostraram que a solução proposta superou em 3,5% os melhores resultados do estado da arte. Na etapa de extração de características utilizou-se dois métodos principais, um baseado no Padrão Espacial Comum (Common Spatial Patterns - CSP) e outro baseado na técnica de localização de fontes de sinais de EEG, denominada Tomografia Eletromagnética Cerebral de Baixa Resolução (Low-Resolution Brain Electromagnetic Tomography - LORETA). Com a técnica CSP, os resultados foram significativamente superiores aos resultados do estado da arte em MI-BCI. No entanto, usando LORETA, os resultados ficaram levemente abaixo dos resultados obtidos com CSP na literatura. Finalmente, na etapa de classificação, foi proposto um modelo de MI-BCI independente do sujeito (Subject Independent BCI – SI-BCI) que foi comparado ao modelo tradicional de BCI para um sujeito específico (Subject Specific BCI – SS-BCI). Nossos resultados mostraram que SI-BCI é uma opção totalmente viável e possível, e que seu uso pode ser relevante em determinadas condições, como por exemplo quando os participantes não estão disponíveis para realizar longas sessões de treinamento ou para uma rápida avaliação do analfabetismo BCI, reduzindo custos operacionais e recursos humanos, bem como o estresse dos sujeitos envolvidos. Em todos os estudos anteriormente citados, utilizou-se bases de dados públicas de imagética motora, disponíveis na internet.

5
  • RODRIGO CAMPOS BORTOLETTO
  • Métodos Analíticos para o Estudo do Desempenho de Redes Ópticas Elásticas

  • Data: 16/10/2020

  • Mostrar Resumo
  • A crescente demanda por largura de banda por parte dos usuários da rede mundial de computadores tem gerado mudanças na abordagem do uso do espectro das redes ópticas, que atualmente constituem o principal meio de transmissão de dados por longas distâncias. Sendo assim, as Redes Ópticas Elásticas surgiram com o objetivo de aumentar a eficiência de uso do espectro, por meio da alteração da grade de frequências igualmente espaçadas, legada pelas redes ópticas baseadas em Multiplexação por Divisão de Comprimento de Onda desde a virada do século. Uma das questões de pesquisa em Redes Ópticas Elásticas tem relação com o problema da atribuição de rota, espectro e modulação pelos enlaces que constituem a rede. Este trabalho tem o objetivo de estudar o problema de atribuição de espectro nesse contexto, modelando matematicamente um enlace avulso que recebe múltiplas classes de requisições por slots em uma Rede Óptica Elástica. O enlace avulso foi estudado tanto sob tráfego incremental como dinâmico utilizando duas abordagens analíticas diferentes, com a intenção de desenvolver políticas e algoritmos de atribuição de espectro capazes de gerar eficiência espectral e imparcialidade entre os serviços que compartilham a rede. No caso do tráfego incremental, foi adotada uma abordagem baseada em programação dinâmica, admitindo tanto políticas vorazes como não-vorazes de alocação a fim de obter algoritmos capazes de minimizar a ociosidade esperada do sistema até a exaustão do espectro. Foram obtidos algoritmos capazes de prevenir impasses durante a ocupação do espectro sempre que possível, bem como promover a minimização da ociosidade esperada até a exaustão completa do espectro.

    No contexto dos sistemas sujeitos a tráfego dinâmico, a abordagem analítica foi baseada no uso de cadeias de Markov em tempo contínuo. As dependências tanto da ocupação espectral como da vazão com o perfil do tráfego foram analisadas, considerando seus efeitos sobre a probabilidade de bloqueio e sobre a receita potencial, respectivamente. A reversibilidade das cadeias associadas ao enlace desfragmentado foi demonstrada, e o aparecimento de estados assintóticos ineficientes associados à forte incidência de parcialidade associada ao congestionamento da rede foi identificada. Foi proposta uma solução para este problema, baseada no truncamento das correspondentes cadeias de Markov reversíveis com o fim de eliminar os estados parcialmente bloqueantes, identificados como os únicos responsáveis pela parcialidade do sistema. Foi possível caracterizar a penalidade de eficiência associada à eliminação total da parcialidade tanto no congestionamento como fora dele, bem como as penalidades associadas à mitigação da parcialidade. Finalmente, os métodos estudados foram usados num ensaio de validação cruzada entre um simulador e um enlace irreversível sujeito à fragmentação espectral, com vistas à futura extensão dos resultados através de futuras simulações sobre instâncias analiticamente intratáveis.


  • Mostrar Abstract
  • A crescente demanda por largura de banda por parte dos usuários da rede mundial de computadores tem gerado mudanças na abordagem do uso do espectro das redes ópticas, que atualmente constituem o principal meio de transmissão de dados por longas distâncias. Sendo assim, as Redes Ópticas Elásticas surgiram com o objetivo de aumentar a eficiência de uso do espectro, por meio da alteração da grade de frequências igualmente espaçadas, legada pelas redes ópticas baseadas em Multiplexação por Divisão de Comprimento de Onda desde a virada do século. Uma das questões de pesquisa em Redes Ópticas Elásticas tem relação com o problema da atribuição de rota, espectro e modulação pelos enlaces que constituem a rede. Este trabalho tem o objetivo de estudar o problema de atribuição de espectro nesse contexto, modelando matematicamente um enlace avulso que recebe múltiplas classes de requisições por slots em uma Rede Óptica Elástica. O enlace avulso foi estudado tanto sob tráfego incremental como dinâmico utilizando duas abordagens analíticas diferentes, com a intenção de desenvolver políticas e algoritmos de atribuição de espectro capazes de gerar eficiência espectral e imparcialidade entre os serviços que compartilham a rede. No caso do tráfego incremental, foi adotada uma abordagem baseada em programação dinâmica, admitindo tanto políticas vorazes como não-vorazes de alocação a fim de obter algoritmos capazes de minimizar a ociosidade esperada do sistema até a exaustão do espectro. Foram obtidos algoritmos capazes de prevenir impasses durante a ocupação do espectro sempre que possível, bem como promover a minimização da ociosidade esperada até a exaustão completa do espectro.

    No contexto dos sistemas sujeitos a tráfego dinâmico, a abordagem analítica foi baseada no uso de cadeias de Markov em tempo contínuo. As dependências tanto da ocupação espectral como da vazão com o perfil do tráfego foram analisadas, considerando seus efeitos sobre a probabilidade de bloqueio e sobre a receita potencial, respectivamente. A reversibilidade das cadeias associadas ao enlace desfragmentado foi demonstrada, e o aparecimento de estados assintóticos ineficientes associados à forte incidência de parcialidade associada ao congestionamento da rede foi identificada. Foi proposta uma solução para este problema, baseada no truncamento das correspondentes cadeias de Markov reversíveis com o fim de eliminar os estados parcialmente bloqueantes, identificados como os únicos responsáveis pela parcialidade do sistema. Foi possível caracterizar a penalidade de eficiência associada à eliminação total da parcialidade tanto no congestionamento como fora dele, bem como as penalidades associadas à mitigação da parcialidade. Finalmente, os métodos estudados foram usados num ensaio de validação cruzada entre um simulador e um enlace irreversível sujeito à fragmentação espectral, com vistas à futura extensão dos resultados através de futuras simulações sobre instâncias analiticamente intratáveis.

2019
Dissertações
1
  • FERNANDO HENRIQUE DOS SANTOS
  • Sincronismo de fase em sistemas caóticos para transmissão de informação

  • Data: 08/02/2019

  • Mostrar Resumo
  • O sincronismo de sistemas ocorre atrav&eacute s de acoplamento ou itera&ccedil &atilde o entre os mesmos e uma das formas de acoplamento entre sistemas &eacute o mestre-escravo, em que o sistema mestre influencia o comportamento do sistema escravo. Dois tipos de sincronismo s&atilde o apresentados nesse trabalho, o sincronismo completo, em que os sistemas convergem para a mesma trajet&oacute ria com o passar do tempo e o sincronismo de fase, em que as fases dos sistemas permanecem correlacionadas mas as suas amplitudes ficam distintas. O objetivo desse trabalho &eacute mostrar a possibilidade de utilizar o sincronismo de fase entre dois osciladores ca&oacute ticos acoplados como mestre-escravo para transmitir informa&ccedil &atilde o. Sistemas de comunica&ccedil &atilde o que utilizam sincronismo completo j&aacute foram explorados e funcionam no caso ideal. Esse trabalho explora um sistema de comunica&ccedil &atilde o baseado no sistema de R&ouml ssler em que o sincronismo de fase &eacute uma aternativa mais robusta ao sincronismo total nos casos em que h&aacute ru&iacute do.


  • Mostrar Abstract
  • O sincronismo de sistemas ocorre atrav&eacute s de acoplamento ou itera&ccedil &atilde o entre os mesmos e uma das formas de acoplamento entre sistemas &eacute o mestre-escravo, em que o sistema mestre influencia o comportamento do sistema escravo. Dois tipos de sincronismo s&atilde o apresentados nesse trabalho, o sincronismo completo, em que os sistemas convergem para a mesma trajet&oacute ria com o passar do tempo e o sincronismo de fase, em que as fases dos sistemas permanecem correlacionadas mas as suas amplitudes ficam distintas. O objetivo desse trabalho &eacute mostrar a possibilidade de utilizar o sincronismo de fase entre dois osciladores ca&oacute ticos acoplados como mestre-escravo para transmitir informa&ccedil &atilde o. Sistemas de comunica&ccedil &atilde o que utilizam sincronismo completo j&aacute foram explorados e funcionam no caso ideal. Esse trabalho explora um sistema de comunica&ccedil &atilde o baseado no sistema de R&ouml ssler em que o sincronismo de fase &eacute uma aternativa mais robusta ao sincronismo total nos casos em que h&aacute ru&iacute do.

2
  • RICARDO OKADA KOBAYASHI
  • Oportunidade de Uso de Mineração de Dados no Gerenciamento do Portfólio de Restaurantes de Atendimento Rápido: uma abordagem usando BCG e árvores de decisão

  • Orientador : PATRICIA BELFIORE FAVERO
  • Data: 25/04/2019

  • Mostrar Resumo
  • Atualmente, um dos desafios enfrentados pelas empresas, em especial as grandes cadeias varejistas, é o de administrar o crescimento da sua organização, de modo estruturado e sustentável.

    Uma das muitas formas de propiciar este crescimento é melhorar a performance da operação atual e explorar oportunidades de expandir o negócio.

    Infelizmente a busca pela melhoria operacional não funciona como uma panaceia ministrada de modo igualitário, curando todos os problemas e obtendo os mesmos resultados de todos. Muito pelo contrário, a melhoria operacional está relacionada a planos, metas e ações isonômicas, que devem levar em consideração as características e necessidades de cada indivíduo.

    Neste caso, para gerir de modo estratégico, uma ferramenta aplicada a gestão de portfólios é a matriz BCG.

    Ocorre que, em determinadas organizações, o conhecimento fica preso a pessoas e se perdem ao longo do tempo. Somando a isso, mudanças e evoluções no mercado podem descaracterizar as condições e premissas iniciais e a classificação.

    Assim, o presente trabalho visa entregar uma proposta que avalie a fatores relevantes que expliquem a atual classificação, considerando variáveis atuais, aplicando de indução de regras de classificação de arvore de decisão

    O modelo proverá critérios para entender os fatores relevantes usados nesta classificação para que, então, se possa avaliar os grupos e seus elementos, permitindo que sejam tomadas ações mais efetivas sobre as lojas a fim de melhorar sua performance ou tomar a decisão de encerrar a operação.

    Nesta esteira, espera-se aplicar a mesma metodologia para extrair regras dos grupos alvo desejados (estrela e geradoras de caixa) a fim de obter um modelo mercadológico, apenas com variáveis ambientais, que possa mitigar o risco de insucesso na escolha de novas localizações.


  • Mostrar Abstract
  • Atualmente, um dos desafios enfrentados pelas empresas, em especial as grandes cadeias varejistas, é o de administrar o crescimento da sua organização, de modo estruturado e sustentável.

    Uma das muitas formas de propiciar este crescimento é melhorar a performance da operação atual e explorar oportunidades de expandir o negócio.

    Infelizmente a busca pela melhoria operacional não funciona como uma panaceia ministrada de modo igualitário, curando todos os problemas e obtendo os mesmos resultados de todos. Muito pelo contrário, a melhoria operacional está relacionada a planos, metas e ações isonômicas, que devem levar em consideração as características e necessidades de cada indivíduo.

    Neste caso, para gerir de modo estratégico, uma ferramenta aplicada a gestão de portfólios é a matriz BCG.

    Ocorre que, em determinadas organizações, o conhecimento fica preso a pessoas e se perdem ao longo do tempo. Somando a isso, mudanças e evoluções no mercado podem descaracterizar as condições e premissas iniciais e a classificação.

    Assim, o presente trabalho visa entregar uma proposta que avalie a fatores relevantes que expliquem a atual classificação, considerando variáveis atuais, aplicando de indução de regras de classificação de arvore de decisão

    O modelo proverá critérios para entender os fatores relevantes usados nesta classificação para que, então, se possa avaliar os grupos e seus elementos, permitindo que sejam tomadas ações mais efetivas sobre as lojas a fim de melhorar sua performance ou tomar a decisão de encerrar a operação.

    Nesta esteira, espera-se aplicar a mesma metodologia para extrair regras dos grupos alvo desejados (estrela e geradoras de caixa) a fim de obter um modelo mercadológico, apenas com variáveis ambientais, que possa mitigar o risco de insucesso na escolha de novas localizações.

3
  • IVAN DIMITRY RIBEIRO ZYRIANOFF
  • FOG-AWARE COMPUTING: AUTOMATED FOG COMPUTING SUPPORT FOR THE INTERNET OF THINGS

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 03/05/2019

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

4
  • ALDO VENTURA DA SILVA
  • Gerenciando Múltiplas Falhas Bizantinas em Redes Ópticas Roteadas por Algoritmos baseados em Otimização por Colônia de Formigas

  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 16/05/2019

  • Mostrar Resumo
  • Algoritmos de roteamento baseados em Otimização por Colônia de Formigas (Ant Colony Optimization - ACO) são especialmente vulneráveis a falhas bizantinas, em que nós autenticados se comportam de maneira arbitrária e comprometem o funcionamento do roteamento da rede. Neste trabalho, avaliamos o uso de extensões de rerroteamento crankback associados ao algoritmo ACO para gerenciar falhas bizantinas que afetam muitos nós de uma rede óptica comutada por comprimento de onda. Para tanto, foram utilizados os seguintes tipos de falhas bizantinas, que não podem ser resolvidas apenas com o uso de mecanismos de integridade ou autenticidade: desorientação das formigas no caminho de ida, descarte de formigas no caminho de ida e descarte de formigas no caminho de volta.

    As simulações realizadas demonstraram que o mecanismo de rerroteamento crankback pode efetivamente mitigar o impacto na probabilidade de bloqueio da rede causado por múltiplas falhas bizantinas sem requerer um aumento signficativo no comprimento ou no tempo de estabelecimento dos caminhos ópticos.


  • Mostrar Abstract
  • Algoritmos de roteamento baseados em Otimização por Colônia de Formigas (Ant Colony Optimization - ACO) são especialmente vulneráveis a falhas bizantinas, em que nós autenticados se comportam de maneira arbitrária e comprometem o funcionamento do roteamento da rede. Neste trabalho, avaliamos o uso de extensões de rerroteamento crankback associados ao algoritmo ACO para gerenciar falhas bizantinas que afetam muitos nós de uma rede óptica comutada por comprimento de onda. Para tanto, foram utilizados os seguintes tipos de falhas bizantinas, que não podem ser resolvidas apenas com o uso de mecanismos de integridade ou autenticidade: desorientação das formigas no caminho de ida, descarte de formigas no caminho de ida e descarte de formigas no caminho de volta.

    As simulações realizadas demonstraram que o mecanismo de rerroteamento crankback pode efetivamente mitigar o impacto na probabilidade de bloqueio da rede causado por múltiplas falhas bizantinas sem requerer um aumento signficativo no comprimento ou no tempo de estabelecimento dos caminhos ópticos.

5
  • DOUGLAS GALETTI RIBEIRO
  • Proposta de segurança para gateways IoT com sistema operacional e elemento seguro

  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 19/07/2019

  • Mostrar Resumo
  • Inúmeras possibilidades de aplicação em Internet das Coisas colocaram esse recurso no topo da transformação digital nos negócios. Um equipamento muito importante neste meio é o gateway, que atua como roteador de tráfego de dados entre dispositivos de diferentes redes. Apesar de exercer funções de controle e como outros dispositivos presentes na Internet das Coisas, ele é afetado por vulnerabilidades em nível de software e hardware. Pouco exploradas, as vulnerabilidades relacionadas ao ataque físico dos gateways são comuns e as soluções demandam altos custos com uso de elementos seguros proprietários que muitas vezes inviabilizam a implementação do dispositivo. O presente projeto tem por objetivo estudar os desafios existentes na implementação de meios de segurança adequados em dispositivos de alta complexidade em Internet das Coisas, especialmente gateways, e propor uma alternativa viável de baixo-custo e de fácil implementação que possa ser utilizada nesses dispositivos para melhoria na proteção e privacidade de dados. Para atingir este objetivo, foram realizados estudos sobre sistemas operacionais seguros que possam ser utilizados em gateways para segurança em nível de software; o uso de elementos para segurança em nível de hardware; funcionamento de processos de inicialização segura para garantia de integridade do dispositivo. O estudo propõe a implementação de arquitetura de baixo custo que faz uso do sistema operacional Ubuntu Core 16, elemento seguro UICC e inicialização segura que, em conjunto, verificam a integridade e segurança do dispositivo. Os resultados obtidos por simulação e outros testes relacionados demonstram que a implementação da arquitetura não requer altos investimentos em software e hardware, entretanto ela é capaz de garantir identificação única ao dispositivo e detectar mudanças físicas e virtuais no sistema operacional que comprometam a segurança do dispositivo.



  • Mostrar Abstract
  • Inúmeras possibilidades de aplicação em Internet das Coisas colocaram esse recurso no topo da transformação digital nos negócios. Um equipamento muito importante neste meio é o gateway, que atua como roteador de tráfego de dados entre dispositivos de diferentes redes. Apesar de exercer funções de controle e como outros dispositivos presentes na Internet das Coisas, ele é afetado por vulnerabilidades em nível de software e hardware. Pouco exploradas, as vulnerabilidades relacionadas ao ataque físico dos gateways são comuns e as soluções demandam altos custos com uso de elementos seguros proprietários que muitas vezes inviabilizam a implementação do dispositivo. O presente projeto tem por objetivo estudar os desafios existentes na implementação de meios de segurança adequados em dispositivos de alta complexidade em Internet das Coisas, especialmente gateways, e propor uma alternativa viável de baixo-custo e de fácil implementação que possa ser utilizada nesses dispositivos para melhoria na proteção e privacidade de dados. Para atingir este objetivo, foram realizados estudos sobre sistemas operacionais seguros que possam ser utilizados em gateways para segurança em nível de software; o uso de elementos para segurança em nível de hardware; funcionamento de processos de inicialização segura para garantia de integridade do dispositivo. O estudo propõe a implementação de arquitetura de baixo custo que faz uso do sistema operacional Ubuntu Core 16, elemento seguro UICC e inicialização segura que, em conjunto, verificam a integridade e segurança do dispositivo. Os resultados obtidos por simulação e outros testes relacionados demonstram que a implementação da arquitetura não requer altos investimentos em software e hardware, entretanto ela é capaz de garantir identificação única ao dispositivo e detectar mudanças físicas e virtuais no sistema operacional que comprometam a segurança do dispositivo.


6
  • EULALIANE APARECIDA GONÇALVES
  • Centralidade de Intermediação: aplicação de redes complexas ao transporte sobre trilhos da Grande São Paulo

  • Data: 30/07/2019

  • Mostrar Resumo
  • A mobilidade urbana tornou-se um problema relevante nas metrópoles, dentro do contexto de cidades inteligentes. Um aspecto fundamental da análise de malhas de transporte é identificar os nós que são mais importantes na rede, por algum critério adequado. Neste trabalho, propõe-se uma modificação no cálculo da centralidade de intermediação, visando aplicá-la numa rede representativa da malha de transporte sobre trilhos na região metropolitana de São Paulo. Pondera-se os pesos dos menores caminhos pelo fluxo de passageiros. A partir de dados da Secretaria de Transportes Metropolitanos, faz-se uma análise da evolução do transporte sobre trilhos na região vislumbrando-se seu desenvolvimento futuro.


  • Mostrar Abstract
  • A mobilidade urbana tornou-se um problema relevante nas metrópoles, dentro do contexto de cidades inteligentes. Um aspecto fundamental da análise de malhas de transporte é identificar os nós que são mais importantes na rede, por algum critério adequado. Neste trabalho, propõe-se uma modificação no cálculo da centralidade de intermediação, visando aplicá-la numa rede representativa da malha de transporte sobre trilhos na região metropolitana de São Paulo. Pondera-se os pesos dos menores caminhos pelo fluxo de passageiros. A partir de dados da Secretaria de Transportes Metropolitanos, faz-se uma análise da evolução do transporte sobre trilhos na região vislumbrando-se seu desenvolvimento futuro.

7
  • PAULO VICTOR BARONI SOUZA ARAUJO DE ASCENÇÃO
  • Utilização de Novas Métricas para Avaliação de Usuários no Controle de Sistemas de Interface Cérebro Computador Para a Melhoria dos Protocolos Referentes ao Paradigma de Imagética Motora


  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 02/08/2019

  • Mostrar Resumo
  • A métrica tipicamente utilizada para avaliar a destreza de usuários que utilizam sistemas de Interface Cérebro-Computador (Brain Computer Interface - BCI) no paradigma de imagética motora (Motor Imagery – MI) é o coeficiente de acurácia (CA), que pode até ser adequada para avaliar o sistema MI-BCI como um todo, mas não para avaliar isoladamente a destreza do usuário, já que o CA avalia o desempenho conjunto do usuário e do classificador. Os autores Fabien Lotte e Camille Jeunet propuseram novas métricas para avaliação dos usuários isoladamente, isto é, sem depender dos demais blocos do sistema BCI. Este trabalho tem como primeiro objetivo utilizar e aferir a eficiência destas métricas, que avaliam apenas os usuários, e que são: a “distintividade” entre o sinal de eletroencefalografia (EEG) de repouso e de uma determinada tarefa motora, a distintividade entre os sinais de EEG de duas tarefas, a estabilidade do sinal de EEG de repouso, e a estabilidade dos sinais de EEG de cada tarefa motora. Como segundo objetivo, pretende-se utilizar estas métricas de avaliação de destreza para verificar se, no caso de usuários sem deficiência motora, a execução do movimento antes de sua imaginação pode servir como indução para melhorar a eficácia da sua imagética motora, ou seja, para melhorar a sua capacidade de imaginar movimentos distintos. Para isso duas bases de dados com protocolos diferentes são comparadas e avaliadas. Pode ser intuitivo que, em todo sistema BCI, o treinamento melhora significativamente a destreza do usuário para controlar o sistema, isto é, quanto mais sessões de treinamento o sujeito realizar, melhor será seu controle. Assim, utilizando estas novas métricas pode ser possível avaliar se isso está realmente ocorrendo e em que medida.



  • Mostrar Abstract
  • A métrica tipicamente utilizada para avaliar a destreza de usuários que utilizam sistemas de Interface Cérebro-Computador (Brain Computer Interface - BCI) no paradigma de imagética motora (Motor Imagery – MI) é o coeficiente de acurácia (CA), que pode até ser adequada para avaliar o sistema MI-BCI como um todo, mas não para avaliar isoladamente a destreza do usuário, já que o CA avalia o desempenho conjunto do usuário e do classificador. Os autores Fabien Lotte e Camille Jeunet propuseram novas métricas para avaliação dos usuários isoladamente, isto é, sem depender dos demais blocos do sistema BCI. Este trabalho tem como primeiro objetivo utilizar e aferir a eficiência destas métricas, que avaliam apenas os usuários, e que são: a “distintividade” entre o sinal de eletroencefalografia (EEG) de repouso e de uma determinada tarefa motora, a distintividade entre os sinais de EEG de duas tarefas, a estabilidade do sinal de EEG de repouso, e a estabilidade dos sinais de EEG de cada tarefa motora. Como segundo objetivo, pretende-se utilizar estas métricas de avaliação de destreza para verificar se, no caso de usuários sem deficiência motora, a execução do movimento antes de sua imaginação pode servir como indução para melhorar a eficácia da sua imagética motora, ou seja, para melhorar a sua capacidade de imaginar movimentos distintos. Para isso duas bases de dados com protocolos diferentes são comparadas e avaliadas. Pode ser intuitivo que, em todo sistema BCI, o treinamento melhora significativamente a destreza do usuário para controlar o sistema, isto é, quanto mais sessões de treinamento o sujeito realizar, melhor será seu controle. Assim, utilizando estas novas métricas pode ser possível avaliar se isso está realmente ocorrendo e em que medida.


8
  • SERGIO YUKIO SATO
  • Análise de Ataques de Segurança em Redes de Sensores sem Fio Definidas por Software

  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 02/08/2019

  • Mostrar Resumo
  • As Redes de Sensores sem Fio (WSN, do inglês Wireless Sensor Network) possuem um papel significante no desenvolvimento da Internet das Coisas e a adoção do conceito de Redes Definidas por Software (SDN, do inglês Software Defined Network) nas redes de sensores sem fio é vista como uma solução com grande potencial para tratar os desafios das redes de sensores sem fio, principalmente com relação as restrições deste ambiente. A utilização destes dois conceitos define um novo paradigma denominado de Rede de Sensores sem Fio Definida por Software (SDWSN, do inglês Software Defined Wireless Sensor Network). Além destes desafios que devem ser tratados neste novo paradigma, também temos as questões relacionadas com a segurança da informação, que apesar de termos vantagens advindas do uso da SDN na WSN, as preocupações com as ameaças de segurança relacionadas tanto com a WSN quanto com a SDN ainda persistem neste novo paradigma. Este trabalho tem como objetivo aplicar conceito de SDN na WSN e avaliar o comportamento desta rede com relação a potenciais ataques de segurança. Para realização deste trabalho foram selecionados dois tipos de ataque de segurança mais relevantes aos nós sensores, um ataque do tipo "Selective Forwarding" e outro do tipo "Flooding". Para avaliação do comportamento da rede, foi utilizado o simulador COOJA/Contiki e a ferramenta IT-SDN para implementação da SDN em uma WSN, onde foram realizadas simulações em diversos cenários, alterando a posição do nó malicioso, a quantidade de nós malicioso e o tipo de ataque de segurança. Para análise dos resultados foram utilizadas as métricas de consumo de energia, taxa de entrega de pacotes e o atraso na entrega de pacotes. Os resultados deste trabalho indicaram que cada tipo de ataque de segurança impacta de forma diferente no comportamento da rede e que a posição do nó malicioso e a quantidade de nós maliciosos na rede, também influenciam diretamente no impacto que o ataque pode ter no comportamento da rede. 


  • Mostrar Abstract
  • As Redes de Sensores sem Fio (WSN, do inglês Wireless Sensor Network) possuem um papel significante no desenvolvimento da Internet das Coisas e a adoção do conceito de Redes Definidas por Software (SDN, do inglês Software Defined Network) nas redes de sensores sem fio é vista como uma solução com grande potencial para tratar os desafios das redes de sensores sem fio, principalmente com relação as restrições deste ambiente. A utilização destes dois conceitos define um novo paradigma denominado de Rede de Sensores sem Fio Definida por Software (SDWSN, do inglês Software Defined Wireless Sensor Network). Além destes desafios que devem ser tratados neste novo paradigma, também temos as questões relacionadas com a segurança da informação, que apesar de termos vantagens advindas do uso da SDN na WSN, as preocupações com as ameaças de segurança relacionadas tanto com a WSN quanto com a SDN ainda persistem neste novo paradigma. Este trabalho tem como objetivo aplicar conceito de SDN na WSN e avaliar o comportamento desta rede com relação a potenciais ataques de segurança. Para realização deste trabalho foram selecionados dois tipos de ataque de segurança mais relevantes aos nós sensores, um ataque do tipo "Selective Forwarding" e outro do tipo "Flooding". Para avaliação do comportamento da rede, foi utilizado o simulador COOJA/Contiki e a ferramenta IT-SDN para implementação da SDN em uma WSN, onde foram realizadas simulações em diversos cenários, alterando a posição do nó malicioso, a quantidade de nós malicioso e o tipo de ataque de segurança. Para análise dos resultados foram utilizadas as métricas de consumo de energia, taxa de entrega de pacotes e o atraso na entrega de pacotes. Os resultados deste trabalho indicaram que cada tipo de ataque de segurança impacta de forma diferente no comportamento da rede e que a posição do nó malicioso e a quantidade de nós maliciosos na rede, também influenciam diretamente no impacto que o ataque pode ter no comportamento da rede. 

9
  • BRUNO RICARDO QUETE
  • Compreendendo o Desempenho da Tecnologia LoRaWAN para Agricultura Inteligente baseada na Internet das Coisas

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 09/08/2019

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

10
  • VERUSKA LORRAINE AYORA
  • ONLINE SOCIAL NETWORKS AS REAL-TIME DATA DISTRIBUTION PLATFORMS FOR SMART CITIES

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 23/08/2019

  • Mostrar Resumo
  • Não informado.


  • Mostrar Abstract
  • Não informado.

11
  • DOUGLAS PESSANHA LOPES
  • Técnicas de Alocação de Espectro com Compartilhamento Seletivo aplicados a Redes Ópticas Elásticas

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 24/10/2019

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

12
  • LEANDRO ALVAREZ DE LIMA
  • Roteamento e Alocação de Espectro em Redes Ópticas Elásticas por meio de Otimização por Colônia de Formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 05/12/2019

  • Mostrar Resumo
  • O atual modelo de Redes Ópticas que utiliza Multiplexação por Divisão de Comprimento de Onda (WDM) vem se mostrando insuficiente para atender a demanda de tráfego advinda de serviços como IPTV, vídeos por demanda, ligações de vídeo em tempo real, entre outros, a qual aumenta em cerca de 30% por ano. Uma das soluções mais promissoras para prolongar a vida útil das atuais Redes Ópticas sem que haja a necessidade de alterar a estrutura já instalada são as Redes Ópticas Elásticas (EON). As EONs aproveitam melhor o espectro utilizado ao realizar uma melhor segmentação das larguras de banda, alocando-as de acordo com as necessidades de tráfego. Com essa nova tecnologia, há o problema de Roteamento e Alocação de Espectro (RSA), que envolve a escolha de uma rota e alocação de espectro para cada requisição. Neste trabalho foi proposto o uso de um algoritmo de roteamento baseado em Otimização por Colônia de Formigas (ACO) para resolver o problema do RSA, comparando-o com algoritmos de roteamento do tipo fixo-alternado e adaptativo. Com as simulações computacionais realizadas neste trabalho foi possível observar que o algoritmo ACO proposto permitiu a diminuição da probabilidade de bloqueio de banda e alcançou bons níveis de capacidade de restauração da rede após falhas simples de nós ou enlaces. Também exibiu tempo de estabelecimento ou de restauração de conexões compatíveis com as outras técnicas estudadas neste trabalho, além de ter mantido níveis similares de informação do estado da rede disseminada por meio dos canais de controle.


  • Mostrar Abstract
  • O atual modelo de Redes Ópticas que utiliza Multiplexação por Divisão de Comprimento de Onda (WDM) vem se mostrando insuficiente para atender a demanda de tráfego advinda de serviços como IPTV, vídeos por demanda, ligações de vídeo em tempo real, entre outros, a qual aumenta em cerca de 30% por ano. Uma das soluções mais promissoras para prolongar a vida útil das atuais Redes Ópticas sem que haja a necessidade de alterar a estrutura já instalada são as Redes Ópticas Elásticas (EON). As EONs aproveitam melhor o espectro utilizado ao realizar uma melhor segmentação das larguras de banda, alocando-as de acordo com as necessidades de tráfego. Com essa nova tecnologia, há o problema de Roteamento e Alocação de Espectro (RSA), que envolve a escolha de uma rota e alocação de espectro para cada requisição. Neste trabalho foi proposto o uso de um algoritmo de roteamento baseado em Otimização por Colônia de Formigas (ACO) para resolver o problema do RSA, comparando-o com algoritmos de roteamento do tipo fixo-alternado e adaptativo. Com as simulações computacionais realizadas neste trabalho foi possível observar que o algoritmo ACO proposto permitiu a diminuição da probabilidade de bloqueio de banda e alcançou bons níveis de capacidade de restauração da rede após falhas simples de nós ou enlaces. Também exibiu tempo de estabelecimento ou de restauração de conexões compatíveis com as outras técnicas estudadas neste trabalho, além de ter mantido níveis similares de informação do estado da rede disseminada por meio dos canais de controle.

13
  • RENNAN SANTOS DE ARAUJO
  • Modelo de Neurônio Memristivo de Dióxido de Vanádio com Codificação de Impulsos PRBS-PWM

  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 12/12/2019

  • Mostrar Resumo
  • A computação neuromórfica representa um paradigma de arquitetura
    computacional que, baseando-se na complexa mecânica de atividades de um
    sistema neural biológico, objetiva ser uma alterativa mais eficiente
    para o processamento de informações em larga escala, “ameaçando” a
    preponderante hegemonia da consolidada Arquitetura de von Neumann.
    Historicamente, a redução do custo energético de operações
    computacionais sempre foi um fator de suma relevância no desenvolvimento
    de novas tecnologias e esta talvez seja a principal força motriz da
    computação neuromórfica. Nesta arquitetura bioinspirada, toda a
    manipulação de informação é efetuada por intermédio de redes neurais
    artificiais, constituídas por “neurônios” e inúmeras interconexões
    (sinapses) entre os mesmos, que contribuem para que os dados sejam
    paralelamente processados e persistidos de maneira rápida, acurada,
    energeticamente eficiente e resistente a eventuais falhas locais.

    Alicerçando-se nestes conceitos, este trabalho propõe um novo modelo de
    neurônio, estimulado por impulsos (spikes) codificados por PRBS
    (Pseudorandom Binary Sequence) e modulados por PWM (Pulse Width
    Modulation), cuja memristência e ativação são baseadas no comportamento
    das dinâmicas térmicas e não-lineares de transição de fase do composto
    inorgânico óxido-metálico Dióxido de Vanádio (VO2). É conjecturado que
    este novo paradigma de neurônio, quando implementado em uma rede neural
    artificial, seja capaz de estabelecer um maior índice de economia
    energética, plasticidade sináptica e resistência a ruídos, tornando o
    sistema neural mais robusto e conectivo.

    As simulações realizadas neste trabalho demonstraram que a implementação
    e combinação de operadores lógicos pré-sinápticos, em conjunto com
    variações reguladas de não-correlação entre as sequências de entrada,
    fazem com que exista um maior controle para com a ativação do neurônio,
    produzindo uma maior taxa de eficiência energética no processamento de
    informações.


  • Mostrar Abstract
  • A computação neuromórfica representa um paradigma de arquitetura
    computacional que, baseando-se na complexa mecânica de atividades de um
    sistema neural biológico, objetiva ser uma alterativa mais eficiente
    para o processamento de informações em larga escala, “ameaçando” a
    preponderante hegemonia da consolidada Arquitetura de von Neumann.
    Historicamente, a redução do custo energético de operações
    computacionais sempre foi um fator de suma relevância no desenvolvimento
    de novas tecnologias e esta talvez seja a principal força motriz da
    computação neuromórfica. Nesta arquitetura bioinspirada, toda a
    manipulação de informação é efetuada por intermédio de redes neurais
    artificiais, constituídas por “neurônios” e inúmeras interconexões
    (sinapses) entre os mesmos, que contribuem para que os dados sejam
    paralelamente processados e persistidos de maneira rápida, acurada,
    energeticamente eficiente e resistente a eventuais falhas locais.

    Alicerçando-se nestes conceitos, este trabalho propõe um novo modelo de
    neurônio, estimulado por impulsos (spikes) codificados por PRBS
    (Pseudorandom Binary Sequence) e modulados por PWM (Pulse Width
    Modulation), cuja memristência e ativação são baseadas no comportamento
    das dinâmicas térmicas e não-lineares de transição de fase do composto
    inorgânico óxido-metálico Dióxido de Vanádio (VO2). É conjecturado que
    este novo paradigma de neurônio, quando implementado em uma rede neural
    artificial, seja capaz de estabelecer um maior índice de economia
    energética, plasticidade sináptica e resistência a ruídos, tornando o
    sistema neural mais robusto e conectivo.

    As simulações realizadas neste trabalho demonstraram que a implementação
    e combinação de operadores lógicos pré-sinápticos, em conjunto com
    variações reguladas de não-correlação entre as sequências de entrada,
    fazem com que exista um maior controle para com a ativação do neurônio,
    produzindo uma maior taxa de eficiência energética no processamento de
    informações.

Teses
1
  • DANIEL RICARDO OJEDA GIRATA
  • SÍNTESE AUTOMÁTICA DE MODELOS NARX POLINOMIAIS IMPLEMENTADA NA IDENTIFICAÇÃO DE SISTEMAS NÃO-LINEARES

  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 24/10/2019

  • Mostrar Resumo
  • Nos últimos anos, tem havido uma onda crescente na implementação de geradores termoelétricos para os mais diversos fins. Embora estes dispositivos não são tão eficientes quanto desejado, podem ser implementados para o aproveitamento da energia térmica em assuntos que envolvem conceitos da Internet das coisas (do termo em Inglês IoT Internet of Things) e a ativação de redes de sensores de baixo consumo energético. No entanto, modelos apropriados para este tipo de geradores precisam ser construídos de forma a projetar adequadamente o sistema eletrônico associado. Metodologias de modelagem clássicas podem ser usadas para esta finalidade, mas a tarefa pode tornar-se tediosa e ainda o desempenho do modelo pode estar muito abaixo do desejado. Contudo, recentes pesquisas na areia da computação evolutiva, permitiram a formulação de novas alternativas de estimação de modelos simplificados, que conseguem reproduzir os comportamentos de fenômenos que outrora eram difíceis de serem explicados mediante o uso das técnicas de modelagem convencionais. Este trabalho visa estabelecer uma nova metodologia para determinar as equações que governam os dispositivos termoelétricos, partindo de um conjunto de dados de Entrada/Saída. Um dos componentes da metodologia envolve conceitos de Programação Genética baseados em Regressão Simbólica, uma vez que se pretende selecionar entre milhares de estruturas não somente àquela mais simples, mas também seu conjunto parâmetros correspondente. Os modelos resultantes são do tipo não-lineares auto-regressivos com entradas externas (NARX do termo em Inglês Nonlinear Auto-Regressive with eXogenous Inputs) no tempo discreto, obtidos com base na evolução temporal das variáveis de estado. Para conferir o potencial da metodologia proposta, são apresentados vários modelos distintos para o mesmo sistema sob análise, que conseguem reproduzir todas as dinâmicas do sistema, na sua forma original.


  • Mostrar Abstract
  • Nos últimos anos, tem havido uma onda crescente na implementação de geradores termoelétricos para os mais diversos fins. Embora estes dispositivos não são tão eficientes quanto desejado, podem ser implementados para o aproveitamento da energia térmica em assuntos que envolvem conceitos da Internet das coisas (do termo em Inglês IoT Internet of Things) e a ativação de redes de sensores de baixo consumo energético. No entanto, modelos apropriados para este tipo de geradores precisam ser construídos de forma a projetar adequadamente o sistema eletrônico associado. Metodologias de modelagem clássicas podem ser usadas para esta finalidade, mas a tarefa pode tornar-se tediosa e ainda o desempenho do modelo pode estar muito abaixo do desejado. Contudo, recentes pesquisas na areia da computação evolutiva, permitiram a formulação de novas alternativas de estimação de modelos simplificados, que conseguem reproduzir os comportamentos de fenômenos que outrora eram difíceis de serem explicados mediante o uso das técnicas de modelagem convencionais. Este trabalho visa estabelecer uma nova metodologia para determinar as equações que governam os dispositivos termoelétricos, partindo de um conjunto de dados de Entrada/Saída. Um dos componentes da metodologia envolve conceitos de Programação Genética baseados em Regressão Simbólica, uma vez que se pretende selecionar entre milhares de estruturas não somente àquela mais simples, mas também seu conjunto parâmetros correspondente. Os modelos resultantes são do tipo não-lineares auto-regressivos com entradas externas (NARX do termo em Inglês Nonlinear Auto-Regressive with eXogenous Inputs) no tempo discreto, obtidos com base na evolução temporal das variáveis de estado. Para conferir o potencial da metodologia proposta, são apresentados vários modelos distintos para o mesmo sistema sob análise, que conseguem reproduzir todas as dinâmicas do sistema, na sua forma original.

2
  • GODOFREDO QUISPE MAMANI
  • Biomarcadores topográficos baseados em eletrencefalogramas coletados durante tarefas de memória operacional para suporte ao diagnóstico precoce da doença de Alzheimer

  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 16/12/2019

  • Mostrar Resumo
  • A doença de Alzheimer (DA) é uma síndrome neurodegenerativa que afeta milhões de pessoas em todo o mundo. Além disso, pessoas com comprometimento cognitivo leve (CCL) estão em um grupo de risco que deve ser seguido atentamente, pois há uma alta probabilidade de evolução para DA. Nesta pesquisa, três estudos foram delineados para aprimorar e validar biomarcadores topográficos baseados na análise computacional do eletroencefalograma (EEG) coletado durante a execução de tarefas de memória operacional N-back, com o objetivo de fornecer suporte ao diagnóstico precoce do CCL e da DA. Os participantes foram 15 pacientes com diagnóstico de DA, 21 indivíduos com diagnóstico de CCL e 27 idosos saudáveis (IS) para o grupo controle. Os sujeitos foram submetidos a uma tarefa N-back visual de três níveis, com dificuldade ascendente na carga de memória operacional, durante as quais foram registrados sinais de EEG (32 canais).

    O primeiro estudo teve por objetivo explorar o uso de potenciais evento-relacionados (Event-Related Potentials - ERP) e sincronização/dessincronização evento-relacionadas (Event-Related Synchronization/ Desynchronization - ERS/ERD). Diferenças significativas foram encontradas entre os grupos de pacientes (CCL e DA) e controle (IS) no ERP durante a execução das tarefas N-back, predominantemente nos eletrodos fronto-centro-parietais. A maioria das diferenças foi observada nos 400-700 ms pós-estímulo, onde o grupo controle mostrou amplitudes maiores que os pacientes (CCL e DA), ou seja, foram observadas diferenças na amplitude do componente P450, tipicamente relacionado à atualização da memória de trabalho. Adicionalmente, as medidas de ERD/ERS revelaram que os indivíduos do grupo IS elicitaram respostas ERD-alfa consistentemente maiores que os pacientes com CCL e DA durante a execução da tarefa no nível 1-back na condição de coincidência (match trials), com diferenças localizadas nas regiões frontal, central e occipital. Além disso, na condição de não-coincidência (non-match trials), foi possível distinguir entre pacientes com CCL e DA no nível 0-back, com CCL apresentando mais ERD-teta do que DA nas áreas temporal e fronto-temporal.

    O segundo estudo teve por objetivo analisar registros de EEG no espaço das fontes com foco na análise dos segmentos do EEG antes e depois das mesmas tarefas N-back de memória operacional, visando desta vez exclusivamente o suporte ao diagnóstico do CCL. Para esse fim, a partir dos dados de EEG, o software LORETA forneceu a localização das regiões de Brodmann nas quais houve uma diferença significativa na comparação de CCL com IS. Diferenças significativas foram encontradas nesta comparação em todas as tarefas de memória operacional, localizadas principalmente nas regiões do lobo frontal e temporal.

    Finalmente, o terceiro estudo teve por objetivo extrair características no espaço das fontes, identificadas como biomarcadores topográficos oriundos da análise de EEG captado durante tarefas N-back, para classificar automaticamente os participantes nas categorias CCL e IS. Para esse fim, utilizou-se técnicas de aprendizado de máquina com classificadores implementados através da biblioteca Scikit-learn em linguagem Python. A previsão do classificador atingiu acurácia, sensibilidade e especificidade em torno de 95%. Isso mostra que este método de extração de características no espaço das fontes, com foco na análise dos segmentos do EEG antes e depois de tarefas N-back, consegue superar os melhores desempenhos relatados na literatura, o que indica que essa técnica pode representar uma ferramenta clinicamente relevante para suporte ao diagnóstico precoce de CCL e DA.

     


  • Mostrar Abstract
  • A doença de Alzheimer (DA) é uma síndrome neurodegenerativa que afeta milhões de pessoas em todo o mundo. Além disso, pessoas com comprometimento cognitivo leve (CCL) estão em um grupo de risco que deve ser seguido atentamente, pois há uma alta probabilidade de evolução para DA. Nesta pesquisa, três estudos foram delineados para aprimorar e validar biomarcadores topográficos baseados na análise computacional do eletroencefalograma (EEG) coletado durante a execução de tarefas de memória operacional N-back, com o objetivo de fornecer suporte ao diagnóstico precoce do CCL e da DA. Os participantes foram 15 pacientes com diagnóstico de DA, 21 indivíduos com diagnóstico de CCL e 27 idosos saudáveis (IS) para o grupo controle. Os sujeitos foram submetidos a uma tarefa N-back visual de três níveis, com dificuldade ascendente na carga de memória operacional, durante as quais foram registrados sinais de EEG (32 canais).

    O primeiro estudo teve por objetivo explorar o uso de potenciais evento-relacionados (Event-Related Potentials - ERP) e sincronização/dessincronização evento-relacionadas (Event-Related Synchronization/ Desynchronization - ERS/ERD). Diferenças significativas foram encontradas entre os grupos de pacientes (CCL e DA) e controle (IS) no ERP durante a execução das tarefas N-back, predominantemente nos eletrodos fronto-centro-parietais. A maioria das diferenças foi observada nos 400-700 ms pós-estímulo, onde o grupo controle mostrou amplitudes maiores que os pacientes (CCL e DA), ou seja, foram observadas diferenças na amplitude do componente P450, tipicamente relacionado à atualização da memória de trabalho. Adicionalmente, as medidas de ERD/ERS revelaram que os indivíduos do grupo IS elicitaram respostas ERD-alfa consistentemente maiores que os pacientes com CCL e DA durante a execução da tarefa no nível 1-back na condição de coincidência (match trials), com diferenças localizadas nas regiões frontal, central e occipital. Além disso, na condição de não-coincidência (non-match trials), foi possível distinguir entre pacientes com CCL e DA no nível 0-back, com CCL apresentando mais ERD-teta do que DA nas áreas temporal e fronto-temporal.

    O segundo estudo teve por objetivo analisar registros de EEG no espaço das fontes com foco na análise dos segmentos do EEG antes e depois das mesmas tarefas N-back de memória operacional, visando desta vez exclusivamente o suporte ao diagnóstico do CCL. Para esse fim, a partir dos dados de EEG, o software LORETA forneceu a localização das regiões de Brodmann nas quais houve uma diferença significativa na comparação de CCL com IS. Diferenças significativas foram encontradas nesta comparação em todas as tarefas de memória operacional, localizadas principalmente nas regiões do lobo frontal e temporal.

    Finalmente, o terceiro estudo teve por objetivo extrair características no espaço das fontes, identificadas como biomarcadores topográficos oriundos da análise de EEG captado durante tarefas N-back, para classificar automaticamente os participantes nas categorias CCL e IS. Para esse fim, utilizou-se técnicas de aprendizado de máquina com classificadores implementados através da biblioteca Scikit-learn em linguagem Python. A previsão do classificador atingiu acurácia, sensibilidade e especificidade em torno de 95%. Isso mostra que este método de extração de características no espaço das fontes, com foco na análise dos segmentos do EEG antes e depois de tarefas N-back, consegue superar os melhores desempenhos relatados na literatura, o que indica que essa técnica pode representar uma ferramenta clinicamente relevante para suporte ao diagnóstico precoce de CCL e DA.

     

2018
Dissertações
1
  • CARLOS ALVES MOREIRA
  • Predição da Agregação de Proteínas utilizando Aprendizagem de Máquina
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 23/01/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DANILO MENDES RODRIGUES PEREIRA
  • "Detecção de Atividade Vocal utilizando Recorrência"

  • Orientador : FILIPE IEDA FAZANARO
  • Data: 30/01/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

3
  • VINICIUS ORMENESSE
  • Interface Cérebro-Computador Explorando Métodos para Representação Esparsa dos Sinais
  • Orientador : RICARDO SUYAMA
  • Data: 07/02/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • GUSTAVO URUGUAY CASTILHO
  • Aplicação de Computação em Névoa na Internet das Coisas para Cidades Inteligentes: da Teoria à Prática
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 08/03/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • MARCELO GEORGE GRIESE
  • Análise de desempenho do LoRa em aplicação de fiscalização eletrônica de veículos com RFID
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 27/03/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • GILSON CESAR DA COSTA
  • Proposta de Filtro Adaptativo para Redução de Ruído Impulsivo em QR Codes
  • Orientador : LUIZ ALBERTO LUZ DE ALMEIDA
  • Data: 24/04/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • ANDRÉA GARCIA TRINDADE
  • Análise, Modelagem e Predição de Eventos em Praças Digitais
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 25/04/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • WAGNER LOPES MOREIRA JUNIOR
  • Uma Nova Abordagem de Descritor de Textura Baseada em Transformada Ripplet para Classificação de Lesões da Mama
  • Data: 10/05/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • RICARDO DA COSTA VERAS
  • Utilização de Métodos de Machine Learning para Identificação de Instrumentos Musicais de Sopro pelo Timbre
  • Orientador : RICARDO SUYAMA
  • Data: 11/05/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ESTEFÂNIA ANGELICO PIANOSKI ARATA
  • Análise de ataques Hello no protocolo RPL com nós fixos e móveis

  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 25/07/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

11
  • FABIO FERREIRA DE ASSIS
  • Algoritmos Set-Membership para Equalização Autodidata Aplicados a Redes de Senores Sem Fio

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 27/07/2018

  • Mostrar Resumo
  • --


  • Mostrar Abstract
  • --

12
  • PEDRO AUGUSTO LELIS
  • Análise da influência dos hiper-parâmetros no treinamento de word embeddings para a língua portuguesa

  • Orientador : JOAO RICARDO SATO
  • Data: 31/07/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

13
  • ELAYNE TREFIGLIO DE SOUZA MARTINS
  • Análise do Desempenho de Algoritmos de Equalização Cega Baseados em ITL com Kernel Epanechnikov

  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 09/08/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

14
  • DANIEL HENRIQUE MIGUEL DE SOUZA
  • Filtros de Partículas aplicados à Econometria 

  • Orientador : CLAUDIO JOSE BORDIN JUNIOR
  • Data: 12/12/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

2017
Dissertações
1
  • ROGERIO AKIRA FURUCHO
  • APLICAÇÃO DA TEORIA DE GRAFOS EM ESTUDO DE CONECTIVIDADE FUNCIONAL DURANTE ESTADO DE REPOUSO USANDO DADOS DE ESPECTROSCOPIA FUNCIONAL NO INFRAVERMELHO PRÓXIMO
  • Orientador : JOAO RICARDO SATO
  • Data: 16/01/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • PEDRO IVO DA CRUZ
  • Estimação de Canal em Sistemas com Codificação de Rede na Camada Física
  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 20/01/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • JEFERSON RODRIGUES COTRIM
  • Análise do Protocolo RPL em Cenários Móveis
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 24/01/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • JOEL CARLOS FARIAS DE QUEIROZ
  • Técnicas para Nivelamento de Desempenho Inter-rotas Aplicadas a Redes Ópticas Elásticas
  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 01/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • MAURICIO ANTONIO DEFFERT
  • Análise de desempenho em redes ópticas elásticas operando com algoritmos para alocação eficiente de espectro

  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 05/05/2017

  • Mostrar Resumo
  • Análise de desempenho em redes ópticas elásticas operando com algoritmos para alocação eficiente de espectro


  • Mostrar Abstract
  • Análise de desempenho em redes ópticas elásticas operando com algoritmos para alocação eficiente de espectro

6
  • MARCELO APARECIDO CARLOS
  • Análise de surtos de doenças transmitidas pelo mosquito Aedes aegypti utilizando Big-Data Analytics e mensagens do Twitter
  • Orientador : FILIPE IEDA FAZANARO
  • Data: 26/05/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • KELVIN SANTOS AMORIM
  • Roteamento em redes multicamada IP/MPLS sobre WDM por meio de Otimização por Colônia de Formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 28/06/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
9
  • MELINA BRILHADORI ALVES
  • Estudo comparativo entre algoritmos de árvores de decisão baseados em ensembles de classificadores aplicados a Big Data
  • Orientador : PATRICIA BELFIORE FAVERO
  • Data: 21/12/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2016
Dissertações
1
  • ALEXANDRE HEIDEKER
  • Gerenciamento flexível de infraestrutura de acesso público à internet com NFV
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 15/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • NATHALIA FERRETE RODRIGUEZ
  • Tecnologias de linguagem aplicadas à percepção social: detecção de emoções em redes sociais sobre a seca em São Paulo
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 16/03/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • GIULIO GUIYTI ROSSIGNOLO SUZUMURA
  • Estimação de sinais de voz esparsificados em misturas subparametrizadas
  • Orientador : RICARDO SUYAMA
  • Data: 13/05/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • GEIZA CARULINE COSTA
  • Interatividade em Segunda Tela com Interfaces de Controle para Sistemas de TV Digital com Middleware Ginga
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 01/06/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
6
  • JOSIVAN PEREIRA DA SILVA
  • Reconstrução Facial Tridimensional por Malha Poligonal em Teleconferências com Ponto de Visão Livre
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 10/06/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • WILSON CARVALHO FERREIRA DOS SANTOS
  • Avaliação de Desempenho de Redes Ópticas Elásticas com Políticas Híbridas de Alocação de Espectro
  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 21/06/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • LUCINDA DE ALMEIDA LERIA
  • Acessibilidade digital em processos seletivos universitários para pessoa com deficiência visual: Desenvolvimento do aplicativo ENEM Acessível
  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 02/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • CLAUDEMIRO VIGO NOYA
  • Análise de Inibição Pré-Pulso do Reflexo de Sobressalto Acústico com Obtenção Simultânea de Potenciais Evocados Auditivos
  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 04/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • JULIANO RATUSZNEI
  • QUALIDADE DE EXPERIÊNCIA DO USUÁRIO EM UMA REDE WIFI MUNICIPAL USANDO STREAMING DE VÍDEO
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 10/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • RENATO APARECIDO SOUZA DA SILVA
  • Analise de Risco de Crédito Apoiada por Inteligencia Artificial
  • Orientador : PATRICIA BELFIORE FAVERO
  • Data: 12/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • TALES GOUVEIA FERNANDES
  • Desconvolução Não-Supervisionada Baseada em Esparsidade
  • Orientador : RICARDO SUYAMA
  • Data: 12/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • JULIANA BILECKI DA CUNHA
  • Sistema de Suporte à Decisão para Previsão de Crises em Mananciais
  • Orientador : PATRICIA BELFIORE FAVERO
  • Data: 28/11/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2015
Dissertações
1
  • RENATO MARTIN DE LA ROSA CASTILLO
  • Correção do Efeito Show-Through baseada em técnicas de Separação Cega de Fontes
  • Orientador : RICARDO SUYAMA
  • Data: 20/02/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DAVI BRANDÃO ZANOTTO
  • Compreendendo mecanismos de influência em redes sociais online através do comportamento dos usuários
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 11/03/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • SAULO RAMOS DE CARVALHO PEREIRA
  • Laboratório Virtual Gamificado para a Prática Experimental no Ensino de Química
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 27/04/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • ANDRÉ KLIOUSOFF JUNIOR
  • Uma nova metodologia para estudar proteínas com região de desordem
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 05/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • LEANDRO FERNANDES DA MOTA
  • Avaliação e acompanhamento do desempenho em matemática por meio de um jogo digital.
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 08/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • RICARDO AGOSTINHO DE REZENDE JUNIOR
  • Análise de imagens da próstata baseada em técnicas não lineares multiescala
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 13/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • SIDON CLEO DUARTE
  • Um método para extração de lesões em imagens de linfoma baseado em transformada wavelet estacionária
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 13/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • RAFAEL ALVES DA COSTA
  • Caracterização Temporal e Espectral de Sinais Caóticos Gerados por Mapas Unidimensionais
  • Orientador : MARCIO EISENCRAFT
  • Data: 15/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • RITA VUCINIC TELES
  • O Uso de Dispositivos Móveis no Acesso a Informações para a Gestão de Negócios
  • Orientador : ITANA STIUBIENER
  • Data: 27/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ÁBIA CRISTINA OLIVEIRA DE FRANÇA
  • O uso de dispositivos móveis para otimização da difusão da informação dos ambientes virtuais de aprendizagem
  • Orientador : ITANA STIUBIENER
  • Data: 27/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • ROBERTO ANTONIO DA SILVA
  • Wequiv: Ambiente na Web para apoiar o ensino de leitura baseado na análise do comportamento aplicada
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 30/07/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • DANIELE FREITAS DE JESUS
  • Estudo de Arquiteturas de Segurança para Internet das Coisas Utilizando o Protocolo DTLS
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 07/08/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • JOSÉ FÁBIO SANTOS DE BARROS
  • Um estudo sobre o desempenho de protocolos de comunicações digitais cooperativas
  • Orientador : MURILO BELLEZONI LOIOLA
  • Data: 13/08/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • RICARDO MÜHLBAUER
  • Mecanismo de Reputação Centralizado para Confiança em Redes Ad Hoc Veiculares (VANETs)
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 27/11/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2014
Dissertações
1
  • ANDERSON DOS SANTOS SIQUEIRA
  • Aplicação de técnicas de aprendizado de máquina para apoio ao diagnóstico do transtorno de déficit de atenção e hiperatividade por meio da análise de padrões de conectividade cerebral
  • Orientador : JOAO RICARDO SATO
  • Data: 11/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • ORLANDO DA SILVA JUNIOR
  • Investigação de predição de fluxos em redes de computadores
  • Orientador : ANA CAROLINA LORENA
  • Data: 27/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • DOUGLAS HENRIQUE DE MELO
  • Desenvolvimento de algoritmo para segmentação não supervisionada de embriões bovinos produzidos in vitro
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 07/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • YAN ANDERSON SIRIANO DUARTE
  • Algoritmos baseados em aproximações LBP em domínio wavelet aplicados em mamogramas
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 07/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ALINE IZIDA
  • Redes de interlocutores na comunicação de desastres: detecção automática em corpus de notícias do Estado do Rio de Janeiro
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 24/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • THIAGO DA ROCHA TEDRUS
  • Modelagem linguística para detecção de causalidade em textos sobre desastres naturais no Estado de São Paulo
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 24/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • ANTONIO CARLOS BORTOLETTO
  • Implementação de um sistema de alteração no retorno auditivo de voz
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 28/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • NELSON NASCIMENTO JUNIOR
  • Gerenciamento do acompanhamento da aprendizagem a partir do uso educacional de redes sociais
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 29/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • ANDERSON RAYMUNDO AVILA
  • A comparative analysis of gaussian mixture models and I-vector for speaker verification under mismatched conditions
  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 16/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • GUSTAVO CORRÊA PÚBLIO
  • Reengenharia da interface de ferramenta para criação do modelo de domínio em cursos adaptativos.
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 20/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • ALEXANDRE DOS SANTOS TOZETTI
  • Análise de desempenho de redes ópticas elásticas com múltiplos serviços
  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 22/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • RAPHAEL AGOSTIN LEITE CRISTOFARO
  • GANM: Ferramenta para simular docking completamente flexível de proteína-ligante
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 03/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • KLEBER DA SILVA DIVINO
  • Uso de mecanismos de elasticidade como solução de tolerância a falhas para ambiente de computação em nuvem
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 23/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • GRACE ANNE PONTES BORGES
  • Recomendação de Objetos de Aprendizagem com Base no Estilo de Aprendizagem
  • Orientador : ITANA STIUBIENER
  • Data: 24/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
16
  • LETICIA RIBEIRO DE OLIVEIRA
  • Potenciais evocados auditivos de músicos com e sem ouvido absoluto
  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 30/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

17
  • DANIEL CHINEN DOMINGUES
  • Reconhecimento automático de expressões faciais por dispositivos móveis
  • Orientador : GUIOU KOBAYASHI
  • Data: 01/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

18
  • GILBERTO FLORES POCHET
  • Analysis of Online Virtual Environments Using Data Mining and Social Networks
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 04/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

19
  • ROBSON FERREIRA LOPES
  • Redes definidas por software na flexibilização de centrais de dados para sistemas de computação em nuvem
  • Orientador : CHRISTIANE MARIE SCHWEITZER
  • Data: 05/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

20
  • SAMUEL BATISTA DOS SANTOS
  • Estudo de algoritmos adaptativos aplicados a redes de sensores sem fio: caso supervisionado e não supervisionado
  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 05/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

21
  • RENATO AGUIAR CASTELLANI
  • Um estudo sobre a detecção de spikes em sinais neuronais
  • Orientador : MARCIO EISENCRAFT
  • Data: 06/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

22
23
  • BRUNO TADEU CAETANO
  • Implementação e Avaliação de Estratégias de Middleware para o Modelo Integrado de Composição em Nuvem Computacional
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 07/11/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

24
  • CAROLINA VERONICA LEZAMA MENDOZA
  • Distributed trust management mechanism for the internet of things using a multi-service approach
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 28/11/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2013
Dissertações
1
  • WALTER HUGO LOPEZ PINAYA
  • Avaliação de métodos para processamento de sinais de doppler transcraniano funcional
  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 15/01/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DÊNIS LUCAS SILVA
  • Estudo de padrões em proteínas virais humanas e a sua correlação com a rede de interação dessas proteínas
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 23/04/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • RODRIGO MAROTTI TOGNERI
  • A importância das localidades geográficas na difusão online de informação
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 24/04/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • EDUARDO KRASZCZUK
  • Análise de critérios baseados em aprendizagem por teoria da informação aplicada à equalização cega
  • Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
  • Data: 10/05/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ALINE MARIA FRASCARELI
  • Uso de técnicas de mineração de textos e ferramentas de visualização como apoio à pesquisa científica
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 27/05/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • GRETA AUGAT ABIB
  • Sobre o desempenho em canal com ruído de um sistema de comunicação baseado em caos
  • Orientador : MARCIO EISENCRAFT
  • Data: 03/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • EDUARDO HENRIQUE GOMES
  • Personalização do E-learning baseado no nível de aquisição de conhecimentos do aprendiz.
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 06/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • ROSANNE DA SILVA VIEIRA
  • Estudo da predição de hot spots em complexos proteína-proteína
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 10/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • ARIANA MOURA DA SILVA
  • Redes de comunicação de desastres naturais: indicadores léxico-semânticos de relevância social em um corpus jornalístico
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 11/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ALEX BERNAZ DOS SANTOS
  • Análise de desempenho de redes ópticas transparentes com tecnologia híbrida WDM/OCDM e restrições de dispersão
  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 17/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • DOMINGOS LUCAS LATORRE DE OLIVEIRA
  • Método computacional para segmentação não supervisionada de componentes histológicos da próstata
  • Data: 01/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • RHODNEY ARTHUR MENNA BARRETO KONIG SIMÕES
  • Gerenciamento de elasticidade em computação em nuvem: estudo de caso usando Smart Grid
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 19/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • ALEXANDRE DE ALMEIDA
  • Estratégias para o monitoramento de ações de tutoria na educação a distância
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 29/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • CRISTIANO CAMILO DOS SANTOS DE ALMEIDA
  • Análise de técnicas de separação cega de fontes para remoção de artefatos em interfaces cérebro-máquina
  • Orientador : RICARDO SUYAMA
  • Data: 29/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • DANIEL OTAVIO TAMBASCO BRUNO
  • Algoritmos computacionais baseados em coeficientes curvelet aplicados na descrição de textura em mamogramas
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 29/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

16
  • IVAN RIBOLDI JORDÃO DA SILVA VARGAS
  • Captura e análise de tráfego malicioso em ambientes VoIP usando honeypots
  • Orientador : JOAO HENRIQUE KLEINSCHMIDT
  • Data: 29/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

17
  • INGRID BAHIA CHAVES
  • Análise com TRI da utilização de jogo digital no ensino de matemática do Ensino Fundamental II
  • Orientador : MARIO MINAMI
  • Data: 31/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

18
  • RAONI DE PAULA LOURENÇO
  • Televisão aumentada: inserção de realidade misturada em aplicações interativas no SBTVD
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 02/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

19
  • ANDREI WELLINGTON LEÃO DOMINGUES
  • Ferramenta para acompanhamento do perfil do aprendiz utilizando mineração de dados
  • Orientador : ITANA STIUBIENER
  • Data: 28/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

20
  • NELSON MISSAGLIA
  • Processo para recomendação de objetos de aprendizagem baseado no perfil de aprendizagem
  • Orientador : ITANA STIUBIENER
  • Data: 28/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

21
  • TERRY LIMA RUAS
  • Formulação de uma metodologia para sistema de informação cienciométrico
  • Orientador : LUCIANA PEREIRA
  • Data: 18/10/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

22
  • MATHEUS BORGES DOS SANTOS
  • Análise de qualidade de serviço de arquiteturas OPS/OBS com recursos de diferenciação de tráfego
  • Orientador : LUIZ HENRIQUE BONANI DO NASCIMENTO
  • Data: 21/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2012
Dissertações
1
  • CLAUDECIR LOPES ARNAR
  • Estudo experimental do tempo de recuperação de falhas em comutadores de caminhos óticos.
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 27/01/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • RAFAEL PRADO CELSO
  • TICs e inovação de processos fiscais-tributários no Brasil: Estudo de casos sobre a Nota Fiscal Eletrônica na perspectiva G2B (government to business)
  • Orientador : SIDNEY JARD DA SILVA
  • Data: 25/05/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • CESAR AUGUSTO MATEUS
  • Análise da amplitude e latência da resposta evocada P300 em indivíduos idosos com doença de Parkinson
  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 13/06/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • WALESKA BARBOSA DA SILVA
  • ObjetoJá: Uma ferramenta para facilitar o uso de mundos virtuais
  • Orientador : ITANA STIUBIENER
  • Data: 25/06/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • CESAR CELESTINO PERES SERVIDONE
  • Servidor RCP/IP embarcado em blocos de função IEC 61499
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 10/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • FABIO ARAGÃO DA SILVA
  • Simulação multiagente e visão computacional modelando o fluxo de pedestres
  • Orientador : MARIA DAS GRACAS BRUNO MARIETTO
  • Data: 16/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • SIDNEY DE CASTRO
  • Simulador multiagentes para a coordenação de agentes heterogêneos no domínio de futebol
  • Orientador : MARIA DAS GRACAS BRUNO MARIETTO
  • Data: 20/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • RICARDO DE SOUZA JACOMINI
  • Algoritmos distribuídos empregados na extração de descritores morfológicos e não morfológicos em mamogramas
  • Data: 24/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • VANESSA CRISTINA LOURENÇO
  • Inter-OA: uma metodologia para produção de Objetos de Aprendizagem baseada em princípios de Design Instrucional e Engenharia de Software
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 24/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ALLEN FERNANDO OBERLEITNER LIMA
  • Mecanismos para suporte à autoregulação da aprendizagem
  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 25/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • THIAGO GRAZIANI TRAUE
  • Um estudo sobre a relação entre processos de engenharia de software com dependabilidade e previsão de falhas em software
  • Orientador : GUIOU KOBAYASHI
  • Data: 25/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • ALESSANDRA MONTEIRO ROSALÉM MARCELINO
  • Estudo e desenvolvimento de técnicas de detecção de agrupamentos semi-sepervisionadas
  • Orientador : MARIA CAMILA NARDINI BARIONI
  • Data: 26/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • LIANE DE OLIVEIRA GERMOLIATO BAROSTICHI
  • Problemas de jogos em triangulações planares
  • Orientador : GORDANA MANIC
  • Data: 30/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • MURILO ZANINI DE CARVALHO
  • Otimização de processos industriais utilizando padrões de comportamento e algoritmos genéticos
  • Orientador : ROBERTO JACOBE RODRIGUES
  • Data: 30/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • ADENILSON JOSÉ ARAUJO TOMÉ
  • Estudo comparativo de codificação tridimensional para o SBTVD
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 31/07/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

16
  • GLAUCIA DUTRA LACERDA
  • Modelagem lingusitica comparada em corpora de desastres naturais: explorando técnicas e métodos.
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 10/08/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

17
  • RAFAEL ANTONANGELO MOLINA
  • Comunicação de catástrofes: modelagem linguistica de relatos sobre o terremoto do Haiti e Chile
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 10/08/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

18
  • JADER DE AMORIM
  • Estudo e aplicação de algoritmos computacionais para a calibração de magnetômetros
  • Orientador : LUIZ DE SIQUEIRA MARTINS FILHO
  • Data: 20/08/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

19
  • PAULO HENRIQUE PISANI
  • Algoritmos Imunológicos aplicados na Detecção de Intrusões com Dinâmica da Digitação
  • Data: 03/12/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2011
Dissertações
1
  • NILTON SERIGIOLI
  • Monitoramento de sinais biomédicos baseado em computação móvel.
  • Orientador : RODRIGO REINA MUNOZ
  • Data: 28/02/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • MARCELO ANDERSON BATISTA DOS SANTOS
  • SIM2P: Uma estratégia P2P de distribuição de texturas em mundos virtuais 3D
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 02/03/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • DIOGO STELLE
  • Uso de Data Mining na descoberta ou identificação de regras de enovelamento baseada em perfis de hidrofobicidade.
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 24/03/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • GILBERTO BRAVOS BATIVA
  • Ferramenta de identiifcação de perfis de aprendizes - FIPA
  • Orientador : ITANA STIUBIENER
  • Data: 20/07/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • BRUNNO DOS PASSOS ALVES
  • Redes sociais formadas no fenômeno do pânico em multidão: uma análise via simulação multiagentes.
  • Orientador : MARIA DAS GRACAS BRUNO MARIETTO
  • Data: 21/07/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • GABRIEL PANIZ PATZER
  • Método automático para criação de mapas polares baseado em alinhamento de imagens
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 25/07/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • THIERY OKUYAMA SILVA MURAKAMI
  • Extração de redes léxico-semânticas do português em um corpus de turismo.
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 25/07/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • LILIA MARIA FACCIO
  • Dança das Cadeiras: usando geoinformação na resolução do problema de vagas nas Pré-escolas públicas da Cidade de São Paulo.
  • Orientador : SIDNEY JARD DA SILVA
  • Data: 27/07/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • ALAELSON DE CASTRO JATOBÁ NETO
  • Aprovisionamaneto dinâmico de caminhos óticos em redes de transporte ótica G.709 controladas por GMPLS e com restrições de camada física.
  • Orientador : GELIO MENDES FERREIRA
  • Data: 05/08/2011

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2010
Dissertações
1
  • FERNANDO BABADOPULOS TERSSETTI
  • Desenvolvimento de um identificador de sonoridade em fonemas plosivos e fricativos para auxílio na terapia fonoaudiológica de crianças.
  • Orientador : FRANCISCO JOSE FRAGA DA SILVA
  • Data: 03/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • ROBSON DOS SANTOS FRANCA
  • Simulação multi-agentes modelando o comportamento coletivo de pânico em multidões
  • Orientador : MARIA DAS GRACAS BRUNO MARIETTO
  • Data: 10/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • PATRICIA DIAS DOS SANTOS
  • Redes colaborativas interdisciplinares: estudo cienciométrico das Universidades Federais Brasileiras
  • Orientador : MARGARETHE STEINBERGER ELIAS
  • Data: 12/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • FRANCISCO ANTONIO GUDEMBERG ALMEIDA MOURA
  • A teoria de redes sociais utilizada para avaliação das colaborações em ambientes virtuais de ensino a distância
  • Orientador : ITANA STIUBIENER
  • Data: 24/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • RODRIGO CAMPOS BORTOLETTO
  • Um estudo sobre o dimensionamento de redes em ambientes competitivos
  • Orientador : HELIO WALDMAN
  • Data: 29/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • JARBAS THAUNAHY SANTOS DE ALMEIDA
  • Governo eletrônico no ABC Paulista: entre o otimismo da literatura e o pessimismo dos indicadores
  • Orientador : SIDNEY JARD DA SILVA
  • Data: 30/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • KELLY CRISTINA CRUZ TEIXEIRA
  • Planejamento integrado de redes óticas - otimização e proteção nas topologias virtual e física.
  • Orientador : KARCIUS DAY ROSARIO ASSIS
  • Data: 30/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • OSWALDO BASSANI NETO
  • Captura e modelagem 3D de mãos com rastreamento detalhado de movimentos.
  • Orientador : CELSO SETSUO KURASHIMA
  • Data: 31/03/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • WALLACE RODRIGUES DE SANTANA
  • Estudo sobre modelagem e avaliação de confiabilidade em redes óticas.
  • Orientador : GUIOU KOBAYASHI
  • Data: 10/06/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ERIC ALLISON PHILOT
  • Desenvolvimento de um método/software (PL-DOCK) para o Docking Proteína-Ligante usando algoritmos genéticos e biblioteca de rotâmeros. Sistemas Alvos: protease do HIV-1 e Didrofolato Redutase
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 19/07/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • ADRIELLE DE CARVALHO SANTANA
  • Controle de atitude de satélites artificiais utilizando um processador digital de sinais
  • Orientador : LUIZ DE SIQUEIRA MARTINS FILHO
  • Data: 14/08/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • ROGERIO QUEIROZ MINHANO
  • Descoberta de conexões ocultas em redes de recomendações usando redes sociais online.
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 08/09/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • ANGELICA NAKAGAWA LIMA
  • GANM: Desenvolvimento de uma abordagem para docking Proteína Ligante por meio de algorítmos genéticos e modos normais.
  • Orientador : ANA LIGIA BARBOUR SCOTT
  • Data: 21/09/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • ROGÉRIO DANIEL DANTAS
  • Explorando informações texturais das visões Crânio-Caudal e Médio-lateral Obliqua para extração e classificação fuzzy de imagens mamográficas.
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 25/11/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • EMERSON AGUIAR NORONHA
  • Visão sócio-estrutural do fenômeno do pânico em multidão: Uma abordagem multiagentes.
  • Orientador : MARIA DAS GRACAS BRUNO MARIETTO
  • Data: 30/11/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

16
  • OLIVER GUERINO DA SILVA
  • Estudo da escalabilidade do servidor de mundos virtuais OpenSimulator
  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 30/11/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

17
  • NEWTON SPOLAOR
  • Aplicação de algoritmos genéticos multiobjetivo ao problema de seleção de atributos.
  • Orientador : ANA CAROLINA LORENA
  • Data: 14/12/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

18
  • FELIPE AZEVEDO SANTANNA
  • Análise do consumo de energia em redes de sensores sem fio dotadas de serviços web.
  • Orientador : GUIOU KOBAYASHI
  • Data: 21/12/2010

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2009
Dissertações
1
  • DANILO CESAR PEREIRA
  • Técnica automática de detecção de nódulo mamário usando informações de multivisão
  • Orientador : MARCELO ZANCHETTA DO NASCIMENTO
  • Data: 29/10/2009

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • HUGO LIMA BORGES
  • Categorização hierárquica de textos em um portal agregador de notícias
  • Orientador : ANA CAROLINA LORENA
  • Data: 04/11/2009

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • MASSAKI DE OLIVEIRA IGARASHI
  • Estudo da detecção eletroquímica, empregando eletrodos modificados com polianilina, tendo em vista o desenvolvimento de microsssensores para a detecção de aditivos alimentares
  • Orientador : ROBERTO JACOBE RODRIGUES
  • Data: 18/12/2009

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

SIGAA | UFABC - Núcleo de Tecnologia da Informação - ||||| | Copyright © 2006-2024 - UFRN - sigaa-1.ufabc.int.br.sigaa-1-prod