|
Dissertações |
|
1
|
-
ERIKA YAHATA
-
INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL APLICADA À PREDIÇÃO DA OBESIDADE INFANTIL
-
Orientador : PRISCYLA WALESKA TARGINO DE AZEVEDO SIMOES
-
Data: 31/01/2024
-
-
Mostrar Resumo
-
Técnicas baseadas em Inteligência Artificial se mostram promissoras no apoio à decisão na área da saúde no qual diversos estudos mostram a eficiência computacional no processamento de grande quantidade de dados e sua eficácia na contribuição para decisões baseadas nas informações obtidas. Porém, a falta de compreensão nos mecanismos preditivos dos modelos tem levado a busca de novas técnicas baseadas em Inteligência Artificial Explicável que permitam elucidar questões sobre como as predições são realizadas. Neste contexto, esta pesquisa buscou desenvolver um método baseado em Inteligência Artificial Explicável demonstrando a relação entre dados de entrada e a resposta preditiva. Nos resultados preliminares foram considerando dois métodos de explicabilidade (Local Interpretable Model-agnostic Explanation e Shapley Additive Explanations) aplicados à predição da obesidade infantil, e concluiu-se que a circunferência abdominal revelou-se fator de risco para o desfecho, com evidências que sugerem maior incorporação na prática clínica.
-
Mostrar Abstract
-
Técnicas baseadas em Inteligência Artificial se mostram promissoras no apoio à decisão na área da saúde no qual diversos estudos mostram a eficiência computacional no processamento de grande quantidade de dados e sua eficácia na contribuição para decisões baseadas nas informações obtidas. Porém, a falta de compreensão nos mecanismos preditivos dos modelos tem levado a busca de novas técnicas baseadas em Inteligência Artificial Explicável que permitam elucidar questões sobre como as predições são realizadas. Neste contexto, esta pesquisa buscou desenvolver um método baseado em Inteligência Artificial Explicável demonstrando a relação entre dados de entrada e a resposta preditiva. Nos resultados preliminares foram considerando dois métodos de explicabilidade (Local Interpretable Model-agnostic Explanation e Shapley Additive Explanations) aplicados à predição da obesidade infantil, e concluiu-se que a circunferência abdominal revelou-se fator de risco para o desfecho, com evidências que sugerem maior incorporação na prática clínica.
|
|
2
|
-
CAMILA DAS MERCES SILVA
-
Classificação Automática e Análise de Explicabilidade para Especialidades Biomédicas em Artigos Científicos Sobre a COVID-19 em Português
-
Orientador : ANDRE KAZUO TAKAHATA
-
Data: 17/05/2024
-
-
Mostrar Resumo
-
Neste trabalho, estudamos a aplicação de cinco diferentes classificadores, sendo eles os classificadores Naive Bayes baseados nas distribuições multinomial e gaussiana, o Support Vector Classifier (SVC) e os modelos baseados em árvores de decisão Random Forest e eXtreme Gradient Boosting (XGBoost), para a classificação automática de artigos científicos de seis diferentes especialidades biomédicas em um corpus previamente adquirido sobre a COVID-19 em português brasileiro (CorpusCovid-19 UFABC). Estudamos também a explicabilidade global, com o uso do SHapley Additive exPlanations (SHAP), e a explicabilidade local, com o Local Interpretable Model-agnostic Explanations (LIME) para o algoritmo XGBoost. Esse corpus foi extraído da base PubMed com técnicas e métodos de Processamento de Linguagem Natural (PLN), e correspondem a textos científicos do início da pandemia. Os textos do corpus possuem especialidades biomédicas anotadas manualmente com base no título dos artigos, nome dos periódicos, palavras-chave e resumo. As features utilizadas foram o Term Frequency – Inverse Document Frequency (TF-IDF) de dois grupos diferentes: com todos os types dos textos em unigramas e bigramas, e com apenas os types biomédicos em suas raízes (stemming). Além disso, foram considerados os subgrupos para análise: todas as classes (CARDIOLOGIA, CIRURGIA, ENFERMAGEM, EPIDEMIOLOGIA, NEFROLOGIA e SAÚDE PÚBLICA), classes mais específicas (CARDIOLOGIA, CIRURGIA e NEFROLOGIA) e classes menos específicas (ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA). Os melhores resultados, para todos os grupos e subgrupos, foram obtidos pelo classificador XGBoost, que é o mais complexo do conjunto utilizado. Comparando os grupos, no geral, o uso de todos os types obteve maiores métricas em relação ao uso de apenas types biomédicos. Além disso, sobre os subgrupos, o melhor desempenho foi para as classes mais específicas, que são as de maior lexicalidade biomédica, seguido por todas as classes e o pior resultado foi para as classes menos específicas. Para a explicabilidade, os resultados sugerem que o XGBoost seja um bom classificador, em especial para classificação das especialidades CARDIOLOGIA, CIRURGIA e NEFROLOGIA, em que não há sobreposição das features mais importantes entre as classes e elas destacarem termos condizentes com as respectivas especialidades, em comparação às classes ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA, em que os atributos utilizados pelo classificador são preponderantemente não específicos de uma determinada especialidade ou são até mesmo da linguagem geral.
-
Mostrar Abstract
-
Neste trabalho, estudamos a aplicação de cinco diferentes classificadores, sendo eles os classificadores Naive Bayes baseados nas distribuições multinomial e gaussiana, o Support Vector Classifier (SVC) e os modelos baseados em árvores de decisão Random Forest e eXtreme Gradient Boosting (XGBoost), para a classificação automática de artigos científicos de seis diferentes especialidades biomédicas em um corpus previamente adquirido sobre a COVID-19 em português brasileiro (CorpusCovid-19 UFABC). Estudamos também a explicabilidade global, com o uso do SHapley Additive exPlanations (SHAP), e a explicabilidade local, com o Local Interpretable Model-agnostic Explanations (LIME) para o algoritmo XGBoost. Esse corpus foi extraído da base PubMed com técnicas e métodos de Processamento de Linguagem Natural (PLN), e correspondem a textos científicos do início da pandemia. Os textos do corpus possuem especialidades biomédicas anotadas manualmente com base no título dos artigos, nome dos periódicos, palavras-chave e resumo. As features utilizadas foram o Term Frequency – Inverse Document Frequency (TF-IDF) de dois grupos diferentes: com todos os types dos textos em unigramas e bigramas, e com apenas os types biomédicos em suas raízes (stemming). Além disso, foram considerados os subgrupos para análise: todas as classes (CARDIOLOGIA, CIRURGIA, ENFERMAGEM, EPIDEMIOLOGIA, NEFROLOGIA e SAÚDE PÚBLICA), classes mais específicas (CARDIOLOGIA, CIRURGIA e NEFROLOGIA) e classes menos específicas (ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA). Os melhores resultados, para todos os grupos e subgrupos, foram obtidos pelo classificador XGBoost, que é o mais complexo do conjunto utilizado. Comparando os grupos, no geral, o uso de todos os types obteve maiores métricas em relação ao uso de apenas types biomédicos. Além disso, sobre os subgrupos, o melhor desempenho foi para as classes mais específicas, que são as de maior lexicalidade biomédica, seguido por todas as classes e o pior resultado foi para as classes menos específicas. Para a explicabilidade, os resultados sugerem que o XGBoost seja um bom classificador, em especial para classificação das especialidades CARDIOLOGIA, CIRURGIA e NEFROLOGIA, em que não há sobreposição das features mais importantes entre as classes e elas destacarem termos condizentes com as respectivas especialidades, em comparação às classes ENFERMAGEM, EPIDEMIOLOGIA e SAÚDE PÚBLICA, em que os atributos utilizados pelo classificador são preponderantemente não específicos de uma determinada especialidade ou são até mesmo da linguagem geral.
|
|
3
|
-
EDUARDO HENRIQUE DOS SANTOS MARQUES
-
Metodologia de baixo custo para Transferência de Estilo em Sistemas TTS
-
Orientador : KENJI NOSE FILHO
-
Data: 29/05/2024
-
-
Mostrar Resumo
-
Em Síntese de Fala por conversão Texto-Fala já foram alcançados grandes avanços e propostas soluções capazes de sintetizar sinais de fala com expressividade, em especial, contendo emoção. No entanto, quando consideramos métodos baseados em conversão de voz, ainda existem problemas como confusão entre classes de emoção na fala sintetizada, e dificuldade para transferir emoções sem que sejam conjuntamente enviadas informações do locutor. Uma solução recente para estes problemas, proposta por Li T. et al., foi aumentar a capacidade de diferenciação das emoções através de um classificador de emoção adicionado ao encoder. No entanto, foi utilizado uma base de dados própria, em língua chinesa, dificultando a reprodutibilidade de estudos relacionados a este tema. Além disso, no cenário apresentado seria necessário o treino de um modelo de síntese, pois não é possível inserir as informações de estilo em modelos já treinados. Assim, neste trabalho são apresentadas algumas análises para esta solução utilizando bases de dados conhecidas, como as bases de dados TESS, RAVDESS e CREMA-D, em língua inglesa, e o uso do modelo Mellotron, pré-treinado, que, além disso, consegue utilizar informações explícitas da fala, as quais podem ser úteis para as tarefas analisadas. Deste modo, foram realizados testes adicionando ao modelo pré-treinado um encoder para emoções, e ajustando-o para a tarefa de conversão de voz com emoções, a partir das bases de dados TESS, RAVDESS e CREMA-D. Em seguida foi verificada a capacidade de transferência de emoção por meio de um classificador de emoção e da visualização, em espaço de características, das classes de emoção presentes. Para esta tarefa nas base de dados TESS e RAVDESS foi obtida uma acurácia em torno de 35% para um subconjunto de 4 classes, mostrando que é possível realizar a tarefa, embora o desempenho alcançado não seja satisfatório. Por sua vez, na base de dados CREMA-D foi obtido um valor de acurácia em torno 25%, portanto não garantindo a efetividade do método. Uma explicação para o baixo desempenho é o equilíbrio necessário entre inteligibilidade e acurácia na classificação de emoção sintetizada.
-
Mostrar Abstract
-
Em Síntese de Fala por conversão Texto-Fala já foram alcançados grandes avanços e propostas soluções capazes de sintetizar sinais de fala com expressividade, em especial, contendo emoção. No entanto, quando consideramos métodos baseados em conversão de voz, ainda existem problemas como confusão entre classes de emoção na fala sintetizada, e dificuldade para transferir emoções sem que sejam conjuntamente enviadas informações do locutor. Uma solução recente para estes problemas, proposta por Li T. et al., foi aumentar a capacidade de diferenciação das emoções através de um classificador de emoção adicionado ao encoder. No entanto, foi utilizado uma base de dados própria, em língua chinesa, dificultando a reprodutibilidade de estudos relacionados a este tema. Além disso, no cenário apresentado seria necessário o treino de um modelo de síntese, pois não é possível inserir as informações de estilo em modelos já treinados. Assim, neste trabalho são apresentadas algumas análises para esta solução utilizando bases de dados conhecidas, como as bases de dados TESS, RAVDESS e CREMA-D, em língua inglesa, e o uso do modelo Mellotron, pré-treinado, que, além disso, consegue utilizar informações explícitas da fala, as quais podem ser úteis para as tarefas analisadas. Deste modo, foram realizados testes adicionando ao modelo pré-treinado um encoder para emoções, e ajustando-o para a tarefa de conversão de voz com emoções, a partir das bases de dados TESS, RAVDESS e CREMA-D. Em seguida foi verificada a capacidade de transferência de emoção por meio de um classificador de emoção e da visualização, em espaço de características, das classes de emoção presentes. Para esta tarefa nas base de dados TESS e RAVDESS foi obtida uma acurácia em torno de 35% para um subconjunto de 4 classes, mostrando que é possível realizar a tarefa, embora o desempenho alcançado não seja satisfatório. Por sua vez, na base de dados CREMA-D foi obtido um valor de acurácia em torno 25%, portanto não garantindo a efetividade do método. Uma explicação para o baixo desempenho é o equilíbrio necessário entre inteligibilidade e acurácia na classificação de emoção sintetizada.
|
|
4
|
-
BRUNA CUNHA DE CARVALHO
-
Exploração e Desenvolvimento de Funcionalidades de Gateways em Ambientes de IoT com P4
-
Orientador : JOAO HENRIQUE KLEINSCHMIDT
-
Data: 04/06/2024
-
-
Mostrar Resumo
-
A linguagem de programação P4 tem sido utilizada para a programação do plano de dados em dispositivos de redes, incluindo switches e roteadores, permitindo que os desenvolvedores especifiquem o processamento de pacotes dentro do elemento de rede, tanto físico quanto virtual. Originada com o propósito de superar limitações e desafios presentes nas redes definidas por software, como a demanda por maior flexibilidade e capacidade de customização, a linguagem P4 oferece uma abordagem inovadora. Este trabalho se concentra na aplicação de P4 em ambientes de IoT, explorando as oportunidades de implementação em aplicações IoT e realizando uma comparação, entre cenários com e sem o uso de P4, sendo este último caso com a utilização do protocolo OpenFlow. Os cenários propostos têm como objetivo aprofundar o entendimento sobre o uso de P4 direcionado para IoT, abordando os contextos de filtragem de pacotes, automação de serviços e interoperabilidade nas redes IoT. Para tanto, foram empregados o simulador de redes Mininet-WiFi e a ferramenta P4Docker. Como parte deste estudo, foi desenvolvida uma solução de gateway multiprotocolo que demonstra eficácia na identificação de diferentes protocolos e tipos de dados, bem como um sistema de geração de alertas com base em mensagens utilizando o protocolo MQTT.
-
Mostrar Abstract
-
A linguagem de programação P4 tem sido utilizada para a programação do plano de dados em dispositivos de redes, incluindo switches e roteadores, permitindo que os desenvolvedores especifiquem o processamento de pacotes dentro do elemento de rede, tanto físico quanto virtual. Originada com o propósito de superar limitações e desafios presentes nas redes definidas por software, como a demanda por maior flexibilidade e capacidade de customização, a linguagem P4 oferece uma abordagem inovadora. Este trabalho se concentra na aplicação de P4 em ambientes de IoT, explorando as oportunidades de implementação em aplicações IoT e realizando uma comparação, entre cenários com e sem o uso de P4, sendo este último caso com a utilização do protocolo OpenFlow. Os cenários propostos têm como objetivo aprofundar o entendimento sobre o uso de P4 direcionado para IoT, abordando os contextos de filtragem de pacotes, automação de serviços e interoperabilidade nas redes IoT. Para tanto, foram empregados o simulador de redes Mininet-WiFi e a ferramenta P4Docker. Como parte deste estudo, foi desenvolvida uma solução de gateway multiprotocolo que demonstra eficácia na identificação de diferentes protocolos e tipos de dados, bem como um sistema de geração de alertas com base em mensagens utilizando o protocolo MQTT.
|
|
5
|
-
MARCIO VALVERDE
-
Modelagem de Tópicos para Análise de Indícios de Depressão e Ideação Suicida de Postagens do Reddit em Língua Portuguesa
-
Orientador : ANDRE KAZUO TAKAHATA
-
Data: 17/06/2024
-
-
Mostrar Resumo
-
Este trabalho tem como objetivo examinar como técnicas de processamento de linguagem natural (PLN) e de aprendizado de máquina não supervisionado podem ser empregadas para detectar sinais de depressão e ideação suicida em postagens extraídas da plataforma de rede social Reddit. O estudo aborda a crescente importância da Internet como um espaço de expressão de sentimentos e investiga o potencial da modelagem de tópicos para revelar temas importantes em discussões sobre saúde mental. A pesquisa destaca a aplicabilidade de métodos como a Alocação Latente de Dirichlet (LDA) e a Fatoração de Matrizes Não-Negativas (NMF) para caracterizar postagens de forma que se possa identificar padrões de linguagem e tópicos associados à depressão e à ideação suicida. Este trabalho não só busca entender os sinais linguísticos relevantes para o estado emocional dos usuários, mas também busca oferecer uma potencial ferramenta para profissionais da saúde mental, pesquisadores e formuladores de políticas públicas, visando fornecer insights para intervenções precoces e suporte psicológico. Ao focar na língua portuguesa, o estudo contribui para diversificar a pesquisa em PLN, ampliando a compreensão das comunidades de língua portuguesa online, entre muitos estudos realizados em diferentes línguas. A dissertação é fundamentada em uma revisão da literatura que abrange trabalhos relevantes na área, que demonstram a eficácia da modelagem de tópicos em dados sensíveis e a importância de analisar conteúdo online para prevenir comportamentos depressivos e suicidas. As questões de pesquisa focam na capacidade da modelagem de tópicos de identificar automaticamente indícios de depressão e ideação suicida e na busca de padrões linguísticos específicos que caracterizam tais postagens e de tópicos mais comuns relacionados à saúde mental na comunidade de língua portuguesa do Reddit.
-
Mostrar Abstract
-
Este trabalho tem como objetivo examinar como técnicas de processamento de linguagem natural (PLN) e de aprendizado de máquina não supervisionado podem ser empregadas para detectar sinais de depressão e ideação suicida em postagens extraídas da plataforma de rede social Reddit. O estudo aborda a crescente importância da Internet como um espaço de expressão de sentimentos e investiga o potencial da modelagem de tópicos para revelar temas importantes em discussões sobre saúde mental. A pesquisa destaca a aplicabilidade de métodos como a Alocação Latente de Dirichlet (LDA) e a Fatoração de Matrizes Não-Negativas (NMF) para caracterizar postagens de forma que se possa identificar padrões de linguagem e tópicos associados à depressão e à ideação suicida. Este trabalho não só busca entender os sinais linguísticos relevantes para o estado emocional dos usuários, mas também busca oferecer uma potencial ferramenta para profissionais da saúde mental, pesquisadores e formuladores de políticas públicas, visando fornecer insights para intervenções precoces e suporte psicológico. Ao focar na língua portuguesa, o estudo contribui para diversificar a pesquisa em PLN, ampliando a compreensão das comunidades de língua portuguesa online, entre muitos estudos realizados em diferentes línguas. A dissertação é fundamentada em uma revisão da literatura que abrange trabalhos relevantes na área, que demonstram a eficácia da modelagem de tópicos em dados sensíveis e a importância de analisar conteúdo online para prevenir comportamentos depressivos e suicidas. As questões de pesquisa focam na capacidade da modelagem de tópicos de identificar automaticamente indícios de depressão e ideação suicida e na busca de padrões linguísticos específicos que caracterizam tais postagens e de tópicos mais comuns relacionados à saúde mental na comunidade de língua portuguesa do Reddit.
|
|
6
|
-
GUILHERME GARCIA HORTA
-
Desbalanceamento, sobreposição e classificação de dados com aplicação em detecção de fraudes em cartões de crédito.
-
Orientador : MURILO BELLEZONI LOIOLA
-
Data: 21/06/2024
-
-
Mostrar Resumo
-
As fraudes em cartões de crédito são um problema crescente na sociedade moderna, especialmente com o aumento das modalidades de compras e pagamentos online. Logo, há alta demanda para sistemas de prevenção e detecção de fraudes que sejam robustos e confiáveis. A tarefa de detecção de fraudes pode ser tratada como um problema de classificação e, neste contexto, múltiplos autores relatam dificuldades ao treinar os classificadores nos conjuntos de dados de fraudes, que possivelmente apresentam desbalanceamento e sobreposição entre as classes. Técnicas de pré-processamento de amostragem, como sobre-amostragem e sub-amostragem, são frequentemente utilizadas na fase de pré-processamento para tratar o problema do desbalanceamento. Por outro lado, métricas de avaliação como o R-Valor e o R-Valor Aumentado foram apresentadas nos últimos anos para medir o nível de sobreposição presente nos dados. Portanto, este trabalho se propõe a analisar os comportamentos de diferentes classificadores quando há utilização de técnicas de amostragem em conjuntos de dados sintéticos desbalanceados e sobrepostos, além de efetuar este estudo em aplicação real, para um conjunto de dados de fraudes em cartões de crédito, objetivamente medindo os efeitos nas métricas acima mencionadas e também nos desempenhos de classificação. Este trabalho, bem como outros autores apontaram por meio de estudos em diversos conjuntos de dados, demonstra que a utilização da métrica R-Valor Aumentado é mais apropriada em cenário de dados desbalanceados em comparação ao R-Valor. Entretanto, este trabalho conclui que, para os conjuntos de dados estudados, os resultados de classificação obtidos após a aplicação das técnicas escolhidas de amostragem não apresentaram diferenças significativas em relação a não aplicação das mesmas, reforçando ponto trazido por certos autores que, supostamente, o problema de sobreposição dos dados pode ser mais oneroso de lidar que o desbalanceamento. Outra questão trazida a tona por este estudo é a relação entre a dispersão observada dos dados de cada classe em relação ao desempenho de classificação dos estimadores. Além disso, aponta-se que os algoritmos de classificação baseados em árvores de decisão obtiveram resultados bons para o conjunto de dados real de fraudes, considerando as circunstâncias de alto desbalanceamento e classes sobrepostas significativamente.
-
Mostrar Abstract
-
As fraudes em cartões de crédito são um problema crescente na sociedade moderna, especialmente com o aumento das modalidades de compras e pagamentos online. Logo, há alta demanda para sistemas de prevenção e detecção de fraudes que sejam robustos e confiáveis. A tarefa de detecção de fraudes pode ser tratada como um problema de classificação e, neste contexto, múltiplos autores relatam dificuldades ao treinar os classificadores nos conjuntos de dados de fraudes, que possivelmente apresentam desbalanceamento e sobreposição entre as classes. Técnicas de pré-processamento de amostragem, como sobre-amostragem e sub-amostragem, são frequentemente utilizadas na fase de pré-processamento para tratar o problema do desbalanceamento. Por outro lado, métricas de avaliação como o R-Valor e o R-Valor Aumentado foram apresentadas nos últimos anos para medir o nível de sobreposição presente nos dados. Portanto, este trabalho se propõe a analisar os comportamentos de diferentes classificadores quando há utilização de técnicas de amostragem em conjuntos de dados sintéticos desbalanceados e sobrepostos, além de efetuar este estudo em aplicação real, para um conjunto de dados de fraudes em cartões de crédito, objetivamente medindo os efeitos nas métricas acima mencionadas e também nos desempenhos de classificação. Este trabalho, bem como outros autores apontaram por meio de estudos em diversos conjuntos de dados, demonstra que a utilização da métrica R-Valor Aumentado é mais apropriada em cenário de dados desbalanceados em comparação ao R-Valor. Entretanto, este trabalho conclui que, para os conjuntos de dados estudados, os resultados de classificação obtidos após a aplicação das técnicas escolhidas de amostragem não apresentaram diferenças significativas em relação a não aplicação das mesmas, reforçando ponto trazido por certos autores que, supostamente, o problema de sobreposição dos dados pode ser mais oneroso de lidar que o desbalanceamento. Outra questão trazida a tona por este estudo é a relação entre a dispersão observada dos dados de cada classe em relação ao desempenho de classificação dos estimadores. Além disso, aponta-se que os algoritmos de classificação baseados em árvores de decisão obtiveram resultados bons para o conjunto de dados real de fraudes, considerando as circunstâncias de alto desbalanceamento e classes sobrepostas significativamente.
|
|
7
|
-
MAURICIO DE SOUZA SEBASTIÃO
-
Análise de vulnerabilidade contra interceptações em redes FFH-OCDMA.
-
Orientador : ANDERSON LEONARDO SANCHES
-
Data: 26/06/2024
-
-
Mostrar Resumo
-
A cibersegurança e a resiliência cibernética estão se tornando cruciais para o desenvolvimento de muitas tecnologias, especialmente nos dias atuais de uma era da constante transformação digital. Esta dissertação apresenta uma análise realista da vulnerabilidade em segurança à nível de camada física para redes ópticas baseadas em acesso múltiplo por divisão de código OCDMA e codificação com espalhamento espectral com saltos rápidos em frequência (FFH-OCDMA). O desempenho da rede é avaliado considerando tanto o formato de modulação incoerente ordinário conhecido como chaveamento liga-desliga (OOK) quanto os formatos de modulação coerentes avançados que ocorrem por chaveamento por deslocamento de fase binário (BPSK) e chaveamento por mudança de fase e quadratura (QPSK). Em todos os casos, os efeitos da interceptação de sinais simultaneamente transmitidos por meio de um invasor portando uma réplica similar do receptor do usuário de interesse são avaliados. As análises consideram dois cenários apresentando efeitos deletérios distintos sobre o sinal interceptado pelo invasor: 1) apenas a interferência de acesso múltiplo (MAI) atua sobre o sinal de interesse e 2) ambos a MAI e os ruídos do originários da recepção atuam sobre o sinal de interesse. Para ambos os cenários, foram propostos novas expressões para a composição do formalismo matemático responsável pela quantificação do desempenho em termos da figura de mérito nomeada taxa de erro de bit (BER). Os resultados numéricos indicam que a decodificação e recomposição da informação do sinal interceptado é continuamente dificultada à medida em que invasor comete mais erros de filtragem (relativos ao projeto das Redes de Bragg que compõem o decodificador) durante a inferência do código atribuído ao usuário de interesse. Adicionalmente, foi verificado que os efeitos deletérios da MAI sobre o sinal transmitido do usuário de interesse impactam significativamente e de maneira negativa na capacidade de recomposição da informação pelo invasor. Isso significa que as redes FFH-OCDMA são robustas contra interceptação de sinais proveniente de invasões e oferecem uma solução viável para aumentar a segurança em sistemas ópticos.
-
Mostrar Abstract
-
A cibersegurança e a resiliência cibernética estão se tornando cruciais para o desenvolvimento de muitas tecnologias, especialmente nos dias atuais de uma era da constante transformação digital. Esta dissertação apresenta uma análise realista da vulnerabilidade em segurança à nível de camada física para redes ópticas baseadas em acesso múltiplo por divisão de código OCDMA e codificação com espalhamento espectral com saltos rápidos em frequência (FFH-OCDMA). O desempenho da rede é avaliado considerando tanto o formato de modulação incoerente ordinário conhecido como chaveamento liga-desliga (OOK) quanto os formatos de modulação coerentes avançados que ocorrem por chaveamento por deslocamento de fase binário (BPSK) e chaveamento por mudança de fase e quadratura (QPSK). Em todos os casos, os efeitos da interceptação de sinais simultaneamente transmitidos por meio de um invasor portando uma réplica similar do receptor do usuário de interesse são avaliados. As análises consideram dois cenários apresentando efeitos deletérios distintos sobre o sinal interceptado pelo invasor: 1) apenas a interferência de acesso múltiplo (MAI) atua sobre o sinal de interesse e 2) ambos a MAI e os ruídos do originários da recepção atuam sobre o sinal de interesse. Para ambos os cenários, foram propostos novas expressões para a composição do formalismo matemático responsável pela quantificação do desempenho em termos da figura de mérito nomeada taxa de erro de bit (BER). Os resultados numéricos indicam que a decodificação e recomposição da informação do sinal interceptado é continuamente dificultada à medida em que invasor comete mais erros de filtragem (relativos ao projeto das Redes de Bragg que compõem o decodificador) durante a inferência do código atribuído ao usuário de interesse. Adicionalmente, foi verificado que os efeitos deletérios da MAI sobre o sinal transmitido do usuário de interesse impactam significativamente e de maneira negativa na capacidade de recomposição da informação pelo invasor. Isso significa que as redes FFH-OCDMA são robustas contra interceptação de sinais proveniente de invasões e oferecem uma solução viável para aumentar a segurança em sistemas ópticos.
|
|
8
|
-
JOÃO PAULO DAL POZ PEREIRA
-
Detecção de Anomalias em Tráfego de Dados em Redes IoT
-
Orientador : MURILO BELLEZONI LOIOLA
-
Data: 24/07/2024
-
-
Mostrar Resumo
-
Nos últimos anos, os avanços tecnológicos relacionados aos dispositivos e à infraestrutura da Internet das Coisas (IoT, do inglês Internet of things) possibilitou às grandes indústrias rastrear estoques, gerenciar máquinas e monitorar processos industriais de maneira mais rápida e eficaz, além de contribuir para o desenvolvimento de veículos autônomos e, no caso de consumidores individuais, automatizar residências e monitorar a saúde pessoal. Essa evolução também permitiu, devido às conexões com a Internet, que cada um desses dispositivos se tornasse um potencial alvo de ataque por indivíduos mal intencionados, sendo necessária uma maior preocupação com a segurança desse ambiente bastante heterogêneo. Como os dispositivos IoT são restritos em recursos computacionais e energia, os modelos de segurança tradicionais, que atuam como uma linha de defesa, agindo no processo de detecção de intrusos e ameaças, não podem ser diretamente adotados para eles. Uma alternativa é implementar um sistema de detecção de intrusão (IDS, do inglês Intrusion Detection System) em um gateway, protegendo assim os dispositivos IoT. Embora IDS's tradicionais empreguem técnicas estatísticas, abordagens mais recentes se concentram na utilização de algoritmos de aprendizado de máquina (ML, do inglês Machine Learning), que procuram aprender as características de cada tipo de ataque a partir de dados de tráfego de rede.
Devido à grande quantidade de dados de tráfego disponíveis, restringir os atributos de tráfego empregados para detecção de uma eventual ameaça é uma garantia de ganho computacional e de tempo. Assim, técnicas de seleção de atributos (ou de características) são fundamentais para uma implementação prática de um IDS usando ML. Além disso, como a disponibilidade de dados de tráfego normal é muito maior que a de dados de intrusões, é comum utilizar técnicas de reamostragem, que procuram equilibrar as quantidades de dados das duas classes de tráfego (normal e ataque), antes dos classificadores baseados em ML. Portanto, um dos objetivos principais deste trabalho é realizar uma análise comparativa de desempenho de diversas técnicas de seleção de atributos aplicadas a algoritmos de aprendizagem de máquina para IDS. Outro objetivo desta dissertação é avaliar a efetividade de técnicas de reamostragem para balanceamento dos dados. Em particular, neste trabalho de mestrado, foram utilizados três algoritmos para classificar os dados de tráfego IoT em normal ou de ataque, três técnicas de seleção de atributos e uma técnica de reamostragem. Os resultados obtidos indicam que classificadores baseados em árvores de decisão, com seleção de atributos usando a informação mútua, fornecem uma boa solução de compromisso entre complexidade computacional e desempenho de classificação. Além disso, para as bases de dados consideradas, não houve alteração significativa de desempenho dos classificadores ao se empregar a técnica de reamostragem simulada.
-
Mostrar Abstract
-
Nos últimos anos, os avanços tecnológicos relacionados aos dispositivos e à infraestrutura da Internet das Coisas (IoT, do inglês Internet of things) possibilitou às grandes indústrias rastrear estoques, gerenciar máquinas e monitorar processos industriais de maneira mais rápida e eficaz, além de contribuir para o desenvolvimento de veículos autônomos e, no caso de consumidores individuais, automatizar residências e monitorar a saúde pessoal. Essa evolução também permitiu, devido às conexões com a Internet, que cada um desses dispositivos se tornasse um potencial alvo de ataque por indivíduos mal intencionados, sendo necessária uma maior preocupação com a segurança desse ambiente bastante heterogêneo. Como os dispositivos IoT são restritos em recursos computacionais e energia, os modelos de segurança tradicionais, que atuam como uma linha de defesa, agindo no processo de detecção de intrusos e ameaças, não podem ser diretamente adotados para eles. Uma alternativa é implementar um sistema de detecção de intrusão (IDS, do inglês Intrusion Detection System) em um gateway, protegendo assim os dispositivos IoT. Embora IDS's tradicionais empreguem técnicas estatísticas, abordagens mais recentes se concentram na utilização de algoritmos de aprendizado de máquina (ML, do inglês Machine Learning), que procuram aprender as características de cada tipo de ataque a partir de dados de tráfego de rede.
Devido à grande quantidade de dados de tráfego disponíveis, restringir os atributos de tráfego empregados para detecção de uma eventual ameaça é uma garantia de ganho computacional e de tempo. Assim, técnicas de seleção de atributos (ou de características) são fundamentais para uma implementação prática de um IDS usando ML. Além disso, como a disponibilidade de dados de tráfego normal é muito maior que a de dados de intrusões, é comum utilizar técnicas de reamostragem, que procuram equilibrar as quantidades de dados das duas classes de tráfego (normal e ataque), antes dos classificadores baseados em ML. Portanto, um dos objetivos principais deste trabalho é realizar uma análise comparativa de desempenho de diversas técnicas de seleção de atributos aplicadas a algoritmos de aprendizagem de máquina para IDS. Outro objetivo desta dissertação é avaliar a efetividade de técnicas de reamostragem para balanceamento dos dados. Em particular, neste trabalho de mestrado, foram utilizados três algoritmos para classificar os dados de tráfego IoT em normal ou de ataque, três técnicas de seleção de atributos e uma técnica de reamostragem. Os resultados obtidos indicam que classificadores baseados em árvores de decisão, com seleção de atributos usando a informação mútua, fornecem uma boa solução de compromisso entre complexidade computacional e desempenho de classificação. Além disso, para as bases de dados consideradas, não houve alteração significativa de desempenho dos classificadores ao se empregar a técnica de reamostragem simulada.
|
|
9
|
-
MARCOS LIMA ROMERO
-
Garantia da Qualidade dos Dados na Internet das Coisas Utilizando Aprendizado de Máquina Online
-
Orientador : RICARDO SUYAMA
-
Data: 05/08/2024
-
-
Mostrar Resumo
-
"A qualidade dos dados é crucial para uma tomada de decisão sólida em aplicações de Internet das Coisas (IoT), mas as ferramentas existentes muitas vezes carecem de flexibilidade e modularidade. Este estudo aborda essa lacuna propondo três contribuições principais: (1) identificar limitações críticas nas abordagens existentes de avaliação da qualidade dos dados por meio de uma revisão sistemática da literatura, (2) desenvolver uma ferramenta de software de código aberto e orientada por eventos chamada Ferramenta de Garantia da Qualidade dos Dados (DQAT) para avaliação de dados em tempo real em diversas aplicações de IoT, e (3) avaliar a viabilidade de métodos de aprendizado de máquina de ponta para a melhoria da qualidade dos dados em cenários de dados em fluxo. A modularidade e escalabilidade do DQAT permitem a simulação de cenários de ponta a ponta e a integração com aplicações do mundo real. Sua eficácia será avaliada usando um conjunto de dados agrícolas e métricas como precisão, completude, pontualidade, consistência e melhoria geral na qualidade dos dados. Este trabalho visa abordar a melhoria da qualidade dos dados na IoT e explicar como liberar todo o seu potencial para uma tomada de decisão confiável."
-
Mostrar Abstract
-
"A qualidade dos dados é crucial para uma tomada de decisão sólida em aplicações de Internet das Coisas (IoT), mas as ferramentas existentes muitas vezes carecem de flexibilidade e modularidade. Este estudo aborda essa lacuna propondo três contribuições principais: (1) identificar limitações críticas nas abordagens existentes de avaliação da qualidade dos dados por meio de uma revisão sistemática da literatura, (2) desenvolver uma ferramenta de software de código aberto e orientada por eventos chamada Ferramenta de Garantia da Qualidade dos Dados (DQAT) para avaliação de dados em tempo real em diversas aplicações de IoT, e (3) avaliar a viabilidade de métodos de aprendizado de máquina de ponta para a melhoria da qualidade dos dados em cenários de dados em fluxo. A modularidade e escalabilidade do DQAT permitem a simulação de cenários de ponta a ponta e a integração com aplicações do mundo real. Sua eficácia será avaliada usando um conjunto de dados agrícolas e métricas como precisão, completude, pontualidade, consistência e melhoria geral na qualidade dos dados. Este trabalho visa abordar a melhoria da qualidade dos dados na IoT e explicar como liberar todo o seu potencial para uma tomada de decisão confiável."
|
|
10
|
-
LÍCIA SALES COSTA LIMA
-
Otimização dos parâmetros do modelo do diodo Schottky usando aprendizado por reforço para aplicações em retificadores de RF
-
Orientador : CARLOS EDUARDO CAPOVILLA
-
Data: 26/08/2024
-
-
Mostrar Resumo
-
Os sistemas de colheita de energia de radiofrequência (RFEH) representam uma avançada tecnologia para converter a radiação eletromagnética em energia elétrica, especialmente relevante para a Internet das Coisas (IoT). Apesar de sua importância, há uma lacuna na otimização do componente de retificação, o diodo retificador, essencial para a eficiência energética dos dispositivos. Este estudo propõe explorar e otimizar o diodo retificador em sistemas RFEH, usando aprendizado por reforço para generalizar seu comportamento e otimizar seus parâmetros. O modelo visa a melhorar a eficiência de conversão de energia RF em DC, contribuindo para o desenvolvimento de sistemas RFEH mais eficientes e sustentáveis. O trabalho iniciou-se com a análise de um modelo de circuito do diodo, seguido pelo desenvolvimento de um ambiente de simulação. A metodologia de aprendizado por reforço, especialmente o Advantage Actor-Critic (A2C), foi adotada para otimizar os parâmetros do diodo. O estudo também avaliou a generalização do modelo de aprendizagem por reforço e comparou a eficiência do diodo proposto com diodos comerciais, investigando a influência dos parâmetros na eficiência do circuito. Essa pesquisa visa preencher a lacuna na otimização dos componentes de retificação em sistemas RFEH, crucial para a eficiência dos dispositivos IoT alimentados por essa tecnologia.
-
Mostrar Abstract
-
Os sistemas de colheita de energia de radiofrequência (RFEH) representam uma avançada tecnologia para converter a radiação eletromagnética em energia elétrica, especialmente relevante para a Internet das Coisas (IoT). Apesar de sua importância, há uma lacuna na otimização do componente de retificação, o diodo retificador, essencial para a eficiência energética dos dispositivos. Este estudo propõe explorar e otimizar o diodo retificador em sistemas RFEH, usando aprendizado por reforço para generalizar seu comportamento e otimizar seus parâmetros. O modelo visa a melhorar a eficiência de conversão de energia RF em DC, contribuindo para o desenvolvimento de sistemas RFEH mais eficientes e sustentáveis. O trabalho iniciou-se com a análise de um modelo de circuito do diodo, seguido pelo desenvolvimento de um ambiente de simulação. A metodologia de aprendizado por reforço, especialmente o Advantage Actor-Critic (A2C), foi adotada para otimizar os parâmetros do diodo. O estudo também avaliou a generalização do modelo de aprendizagem por reforço e comparou a eficiência do diodo proposto com diodos comerciais, investigando a influência dos parâmetros na eficiência do circuito. Essa pesquisa visa preencher a lacuna na otimização dos componentes de retificação em sistemas RFEH, crucial para a eficiência dos dispositivos IoT alimentados por essa tecnologia.
|
|
11
|
-
GUSTAVO FREGONEZI DEPIERI
-
Algoritmos Bioinspirados para Separação Cega de Misturas Post-Nonlinear
-
Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
-
Data: 28/08/2024
-
-
Mostrar Resumo
-
A separação cega de fontes (BSS - Blind Source Separation) compreende um conjunto de técnicas não-supervisionadas para recuperação de fontes a partir da observação de suas misturas. Neste trabalho são investigadas aplicações de algoritmos bioinspirados de otimização ao problema de BSS no contexto não-linear Post-Nonlinear (PNL), dentro das premissas de independência estatística da Análise por Componentes Independentes (ICA- Independent Component Analysis) . Em especial, são utilizados o algoritmo de Otimização por Enxame de Partículas (OEP) e sua versão híbrida com o algoritmo de Evolução Diferencial (OEP-ED) é proposta, em diferentes topologias para separação das misturas, sendo adotada a informação mútua como função objetivo. Os resultados das simulações computacionais mostram que o algoritmo híbrido OEP-ED na topologia quadrada apresenta os melhores resultados para recuperação das fontes. No mesmo contexto de misturas são analisados os algoritmos bioinspirados modificados para incorporar o Estimador baseado em kernel (KDE-Kernel Density Estimator), e ao final, uma versão adaptada do OEP-ED é aplicada ao problema de equalização cega não linear seguindo o princípio PNL, onde também se verificam uma boa estimativa das fontes em cenários diversos de simulação
-
Mostrar Abstract
-
A separação cega de fontes (BSS - Blind Source Separation) compreende um conjunto de técnicas não-supervisionadas para recuperação de fontes a partir da observação de suas misturas. Neste trabalho são investigadas aplicações de algoritmos bioinspirados de otimização ao problema de BSS no contexto não-linear Post-Nonlinear (PNL), dentro das premissas de independência estatística da Análise por Componentes Independentes (ICA- Independent Component Analysis) . Em especial, são utilizados o algoritmo de Otimização por Enxame de Partículas (OEP) e sua versão híbrida com o algoritmo de Evolução Diferencial (OEP-ED) é proposta, em diferentes topologias para separação das misturas, sendo adotada a informação mútua como função objetivo. Os resultados das simulações computacionais mostram que o algoritmo híbrido OEP-ED na topologia quadrada apresenta os melhores resultados para recuperação das fontes. No mesmo contexto de misturas são analisados os algoritmos bioinspirados modificados para incorporar o Estimador baseado em kernel (KDE-Kernel Density Estimator), e ao final, uma versão adaptada do OEP-ED é aplicada ao problema de equalização cega não linear seguindo o princípio PNL, onde também se verificam uma boa estimativa das fontes em cenários diversos de simulação
|
|
|
Teses |
|
1
|
-
ROBERTO GUTIERREZ BERALDO
-
Métodos de regularização com aprendizagem profunda para solução do problema inverso de tomografia por impedância elétrica
-
Orientador : RICARDO SUYAMA
-
Data: 04/04/2024
-
-
Mostrar Resumo
-
A tomografia por impedância elétrica é um problema inverso que visa obter informações de propriedades elétricas de uma região de interesse a partir apenas de medidas de tensão elétrica em torno dessa mesma região. Sendo um problema mal-posto, a sua discretização para solução computacional resulta em sistemas de equações mal-condicionados, instáveis na presença de ruídos e erros de modelagem. Uma forma de resolvê-lo é através do método de regularização, tratando-o como um problema de otimização e restringindo o espaço de soluções com informações a priori das soluções.
A presente tese estuda a união dos paradigmas dos métodos de regularização e de aprendizagem profunda na reconstrução de imagens de tomografia por impedância elétrica. Especificamente, redes neurais convolucionais que realizam denoising e remoção de artefatos foram incluídas em algoritmos convencionais para reconstrução de imagens absolutas e imagens a diferenças. Foram considerados tanto os casos em que todos os eletrodos estão disponíveis, quanto o caso da progressiva desativação de eletrodos. As propostas apresentaram ganho de performance sem necessidade de um aumento expressivo do poder computacional, indicando o potencial que aprendizagem profunda pode trazer para a área de pesquisa de tomografia por impedância elétrica.
-
Mostrar Abstract
-
A tomografia por impedância elétrica é um problema inverso que visa obter informações de propriedades elétricas de uma região de interesse a partir apenas de medidas de tensão elétrica em torno dessa mesma região. Sendo um problema mal-posto, a sua discretização para solução computacional resulta em sistemas de equações mal-condicionados, instáveis na presença de ruídos e erros de modelagem. Uma forma de resolvê-lo é através do método de regularização, tratando-o como um problema de otimização e restringindo o espaço de soluções com informações a priori das soluções.
A presente tese estuda a união dos paradigmas dos métodos de regularização e de aprendizagem profunda na reconstrução de imagens de tomografia por impedância elétrica. Especificamente, redes neurais convolucionais que realizam denoising e remoção de artefatos foram incluídas em algoritmos convencionais para reconstrução de imagens absolutas e imagens a diferenças. Foram considerados tanto os casos em que todos os eletrodos estão disponíveis, quanto o caso da progressiva desativação de eletrodos. As propostas apresentaram ganho de performance sem necessidade de um aumento expressivo do poder computacional, indicando o potencial que aprendizagem profunda pode trazer para a área de pesquisa de tomografia por impedância elétrica.
|
|
2
|
-
MARCELO BEZERRA GRILO JÚNIOR
-
Separação Cega de Fontes Conjunta Aplicada a Sinais de EEG para Estudo de Reações Empáticas
-
Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
-
Data: 13/05/2024
-
-
Mostrar Resumo
-
Esta tese explora a aplicação das técnicas de Separação Cega de Fontes (BSS – Blind Source Separation) e Separação Cega de Fontes Conjunta (JBSS – Joint Blind Source Separtion) no pré-processamento e na análise de sinais de EEG para reconhecimento de emoções, com foco na classificação de reações empáticas. Desenvolvemos um protocolo para a coleta de dados de EEG voltados para estudos emocionais a fim de verificar se uma pessoa apresenta atividade elétrica cerebral diferente dependendo de quem ela observa, não apenas em relação à situação emocional envolvida. Adicionalmente, avaliamos algoritmos de BSS quanto à sua eficácia na remoção de artefatos. Nesse contexto, exploramos a aplicação de algoritmos baseados na informação mútua incluindo o uso de estimadores baseados em kernel. Nossos resultados indicam uma melhoria significativa na acurácia da classificação de estados emocionais dependendo da função kernel utilizada, com o kernel Epanechnikov melhorando o desempenho em até 10% em relação ao algoritmo clássico SOBI e obtendo uma melhoria absoluta de 21% quando nenhuma remoção de artefato foi aplicada. Isso indica a importância da etapa da remoção de artefatos na melhora do desempenho da classificação de sinais de EEG. Outro objeto de estudo foram os métodos de JBSS, que em um cenário simulado mostraram a superioridade no desempenho de técnicas baseadas na Análise por Vetores Independentes (IVA – Independent Vector Analysis) quando comparado a técnicas baseadas em diagonalização conjunta de matrizes de correlação. Por fim, aplicamos o IVA em diferentes conjuntos de dados de sinais de EEG, tanto para extração de características, como no contexto de remoção de artefatos. Foi possível observar que o desempenho de técnicas de IVA depende muito do valor do passo de adaptação e do conjunto de dados sendo tratados simultaneamente. Concluímos que a remoção de artefatos é crucial para melhorar a classificação de reações empáticas em EEG, independente da forma como os dados são analisados. Para a classificação de reações empáticas, o JBSS pode ser inadequado devido à variabilidade individual na atividade elétrica cerebral, que dificulta a exploração de uma possível correlação entre sinais de diferentes sujeitos.
-
Mostrar Abstract
-
Esta tese explora a aplicação das técnicas de Separação Cega de Fontes (BSS – Blind Source Separation) e Separação Cega de Fontes Conjunta (JBSS – Joint Blind Source Separtion) no pré-processamento e na análise de sinais de EEG para reconhecimento de emoções, com foco na classificação de reações empáticas. Desenvolvemos um protocolo para a coleta de dados de EEG voltados para estudos emocionais a fim de verificar se uma pessoa apresenta atividade elétrica cerebral diferente dependendo de quem ela observa, não apenas em relação à situação emocional envolvida. Adicionalmente, avaliamos algoritmos de BSS quanto à sua eficácia na remoção de artefatos. Nesse contexto, exploramos a aplicação de algoritmos baseados na informação mútua incluindo o uso de estimadores baseados em kernel. Nossos resultados indicam uma melhoria significativa na acurácia da classificação de estados emocionais dependendo da função kernel utilizada, com o kernel Epanechnikov melhorando o desempenho em até 10% em relação ao algoritmo clássico SOBI e obtendo uma melhoria absoluta de 21% quando nenhuma remoção de artefato foi aplicada. Isso indica a importância da etapa da remoção de artefatos na melhora do desempenho da classificação de sinais de EEG. Outro objeto de estudo foram os métodos de JBSS, que em um cenário simulado mostraram a superioridade no desempenho de técnicas baseadas na Análise por Vetores Independentes (IVA – Independent Vector Analysis) quando comparado a técnicas baseadas em diagonalização conjunta de matrizes de correlação. Por fim, aplicamos o IVA em diferentes conjuntos de dados de sinais de EEG, tanto para extração de características, como no contexto de remoção de artefatos. Foi possível observar que o desempenho de técnicas de IVA depende muito do valor do passo de adaptação e do conjunto de dados sendo tratados simultaneamente. Concluímos que a remoção de artefatos é crucial para melhorar a classificação de reações empáticas em EEG, independente da forma como os dados são analisados. Para a classificação de reações empáticas, o JBSS pode ser inadequado devido à variabilidade individual na atividade elétrica cerebral, que dificulta a exploração de uma possível correlação entre sinais de diferentes sujeitos.
|
|
3
|
-
CAROLINE PIRES ALAVEZ MORAES
-
Multifaceted Independent Vector Analysis for Brain Signal Processing
-
Orientador : ALINE DE OLIVEIRA NEVES PANAZIO
-
Data: 27/05/2024
-
-
Mostrar Resumo
-
A Separação Cega de Fontes Conjunta (JBSS, do inglês Joint Blind Source Separartion) é uma extensão do problema de Separação Cega de Fontes (BSS, do inglês Blind Source Separation) para múltiplos conjuntos de dados, sendo um importante tópico de pesquisa aplicado em muitas áreas devido à sua ampla versatilidade. Ao lidar com vários conjuntos de dados e explorar suas informações simultaneamente, esse método tem chamado a atenção dos pesquisadores na última década e ainda é um desafio. Entre os vários métodos possíveis no contexto de JBSS, a Análise de Vetores Independentes (IVA, do inglês Independent Vector Analysis) é uma abordagem interessante, uma vez que é baseada na Análise de Componentes Independentes (ICA, do inglês Independent Component Analysis) e explora a dependência estatística entre diferentes conjuntos de dados por meio do uso da Informação Mútua (Mutinf, do inglês Mutual Information). Este trabalho propõe três abordagens diferentes de IVA para lidar com sinais biomédicos, focando no paradigma de Imaginação Motora (MI, do inglês Motor Imagery) e uma possível extensão para o transtorno de Convulsões Epilépticas. Primeiramente, no contexto da classificação de MI com base em sinais de Eletroencefalograma (EEG, do inglês Electroencephalogram) para Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface), vários métodos tem sido propostos para extrair atributos de maneira eficiente, principalmente com base em Padrões Espaciais Comuns e Bancos de filtros. Nesse cenário, propomos uma abordagem original para extração de atributos no contexto de imagética motora, baseada na exploração da minimização da Mutinf por meio do IVA, seguida pelo uso de filtros Autorregressivos. Para a classificação dos movimentos imaginados, utilizamos alguns classificadores consolidados: Análise Discriminante Linear, Máquinas de Vetores de Suporte, K-Vizinhos Mais Próximos, e classificadores de aprendizagem profunda: EEGNet e EEG-Inception. Essa abordagem foi avaliada em dois conjuntos de dados de MI diferentes: BCI Competition IV - Dataset 1 (DS1) e BCI Competition III - Dataset 4a (DS4a). Na segunda abordagem, propomos uma aplicação inovadora de IVA como técnica de Aprendizado por Transferência para a classificação de MI. A exploração da dependência estatística entre os conjuntos de dados por meio da Mutinf poderia auxiliar na classificação de MI, uma vez que permite um tratamento genérico e homogêneo de todos os dados e uma possível transferência de conhecimento entre sujeitos/pacientes. Os resultados foram avaliados no conjunto de dados DS1, mostrando uma alta correlação e pequeno desvio padrão entre os sujeitos cruzados. Além disso, inspirados pelos resultados anteriores, na terceira abordagem, apresentamos os resultados para a técnica de agrupamento com um conjunto de dados epilépticos desenvolvido em colaboração com o Laboratório de Processamento de Sinais (LTS4, do inglês Signal Processing Laboratory 4) na École Polytechnique Fédérale de Lausanne (EPFL, do inglês Swiss Federal Institute of Technology in Lausanne), na Suíça.
-
Mostrar Abstract
-
A Separação Cega de Fontes Conjunta (JBSS, do inglês Joint Blind Source Separartion) é uma extensão do problema de Separação Cega de Fontes (BSS, do inglês Blind Source Separation) para múltiplos conjuntos de dados, sendo um importante tópico de pesquisa aplicado em muitas áreas devido à sua ampla versatilidade. Ao lidar com vários conjuntos de dados e explorar suas informações simultaneamente, esse método tem chamado a atenção dos pesquisadores na última década e ainda é um desafio. Entre os vários métodos possíveis no contexto de JBSS, a Análise de Vetores Independentes (IVA, do inglês Independent Vector Analysis) é uma abordagem interessante, uma vez que é baseada na Análise de Componentes Independentes (ICA, do inglês Independent Component Analysis) e explora a dependência estatística entre diferentes conjuntos de dados por meio do uso da Informação Mútua (Mutinf, do inglês Mutual Information). Este trabalho propõe três abordagens diferentes de IVA para lidar com sinais biomédicos, focando no paradigma de Imaginação Motora (MI, do inglês Motor Imagery) e uma possível extensão para o transtorno de Convulsões Epilépticas. Primeiramente, no contexto da classificação de MI com base em sinais de Eletroencefalograma (EEG, do inglês Electroencephalogram) para Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface), vários métodos tem sido propostos para extrair atributos de maneira eficiente, principalmente com base em Padrões Espaciais Comuns e Bancos de filtros. Nesse cenário, propomos uma abordagem original para extração de atributos no contexto de imagética motora, baseada na exploração da minimização da Mutinf por meio do IVA, seguida pelo uso de filtros Autorregressivos. Para a classificação dos movimentos imaginados, utilizamos alguns classificadores consolidados: Análise Discriminante Linear, Máquinas de Vetores de Suporte, K-Vizinhos Mais Próximos, e classificadores de aprendizagem profunda: EEGNet e EEG-Inception. Essa abordagem foi avaliada em dois conjuntos de dados de MI diferentes: BCI Competition IV - Dataset 1 (DS1) e BCI Competition III - Dataset 4a (DS4a). Na segunda abordagem, propomos uma aplicação inovadora de IVA como técnica de Aprendizado por Transferência para a classificação de MI. A exploração da dependência estatística entre os conjuntos de dados por meio da Mutinf poderia auxiliar na classificação de MI, uma vez que permite um tratamento genérico e homogêneo de todos os dados e uma possível transferência de conhecimento entre sujeitos/pacientes. Os resultados foram avaliados no conjunto de dados DS1, mostrando uma alta correlação e pequeno desvio padrão entre os sujeitos cruzados. Além disso, inspirados pelos resultados anteriores, na terceira abordagem, apresentamos os resultados para a técnica de agrupamento com um conjunto de dados epilépticos desenvolvido em colaboração com o Laboratório de Processamento de Sinais (LTS4, do inglês Signal Processing Laboratory 4) na École Polytechnique Fédérale de Lausanne (EPFL, do inglês Swiss Federal Institute of Technology in Lausanne), na Suíça.
|
|
4
|
-
JOYCE DE SOUZA ZANIRATO MAIA
-
Avaliação do Desempenho Escolar Brasileiro: uma abordagem com Modelos de Inteligência Artificial
-
Orientador : JOAO RICARDO SATO
-
Data: 04/06/2024
-
-
Mostrar Resumo
-
A Educação exerce um papel fundamental no desenvolvimento de um país, em sociedades que a priorizam são verificados baixos índices de criminalidade e maior estado de bem-estar. De acordo com a teoria do capital humano, os efeitos da educação podem ser associados a um maior desenvolvimento econômico. No Brasil, apenas nas últimas décadas houve um maior progresso em termos educacionais, dada a implementação de novas leis e expansão na oferta de matrículas. Contudo, segundo as avaliações nacionais e internacionais, o desempenho acadêmico ainda é baixo, considerando o quanto se investe. Dado este cenário, torna-se necessário intervenções, por meio de políticas públicas, que considerem as reais necessidades de cada ciclo escolar da educação básica. Ademais, identifica-se que o Brasil dispõe de uma série de dados em Educação, obtidos por pesquisas governamentais, que no momento são pouco explorados, mas que possibilitariam uma melhor compreensão sobre a Educação no país. Desta forma, foi proposta a avaliação do desempenho educacional brasileiro utilizando modelos de Inteligência Artificial (IA), priorizando os modelos de melhor performance preditiva nas diferentes análises realizadas. Foi identificado que os modelos de IA possuem melhor desempenho (métricas de erro e coeficiente de determina) em relação aos modelos tradicionais, o que corrobora com a literatura. Além disso, foi caracterizado que a importância relativa das variáveis é distinta para cada nível escolar. Por fim, sugere-se que a elaboração de políticas públicas educacionais destinada à melhora do desempenho acadêmico escolar, considere os resultados de estudos que avaliam os dados educacionais disponíveis e se possível sob a perspectiva de IA.
-
Mostrar Abstract
-
A Educação exerce um papel fundamental no desenvolvimento de um país, em sociedades que a priorizam são verificados baixos índices de criminalidade e maior estado de bem-estar. De acordo com a teoria do capital humano, os efeitos da educação podem ser associados a um maior desenvolvimento econômico. No Brasil, apenas nas últimas décadas houve um maior progresso em termos educacionais, dada a implementação de novas leis e expansão na oferta de matrículas. Contudo, segundo as avaliações nacionais e internacionais, o desempenho acadêmico ainda é baixo, considerando o quanto se investe. Dado este cenário, torna-se necessário intervenções, por meio de políticas públicas, que considerem as reais necessidades de cada ciclo escolar da educação básica. Ademais, identifica-se que o Brasil dispõe de uma série de dados em Educação, obtidos por pesquisas governamentais, que no momento são pouco explorados, mas que possibilitariam uma melhor compreensão sobre a Educação no país. Desta forma, foi proposta a avaliação do desempenho educacional brasileiro utilizando modelos de Inteligência Artificial (IA), priorizando os modelos de melhor performance preditiva nas diferentes análises realizadas. Foi identificado que os modelos de IA possuem melhor desempenho (métricas de erro e coeficiente de determina) em relação aos modelos tradicionais, o que corrobora com a literatura. Além disso, foi caracterizado que a importância relativa das variáveis é distinta para cada nível escolar. Por fim, sugere-se que a elaboração de políticas públicas educacionais destinada à melhora do desempenho acadêmico escolar, considere os resultados de estudos que avaliam os dados educacionais disponíveis e se possível sob a perspectiva de IA.
|
|
5
|
-
RAFAEL VINICIUS TAYETTE DA NOBREGA
-
Modelagem e Avaliação de Desempenho de Circuitos Osciladores Baseados em Diodos de Tunelamento Ressonante para Comunicação Sem Fio em Terahertz
-
Orientador : MURILO BELLEZONI LOIOLA
-
Data: 06/06/2024
-
-
Mostrar Resumo
-
As futuras redes 6G proporcionarão novos mercados, serviços e indústrias, possibilitando uma infinidade de novas oportunidades e aplicações. Além disso, o 6G se beneficiará de tecnologias emergentes e disruptivas, como o sistema de comunicação sem fio em terahertz (THz). A banda THz (0,1–10 THz) vem recebendo uma atenção substancial devido seu amplo espectro não alocado, que viabiliza aplicações com grande largura de banda e alta capacidade. Felizmente, estes requisitos podem ser atendidos pelo diodo de tunelamento ressonante (RTD). Entretanto, suas potencias de saída são relativamente pequenas. Sendo assim, quando o RTD é empregado em transmissores, essa limitação prática impede o aumento do alcance de sistemas de comunicação sem fio. Assim, estudos buscando alternativas para aumentar a potência de saída do RTD continuam em desenvolvimento. Neste contexto, a presente tese objetiva-se a realização da modelagem analítica e avaliação de desempenho de circuitos osciladores em RTDs, para aplicação em sistemas de comunicação sem fio em THz. Para isso, desenvolvem-se modelagens numérica e analítica (simplificada) para a obtenção da atenuação atmosférica no canal. O modelo simplificado é composto por equações fechadas e tem validade no intervalo de 100 a 600 GHz. O modelo foi validado e comparado com vários modelos diferentes. Os resultados reproduzem corretamente os dados experimentais fornecidos, tornando o modelo de canal útil para avaliar o desempenho das redes THz. Na sequência, apresentam-se conceitos sobre o funcionamento dos circuitos baseados em RTDs, bem como suas principais figuras de mérito. Posteriormente, propõe-se um modelo compacto para caracterizar analiticamente circuitos osciladores baseados em RTDs. O modelo é formado por equações fechadas que descrevem o comportamento elétrico do dispositivo, considerando efeitos parasitas e sua degradação com o aumento da frequência de operação. Depois, o formalismo é validado e modelam-se diferentes circuitos osciladores. Com os resultados, os circuitos osciladores formados por um único RTD forneceram potências de saída de ate 5,0 mW em 300 GHz. Assim, o dispositivo modelado é um potencial candidato para aumentar a potência de saída das fontes no gap THz, principalmente no intervalo de frequência de 300 a 500 GHz, operando a temperatura ambiente. Logo a seguir, realiza-se a avaliação de desempenho de enlaces sem fio em ambiente externo, utilizando transmissores baseados em RTDs, sob diferentes condições climáticas adversas, tais como turbulência, chuva e erro de alinhamento entre antenas. À ferramenta analítica desenvolvida, combinam-se os efeitos determinísticos e aleatórios do canal de propagação, fornecendo assim equações fechadas para calcular a BER e a capacidade média do canal dos enlaces analisados. Portanto, após a validação do formalismo, aplica-se a ferramenta para modelar enlaces sem fio operando em 342 GHz. Agora, no ambito das aplicações em nanoescala, modelam-se circuitos osciladores baseados em RTDs de nanocoluna de GaAs/AlAs. Os resultados mostram que o sistema opera com nível ultra-baixo de potencia de consumo DC (160 nW), uma excelente eficiência de conversão DC-AC (2,4%) e taxa de dados da ordem de centena de Gb/s. Finalmente, o nanodispositivo pode ser usado em uma infinidade de aplicações nas futuras redes 6G, principalmente na área de saúde.
-
Mostrar Abstract
-
As futuras redes 6G proporcionarão novos mercados, serviços e indústrias, possibilitando uma infinidade de novas oportunidades e aplicações. Além disso, o 6G se beneficiará de tecnologias emergentes e disruptivas, como o sistema de comunicação sem fio em terahertz (THz). A banda THz (0,1–10 THz) vem recebendo uma atenção substancial devido seu amplo espectro não alocado, que viabiliza aplicações com grande largura de banda e alta capacidade. Felizmente, estes requisitos podem ser atendidos pelo diodo de tunelamento ressonante (RTD). Entretanto, suas potencias de saída são relativamente pequenas. Sendo assim, quando o RTD é empregado em transmissores, essa limitação prática impede o aumento do alcance de sistemas de comunicação sem fio. Assim, estudos buscando alternativas para aumentar a potência de saída do RTD continuam em desenvolvimento. Neste contexto, a presente tese objetiva-se a realização da modelagem analítica e avaliação de desempenho de circuitos osciladores em RTDs, para aplicação em sistemas de comunicação sem fio em THz. Para isso, desenvolvem-se modelagens numérica e analítica (simplificada) para a obtenção da atenuação atmosférica no canal. O modelo simplificado é composto por equações fechadas e tem validade no intervalo de 100 a 600 GHz. O modelo foi validado e comparado com vários modelos diferentes. Os resultados reproduzem corretamente os dados experimentais fornecidos, tornando o modelo de canal útil para avaliar o desempenho das redes THz. Na sequência, apresentam-se conceitos sobre o funcionamento dos circuitos baseados em RTDs, bem como suas principais figuras de mérito. Posteriormente, propõe-se um modelo compacto para caracterizar analiticamente circuitos osciladores baseados em RTDs. O modelo é formado por equações fechadas que descrevem o comportamento elétrico do dispositivo, considerando efeitos parasitas e sua degradação com o aumento da frequência de operação. Depois, o formalismo é validado e modelam-se diferentes circuitos osciladores. Com os resultados, os circuitos osciladores formados por um único RTD forneceram potências de saída de ate 5,0 mW em 300 GHz. Assim, o dispositivo modelado é um potencial candidato para aumentar a potência de saída das fontes no gap THz, principalmente no intervalo de frequência de 300 a 500 GHz, operando a temperatura ambiente. Logo a seguir, realiza-se a avaliação de desempenho de enlaces sem fio em ambiente externo, utilizando transmissores baseados em RTDs, sob diferentes condições climáticas adversas, tais como turbulência, chuva e erro de alinhamento entre antenas. À ferramenta analítica desenvolvida, combinam-se os efeitos determinísticos e aleatórios do canal de propagação, fornecendo assim equações fechadas para calcular a BER e a capacidade média do canal dos enlaces analisados. Portanto, após a validação do formalismo, aplica-se a ferramenta para modelar enlaces sem fio operando em 342 GHz. Agora, no ambito das aplicações em nanoescala, modelam-se circuitos osciladores baseados em RTDs de nanocoluna de GaAs/AlAs. Os resultados mostram que o sistema opera com nível ultra-baixo de potencia de consumo DC (160 nW), uma excelente eficiência de conversão DC-AC (2,4%) e taxa de dados da ordem de centena de Gb/s. Finalmente, o nanodispositivo pode ser usado em uma infinidade de aplicações nas futuras redes 6G, principalmente na área de saúde.
|
|
6
|
-
DENER EDSON OTTOLINI GUEDES DA SILVA
-
Uma arquitetura multi-camadas de gerenciamento de sistemas de internet das coisas fim a fim com nuvem, névoa e bruma
-
Orientador : CARLOS ALBERTO KAMIENSKI
-
Data: 19/08/2024
-
-
Mostrar Resumo
-
A gestão de soluções de Internet das Coisas (IoT) é uma tarefa complexa devido à sua distribuição e heterogeneidade inerentes. As abordagens tradicionais de gerenciamento de IoT frequentemente se concentram em dispositivos e conectividade, deixando de lado uma compreensão abrangente dos diversos componentes de software, hardware e comunicação que constituem uma solução baseada em IoT. Esta tese propõe uma nova arquitetura de gerenciamento de IoT em quatro camadas, denominada IoTManA, que abrange diversos aspectos de uma infraestrutura distribuída para gerenciar, controlar e monitorar componentes de software, hardware e comunicação, bem como fluxos e qualidade dos dados. A arquitetura fornece uma visão baseada em grafos multicamadas do caminho fim-a-fim entre os dispositivos e a nuvem. O IoTManA foi implementado em um conjunto de componentes de software denominado Sistema de Gerenciamento de IoT (IoTManS) e testado em diferentes cenários: Agricultura Inteligente e Cidades Inteligentes. Os resultados indicam que essa abordagem pode contribuir significativamente para lidar com a complexidade do gerenciamento de soluções IoT. A modelagem baseada em grafos acíclicos direcionados (DAGs) multicamadas do IoTManA facilita ao sistema de gerenciamento implementado (IoTManS). O uso de DAGs permite que o sistema tenha controle no relacionamento entre componentes de infraestrutura e software, permitindo ainda a detecção e identificação de causas-raiz de falhas tipicamente distribuídas em soluções de IoT. A arquitetura e o sistema utilizam microserviços responsáveis pela descoberta e exposição de capacidades no ambiente monitorado, além de técnicas de balanceamento de carga e de gestão FCAPs (Fault, Configuration, Accounting, Performance, Security), que permitem que o grafo se adapte dinamicamente às mudanças no ambiente gerenciado. Realizamos uma análise de desempenho do IoTManS com foco em dois aspectos: tempo de detecção de falhas e escalabilidade, para demonstrar cenários e recursos de aplicativos. Os resultados mostram que o IoTManS pode detectar e identificar a causa-raiz das falhas em tempos variando de 806ms a 90.036ms, dependendo do seu modo de operação, adaptando-se às diferentes necessidades de IoT. Além de validar a viabilidade da implementação da arquitetura, os experimentos também demonstram que a escalabilidade do IoTManS é diretamente proporcional à escalabilidade da plataforma IoT subjacente, gerenciando até 5.000 componentes simultaneamente. Por fim, discutimos os recursos que ainda podem ser implementados na arquitetura e nos sistemas propostos, destacando áreas para desenvolvimento futuro.
-
Mostrar Abstract
-
A gestão de soluções de Internet das Coisas (IoT) é uma tarefa complexa devido à sua distribuição e heterogeneidade inerentes. As abordagens tradicionais de gerenciamento de IoT frequentemente se concentram em dispositivos e conectividade, deixando de lado uma compreensão abrangente dos diversos componentes de software, hardware e comunicação que constituem uma solução baseada em IoT. Esta tese propõe uma nova arquitetura de gerenciamento de IoT em quatro camadas, denominada IoTManA, que abrange diversos aspectos de uma infraestrutura distribuída para gerenciar, controlar e monitorar componentes de software, hardware e comunicação, bem como fluxos e qualidade dos dados. A arquitetura fornece uma visão baseada em grafos multicamadas do caminho fim-a-fim entre os dispositivos e a nuvem. O IoTManA foi implementado em um conjunto de componentes de software denominado Sistema de Gerenciamento de IoT (IoTManS) e testado em diferentes cenários: Agricultura Inteligente e Cidades Inteligentes. Os resultados indicam que essa abordagem pode contribuir significativamente para lidar com a complexidade do gerenciamento de soluções IoT. A modelagem baseada em grafos acíclicos direcionados (DAGs) multicamadas do IoTManA facilita ao sistema de gerenciamento implementado (IoTManS). O uso de DAGs permite que o sistema tenha controle no relacionamento entre componentes de infraestrutura e software, permitindo ainda a detecção e identificação de causas-raiz de falhas tipicamente distribuídas em soluções de IoT. A arquitetura e o sistema utilizam microserviços responsáveis pela descoberta e exposição de capacidades no ambiente monitorado, além de técnicas de balanceamento de carga e de gestão FCAPs (Fault, Configuration, Accounting, Performance, Security), que permitem que o grafo se adapte dinamicamente às mudanças no ambiente gerenciado. Realizamos uma análise de desempenho do IoTManS com foco em dois aspectos: tempo de detecção de falhas e escalabilidade, para demonstrar cenários e recursos de aplicativos. Os resultados mostram que o IoTManS pode detectar e identificar a causa-raiz das falhas em tempos variando de 806ms a 90.036ms, dependendo do seu modo de operação, adaptando-se às diferentes necessidades de IoT. Além de validar a viabilidade da implementação da arquitetura, os experimentos também demonstram que a escalabilidade do IoTManS é diretamente proporcional à escalabilidade da plataforma IoT subjacente, gerenciando até 5.000 componentes simultaneamente. Por fim, discutimos os recursos que ainda podem ser implementados na arquitetura e nos sistemas propostos, destacando áreas para desenvolvimento futuro.
|
|
7
|
-
LEONARDO ALVES FERREIRA
-
Deep Image Prior para solução de problemas inversos em imageamento
-
Orientador : ANDRE KAZUO TAKAHATA
-
Data: 30/08/2024
-
-
Mostrar Resumo
-
Deep Image Prior (DIP) é um método que introduziu uma nova forma de usar Redes Neurais Artificiais sem a necessidade de treinar seus parâmetros com um grande dataset. Esse método permite resolver problemas inversos na área de imagem usando apenas as medidas do caso a ser resolvido. Esta tese objetiva investigar se DIP é um método que vale a pena ser explorado para a solução de problemas inversos atuais na área de imagem. Testamos o método para a reconstruir imagens de Tomografia de Impedância Elétrica da cabeça humana, restaurar imagens de texto gravemente borradas, e reconstruir imagens de Tomografia Computadorizada de ângulo limitado. Também propomos modificações para a técnica objetivando melhorar sua performance. Nossos resultados mostraram que DIP atinge uma boa performance até mesmo para níveis moderadamente altos de degradação dos dados, superando métodos tradicionais e algumas implementações de algoritmos supervisionados de Deep Learning. Também conseguimos melhorar a performance da proposta original do método com nossas modificações. No entanto, não fomos capazes de alcançar a performance de métodos end-to-end de Deep Learning. Em conclusão, DIP é um método poderoso e versátil, sendo um bom candidato a ser explorado para resolver problemas inversos na área de imagens, sobretudo quando a obtenção de um grande dataset não é viável.
-
Mostrar Abstract
-
Deep Image Prior (DIP) é um método que introduziu uma nova forma de usar Redes Neurais Artificiais sem a necessidade de treinar seus parâmetros com um grande dataset. Esse método permite resolver problemas inversos na área de imagem usando apenas as medidas do caso a ser resolvido. Esta tese objetiva investigar se DIP é um método que vale a pena ser explorado para a solução de problemas inversos atuais na área de imagem. Testamos o método para a reconstruir imagens de Tomografia de Impedância Elétrica da cabeça humana, restaurar imagens de texto gravemente borradas, e reconstruir imagens de Tomografia Computadorizada de ângulo limitado. Também propomos modificações para a técnica objetivando melhorar sua performance. Nossos resultados mostraram que DIP atinge uma boa performance até mesmo para níveis moderadamente altos de degradação dos dados, superando métodos tradicionais e algumas implementações de algoritmos supervisionados de Deep Learning. Também conseguimos melhorar a performance da proposta original do método com nossas modificações. No entanto, não fomos capazes de alcançar a performance de métodos end-to-end de Deep Learning. Em conclusão, DIP é um método poderoso e versátil, sendo um bom candidato a ser explorado para resolver problemas inversos na área de imagens, sobretudo quando a obtenção de um grande dataset não é viável.
|
|