PPGCCM PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO FUNDAÇÃO UNIVERSIDADE FEDERAL DO ABC Telefone/Ramal: 11 4996-8337 http://propg.ufabc.edu.br/ppgccm
Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações Sucupira/CAPES. Preencha os campos desejados para fazer a busca.

2024
Dissertações
1
  • BRUNO JOÃO DA SILVA
  • Processo Periódico para Predição do Desempenho Final dos Estudantes

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 22/02/2024

  • Mostrar Resumo
  • Pesquisas indicam que, nas últimas décadas, tem havido uma expansão consistente no número de ingressantes no ensino superior do Brasil. Nos últimos anos, esse crescimento tem sido sustentado, especialmente pelos números da modalidade a distância. No entanto, diversos problemas associados ao desempenho e permanência dos estudantes permanecem. A Inteligência Artificial na Educação e, mais especificamente, técnicas de aprendizado de máquina vêm sendo utilizadas para tentar lidar com problemas de evasão e desempenho acadêmico de estudantes. Uma revisão sistemática de literatura identificou que, embora haja trabalhos que apresentem altos valores de acurácia na predição de desempenho do estudante, ainda existem lacunas em relacionar e evidenciar quais são os benefícios desta predição para os estudantes e professores. Neste sentido, este trabalho tem por objetivo geral criar um modelo de predição que tenha um alto poder de discriminação entre os diferentes desempenhos dos estudantes. A expectativa é que o modelo possa apoiar a detecção do insucesso escolar ainda no decorrer de uma disciplina, de modo que o professor e o próprio estudante possam realizar intervenções a fim de reverter o cenário previsto.


  • Mostrar Abstract
  • Pesquisas indicam que, nas últimas décadas, tem havido uma expansão consistente no número de ingressantes no ensino superior do Brasil. Nos últimos anos, esse crescimento tem sido sustentado, especialmente pelos números da modalidade a distância. No entanto, diversos problemas associados ao desempenho e permanência dos estudantes permanecem. A Inteligência Artificial na Educação e, mais especificamente, técnicas de aprendizado de máquina vêm sendo utilizadas para tentar lidar com problemas de evasão e desempenho acadêmico de estudantes. Uma revisão sistemática de literatura identificou que, embora haja trabalhos que apresentem altos valores de acurácia na predição de desempenho do estudante, ainda existem lacunas em relacionar e evidenciar quais são os benefícios desta predição para os estudantes e professores. Neste sentido, este trabalho tem por objetivo geral criar um modelo de predição que tenha um alto poder de discriminação entre os diferentes desempenhos dos estudantes. A expectativa é que o modelo possa apoiar a detecção do insucesso escolar ainda no decorrer de uma disciplina, de modo que o professor e o próprio estudante possam realizar intervenções a fim de reverter o cenário previsto.

2
  • ALAN FLORIANO TEIXEIRA
  • Timing Game: Design e Desenvolvimento de um Jogo para Pesquisas sobre Percepção Temporal

  • Orientador : JOAO PAULO GOIS
  • Data: 23/04/2024

  • Mostrar Resumo
  • Ao longo dos anos, diversos estudos mostraram benefícios que os jogos digitais promovem,como melhora da cognição, memória, concentração, tempo de reação, resolução de problemas e coordenação motora. A relevância das narrativas na motivação e engajamento dosjogadores é um fator central nesse contexto. Em trabalhos anteriores, foi apresentado um protótipo de jogo sério de avaliação de percepção temporal - tema da neurociência que se dedica a medir como as pessoas percebem e avaliam a passagem do tempo - desenvolvido com design participativo, empregando em sua metodologia a colaboração de usuários finais,desenvolvedores e profissionais de áreas relevantes. No protótipo, a escolha da narrativa centrada naviagem no tempo e a definição de características como o formato em duas dimensões (2D) e a plataforma móvel foram decisões fundamentais que moldam a experiência do jogo, assim como a seleçãode nove avaliações de percepção temporal, adaptadas como minijogos. O objetivo desta presentedissertação é analisar o protótipo do Timing Game e programá-lo em um jogo para dispositivos móveisdesenvolvido no motor de jogos Unity3D. Especificamente, o refinamento da narrativa foi priorizado para garantir coesão eatratividade. A fim de atender diversos perfis de jogadores, considerou-se a implementação dedois modos de jogo distintos: o modo história, oferecendo uma imersão mais profunda nastarefas dos minijogos, e o modo “arcade”, permitindo ao jogador escolher livremente osdesafios. Essa abordagem contribui para uma coleta de dados mais abrangentes. Durante o desenvolvimento do jogo, uma atenção foi dedicada à representação visual dostestes científicos que elas representavam. Sessões de teste do jogo e uma segunda etapa do designparticipativo fizeram parte do processo, contando com um especialistaem percepção de tempo, para que as modificações visuais e dejogabilidade não prejudiquem a seriedade e validade científica dos dados obtidos. Essaabordagem possibilitou a geração de dados para pesquisa e proporciona a possibilidade dos usuários manterem-se engajados nas atividades propostas do artefato digital desenvolvido.



  • Mostrar Abstract
  • Ao longo dos anos, diversos estudos mostraram benefícios que os jogos digitais promovem,como melhora da cognição, memória, concentração, tempo de reação, resolução de problemas e coordenação motora. A relevância das narrativas na motivação e engajamento dosjogadores é um fator central nesse contexto. Em trabalhos anteriores, foi apresentado um protótipo de jogo sério de avaliação de percepção temporal - tema da neurociência que se dedica a medir como as pessoas percebem e avaliam a passagem do tempo - desenvolvido com design participativo, empregando em sua metodologia a colaboração de usuários finais,desenvolvedores e profissionais de áreas relevantes. No protótipo, a escolha da narrativa centrada naviagem no tempo e a definição de características como o formato em duas dimensões (2D) e a plataforma móvel foram decisões fundamentais que moldam a experiência do jogo, assim como a seleçãode nove avaliações de percepção temporal, adaptadas como minijogos. O objetivo desta presentedissertação é analisar o protótipo do Timing Game e programá-lo em um jogo para dispositivos móveisdesenvolvido no motor de jogos Unity3D. Especificamente, o refinamento da narrativa foi priorizado para garantir coesão eatratividade. A fim de atender diversos perfis de jogadores, considerou-se a implementação dedois modos de jogo distintos: o modo história, oferecendo uma imersão mais profunda nastarefas dos minijogos, e o modo “arcade”, permitindo ao jogador escolher livremente osdesafios. Essa abordagem contribui para uma coleta de dados mais abrangentes. Durante o desenvolvimento do jogo, uma atenção foi dedicada à representação visual dostestes científicos que elas representavam. Sessões de teste do jogo e uma segunda etapa do designparticipativo fizeram parte do processo, contando com um especialistaem percepção de tempo, para que as modificações visuais e dejogabilidade não prejudiquem a seriedade e validade científica dos dados obtidos. Essaabordagem possibilitou a geração de dados para pesquisa e proporciona a possibilidade dos usuários manterem-se engajados nas atividades propostas do artefato digital desenvolvido.


3
  • MILENA REGINATO MARCONDES
  • Seleção de Critérios de Validação em Agrupamento via Meta-Aprendizado

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 24/06/2024

  • Mostrar Resumo
  • Na área de Mineração de Dados existem diferentes tarefas que podem ser adotadas para
    a análise de grandes volumes de dados. Dentre elas, destaca-se o agrupamento de dados.
    Como essa tarefa consiste em obter grupos para os quais não existe conhecimento prévio
    sobre a partição real, deve-se fazer uma análise criteriosa do seu resultado e, para isso,
    existem os critérios relativos de validação. Embora muitos critérios tenham sido propostos,
    ainda é uma tarefa desafiadora indicar qual o critério é mais adequado para cada cenário de
    aplicação. Considerando este fato, o presente trabalho propõe o uso de meta-aprendizado
    para a seleção automática de critérios de validação de agrupamento, considerando as
    caracteríısticas inerentes a cada problema sob investigação. Para isso, foi feito uma coleta
    de meta-atributos, os quais foram obtidos a partir de cada base de dados. Os resultados
    obtidos, provenientes da análise de 783 conjuntos de dados e de diversas fontes, revelaram
    que o modelo Gradient Boosting obteve um precision de 0,83. Apesar dessa constatação foi
    apresentado que o método funciona quando o critério relativo é representativo no conjunto
    de dados e falha quando é menos representativo.


  • Mostrar Abstract
  • Na área de Mineração de Dados existem diferentes tarefas que podem ser adotadas para
    a análise de grandes volumes de dados. Dentre elas, destaca-se o agrupamento de dados.
    Como essa tarefa consiste em obter grupos para os quais não existe conhecimento prévio
    sobre a partição real, deve-se fazer uma análise criteriosa do seu resultado e, para isso,
    existem os critérios relativos de validação. Embora muitos critérios tenham sido propostos,
    ainda é uma tarefa desafiadora indicar qual o critério é mais adequado para cada cenário de
    aplicação. Considerando este fato, o presente trabalho propõe o uso de meta-aprendizado
    para a seleção automática de critérios de validação de agrupamento, considerando as
    caracteríısticas inerentes a cada problema sob investigação. Para isso, foi feito uma coleta
    de meta-atributos, os quais foram obtidos a partir de cada base de dados. Os resultados
    obtidos, provenientes da análise de 783 conjuntos de dados e de diversas fontes, revelaram
    que o modelo Gradient Boosting obteve um precision de 0,83. Apesar dessa constatação foi
    apresentado que o método funciona quando o critério relativo é representativo no conjunto
    de dados e falha quando é menos representativo.

4
  • ALINE MENDONÇA CORDEIRO
  • Modelo de Design de Interfaces Freiriano para a Inclusão dos Analfabetos Digitais

  • Orientador : CARLA LOPES RODRIGUEZ
  • Data: 02/07/2024

  • Mostrar Resumo
  • Ao desenvolver artefatos tecnológicos digitais, a Ciência da Computação deve estar atenta aos impactos que essas tecnologias produzidas irão causar na vida humana. Com o rápido avanço tecnológico e o crescimento de soluções computacionais cada vez mais complexas, uma parte da população que não possui habilidades básicas para entender, operar e dominar as tecnologias, os analfabetos digitais, começa a ficar à margem da sociedade, sendo impedida, inclusive, de exercer sua cidadania, na medida em que inúmeros serviços estão migrando para plataformas digitais ou são mediados por elas. No campo da educação, o pesquisador Paulo Freire desenvolveu um inovador método de aprendizagem que foi capaz de alfabetizar adultos iletrados em aproximadamente 45 dias no sertão do Brasil, tendo seu trabalho mundialmente reconhecido e validado. Dentro da computação, a área de Interação Humano Computador é a responsável por estudar as diferentes formas de interação entre os seres humanos e os computadores, bem como o impacto da utilização dessas tecnologias na vida humana. Nesse contexto, a presente pesquisa, aliando as contribuições de Freire na Educação e a Computação, pelas lentes da Interação Humano-Computador, tem por objetivo apresentar um Modelo de Design de Interface denominado Freiriano, que consiste em um framework que possa contribuir para a criação de interfaces inclusivas para pessoas com baixo ou nenhum letramento digital, buscando assim a promoção da inclusão digital dos analfabetos digitais, amparando desenvolvedores edesignersa criar soluções tecnológicas mais inclusivas e acessíveis a essa parcela da população.


  • Mostrar Abstract
  • Ao desenvolver artefatos tecnológicos digitais, a Ciência da Computação deve estar atenta aos impactos que essas tecnologias produzidas irão causar na vida humana. Com o rápido avanço tecnológico e o crescimento de soluções computacionais cada vez mais complexas, uma parte da população que não possui habilidades básicas para entender, operar e dominar as tecnologias, os analfabetos digitais, começa a ficar à margem da sociedade, sendo impedida, inclusive, de exercer sua cidadania, na medida em que inúmeros serviços estão migrando para plataformas digitais ou são mediados por elas. No campo da educação, o pesquisador Paulo Freire desenvolveu um inovador método de aprendizagem que foi capaz de alfabetizar adultos iletrados em aproximadamente 45 dias no sertão do Brasil, tendo seu trabalho mundialmente reconhecido e validado. Dentro da computação, a área de Interação Humano Computador é a responsável por estudar as diferentes formas de interação entre os seres humanos e os computadores, bem como o impacto da utilização dessas tecnologias na vida humana. Nesse contexto, a presente pesquisa, aliando as contribuições de Freire na Educação e a Computação, pelas lentes da Interação Humano-Computador, tem por objetivo apresentar um Modelo de Design de Interface denominado Freiriano, que consiste em um framework que possa contribuir para a criação de interfaces inclusivas para pessoas com baixo ou nenhum letramento digital, buscando assim a promoção da inclusão digital dos analfabetos digitais, amparando desenvolvedores edesignersa criar soluções tecnológicas mais inclusivas e acessíveis a essa parcela da população.

5
  • LUIZ GABRIEL CORREIA
  • A influência de autocitações de periódicos no Fator de Impacto: uma análise a partir da simulação de redes sociais acadêmicas

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 10/07/2024

  • Mostrar Resumo
  • O Fator de Impacto (FI) é uma métrica baseada em citações frequentemente utilizada como indicador da qualidade de periódicos científicos. O crescente uso do FI como indicador de prestígio acadêmico tem gerado pressões para a publicação em revistas de alto impacto e uma forte competição entre periódicos, levando a práticas questionáveis. Estratégias que aumentam o número de autocitações de revistas, como a publicação de artigos de revisão e editoriais, têm sido identificadas como formas de manipular o FI. Estudos anteriores sugeriram a exclusão das autocitações como uma política para desencorajar a manipulação. Este trabalho utiliza modelagem baseada em agentes para investigar os efeitos de uma política de remoção das autocitações no FI. Modelamos as decisões editoriais e os mecanismos de manipulação como um jogo de soma zero, onde periódicos são tratados como agentes racionais buscando ganhar posições no ranking do FI. O modelo foi validado com padrões obtidos a partir dos dados do ranking SCIMago. Realizamos experimentos de comparação de cenários com e sem a implementação da política proposta. Os resultados mostram uma forte associação entre a exclusão de autocitações do FI e a redução de periódicos manipuladores no ranking e indicam que a remoção de autocitações consegue reduzir significativamente a adoção de estratégias de manipulação (e.g., redução de 90% para 40%). Este estudo contribui para a compreensão do impacto das políticas de cálculo do FI na integridade da pesquisa científica e fornece ferramentas para aprimorar as práticas de avaliação acadêmica.


  • Mostrar Abstract
  • O Fator de Impacto (FI) é uma métrica baseada em citações frequentemente utilizada como indicador da qualidade de periódicos científicos. O crescente uso do FI como indicador de prestígio acadêmico tem gerado pressões para a publicação em revistas de alto impacto e uma forte competição entre periódicos, levando a práticas questionáveis. Estratégias que aumentam o número de autocitações de revistas, como a publicação de artigos de revisão e editoriais, têm sido identificadas como formas de manipular o FI. Estudos anteriores sugeriram a exclusão das autocitações como uma política para desencorajar a manipulação. Este trabalho utiliza modelagem baseada em agentes para investigar os efeitos de uma política de remoção das autocitações no FI. Modelamos as decisões editoriais e os mecanismos de manipulação como um jogo de soma zero, onde periódicos são tratados como agentes racionais buscando ganhar posições no ranking do FI. O modelo foi validado com padrões obtidos a partir dos dados do ranking SCIMago. Realizamos experimentos de comparação de cenários com e sem a implementação da política proposta. Os resultados mostram uma forte associação entre a exclusão de autocitações do FI e a redução de periódicos manipuladores no ranking e indicam que a remoção de autocitações consegue reduzir significativamente a adoção de estratégias de manipulação (e.g., redução de 90% para 40%). Este estudo contribui para a compreensão do impacto das políticas de cálculo do FI na integridade da pesquisa científica e fornece ferramentas para aprimorar as práticas de avaliação acadêmica.

6
  • SANDRA CONSUELO ACEITUNO CURO
  • PREDIÇÃO CONFORMAL APLICADA À PREDIÇÃO DE FALHA DE MOTORES

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 12/08/2024

  • Mostrar Resumo
  •  O aprendizado de máquina tem sido aplicado em diferentes áreas, e os seus métodos tem se mostrado eficientes em diferentes aplicações. A predição conformal é um método de aprendizado de máquina que trabalha com experiências anteriores para determinar níveis de confiança mais adequados, além da predição pontual. Como o aprendizado de máquina é cada vez mais utilizado em aplicações de alto risco, também é necessária maior confiabilidade de suas predições. Porém, esses algoritmos nem sempre fornecem estimativas calibradas de probabilidade de predição. No presente trabalho, investigamos a predição conformal como um método para fornecer informações confiáveis de confiança nas predições realizadas por modelos de aprendizagem automática. A predição conformal foi proposta como uma abordagem que cria preditores sobre os algoritmos de aprendizado de máquina tradicionais, mas fornece análises de confiabilidade válidas para cada predição. O presente trabalho está focado na predição conformal indutiva, e os conceitos chave da predição conformal e seu funcionamento foram revisados.
     Os testes realizados ao aplicar a predição conformal às técnicas de aprendizado de máquina com dois níveis diferentes de precisão (0,01 e 0,05), demonstram que os níveis de confiança aumentam ao fazer previsões de alto risco, no presente estudo de caso; Previsão de falha de um motor turbofan.


  • Mostrar Abstract
  •  O aprendizado de máquina tem sido aplicado em diferentes áreas, e os seus métodos tem se mostrado eficientes em diferentes aplicações. A predição conformal é um método de aprendizado de máquina que trabalha com experiências anteriores para determinar níveis de confiança mais adequados, além da predição pontual. Como o aprendizado de máquina é cada vez mais utilizado em aplicações de alto risco, também é necessária maior confiabilidade de suas predições. Porém, esses algoritmos nem sempre fornecem estimativas calibradas de probabilidade de predição. No presente trabalho, investigamos a predição conformal como um método para fornecer informações confiáveis de confiança nas predições realizadas por modelos de aprendizagem automática. A predição conformal foi proposta como uma abordagem que cria preditores sobre os algoritmos de aprendizado de máquina tradicionais, mas fornece análises de confiabilidade válidas para cada predição. O presente trabalho está focado na predição conformal indutiva, e os conceitos chave da predição conformal e seu funcionamento foram revisados.
     Os testes realizados ao aplicar a predição conformal às técnicas de aprendizado de máquina com dois níveis diferentes de precisão (0,01 e 0,05), demonstram que os níveis de confiança aumentam ao fazer previsões de alto risco, no presente estudo de caso; Previsão de falha de um motor turbofan.

7
  • ANDREZA GONÇALVES DA SILVA
  • MODELO DE PROCESSO PARA IMPLANTAÇÃO DE UM CURSO A DISTÂNCIA

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 14/08/2024

  • Mostrar Resumo
  • O ensino remoto emergencial adotado durante o período de pandemia da Covid-19 reacendeu a discussão sobre a importância da Educação a Distância, que embora não seja um tema recente, até aquele marco ainda era tratada como uma opção para Instituições e Governos. Alinhado ao entendimento da importância da educação a distância como instrumento de garantia de oportunidade de educação ao momento oportuno para consolidação deste segmento de ensino, este trabalho tem como objetivo propor um modelo de processo para implantação de curso a distância, servindo como arcabouço para direcionar as atividades necessárias entre todos os envolvidos na construção de um curso a distância, desde a instituição educacional até o discente. Para issso, esse estudo se apoia às melhores metodologias de gestão de processos de negócio incluindo de forma inovadora as práticas pedagógicas. Para avaliar a hipótese deste trabalho o atual cenário das pesquisas de processos de negócio aplicados para educação a distância uma revisão sistemática da literatura (RSL) foi realizada, onde validamos que há espaço para propor um modelo de processo que suporte essa construção. TAmbém vou proposto um novo modelo de processo baseado no cilco PDC (Plan, Do and Check), gestão de processos de negócio (BPM) e metodologia INTERA.Os próximos passos deste trabalho se concentrarão na adoção de uma ferramenta capaz de automatizar os modelos propostos de forma que os processos possam ser executados de maneira sistematizada permitindo portanto, a gestão do processo e coleta de resultados para avaliar se haverá ganhos, sim ou não, na utilização de uma metodologia específica na tarefa de implantar um curso a distância e se o modelo de processo apresentado é adequado.


  • Mostrar Abstract
  • O ensino remoto emergencial adotado durante o período de pandemia da Covid-19 reacendeu a discussão sobre a importância da Educação a Distância, que embora não seja um tema recente, até aquele marco ainda era tratada como uma opção para Instituições e Governos. Alinhado ao entendimento da importância da educação a distância como instrumento de garantia de oportunidade de educação ao momento oportuno para consolidação deste segmento de ensino, este trabalho tem como objetivo propor um modelo de processo para implantação de curso a distância, servindo como arcabouço para direcionar as atividades necessárias entre todos os envolvidos na construção de um curso a distância, desde a instituição educacional até o discente. Para issso, esse estudo se apoia às melhores metodologias de gestão de processos de negócio incluindo de forma inovadora as práticas pedagógicas. Para avaliar a hipótese deste trabalho o atual cenário das pesquisas de processos de negócio aplicados para educação a distância uma revisão sistemática da literatura (RSL) foi realizada, onde validamos que há espaço para propor um modelo de processo que suporte essa construção. TAmbém vou proposto um novo modelo de processo baseado no cilco PDC (Plan, Do and Check), gestão de processos de negócio (BPM) e metodologia INTERA.Os próximos passos deste trabalho se concentrarão na adoção de uma ferramenta capaz de automatizar os modelos propostos de forma que os processos possam ser executados de maneira sistematizada permitindo portanto, a gestão do processo e coleta de resultados para avaliar se haverá ganhos, sim ou não, na utilização de uma metodologia específica na tarefa de implantar um curso a distância e se o modelo de processo apresentado é adequado.

8
  • GUSTAVO CAMPOS IGNACIO DOS SANTOS
  • Aumento de Dados no Treinamento de Redes Neurais Profundas para Classificação de Sinais de EEG

  • Orientador : DENIS GUSTAVO FANTINATO
  • Data: 10/09/2024

  • Mostrar Resumo
  • Este trabalho tem como foco a avaliação da aplicação de técnicas de aumento de dados para o treinamento de redes neurais artificiais para a classificação de sinais de eletroencefalografia (EEG). O principal objetivo é a avaliação da hipótese de que técnicas de aumento de dados podem realçar características relevantes nos dados de EEG, quando aplicados em redes com estruturas convolucionais como EEGNet, ShallowNet e DeepConvNet. A utilização de técnicas de aumento de dados para ampliar a capacidade das redes em extrair as principais características que definem cada classe possibilitam uma aplicação da utilização de sistemas de interface cérebro-computador, de tal forma que as redes utilizadas conseguem usufruir dos dados disponíveis para treinamento de forma mais eficiente. Além disso, este trabalho faz a proposta de adaptação de um método de aumento de dados em processamento de imagens para o contexto de dados de EEG. Por fim, é realizado uma análise dos resultados obtidos considerando diversas técnicas de aumento de dados combinados a diferentes redes neurais artificiais.


  • Mostrar Abstract
  • Este trabalho tem como foco a avaliação da aplicação de técnicas de aumento de dados para o treinamento de redes neurais artificiais para a classificação de sinais de eletroencefalografia (EEG). O principal objetivo é a avaliação da hipótese de que técnicas de aumento de dados podem realçar características relevantes nos dados de EEG, quando aplicados em redes com estruturas convolucionais como EEGNet, ShallowNet e DeepConvNet. A utilização de técnicas de aumento de dados para ampliar a capacidade das redes em extrair as principais características que definem cada classe possibilitam uma aplicação da utilização de sistemas de interface cérebro-computador, de tal forma que as redes utilizadas conseguem usufruir dos dados disponíveis para treinamento de forma mais eficiente. Além disso, este trabalho faz a proposta de adaptação de um método de aumento de dados em processamento de imagens para o contexto de dados de EEG. Por fim, é realizado uma análise dos resultados obtidos considerando diversas técnicas de aumento de dados combinados a diferentes redes neurais artificiais.

9
  • LUCAS MAZIM DE SOUSA
  • Meta-aprendizado para seleção de estratégias de adaptação em um sistema biométrico

  • Orientador : PAULO HENRIQUE PISANI
  • Data: 25/09/2024

  • Mostrar Resumo
  • Usuários frequentemente inserem informações pessoais em celulares e computadores para acessar aplicações que nem sempre são seguras, estando suscetíveis a ataques maliciosos e consequentes prejuízos significativos. Alguns sistemas de autenticação têm incorporado o reconhecimento biométrico como uma camada adicional de segurança. Por exemplo, sistemas baseados em usuário e senha podem ser reforçados com uma camada extra de segurança que utiliza a dinâmica da digitação. Esse traço biométrico comportamental pode ser usado para reconhecer usuários pelo seu ritmo de digitação no teclado, oferecendo baixo custo de implementação e pouca intrusividade, o que potencialmente aumenta a sua aceitação. No entanto, os dados biométricos de um indivíduo podem variar ao longo do tempo, o que pode diminuir a eficácia do sistema. Uma abordagem promissora para esse desafio são os sistemas biométricos adaptativos, que definem estratégias de adaptação para atualizar automaticamente as referências biométricas dos usuários. Contudo, alguns estudos indicam que estratégias de adaptação personalizadas podem melhorar o desempenho do sistema. Em vista disso, este trabalho propõe uma nova abordagem para o projeto de sistemas biométricos adaptativos, denominado sistema biométrico meta-adaptativo. Este sistema conta com um componente para recomendação de estratégias de adaptação, proposto com base em conceitos de meta-aprendizado e recomendação de algoritmos, responsável por auxiliar na tarefa de recomendar a melhor estratégia de adaptação para cada usuário.


  • Mostrar Abstract
  • Usuários frequentemente inserem informações pessoais em celulares e computadores para acessar aplicações que nem sempre são seguras, estando suscetíveis a ataques maliciosos e consequentes prejuízos significativos. Alguns sistemas de autenticação têm incorporado o reconhecimento biométrico como uma camada adicional de segurança. Por exemplo, sistemas baseados em usuário e senha podem ser reforçados com uma camada extra de segurança que utiliza a dinâmica da digitação. Esse traço biométrico comportamental pode ser usado para reconhecer usuários pelo seu ritmo de digitação no teclado, oferecendo baixo custo de implementação e pouca intrusividade, o que potencialmente aumenta a sua aceitação. No entanto, os dados biométricos de um indivíduo podem variar ao longo do tempo, o que pode diminuir a eficácia do sistema. Uma abordagem promissora para esse desafio são os sistemas biométricos adaptativos, que definem estratégias de adaptação para atualizar automaticamente as referências biométricas dos usuários. Contudo, alguns estudos indicam que estratégias de adaptação personalizadas podem melhorar o desempenho do sistema. Em vista disso, este trabalho propõe uma nova abordagem para o projeto de sistemas biométricos adaptativos, denominado sistema biométrico meta-adaptativo. Este sistema conta com um componente para recomendação de estratégias de adaptação, proposto com base em conceitos de meta-aprendizado e recomendação de algoritmos, responsável por auxiliar na tarefa de recomendar a melhor estratégia de adaptação para cada usuário.

10
  • THAMIRIS GIRE ZINE NEVES
  • Classificação de Sinais de EEG no Paradigma de Imagética Motora Usando Técnicas de Separação Cega de Fontes e Redes Profundas

  • Orientador : DENIS GUSTAVO FANTINATO
  • Data: 26/09/2024

  • Mostrar Resumo
  • Os sistemas de Interface Cérebro-Computador englobam um conjunto de tarefas relacionadas a coleta e processamento de sinais, como aquisição, pré-processamento e classificação. Existem diversos tipos de sinais considerando o método utilizado durante a coleta, neste trabalho focamos apenas em sinais coletados por eletroencefalografia (EEG) previamente adquiridos por entidades e disponibilizados em repositórios públicos. Os sinais de EEG utilizados caracterizam o paradigma de imagética motora, considerado um problema de alta complexidade devido a grande variabilidade dos dados. Por esse motivo, o objetivo deste trabalho foi aplicar técnicas de separação cega de fontes baseadas em estatísticas de segunda ordem aos sinais de EEG, analisando seu efeito no desempenho de classificadores profundos. Assume-se que os registros de EEG são resultado de um processo de mistura de fontes, que pode ser linear ou não linear, do tipo Post-Nonlinear. Então, o pré-processamento tem por objetivo a extração de componentes independentes nos dois contextos, onde os algoritmos clássicos AMUSE e SOBI são utilizados para uma análise comparativa com o algoritmo A-SOBIPNL. Nesse âmbito foi proposto um novo fluxo de processamento para a aplicação de separação de fontes em sinais de EEG, onde as componentes independentes recuperadas são classificadas usando-se as redes profundas EEGNet, ShallowConvNet e DeepConvNet, de modo que obtém-se um aumento considerável no desempenho das redes profundas que compõem o estado da arte.


  • Mostrar Abstract
  • Os sistemas de Interface Cérebro-Computador englobam um conjunto de tarefas relacionadas a coleta e processamento de sinais, como aquisição, pré-processamento e classificação. Existem diversos tipos de sinais considerando o método utilizado durante a coleta, neste trabalho focamos apenas em sinais coletados por eletroencefalografia (EEG) previamente adquiridos por entidades e disponibilizados em repositórios públicos. Os sinais de EEG utilizados caracterizam o paradigma de imagética motora, considerado um problema de alta complexidade devido a grande variabilidade dos dados. Por esse motivo, o objetivo deste trabalho foi aplicar técnicas de separação cega de fontes baseadas em estatísticas de segunda ordem aos sinais de EEG, analisando seu efeito no desempenho de classificadores profundos. Assume-se que os registros de EEG são resultado de um processo de mistura de fontes, que pode ser linear ou não linear, do tipo Post-Nonlinear. Então, o pré-processamento tem por objetivo a extração de componentes independentes nos dois contextos, onde os algoritmos clássicos AMUSE e SOBI são utilizados para uma análise comparativa com o algoritmo A-SOBIPNL. Nesse âmbito foi proposto um novo fluxo de processamento para a aplicação de separação de fontes em sinais de EEG, onde as componentes independentes recuperadas são classificadas usando-se as redes profundas EEGNet, ShallowConvNet e DeepConvNet, de modo que obtém-se um aumento considerável no desempenho das redes profundas que compõem o estado da arte.

11
  • ITALO GIULLIAN CARVALHO DE ALBUQUERQUE
  • O Uso do Aprendizado de Máquina para Quantificação de Incerteza na predição de incidência da Dengue e Chikungunya

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 03/10/2024

  • Mostrar Resumo
  • A dengue e a chikungunya são problemas críticos de saúde pública, especialmente em áreas urbanas densamente povoadas. Neste estudo foi desenvolvido uma metodologia para estimar a incerteza nas previsões de incidência de dengue e chikungunya utilizando técnicas de séries temporais aplicadas a dados epidemiológicos de dez bairros do Rio de Janeiro. O objetivo principal foi quantificar a variabilidade e consistência dos dados ao longo do tempo, utilizando abordagens autorregressivas \emph{ForecasterAutoreg} com \emph{RandomForestRegressor}, a quantificação de incerteza com o método \emph{MAPIE}, e o \emph{DeepAR}, uma técnica de redes neurais para séries temporais. Os resultados indicam que os modelos autorregressivos apresentaram MSEs variáveis entre os bairros, destacando-se a Vila Militar com o menor MSE (0,90) e Realengo com o maior (66,76), o que evidencia as diferenças nas dinâmicas epidemiológicas locais. Apesar de os modelos terem capturado padrões sazonais e tendências temporais, a cobertura dos intervalos de confiança foi inferior ao esperado em vários bairros, sugerindo que ajustes são necessários para melhorar a confiabilidade das previsões. O modelo \emph{DeepAR} também demonstrou eficácia em prever picos de incidência, mas apresentou limitações na cobertura de incerteza, com valores que variaram entre os bairros, reforçando a necessidade de estratégias adaptativas para uma melhor modelagem da incerteza. As conclusões destacam a importância de incorporar a quantificação de incerteza nas previsões para aprimorar a gestão de saúde pública, permitindo uma resposta mais informada e eficaz aos surtos de doenças infecciosas.


  • Mostrar Abstract
  • A dengue e a chikungunya são problemas críticos de saúde pública, especialmente em áreas urbanas densamente povoadas. Neste estudo foi desenvolvido uma metodologia para estimar a incerteza nas previsões de incidência de dengue e chikungunya utilizando técnicas de séries temporais aplicadas a dados epidemiológicos de dez bairros do Rio de Janeiro. O objetivo principal foi quantificar a variabilidade e consistência dos dados ao longo do tempo, utilizando abordagens autorregressivas \emph{ForecasterAutoreg} com \emph{RandomForestRegressor}, a quantificação de incerteza com o método \emph{MAPIE}, e o \emph{DeepAR}, uma técnica de redes neurais para séries temporais. Os resultados indicam que os modelos autorregressivos apresentaram MSEs variáveis entre os bairros, destacando-se a Vila Militar com o menor MSE (0,90) e Realengo com o maior (66,76), o que evidencia as diferenças nas dinâmicas epidemiológicas locais. Apesar de os modelos terem capturado padrões sazonais e tendências temporais, a cobertura dos intervalos de confiança foi inferior ao esperado em vários bairros, sugerindo que ajustes são necessários para melhorar a confiabilidade das previsões. O modelo \emph{DeepAR} também demonstrou eficácia em prever picos de incidência, mas apresentou limitações na cobertura de incerteza, com valores que variaram entre os bairros, reforçando a necessidade de estratégias adaptativas para uma melhor modelagem da incerteza. As conclusões destacam a importância de incorporar a quantificação de incerteza nas previsões para aprimorar a gestão de saúde pública, permitindo uma resposta mais informada e eficaz aos surtos de doenças infecciosas.

12
  • VANESSA FERRAZ DUARTE COSTA
  • Modelo Conceitual para Avaliação do Desenvolvimento do Pensamento Computacional em Jogos Sérios


  • Orientador : CARLA LOPES RODRIGUEZ
  • Data: 07/10/2024

  • Mostrar Resumo
  • O Pensamento Computacional (PC) é uma habilidade intelectual básica, como ler e escrever, e, para isso, diversas abordagens estão sendo usadas eficientemente, inclusive, Jogos Sérios (JS). A avaliação do desempenho humano é parte integrante e importante no processo de desenvolvimento de competências. Entretanto, essa avaliação em JS se apresenta complexa e, muitas vezes, negligenciada, seja pela falta de coleta de dados e medição durante o jogo ou pela falta de avaliação e apresentação dos resultados parciais para os alunos. Soma-se a isso, a avaliação do desenvolvimento do PC possui suas características, especificidades e desafios, como a falta de consenso na forma de avaliação e granularidade das habilidades (fina se separadas ou alta se em conjunto). Nesse contexto, este trabalho visa criar, descrever e avaliar um modelo conceitual que auxilie no planejamento do design e da execução da Avaliação do Desenvolvimento do Pensamento Computacional (ADPC) em Jogos Sérios. Para alcançar esse objetivo, foi conduzido um levantamento bibliográfico das abordagens relacionadas ao desenvolvimento do PC em JS, bem como sobre instrumentos e métodos de avaliação usados. Com base nessa pesquisa, foi elaborado um modelo conceitual, nomeado MAAPA-JS, inspirado no Diagrama de Ishikawa (DI), que permite a análise de causas e efeitos da falta ou deficiência da ADPC e favorece a gestão de projetos. Esse modelo contém quatro artefatos: um DI completo para compreensão das causas envolvidas; um Checklist como questionário para responder às causas; um Documento Base de DI para elaborar o DI com as causas que estão impactando a ADPC no jogo sério que está sendo analisado; e um Manual de orientação de uso do MAAPA-JS. O modelo MAAPA-JS foi avaliado por prova de conceito (com um jogo desenvolvido e um novo jogo criado) e por especialistas, que relataram pontos de melhoria. Na avaliação por especialistas, o MAAPA-JS foi considerado consistente nas questões sobre corretude, autenticidade, consistência, clareza, ambiguidade e flexibilidade. O modelo precisa ser validado na produção de novos jogos por terceiros, para verificar sua eficiência, usabilidade e aplicabilidade. De modo geral, o MAAPA-JS pode ser utilizado para auxiliar equipes de desenvolvimento no planejamento e criação de JS para o desenvolvimento de PC, a fim de que esse contemple a ADPC.


  • Mostrar Abstract
  • O Pensamento Computacional (PC) é uma habilidade intelectual básica, como ler e escrever, e, para isso, diversas abordagens estão sendo usadas eficientemente, inclusive, Jogos Sérios (JS). A avaliação do desempenho humano é parte integrante e importante no processo de desenvolvimento de competências. Entretanto, essa avaliação em JS se apresenta complexa e, muitas vezes, negligenciada, seja pela falta de coleta de dados e medição durante o jogo ou pela falta de avaliação e apresentação dos resultados parciais para os alunos. Soma-se a isso, a avaliação do desenvolvimento do PC possui suas características, especificidades e desafios, como a falta de consenso na forma de avaliação e granularidade das habilidades (fina se separadas ou alta se em conjunto). Nesse contexto, este trabalho visa criar, descrever e avaliar um modelo conceitual que auxilie no planejamento do design e da execução da Avaliação do Desenvolvimento do Pensamento Computacional (ADPC) em Jogos Sérios. Para alcançar esse objetivo, foi conduzido um levantamento bibliográfico das abordagens relacionadas ao desenvolvimento do PC em JS, bem como sobre instrumentos e métodos de avaliação usados. Com base nessa pesquisa, foi elaborado um modelo conceitual, nomeado MAAPA-JS, inspirado no Diagrama de Ishikawa (DI), que permite a análise de causas e efeitos da falta ou deficiência da ADPC e favorece a gestão de projetos. Esse modelo contém quatro artefatos: um DI completo para compreensão das causas envolvidas; um Checklist como questionário para responder às causas; um Documento Base de DI para elaborar o DI com as causas que estão impactando a ADPC no jogo sério que está sendo analisado; e um Manual de orientação de uso do MAAPA-JS. O modelo MAAPA-JS foi avaliado por prova de conceito (com um jogo desenvolvido e um novo jogo criado) e por especialistas, que relataram pontos de melhoria. Na avaliação por especialistas, o MAAPA-JS foi considerado consistente nas questões sobre corretude, autenticidade, consistência, clareza, ambiguidade e flexibilidade. O modelo precisa ser validado na produção de novos jogos por terceiros, para verificar sua eficiência, usabilidade e aplicabilidade. De modo geral, o MAAPA-JS pode ser utilizado para auxiliar equipes de desenvolvimento no planejamento e criação de JS para o desenvolvimento de PC, a fim de que esse contemple a ADPC.

13
  • ANDRÉ ALVES RAMALHO
  • Agrupamento de Questões do ENEM Usando Técnicas de Processamento de Linguagem Natural

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 09/10/2024

  • Mostrar Resumo
  • Desde a sua concepção, o Processamento de Linguagem Natural (PLN) desempenha um papel fundamental ao permitir que computadores interpretem textos. Nas últimas décadas, a demanda por essa capacidade tem crescido exponencialmente devido ao imenso volume de informações digitais disponíveis. Diante desse contexto, o objetivo deste estudo é agrupar questões de múltipla escolha, garantindo a sua universalidade. Para isso, optou-se por utilizar as provas do Exame Nacional do Ensino Médio (ENEM), as quais são aplicadas em todo o país, abrangendo candidatos de diversas regiões e culturas. Vale ressaltar que as questões devem ser compreensíveis tanto para candidatos em áreas remotas da Região Norte quanto para aqueles em bairros nobres de São Paulo. Para validar o método proposto, foram geradas questões parametrizadas e um conjunto de textos utilizando o ChatGPT. Essas bases foram então numerizadas utilizando técnicas como Word2Vec, Wang2Vec, FastText e GloVe, em 35 configurações distintas, e posteriormente agrupadas por meio dos algoritmos DBSCAN, K-means e Affinity Propagation (AP). A avaliação dos resultados foi realizada utilizando o método F1-Score, revelando que o método GloVe, com 100 ou 300 posições, associado ao algoritmo AP, apresentou um desempenho superior em relação aos demais, permitindo a representação e o agrupamento das questões do ENEM com uma acurácia de 64%, cumprindo assim o objetivo inicial deste estudo.


  • Mostrar Abstract
  • Desde a sua concepção, o Processamento de Linguagem Natural (PLN) desempenha um papel fundamental ao permitir que computadores interpretem textos. Nas últimas décadas, a demanda por essa capacidade tem crescido exponencialmente devido ao imenso volume de informações digitais disponíveis. Diante desse contexto, o objetivo deste estudo é agrupar questões de múltipla escolha, garantindo a sua universalidade. Para isso, optou-se por utilizar as provas do Exame Nacional do Ensino Médio (ENEM), as quais são aplicadas em todo o país, abrangendo candidatos de diversas regiões e culturas. Vale ressaltar que as questões devem ser compreensíveis tanto para candidatos em áreas remotas da Região Norte quanto para aqueles em bairros nobres de São Paulo. Para validar o método proposto, foram geradas questões parametrizadas e um conjunto de textos utilizando o ChatGPT. Essas bases foram então numerizadas utilizando técnicas como Word2Vec, Wang2Vec, FastText e GloVe, em 35 configurações distintas, e posteriormente agrupadas por meio dos algoritmos DBSCAN, K-means e Affinity Propagation (AP). A avaliação dos resultados foi realizada utilizando o método F1-Score, revelando que o método GloVe, com 100 ou 300 posições, associado ao algoritmo AP, apresentou um desempenho superior em relação aos demais, permitindo a representação e o agrupamento das questões do ENEM com uma acurácia de 64%, cumprindo assim o objetivo inicial deste estudo.

14
  • MURILO RODRIGUES DE OLIVEIRA
  • Sistema biométrico para dinâmica da digitação com adaptação online baseada em corte mínimo de grafos

  • Orientador : PAULO HENRIQUE PISANI
  • Data: 17/10/2024

  • Mostrar Resumo
  • A autenticação biométrica de usuários pode auxiliar na segurança em sistemas digitais. A dinâmica da digitação é umas das modalidades biométricas que pode ser usada para esta tarefa, utilizando características únicas do indivíduo. Contudo, as características biométricas dos usuários podem mudar ao longo do tempo, o que pode tornar a referência biométrica, obtida no cadastramento, desatualizada. Sistemas biométricos adaptativos lidam com esse problema com o uso de estratégias de adaptação que podem modificar a referência biométrica ao longo do tempo. Na literatura relacionada a sistemas biométricos adaptativos, há diversas propostas de estratégias de adaptação. Contudo, um dos problemas encontrados ao longo dos estudos realizados nesta pesquisa foi o fato de que algumas amostras de usuários genuínos não são usadas na adaptação da referência biométrica, o que pode impactar na acurácia do sistema. Este trabalho aborda um estudo sobre sistemas biométricos para dinâmica da digitação com adaptação online baseada em corte mínimo de grafos, com o objetivo de usar mais amostras genuínas no momento da adaptação. Corte mínimo de grafos já haviam sido usados em sistemas biométricos adaptativos em um cenário offline, mas o trabalho atual investiga como realizar essa adaptação de forma online fazendo uso da modalidade biométrica de dinâmica da digitação.


  • Mostrar Abstract
  • A autenticação biométrica de usuários pode auxiliar na segurança em sistemas digitais. A dinâmica da digitação é umas das modalidades biométricas que pode ser usada para esta tarefa, utilizando características únicas do indivíduo. Contudo, as características biométricas dos usuários podem mudar ao longo do tempo, o que pode tornar a referência biométrica, obtida no cadastramento, desatualizada. Sistemas biométricos adaptativos lidam com esse problema com o uso de estratégias de adaptação que podem modificar a referência biométrica ao longo do tempo. Na literatura relacionada a sistemas biométricos adaptativos, há diversas propostas de estratégias de adaptação. Contudo, um dos problemas encontrados ao longo dos estudos realizados nesta pesquisa foi o fato de que algumas amostras de usuários genuínos não são usadas na adaptação da referência biométrica, o que pode impactar na acurácia do sistema. Este trabalho aborda um estudo sobre sistemas biométricos para dinâmica da digitação com adaptação online baseada em corte mínimo de grafos, com o objetivo de usar mais amostras genuínas no momento da adaptação. Corte mínimo de grafos já haviam sido usados em sistemas biométricos adaptativos em um cenário offline, mas o trabalho atual investiga como realizar essa adaptação de forma online fazendo uso da modalidade biométrica de dinâmica da digitação.

15
  • RAFAEL RUSSI ZAMBONI
  • Customização e Avaliação de um algoritmo de privacidade diferencial no contexto de dados educacionais

     

  • Orientador : ITANA STIUBIENER
  • Data: 18/10/2024

  • Mostrar Resumo
  • A área de sistemas de recomendação multiplicou-se nos ultimos anos. Este aumento e interesse nesse tipo de sistemas justifica-se pepla possibilidade de  recomendaçao de produtos, informaçnoes, servicos ou mesmo pessoas a determinados utilizadores da Internet, tendo em conta as suas caracterısticas e preferências. Uma recomendaçnao correta dos conteudos faz total diferenca para adaptar o usuário de determinado sistema ou até mesmo dissuadi-lo em utilizar. Dessa forma, sistemas de recomendação mostram -se uma ferramenta importante para o envolvimento assertivo de um determinado usuário. Contudo, para o seu correto funcionamento é necessário a observanao do comportamento dos usuários, através da coletade informações oriundas de sua interação com o sistema, fato  que pode vir a provocar preocupações em relação a esses dados e e em realção a sua privacidade.  Para que os usuários recebam recomendações de forma eficiente, informações pessoais são fornecidas a esses sistemas, como esses dados pessoais e privados podem ficar em risco. Logo, é importante que esses sistemas  prevejam mecanismos de proteção a esses dados e mantenham sua privacidade, de forma a garantir segurança e provacidade nas recomendacoes. Motivado por esse problema, este trabalho tem como objetivo propor um modelo de algoritmo de filtragem colaborativa que preveja a  preservação da privacidade, baseando-se no conceito de privacidade diferencial, de forma a proteger e manter a privacidade dos dados e mantendo a precisão dos elementos recomendados bem como a eficiência do algoritmo.


  • Mostrar Abstract
  • A área de sistemas de recomendação multiplicou-se nos ultimos anos. Este aumento e interesse nesse tipo de sistemas justifica-se pepla possibilidade de  recomendaçao de produtos, informaçnoes, servicos ou mesmo pessoas a determinados utilizadores da Internet, tendo em conta as suas caracterısticas e preferências. Uma recomendaçnao correta dos conteudos faz total diferenca para adaptar o usuário de determinado sistema ou até mesmo dissuadi-lo em utilizar. Dessa forma, sistemas de recomendação mostram -se uma ferramenta importante para o envolvimento assertivo de um determinado usuário. Contudo, para o seu correto funcionamento é necessário a observanao do comportamento dos usuários, através da coletade informações oriundas de sua interação com o sistema, fato  que pode vir a provocar preocupações em relação a esses dados e e em realção a sua privacidade.  Para que os usuários recebam recomendações de forma eficiente, informações pessoais são fornecidas a esses sistemas, como esses dados pessoais e privados podem ficar em risco. Logo, é importante que esses sistemas  prevejam mecanismos de proteção a esses dados e mantenham sua privacidade, de forma a garantir segurança e provacidade nas recomendacoes. Motivado por esse problema, este trabalho tem como objetivo propor um modelo de algoritmo de filtragem colaborativa que preveja a  preservação da privacidade, baseando-se no conceito de privacidade diferencial, de forma a proteger e manter a privacidade dos dados e mantendo a precisão dos elementos recomendados bem como a eficiência do algoritmo.

16
  • RENATO DE AVILA LOPES
  • Visão computacional para veículos agrícolas autônomos

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 18/11/2024

  • Mostrar Resumo
  • A agricultura de precisão é uma revolução tecnológica que utiliza veículos agrícolas autônomos para aumentar a eficiência e segurança no cultivo de monoculturas. Para isso, é necessário um sistema que integre inúmeros sensores, incluindo câmeras de vídeo. A análise de imagem utilizando sensores acoplados a tratores ou caminhões pode identificar diferentes tipos de plantas, ambientes e condições. As técnicas mais recentes e eficientes para classificação de imagens envolvem o uso de redes neurais na análise de imagens. Para aumentar a segurança operacional, é necessário utilizar processos de aprendizado de máquina para treinar redes neurais para reconhecer e detectar objetos, pessoas e animais na área operacional do veículo. O objetivo deste trabalho é desenvolver um sistema de detecção e classificação de objetos com o intuito de fornecer segurança para veículos que atuam de forma autônoma. Este sistema será baseado em visão computacional e redes neurais. O sistema utilizará processos de aprendizado de máquina com redes neurais pré-treinadas para reconhecer e detectar objetos, pessoas e animais na área operacional do veículo, tornando a operação de colheita e transbordo mais segura e eficiente. Foi realizada uma comparação entre diferentes redes pré-treinadas, incluindo as versões 3, 4, 5 e 8 da rede YOLO, a rede SSD Mobilenet V2 e a rede SSD Inception V2. Entre todas as opções avaliadas, a rede YOLOv4 e a rede YoloV8 obtiveram os melhores resultados quando executadas em um módulo AGX Jetson Orin. Para essa análise, a biblioteca OpenCV foi utilizada na YOLOV4 e a biblioteca Ultralytics na YOLOV8. Também foi realizado aprendizado por transferência utilizando as redes YOLOv4 e YOLOv8, incluindo a classe de "cone de trânsito" no dataset COCO, mostrando a viabilidade de incluir novas classes de interesse no contexto de colheitas agrícolas. A rede YOLOv8 ainda foi utilizada para realizar segmentação de instâncias com o intuito de auxiliar o planejador de navegação a identificar áreas navegáveis e obstáculos no trajeto do veículo autônomo agrícola. O desenvolvimento de um sistema para segurança para veículos autônomos baseado em visão computacional e redes neurais pode ajudar a tornar a operação de colheita e transbordo mais segura e eficiente na agricultura de precisão. A utilização de processos de aprendizado de máquina permite treinar as redes neurais a reconhecer e detectar possíveis riscos na área operacional do veículo, reduzindo assim a possibilidade de acidentes e melhorando a qualidade dos resultados da colheita.


  • Mostrar Abstract
  • A agricultura de precisão é uma revolução tecnológica que utiliza veículos agrícolas autônomos para aumentar a eficiência e segurança no cultivo de monoculturas. Para isso, é necessário um sistema que integre inúmeros sensores, incluindo câmeras de vídeo. A análise de imagem utilizando sensores acoplados a tratores ou caminhões pode identificar diferentes tipos de plantas, ambientes e condições. As técnicas mais recentes e eficientes para classificação de imagens envolvem o uso de redes neurais na análise de imagens. Para aumentar a segurança operacional, é necessário utilizar processos de aprendizado de máquina para treinar redes neurais para reconhecer e detectar objetos, pessoas e animais na área operacional do veículo. O objetivo deste trabalho é desenvolver um sistema de detecção e classificação de objetos com o intuito de fornecer segurança para veículos que atuam de forma autônoma. Este sistema será baseado em visão computacional e redes neurais. O sistema utilizará processos de aprendizado de máquina com redes neurais pré-treinadas para reconhecer e detectar objetos, pessoas e animais na área operacional do veículo, tornando a operação de colheita e transbordo mais segura e eficiente. Foi realizada uma comparação entre diferentes redes pré-treinadas, incluindo as versões 3, 4, 5 e 8 da rede YOLO, a rede SSD Mobilenet V2 e a rede SSD Inception V2. Entre todas as opções avaliadas, a rede YOLOv4 e a rede YoloV8 obtiveram os melhores resultados quando executadas em um módulo AGX Jetson Orin. Para essa análise, a biblioteca OpenCV foi utilizada na YOLOV4 e a biblioteca Ultralytics na YOLOV8. Também foi realizado aprendizado por transferência utilizando as redes YOLOv4 e YOLOv8, incluindo a classe de "cone de trânsito" no dataset COCO, mostrando a viabilidade de incluir novas classes de interesse no contexto de colheitas agrícolas. A rede YOLOv8 ainda foi utilizada para realizar segmentação de instâncias com o intuito de auxiliar o planejador de navegação a identificar áreas navegáveis e obstáculos no trajeto do veículo autônomo agrícola. O desenvolvimento de um sistema para segurança para veículos autônomos baseado em visão computacional e redes neurais pode ajudar a tornar a operação de colheita e transbordo mais segura e eficiente na agricultura de precisão. A utilização de processos de aprendizado de máquina permite treinar as redes neurais a reconhecer e detectar possíveis riscos na área operacional do veículo, reduzindo assim a possibilidade de acidentes e melhorando a qualidade dos resultados da colheita.

17
  • LUCAS SAMPAIO DA ROCHA
  • Decomposições Localmente Irregulares

  • Orientador : CARLA NEGRI LINTZMAYER
  • Data: 04/12/2024

  • Mostrar Resumo
  • Um grafo é localmente irregular se todo par de vértices adjacentes possui graus distintos. Uma decomposição localmente irregular de um grafo é uma decomposição dele em subgrafos que são localmente irregulares. Vários esforços foram feitos nos últimos anos para tentar provar uma conjectura que pergunta se todo grafo que admite uma decomposição localmente irregular pode ser decomposto em no máximo três subgrafos localmente irregulares. Um único contraexemplo foi encontrado, então os esforços atuais se concentram em provar que esse contraexemplo é único ou em encontrar novos contraexemplos. A Conjectura 1-2-3, que possui uma relação com o problema anterior, pergunta se é possível atribuir um peso 1, 2 ou 3 a cada aresta de um grafo de forma que, para todo par de vértices adjacentes, a soma dos pesos das arestas que são incidentes a ambos é diferente. Essa conjectura foi provada por Keusch em 2024. Nesta dissertação nós apresentamos os resultados principais sobre esses problemas e nossos resultados relacionados ao primeiro. Também sugerimos algumas direções para pesquisas futuras.


  • Mostrar Abstract
  • Um grafo é localmente irregular se todo par de vértices adjacentes possui graus distintos. Uma decomposição localmente irregular de um grafo é uma decomposição dele em subgrafos que são localmente irregulares. Vários esforços foram feitos nos últimos anos para tentar provar uma conjectura que pergunta se todo grafo que admite uma decomposição localmente irregular pode ser decomposto em no máximo três subgrafos localmente irregulares. Um único contraexemplo foi encontrado, então os esforços atuais se concentram em provar que esse contraexemplo é único ou em encontrar novos contraexemplos. A Conjectura 1-2-3, que possui uma relação com o problema anterior, pergunta se é possível atribuir um peso 1, 2 ou 3 a cada aresta de um grafo de forma que, para todo par de vértices adjacentes, a soma dos pesos das arestas que são incidentes a ambos é diferente. Essa conjectura foi provada por Keusch em 2024. Nesta dissertação nós apresentamos os resultados principais sobre esses problemas e nossos resultados relacionados ao primeiro. Também sugerimos algumas direções para pesquisas futuras.

Teses
1
  • PAULO MATIAS DA SILVA JUNIOR
  • Padrões de coloração de arestas e propriedades anti-Ramsey

  • Orientador : GUILHERME OLIVEIRA MOTA
  • Data: 01/02/2024

  • Mostrar Resumo
  • Este é o texto tem como foco o estudo de propriedades anti-Ramsey de grafos aleatórios e determinísticos. Primeiro, consideramos o problema proposto por Conlon e Tyomkyn, de determinar o menor número de cores necessárias para se colorir propriamente as arestas do grafo completo Kn, de modo que nenhum par de triângulos vértices-disjuntos de Kn tenha a mesma tripla de cores. Esta quantidade de cores era desconhecida para n par e conseguimos computá-la para alguns casos pequenos e também para uma família infinita de valores de n. Consideramos também o seguinte problema do tipo anti-Ramsey: dados grafos G e H, denotamos por G rb −→ H a propriedade em que toda coloração própria de E(G) apresenta uma cópia rainbow de H em G. Provamos que o valor da função limiar para G(n, p) rb −→ Kℓ,r é dado por n (ℓ+r−2)/(ℓr−1), para grafos bipartidos completos Kℓ,r com ℓ, r ≥ 3. Provamos também que o limiar é assintoticamente menor que este valor se ℓ = 2 e r ≥ 2.


  • Mostrar Abstract
  • Este é o texto tem como foco o estudo de propriedades anti-Ramsey de grafos aleatórios e determinísticos. Primeiro, consideramos o problema proposto por Conlon e Tyomkyn, de determinar o menor número de cores necessárias para se colorir propriamente as arestas do grafo completo Kn, de modo que nenhum par de triângulos vértices-disjuntos de Kn tenha a mesma tripla de cores. Esta quantidade de cores era desconhecida para n par e conseguimos computá-la para alguns casos pequenos e também para uma família infinita de valores de n. Consideramos também o seguinte problema do tipo anti-Ramsey: dados grafos G e H, denotamos por G rb −→ H a propriedade em que toda coloração própria de E(G) apresenta uma cópia rainbow de H em G. Provamos que o valor da função limiar para G(n, p) rb −→ Kℓ,r é dado por n (ℓ+r−2)/(ℓr−1), para grafos bipartidos completos Kℓ,r com ℓ, r ≥ 3. Provamos também que o limiar é assintoticamente menor que este valor se ℓ = 2 e r ≥ 2.

2
  • SARA BUENO DE OLIVEIRA GENNARI CARTURAN
  • Framework para Análise de Aderência à LGPD: criação, aplicação, avaliação e suporte ao uso 


     


  • Orientador : DENISE HIDEKO GOYA
  • Data: 25/04/2024

  • Mostrar Resumo
  • Um Framework é uma estrutura flexível, com objetivo específico e que deve ser utilizado para entender, organizar e implementar ações alinhadas ao objetivo. Devido ao aumento do consumo de dados e a evolução tecnológica, também cresce a preocupação com os dados pessoais, uma vez que estão em todos os lugares e em diversas formas. Assim, a LGPD (Lei Geral de Proteção de Dados Pessoais) torna-se cada vez mais importante, pois estabelece diretrizes para as organizações públicas ou privadas, com relação à coleta, uso, armazenamento e compartilhamento de dados pessoais. Esta tese desenvolve um Framework para Análise da Aderência à LGPD (Framework LGPD), modelo de avaliação da maturidade, suporte ao uso e modelo para elaboração do plano de implementação por uma área de Tecnologia para solucionar as lacunas identificadas. O Framework é composto por 4 domínios: Governança LGPD & Pessoas, Métodos & Processos, Controle de Dados e Arquitetura de Infraestrutura, que são subdivididos em 16 componentes com objetivos, papéis e responsabilidades, entradas, principais atividades, recursos de apoio e saídas. Inicialmente foi feito o embasamento teórico sobre as principais tecnologias, padrões e definições sobre LGPD e GDPR (General Data Protection Regulation). Em seguida, foi necessário um mapeamento de literatura para constatar os limítrofes dos estudos existentes quanto a LGPD, que identificou uma lacuna sobre a existência de modelos com visões estratégicas e táticas e que representem as melhores práticas para avaliar a aderência da LGPD no ponto de vista de Tecnologia. Desta forma, há uma demanda para ações de proteção e, consequente, aderência à LGPD. O Framework LGPD foi inspirado no COBIT, ITIL, DevSecOps e algumas normas ISO, transformando um conceito em um método prático de compreensão e implementação. Também considerou a experiência adquirida pelas implementações da GDPR e particularidades brasileiras. O principal diferencial do Framework LGPD é facilitar o entendimento da lei pela área de Tecnologia e, através da análise de aderência, ser possível identificar pontos de melhorias e planejar ações que deverão ser descritas e priorizadas no Plano de Implementação, cujo modelo de construção também foi descrito. O Framework LGPD foi aplicado em uma organização brasileira, onde os resultados foram coletados, bem como seus feedbacks. Ele também foi submetido a uma avaliação por especialistas que atuam em organizações na área de Tecnologia em estratégia de TI, Governança, Arquitetura, Desenvolvimento de Soluções, Infraestrutura e Segurança da Informação, através de um questionário que considerou 9 critérios de qualidade, o que contribuiu com a melhoria contínua. Apesar deste Framework ter sido aplicado apenas uma vez, espera-se que no futuro, ele seja um eficaz acelerador, guia e orientador de boas práticas em organizações que ainda não têm um plano LGPD estabelecido ou que não compreenderam o alcance da lei, possibilitando assim, sua replicação quanto ao uso em outras organizações brasileiras.


  • Mostrar Abstract
  • Um Framework é uma estrutura flexível, com objetivo específico e que deve ser utilizado para entender, organizar e implementar ações alinhadas ao objetivo. Devido ao aumento do consumo de dados e a evolução tecnológica, também cresce a preocupação com os dados pessoais, uma vez que estão em todos os lugares e em diversas formas. Assim, a LGPD (Lei Geral de Proteção de Dados Pessoais) torna-se cada vez mais importante, pois estabelece diretrizes para as organizações públicas ou privadas, com relação à coleta, uso, armazenamento e compartilhamento de dados pessoais. Esta tese desenvolve um Framework para Análise da Aderência à LGPD (Framework LGPD), modelo de avaliação da maturidade, suporte ao uso e modelo para elaboração do plano de implementação por uma área de Tecnologia para solucionar as lacunas identificadas. O Framework é composto por 4 domínios: Governança LGPD & Pessoas, Métodos & Processos, Controle de Dados e Arquitetura de Infraestrutura, que são subdivididos em 16 componentes com objetivos, papéis e responsabilidades, entradas, principais atividades, recursos de apoio e saídas. Inicialmente foi feito o embasamento teórico sobre as principais tecnologias, padrões e definições sobre LGPD e GDPR (General Data Protection Regulation). Em seguida, foi necessário um mapeamento de literatura para constatar os limítrofes dos estudos existentes quanto a LGPD, que identificou uma lacuna sobre a existência de modelos com visões estratégicas e táticas e que representem as melhores práticas para avaliar a aderência da LGPD no ponto de vista de Tecnologia. Desta forma, há uma demanda para ações de proteção e, consequente, aderência à LGPD. O Framework LGPD foi inspirado no COBIT, ITIL, DevSecOps e algumas normas ISO, transformando um conceito em um método prático de compreensão e implementação. Também considerou a experiência adquirida pelas implementações da GDPR e particularidades brasileiras. O principal diferencial do Framework LGPD é facilitar o entendimento da lei pela área de Tecnologia e, através da análise de aderência, ser possível identificar pontos de melhorias e planejar ações que deverão ser descritas e priorizadas no Plano de Implementação, cujo modelo de construção também foi descrito. O Framework LGPD foi aplicado em uma organização brasileira, onde os resultados foram coletados, bem como seus feedbacks. Ele também foi submetido a uma avaliação por especialistas que atuam em organizações na área de Tecnologia em estratégia de TI, Governança, Arquitetura, Desenvolvimento de Soluções, Infraestrutura e Segurança da Informação, através de um questionário que considerou 9 critérios de qualidade, o que contribuiu com a melhoria contínua. Apesar deste Framework ter sido aplicado apenas uma vez, espera-se que no futuro, ele seja um eficaz acelerador, guia e orientador de boas práticas em organizações que ainda não têm um plano LGPD estabelecido ou que não compreenderam o alcance da lei, possibilitando assim, sua replicação quanto ao uso em outras organizações brasileiras.

3
  • RICARDO NANTES LIANG
  • Avaliação Rápida de Soluções para Problemas de Otimização Pseudo-booleanos

  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 06/05/2024

  • Mostrar Resumo
  • O problema de Otimização Pseudo-Booleana (PBO) é investigado.
    Este problema pertence à classe de complexidade computacional NP-difícil,
    e é capaz de modelar uma ampla gama de problemas de otimização combinatória.
    O problema de Otimização Binária Quadrática Irrestrita (QUBO), que é bem conhecido,
    é um caso específico de otimização pseudo-Booleana. Vários métodos no estado da
    arte da literatura para resolver classes específicas de problemas PBO
    dependem da capacidade de avaliar rapidamente mudanças no valor da função objetivo
    após um flip move, i.e. após mudar o valor de uma variável em um vetor solução de
    0 para 1 ou de 1 para 0. Consequentemente, pesquisa em avaliação rápida de flip moves
    tem beneficiado vários métodos exatos e heurísticos existentes. Neste trabalho,
    buscamos expandir a literatura acerca da avaliação rápida de flip moves.
    As primeiras três contribuições dizem respeito ao problema QUBO.
    Primeiro, são considerados dois algoritmos existentes para avaliar vários simultâneos
    flip moves. Dependendo dos valores de seus parâmetros, um pode ser mais rápido que outro.
    Então, são propostos algoritmos de avaliação híbridos, que consistem em estimar e utilizar
    o algoritmo existente mais rápido para os parâmetros fornecidos. Como segunda contribuição,
    fórmulas fechadas são provadas, e algoritmos são propostos para avaliar rapidamente vários
    flip moves simultâneos considerando o caso onde valores fracionários são permitidos nos
    vetores solução. Como terceira contribuição, estruturas de dados são propostas para acelerar
    a avaliação de 1-flip moves no contexto da heurística Tabu Search quando a instância do
    problema QUBO sendo resolvida é esparsa. A última contribuição se refere ao problema geral
    do PBO. É considerado o caso onde a função objetivo do problema é representada por um
    posiform, i.e. uma expressão que pode conter negações de variáveis booleanas. Baseando-se nisto,
    são provadas fórmulas fechadas, e algoritmos e estruturas de dados são propostos para acelerar a
    avaliação de 1-flip moves. Para todas as contribuições, é mostrado, por meio de experimentos
    computacionais extensivos, que as propostas podem beneficiar métodos existentes na literatura
    para resolver os respectivos problemas.


  • Mostrar Abstract
  • O problema de Otimização Pseudo-Booleana (PBO) é investigado.
    Este problema pertence à classe de complexidade computacional NP-difícil,
    e é capaz de modelar uma ampla gama de problemas de otimização combinatória.
    O problema de Otimização Binária Quadrática Irrestrita (QUBO), que é bem conhecido,
    é um caso específico de otimização pseudo-Booleana. Vários métodos no estado da
    arte da literatura para resolver classes específicas de problemas PBO
    dependem da capacidade de avaliar rapidamente mudanças no valor da função objetivo
    após um flip move, i.e. após mudar o valor de uma variável em um vetor solução de
    0 para 1 ou de 1 para 0. Consequentemente, pesquisa em avaliação rápida de flip moves
    tem beneficiado vários métodos exatos e heurísticos existentes. Neste trabalho,
    buscamos expandir a literatura acerca da avaliação rápida de flip moves.
    As primeiras três contribuições dizem respeito ao problema QUBO.
    Primeiro, são considerados dois algoritmos existentes para avaliar vários simultâneos
    flip moves. Dependendo dos valores de seus parâmetros, um pode ser mais rápido que outro.
    Então, são propostos algoritmos de avaliação híbridos, que consistem em estimar e utilizar
    o algoritmo existente mais rápido para os parâmetros fornecidos. Como segunda contribuição,
    fórmulas fechadas são provadas, e algoritmos são propostos para avaliar rapidamente vários
    flip moves simultâneos considerando o caso onde valores fracionários são permitidos nos
    vetores solução. Como terceira contribuição, estruturas de dados são propostas para acelerar
    a avaliação de 1-flip moves no contexto da heurística Tabu Search quando a instância do
    problema QUBO sendo resolvida é esparsa. A última contribuição se refere ao problema geral
    do PBO. É considerado o caso onde a função objetivo do problema é representada por um
    posiform, i.e. uma expressão que pode conter negações de variáveis booleanas. Baseando-se nisto,
    são provadas fórmulas fechadas, e algoritmos e estruturas de dados são propostos para acelerar a
    avaliação de 1-flip moves. Para todas as contribuições, é mostrado, por meio de experimentos
    computacionais extensivos, que as propostas podem beneficiar métodos existentes na literatura
    para resolver os respectivos problemas.

4
  • THIAGO DONIZETTI DOS SANTOS
  • Simplificação de Interface de Usuário para Pessoas Idosas com Ansiedade Computacional

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 10/06/2024

  • Mostrar Resumo
  • A Ansiedade Computacional (abreviada como CA, do inglês Computer Anxiety, em concordância com os artigos que fazem parte da tese) pode ser definida como intimidação, medo e preocupações que alguém pode ter de ficar envergonhado, parecer estúpido ou acreditar que pode danificar ou ser incapaz de operar o computador. Assim, em uma época na qual se usa tecnologia diariamente, seria esperado que a maioria das pessoas não enfrentasse problemas como a CA e que o uso de computadores fosse algo natural para todos. Porém, é comum que o uso de computadores cause apreensão e medo em algumas pessoas e, para níveis elevados, que elas demonstrem CA. Pessoas com CA (PwCA, do inglês People with CA) enfrentam problemas no uso de computadores em diferentes contextos e tais problemas podem se agravar em situações nas quais elas utilizam computadores por não terem alternativa, por exemplo, para ter acesso a serviços governamentais disponíveis somente por meio de sistemas computacionais (e.g., emissão de documentos, declaração de impostos, etc.), para exercer a cidadania votando com urnas eletrônicas, para usar os caixas eletrônicos, para estudar e trabalhar. Portanto, os problemas relacionados à CA podem criar múltiplas barreiras para elas, privando-as do acesso à tecnologia e, consequentemente, a diversas oportunidades de trabalho, estudo e lazer. Dentre os estudos sobre CA na literatura, poucos apresentam soluções para reduzi-la e nenhum deles propõe uma solução que seja automática. Neste contexto, o objetivo desse trabalho é propor um pipeline de simplificação focado no uso de computadores ao acessar a web capaz de: (1) utilizar análise de logs de interação para identificar automaticamente, em tempo de execução, pessoas que demonstrem altos níveis de CA e para identificar os elementos de interface de usuário (IU) que possam ter impactos negativos na interação e/ou atuem como distratores na tarefa (2) simplificar a IU para PwCA, alterando ou removendo elementos de IU identificados. O intuito é fornecer suporte para PwCA e, consequentemente, contribuir para a redução dos efeitos da CA na interação com a web. Para atingir o objetivo, foram feitos três estudos com usuários, totalizando 106 participantes idosos. Os resultados obtidos mostram a criação e validação de um plugin para o navegador Firefox que implementa os passos do pipeline. Os resultados também mostram que certos elementos de IU (e.g., carrossel e mapas) podem impactar negativamente a experiência de PwCA e que é possível identificar estes elementos usando dados de rastreamento de olhar e de mouse. Por fim, a validação da simplificação mostra que os participantes que utilizaram a simplificação completaram mais tarefas, em menor tempo e se sentiram mais confiantes de suas habilidades em relação aos participantes que não a utilizaram. O que mostra a capacidade de fornecer suporte a PwCA utilizando o pipeline proposto.


  • Mostrar Abstract
  • A Ansiedade Computacional (abreviada como CA, do inglês Computer Anxiety, em concordância com os artigos que fazem parte da tese) pode ser definida como intimidação, medo e preocupações que alguém pode ter de ficar envergonhado, parecer estúpido ou acreditar que pode danificar ou ser incapaz de operar o computador. Assim, em uma época na qual se usa tecnologia diariamente, seria esperado que a maioria das pessoas não enfrentasse problemas como a CA e que o uso de computadores fosse algo natural para todos. Porém, é comum que o uso de computadores cause apreensão e medo em algumas pessoas e, para níveis elevados, que elas demonstrem CA. Pessoas com CA (PwCA, do inglês People with CA) enfrentam problemas no uso de computadores em diferentes contextos e tais problemas podem se agravar em situações nas quais elas utilizam computadores por não terem alternativa, por exemplo, para ter acesso a serviços governamentais disponíveis somente por meio de sistemas computacionais (e.g., emissão de documentos, declaração de impostos, etc.), para exercer a cidadania votando com urnas eletrônicas, para usar os caixas eletrônicos, para estudar e trabalhar. Portanto, os problemas relacionados à CA podem criar múltiplas barreiras para elas, privando-as do acesso à tecnologia e, consequentemente, a diversas oportunidades de trabalho, estudo e lazer. Dentre os estudos sobre CA na literatura, poucos apresentam soluções para reduzi-la e nenhum deles propõe uma solução que seja automática. Neste contexto, o objetivo desse trabalho é propor um pipeline de simplificação focado no uso de computadores ao acessar a web capaz de: (1) utilizar análise de logs de interação para identificar automaticamente, em tempo de execução, pessoas que demonstrem altos níveis de CA e para identificar os elementos de interface de usuário (IU) que possam ter impactos negativos na interação e/ou atuem como distratores na tarefa (2) simplificar a IU para PwCA, alterando ou removendo elementos de IU identificados. O intuito é fornecer suporte para PwCA e, consequentemente, contribuir para a redução dos efeitos da CA na interação com a web. Para atingir o objetivo, foram feitos três estudos com usuários, totalizando 106 participantes idosos. Os resultados obtidos mostram a criação e validação de um plugin para o navegador Firefox que implementa os passos do pipeline. Os resultados também mostram que certos elementos de IU (e.g., carrossel e mapas) podem impactar negativamente a experiência de PwCA e que é possível identificar estes elementos usando dados de rastreamento de olhar e de mouse. Por fim, a validação da simplificação mostra que os participantes que utilizaram a simplificação completaram mais tarefas, em menor tempo e se sentiram mais confiantes de suas habilidades em relação aos participantes que não a utilizaram. O que mostra a capacidade de fornecer suporte a PwCA utilizando o pipeline proposto.

5
  • WELLINGTON BARBOSA RODRIGUES
  • Método computacional para sugestão de pareceristas com maior afinidade em pesquisa e menor conflito de interesse

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 28/10/2024

  • Mostrar Resumo
  • A identificação de pareceristas para revisão por pares é um desafio recorrente no processo científico, especialmente devido ao risco de conflitos de interesses e à necessidade de identificar a afinidade em pesquisa. A autodeclaração de conflitos de interesse é o método mais aceito atualmente, mas sua aplicação só ocorre após o convite aos pareceristas, o que pode gerar retrabalho e omissões. Esta tese propõe um método computacional para sugerir pareceristas com maior afinidade em pesquisa e menor risco de conflitos de interesse. A proposta utiliza a análise de grafos de colaboração para sugerir pesquisadores, considerando a intensidade das colaborações passadas. Complementarmente, é empregado o processamento de linguagem natural para identificar a similaridade semântica entre manuscritos e potenciais pareceristas. Além disso, o método incorpora o Índice de Atribuição de Pareceristas (IAP), que quantifica a adequação dos pareceristas aos manuscritos, considerando tanto a afinidade acadêmica quanto o potencial de conflitos de interesse. Os experimentos realizados utilizam simulações com dados empíricos de pesquisadores reais e artigos publicados, recriando atribuições em cenários baseados no mundo real. Em um dos experimentos, baseado na revista Scientometrics, foram analisados 318 artigos e 1.074 perfis virtuais de autores. A análise da cobertura dos conceitos em três níveis demonstrou que, no nível 0 (mais amplo), a cobertura foi de 100%; no nível 1, a cobertura foi de 90%; e no nível 2 (mais específico), a cobertura foi de 49%. Esses resultados indicam que o método proposto agiliza a escolha de pareceristas, e promove uma revisão por pares mais diversa, imparcial e alinhada ao conhecimento necessário para avaliar os conceitos abordados.


  • Mostrar Abstract
  • A identificação de pareceristas para revisão por pares é um desafio recorrente no processo científico, especialmente devido ao risco de conflitos de interesses e à necessidade de identificar a afinidade em pesquisa. A autodeclaração de conflitos de interesse é o método mais aceito atualmente, mas sua aplicação só ocorre após o convite aos pareceristas, o que pode gerar retrabalho e omissões. Esta tese propõe um método computacional para sugerir pareceristas com maior afinidade em pesquisa e menor risco de conflitos de interesse. A proposta utiliza a análise de grafos de colaboração para sugerir pesquisadores, considerando a intensidade das colaborações passadas. Complementarmente, é empregado o processamento de linguagem natural para identificar a similaridade semântica entre manuscritos e potenciais pareceristas. Além disso, o método incorpora o Índice de Atribuição de Pareceristas (IAP), que quantifica a adequação dos pareceristas aos manuscritos, considerando tanto a afinidade acadêmica quanto o potencial de conflitos de interesse. Os experimentos realizados utilizam simulações com dados empíricos de pesquisadores reais e artigos publicados, recriando atribuições em cenários baseados no mundo real. Em um dos experimentos, baseado na revista Scientometrics, foram analisados 318 artigos e 1.074 perfis virtuais de autores. A análise da cobertura dos conceitos em três níveis demonstrou que, no nível 0 (mais amplo), a cobertura foi de 100%; no nível 1, a cobertura foi de 90%; e no nível 2 (mais específico), a cobertura foi de 49%. Esses resultados indicam que o método proposto agiliza a escolha de pareceristas, e promove uma revisão por pares mais diversa, imparcial e alinhada ao conhecimento necessário para avaliar os conceitos abordados.

6
  • RODRIGO CESAR BONINI
  • Inferência de redes gênicas via aprendizado por reforço profundo

  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 01/11/2024

  • Mostrar Resumo
  • A inferência de redes de regulação gênica (do inglês: Gene Regulatory Networks -- GRN) a partir de dados de expressão é um problema importante no campo da biologia de sistemas, envolvendo a estimativa de dependências indiretas entre genes e as funções regulatórias entre essas interações para fornecer um modelo que explique o conjunto de dados de expressão gênica. O principal objetivo é entender os mecanismos moleculares globais subjacentes às doenças para o desenvolvimento de tratamentos e medicamentos. No entanto, tal problema é considerado um problema em aberto, pois é um desafio obter uma estimativa satisfatória das dependências dado um número muito limitado de amostras sujeitas a ruídos experimentais. Muitos métodos de inferência de redes gênicas foram propostos na literatura, onde alguns deles usam heurísticas ou algoritmos baseados em modelos para encontrar redes que explicam os dados codificando redes inteiras como soluções. No entanto, em geral, esses modelos são lentos, não escaláveis para redes de tamanho real (milhares de genes), ou requerem muitos parâmetros, o conhecimento de um especialista ou um grande número de amostras para serem viáveis. Por outro lado, o Aprendizado por Reforço é uma abordagem adaptável orientada a objetivos que não requer grandes conjuntos de dados rotulados e muitos parâmetros; pode prover soluções de boa qualidade em um tempo de execução viável; e pode funcionar automaticamente por um longo tempo sem a necessidade de um especialista, mas ainda precisa de algumas melhorias para lidar com sua escalabilidade. Portanto, esta tese propõe uma forma de adaptar o Aprendizado por Reforço ao domínio de inferência de redes de regulação gênica, realizando uma melhoria em seu desempenho, usando Aprendizado por Reforço Profundo, uma estrutura que utiliza aproximações e pode fornecer melhores soluções com menos esforço computacional. Com isso portanto, podemos obter redes com qualidade comparável ou até mesmo superior às obtidas por busca exaustiva, mas em um tempo de execução muito menor. Uma avaliação experimental mostra que a proposta desta tese é promissora em aprender e encontrar com sucesso boas soluções em um tempo razoável, escalando bem para redes de tamanho realista contendo centenas ou milhares de genes. Dentre as perspectivas futuras proporcionadas por este trabalho, a escalabilidade para redes com milhares de genes pode ser melhorada com possíveis implementações mais eficientes em relação ao consumo de memória e com o emprego de computação paralela.


  • Mostrar Abstract
  • A inferência de redes de regulação gênica (do inglês: Gene Regulatory Networks -- GRN) a partir de dados de expressão é um problema importante no campo da biologia de sistemas, envolvendo a estimativa de dependências indiretas entre genes e as funções regulatórias entre essas interações para fornecer um modelo que explique o conjunto de dados de expressão gênica. O principal objetivo é entender os mecanismos moleculares globais subjacentes às doenças para o desenvolvimento de tratamentos e medicamentos. No entanto, tal problema é considerado um problema em aberto, pois é um desafio obter uma estimativa satisfatória das dependências dado um número muito limitado de amostras sujeitas a ruídos experimentais. Muitos métodos de inferência de redes gênicas foram propostos na literatura, onde alguns deles usam heurísticas ou algoritmos baseados em modelos para encontrar redes que explicam os dados codificando redes inteiras como soluções. No entanto, em geral, esses modelos são lentos, não escaláveis para redes de tamanho real (milhares de genes), ou requerem muitos parâmetros, o conhecimento de um especialista ou um grande número de amostras para serem viáveis. Por outro lado, o Aprendizado por Reforço é uma abordagem adaptável orientada a objetivos que não requer grandes conjuntos de dados rotulados e muitos parâmetros; pode prover soluções de boa qualidade em um tempo de execução viável; e pode funcionar automaticamente por um longo tempo sem a necessidade de um especialista, mas ainda precisa de algumas melhorias para lidar com sua escalabilidade. Portanto, esta tese propõe uma forma de adaptar o Aprendizado por Reforço ao domínio de inferência de redes de regulação gênica, realizando uma melhoria em seu desempenho, usando Aprendizado por Reforço Profundo, uma estrutura que utiliza aproximações e pode fornecer melhores soluções com menos esforço computacional. Com isso portanto, podemos obter redes com qualidade comparável ou até mesmo superior às obtidas por busca exaustiva, mas em um tempo de execução muito menor. Uma avaliação experimental mostra que a proposta desta tese é promissora em aprender e encontrar com sucesso boas soluções em um tempo razoável, escalando bem para redes de tamanho realista contendo centenas ou milhares de genes. Dentre as perspectivas futuras proporcionadas por este trabalho, a escalabilidade para redes com milhares de genes pode ser melhorada com possíveis implementações mais eficientes em relação ao consumo de memória e com o emprego de computação paralela.

7
  • VICTOR ALEXANDRE PLOEGER MANSUELI
  • Motifs em grafos para medição de interdisciplinaridade na composição de bancas de defesa

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 06/12/2024

  • Mostrar Resumo
  • Bancas de avaliação podem ser constituídas com o propósito de julgar a qualidade de determinado produto submetido à sua apreciação, e este produto pode representar, entre outros, o resultado de uma pesquisa acadêmica. A titulação de mestres e doutores no mundo é uma faceta da formação de recursos humanos, e a produção intelectual na forma de dissertações e teses é um dos componentes essenciais e indispensáveis para a evolução permanente da Ciência, empreendimento humano onde áreas do conhecimento (disciplinas ou campos de pesquisa) interagem. Bancas de defesa acadêmicas, como instâncias avaliadoras com poder de indeferimento, respondem tanto pela proficiência do recurso humano que se forma, como pela contribuição que sua pesquisa possa oferecer ao meio social onde está inserida. E, mesmo que esta pesquisa seja classificada como de uma área específica do conhecimento, ela pode ser avaliada por cientistas de áreas distintas, configurando uma interação tratada aqui como "interdisciplinar". A interdisciplinaridade estabelece relações entre duas ou mais áreas, e muitas vezes está presente em uma banca de defesa, devido ao caráter dinâmico de sua composição. Utilizando grafos na modelagem de bancas, podemos tratar os relacionamentos entre os membros participantes como uma rede social acadêmica, conforme o papel desempenhado por eles (avaliados, avaliadores ou orientadores), se beneficiando de métodos, técnicas e algoritmos existentes. Foram utilizados 3 modelos de grafos acadêmicos para representar estes relacionamentos: (i) avaliações, (ii) convites e (iii) coparticipações. Estas distintas configurações na composição das bancas geram (sub)estruturas topológicas na forma de padrões recorrentes (motifs), denotando propriedades comportamentais e funcionais que são intrínsecas à rede analisada. A descoberta dos motifs mais frequentes utilizando um algoritmo eficiente e, posteriormente, a sua busca nas redes originais, permitiram extrair os relacionamentos mais comuns em cada uma das 66 áreas do conhecimento estudadas e, a partir das informações sobre os membros (acadêmicos), medir o quanto estes relacionamentos são interdisciplinares. Como método adaptamos um Processo de Descoberta de Conhecimento (PDC), sistematizando as etapas necessárias para viabilizar a medição: coleta de dados; pré-processamento; transformação/visualização; rotulação; mineração de grafos; pós-processamento. Para experimentação foi utilizado um conjunto de dados real: o Catálogo de Teses e Dissertações da CAPES, com mais de meio milhão de trabalhos de conclusão, coletados no período 2013-2020 (8 anos). Grafos ponderados de interdisciplinaridade foram então projetados a partir dos relacionamentos entre os membros participantes. Além de identificar as áreas do conhecimento que mais interagiram no período (Ecologia, Educação, Linguística, Zoologia), a nossa Análise de Componentes Principais (PCA) a partir das propriedades e métricas topológicas dos grafos de interdisciplinaridade, assim como a análise visual de dendrogramas, evidenciaram áreas de destaque como Bioquímica, Educação, Química e Sociologia.


  • Mostrar Abstract
  • Bancas de avaliação podem ser constituídas com o propósito de julgar a qualidade de determinado produto submetido à sua apreciação, e este produto pode representar, entre outros, o resultado de uma pesquisa acadêmica. A titulação de mestres e doutores no mundo é uma faceta da formação de recursos humanos, e a produção intelectual na forma de dissertações e teses é um dos componentes essenciais e indispensáveis para a evolução permanente da Ciência, empreendimento humano onde áreas do conhecimento (disciplinas ou campos de pesquisa) interagem. Bancas de defesa acadêmicas, como instâncias avaliadoras com poder de indeferimento, respondem tanto pela proficiência do recurso humano que se forma, como pela contribuição que sua pesquisa possa oferecer ao meio social onde está inserida. E, mesmo que esta pesquisa seja classificada como de uma área específica do conhecimento, ela pode ser avaliada por cientistas de áreas distintas, configurando uma interação tratada aqui como "interdisciplinar". A interdisciplinaridade estabelece relações entre duas ou mais áreas, e muitas vezes está presente em uma banca de defesa, devido ao caráter dinâmico de sua composição. Utilizando grafos na modelagem de bancas, podemos tratar os relacionamentos entre os membros participantes como uma rede social acadêmica, conforme o papel desempenhado por eles (avaliados, avaliadores ou orientadores), se beneficiando de métodos, técnicas e algoritmos existentes. Foram utilizados 3 modelos de grafos acadêmicos para representar estes relacionamentos: (i) avaliações, (ii) convites e (iii) coparticipações. Estas distintas configurações na composição das bancas geram (sub)estruturas topológicas na forma de padrões recorrentes (motifs), denotando propriedades comportamentais e funcionais que são intrínsecas à rede analisada. A descoberta dos motifs mais frequentes utilizando um algoritmo eficiente e, posteriormente, a sua busca nas redes originais, permitiram extrair os relacionamentos mais comuns em cada uma das 66 áreas do conhecimento estudadas e, a partir das informações sobre os membros (acadêmicos), medir o quanto estes relacionamentos são interdisciplinares. Como método adaptamos um Processo de Descoberta de Conhecimento (PDC), sistematizando as etapas necessárias para viabilizar a medição: coleta de dados; pré-processamento; transformação/visualização; rotulação; mineração de grafos; pós-processamento. Para experimentação foi utilizado um conjunto de dados real: o Catálogo de Teses e Dissertações da CAPES, com mais de meio milhão de trabalhos de conclusão, coletados no período 2013-2020 (8 anos). Grafos ponderados de interdisciplinaridade foram então projetados a partir dos relacionamentos entre os membros participantes. Além de identificar as áreas do conhecimento que mais interagiram no período (Ecologia, Educação, Linguística, Zoologia), a nossa Análise de Componentes Principais (PCA) a partir das propriedades e métricas topológicas dos grafos de interdisciplinaridade, assim como a análise visual de dendrogramas, evidenciaram áreas de destaque como Bioquímica, Educação, Química e Sociologia.

2023
Dissertações
1
  • DANIEL D'ANGELO RESENDE BARROS
  • Analisando o comportamento da performance na entrega de software em projetos open source em timeline de release por meio de métricas de entrega 

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 14/04/2023

  • Mostrar Resumo
  • O desenvolvimento de software tornou-se um dos principais fatores para a entrega de serviços hoje. Há uma demanda crescente por entrega de software mais rápida, chamada aqui de Release. Surgiram métodos de desenvolvimento ágil que estão ajudando a acelerar a entrega de software. Assim, o desempenho de entrega de software melhorou em termos de frequência convergindo para ciclos de lançamento rápidos que podem reduzir o tempo de lançamento. No entanto, apenas usar ciclos rápidos pode não ser suficiente, pois medir a entrega de software levanta algumas questões importantes, como está ocorrendo o processo de entrega de software e como deveria ser. Surgiram várias estratégias para medir a entrega de software, incluindo Software Delivery Performance (SDP), em que a entrega de software é estimada em termos de capacidades. Popularidade em Projetos de Software de Código Aberto (OSSP) significa que um projeto é suficientemente reconhecido na comunidade para atender à demanda e, portanto, provavelmente estará pronto para ser medido por meio de uma abordagem de entrega de software como o SDP. Diante disso, este trabalho oferece maneiras de analisar o comportamento do SDP em OSSP populares em uma linha do tempo de Release por meio de métricas na logística de entrega. Os resultados demonstraram que a popularidade é uma abordagem eficiente, aumentando a confiabilidade e a precisão do trabalho. Conclui-se que a produtividade do desenvolvedor melhora o SDP, e o valor deste trabalho é que ele é capaz de analisar o comportamento do SDP no OSSP em uma linha do tempo de lançamento por meio de métricas de entrega de maneira automatizada. O código-fonte que implementa a metodologia é publicado como um pacote de replicação, e o conjunto de dados final com entradas e saídas está disponível para incentivar a reprodutibilidade e pesquisas futuras.


  • Mostrar Abstract
  • O desenvolvimento de software tornou-se um dos principais fatores para a entrega de serviços hoje. Há uma demanda crescente por entrega de software mais rápida, chamada aqui de Release. Surgiram métodos de desenvolvimento ágil que estão ajudando a acelerar a entrega de software. Assim, o desempenho de entrega de software melhorou em termos de frequência convergindo para ciclos de lançamento rápidos que podem reduzir o tempo de lançamento. No entanto, apenas usar ciclos rápidos pode não ser suficiente, pois medir a entrega de software levanta algumas questões importantes, como está ocorrendo o processo de entrega de software e como deveria ser. Surgiram várias estratégias para medir a entrega de software, incluindo Software Delivery Performance (SDP), em que a entrega de software é estimada em termos de capacidades. Popularidade em Projetos de Software de Código Aberto (OSSP) significa que um projeto é suficientemente reconhecido na comunidade para atender à demanda e, portanto, provavelmente estará pronto para ser medido por meio de uma abordagem de entrega de software como o SDP. Diante disso, este trabalho oferece maneiras de analisar o comportamento do SDP em OSSP populares em uma linha do tempo de Release por meio de métricas na logística de entrega. Os resultados demonstraram que a popularidade é uma abordagem eficiente, aumentando a confiabilidade e a precisão do trabalho. Conclui-se que a produtividade do desenvolvedor melhora o SDP, e o valor deste trabalho é que ele é capaz de analisar o comportamento do SDP no OSSP em uma linha do tempo de lançamento por meio de métricas de entrega de maneira automatizada. O código-fonte que implementa a metodologia é publicado como um pacote de replicação, e o conjunto de dados final com entradas e saídas está disponível para incentivar a reprodutibilidade e pesquisas futuras.

2
  • JULIANA DA SILVA LINHARES BEDA
  • Acessibilidade em Ambientes Virtuais de Aprendizagem sob a perspectiva do Desenho Universal

  • Orientador : DENISE HIDEKO GOYA
  • Data: 06/06/2023

  • Mostrar Resumo
  • A Lei Brasileira de Inclusão da Pessoa com Deficiência garante os direitos de acesso, inclusão e participação das pessoas com deficiência (PcD) em diferentes esferas da sociedade. Porém, para conviver nesses espaços, reais ou virtuais, as PcD precisam que eles sejam projetados em uma perspectiva inclusiva.  No contexto educacional, considerando os espaços virtuais, há os Ambientes Virtuais de Aprendizagem (AVA), nos quais existe a necessidade de desenvolver elementos que permitam a autonomia em todas as formas de interação e interatividade que o ambiente propõe.  Este trabalho tem como principal objetivo elaborar, categorizar e avaliar um conjunto de critérios de acessibilidade visando o desenho universal para elaboração de cursos e disciplinas instanciados em ambientes virtuais de aprendizagem. Com esse propósito foi elaborado um conjunto de critérios de acessibilidade, com base no levantamento realizado por meio de um mapeamento sistemático da literatura. Os critérios foram categorizados em Design de Interação, Design Visual e Design de Conteúdo Visual, Audiovisual e Verbal, de acordo com o Design Psicologicamente Inclusivo, além de serem classificados em função de quem pode aplicá-los (desenvolvedores de sistemas, designers instrucionais e educadores). Em seguida, foi criada uma lista, com base no refinamento do conjunto, com critérios aplicáveis por educadores para dar suporte à estruturação de cursos e disciplinas mais acessíveis, instanciados em ambientes virtuais de aprendizagem. A lista foi avaliada em duas etapas: (i) 13 especialistas, profissionais da educação e da educação especial e inclusiva, avaliaram 9 critérios de qualidade -- relevância, corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade, usabilidade; e, (ii) avaliação da usabilidade e flexibilidade da lista aplicando em um cenário real, o AVA Moodle instalado e configurado para a Universidade Federal do ABC. A avaliação qualitativa das respostas dos especialistas aponta a relevância, autenticidade e flexibilidade da lista. O Moodle utilizado para os testes, com um plugin de acessibilidade instalado, atende critérios como acesso por leitores de tela, opções de alteração das cores para visualização e possibilidade de diferentes formas de acessar e concluir atividades abertas. Contudo, continua com deficiências para disponibilização dos conteúdos em Libras, opções para visualização de vídeos, limitações aos tipos de conteúdo disponibilizados em fóruns e ampla dependência dos conhecimentos do educador sobre acessibilidade para manipulação do conteúdo. Ambas etapas avaliativas indicaram aprimoramentos de qualidade, especialmente para melhoria da usabilidade da lista de critérios de acessibilidade.  A avaliação com o Moodle permitiu verificar também a aderência de um AVA à lista, durante a elaboração de cursos e disciplinas mais inclusivos por educadores; como resultado, foram obtidas evidências de que o ambiente requer evolução e atenção principalmente em aspectos relacionados a vídeos e a conteúdo em Libras, considerando o cenário de teste.


  • Mostrar Abstract
  • A Lei Brasileira de Inclusão da Pessoa com Deficiência garante os direitos de acesso, inclusão e participação das pessoas com deficiência (PcD) em diferentes esferas da sociedade. Porém, para conviver nesses espaços, reais ou virtuais, as PcD precisam que eles sejam projetados em uma perspectiva inclusiva.  No contexto educacional, considerando os espaços virtuais, há os Ambientes Virtuais de Aprendizagem (AVA), nos quais existe a necessidade de desenvolver elementos que permitam a autonomia em todas as formas de interação e interatividade que o ambiente propõe.  Este trabalho tem como principal objetivo elaborar, categorizar e avaliar um conjunto de critérios de acessibilidade visando o desenho universal para elaboração de cursos e disciplinas instanciados em ambientes virtuais de aprendizagem. Com esse propósito foi elaborado um conjunto de critérios de acessibilidade, com base no levantamento realizado por meio de um mapeamento sistemático da literatura. Os critérios foram categorizados em Design de Interação, Design Visual e Design de Conteúdo Visual, Audiovisual e Verbal, de acordo com o Design Psicologicamente Inclusivo, além de serem classificados em função de quem pode aplicá-los (desenvolvedores de sistemas, designers instrucionais e educadores). Em seguida, foi criada uma lista, com base no refinamento do conjunto, com critérios aplicáveis por educadores para dar suporte à estruturação de cursos e disciplinas mais acessíveis, instanciados em ambientes virtuais de aprendizagem. A lista foi avaliada em duas etapas: (i) 13 especialistas, profissionais da educação e da educação especial e inclusiva, avaliaram 9 critérios de qualidade -- relevância, corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade, usabilidade; e, (ii) avaliação da usabilidade e flexibilidade da lista aplicando em um cenário real, o AVA Moodle instalado e configurado para a Universidade Federal do ABC. A avaliação qualitativa das respostas dos especialistas aponta a relevância, autenticidade e flexibilidade da lista. O Moodle utilizado para os testes, com um plugin de acessibilidade instalado, atende critérios como acesso por leitores de tela, opções de alteração das cores para visualização e possibilidade de diferentes formas de acessar e concluir atividades abertas. Contudo, continua com deficiências para disponibilização dos conteúdos em Libras, opções para visualização de vídeos, limitações aos tipos de conteúdo disponibilizados em fóruns e ampla dependência dos conhecimentos do educador sobre acessibilidade para manipulação do conteúdo. Ambas etapas avaliativas indicaram aprimoramentos de qualidade, especialmente para melhoria da usabilidade da lista de critérios de acessibilidade.  A avaliação com o Moodle permitiu verificar também a aderência de um AVA à lista, durante a elaboração de cursos e disciplinas mais inclusivos por educadores; como resultado, foram obtidas evidências de que o ambiente requer evolução e atenção principalmente em aspectos relacionados a vídeos e a conteúdo em Libras, considerando o cenário de teste.

3
  • FABIANA NAOMI IEGAWA
  • Aprendizado Profundo Aplicado em SLAM Visual para Identificar Fechamento de Loop

  • Orientador : WAGNER TANAKA BOTELHO
  • Data: 07/06/2023

  • Mostrar Resumo
  • Na Robótica, a navegação autônoma vem sendo abordada nos últimos anos devido ao potencial de aplicações em diferentes áreas, como industrial, saúde e entretenimento. A capacidade de navegar, seja de veículos autônomos ou robôs de serviço, está relacionada ao problema do Mapeamento e Localização Simultâneos, do inglês Simultaneous Localization And Mapping (SLAM). O Fechamento de Loop, no contexto do SLAM Visual, utiliza as informações presentes nas imagens para identificar ambientes previamente visitados, permitindo a correção e atualização do mapa e da localização do robô. O objetivo deste trabalho é apresentar um sistema para identificar o Fechamento de Loop em ambiente simulado no Gazebo e com imagens reais dos datasets públicos KITTI e TUM. Para isso, as Redes Neurais (RNs) AlexNet, ConvNeXt, ResNet, VGG-16 Original, VGG-16 Adaptada e Treinada, e VisionTransformer foram utilizadas e os resultados analisados. A VGG-16 Adaptada e Treinada foi criada a partir da VGG-16 Original por meio do conceito de transferência de aprendizado. No treinamento, foram utilizadas imagens virtuais do Gazebo para diminuir a dimensão dos descritores e aumentar a acurácia na extração de features. A implementação do sistema de Fechamento de Loop foi feita a partir do pré-processamento da imagem com a divisão em regiões direita e esquerda. Em seguida, as RNs foram utilizadas na extração de features e geração dos descritores. O limite das distâncias e a sequência de imagens foram definidos para melhorar a performance na comparação de imagens. Por fim, os resultados de cada RN foram analisados com base nas métricas de Acurácia, F1-Score, curva ROC e Area Under the Curve (AUC).


  • Mostrar Abstract
  • Na Robótica, a navegação autônoma vem sendo abordada nos últimos anos devido ao potencial de aplicações em diferentes áreas, como industrial, saúde e entretenimento. A capacidade de navegar, seja de veículos autônomos ou robôs de serviço, está relacionada ao problema do Mapeamento e Localização Simultâneos, do inglês Simultaneous Localization And Mapping (SLAM). O Fechamento de Loop, no contexto do SLAM Visual, utiliza as informações presentes nas imagens para identificar ambientes previamente visitados, permitindo a correção e atualização do mapa e da localização do robô. O objetivo deste trabalho é apresentar um sistema para identificar o Fechamento de Loop em ambiente simulado no Gazebo e com imagens reais dos datasets públicos KITTI e TUM. Para isso, as Redes Neurais (RNs) AlexNet, ConvNeXt, ResNet, VGG-16 Original, VGG-16 Adaptada e Treinada, e VisionTransformer foram utilizadas e os resultados analisados. A VGG-16 Adaptada e Treinada foi criada a partir da VGG-16 Original por meio do conceito de transferência de aprendizado. No treinamento, foram utilizadas imagens virtuais do Gazebo para diminuir a dimensão dos descritores e aumentar a acurácia na extração de features. A implementação do sistema de Fechamento de Loop foi feita a partir do pré-processamento da imagem com a divisão em regiões direita e esquerda. Em seguida, as RNs foram utilizadas na extração de features e geração dos descritores. O limite das distâncias e a sequência de imagens foram definidos para melhorar a performance na comparação de imagens. Por fim, os resultados de cada RN foram analisados com base nas métricas de Acurácia, F1-Score, curva ROC e Area Under the Curve (AUC).

4
  • KANAN CASTRO SILVA
  • Uma abordagem baseada em aprendizagem de máquina para apoiar o design bottom-up de comportamentos emergentes simples em Sistemas-de-Sistemas

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 06/07/2023

  • Mostrar Resumo
  • Sistemas-de-Sistemas (SoS) são compostos de sistemas independentes chamados constituintes os quais, em conjunto, atingem uma série de objetivos através de comportamentos emergentes. Estes comportamentos podem ser deliberadamente planejados como uma combinação das funcionalidades individuais fornecidas pelos constituintes. Atualmente, as partes interessadas em SoS dependem fortemente da criatividade dos engenheiros para combinar estas funcionalidades e projetar os comportamentos. A limitação da percepção humana em cenários complexos pode levar à engenharia de arranjos sub-ótimos de SoS, oferecendo comportamentos globais que são limitados às habilidades e experiência prévia do engenheiro, potencialmente causando desperdício de recursos, serviços sub-ótimos e qualidade reduzida. Neste sentido, a contribuição principal deste trabalho é a introdução de um mecanismo baseado em aprendizagem de máquina para inferir/sugerir comportamentos emergentes que poderiam ser projetados sobre um dado conjunto de constituintes. Um \textit{dataset} inicial foi elaborado a partir de um mapeamento sistemático para alimentar o mecanismo e uma aplicação \textit{web} foi desenvolvida como um meio de permitir que \textit{experts} pudessem avaliar este mecanismo por meio de um processo específico. Os relatos destes \textit{experts} e as estatísticas coletadas sobre os dados de uso da aplicação revelaram que esta é uma técnica promissora na busca pela extrapolação das capacidades humanas e visualização de comportamentos globais, revelando comportamentos não previstos pelos engenheiros (ainda que presentes no dataset inicial) que poderiam ser oferecidos pelo SoS, além de auxiliar os engenheiros com (i) comportamentos mais diversificados e (ii) SoS com qualidade aprimorada.


  • Mostrar Abstract
  • Sistemas-de-Sistemas (SoS) são compostos de sistemas independentes chamados constituintes os quais, em conjunto, atingem uma série de objetivos através de comportamentos emergentes. Estes comportamentos podem ser deliberadamente planejados como uma combinação das funcionalidades individuais fornecidas pelos constituintes. Atualmente, as partes interessadas em SoS dependem fortemente da criatividade dos engenheiros para combinar estas funcionalidades e projetar os comportamentos. A limitação da percepção humana em cenários complexos pode levar à engenharia de arranjos sub-ótimos de SoS, oferecendo comportamentos globais que são limitados às habilidades e experiência prévia do engenheiro, potencialmente causando desperdício de recursos, serviços sub-ótimos e qualidade reduzida. Neste sentido, a contribuição principal deste trabalho é a introdução de um mecanismo baseado em aprendizagem de máquina para inferir/sugerir comportamentos emergentes que poderiam ser projetados sobre um dado conjunto de constituintes. Um \textit{dataset} inicial foi elaborado a partir de um mapeamento sistemático para alimentar o mecanismo e uma aplicação \textit{web} foi desenvolvida como um meio de permitir que \textit{experts} pudessem avaliar este mecanismo por meio de um processo específico. Os relatos destes \textit{experts} e as estatísticas coletadas sobre os dados de uso da aplicação revelaram que esta é uma técnica promissora na busca pela extrapolação das capacidades humanas e visualização de comportamentos globais, revelando comportamentos não previstos pelos engenheiros (ainda que presentes no dataset inicial) que poderiam ser oferecidos pelo SoS, além de auxiliar os engenheiros com (i) comportamentos mais diversificados e (ii) SoS com qualidade aprimorada.

5
  • ANDRÉ RICARDO RAUCCI
  • Ciência de dados na análise de conflitos em redes sociais online

  • Orientador : ITANA STIUBIENER
  • Data: 19/09/2023

  • Mostrar Resumo
  • Com o avanço da tecnologia na sociedade, é possível observar que a Internet, as redes sociais online, algoritmos e dados estão cada vez mais presentes na vida das pessoas [1]. Com o surgimento da pandemia do COVID-19 no início de 2020, tornou-se inconveniente e perigoso o contato pessoal. Uma vez que o distanciamento social se tornou obrigatório por lei, a sociedade buscou maneiras de acelerar a transformação digital [102], inclusive para resolver problemas de comunicação que, anteriormente, eram resolvidos pessoalmente [104], [105]. Como resultado, também surgiram muitos embates nas redes sociais, onde cada pessoa ou grupo realiza verdadeiras batalhas para impor suas narrativas e opiniões [16]. O Twitter é uma plataforma de mídia social popular que com vários tipos de conteúdo, permitindo que os usuários escrevam mensagens curtas, chamadas “tuites”, compostas por no máximo 280 caracteres [103]. Com mais de 500 milhões de tuítes postados todos os dias [109], o Twitter se tornou um recurso de dados muito valioso para se obter percepções do mundo real. No domínio da saúde, também foi adotado pelos usuários para compartilhar seu estado de saúde, sua experiência com os cuidados e opções, bem como foi adotado para compartilhar e buscar mais amplamente informações de saúde de seu interesse, atraindo a atenção de pesquisadores clínicos e biomédicos com o objetivo final de melhorar os resultados de seus pacientes [54], [55], [56], [57]. O processo de alta polarização nas redes sociais em debates políticos e vacinas (principalmente Coronavírus) resultou em uma grande fragmentação social, pois dois ou mais grupos não chegaram em um consenso [3]. Sendo assim, foi identificada uma oportunidade de realizar-se um estudo de identificação de usuários polarizadores e entender o motivo desta polarização. Este trabalho foi realizado no contexto do projeto de pesquisa denominado: "Observatório de Conflitos de Internet", que foi desenvolvido por pesquisadores da Universidade Federal do ABC. O trabalho propõe um processo de identificação e classificação de conflitos em redes sociais, no contexto da discussão da vacina. Então, com a proposta deste trabalho, tem-se melhor compreensão sobre este fenômeno.


  • Mostrar Abstract
  • Com o avanço da tecnologia na sociedade, é possível observar que a Internet, as redes sociais online, algoritmos e dados estão cada vez mais presentes na vida das pessoas [1]. Com o surgimento da pandemia do COVID-19 no início de 2020, tornou-se inconveniente e perigoso o contato pessoal. Uma vez que o distanciamento social se tornou obrigatório por lei, a sociedade buscou maneiras de acelerar a transformação digital [102], inclusive para resolver problemas de comunicação que, anteriormente, eram resolvidos pessoalmente [104], [105]. Como resultado, também surgiram muitos embates nas redes sociais, onde cada pessoa ou grupo realiza verdadeiras batalhas para impor suas narrativas e opiniões [16]. O Twitter é uma plataforma de mídia social popular que com vários tipos de conteúdo, permitindo que os usuários escrevam mensagens curtas, chamadas “tuites”, compostas por no máximo 280 caracteres [103]. Com mais de 500 milhões de tuítes postados todos os dias [109], o Twitter se tornou um recurso de dados muito valioso para se obter percepções do mundo real. No domínio da saúde, também foi adotado pelos usuários para compartilhar seu estado de saúde, sua experiência com os cuidados e opções, bem como foi adotado para compartilhar e buscar mais amplamente informações de saúde de seu interesse, atraindo a atenção de pesquisadores clínicos e biomédicos com o objetivo final de melhorar os resultados de seus pacientes [54], [55], [56], [57]. O processo de alta polarização nas redes sociais em debates políticos e vacinas (principalmente Coronavírus) resultou em uma grande fragmentação social, pois dois ou mais grupos não chegaram em um consenso [3]. Sendo assim, foi identificada uma oportunidade de realizar-se um estudo de identificação de usuários polarizadores e entender o motivo desta polarização. Este trabalho foi realizado no contexto do projeto de pesquisa denominado: "Observatório de Conflitos de Internet", que foi desenvolvido por pesquisadores da Universidade Federal do ABC. O trabalho propõe um processo de identificação e classificação de conflitos em redes sociais, no contexto da discussão da vacina. Então, com a proposta deste trabalho, tem-se melhor compreensão sobre este fenômeno.

6
  • JARRIV ALCANTARA DE OLIVEIRA REGINALDO
  • OlharTEA: Sistema inteligente para auxiliar o profissional de saúde na tomada de decisão sobre crianças inseridas no TEA

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 02/10/2023

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) caracteriza-se por adversidades na área de neurodesenvolvimento, afetando uma a cada 200 pessoas, aproximadamente. Afeta as áreas de socialização, comunicação e aprendizado. Uma pessoa inserida no TEA já nasce com o transtorno, não havendo cura para tal situação. Essa dissertação descreve o olharTEA, sistema desenvolvido para utilizar a maneira peculiar como os olhos de pessoas inseridas no TEA reagem a certos tipos de imagens, para auxiliar a área médica no diagnóstico em crianças de cinco a 12 anos. O olharTEA consiste na utilização de uma webcam para captação do mapa focal de crianças, comparando-o com mapas focais de diversas crianças estudadas previamente de dentro e fora do TEA, disponibilizados por um Dataset público. A comparação é possível, ao serem utilizados 34 métodos de classificação da ferramenta de inteligência artificial (IA) Sklearn, do Python, onde os melhores classificadores em precisão foram o SVC, KNeighborsClassifier e HistGradientBoostingClassifier. Isso permitiu ao olharTEA realizar a predição desejada, indicando as chances de a criança analisada estar dentro ou fora do TEA. Testes de usabilidade foram conduzidos com 13 adultos, e os seus feedbacks sugeriram possíveis ajustes, como a cor de fundo, a velocidade de transição das imagens apresentadas e a localização dos botões de controle do olharTEA. A média de satisfação da usabilidade geral foi de 4,69, de um máximo de 5 possíveis. Com o desenvolvimento do olharTEA, nota-se que existem possibilidades para estudos diversos referentes ao uso de computadores para diagnóstico de doenças e transtornos diversos, como o TEA.


  • Mostrar Abstract
  • O Transtorno do Espectro Autista (TEA) caracteriza-se por adversidades na área de neurodesenvolvimento, afetando uma a cada 200 pessoas, aproximadamente. Afeta as áreas de socialização, comunicação e aprendizado. Uma pessoa inserida no TEA já nasce com o transtorno, não havendo cura para tal situação. Essa dissertação descreve o olharTEA, sistema desenvolvido para utilizar a maneira peculiar como os olhos de pessoas inseridas no TEA reagem a certos tipos de imagens, para auxiliar a área médica no diagnóstico em crianças de cinco a 12 anos. O olharTEA consiste na utilização de uma webcam para captação do mapa focal de crianças, comparando-o com mapas focais de diversas crianças estudadas previamente de dentro e fora do TEA, disponibilizados por um Dataset público. A comparação é possível, ao serem utilizados 34 métodos de classificação da ferramenta de inteligência artificial (IA) Sklearn, do Python, onde os melhores classificadores em precisão foram o SVC, KNeighborsClassifier e HistGradientBoostingClassifier. Isso permitiu ao olharTEA realizar a predição desejada, indicando as chances de a criança analisada estar dentro ou fora do TEA. Testes de usabilidade foram conduzidos com 13 adultos, e os seus feedbacks sugeriram possíveis ajustes, como a cor de fundo, a velocidade de transição das imagens apresentadas e a localização dos botões de controle do olharTEA. A média de satisfação da usabilidade geral foi de 4,69, de um máximo de 5 possíveis. Com o desenvolvimento do olharTEA, nota-se que existem possibilidades para estudos diversos referentes ao uso de computadores para diagnóstico de doenças e transtornos diversos, como o TEA.

7
  • MARCELO BANHOS DE ALMEIDA SCAVASSA
  • PDFNoteTrack: Uma Ferramenta para Acompanhar o Engajamento de Estudantes em Atividades de Leitura de Textos no ambiente Moodle

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 03/10/2023

  • Mostrar Resumo
  • A falta de engajamento dos estudantes é um problema frequente tanto na educação presencial quanto na educação mediada por tecnologias. Pesquisas apontam que a falta de engajamento na educação online decorre de fatores como falta de planejamento, materiais instrucionais pouco instigantes, e abordagem pedagógica, dentre outros. Diversas são as consequências da falta de engajamento, tais como: insucesso escolar, evasão e baixos índices de aprendizagem. Mensurar o engajamento dos estudantes não é uma tarefa trivial e diversas pesquisas mostram o uso de dados coletados por observadores ou relatados por participantes dos experimentos. De fato, parece haver uma carência de pesquisas que relatem a mensuração de níveis de engajamento em ambientes virtuais de aprendizagem de forma automática, ou seja, de maneira menos intrusiva. A partir desta motivação e problematização a seguinte questão de pesquisa foi formulada: Como mensurar os níveis de engajamento dos estudantes em atividades de leitura de textos em cursos realizados por meio de um Ambiente Virtual de Aprendizagem? Nesse sentido, este trabalho tem por objetivo apresentar a ferramenta PDFNoteTrack desenvolvida para mensurar o engajamento de Estudantes em Atividades de Leitura de Textos no ambiente Moodle. Um experimento foi realizado com o PDFNoteTrack em uma disciplina de um curso à distância com a participação de 69 estudantes, autorizado pelo Comitê de Ética em Pesquisa da UFABC. Além dos dados de interação com a ferramenta o experimento coletou as respostas dos participantes em três questionários, sendo um deles o System Usability Scale.


  • Mostrar Abstract
  • A falta de engajamento dos estudantes é um problema frequente tanto na educação presencial quanto na educação mediada por tecnologias. Pesquisas apontam que a falta de engajamento na educação online decorre de fatores como falta de planejamento, materiais instrucionais pouco instigantes, e abordagem pedagógica, dentre outros. Diversas são as consequências da falta de engajamento, tais como: insucesso escolar, evasão e baixos índices de aprendizagem. Mensurar o engajamento dos estudantes não é uma tarefa trivial e diversas pesquisas mostram o uso de dados coletados por observadores ou relatados por participantes dos experimentos. De fato, parece haver uma carência de pesquisas que relatem a mensuração de níveis de engajamento em ambientes virtuais de aprendizagem de forma automática, ou seja, de maneira menos intrusiva. A partir desta motivação e problematização a seguinte questão de pesquisa foi formulada: Como mensurar os níveis de engajamento dos estudantes em atividades de leitura de textos em cursos realizados por meio de um Ambiente Virtual de Aprendizagem? Nesse sentido, este trabalho tem por objetivo apresentar a ferramenta PDFNoteTrack desenvolvida para mensurar o engajamento de Estudantes em Atividades de Leitura de Textos no ambiente Moodle. Um experimento foi realizado com o PDFNoteTrack em uma disciplina de um curso à distância com a participação de 69 estudantes, autorizado pelo Comitê de Ética em Pesquisa da UFABC. Além dos dados de interação com a ferramenta o experimento coletou as respostas dos participantes em três questionários, sendo um deles o System Usability Scale.

8
  • HENRIQUE GUIRELLI
  • PM.NET: Uma biblioteca de desenvolvimento para memória persistente com C#

  • Orientador : EMILIO DE CAMARGO FRANCESQUINI
  • Data: 09/10/2023

  • Mostrar Resumo
  • Alternativas de diferentes tecnologias para substituir a memória RAM estão sendo pesquisadas e ganhando mais espaço no setor privado. Em particular, a Intel desenvolveu um tipo de memória endereçável por bytes, mas com a característica de ser persistente e que se aproxima do desempenho da memória RAM; essa tecnologia foi nomeada memória persistente. Junto à memória persistente a Intel também fornece um conjunto de bibliotecas escritas em C e C++ que abstrai detalhes de hardware e permite o desenvolvimento de aplicações que utilizam a nova memória. Em contrapartida,  a biblioteca fornecida é de difícil uso; é fácil cometer erros na sua utilização e adicionar bugs persistentes no código.
        
    Neste trabalho apresentamos a PM.NET, uma biblioteca em C# para desenvolvimento de aplicações que utilizam memória persistente. A biblioteca PM.NET oferece uma interface simples e orientada a objetos para o desenvolvimento em memória persistente, com gerenciamento automático da memória persistente (incluindo coleta de lixo). Uma vez identificados os objetos raiz a serem persistidos, a PM.NET transforma automaticamente todos os objetos relevantes em objetos persistentes. Adicionalmente, o PM.NET proporciona uma forma de envolver objetos voláteis em objetos persistentes com proxies, minimizando as alterações de código necessárias para o uso da memória persistente com desempenho comparável a banco de dados relacionais.


  • Mostrar Abstract
  • Alternativas de diferentes tecnologias para substituir a memória RAM estão sendo pesquisadas e ganhando mais espaço no setor privado. Em particular, a Intel desenvolveu um tipo de memória endereçável por bytes, mas com a característica de ser persistente e que se aproxima do desempenho da memória RAM; essa tecnologia foi nomeada memória persistente. Junto à memória persistente a Intel também fornece um conjunto de bibliotecas escritas em C e C++ que abstrai detalhes de hardware e permite o desenvolvimento de aplicações que utilizam a nova memória. Em contrapartida,  a biblioteca fornecida é de difícil uso; é fácil cometer erros na sua utilização e adicionar bugs persistentes no código.
        
    Neste trabalho apresentamos a PM.NET, uma biblioteca em C# para desenvolvimento de aplicações que utilizam memória persistente. A biblioteca PM.NET oferece uma interface simples e orientada a objetos para o desenvolvimento em memória persistente, com gerenciamento automático da memória persistente (incluindo coleta de lixo). Uma vez identificados os objetos raiz a serem persistidos, a PM.NET transforma automaticamente todos os objetos relevantes em objetos persistentes. Adicionalmente, o PM.NET proporciona uma forma de envolver objetos voláteis em objetos persistentes com proxies, minimizando as alterações de código necessárias para o uso da memória persistente com desempenho comparável a banco de dados relacionais.

9
  • RAQUEL SOARES QUEIROZ
  • Estudo de Redes Neurais Recorrentes Aplicadas a Sistemas de Interface Cérebro-Computador

  • Orientador : DENIS GUSTAVO FANTINATO
  • Data: 18/10/2023

  • Mostrar Resumo
  • Os Sistemas de Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface) visam estabelecer uma conexão de sinais cerebrais com dispositivos do mundo externo e abrem oportunidades de serem auxiliadores em aplicações médicas ou até mesmo no campo do entretenimento. Os sinais cerebrais obtidos por eletroencefalogramas de superfície (EEG) precisam ser classificados, o que é um desafio fundamental nos sistemas de BCI. Os sinais de EEG podem ser vistos como um conjunto de séries temporais, que podem ser processados de forma eficiente por Redes Neurais Artificiais, em especial as chamadas Redes Neurais Recorrentes (RNN, do inglês Recurrent Neural Networks). Nesse âmbito, a presente pesquisa busca utilizar as RNNs, em particular a rede LSTM (do inglês Long Short-Term Memory), para o processamento dos sinais de EEG em duas frentes. A primeira delas considera a modelagem dos sinais de EEG através de RNNs preditoras, cujos pesos ajustados devem representar, em dimensão reduzida, as características relevantes para a tarefa de classificação. Por meio de comparação com a abordagem anterior, a segunda frente busca classificar os sinais cerebrais por meio de arquiteturas já propostas na literatura, como a EEGNet, porém modificando-a e acrescentando uma ou mais camadas com recorrência, com a finalidade de auxiliar a passagem de informação entre as camadas de convolução que a EEGNet possui. Através dessas duas abordagens, espera-se obter um sistema BCI mais eficiente e que melhor processe os sinais de EEG.


  • Mostrar Abstract
  • Os Sistemas de Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface) visam estabelecer uma conexão de sinais cerebrais com dispositivos do mundo externo e abrem oportunidades de serem auxiliadores em aplicações médicas ou até mesmo no campo do entretenimento. Os sinais cerebrais obtidos por eletroencefalogramas de superfície (EEG) precisam ser classificados, o que é um desafio fundamental nos sistemas de BCI. Os sinais de EEG podem ser vistos como um conjunto de séries temporais, que podem ser processados de forma eficiente por Redes Neurais Artificiais, em especial as chamadas Redes Neurais Recorrentes (RNN, do inglês Recurrent Neural Networks). Nesse âmbito, a presente pesquisa busca utilizar as RNNs, em particular a rede LSTM (do inglês Long Short-Term Memory), para o processamento dos sinais de EEG em duas frentes. A primeira delas considera a modelagem dos sinais de EEG através de RNNs preditoras, cujos pesos ajustados devem representar, em dimensão reduzida, as características relevantes para a tarefa de classificação. Por meio de comparação com a abordagem anterior, a segunda frente busca classificar os sinais cerebrais por meio de arquiteturas já propostas na literatura, como a EEGNet, porém modificando-a e acrescentando uma ou mais camadas com recorrência, com a finalidade de auxiliar a passagem de informação entre as camadas de convolução que a EEGNet possui. Através dessas duas abordagens, espera-se obter um sistema BCI mais eficiente e que melhor processe os sinais de EEG.

10
  • THAYNARA CRISTINA MAIA DOS SANTOS
  • Ensino de Robótica Educacional utilizando metodologias lúdicas e ativas para o desenvolvimento do pensamento computacional

  • Orientador : PAULO HENRIQUE PISANI
  • Data: 13/11/2023

  • Mostrar Resumo
  • Com a ascensão, cada vez maior, de tecnologias aplicadas ao ensino, a Robótica Educacional (RE) vem sendo incorporada por escolas de diversos países. Assim, transformando as aulas em momentos mais atrativos e divertidos, propondo resoluções de problemas cotidianos por meio de dispositivos tecnológicos. Neste trabalho, foi investigado uma abordagem com o intuito de introduzir o ensino da RE como ferramenta de ensino-aprendizagem para estimular o Pensamento Computacional (PC) dos alunos do Ensino Médio e Técnico, na Escola Técnica Estadual de Campo Limpo Paulista (ETECAMP). Neste caso, para validar a abordagem proposta, foi conduzido uma pesquisa de campo, com os alunos do 1º ano do curso técnico em Informática para a Internet, aplicando metodologias lúdicas e ativas, através de tecnologias livres ou gratuitas, mediante aulas e atividades semanais. O levantamento de dados foi realizado por meio de dois questionários (inicial e final), de forma que foi possível observar a evolução dos alunos com os incentivos proporcionados pela RE, conforme descrito na literatura, como a melhora do seu conhecimento lógico, da autonomia, da criatividade intelectual e da capacidade de aprendizado dos conteúdos. Após analisar os resultados alcançados, considera-se que é possível introduzir o ensino de RE e o conceito de PC na ETECAMP, tendo em vista que, permitiu aos alunos serem atores no processo de ensino e aprendizagem, além de tornar as aulas dinâmicas e promover um espaço de descontração, mesmo quando exige-se concentração e raciocínio lógico para a resolução de problemas.


  • Mostrar Abstract
  • Com a ascensão, cada vez maior, de tecnologias aplicadas ao ensino, a Robótica Educacional (RE) vem sendo incorporada por escolas de diversos países. Assim, transformando as aulas em momentos mais atrativos e divertidos, propondo resoluções de problemas cotidianos por meio de dispositivos tecnológicos. Neste trabalho, foi investigado uma abordagem com o intuito de introduzir o ensino da RE como ferramenta de ensino-aprendizagem para estimular o Pensamento Computacional (PC) dos alunos do Ensino Médio e Técnico, na Escola Técnica Estadual de Campo Limpo Paulista (ETECAMP). Neste caso, para validar a abordagem proposta, foi conduzido uma pesquisa de campo, com os alunos do 1º ano do curso técnico em Informática para a Internet, aplicando metodologias lúdicas e ativas, através de tecnologias livres ou gratuitas, mediante aulas e atividades semanais. O levantamento de dados foi realizado por meio de dois questionários (inicial e final), de forma que foi possível observar a evolução dos alunos com os incentivos proporcionados pela RE, conforme descrito na literatura, como a melhora do seu conhecimento lógico, da autonomia, da criatividade intelectual e da capacidade de aprendizado dos conteúdos. Após analisar os resultados alcançados, considera-se que é possível introduzir o ensino de RE e o conceito de PC na ETECAMP, tendo em vista que, permitiu aos alunos serem atores no processo de ensino e aprendizagem, além de tornar as aulas dinâmicas e promover um espaço de descontração, mesmo quando exige-se concentração e raciocínio lógico para a resolução de problemas.

11
  • ANDRÉ OLIVEIRA MACEDO
  • Modelos neurais em ambientes virtuais

  • Orientador : FABIO MARQUES SIMOES DE SOUZA
  • Data: 21/11/2023

  • Mostrar Resumo
  • Este projeto investiga a modelagem de redes neurais justapondo diferentes redes neurais no contexto de modelagem de comportamento e aprendizagem por reforço. Aproveitando diversas arquiteturas neurais, incluindo redes densamente conectadas, recorrentes (RNN) e convolucionais (CNN), seus parâmetros e desempenhos são analisados dentro do “jogo da cobra”. Os experimentos apontam maior consumo computacional, maior dificuldade de ajuste de parâmetros, mas maior estabilidade em algumas métricas dos modelos mais detalhados biologicamente, como redes pulsadas e máquinas de estado líquido, revelando uma dinâmica contrastante com o treinamento de redes neurais mais conhecidas como RNN e CNN. Em comparação, esses modelos obtiveram desempenho satisfatório nas tarefas, obtendo pontuações elevadas e produzindo estratégias equilibradas de comportamentos conservadores e exploradores. Concluiu-se que a análise comparativa aprofunda a forma de verificação e compreensão do treinamento de redes neurais, complementando as análises de métricas realizadas para avaliação de redes neurais artificiais, como a perda total ou entropia.


  • Mostrar Abstract
  • Este projeto investiga a modelagem de redes neurais justapondo diferentes redes neurais no contexto de modelagem de comportamento e aprendizagem por reforço. Aproveitando diversas arquiteturas neurais, incluindo redes densamente conectadas, recorrentes (RNN) e convolucionais (CNN), seus parâmetros e desempenhos são analisados dentro do “jogo da cobra”. Os experimentos apontam maior consumo computacional, maior dificuldade de ajuste de parâmetros, mas maior estabilidade em algumas métricas dos modelos mais detalhados biologicamente, como redes pulsadas e máquinas de estado líquido, revelando uma dinâmica contrastante com o treinamento de redes neurais mais conhecidas como RNN e CNN. Em comparação, esses modelos obtiveram desempenho satisfatório nas tarefas, obtendo pontuações elevadas e produzindo estratégias equilibradas de comportamentos conservadores e exploradores. Concluiu-se que a análise comparativa aprofunda a forma de verificação e compreensão do treinamento de redes neurais, complementando as análises de métricas realizadas para avaliação de redes neurais artificiais, como a perda total ou entropia.

12
  • ÁQUILA PORFIRIO ALMEIDA SANTOS
  • Uma abordagem de Design Participativo com a Intercalação de Diferentes Perfis de Usuários

  • Orientador : JOAO PAULO GOIS
  • Data: 30/11/2023

  • Mostrar Resumo
  • No campo em constante evolução da Engenharia de Software, o Design Participativo desponta como uma metodologia inovadora, endereçando a questão fundamental de desenvolver softwares que não apenas atendam às rigorosas exigências técnicas, mas que também estejam profundamente alinhados às necessidades diversificadas e específicas dos usuários finais. Esta problemática é acentuada pela complexidade inerente à compreensão e integração efetiva das demandas e preferências variadas dos usuários no processo de desenvolvimento de software, um desafio que reside na interseção entre Engenharia de Software e Interação Humano-Computador (IHC). A solução proposta por esta metodologia, evidenciada em duas aplicações práticas realizadas na Universidade Federal do ABC (UFABC), com abordagem do Design Participativo com sessões intercaladas, um modelo híbrido que proporciona interações alternadas entre encontros com participantes, especialistas e usuários finais. A primeira aplicação prática enfoca o desenvolvimento de aplicativos educacionais adaptativos, destinados a um amplo espectro de alunos, incluindo aqueles com necessidades especiais. Essa abordagem gerou quatro aplicativos mobile que não somente são acessíveis, mas também atendem às necessidades pedagógicas variadas dos estudantes. A segunda aplicação prática, focando no desenvolvimento de um jogo para auxiliar no diagnóstico precoce de condições cognitivas como o Alzheimer, destaca a capacidade do Design Participativo de incorporar descobertas importantes de neurocientistas, desenvolvedores de jogos e usuários finais para criar uma ferramenta lúdica e cientificamente fundamentada. A contribuição primordial deste trabalho de Design Participativo está em dar voz a todos os participantes, estabelecendo um canal de comunicação e colaboração profundamente enriquecedor. Esta estratégia não apenas garante a concepção de soluções de software que são ajustadas às experiências e exigências dos usuários. Esta abordagem é caracterizada por um processo de desenvolvimento colaborativo, altamente adaptativo às mudanças e desafios do mercado contemporâneo, e receptivo às nuances humanas e contextuais que são frequentemente subestimadas em abordagens convencionais. A abordagem de Design Participativo, como demonstrado por meio das aplicações práticas, não apenas eleva a relevância e a eficácia das soluções de software desenvolvidas, mas também promove uma transformação significativa na cultura da Engenharia de Software, conduzindo-a em direção a um futuro onde a colaboração efetiva e a empatia pelos usuários finais se tornam pilares fundamentais do processo de desenvolvimento. 


  • Mostrar Abstract
  • No campo em constante evolução da Engenharia de Software, o Design Participativo desponta como uma metodologia inovadora, endereçando a questão fundamental de desenvolver softwares que não apenas atendam às rigorosas exigências técnicas, mas que também estejam profundamente alinhados às necessidades diversificadas e específicas dos usuários finais. Esta problemática é acentuada pela complexidade inerente à compreensão e integração efetiva das demandas e preferências variadas dos usuários no processo de desenvolvimento de software, um desafio que reside na interseção entre Engenharia de Software e Interação Humano-Computador (IHC). A solução proposta por esta metodologia, evidenciada em duas aplicações práticas realizadas na Universidade Federal do ABC (UFABC), com abordagem do Design Participativo com sessões intercaladas, um modelo híbrido que proporciona interações alternadas entre encontros com participantes, especialistas e usuários finais. A primeira aplicação prática enfoca o desenvolvimento de aplicativos educacionais adaptativos, destinados a um amplo espectro de alunos, incluindo aqueles com necessidades especiais. Essa abordagem gerou quatro aplicativos mobile que não somente são acessíveis, mas também atendem às necessidades pedagógicas variadas dos estudantes. A segunda aplicação prática, focando no desenvolvimento de um jogo para auxiliar no diagnóstico precoce de condições cognitivas como o Alzheimer, destaca a capacidade do Design Participativo de incorporar descobertas importantes de neurocientistas, desenvolvedores de jogos e usuários finais para criar uma ferramenta lúdica e cientificamente fundamentada. A contribuição primordial deste trabalho de Design Participativo está em dar voz a todos os participantes, estabelecendo um canal de comunicação e colaboração profundamente enriquecedor. Esta estratégia não apenas garante a concepção de soluções de software que são ajustadas às experiências e exigências dos usuários. Esta abordagem é caracterizada por um processo de desenvolvimento colaborativo, altamente adaptativo às mudanças e desafios do mercado contemporâneo, e receptivo às nuances humanas e contextuais que são frequentemente subestimadas em abordagens convencionais. A abordagem de Design Participativo, como demonstrado por meio das aplicações práticas, não apenas eleva a relevância e a eficácia das soluções de software desenvolvidas, mas também promove uma transformação significativa na cultura da Engenharia de Software, conduzindo-a em direção a um futuro onde a colaboração efetiva e a empatia pelos usuários finais se tornam pilares fundamentais do processo de desenvolvimento. 

13
  • WALTER RUBENS BOLITTO CARVALHO
  • EMPADARIA - framework para o desenvolvimento de ficções interativas por meio da Pedagogia de Projetos

  • Orientador : CARLA LOPES RODRIGUEZ
  • Data: 22/12/2023

  • Mostrar Resumo
  • A construção de uma prática de projetos colabora com o desenvolvimento de diferentes competências e com a apropriação dos conteúdos curriculares. Quando aplicado com jogos educacionais, certos aspectos são valorizados, como habilidades de representação e comunicação, multiletramento e familiaridade com transmídias. Apesar disso, faltam metodologias para implementação de sequências didáticas com jogos que incluam estudantes com deficiência, seja pela necessidade de mais aprofundamento técnico ou pela ausência de frameworks, ferramentas e instrumentos dirigidos aos educadores e especialistas como referências na construção de práticas pedagógicas. Neste contexto, o presente trabalho tem o objetivo de apresentar um framework voltado a construção de práticas pedagógicas com Aprendizagem Baseada em Projetos na criação de ficções interativas, possibilitando a inclusão de estudantes com deficiência visual. Um diferencial é a disponibilização de um material de apoio do professor, que aborda diferentes instrumentos de avaliação e práticas de engenharia de software, bem como direciona o uso do motor de jogos Twine, facilitando o uso por educadores do ensino médio na construção de práticas pedagógicas com ferramentas computacionais. O framework foi aplicado em duas salas de aula do ensino médio, com auxílio dos professores, e com a presença de estudantes com deficiência visual. Foram registrados opiniões positivas sobre engajamento e apropriação dos conhecimentos por parte de estudantes e professores, bem como a obtenção de resultados que indicam a inclusão de estudantes com DV e aumento do desempenho da disciplina.


  • Mostrar Abstract
  • A construção de uma prática de projetos colabora com o desenvolvimento de diferentes competências e com a apropriação dos conteúdos curriculares. Quando aplicado com jogos educacionais, certos aspectos são valorizados, como habilidades de representação e comunicação, multiletramento e familiaridade com transmídias. Apesar disso, faltam metodologias para implementação de sequências didáticas com jogos que incluam estudantes com deficiência, seja pela necessidade de mais aprofundamento técnico ou pela ausência de frameworks, ferramentas e instrumentos dirigidos aos educadores e especialistas como referências na construção de práticas pedagógicas. Neste contexto, o presente trabalho tem o objetivo de apresentar um framework voltado a construção de práticas pedagógicas com Aprendizagem Baseada em Projetos na criação de ficções interativas, possibilitando a inclusão de estudantes com deficiência visual. Um diferencial é a disponibilização de um material de apoio do professor, que aborda diferentes instrumentos de avaliação e práticas de engenharia de software, bem como direciona o uso do motor de jogos Twine, facilitando o uso por educadores do ensino médio na construção de práticas pedagógicas com ferramentas computacionais. O framework foi aplicado em duas salas de aula do ensino médio, com auxílio dos professores, e com a presença de estudantes com deficiência visual. Foram registrados opiniões positivas sobre engajamento e apropriação dos conhecimentos por parte de estudantes e professores, bem como a obtenção de resultados que indicam a inclusão de estudantes com DV e aumento do desempenho da disciplina.

Teses
1
  • FRANKLIN MAGALHÃES RIBEIRO JUNIOR
  • Data Flow Trustworthiness for Mist and Fog based IoT Systems

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 31/01/2023

  • Mostrar Resumo
  • Data Flow Trustworthiness for Mist and Fog based IoT Systems


  • Mostrar Abstract
  • Data Flow Trustworthiness for Mist and Fog based IoT Systems

2
  • ANDRÉIA CRISTINA DOS SANTOS GUSMÃO
  • Identificação de Cliques em Redes de Colaboração Científica: um algoritmo baseado em grafos cordais

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 22/05/2023

  • Mostrar Resumo
  • O presente trabalho propõe um algoritmo para identificar cliques em redes de colaboração científica baseado em grafos cordais, em que os vértices são representados pelos coautores, as arestas pela coautoria e o peso de cada aresta é a quantidade de publicações existentes para cada par de vértices. Enumerar todas as possíveis combinações de um pesquisador em uma rede de coautoria, é um problema difícil, à medida que aumenta o tamanho do grupo de coautores e a quantidade de coautores com quem esse pesquisador publicou ao longo de sua vida acadêmica. O algoritmo proposto visa identificar todas as cliques de coautores relevantes, ou seja, que publicaram juntos pelo menos uma vez e sem duplicidade de cliques, permitindo analisar o comportamento das colaborações em coautoria centradas em indivíduos e também a hierarquia da colaboração acadêmica. Uma das possíveis aplicações do algoritmo e que foi abordada nesse trabalho, é mensurar a longevidade (tempo) e o tamanho da coautoria (número de coautores), possibilitando a análise dos caminhares dos pesquisadores.

    Realizamos experimentos utilizando a base DBLP e os resultados obtidos revelam que grupos menores têm longevidade maior quando comparados aos grupos maiores, para todos os tipos de publicações. Utilizamos duas medidas para o cálculo da longevidade: (1) considerando a diferença do ano da última publicação e o ano da primeira publicação; e, (2) considerando apenas a quantidade de anos em que houveram as publicações. Nenhum grupo com mais de 13 coautores publicaram juntos por mais de 10 anos. O maior tamanho de grupo é de 449 coautores e ocorreu uma única vez, para uma publicação em periódico e a maior longevidade é de um grupo de dois coautores, com 55 anos e 41 anos, para os cálculos da longevidade (1) e (2), respectivamente.

    Em relação à hierarquia das cliques, para os casos observados prevaleceu que cliques do coração foram influenciadoras das cliques filhas, pois tiveram a primeira publicação antes. Em relação às cliques do coração com maior quantidade de cliques relevantes, o cenário é de que cliques do coração são consequências da colaboração em coautoria, ou seja, grupos maiores de coautores que ao longo do tempo foram diminuindo originando novos grupos de coautores menores.

    Este trabalho contribui (i) com um algoritmo inédito que permite analisar o comportamento dos pesquisadores ao longo do tempo; e (ii) a caracterização inédita dos caminhares (em função da longevidade e tamanho), permitindo observar o atuar de cada pesquisador não de forma isolada/independente, mas de forma grupal/dependente da interação colaborativa e social, como a ciência é percebida nos dias de hoje.


  • Mostrar Abstract
  • O presente trabalho propõe um algoritmo para identificar cliques em redes de colaboração científica baseado em grafos cordais, em que os vértices são representados pelos coautores, as arestas pela coautoria e o peso de cada aresta é a quantidade de publicações existentes para cada par de vértices. Enumerar todas as possíveis combinações de um pesquisador em uma rede de coautoria, é um problema difícil, à medida que aumenta o tamanho do grupo de coautores e a quantidade de coautores com quem esse pesquisador publicou ao longo de sua vida acadêmica. O algoritmo proposto visa identificar todas as cliques de coautores relevantes, ou seja, que publicaram juntos pelo menos uma vez e sem duplicidade de cliques, permitindo analisar o comportamento das colaborações em coautoria centradas em indivíduos e também a hierarquia da colaboração acadêmica. Uma das possíveis aplicações do algoritmo e que foi abordada nesse trabalho, é mensurar a longevidade (tempo) e o tamanho da coautoria (número de coautores), possibilitando a análise dos caminhares dos pesquisadores.

    Realizamos experimentos utilizando a base DBLP e os resultados obtidos revelam que grupos menores têm longevidade maior quando comparados aos grupos maiores, para todos os tipos de publicações. Utilizamos duas medidas para o cálculo da longevidade: (1) considerando a diferença do ano da última publicação e o ano da primeira publicação; e, (2) considerando apenas a quantidade de anos em que houveram as publicações. Nenhum grupo com mais de 13 coautores publicaram juntos por mais de 10 anos. O maior tamanho de grupo é de 449 coautores e ocorreu uma única vez, para uma publicação em periódico e a maior longevidade é de um grupo de dois coautores, com 55 anos e 41 anos, para os cálculos da longevidade (1) e (2), respectivamente.

    Em relação à hierarquia das cliques, para os casos observados prevaleceu que cliques do coração foram influenciadoras das cliques filhas, pois tiveram a primeira publicação antes. Em relação às cliques do coração com maior quantidade de cliques relevantes, o cenário é de que cliques do coração são consequências da colaboração em coautoria, ou seja, grupos maiores de coautores que ao longo do tempo foram diminuindo originando novos grupos de coautores menores.

    Este trabalho contribui (i) com um algoritmo inédito que permite analisar o comportamento dos pesquisadores ao longo do tempo; e (ii) a caracterização inédita dos caminhares (em função da longevidade e tamanho), permitindo observar o atuar de cada pesquisador não de forma isolada/independente, mas de forma grupal/dependente da interação colaborativa e social, como a ciência é percebida nos dias de hoje.

3
  • ALAN CLAUDIUS MACIEL
  • MÉTODOS DE OTIMIZAÇÃO PARA A RESOLUÇÃO DO PROBLEMA DE FORMAÇÃO DE TIMES EM PROJETOS

  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 05/06/2023

  • Mostrar Resumo
  • Propomos uma generalização do Team Formation Problem (TFP), um problema conhecido na comunidade de análise de redes sociais. Na versão original do TFP buscamos obter, a partir de uma rede social constituída por indivíduos com diferentes capacidades, um time com custo de comunicação mínimo e suficientemente apto para realizar uma tarefa específica. Na generalização proposta, o TFP é estendido para incorporar dimensões de empreendimentos e dar origem ao Project TFP. Em outras palavras, estendemos o problema original para contemplar a dimensão do tempo e outras características presentes em ambientes de projetos. Propomos heurísticas gulosas para reduzir o tamanho das instâncias, fragmentá-las e então resolvê-las. Além disso, identificamos que técnicas exatas para a resolução do TFP são escassas na literatura assim, buscando preencher essa lacuna, propomos um modelo em programação quadrática binária e o testamos com instâncias que propomos.


  • Mostrar Abstract
  • Propomos uma generalização do Team Formation Problem (TFP), um problema conhecido na comunidade de análise de redes sociais. Na versão original do TFP buscamos obter, a partir de uma rede social constituída por indivíduos com diferentes capacidades, um time com custo de comunicação mínimo e suficientemente apto para realizar uma tarefa específica. Na generalização proposta, o TFP é estendido para incorporar dimensões de empreendimentos e dar origem ao Project TFP. Em outras palavras, estendemos o problema original para contemplar a dimensão do tempo e outras características presentes em ambientes de projetos. Propomos heurísticas gulosas para reduzir o tamanho das instâncias, fragmentá-las e então resolvê-las. Além disso, identificamos que técnicas exatas para a resolução do TFP são escassas na literatura assim, buscando preencher essa lacuna, propomos um modelo em programação quadrática binária e o testamos com instâncias que propomos.

4
  • PATRICIA DIAS DOS SANTOS
  • Detecção de posicionamento e rotulação automatizada de usuários do Twitter para análise de eventos políticos controversos

  • Orientador : DENISE HIDEKO GOYA
  • Data: 13/06/2023

  • Mostrar Resumo
  • As mídias sociais se consolidaram como uma plataforma relevante para a expressão e debate de ideias políticas nos dias de hoje. Tais plataformas proporcionam aos usuários a oportunidade de compartilhar suas opiniões, comentários e críticas sobre assuntos políticos, o que pode resultar em uma grande quantidade de dados gerados. A análise desses dados utilizando métodos computacionais e estatísticos pode ajudar a medir a opinião pública em relação a esses assuntos, fornecendo insights valiosos para as instituições governamentais, organizações e pesquisadores. A detecção de posicionamento é um processo automatizado que identifica o direcionamento de indivíduos ou grupos em relação a determinados temas, utilizando técnicas de análise de textos e aprendizado de máquina, sendo uma importante ferramenta para entender preferências e opiniões. No entanto, os métodos existentes na literatura frequentemente dependem de rotulação manual prévia e são incapazes de rotular a maioria dos usuários que participam da discussão. Além disso, diversos modelos presentes na literatura abordam cada tema de forma isolada, ignorando a possível interdependência entre eles, a qual pode ser bastante significativa em diversas aplicações e ao longo do tempo.

    Tendo em vista essas limitações, o objetivo principal desta tese foi o de desenvolver e avaliar um método computacional automatizado de detecção de posicionamento e rotulação de usuários do Twitter em temas políticos controversos, discutidos no Brasil, com mínima intervenção humana, independentemente do grau de participação do usuário na discussão, ao longo de determinado período de tempo e considerando a possível interdependência entre os temas. 

    O método desenvolvido integrou abordagens computacionais não supervisionadas e minimamente supervisionadas, considerando fatores sociais como homofilia e estrutura de rede e envolveu 3 principais: (i) a adaptação de uma técnica não supervisionada de detecção de posicionamento de clusters de usuários falantes de português brasileiro do Twitter em relação a um tópico controverso e polarizado; (ii) a rotulação automática individualizada de centenas de milhares de usuários empregando uma combinação de atribuição de rótulos e cálculo de pontuação de valência; (iii) a mensuração dos graus de engajamento e equilíbrio de forma a caracterizar o comportamento dos usuários rotulados nos eventos.

    O método foi aplicado e obteve êxito na avaliação de  três temas politicamente controversos: a CPI da Covid-19, a desconfiança sobre a segurança das urnas eletrônicas, e as eleições presidenciais brasileiras de 2022. Nossos resultados mostraram que o método proposto é bastante efetivo, tendo sido capaz de atribuir um rótulo para uma percentagem superior a 90% dos usuários das bases avaliadas. Além disso, ao analisar a dimensão temporal dos dados coletados e o posicionamento dos usuários ao longo do tempo, também foi possível caracterizar o comportamento dos indivíduos pertencentes a cada um dos grupos opostos.



  • Mostrar Abstract
  • As mídias sociais se consolidaram como uma plataforma relevante para a expressão e debate de ideias políticas nos dias de hoje. Tais plataformas proporcionam aos usuários a oportunidade de compartilhar suas opiniões, comentários e críticas sobre assuntos políticos, o que pode resultar em uma grande quantidade de dados gerados. A análise desses dados utilizando métodos computacionais e estatísticos pode ajudar a medir a opinião pública em relação a esses assuntos, fornecendo insights valiosos para as instituições governamentais, organizações e pesquisadores. A detecção de posicionamento é um processo automatizado que identifica o direcionamento de indivíduos ou grupos em relação a determinados temas, utilizando técnicas de análise de textos e aprendizado de máquina, sendo uma importante ferramenta para entender preferências e opiniões. No entanto, os métodos existentes na literatura frequentemente dependem de rotulação manual prévia e são incapazes de rotular a maioria dos usuários que participam da discussão. Além disso, diversos modelos presentes na literatura abordam cada tema de forma isolada, ignorando a possível interdependência entre eles, a qual pode ser bastante significativa em diversas aplicações e ao longo do tempo.

    Tendo em vista essas limitações, o objetivo principal desta tese foi o de desenvolver e avaliar um método computacional automatizado de detecção de posicionamento e rotulação de usuários do Twitter em temas políticos controversos, discutidos no Brasil, com mínima intervenção humana, independentemente do grau de participação do usuário na discussão, ao longo de determinado período de tempo e considerando a possível interdependência entre os temas. 

    O método desenvolvido integrou abordagens computacionais não supervisionadas e minimamente supervisionadas, considerando fatores sociais como homofilia e estrutura de rede e envolveu 3 principais: (i) a adaptação de uma técnica não supervisionada de detecção de posicionamento de clusters de usuários falantes de português brasileiro do Twitter em relação a um tópico controverso e polarizado; (ii) a rotulação automática individualizada de centenas de milhares de usuários empregando uma combinação de atribuição de rótulos e cálculo de pontuação de valência; (iii) a mensuração dos graus de engajamento e equilíbrio de forma a caracterizar o comportamento dos usuários rotulados nos eventos.

    O método foi aplicado e obteve êxito na avaliação de  três temas politicamente controversos: a CPI da Covid-19, a desconfiança sobre a segurança das urnas eletrônicas, e as eleições presidenciais brasileiras de 2022. Nossos resultados mostraram que o método proposto é bastante efetivo, tendo sido capaz de atribuir um rótulo para uma percentagem superior a 90% dos usuários das bases avaliadas. Além disso, ao analisar a dimensão temporal dos dados coletados e o posicionamento dos usuários ao longo do tempo, também foi possível caracterizar o comportamento dos indivíduos pertencentes a cada um dos grupos opostos.


5
  • YUBIRY SINAMAICA GONZÁLEZ
  • FFT-based acoustic descriptors for musical timbre characterization using data analysis and Machine Learning

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 01/11/2023

  • Mostrar Resumo
  • O timbre musical é um dos atributos sonoros mais complexos e sua caracterização é uma área de pesquisa em aberto. A coleta e a reprodução digital de sons musicais através da FFT permite estudar o problema do timbre musical sob a perspectiva da acústica musical. Portanto, a tese fundamental é que toda a informação timbrica relevante está, de alguma forma, contida na Transformada de Fourier da gravação de áudio correspondente. O problema da representação do timbre é considerado muito semelhante ao das representações do espaço das cores. Em ambos os casos, as percepções (áudio, cor) precisam ser definidas operacionalmente em espaços abstratos para gestão operacional e computação automática. O principal problema da caracterização do timbre musical estabelece a necessidade de desenvolver um conjunto mínimo de descritores acústicos eficientes que avaliem quantitativamente o timbre musical a partir de gravações de áudio digital, e que possam fornecer com precisão informações suficientes sobre a identificação do timbre musical e padrões de semelhanças. A análise considera apenas gravações de áudio monofônicas, correspondentes à escala de temperamento igual, que constituem um conjunto de frequências discretas, finitas e bem definidas. A partir de gravações de áudio extraídas de bibliotecas conhecidas: TinySol e Good-sounds, correspondentes a sons monofônicos de instrumentos musicais, típicos de uma orquestra sinfônica ocidental, executados por músicos profissionais. Um conjunto de descritores adimensionais e acusticamente motivados são definidos para descrever quantitativamente a distribuição parcial de amplitude de frequência nas FFTs de registros de áudio. Cada FFT contém apenas duas quantidades físicas: frequência e amplitude, cuja distribuição pode ser caracterizada quantificando seu componente fundamental, Afinity (A) e Sharpness (S); os valores médios de ambas quantidades; Mean Affinity (MA) e Mean Contrast (MC) e a descrição da envolvente: Harmonicity (H), Monotony (M). Esses descritores, juntamente com a frequência fundamental, configuram um espaço heptadimensional que permite geometrizar, através da distância euclidiana, as relações de semelhança e proximidade tímbrica. Assim, o problema de caracterização tímbrica se reduz a um problema de agrupamento em um espaço abstrato de 7 dimensões, onde cada registro de áudio corresponde a um ponto. A sua posição no espaço tímbrico e a distância euclidiana entre os registos permitiram-nos discriminar as variações tímbricas, por dinâmicas, oitavas, instrumentos musicais e famílias de instrumentos; utilizando técnicas de Machine Learning e processamento de dados. As semelhanças tímbricas entre gravações de áudio são estudadas, criando um algoritmo através de distâncias euclidianas no espaço de 7 dimensões. Este algoritmo nos permitiu descobrir quais FFTs são semelhantes para diferentes instrumentos musicais. Com base no cálculo dos descritores e relações de distância, foi realizada uma análise exploratória de agrupamento utilizando o algoritmo K-means para a análise dos grupos de instrumentos musicais, famílias de instrumentos, bibliotecas de sons e notas musicais. Observamos que os dados de cada estudo de caso aparecem em regiões delimitadas específicas do espaço tímbrico, o que nos permite identificar relações significativas no processo de caracterização tímbrica. Na análise das variações tímbricas consideramos o crescendo e o vibrato, onde observamos que o crescendo modifica o Mean contrast (MC) e o vibrato modifica o descriptor  Affinity (A). Por fim, comparamos a capacidade de classificação dos nossos descritores acústicos FFT com os descritores da biblioteca Librosa, aplicando o algoritmo de classificação Random Forest. Observamos resultados estatisticamente significativos para os descritores FFT-Acústico na classificação de instrumentos musicais e dinâmica, obtendo melhor classificação para notas musicais e família de instrumentos ao compará-los com os descritores Librosa.


  • Mostrar Abstract
  • O timbre musical é um dos atributos sonoros mais complexos e sua caracterização é uma área de pesquisa em aberto. A coleta e a reprodução digital de sons musicais através da FFT permite estudar o problema do timbre musical sob a perspectiva da acústica musical. Portanto, a tese fundamental é que toda a informação timbrica relevante está, de alguma forma, contida na Transformada de Fourier da gravação de áudio correspondente. O problema da representação do timbre é considerado muito semelhante ao das representações do espaço das cores. Em ambos os casos, as percepções (áudio, cor) precisam ser definidas operacionalmente em espaços abstratos para gestão operacional e computação automática. O principal problema da caracterização do timbre musical estabelece a necessidade de desenvolver um conjunto mínimo de descritores acústicos eficientes que avaliem quantitativamente o timbre musical a partir de gravações de áudio digital, e que possam fornecer com precisão informações suficientes sobre a identificação do timbre musical e padrões de semelhanças. A análise considera apenas gravações de áudio monofônicas, correspondentes à escala de temperamento igual, que constituem um conjunto de frequências discretas, finitas e bem definidas. A partir de gravações de áudio extraídas de bibliotecas conhecidas: TinySol e Good-sounds, correspondentes a sons monofônicos de instrumentos musicais, típicos de uma orquestra sinfônica ocidental, executados por músicos profissionais. Um conjunto de descritores adimensionais e acusticamente motivados são definidos para descrever quantitativamente a distribuição parcial de amplitude de frequência nas FFTs de registros de áudio. Cada FFT contém apenas duas quantidades físicas: frequência e amplitude, cuja distribuição pode ser caracterizada quantificando seu componente fundamental, Afinity (A) e Sharpness (S); os valores médios de ambas quantidades; Mean Affinity (MA) e Mean Contrast (MC) e a descrição da envolvente: Harmonicity (H), Monotony (M). Esses descritores, juntamente com a frequência fundamental, configuram um espaço heptadimensional que permite geometrizar, através da distância euclidiana, as relações de semelhança e proximidade tímbrica. Assim, o problema de caracterização tímbrica se reduz a um problema de agrupamento em um espaço abstrato de 7 dimensões, onde cada registro de áudio corresponde a um ponto. A sua posição no espaço tímbrico e a distância euclidiana entre os registos permitiram-nos discriminar as variações tímbricas, por dinâmicas, oitavas, instrumentos musicais e famílias de instrumentos; utilizando técnicas de Machine Learning e processamento de dados. As semelhanças tímbricas entre gravações de áudio são estudadas, criando um algoritmo através de distâncias euclidianas no espaço de 7 dimensões. Este algoritmo nos permitiu descobrir quais FFTs são semelhantes para diferentes instrumentos musicais. Com base no cálculo dos descritores e relações de distância, foi realizada uma análise exploratória de agrupamento utilizando o algoritmo K-means para a análise dos grupos de instrumentos musicais, famílias de instrumentos, bibliotecas de sons e notas musicais. Observamos que os dados de cada estudo de caso aparecem em regiões delimitadas específicas do espaço tímbrico, o que nos permite identificar relações significativas no processo de caracterização tímbrica. Na análise das variações tímbricas consideramos o crescendo e o vibrato, onde observamos que o crescendo modifica o Mean contrast (MC) e o vibrato modifica o descriptor  Affinity (A). Por fim, comparamos a capacidade de classificação dos nossos descritores acústicos FFT com os descritores da biblioteca Librosa, aplicando o algoritmo de classificação Random Forest. Observamos resultados estatisticamente significativos para os descritores FFT-Acústico na classificação de instrumentos musicais e dinâmica, obtendo melhor classificação para notas musicais e família de instrumentos ao compará-los com os descritores Librosa.

6
  • NELSON NASCIMENTO JUNIOR
  • Modelo Híbrido para Avaliar o Engajamento em Jogos Educacionais Digitais

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 05/12/2023

  • Mostrar Resumo
  • Analisar o engajamento do estudante durante a aprendizagem é um fator essencial para que os objetivos pedagógicos sejam atingidos. O engajamento do estudante em um ambiente de sala de aula tradicional pode ser observado por sua linguagem corporal e por suas expressões faciais. No entanto, avaliar de maneira automática o engajamento do estudante em Jogos Educacionais Digitais (JEDs), tem sido um desafio. O objetivo desta pesquisa é propor um método para avaliar o engajamento de estudantes em JEDs, que combine medidas objetivas (traços faciais e comportamentais detectados automaticamente) com medidas subjetivas (relato pessoal). Uma revisão na literatura levantou os principais conceitos, termos e definições relacionados ao engajamento e identificou técnicas de visão computacional e de aprendizagem de máquina comumente utilizadas em estudos dessa natureza. Dois experimentos foram realizados com JEDs para validar o método e verificar a relação do engajamento (presença de emoções "positivas"e/ou atenção) do estudante com os jogos. O primeiro experimento foi realizado em um jogo do tipo “RPG” e considerou as expressões faciais. O segundo experimento foi realizado em um jogo do gênero “Battle Royale” e adicionou à estimativa do engajamento, a pose da cabeça e a direção do olhar. Em ambos os experimentos os dados capturados foram classificados e combinados com o relato pessoal dos estudantes para se tentar predizer o engajamento. Nossas descobertas sugerem que, determinar o nível de engajamento do estudante durante um jogo educacional digital ainda é um desafio devido a sutileza e a diversidade de características visíveis e não visíveis que podem estar relacionadas à este estado afetivo requerendo a integração de muitos elementos e dados e, em certa medida, um certo grau de experiência, subjetividade e abstração do avaliador. Acreditamos que estudos nessa direção podem apoiar designers de jogos a projetarem jogos mais envolventes e estimular professores a utilizarem jogos digitais educacionais nas suas práticas pedagógicas.


  • Mostrar Abstract
  • Analisar o engajamento do estudante durante a aprendizagem é um fator essencial para que os objetivos pedagógicos sejam atingidos. O engajamento do estudante em um ambiente de sala de aula tradicional pode ser observado por sua linguagem corporal e por suas expressões faciais. No entanto, avaliar de maneira automática o engajamento do estudante em Jogos Educacionais Digitais (JEDs), tem sido um desafio. O objetivo desta pesquisa é propor um método para avaliar o engajamento de estudantes em JEDs, que combine medidas objetivas (traços faciais e comportamentais detectados automaticamente) com medidas subjetivas (relato pessoal). Uma revisão na literatura levantou os principais conceitos, termos e definições relacionados ao engajamento e identificou técnicas de visão computacional e de aprendizagem de máquina comumente utilizadas em estudos dessa natureza. Dois experimentos foram realizados com JEDs para validar o método e verificar a relação do engajamento (presença de emoções "positivas"e/ou atenção) do estudante com os jogos. O primeiro experimento foi realizado em um jogo do tipo “RPG” e considerou as expressões faciais. O segundo experimento foi realizado em um jogo do gênero “Battle Royale” e adicionou à estimativa do engajamento, a pose da cabeça e a direção do olhar. Em ambos os experimentos os dados capturados foram classificados e combinados com o relato pessoal dos estudantes para se tentar predizer o engajamento. Nossas descobertas sugerem que, determinar o nível de engajamento do estudante durante um jogo educacional digital ainda é um desafio devido a sutileza e a diversidade de características visíveis e não visíveis que podem estar relacionadas à este estado afetivo requerendo a integração de muitos elementos e dados e, em certa medida, um certo grau de experiência, subjetividade e abstração do avaliador. Acreditamos que estudos nessa direção podem apoiar designers de jogos a projetarem jogos mais envolventes e estimular professores a utilizarem jogos digitais educacionais nas suas práticas pedagógicas.

2022
Dissertações
1
  • RENATO BUENO DOMINGOS DE OLIVEIRA
  • IoT Redirector: Um redirecionador de mensagens para gerenciamento da heterogeneidade de dados em Aplicações IoT

     

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 28/01/2022

  • Mostrar Resumo
  • Gerenciamento da Heterogeneidade de Dados em Aplicações Inteligentes baseadas na Internet das Coisas


  • Mostrar Abstract
  • Gerenciamento da Heterogeneidade de Dados em Aplicações Inteligentes baseadas na Internet das Coisas

2
  • HENRIQUE LUIZ VONI GIULIANI
  • COMITÊS DE MÁQUINAS APLICADOS A INTERFACES CÉREBRO-COMPUTADOR

  • Orientador : DENIS GUSTAVO FANTINATO
  • Data: 05/04/2022

  • Mostrar Resumo
  • As interfaces cérebro-computador (BCI, do inglês Brain-Computer Interface) são sistemas que englobam técnicas de diversas áreas de conhecimento para possibilitar a tradução do sinal cerebral para um comando de uma aplicação. Dentre tais técnicas destaca-se os algoritmos de aprendizado de máquina, que são responsáveis por extrair padrões e informações relevantes dos dados para a correta classificação de uma instrução do sistema. Entretanto, uma vez que o desempenho desses algoritmos também depende da complexidade dos dados, utilizar os dados de diferentes usuários em um sistema BCI ainda é uma tarefa desafiadora, dado que podem apresentar alta variabilidade a níveis intra e interusuário. Neste cenário, a aplicação de comitês de máquinas pode trazer resultados promissores considerando que cada classificador do comitê atue como especialista em um subconjunto dos dados. Sendo assim, neste trabalho abordamos o uso de diferentes propostas de comitês de máquina amplamente difundidas na literatura para classificar dados de diferentes indivíduos. Como principal contribuição para o tema analisado, é proposta uma nova abordagem de comitês: a Mistura de Especialistas baseada em kernel gaussiano (ou MEKG). Os resultados dos experimentos apontam que o desempenho do MEKG foi superior quando comparado aos demais comitês com um número significantemente menor de especialistas, alcançando uma acurácia média de 95,33% com indivíduos avaliados separadamente e 85,14% no caso cross-subject.


  • Mostrar Abstract
  • As interfaces cérebro-computador (BCI, do inglês Brain-Computer Interface) são sistemas que englobam técnicas de diversas áreas de conhecimento para possibilitar a tradução do sinal cerebral para um comando de uma aplicação. Dentre tais técnicas destaca-se os algoritmos de aprendizado de máquina, que são responsáveis por extrair padrões e informações relevantes dos dados para a correta classificação de uma instrução do sistema. Entretanto, uma vez que o desempenho desses algoritmos também depende da complexidade dos dados, utilizar os dados de diferentes usuários em um sistema BCI ainda é uma tarefa desafiadora, dado que podem apresentar alta variabilidade a níveis intra e interusuário. Neste cenário, a aplicação de comitês de máquinas pode trazer resultados promissores considerando que cada classificador do comitê atue como especialista em um subconjunto dos dados. Sendo assim, neste trabalho abordamos o uso de diferentes propostas de comitês de máquina amplamente difundidas na literatura para classificar dados de diferentes indivíduos. Como principal contribuição para o tema analisado, é proposta uma nova abordagem de comitês: a Mistura de Especialistas baseada em kernel gaussiano (ou MEKG). Os resultados dos experimentos apontam que o desempenho do MEKG foi superior quando comparado aos demais comitês com um número significantemente menor de especialistas, alcançando uma acurácia média de 95,33% com indivíduos avaliados separadamente e 85,14% no caso cross-subject.

3
  • CRISTIANO OLIVEIRA GONÇALVES
  • Representação de sentenças jurídicas no contexto de agrupamento automático

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 11/04/2022

  • Mostrar Resumo
  • A digitalização de documentos no setor judiciário brasileiro facilita o acesso à informação de interesse público. No entanto, para que seja possível levantar métricas de interesse deste crescente repositório informacional, é fundamental que se organizem os documentos de maneira a facilitar a recuperação de informações relevantes, e técnicas de aprendizado de máquina podem diminuir o esforço humano na organização de um grande corpus. Este trabalho analisou diferentes técnicas de aprendizado de máquina frente à quão bem associam termos jurídicos segundo especialistas humanos. Para isso, desenvolvemos um web scraper, software que consolida conteúdos online, para criar um corpus de sentenças jurídicas de primeira instância. Este corpus é composto de 40.009 documentos, o que totaliza 24.139.185 tokens. As técnicas FastText, GloVe e Word2Vec foram avaliadas frente à sua capacidade de associar termos de acordo com o Tesauro Jurídico do Supremo Tribunal Federal (TSTF). Elas foram comparadas quando treinadas tanto no domínio geral da língua portuguesa, quanto no domínio jurídico. O modelo FastText de domínio geral foi o que apresentou a maior similaridade entre os termos associados segundo o TSTF. Apesar disso, o FastText de domínio jurídico apresentou desempenhos comparáveis ou superiores aos modelos GloVe e Word2Vec de domínio geral. Avaliamos também as técnicas FastText, GloVe, Word2Vec, Doc2Vec e hashing trick na tarefa de agrupamento de sentenças jurídicas de primeira instância frente ao assunto a que pertencem. Comparamos os modelos treinados tanto no domínio geral quanto no domínio jurídico usando a V-Measure média e seu desvio-padrão. Concluímos que o FastText de domínio jurídico treinado em 300 dimensões apresentou resultados equivalentes ou superiores aos modelos de domínio geral. Observamos também que a escolha da técnica possui influência maior do que a escolha de hiper-parâmetros na determinação do desempenho. Outro fator analisado neste trabalho foi a semelhança dos documentos de diferentes assuntos. Usamos nesta análise o melhor modelo produzido no domínio jurídico: o FastText de 300 dimensões. Concluímos que apesar da incerteza da própria representação criada pelo modelo, parecem haver documentos de diferentes assuntos que são muito similares entre si. Avaliamos ainda o aumento de desempenho conferido pelo volume de documentos jurídicos no processo de treinamento, e verificamos que a partir de aproximadamente 800.000 tokens, que equivalem a aproximadamente de 1500 sentenças, os aumentos de desempenho marginal do FastText de 300 dimensões é decrescente. A adição de mais documentos do mesmo corpus confere ganhos de desempenho incrementalmente muito pequenos, sendo que o custo computacional parece crescer mais rápido que a V-Measure.


  • Mostrar Abstract
  • A digitalização de documentos no setor judiciário brasileiro facilita o acesso à informação de interesse público. No entanto, para que seja possível levantar métricas de interesse deste crescente repositório informacional, é fundamental que se organizem os documentos de maneira a facilitar a recuperação de informações relevantes, e técnicas de aprendizado de máquina podem diminuir o esforço humano na organização de um grande corpus. Este trabalho analisou diferentes técnicas de aprendizado de máquina frente à quão bem associam termos jurídicos segundo especialistas humanos. Para isso, desenvolvemos um web scraper, software que consolida conteúdos online, para criar um corpus de sentenças jurídicas de primeira instância. Este corpus é composto de 40.009 documentos, o que totaliza 24.139.185 tokens. As técnicas FastText, GloVe e Word2Vec foram avaliadas frente à sua capacidade de associar termos de acordo com o Tesauro Jurídico do Supremo Tribunal Federal (TSTF). Elas foram comparadas quando treinadas tanto no domínio geral da língua portuguesa, quanto no domínio jurídico. O modelo FastText de domínio geral foi o que apresentou a maior similaridade entre os termos associados segundo o TSTF. Apesar disso, o FastText de domínio jurídico apresentou desempenhos comparáveis ou superiores aos modelos GloVe e Word2Vec de domínio geral. Avaliamos também as técnicas FastText, GloVe, Word2Vec, Doc2Vec e hashing trick na tarefa de agrupamento de sentenças jurídicas de primeira instância frente ao assunto a que pertencem. Comparamos os modelos treinados tanto no domínio geral quanto no domínio jurídico usando a V-Measure média e seu desvio-padrão. Concluímos que o FastText de domínio jurídico treinado em 300 dimensões apresentou resultados equivalentes ou superiores aos modelos de domínio geral. Observamos também que a escolha da técnica possui influência maior do que a escolha de hiper-parâmetros na determinação do desempenho. Outro fator analisado neste trabalho foi a semelhança dos documentos de diferentes assuntos. Usamos nesta análise o melhor modelo produzido no domínio jurídico: o FastText de 300 dimensões. Concluímos que apesar da incerteza da própria representação criada pelo modelo, parecem haver documentos de diferentes assuntos que são muito similares entre si. Avaliamos ainda o aumento de desempenho conferido pelo volume de documentos jurídicos no processo de treinamento, e verificamos que a partir de aproximadamente 800.000 tokens, que equivalem a aproximadamente de 1500 sentenças, os aumentos de desempenho marginal do FastText de 300 dimensões é decrescente. A adição de mais documentos do mesmo corpus confere ganhos de desempenho incrementalmente muito pequenos, sendo que o custo computacional parece crescer mais rápido que a V-Measure.

4
  • DIOGO EDUARDO LIMA ALVES
  • Funções Limiares para Propriedades anti-Ramsey

  • Orientador : GUILHERME OLIVEIRA MOTA
  • Data: 14/04/2022

  • Mostrar Resumo
  • Neste trabalho estudamos resultados centrados na definição da função limiar para a Propriedade anti-Ramsey, abordando alguns resultados existentes, tanto do tipo $0$-afirmação quanto $1$-afirmação. Este é um estudo bibliográfico destes resultados que contém diferentes técnicas de prova e compila parte das contribuições de diversos pesquisadores para essa subárea da Combinatória Extremal.

    A propriedade anti-Ramsey pode ser explicada da seguinte forma: Dados dois grafos $G$ e $H$, denotamos por $G \rightarrow^{rb}_p H$ para toda coloração própria das arestas de $G$ existe uma cópia {\it arco-íris} de $H$ em $G$. Dizemos que uma cópia de um grafo $H$ é arco-íris quando $H$ não tem mais que uma aresta com a mesma cor.

    Assim, neste texto estudamos resultados centrados na definição da função limiar ($p^{rb}_H = p^{rb}_H(n)$) para a propriedade $G \rightarrow^{rb}_p H$.


  • Mostrar Abstract
  • Neste trabalho estudamos resultados centrados na definição da função limiar para a Propriedade anti-Ramsey, abordando alguns resultados existentes, tanto do tipo $0$-afirmação quanto $1$-afirmação. Este é um estudo bibliográfico destes resultados que contém diferentes técnicas de prova e compila parte das contribuições de diversos pesquisadores para essa subárea da Combinatória Extremal.

    A propriedade anti-Ramsey pode ser explicada da seguinte forma: Dados dois grafos $G$ e $H$, denotamos por $G \rightarrow^{rb}_p H$ para toda coloração própria das arestas de $G$ existe uma cópia {\it arco-íris} de $H$ em $G$. Dizemos que uma cópia de um grafo $H$ é arco-íris quando $H$ não tem mais que uma aresta com a mesma cor.

    Assim, neste texto estudamos resultados centrados na definição da função limiar ($p^{rb}_H = p^{rb}_H(n)$) para a propriedade $G \rightarrow^{rb}_p H$.

5
  • HENRIQUE RAMOS RISSARDO WERNECK
  • Entity-Learning with Deep Reinforcement Learning: A Study on Different Abstractions of Input

  • Orientador : LUIZ ANTONIO CELIBERTO JUNIOR
  • Data: 06/05/2022

  • Mostrar Resumo
  • Deep reinforcement learning is a method that introduced promising solutions to various setbacks that reinforcement learning historically presented. These advances are subject of many recent studies. They regard, for example, the possibility of automatically abstracting relevant information from the environment, and performing consistently using higher dimensional data from complex environments, like entities present in such environment. For this work, the ViZDoom platform will be used in order to compare the learning efficiency of distinct input proposals: one learning from raw image inputs, one learning from edited image inputs and the other using more structured data, identifying entities in the scene. The curriculum learning method adopted for training will gradually increase the complexity of the environment, validating the performance of the algorithm at each step. This work aims to contribute with a comparative study on the learning efficiency displayed by agents when presented to data with different abstraction-levels, learning from a dynamic environment over ever increasing fundamental skills.


  • Mostrar Abstract
  • Deep reinforcement learning is a method that introduced promising solutions to various setbacks that reinforcement learning historically presented. These advances are subject of many recent studies. They regard, for example, the possibility of automatically abstracting relevant information from the environment, and performing consistently using higher dimensional data from complex environments, like entities present in such environment. For this work, the ViZDoom platform will be used in order to compare the learning efficiency of distinct input proposals: one learning from raw image inputs, one learning from edited image inputs and the other using more structured data, identifying entities in the scene. The curriculum learning method adopted for training will gradually increase the complexity of the environment, validating the performance of the algorithm at each step. This work aims to contribute with a comparative study on the learning efficiency displayed by agents when presented to data with different abstraction-levels, learning from a dynamic environment over ever increasing fundamental skills.

6
  • VICTOR BORGHI GIMENEZ
  • Classificação de sinais hemodinâmicos e eletroencefalográficos em alcoolismo mediante redes neurais artificiais 

  • Orientador : FABIO MARQUES SIMOES DE SOUZA
  • Data: 10/05/2022

  • Mostrar Resumo
  • Esse trabalho consiste no uso de ferramentas computacionais para o apoio do estudo do cérebro. O trabalho segue uma abordagem interdisciplinar na fronteira entre a computação e a neurociência. Foram utilizados recursos de estimulação sensorial controlada de sujeitos durante tarefas de reconhecimento de verbos, registros cerebrais na forma de eletroencefalogramas, pré-processamento dos dados para filtragem de ruídos associados à rede elétrica, piscada dos olhos, movimento da cabeça e mordidas. Os dados cerebrais foram colocados no formato de potenciais relacionados ao evento (ERPs) e separados em um grupo correspondente aos sujeitos alcoólicos e outro de não alcoólicos. Foi utilizada a técnica de redes neurais artificiais para a classificação de
    sinais cerebrais em alcoólicos e não alcoólicos. Os resultados do trabalho mostraram que foi possível separar o grupo de sujeitos alcoólicos e não alcoólicos com base em seus ERPs.


  • Mostrar Abstract
  • Esse trabalho consiste no uso de ferramentas computacionais para o apoio do estudo do cérebro. O trabalho segue uma abordagem interdisciplinar na fronteira entre a computação e a neurociência. Foram utilizados recursos de estimulação sensorial controlada de sujeitos durante tarefas de reconhecimento de verbos, registros cerebrais na forma de eletroencefalogramas, pré-processamento dos dados para filtragem de ruídos associados à rede elétrica, piscada dos olhos, movimento da cabeça e mordidas. Os dados cerebrais foram colocados no formato de potenciais relacionados ao evento (ERPs) e separados em um grupo correspondente aos sujeitos alcoólicos e outro de não alcoólicos. Foi utilizada a técnica de redes neurais artificiais para a classificação de
    sinais cerebrais em alcoólicos e não alcoólicos. Os resultados do trabalho mostraram que foi possível separar o grupo de sujeitos alcoólicos e não alcoólicos com base em seus ERPs.

7
  • FRANCINETE FURTADO DA CUNHA
  •  

     

    DIRETRIZES PARA O DESENHO UNIVERSAL EM JOGOS EDUCACIONAIS DO TIPO “ROLE PLAY GAME” (RPG)

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 16/05/2022

  • Mostrar Resumo
  • A exclusão por insuficiência de acessibilidade se reflete em diversas áreas da tecnologia, dentre elas Jogos Educacionais Digitais (JED). O jogo, por seu caráter divertido, tem sido cada vez mais utilizado como tecnologia de apoio ao processo de aprendizagem.  No entanto, nesses casos, JEDs não acessíveis podem levar não somente a exclusão digital, mas também educacional. A literatura mostra que existem jogos que fornecem acessibilidade específica para um determinado tipo de usuário, mas há poucos relatos de um único jogo desenvolvido para um maior número de usuário, em outras palavras há poucos relatos de jogos que foram desenvolvidos sob a perspectiva do Desenho Universal (DU). Parte dessa lacuna pode ser atribuída à complexidade que envolve o desenho universal de um jogo o que é agravado pela ausência de diretrizes específicas para projetar jogos digitais para o DU. Diante desse contexto, este trabalho propõe um conjunto de recomendações para o desenho universal de um jogo educacional digital do tipo RPG. Para alcançar esse fim, foi realizado um estudo de campo, em que dados foram coletados por observação direta durante o projeto e desenvolvimento do jogo "Expedição Antártica". Durante o estudo de campo, testes de jogabilidade, usabilidade e acessibilidade foram realizados com 10 usuários, dentre eles: pessoas sem deficiência, surdos, pessoas com deficiência visual e cognitiva. Os resultados alcançados, propõe requisitos de acessibilidade baseados em DU abrangendo três perspectivas do design de jogos: interface de usuário, narrativa e mecânica. Espera-se dessa maneira, colaborar para que mais o jogos possam ser utilizados na educação universal e inclusiva.


  • Mostrar Abstract
  • A exclusão por insuficiência de acessibilidade se reflete em diversas áreas da tecnologia, dentre elas Jogos Educacionais Digitais (JED). O jogo, por seu caráter divertido, tem sido cada vez mais utilizado como tecnologia de apoio ao processo de aprendizagem.  No entanto, nesses casos, JEDs não acessíveis podem levar não somente a exclusão digital, mas também educacional. A literatura mostra que existem jogos que fornecem acessibilidade específica para um determinado tipo de usuário, mas há poucos relatos de um único jogo desenvolvido para um maior número de usuário, em outras palavras há poucos relatos de jogos que foram desenvolvidos sob a perspectiva do Desenho Universal (DU). Parte dessa lacuna pode ser atribuída à complexidade que envolve o desenho universal de um jogo o que é agravado pela ausência de diretrizes específicas para projetar jogos digitais para o DU. Diante desse contexto, este trabalho propõe um conjunto de recomendações para o desenho universal de um jogo educacional digital do tipo RPG. Para alcançar esse fim, foi realizado um estudo de campo, em que dados foram coletados por observação direta durante o projeto e desenvolvimento do jogo "Expedição Antártica". Durante o estudo de campo, testes de jogabilidade, usabilidade e acessibilidade foram realizados com 10 usuários, dentre eles: pessoas sem deficiência, surdos, pessoas com deficiência visual e cognitiva. Os resultados alcançados, propõe requisitos de acessibilidade baseados em DU abrangendo três perspectivas do design de jogos: interface de usuário, narrativa e mecânica. Espera-se dessa maneira, colaborar para que mais o jogos possam ser utilizados na educação universal e inclusiva.

8
  • JOÃO CARLOS LIMA E SILVA
  • APLICAÇÃO DE ESTRATÉGIAS DE GAMIFICAÇÃO NO  PROCESSO DE AVALIAÇÃO DA APRENDIZAGEM: PESQUISA-AÇÃO E CRIAÇÃO DE UM SISTEMA GAMIFICADO.

  • Orientador : CARLA LOPES RODRIGUEZ
  • Data: 28/06/2022

  • Mostrar Resumo
  • A avaliação da aprendizagem representa um grande desafio no contexto educacional. Muitos alunos apresentam uma repulsa pelo momento da avaliação. Muitas vezes o processo de avaliação é entendido apenas como classificatório ou punitivo. Diversas aplicações gamificadas têm sido desenvolvidas para melhorar o engajamento dos alunos, porém ainda são poucas as aplicações da gamificação no processo de avaliação. Nesse contexto, esta pesquisa tem como principal objetivo propor, implementar e testar um sistema gamificado de apoio ao processo da avaliação da aprendizagem, que utiliza elementos da gamificação como instrumentos de avaliação da aprendizagem, por meio de uma pesquisa-ação. Na pesquisa-ação, o sistema foi usado na gamificação do processo educacional em duas turmas de Ensino Médio integrado ao Técnico, com um total de 71 alunos. A pesquisa foi realizada em três cenários distintos. O primeiro sem nenhum elemento de gamificação, o segundo com a gamificação da avaliação e o terceiro com a gamificação das aulas e da avaliação. Em cada um dos cenários foram coletados dados para análise, como por exemplo, quantidade de entregas e engajamento. Verificou-se benefícios do uso da gamificação, como transparência dos resultados, velocidade de feedback e melhora na autonomia dos alunos. Os dados coletados também indicam um aumento na quantidade de entregas de atividades da disciplina.


  • Mostrar Abstract
  • A avaliação da aprendizagem representa um grande desafio no contexto educacional. Muitos alunos apresentam uma repulsa pelo momento da avaliação. Muitas vezes o processo de avaliação é entendido apenas como classificatório ou punitivo. Diversas aplicações gamificadas têm sido desenvolvidas para melhorar o engajamento dos alunos, porém ainda são poucas as aplicações da gamificação no processo de avaliação. Nesse contexto, esta pesquisa tem como principal objetivo propor, implementar e testar um sistema gamificado de apoio ao processo da avaliação da aprendizagem, que utiliza elementos da gamificação como instrumentos de avaliação da aprendizagem, por meio de uma pesquisa-ação. Na pesquisa-ação, o sistema foi usado na gamificação do processo educacional em duas turmas de Ensino Médio integrado ao Técnico, com um total de 71 alunos. A pesquisa foi realizada em três cenários distintos. O primeiro sem nenhum elemento de gamificação, o segundo com a gamificação da avaliação e o terceiro com a gamificação das aulas e da avaliação. Em cada um dos cenários foram coletados dados para análise, como por exemplo, quantidade de entregas e engajamento. Verificou-se benefícios do uso da gamificação, como transparência dos resultados, velocidade de feedback e melhora na autonomia dos alunos. Os dados coletados também indicam um aumento na quantidade de entregas de atividades da disciplina.

9
  • LUCAS HECK DOS SANTOS
  • Uso de Redes Adversárias Generativas em Sistemas de Interface Cérebro-Computador

  • Orientador : DENIS GUSTAVO FANTINATO
  • Data: 25/07/2022

  • Mostrar Resumo
  • Sistemas de Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface) têm sido foco de atenção devido a suas possíveis aplicações no campo medicinal e de entretenimento. Para estas tarefas, usualmente, é feita a classificação dos sinais ligados à atividade cerebral. Porém esses sinais possuem alta complexidade e estão sujeitos a ruídos, agravados pelo equipamento de medida. Redes de aprendizagem profunda vêm sendo utilizadas recentemente como forma de interpretar os sinais sem necessidade de ajuste manual de parâmetros. Nesse contexto, as Redes Neurais Convolucionais apresentam resultados muito interessantes, tanto em paradigmas de BCI de atenção seletiva quanto de imagética motora, ao superarem em acurácia os métodos tradicionais. No entanto, essas novas soluções têm dificuldades de convergência devido a escassez de dados disponíveis para treinamento. Neste trabalho fazemos o uso da Rede Adversária Generativa (GAN, do inglês Generative Adversarial Network) para produção de sinais artificiais com o objetivo de melhorar o treinamento da rede convolucional. Comparamos a GAN com aumento de dados via adição de ruído gaussiano, técnica de maior simplicidade. Buscamos ainda fazer o mapeamento dos sinais cerebrais em imagens, pois essas redes têm um potencial maior com dados multidimensionais. Os resultados dos experimentos demonstram que há melhora na acurácia com a introdução da GAN, porém com um ganho de cerca de 2% nos melhores casos com série temporal e codificada como imagem. Por outro lado, com aumento de dados via ruído obteve-se ganhos de até 5% no caso temporal e 2% com imagem.


  • Mostrar Abstract
  • Sistemas de Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface) têm sido foco de atenção devido a suas possíveis aplicações no campo medicinal e de entretenimento. Para estas tarefas, usualmente, é feita a classificação dos sinais ligados à atividade cerebral. Porém esses sinais possuem alta complexidade e estão sujeitos a ruídos, agravados pelo equipamento de medida. Redes de aprendizagem profunda vêm sendo utilizadas recentemente como forma de interpretar os sinais sem necessidade de ajuste manual de parâmetros. Nesse contexto, as Redes Neurais Convolucionais apresentam resultados muito interessantes, tanto em paradigmas de BCI de atenção seletiva quanto de imagética motora, ao superarem em acurácia os métodos tradicionais. No entanto, essas novas soluções têm dificuldades de convergência devido a escassez de dados disponíveis para treinamento. Neste trabalho fazemos o uso da Rede Adversária Generativa (GAN, do inglês Generative Adversarial Network) para produção de sinais artificiais com o objetivo de melhorar o treinamento da rede convolucional. Comparamos a GAN com aumento de dados via adição de ruído gaussiano, técnica de maior simplicidade. Buscamos ainda fazer o mapeamento dos sinais cerebrais em imagens, pois essas redes têm um potencial maior com dados multidimensionais. Os resultados dos experimentos demonstram que há melhora na acurácia com a introdução da GAN, porém com um ganho de cerca de 2% nos melhores casos com série temporal e codificada como imagem. Por outro lado, com aumento de dados via ruído obteve-se ganhos de até 5% no caso temporal e 2% com imagem.

10
  • GILLIARD CUSTÓDIO
  • Predição de umidade de solo como séries temporais: um comporativo entre técnicas estatísticas e aprendizado de máquina

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 28/07/2022

  • Mostrar Resumo
  • A gestão adequada do recurso hídrico no Brasil é uma demanda de interesse público. Dentre os principais consumidores do recurso hídrico potável destaca-se o processo de irrigação de cultivos agrícolas que é responsável pelo consumo de aproximadamente 50\% de toda água potável utilizada em um ano. É estimado que 60\% do recurso hídrico utilizado no processo de irrigação é desperdiçado. Logo, é fundamental que o processo de irrigação seja aprimorado. Para minimizar o desperdício de água no processo de irrigação o projeto Plataforma de Gerenciamento Inteligente de Água (SWAMP) propõe utilizar a tecnologia como aliada para gestão eficiente do processo. O gerenciamento do processo de irrigação tem como pré-requisito a estimativa da necessidade de água para o solo. Neste trabalho foi explorado técnicas de modelagem de série temporal multivariada para predição da umidade do solo. A umidade do solo é uma variável de interesse da plataforma SWAMP para o cálculo da necessidade de água que deve ser fornecida ao solo. Para isso, foi utilizado dados históricos de um período de dois anos com múltiplas componentes, como, umidade e temperatura do solo, por exemplo. Foram avaliados algoritmos de aprendizado de máquina, aprendizado profundo e uma técnica estatística tradicional foi utilizada como referência. Os algoritmos de aprendizado de máquina avaliados foram o \textit{Extreme Gradient Boosting} e \textit{Random Forest}. A arquitetura de rede neural \textit{Spectral Temporal Graph Neural Network} (StemGNN) foi o algoritmo de aprendizado profundo avaliado. E o \textit{Vector Autoregression}, foi utilizado como referência de desempenho esperado na predição da umidade do solo. Os experimentos preliminares mostram que o algoritmo \textit{Random Forest} foi o mais eficiente no processo de predição da umidade do solo e gerou o modelo com a melhor estabilidade nas predições do período avaliado. Além disso, foi observado que a StemGNN não foi capaz de superar o modelo referência na maioria dos cenários de modelagem.


  • Mostrar Abstract
  • A gestão adequada do recurso hídrico no Brasil é uma demanda de interesse público. Dentre os principais consumidores do recurso hídrico potável destaca-se o processo de irrigação de cultivos agrícolas que é responsável pelo consumo de aproximadamente 50\% de toda água potável utilizada em um ano. É estimado que 60\% do recurso hídrico utilizado no processo de irrigação é desperdiçado. Logo, é fundamental que o processo de irrigação seja aprimorado. Para minimizar o desperdício de água no processo de irrigação o projeto Plataforma de Gerenciamento Inteligente de Água (SWAMP) propõe utilizar a tecnologia como aliada para gestão eficiente do processo. O gerenciamento do processo de irrigação tem como pré-requisito a estimativa da necessidade de água para o solo. Neste trabalho foi explorado técnicas de modelagem de série temporal multivariada para predição da umidade do solo. A umidade do solo é uma variável de interesse da plataforma SWAMP para o cálculo da necessidade de água que deve ser fornecida ao solo. Para isso, foi utilizado dados históricos de um período de dois anos com múltiplas componentes, como, umidade e temperatura do solo, por exemplo. Foram avaliados algoritmos de aprendizado de máquina, aprendizado profundo e uma técnica estatística tradicional foi utilizada como referência. Os algoritmos de aprendizado de máquina avaliados foram o \textit{Extreme Gradient Boosting} e \textit{Random Forest}. A arquitetura de rede neural \textit{Spectral Temporal Graph Neural Network} (StemGNN) foi o algoritmo de aprendizado profundo avaliado. E o \textit{Vector Autoregression}, foi utilizado como referência de desempenho esperado na predição da umidade do solo. Os experimentos preliminares mostram que o algoritmo \textit{Random Forest} foi o mais eficiente no processo de predição da umidade do solo e gerou o modelo com a melhor estabilidade nas predições do período avaliado. Além disso, foi observado que a StemGNN não foi capaz de superar o modelo referência na maioria dos cenários de modelagem.

11
  • KLEBER DA SILVA PIRES
  • Análise de Resposta ao Tratamento Neoadjuvante em Câncer de Mama Utilizando Redes Profundas 

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 23/08/2022

  • Mostrar Resumo
  • O câncer de mama é o tipo de câncer mais comum entre mulheres, e este possui a maior taxa de óbitos entre todos os tipos de câncer. O tratamento pré-cirúrgico (neoadjuvante) pode melhorar o prognóstico do paciente, porém, não é possível prever se o paciente vai responder ao tratamento. Estudos anteriores foram conduzidos para encontrar características capazes de associar o tratamento neoadjuvante à resposta do paciente, alguns utilizando radiômica convencional e outros redes convolucionais, em sua maioria utilizando bases privadas com poucos exemplos, sendo trabalhos não reprodutíveis. Neste trabalho, foi proposto um modelo de aprendizado profundo utilizando imagens e dados clínicos oriundos de uma base de dados pública (Duke Breast Cancer MRI), capaz de extrair características de imagens de ressonância magnética da mama, e associar os atributos ao prognóstico. Os 300 pacientes foram divididos entre treino/validação (90%) e teste (10%) utilizando validação cruzada de três pastas, onde cada pasta possui uma combinação diferente de pacientes, sendo $10\%$ para validação e 90% para treinamento. Utilizando análises quantitativas dos resultados gerados a partir do modelo treinado, foi concluído que o modelo proposto é capaz de classificar os pacientes com resposta completa ao tratamento neoadjuvante. Os resultados demonstraram uma acurácia superior quando comparado com o estudo de Cain et al. na mesma base de dados, AUC (area under the curve) média de 0,70 para 0,82 e acurácia média de 70% no conjunto de testes e 75% no conjunto de validação. O modelo proposto obteve resultados competitivos comparando com a literatura em bases de dados públicas, não sendo possível reproduzir por completo os trabalhos de outros autores. Tendo em vista trabalhos de radiômica convencional, os experimentos mostraram que o método de redes convolucionais profundas também é sensível aos dados. Desta forma, métodos de tratamento de imagens podem melhorar os resultados.


  • Mostrar Abstract
  • O câncer de mama é o tipo de câncer mais comum entre mulheres, e este possui a maior taxa de óbitos entre todos os tipos de câncer. O tratamento pré-cirúrgico (neoadjuvante) pode melhorar o prognóstico do paciente, porém, não é possível prever se o paciente vai responder ao tratamento. Estudos anteriores foram conduzidos para encontrar características capazes de associar o tratamento neoadjuvante à resposta do paciente, alguns utilizando radiômica convencional e outros redes convolucionais, em sua maioria utilizando bases privadas com poucos exemplos, sendo trabalhos não reprodutíveis. Neste trabalho, foi proposto um modelo de aprendizado profundo utilizando imagens e dados clínicos oriundos de uma base de dados pública (Duke Breast Cancer MRI), capaz de extrair características de imagens de ressonância magnética da mama, e associar os atributos ao prognóstico. Os 300 pacientes foram divididos entre treino/validação (90%) e teste (10%) utilizando validação cruzada de três pastas, onde cada pasta possui uma combinação diferente de pacientes, sendo $10\%$ para validação e 90% para treinamento. Utilizando análises quantitativas dos resultados gerados a partir do modelo treinado, foi concluído que o modelo proposto é capaz de classificar os pacientes com resposta completa ao tratamento neoadjuvante. Os resultados demonstraram uma acurácia superior quando comparado com o estudo de Cain et al. na mesma base de dados, AUC (area under the curve) média de 0,70 para 0,82 e acurácia média de 70% no conjunto de testes e 75% no conjunto de validação. O modelo proposto obteve resultados competitivos comparando com a literatura em bases de dados públicas, não sendo possível reproduzir por completo os trabalhos de outros autores. Tendo em vista trabalhos de radiômica convencional, os experimentos mostraram que o método de redes convolucionais profundas também é sensível aos dados. Desta forma, métodos de tratamento de imagens podem melhorar os resultados.

12
  • FRANCIS BORGES OLIVEIRA
  • Estratégias de Implantação de Aplicações em Infraestruturas Distribuídas no Contexto da Internet das Coisas

  • Orientador : CARLOS ALBERTO KAMIENSKI
  • Data: 24/08/2022

  • Mostrar Resumo
  • Aplicações para a Internet das Coisas (IoT) vêm ganhando popularidade ao longo dos anos e cada vez mais é comum seu uso em diferentes segmentos como cidades inteligentes, agricultura inteligente, casa inteligente e indústrias (conhecida também como IoT industrial).
    Para acompanhar essa evolução, diversas tecnologias e ferramentas vêm sendo criadas para facilitar o desenvolvimento e configuração de aplicações IoT. Apesar disso, ainda não existe uma tecnologia consolidada em IoT que permite a adoção de técnicas de deployment como integração contínua e entrega contínua (CI/CD) que são técnicas utilizadas com sucesso em aplicações web. Uma outra característica comum é que muitas aplicações IoT são constituídas de serviços executados em ambientes heterogêneos como Nuvem, Névoa e Bruma, e o deployment destes serviços em geral é feito de maneira diferente para cada ambiente e de forma estática (um serviço executado na Névoa não pode ser movido para a Nuvem por exemplo).

    O objetivo deste trabalho é propor uma solução para realizar o deployment estático, e também dinâmico, dos serviços que compõem um sistema IoT, através da utilização de containers e de um orquestrador de containers para controle e coordenação dos serviços. Para estender a orquestração de containers a borda da rede, adicionamos um novo componente que será responsável por cuidar da comunicação e gerenciamento dos containers que são executados fora da Nuvem. Para efetuar o deployment e garantir que todos os serviços sejam executados no ambiente correto, é apresentado um plugin criado para ser adicionado a uma ferramenta de CI/CD, possibilitando dessa forma se comunicar com o orquestrador de containers via API, seguindo uma configuração pré-estabelecida. O experimento apresenta resultados interessantes, demonstrando que o deployment em ambientes distribuídos é confiável e resiliente, até mesmo em cenários no qual é preciso realizar migração de dados sem interromper o funcionamento da aplicação.


  • Mostrar Abstract
  • Aplicações para a Internet das Coisas (IoT) vêm ganhando popularidade ao longo dos anos e cada vez mais é comum seu uso em diferentes segmentos como cidades inteligentes, agricultura inteligente, casa inteligente e indústrias (conhecida também como IoT industrial).
    Para acompanhar essa evolução, diversas tecnologias e ferramentas vêm sendo criadas para facilitar o desenvolvimento e configuração de aplicações IoT. Apesar disso, ainda não existe uma tecnologia consolidada em IoT que permite a adoção de técnicas de deployment como integração contínua e entrega contínua (CI/CD) que são técnicas utilizadas com sucesso em aplicações web. Uma outra característica comum é que muitas aplicações IoT são constituídas de serviços executados em ambientes heterogêneos como Nuvem, Névoa e Bruma, e o deployment destes serviços em geral é feito de maneira diferente para cada ambiente e de forma estática (um serviço executado na Névoa não pode ser movido para a Nuvem por exemplo).

    O objetivo deste trabalho é propor uma solução para realizar o deployment estático, e também dinâmico, dos serviços que compõem um sistema IoT, através da utilização de containers e de um orquestrador de containers para controle e coordenação dos serviços. Para estender a orquestração de containers a borda da rede, adicionamos um novo componente que será responsável por cuidar da comunicação e gerenciamento dos containers que são executados fora da Nuvem. Para efetuar o deployment e garantir que todos os serviços sejam executados no ambiente correto, é apresentado um plugin criado para ser adicionado a uma ferramenta de CI/CD, possibilitando dessa forma se comunicar com o orquestrador de containers via API, seguindo uma configuração pré-estabelecida. O experimento apresenta resultados interessantes, demonstrando que o deployment em ambientes distribuídos é confiável e resiliente, até mesmo em cenários no qual é preciso realizar migração de dados sem interromper o funcionamento da aplicação.

13
  • FERNANDA BORGES DA SILVA
  • Ensembles de classificadores por meio de Algoritmos Evolutivos

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 30/08/2022

  • Mostrar Resumo
  • A eficácia de um ensemble de classificadores depende da seleção de modelos de classificação
    que sejam acurados e diversos, ou seja, que cometam erros diferentes, para comporem o
    comitê. Entretanto, realizar a seleção dos hiperparâmetros dos classificadores garantindo
    diversidade e eficácia é um problema computacionalmente caro, uma vez que o espaço de
    busca é muito amplo. Os Algoritmos Evolutivos são meta-heurísticas que se mostraram
    efetivas em problemas NP-difíceis. Uma das vantagens desses algoritmos, em relação a
    métodos de busca tradicionais, é que eles possuem menor propensão a ficarem presos
    em ótimos locais; isso se deve principalmente ao fato de processarem um conjunto de
    soluções (população) em vez de apenas uma solução. Além disso, existem Algoritmos
    Evolutivos que fazem uma busca por diversidade, cuja seleção dos indivíduos para compor
    a próxima geração é feita considerando a dissimilaridade entre os membros da população.
    Dadas essas características, a utilização de Algoritmos Evolutivos para buscar diversidade
    é uma abordagem apropriada para a otimização da construção de ensembles. Portanto, um
    Algoritmo Evolutivo chamado Diversity-based Classifier Ensemble (DCE), que incentiva
    a seleção de classificadores diversos para comporem o comitê, foi desenvolvido nessa
    dissertação. Entretanto, a execução desse Algoritmo Evolutivo para criar ensembles consome
    uma grande quantidade de processamento e memória. Por esse motivo, o Algoritmo
    Evolutivo paralelo chamado Parallel Diversity-based Classifier Ensemble (P-DCE) também
    foi desenvolvido utilizando a técnica global parallelisation model para distribuir o custo
    computacional entre diversas CPUs. Com esse mesmo objetivo de explorar a busca por
    diversidade entre os classificadores do comitê e a distribuição do custo computacional entre
    diversas CPUs, também propomos nesta dissertação os algoritmos Island Diversity-based
    Classifier Ensemble (IDCE) e Island Classifier Ensemble (ICE), que são baseados no
    modelo de ilhas, que é um tipo de Algoritmo Evolutivo paralelo. Os resultados obtidos a
    partir dos experimentos computacionais realizados indicam que os algoritmos propostos
    são ferramentas úteis quando comparadas com a estratégia de busca aleatória para a
    resolução do problema de otimização de ensembles de classificadores. Mais precisamente,
    os algoritmos DCE e IDCE se mostrarem promissores para encontrar ensembles com
    acurácias satisfatórias em tempo competitivo com a abordagem de busca aleatória. O
    algoritmo ICE apresentou resultados melhores do que os apresentados pela abordagem de
    busca aleatória e pelos algoritmos DCE e IDCE. Por último, também foi possível concluir
    que conforme o paralelismo aumenta o tempo de execução do P-DCE diminui.


  • Mostrar Abstract
  • A eficácia de um ensemble de classificadores depende da seleção de modelos de classificação
    que sejam acurados e diversos, ou seja, que cometam erros diferentes, para comporem o
    comitê. Entretanto, realizar a seleção dos hiperparâmetros dos classificadores garantindo
    diversidade e eficácia é um problema computacionalmente caro, uma vez que o espaço de
    busca é muito amplo. Os Algoritmos Evolutivos são meta-heurísticas que se mostraram
    efetivas em problemas NP-difíceis. Uma das vantagens desses algoritmos, em relação a
    métodos de busca tradicionais, é que eles possuem menor propensão a ficarem presos
    em ótimos locais; isso se deve principalmente ao fato de processarem um conjunto de
    soluções (população) em vez de apenas uma solução. Além disso, existem Algoritmos
    Evolutivos que fazem uma busca por diversidade, cuja seleção dos indivíduos para compor
    a próxima geração é feita considerando a dissimilaridade entre os membros da população.
    Dadas essas características, a utilização de Algoritmos Evolutivos para buscar diversidade
    é uma abordagem apropriada para a otimização da construção de ensembles. Portanto, um
    Algoritmo Evolutivo chamado Diversity-based Classifier Ensemble (DCE), que incentiva
    a seleção de classificadores diversos para comporem o comitê, foi desenvolvido nessa
    dissertação. Entretanto, a execução desse Algoritmo Evolutivo para criar ensembles consome
    uma grande quantidade de processamento e memória. Por esse motivo, o Algoritmo
    Evolutivo paralelo chamado Parallel Diversity-based Classifier Ensemble (P-DCE) também
    foi desenvolvido utilizando a técnica global parallelisation model para distribuir o custo
    computacional entre diversas CPUs. Com esse mesmo objetivo de explorar a busca por
    diversidade entre os classificadores do comitê e a distribuição do custo computacional entre
    diversas CPUs, também propomos nesta dissertação os algoritmos Island Diversity-based
    Classifier Ensemble (IDCE) e Island Classifier Ensemble (ICE), que são baseados no
    modelo de ilhas, que é um tipo de Algoritmo Evolutivo paralelo. Os resultados obtidos a
    partir dos experimentos computacionais realizados indicam que os algoritmos propostos
    são ferramentas úteis quando comparadas com a estratégia de busca aleatória para a
    resolução do problema de otimização de ensembles de classificadores. Mais precisamente,
    os algoritmos DCE e IDCE se mostrarem promissores para encontrar ensembles com
    acurácias satisfatórias em tempo competitivo com a abordagem de busca aleatória. O
    algoritmo ICE apresentou resultados melhores do que os apresentados pela abordagem de
    busca aleatória e pelos algoritmos DCE e IDCE. Por último, também foi possível concluir
    que conforme o paralelismo aumenta o tempo de execução do P-DCE diminui.

14
  • THIAGO COSTA RIZUTI DA ROCHA
  • Sistemas de Recomendação utilizando coagrupamento e aprendizado simultâneo evolutivo

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 31/08/2022

  • Mostrar Resumo
  • Sistemas de Recomendação são ferramentas que auxiliam na seleção personalizada de itens de acordo com as preferências individuais dos usuários. Filmes, músicas e produtos em e-commerce são exemplos de aplicações bem conhecidas. Características comuns em dados destes domínios são a alta dimensionalidade, devido a grande quantidade de usuários e itens, e a alta esparsidade, devido ao fato de que cada usuário interage apenas com uma pequena parte dos itens. Neste cenário, obter um modelo que represente a relação de todos usuários com todos os itens se mostra uma tarefa desafiadora. Como proposto no algoritmo SCOAL (Simultaneous Co-Clustering and Learning), a segmentação dos dados e o aprendizado de modelos locais se mostra como uma boa solução. Ainda assim, o número de modelos locais é um parâmetro crítico que deve ser ajustado manualmente. A fim de otimizar a busca do melhor valor deste parâmetro, propomos uma variante baseada em Algoritmos Evolutivos, denominada Evolutionary Simultaneous Co-Clustering and Learning (EvoSCOAL). Por meio de experimentos computacionais em dados sintéticos, observamos que o EvoSCOAL pode superar a abordagem da literatura, baseada em busca por bisecção, tanto na qualidade preditiva e quanto na capacidade de estimar o valores do parâmetro. Em bases de dados reais, o EvoSCOAL se mostrou competitivo em comparação a técnicas tradicionais da literatura de sistemas de recomendação.


  • Mostrar Abstract
  • Sistemas de Recomendação são ferramentas que auxiliam na seleção personalizada de itens de acordo com as preferências individuais dos usuários. Filmes, músicas e produtos em e-commerce são exemplos de aplicações bem conhecidas. Características comuns em dados destes domínios são a alta dimensionalidade, devido a grande quantidade de usuários e itens, e a alta esparsidade, devido ao fato de que cada usuário interage apenas com uma pequena parte dos itens. Neste cenário, obter um modelo que represente a relação de todos usuários com todos os itens se mostra uma tarefa desafiadora. Como proposto no algoritmo SCOAL (Simultaneous Co-Clustering and Learning), a segmentação dos dados e o aprendizado de modelos locais se mostra como uma boa solução. Ainda assim, o número de modelos locais é um parâmetro crítico que deve ser ajustado manualmente. A fim de otimizar a busca do melhor valor deste parâmetro, propomos uma variante baseada em Algoritmos Evolutivos, denominada Evolutionary Simultaneous Co-Clustering and Learning (EvoSCOAL). Por meio de experimentos computacionais em dados sintéticos, observamos que o EvoSCOAL pode superar a abordagem da literatura, baseada em busca por bisecção, tanto na qualidade preditiva e quanto na capacidade de estimar o valores do parâmetro. Em bases de dados reais, o EvoSCOAL se mostrou competitivo em comparação a técnicas tradicionais da literatura de sistemas de recomendação.

15
  • JULIANE KRISTINE DE LIMA
  • Cobertura de grafos aleatórios por componentes monocromáticas

  • Orientador : GUILHERME OLIVEIRA MOTA
  • Data: 14/09/2022

  • Mostrar Resumo
  • Muitos problemas de particionamento e cobertura dos vértices de um
    grafo estão em aberto, ainda que estejam presentes na literatura há
    mais de 50 anos. Neste trabalho, o interesse está em determinar o
    menor número $t$ de componentes monocromáticas necessárias para cobrir
    os vértices de um grafo aleatório binomial em qualquer coloração de
    arestas com $r=3$ cores, propriedade denotada por $tc_r(G(n,p)) \leq
    t$. No caso de $G(n,p)$, em que a densidade de arestas varia em função
    de $p=p(n)$, o objetivo deste trabalho é investigar o valor de $p$ que
    caracteriza uma função limiar para a propriedade $tc_3(G(n,p)) \leq
    3$. Bal e De Biasio propuseram esse problema em 2017 e, desde então,
    alguns trabalhos trouxeram avanços no entendimento da propriedade. Por
    meio da construção de um contraexemplo, Ebsen Mota e Schnitzer
    determinaram um limitante inferior para $tc_r(G(n,p)) \leq t$, que
    ocorre assintoticamente quase certamente com $p \ll \left(\frac{\log
    n}{n}\right)^{1/4}$. Em 2021, Brada\v{c} e Buci\'{c} determinaram
    como limitante superior para a mesma propriedade o valor de $p \gg
    \left(\frac{\log n}{n}\right)^{1/4}$, por meio de uma técnica
    utilizando hipergrafos $r$-uniformes auxiliares. Assim, determinou-se
    que a função limiar para a propriedade $tc_3(G(n,p)) \leq 3$ é $p =
    \left(\frac{\log n}{n}\right)^{1/4}$. Neste trabalho, apresentamos os
    avanços realizados ao longo do tempo, a respeito desse problema, bem
    como apresentamos de forma detalhada várias técnicas relevantes em
    Combinatória, as quais foram utilizadas para a obtenção desses
    avanços.


  • Mostrar Abstract
  • Muitos problemas de particionamento e cobertura dos vértices de um
    grafo estão em aberto, ainda que estejam presentes na literatura há
    mais de 50 anos. Neste trabalho, o interesse está em determinar o
    menor número $t$ de componentes monocromáticas necessárias para cobrir
    os vértices de um grafo aleatório binomial em qualquer coloração de
    arestas com $r=3$ cores, propriedade denotada por $tc_r(G(n,p)) \leq
    t$. No caso de $G(n,p)$, em que a densidade de arestas varia em função
    de $p=p(n)$, o objetivo deste trabalho é investigar o valor de $p$ que
    caracteriza uma função limiar para a propriedade $tc_3(G(n,p)) \leq
    3$. Bal e De Biasio propuseram esse problema em 2017 e, desde então,
    alguns trabalhos trouxeram avanços no entendimento da propriedade. Por
    meio da construção de um contraexemplo, Ebsen Mota e Schnitzer
    determinaram um limitante inferior para $tc_r(G(n,p)) \leq t$, que
    ocorre assintoticamente quase certamente com $p \ll \left(\frac{\log
    n}{n}\right)^{1/4}$. Em 2021, Brada\v{c} e Buci\'{c} determinaram
    como limitante superior para a mesma propriedade o valor de $p \gg
    \left(\frac{\log n}{n}\right)^{1/4}$, por meio de uma técnica
    utilizando hipergrafos $r$-uniformes auxiliares. Assim, determinou-se
    que a função limiar para a propriedade $tc_3(G(n,p)) \leq 3$ é $p =
    \left(\frac{\log n}{n}\right)^{1/4}$. Neste trabalho, apresentamos os
    avanços realizados ao longo do tempo, a respeito desse problema, bem
    como apresentamos de forma detalhada várias técnicas relevantes em
    Combinatória, as quais foram utilizadas para a obtenção desses
    avanços.

16
  • URIEL ALEJANDRO SALAZAR MARTÍNEZ
  • Um Estudo de Versões Probabilísticas de Propriedades Tipo Ramsey e Variantes

  • Orientador : GUILHERME OLIVEIRA MOTA
  • Data: 19/09/2022

  • Mostrar Resumo
  • Um dos maiores problemas em aberto em Combinatória
    pertence à Teoria de Ramsey. Nesta Teoria, por exemplo,
    temos interesse em determinar valores $n=n(k)$ tais que toda
    $2$-coloração das arestas do grafo completo $K_{n}$ contém
    uma cópia monocromática de $K_{k}$. Uma abordagem
    semelhante, em grafos aleatórios, pretende determinar
    valores de $p$ tais que toda coloração das arestas de
    $G(n,p)$ com $r$ cores contém uma cópia monocromática de um
    grafo fixo $H$. Algumas generalizações naturais dessa
    propriedade são a Teoria anti-Ramsey, onde queremos
    encontrar uma cópia \rainbow\ de um dado grafo $H$, ou
    podemos também combinar ambas as noções da Teoria de Ramsey
    e da Teoria anti-Ramsey. Em grafos aleatórios existe um
    fenômeno, conhecido como função limiar, caracterizado pela
    mudança abrupta, ao variar o valor $p$, da probabilidade de
    $G(n,p)$ satisfazer ou não certa propriedade. Um resultado
    clássico de Bollobás e Thomason garante que as propriedades
    do tipo Ramsey admitem uma função limiar, pois elas
    pertencem a uma família especial de propriedades, chamadas
    de propriedades crescentes. Neste trabalho serão estudadas
    algumas variantes das versões probabilísticas para as
    propriedades do tipo Ramsey, anti-Ramsey e generalizações,
    bem como os avanços feitos a respeito da determinação dos
    limiares para cada uma delas.


  • Mostrar Abstract
  • Um dos maiores problemas em aberto em Combinatória
    pertence à Teoria de Ramsey. Nesta Teoria, por exemplo,
    temos interesse em determinar valores $n=n(k)$ tais que toda
    $2$-coloração das arestas do grafo completo $K_{n}$ contém
    uma cópia monocromática de $K_{k}$. Uma abordagem
    semelhante, em grafos aleatórios, pretende determinar
    valores de $p$ tais que toda coloração das arestas de
    $G(n,p)$ com $r$ cores contém uma cópia monocromática de um
    grafo fixo $H$. Algumas generalizações naturais dessa
    propriedade são a Teoria anti-Ramsey, onde queremos
    encontrar uma cópia \rainbow\ de um dado grafo $H$, ou
    podemos também combinar ambas as noções da Teoria de Ramsey
    e da Teoria anti-Ramsey. Em grafos aleatórios existe um
    fenômeno, conhecido como função limiar, caracterizado pela
    mudança abrupta, ao variar o valor $p$, da probabilidade de
    $G(n,p)$ satisfazer ou não certa propriedade. Um resultado
    clássico de Bollobás e Thomason garante que as propriedades
    do tipo Ramsey admitem uma função limiar, pois elas
    pertencem a uma família especial de propriedades, chamadas
    de propriedades crescentes. Neste trabalho serão estudadas
    algumas variantes das versões probabilísticas para as
    propriedades do tipo Ramsey, anti-Ramsey e generalizações,
    bem como os avanços feitos a respeito da determinação dos
    limiares para cada uma delas.

17
  • GUSTAVO ROMAO GONZALES
  • Taxonomia de Arquiteturas de Sistemas de Apoio à Decisão baseada em Visual Analytics

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 21/10/2022

  • Mostrar Resumo
  • Vivemos na era da informação, em que a descoberta de novas oportunidades se dá por meio dos dados produzidos diariamente na Internet. Estes dados produzidos em escala exponencial criou novas áreas de pesquisa como o Big Data, a Internet das Coisas (IoT) entre outras. Uma classe de sistemas que tem utilizado o apoio dos dados em suas operações é o Sistema de Apoio à Decisão (SAD). Os SAD são genericamente falando, qualquer sistema que utilize dados no apoio de uma tomada de decisão. Atualmente, SAD se tornou uma área própria, tendo suas definições sólidas na literatura Os Sistemas de Apoio à Decisão (SAD) estão crescendo ao longo dos anos. Dentro da necessidade pelas informações, os SAD estão aproveitando o aumento do acesso à Internet e uso de dispositivos eletrônicos como meios de produção massiva de dados. Este grande volumes de dados (Big Data) para processamento torna o mercado mais competitivo e faz com que a tomada de decisão deva ser cada vez mais assertiva. Neste sentido, o Visual Analytics (VA) emerge como meio para permitir uma melhor utilização e exploração nestes volumes de dados através do poder computacional, alta interatividade e do pensamento humano. Embora o VA já tenha apresentado suas vantagens em SAD, sua implementação não é uma tarefa trivial, carecendo atualmente de métodos de implementação e avaliação. A literatura aponta padrões de desenvolvimento para ferramentas de visualização, indicando estruturas para suporte à exploração de dados, integração de novas técnicas de visualização entre outras. Enquanto que a área de VA apresenta escassez de referenciais teóricos descricionários. O presente trabalho tem como principal objetivo apresentar uma taxonomia de arquiteturas de SAD focada em VA, para isso, o projeto se dividiu em duas principais tarefas: a) Revisão da literatura por meio de um mapeamento sistemático, onde foram identificadas as principais lacunas da área de pesquisa; b) Desenvolvimento e Avaliação da taxonomia. As metodologias, bem como suas fases e seus resultados serão discutidos no decorrer do trabalho. Como principais resultados e contribuições deste trabalho, a taxonomia foi capaz de identificar os aspectos arquiteturais para implementação do VA dentro de uma arquitetura de SAD. Estes aspectos arquiteturais apresentam variações de implementação e podem apoiar na concepção de arquiteturas que implementam VA, indicando por exemplo quais aspectos podem ser considerados na arquitetura.


  • Mostrar Abstract
  • Vivemos na era da informação, em que a descoberta de novas oportunidades se dá por meio dos dados produzidos diariamente na Internet. Estes dados produzidos em escala exponencial criou novas áreas de pesquisa como o Big Data, a Internet das Coisas (IoT) entre outras. Uma classe de sistemas que tem utilizado o apoio dos dados em suas operações é o Sistema de Apoio à Decisão (SAD). Os SAD são genericamente falando, qualquer sistema que utilize dados no apoio de uma tomada de decisão. Atualmente, SAD se tornou uma área própria, tendo suas definições sólidas na literatura Os Sistemas de Apoio à Decisão (SAD) estão crescendo ao longo dos anos. Dentro da necessidade pelas informações, os SAD estão aproveitando o aumento do acesso à Internet e uso de dispositivos eletrônicos como meios de produção massiva de dados. Este grande volumes de dados (Big Data) para processamento torna o mercado mais competitivo e faz com que a tomada de decisão deva ser cada vez mais assertiva. Neste sentido, o Visual Analytics (VA) emerge como meio para permitir uma melhor utilização e exploração nestes volumes de dados através do poder computacional, alta interatividade e do pensamento humano. Embora o VA já tenha apresentado suas vantagens em SAD, sua implementação não é uma tarefa trivial, carecendo atualmente de métodos de implementação e avaliação. A literatura aponta padrões de desenvolvimento para ferramentas de visualização, indicando estruturas para suporte à exploração de dados, integração de novas técnicas de visualização entre outras. Enquanto que a área de VA apresenta escassez de referenciais teóricos descricionários. O presente trabalho tem como principal objetivo apresentar uma taxonomia de arquiteturas de SAD focada em VA, para isso, o projeto se dividiu em duas principais tarefas: a) Revisão da literatura por meio de um mapeamento sistemático, onde foram identificadas as principais lacunas da área de pesquisa; b) Desenvolvimento e Avaliação da taxonomia. As metodologias, bem como suas fases e seus resultados serão discutidos no decorrer do trabalho. Como principais resultados e contribuições deste trabalho, a taxonomia foi capaz de identificar os aspectos arquiteturais para implementação do VA dentro de uma arquitetura de SAD. Estes aspectos arquiteturais apresentam variações de implementação e podem apoiar na concepção de arquiteturas que implementam VA, indicando por exemplo quais aspectos podem ser considerados na arquitetura.

18
  • RENAN DA SILVA MARQUES
  • Um Conjunto de Instruções para Elaborar uma Estratégia de Transformação Digital: Um plano abrangente para diferentes contextos

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 27/10/2022

  • Mostrar Resumo
  • Diferentes organizações estão sendo pressionadas a modernizar seu modelo de negócio, deparando-se com a importância de elaborar uma boa estratégia de transformação digital. Apesar disso, a área ainda é considerada imatura, tendo uma literatura composta por diretrizes em âmbitos reduzidos, e que não abrangem diferentes organizações. Neste contexto, apesar de diretrizes já identificadas na literatura, as mesmas não são consideradas diretrizes absolutas, o que pode dificultar a identificação de diretrizes, e consequentemente a elaboração de uma estratégia. Deste modo, este trabalho tem o objetivo de disponibilizar uma metodologia que possibilite o desenvolvimento de uma estratégia de transformação digital em diferentes contextos. Para tal, foi realizada uma busca na literatura com o intuito de encontrar mecanismos para elaborar estratégias de transformação digital, incluindo suas respectivas etapas e as dificuldades no processo de transformação. Posteriormente, baseando na literatura, foi realizada a aplicação dos meios identificados em voluntários de diferentes organizações, de modo a averiguar e observar os resultados das diretrizes existentes. Em suma, por meio da análise dos resultados, comentários e desafios relatados na literatura, foi elaborado um conjunto de instruções, compilando todos os passos adaptados e ampliados, que ficará à disposição de qualquer gestor ou organização interessada. Por fim, trabalhos relacionados sugerem diretrizes por meio de relatos das organizações que tiveram sucesso no processo de transformação, não cobrindo desta maneira diferentes categorias de organizações como, por exemplo, em cenários acadêmicos ou organizações sem fins lucrativos. Este trabalho amplia o alcance das diretrizes para elaborar uma estratégia de transformação digital por meio de uma metodologia.


  • Mostrar Abstract
  • Diferentes organizações estão sendo pressionadas a modernizar seu modelo de negócio, deparando-se com a importância de elaborar uma boa estratégia de transformação digital. Apesar disso, a área ainda é considerada imatura, tendo uma literatura composta por diretrizes em âmbitos reduzidos, e que não abrangem diferentes organizações. Neste contexto, apesar de diretrizes já identificadas na literatura, as mesmas não são consideradas diretrizes absolutas, o que pode dificultar a identificação de diretrizes, e consequentemente a elaboração de uma estratégia. Deste modo, este trabalho tem o objetivo de disponibilizar uma metodologia que possibilite o desenvolvimento de uma estratégia de transformação digital em diferentes contextos. Para tal, foi realizada uma busca na literatura com o intuito de encontrar mecanismos para elaborar estratégias de transformação digital, incluindo suas respectivas etapas e as dificuldades no processo de transformação. Posteriormente, baseando na literatura, foi realizada a aplicação dos meios identificados em voluntários de diferentes organizações, de modo a averiguar e observar os resultados das diretrizes existentes. Em suma, por meio da análise dos resultados, comentários e desafios relatados na literatura, foi elaborado um conjunto de instruções, compilando todos os passos adaptados e ampliados, que ficará à disposição de qualquer gestor ou organização interessada. Por fim, trabalhos relacionados sugerem diretrizes por meio de relatos das organizações que tiveram sucesso no processo de transformação, não cobrindo desta maneira diferentes categorias de organizações como, por exemplo, em cenários acadêmicos ou organizações sem fins lucrativos. Este trabalho amplia o alcance das diretrizes para elaborar uma estratégia de transformação digital por meio de uma metodologia.

19
  • POLIANA NASCIMENTO FERREIRA
  • Reconhecimento de Atividades Humanas (HAR) com Crianças em Contexto Educacional.

  • Orientador : CARLA LOPES RODRIGUEZ
  • Data: 23/11/2022

  • Mostrar Resumo
  • A observação objetiva do comportamento de uma criança em sala de aula pode ser feita utilizando sensores de movimento, podendo gerar informações sobre nível de agitação, concentração e engajamento. O reconhecimento de atividades humanas (HAR), unido a sensores wearables com acelerômetros, têm auxiliado na captação objetiva e análise sobre a movimentação e comportamento dos indivíduos. Entretanto, em se tratando de um contexto aplicado
    de sala de aula e com público infantil, ainda há algumas limitações: a falta de bases de dados no contexto, a diferença na expressão das atividades por adultos e crianças, e de cada criança entre si. Assim, faz-se necessária a exploração do HAR no contexto proposto, considerando também dimensões motora e afetiva do aluno. Através de um estudo de caso em campo, foi realizada uma coleta de dados com sensores vestíveis inerciais das atividades de duas turmas do segundo ano do Ensino Fundamental, considerando o momento da aula, nível de atenção e atividades de cada aluno.Espera-se criar uma base de dados pública para mais estudos sobre o tema, realizar a classificação das atividades dos alunos em aula e entender a rotina escolar dos voluntários do estudo no cenário de pandemia.


  • Mostrar Abstract
  • A observação objetiva do comportamento de uma criança em sala de aula pode ser feita utilizando sensores de movimento, podendo gerar informações sobre nível de agitação, concentração e engajamento. O reconhecimento de atividades humanas (HAR), unido a sensores wearables com acelerômetros, têm auxiliado na captação objetiva e análise sobre a movimentação e comportamento dos indivíduos. Entretanto, em se tratando de um contexto aplicado
    de sala de aula e com público infantil, ainda há algumas limitações: a falta de bases de dados no contexto, a diferença na expressão das atividades por adultos e crianças, e de cada criança entre si. Assim, faz-se necessária a exploração do HAR no contexto proposto, considerando também dimensões motora e afetiva do aluno. Através de um estudo de caso em campo, foi realizada uma coleta de dados com sensores vestíveis inerciais das atividades de duas turmas do segundo ano do Ensino Fundamental, considerando o momento da aula, nível de atenção e atividades de cada aluno.Espera-se criar uma base de dados pública para mais estudos sobre o tema, realizar a classificação das atividades dos alunos em aula e entender a rotina escolar dos voluntários do estudo no cenário de pandemia.

20
  • LUCAS VIEIRA DE OLIVEIRA
  • Comparação Experimental de Critérios para Adaptação de Granularidade em Provas Matemáticas.

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 28/11/2022

  • Mostrar Resumo
  • Sistemas formais de demonstração matemática têm papel fundamental no aprimoramento e desenvolvimento de novas demonstrações. Além disso, os métodos e estruturas envolvidos em sistemas formais têm o potencial de apoiar o desenvolvimento de sistemas de tutoria para o aprendizado de demonstrações, o que já tem sido feito por diversos trabalhos. No entanto, o fato destes sistemas formais não terem objetivos pedagógicos como motivação principal, traz alguns obstáculos para o seu uso em um contexto de ensino. Um desses problemas é a granularidade, ou seja, o nível de detalhes em que uma demonstração é apresentada. Provas apresentadas dentro de sistemas formais necessitam que todos os passos sejam deduzidos explicitamente, dificultando sua interpretação, já que mesmo inferências consideradas óbvias para determinadas audiências devem ser exibidas, o que em alguns casos deixa a prova excessivamente longa. Adaptar a apresentação de uma prova formal para que inferências óbvias sejam omitidas, como na apresentação de provas matemáticas em linguagem natural, não é uma tarefa trivial, já que a princípio não existem padrões claros que possam ser utilizados para este fim. Alguns trabalhos têm estudado esse problema nas últimas décadas, no entanto, vários deles utilizando representações e dados diferentes. Essa fragmentação dificulta que avanços na área sejam pesquisados, já que impede a comparação direta dos diferentes métodos utilizados e sua comparação com possíveis novos métodos. Assim, o objetivo dessa pesquisa é comparar diferentes métodos de adaptação de granularidade de provas matemáticas em torno de uma mesma representação e mesmo conjunto de dados, a fim de identificar quais padrões são mais efetivos. Além da comparação de métodos já propostos em outros trabalhos, também é feita uma prova de conceito utilizando aprendizagem de máquina como contribuição para o avanço da área.



  • Mostrar Abstract
  • Sistemas formais de demonstração matemática têm papel fundamental no aprimoramento e desenvolvimento de novas demonstrações. Além disso, os métodos e estruturas envolvidos em sistemas formais têm o potencial de apoiar o desenvolvimento de sistemas de tutoria para o aprendizado de demonstrações, o que já tem sido feito por diversos trabalhos. No entanto, o fato destes sistemas formais não terem objetivos pedagógicos como motivação principal, traz alguns obstáculos para o seu uso em um contexto de ensino. Um desses problemas é a granularidade, ou seja, o nível de detalhes em que uma demonstração é apresentada. Provas apresentadas dentro de sistemas formais necessitam que todos os passos sejam deduzidos explicitamente, dificultando sua interpretação, já que mesmo inferências consideradas óbvias para determinadas audiências devem ser exibidas, o que em alguns casos deixa a prova excessivamente longa. Adaptar a apresentação de uma prova formal para que inferências óbvias sejam omitidas, como na apresentação de provas matemáticas em linguagem natural, não é uma tarefa trivial, já que a princípio não existem padrões claros que possam ser utilizados para este fim. Alguns trabalhos têm estudado esse problema nas últimas décadas, no entanto, vários deles utilizando representações e dados diferentes. Essa fragmentação dificulta que avanços na área sejam pesquisados, já que impede a comparação direta dos diferentes métodos utilizados e sua comparação com possíveis novos métodos. Assim, o objetivo dessa pesquisa é comparar diferentes métodos de adaptação de granularidade de provas matemáticas em torno de uma mesma representação e mesmo conjunto de dados, a fim de identificar quais padrões são mais efetivos. Além da comparação de métodos já propostos em outros trabalhos, também é feita uma prova de conceito utilizando aprendizagem de máquina como contribuição para o avanço da área.


21
  • DIEGO MARTOS BUORO
  • Criação, uso e análise de um processo sistemático orientado a modelos para desenvolvimento de jogos sérios

  • Orientador : DENISE HIDEKO GOYA
  • Data: 29/11/2022

  • Mostrar Resumo
  • Jogos sérios são jogos produzidos com a finalidade de proporcionar o desenvolvimento de competências por meio de uma mídia interativa e não linear. Para a criação desses jogos, é necessária uma equipe multidisciplinar, com profissionais de diversas áreas, como designers, programadores, artistas e especialistas no domínio de aplicação. Uma alternativa para facilitar o desenvolvimento de novos jogos, é fornecer ao especialista interessado em criar um jogo sério as ferramentas que eliminem barreiras técnicas de programação para inserção de conteúdo por meio do desenvolvimento orientado a modelos (Model-driven Game Development - MDGD). O MDGD define que o design do jogo seja baseado em modelos de alta abstração, os quais descrevem todos os elementos do jogo final que é gerado de forma automatizada. A linguagem específica de domínio (Domain Specific Language - DSL) que acompanha o MDGD, por meio de um metamodelo, define a capacidade dos elementos e relações presentes no jogo que será criado. Entretanto, há dificuldades no uso de MDGD em jogos sérios por causa da ausência de abordagens que integrem o MDGD com os requisitos de jogos sérios e a inconsistência da participação do especialista durante o processo de produção da DSL e do jogo sério. Nesse contexto, este trabalho tem como objetivo criar um processo sistemático do MDGD para a produção de jogos sérios, nomeado como PREMISSA, e avaliá-lo por meio do desenvolvimento de uma DSL para jogos sérios, envolvendo os gêneros quiz e aventura 2D. Como prova de conceito, o PREMISSA foi usado para criar uma Linguagem de Modelagem para Jogos de Aventura e Quiz (LMJAQ). Os resultados envolveram a produção de artefatos da DSL e do jogo sério criado: documentação, verificadores de código, a própria DSL LMJAQ, e os protótipos de baixa e alta fidelidade do jogo sério, sendo o último produzido no motor de jogos Unity. Como principais contribuições, tem-se o processo PREMISSA, a DSL LMJAQ, que incluiu mais de um gênero de jogabilidade, o jogo executável gerado a partir dos modelos criados, e a prova de conceito como exemplo de uso do PREMISSA. Os trabalhos futuros envolvem a avaliação do PREMISSA por outras equipes de desenvolvimento de jogos sérios, e a criação e validação de uma ferramenta de edição que apoie o uso do PREMISSA por especialistas no domínio de aplicação.


  • Mostrar Abstract
  • Jogos sérios são jogos produzidos com a finalidade de proporcionar o desenvolvimento de competências por meio de uma mídia interativa e não linear. Para a criação desses jogos, é necessária uma equipe multidisciplinar, com profissionais de diversas áreas, como designers, programadores, artistas e especialistas no domínio de aplicação. Uma alternativa para facilitar o desenvolvimento de novos jogos, é fornecer ao especialista interessado em criar um jogo sério as ferramentas que eliminem barreiras técnicas de programação para inserção de conteúdo por meio do desenvolvimento orientado a modelos (Model-driven Game Development - MDGD). O MDGD define que o design do jogo seja baseado em modelos de alta abstração, os quais descrevem todos os elementos do jogo final que é gerado de forma automatizada. A linguagem específica de domínio (Domain Specific Language - DSL) que acompanha o MDGD, por meio de um metamodelo, define a capacidade dos elementos e relações presentes no jogo que será criado. Entretanto, há dificuldades no uso de MDGD em jogos sérios por causa da ausência de abordagens que integrem o MDGD com os requisitos de jogos sérios e a inconsistência da participação do especialista durante o processo de produção da DSL e do jogo sério. Nesse contexto, este trabalho tem como objetivo criar um processo sistemático do MDGD para a produção de jogos sérios, nomeado como PREMISSA, e avaliá-lo por meio do desenvolvimento de uma DSL para jogos sérios, envolvendo os gêneros quiz e aventura 2D. Como prova de conceito, o PREMISSA foi usado para criar uma Linguagem de Modelagem para Jogos de Aventura e Quiz (LMJAQ). Os resultados envolveram a produção de artefatos da DSL e do jogo sério criado: documentação, verificadores de código, a própria DSL LMJAQ, e os protótipos de baixa e alta fidelidade do jogo sério, sendo o último produzido no motor de jogos Unity. Como principais contribuições, tem-se o processo PREMISSA, a DSL LMJAQ, que incluiu mais de um gênero de jogabilidade, o jogo executável gerado a partir dos modelos criados, e a prova de conceito como exemplo de uso do PREMISSA. Os trabalhos futuros envolvem a avaliação do PREMISSA por outras equipes de desenvolvimento de jogos sérios, e a criação e validação de uma ferramenta de edição que apoie o uso do PREMISSA por especialistas no domínio de aplicação.

22
  • BEATRIZ MAYUMI ANDRADE MATSUI
  • CONJUNTO DE RECOMENDAÇÕES PARA A IMPLEMENTAÇÃO DE PRÁTICAS DEVOPS NO CONTEXTO DE APRENDIZADO DE MÁQUINA

  • Orientador : DENISE HIDEKO GOYA
  • Data: 30/11/2022

  • Mostrar Resumo
  • Práticas DevOps estão cada vez mais presentes no contexto da engenharia de software, visando a automação e simplificação de processos que envolvem o ciclo de vida da aplicação, desde o seu desenvolvimento até a implantação em ambiente de produção. Para o aprendizado de máquina (ou machine learning, ML), tais práticas são conhecidas como MLOps (Machine Learning Operations) e têm o objetivo de integrar as etapas de desenvolvimento e operações de sistemas de ML, contemplando automação e monitoramento para a entrega e atualização contínua do sistema ao usuário final. Na literatura, estudos têm mostrado a aplicabilidade dessas práticas em contextos específicos, mas poucos fornecem diretrizes para guiar sua implementação de forma abrangente, considerando todo o conjunto de fatores envolvidos na adoção de MLOps – desde mudanças culturais e organizacionais até os elementos técnicos necessários para sua efetiva implementação. Neste cenário, o presente trabalho propõe um conjunto de recomendações para auxiliar na compreensão e adoção de MLOps por pesquisadores, gestores, engenheiros, cientistas de dados e demais envolvidos no desenvolvimento de sistemas de aprendizado de máquina. O conjunto de recomendações foi desenvolvido a partir de Mapeamento Sistemático da Literatura e método Design Science Research para a geração de artefatos que representam o detalhamento e fluxo das recomendações propostas. Aplicou-se também um questionário para validar a qualidade e relevância dessas recomendações por profissionais que atuam com práticas MLOps. A análise dos resultados do questionário indicou uma boa consistência interna das respostas, de acordo com cálculo de alfa de Cronbach. Os resultados também indicaram que as recomendações e artefatos gerados são relevantes e apresentam qualidade, tendo potencial de produzir impactos positivos em ambientes reais que envolvem MLOps.


  • Mostrar Abstract
  • Práticas DevOps estão cada vez mais presentes no contexto da engenharia de software, visando a automação e simplificação de processos que envolvem o ciclo de vida da aplicação, desde o seu desenvolvimento até a implantação em ambiente de produção. Para o aprendizado de máquina (ou machine learning, ML), tais práticas são conhecidas como MLOps (Machine Learning Operations) e têm o objetivo de integrar as etapas de desenvolvimento e operações de sistemas de ML, contemplando automação e monitoramento para a entrega e atualização contínua do sistema ao usuário final. Na literatura, estudos têm mostrado a aplicabilidade dessas práticas em contextos específicos, mas poucos fornecem diretrizes para guiar sua implementação de forma abrangente, considerando todo o conjunto de fatores envolvidos na adoção de MLOps – desde mudanças culturais e organizacionais até os elementos técnicos necessários para sua efetiva implementação. Neste cenário, o presente trabalho propõe um conjunto de recomendações para auxiliar na compreensão e adoção de MLOps por pesquisadores, gestores, engenheiros, cientistas de dados e demais envolvidos no desenvolvimento de sistemas de aprendizado de máquina. O conjunto de recomendações foi desenvolvido a partir de Mapeamento Sistemático da Literatura e método Design Science Research para a geração de artefatos que representam o detalhamento e fluxo das recomendações propostas. Aplicou-se também um questionário para validar a qualidade e relevância dessas recomendações por profissionais que atuam com práticas MLOps. A análise dos resultados do questionário indicou uma boa consistência interna das respostas, de acordo com cálculo de alfa de Cronbach. Os resultados também indicaram que as recomendações e artefatos gerados são relevantes e apresentam qualidade, tendo potencial de produzir impactos positivos em ambientes reais que envolvem MLOps.

23
  • VINICIUS LUIS TREVISAN DE SOUZA
  • Estudo Sobre o Uso de Redes Adversárias Generativas para Transformação de Contornos em Imagens e Síntese de Imagens

  • Orientador : JOAO PAULO GOIS
  • Data: 30/11/2022

  • Mostrar Resumo
  • As áreas de processamento de imagens, computação gráfica e visão computacional recentemente viram avanços significativos em diversas aplicações, muitos dos quais se devem a técnicas baseadas em Redes Adversárias Generativas (Generative Adversarial Networks - GANs). Dentre essas aplicações, podemos ressaltar a super-resolução, transformação de domínio, transferência de estilo, restauração de fotos, e síntese de imagens, dentre outras. Neste trabalho estudamos o uso de GANs em aplicações de transformações de contornos em imagens e síntese de imagens de faces. A primeira aplicação envolve transformar esboços de carros em imagens realistas, e esboços de personagens de desenho em uma versão colorida e texturizada. Analisamos e discutimos o uso das arquiteturas Pix2Pix e CycleGAN nessa tarefa, experimentando com diferentes configurações de parâmetros como melhorar a imagem sintetizada. Na aplicação de síntese, inspirados por trabalhos de manipulação de imagens, exploramos como gerar imagens sintéticas de faces humanas utilizando GANs condicionais como autoencoders, de forma que gerem vetores latentes que permitam a manipulação das imagens diretamente no espaço latente das características. Testamos diversas combinações de geradores, discriminadores, funções de loss e técnicas de treinamento para entender quais elementos contribuem na melhoria da imagem sintetizada.


  • Mostrar Abstract
  • As áreas de processamento de imagens, computação gráfica e visão computacional recentemente viram avanços significativos em diversas aplicações, muitos dos quais se devem a técnicas baseadas em Redes Adversárias Generativas (Generative Adversarial Networks - GANs). Dentre essas aplicações, podemos ressaltar a super-resolução, transformação de domínio, transferência de estilo, restauração de fotos, e síntese de imagens, dentre outras. Neste trabalho estudamos o uso de GANs em aplicações de transformações de contornos em imagens e síntese de imagens de faces. A primeira aplicação envolve transformar esboços de carros em imagens realistas, e esboços de personagens de desenho em uma versão colorida e texturizada. Analisamos e discutimos o uso das arquiteturas Pix2Pix e CycleGAN nessa tarefa, experimentando com diferentes configurações de parâmetros como melhorar a imagem sintetizada. Na aplicação de síntese, inspirados por trabalhos de manipulação de imagens, exploramos como gerar imagens sintéticas de faces humanas utilizando GANs condicionais como autoencoders, de forma que gerem vetores latentes que permitam a manipulação das imagens diretamente no espaço latente das características. Testamos diversas combinações de geradores, discriminadores, funções de loss e técnicas de treinamento para entender quais elementos contribuem na melhoria da imagem sintetizada.

24
  • GUILHERME DIAS BELARMINO
  • Critérios de Acessibilidade e Desenho Universal para Jogos Educacionais Digitais

  • Orientador : DENISE HIDEKO GOYA
  • Data: 07/12/2022

  • Mostrar Resumo
  • Jogos educacionais digitais são aqueles que podem atuar como um recurso didático na construção do conhecimento, pois aliam elementos como engajamento e motivação com a diversão para favorecer o processo de ensino-aprendizagem. A produção de jogos educacionais é complexa por envolver uma equipe multidisciplinar, com profissionais de programação, análise, arte, educação e gestão, apenas para citar alguns exemplos. Dado que a educação é um direito universal, recursos com fins educacionais precisam atender a todos, isto é, devem ser projetados para incluir pessoas com deficiência, sem distinção. Uma forma de atingir esse propósito é agregar ao projeto de produção de jogos o conceito de Desenho Universal, que busca que todos aprendam com o mesmo recurso, removendo barreiras impeditivas. Diretrizes de acessibilidade estabelecem normas e recomendações com o intuito de auxiliar projetistas e desenvolvedores na concepção ou avaliação de acessibilidade. Entretanto, diretrizes para jogos acessíveis não têm sido suficientes para guiar a produção de jogos universalmente inclusivos. Nesse contexto, este trabalho tem por objetivo construir, descrever e validar um conjunto de critérios de acessibilidade, nomeado ACUDaGames (Accessibility Criteria and Universal Design for Educational Games), que possa ser empregado no processo de produção de jogos educacionais acessíveis às pessoas com e sem deficiência seguindo a abordagem do Desenho Universal. Para isso, foi conduzido um mapeamento sistemático da literatura sobre as recomendações de acessibilidade propostas em trabalhos que apresentam requisitos ou critérios de acessibilidade para que um jogo educacional seja acessível às pessoas com deficiências em específico ou que adote princípios do Desenho Universal. Na sequência, uma revisão narrativa foi conduzida para complementar o conjunto inicial de critérios, além de uma complementação com três diretrizes de acessibilidade para jogos existentes (GAG, Includification e EduGameAccess). O ACUDaGames é resultado das revisões sistemática e narrativa e categorizado segundo o framework conceitual de design de jogos Mechanics, Dynamics e Aesthetics (MDA). O ACUDaGames foi validado, quanto à sua qualidade, por 13 especialistas no domínio de design de jogos, interação humano-computador, informática na educação e acessibilidade, por meio de um questionário online. O resultado da análise da opinião dos especialistas aponta boa consistência interna, conforme coeficiente alfa de Cronbach, e indica que o ACUDaGames é completo, correto, autêntico, consistente, claro, inequívoco, flexível e tem usabilidade. Entretanto, no futuro, o conjunto precisará passar por uma validação prática no processo de produção de um jogo educacional acessível, para atestar sua eficácia e identificar pontos de aprimoramento. De forma geral, os resultados deste trabalho evidenciaram que o ACUDaGames tem potencial de uso para a criação e produção de jogos educacionais acessíveis, sob a perspectiva do Desenho Universal.


  • Mostrar Abstract
  • Jogos educacionais digitais são aqueles que podem atuar como um recurso didático na construção do conhecimento, pois aliam elementos como engajamento e motivação com a diversão para favorecer o processo de ensino-aprendizagem. A produção de jogos educacionais é complexa por envolver uma equipe multidisciplinar, com profissionais de programação, análise, arte, educação e gestão, apenas para citar alguns exemplos. Dado que a educação é um direito universal, recursos com fins educacionais precisam atender a todos, isto é, devem ser projetados para incluir pessoas com deficiência, sem distinção. Uma forma de atingir esse propósito é agregar ao projeto de produção de jogos o conceito de Desenho Universal, que busca que todos aprendam com o mesmo recurso, removendo barreiras impeditivas. Diretrizes de acessibilidade estabelecem normas e recomendações com o intuito de auxiliar projetistas e desenvolvedores na concepção ou avaliação de acessibilidade. Entretanto, diretrizes para jogos acessíveis não têm sido suficientes para guiar a produção de jogos universalmente inclusivos. Nesse contexto, este trabalho tem por objetivo construir, descrever e validar um conjunto de critérios de acessibilidade, nomeado ACUDaGames (Accessibility Criteria and Universal Design for Educational Games), que possa ser empregado no processo de produção de jogos educacionais acessíveis às pessoas com e sem deficiência seguindo a abordagem do Desenho Universal. Para isso, foi conduzido um mapeamento sistemático da literatura sobre as recomendações de acessibilidade propostas em trabalhos que apresentam requisitos ou critérios de acessibilidade para que um jogo educacional seja acessível às pessoas com deficiências em específico ou que adote princípios do Desenho Universal. Na sequência, uma revisão narrativa foi conduzida para complementar o conjunto inicial de critérios, além de uma complementação com três diretrizes de acessibilidade para jogos existentes (GAG, Includification e EduGameAccess). O ACUDaGames é resultado das revisões sistemática e narrativa e categorizado segundo o framework conceitual de design de jogos Mechanics, Dynamics e Aesthetics (MDA). O ACUDaGames foi validado, quanto à sua qualidade, por 13 especialistas no domínio de design de jogos, interação humano-computador, informática na educação e acessibilidade, por meio de um questionário online. O resultado da análise da opinião dos especialistas aponta boa consistência interna, conforme coeficiente alfa de Cronbach, e indica que o ACUDaGames é completo, correto, autêntico, consistente, claro, inequívoco, flexível e tem usabilidade. Entretanto, no futuro, o conjunto precisará passar por uma validação prática no processo de produção de um jogo educacional acessível, para atestar sua eficácia e identificar pontos de aprimoramento. De forma geral, os resultados deste trabalho evidenciaram que o ACUDaGames tem potencial de uso para a criação e produção de jogos educacionais acessíveis, sob a perspectiva do Desenho Universal.

25
  • CLAUDIO RIBEIRO DE AMORIM
  • Framework para Integração de Transações Financeiras entre o Modelo Centralizado e o Modelo Distribuído Blockchain

  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 13/12/2022

  • Mostrar Resumo
  • A tecnologia blockchain subjacente às criptomoedas vem sendo muito estudada desde a criação do Bitcoin em 2009. Os princípios de segurança e robustez no quesito integridade de dados, dados inerentes à blockchain e seu poder distribuído são características centrais que se apresentam como vantagens para seu uso potencial em várias áreas. Muitos acreditam que as características dessa tecnologia disruptiva trarão impactos significativos na vida das pessoas, das organizações e nos modelos de negócios atuais. No presente trabalho, apresentamos uma arquitetura de um framework para integrar transações financeiras entre o modelo centralizado tradicional e o modelo distribuído blockchain, levando em consideração a estrutura do arranjo de pagamentos brasileiro. Também propomos um modelo para reduzir o custo global das transações financeiras para os integrantes do arranjo. Analisamos os fundamentos da tecnologia blockchain, discutimos a estrutura do arranjo de pagamentos do sistema financeiro brasileiro e aplicamos, ao modelo de redução de custo global, o método simplex para redes aplicado ao problema de transporte. Implementamos tanto o framework proposto como o método simplex para redes aplicado ao problema de otimização do custo global de transações na rede (framework). Realizamos alguns experimentos preliminares a fim de validar o método e a implementação desenvolvida. Assim, realizamos a prova de conceito de que é possível promover uma integração entre a indústria financeira tradicional e modelos distribuídos e descentralizados para transações, o que abre possibilidades para promover a inclusão financeira e econômica aos não bancarizados.


  • Mostrar Abstract
  • A tecnologia blockchain subjacente às criptomoedas vem sendo muito estudada desde a criação do Bitcoin em 2009. Os princípios de segurança e robustez no quesito integridade de dados, dados inerentes à blockchain e seu poder distribuído são características centrais que se apresentam como vantagens para seu uso potencial em várias áreas. Muitos acreditam que as características dessa tecnologia disruptiva trarão impactos significativos na vida das pessoas, das organizações e nos modelos de negócios atuais. No presente trabalho, apresentamos uma arquitetura de um framework para integrar transações financeiras entre o modelo centralizado tradicional e o modelo distribuído blockchain, levando em consideração a estrutura do arranjo de pagamentos brasileiro. Também propomos um modelo para reduzir o custo global das transações financeiras para os integrantes do arranjo. Analisamos os fundamentos da tecnologia blockchain, discutimos a estrutura do arranjo de pagamentos do sistema financeiro brasileiro e aplicamos, ao modelo de redução de custo global, o método simplex para redes aplicado ao problema de transporte. Implementamos tanto o framework proposto como o método simplex para redes aplicado ao problema de otimização do custo global de transações na rede (framework). Realizamos alguns experimentos preliminares a fim de validar o método e a implementação desenvolvida. Assim, realizamos a prova de conceito de que é possível promover uma integração entre a indústria financeira tradicional e modelos distribuídos e descentralizados para transações, o que abre possibilidades para promover a inclusão financeira e econômica aos não bancarizados.

26
  • DANILO DOS SANTOS BEZERRA
  • Geração Procedimental de Níveis para Jogos Sérios de Desenvolvimento do Pensamento Computacional

     
     
     
  • Orientador : RAFAELA VILELA DA ROCHA CAMPOS
  • Data: 15/12/2022

  • Mostrar Resumo
  • O pensamento computacional é um agrupamento de habilidades para organizar problemas e suas respectivas soluções de forma que um computador possa colocá-las em prática, sendo uma habilidade importante para diferentes áreas, além da ciência da computação. Os jogos sérios são criados com um propósito além do puro entretenimento, por exemplo, o desenvolvimento do pensamento computacional. O conteúdo é um componente essencial para jogos sérios e uma das tarefas mais trabalhosas e demoradas para a equipe de desenvolvimento, especialmente se tal conteúdo exigir adaptabilidade a diferentes jogadores. Os métodos de geração procedimental resolvem parte do problema da criação de conteúdo para jogos. Entretanto, quando o objetivo é o desenvolvimento de competências do jogador, além do entretenimento, é necessário um maior controle sobre o jogo que está sendo produzido. Uma possível solução para este problema é incluir o especialista de domínio nesse processo, para que ele possa definir as configurações e restrições necessárias. Nesse contexto, este trabalho visa propor uma solução de iniciativa mista, que inclui um algoritmo de geração procedimental de conteúdo e um agente de inteligência artificial para a concepção de níveis em um jogo sério de desenvolvimento do pensamento computacional, do gênero quebra-cabeças baseado em programação por blocos, com diferentes graus de complexidade. Para isso, foi realizada uma revisão da literatura das características de um jogo sério de pensamento computacional e dos algoritmos mais utilizados para criar níveis de jogos sob especificidades similares. Em seguida, foram especificados os requisitos e construído um sistema de iniciativa mista fazendo o uso de algoritmos de aprendizado por reforço, acompanhado de um protótipo de jogo. O sistema foi testado e analisado a partir do seu uso e suas implicações avaliadas com base nos testes realizados. Como resultado, foi desenvolvida uma prova de conceito da solução, formada pelo sistema de iniciativa mista e pelo protótipo de jogo, concebido para receber as representações de níveis geradas. Ao avaliar a solução com base nos aspectos testados a partir de seu uso, foi possível identificar contribuições científica e computacionais (uma solução tecnológica de iniciativa mista contendo um gerador de níveis, implementado com algoritmo de aprendizado por reforço e um protótipo do jogo de quebra-cabeças de programação) e sociais (espera-se que o uso do jogo, com diferentes níveis gerados pela solução, possibilite o desenvolvimento do pensamento computacional).

     

  • Mostrar Abstract
  • O pensamento computacional é um agrupamento de habilidades para organizar problemas e suas respectivas soluções de forma que um computador possa colocá-las em prática, sendo uma habilidade importante para diferentes áreas, além da ciência da computação. Os jogos sérios são criados com um propósito além do puro entretenimento, por exemplo, o desenvolvimento do pensamento computacional. O conteúdo é um componente essencial para jogos sérios e uma das tarefas mais trabalhosas e demoradas para a equipe de desenvolvimento, especialmente se tal conteúdo exigir adaptabilidade a diferentes jogadores. Os métodos de geração procedimental resolvem parte do problema da criação de conteúdo para jogos. Entretanto, quando o objetivo é o desenvolvimento de competências do jogador, além do entretenimento, é necessário um maior controle sobre o jogo que está sendo produzido. Uma possível solução para este problema é incluir o especialista de domínio nesse processo, para que ele possa definir as configurações e restrições necessárias. Nesse contexto, este trabalho visa propor uma solução de iniciativa mista, que inclui um algoritmo de geração procedimental de conteúdo e um agente de inteligência artificial para a concepção de níveis em um jogo sério de desenvolvimento do pensamento computacional, do gênero quebra-cabeças baseado em programação por blocos, com diferentes graus de complexidade. Para isso, foi realizada uma revisão da literatura das características de um jogo sério de pensamento computacional e dos algoritmos mais utilizados para criar níveis de jogos sob especificidades similares. Em seguida, foram especificados os requisitos e construído um sistema de iniciativa mista fazendo o uso de algoritmos de aprendizado por reforço, acompanhado de um protótipo de jogo. O sistema foi testado e analisado a partir do seu uso e suas implicações avaliadas com base nos testes realizados. Como resultado, foi desenvolvida uma prova de conceito da solução, formada pelo sistema de iniciativa mista e pelo protótipo de jogo, concebido para receber as representações de níveis geradas. Ao avaliar a solução com base nos aspectos testados a partir de seu uso, foi possível identificar contribuições científica e computacionais (uma solução tecnológica de iniciativa mista contendo um gerador de níveis, implementado com algoritmo de aprendizado por reforço e um protótipo do jogo de quebra-cabeças de programação) e sociais (espera-se que o uso do jogo, com diferentes níveis gerados pela solução, possibilite o desenvolvimento do pensamento computacional).

     
Teses
1
  • MUHSEN HAMMOUD
  • Computational Approaches for Analyzing Structured Data in Biological Systematics and Biogeography

  • Orientador : JOAO PAULO GOIS
  • Data: 25/04/2022

  • Mostrar Resumo
  • Biological sciences use connected acyclic graphs -or trees- to present evolutionary relationships and biogeographical history. The base of trees might be genetic, molecular, morphological, geological, behavioral, or geographical pieces of evidence. In large-scope studies, especially when dealing with many different biological groups or complex biogeographical history, manual data processing becomes infeasible and costly (in terms of time and money). Also, the results might have many errors. Evolutionary biologists already have their methods to process their data. However, applying these methods manually on large data sets is proven not to be practical, which is a significant burden in front of having more understanding of the data at hand. Despite the availability of some approaches for structured data processing, they are either outdated or hard to use (such as command-line tools). This thesis focuses on understanding the very basis of the philosophy of computer science in the context of biological and evolutionary problems, then, based on this understanding, to facilitate evolutionary biologists' work by automating the workflow they follow, rather than changing it. Here, we present four computational approaches, three of which are concerned with building a combined MRP-matrix using input trees in a parenthetical format. These approaches are named as follows: “Generating combined MRP-matrices”, “Generating Topographic-Units MRP-matrix”, and “Generating Combined Areagram MRP-matrix”. While the fourth uses information visualization to facilitate phylogenetic trees comparison named “interactive Phylogenetic trees Comparison (iPhyloC)”. We encapsulated all of the computational approaches in this thesis in easy-to-use web-based frameworks that are available for free online. We developed the four approaches in this thesis in close collaboration with domain experts. The testing results of all the approaches show they are reliable, easy to use and deliver correct results. They indeed help evolutionary biologists to focus on driving results from the data at hand rather than spending time processing the data.


  • Mostrar Abstract
  • Biological sciences use connected acyclic graphs -or trees- to present evolutionary relationships and biogeographical history. The base of trees might be genetic, molecular, morphological, geological, behavioral, or geographical pieces of evidence. In large-scope studies, especially when dealing with many different biological groups or complex biogeographical history, manual data processing becomes infeasible and costly (in terms of time and money). Also, the results might have many errors. Evolutionary biologists already have their methods to process their data. However, applying these methods manually on large data sets is proven not to be practical, which is a significant burden in front of having more understanding of the data at hand. Despite the availability of some approaches for structured data processing, they are either outdated or hard to use (such as command-line tools). This thesis focuses on understanding the very basis of the philosophy of computer science in the context of biological and evolutionary problems, then, based on this understanding, to facilitate evolutionary biologists' work by automating the workflow they follow, rather than changing it. Here, we present four computational approaches, three of which are concerned with building a combined MRP-matrix using input trees in a parenthetical format. These approaches are named as follows: “Generating combined MRP-matrices”, “Generating Topographic-Units MRP-matrix”, and “Generating Combined Areagram MRP-matrix”. While the fourth uses information visualization to facilitate phylogenetic trees comparison named “interactive Phylogenetic trees Comparison (iPhyloC)”. We encapsulated all of the computational approaches in this thesis in easy-to-use web-based frameworks that are available for free online. We developed the four approaches in this thesis in close collaboration with domain experts. The testing results of all the approaches show they are reliable, easy to use and deliver correct results. They indeed help evolutionary biologists to focus on driving results from the data at hand rather than spending time processing the data.

2
  • EDUARDO ALVES DE JESUS ANACLETO
  • Algorithms for solving pseudo-Boolean optimization problems

  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 21/06/2022

  • Mostrar Resumo

  • Investigamos os problemas de Otimização Pseudo-Booleana (PBO), Otimização Quadrática Binária Irrestrita (QUBO) e Programação Quadrática Booleana com Restrições de Limitantes Superiores Generalizados (BQP-GUB). Estes problemas pertencem à classe de complexidade computacional NP-difícil e têm sido estudados desde os anos 60. A busca por métodos para resolver esses problemas constitui um campo de pesquisa ativo, devido a situações reais que podem ser modeladas por meio deles. Em virtude de apelos práticos, pesquisadores têm mostrado grande interesse no desenvolvimento desses métodos. Com o intuito de contribuir de maneira significativa para esta área de pesquisa: (a) propomos um algoritmo exato para resolver os problemas PBO e QUBO; (b) projetamos um algoritmo de tempo polinomial para resolver classes de instâncias dos problemas PBO e QUBO; (c) desenvolvemos fórmulas para gerar limitantes para os valores de soluções ótimas para o problema QUBO; (d) criamos fórmulas para calcular rapidamente o valor da função objetivo do BQP-GUB; e (e) reformulamos problemas de otimização combinatória para a forma dos problemas QUBO e BQP-GUB.


  • Mostrar Abstract

  • Investigamos os problemas de Otimização Pseudo-Booleana (PBO), Otimização Quadrática Binária Irrestrita (QUBO) e Programação Quadrática Booleana com Restrições de Limitantes Superiores Generalizados (BQP-GUB). Estes problemas pertencem à classe de complexidade computacional NP-difícil e têm sido estudados desde os anos 60. A busca por métodos para resolver esses problemas constitui um campo de pesquisa ativo, devido a situações reais que podem ser modeladas por meio deles. Em virtude de apelos práticos, pesquisadores têm mostrado grande interesse no desenvolvimento desses métodos. Com o intuito de contribuir de maneira significativa para esta área de pesquisa: (a) propomos um algoritmo exato para resolver os problemas PBO e QUBO; (b) projetamos um algoritmo de tempo polinomial para resolver classes de instâncias dos problemas PBO e QUBO; (c) desenvolvemos fórmulas para gerar limitantes para os valores de soluções ótimas para o problema QUBO; (d) criamos fórmulas para calcular rapidamente o valor da função objetivo do BQP-GUB; e (e) reformulamos problemas de otimização combinatória para a forma dos problemas QUBO e BQP-GUB.

3
  • EDUARDO MACHADO REAL
  • Contribuições para a Análise dos Trajetos de Aprendizagem dos Estudantes com o suporte de  Mineração de Processos Educacionais

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 24/11/2022

  • Mostrar Resumo
  • Ambientes Virtuais de Aprendizagem (AVA) têm sido utilizados para organizar materiais instrucionais e apoiar a comunicação entre educadores e aprendizes no processo de aprendizagem, especialmente na Educação a Distância (EaD). Nestes ambientes, normalmente, o professor organiza a sequência dos conteúdos e atividades do curso de acordo com suas estratégias didático-pedagógicas e espera que essa organização guie cada estudante no seu trajeto de aprendizagem. No entanto, os estudantes podem seguir caminhos diferentes daqueles indicados na organização do material. Normalmente, os AVAs registram a interação dos estudantes com os materiais dos cursos por meio de log de eventos. Utilizar estes registros para conhecer os trajetos de aprendizagem seguidos pelos estudantes pode ajudar a compreender melhor os resultados de aprendizagem e as relações com a organização dos materiais do curso e as estratégias pedagógicas adotadas pelo professor. Técnicas de Mineração de Processos (MP) têm sido aplicadas sobre logs de eventos para descobrir conhecimentos nesses dados a partir de informações estatísticas históricas e modelos de processo que representam os fluxos das ações realizadas. Aplicada sobre dados educacionais a MP é chamada de Mineração de Processos Educacionais (MPE). Existem algumas ferramentas computacionais para apoiar a aplicação de MP mas, o seu uso exige conhecimentos técnicos que não são triviais. Este cenário dificulta, por exemplo, ampliar o uso da MPE pelos professores. Este trabalho tem por objetivo propor um modelo de aplicação da Mineração de Processos Educacionais que facilite, ao professor, identificar e analisar trajetos de aprendizagem dos estudantes. A expectativa é que os resultados da MPE ajudem o professor a identificar adequações necessárias para melhorar os resultados de aprendizagem dos estudantes. O trabalho apresenta o modelo concebido, denominado de PM4Edu, bem como a ferramenta computacional desenvolvida  para apoiar o modelo. O modelo foi aplicado e avaliado por professores da modalidade EaD. No desenho da avaliação, os professores forneceram os logs dos cursos, responderam questionários e interpretaram os resultados fornecidos pelo modelo, em um processo interativo com o pesquisador. Os resultados indicam que o modelo fornece informações relevantes para apoiar os professores em possíveis intervenções quanto ao redesenho dos cursos.


  • Mostrar Abstract
  • Ambientes Virtuais de Aprendizagem (AVA) têm sido utilizados para organizar materiais instrucionais e apoiar a comunicação entre educadores e aprendizes no processo de aprendizagem, especialmente na Educação a Distância (EaD). Nestes ambientes, normalmente, o professor organiza a sequência dos conteúdos e atividades do curso de acordo com suas estratégias didático-pedagógicas e espera que essa organização guie cada estudante no seu trajeto de aprendizagem. No entanto, os estudantes podem seguir caminhos diferentes daqueles indicados na organização do material. Normalmente, os AVAs registram a interação dos estudantes com os materiais dos cursos por meio de log de eventos. Utilizar estes registros para conhecer os trajetos de aprendizagem seguidos pelos estudantes pode ajudar a compreender melhor os resultados de aprendizagem e as relações com a organização dos materiais do curso e as estratégias pedagógicas adotadas pelo professor. Técnicas de Mineração de Processos (MP) têm sido aplicadas sobre logs de eventos para descobrir conhecimentos nesses dados a partir de informações estatísticas históricas e modelos de processo que representam os fluxos das ações realizadas. Aplicada sobre dados educacionais a MP é chamada de Mineração de Processos Educacionais (MPE). Existem algumas ferramentas computacionais para apoiar a aplicação de MP mas, o seu uso exige conhecimentos técnicos que não são triviais. Este cenário dificulta, por exemplo, ampliar o uso da MPE pelos professores. Este trabalho tem por objetivo propor um modelo de aplicação da Mineração de Processos Educacionais que facilite, ao professor, identificar e analisar trajetos de aprendizagem dos estudantes. A expectativa é que os resultados da MPE ajudem o professor a identificar adequações necessárias para melhorar os resultados de aprendizagem dos estudantes. O trabalho apresenta o modelo concebido, denominado de PM4Edu, bem como a ferramenta computacional desenvolvida  para apoiar o modelo. O modelo foi aplicado e avaliado por professores da modalidade EaD. No desenho da avaliação, os professores forneceram os logs dos cursos, responderam questionários e interpretaram os resultados fornecidos pelo modelo, em um processo interativo com o pesquisador. Os resultados indicam que o modelo fornece informações relevantes para apoiar os professores em possíveis intervenções quanto ao redesenho dos cursos.

4
  • MAYURÍ ANNEROSE MORAIS
  • A Framework for Incident Detection in Large-Scale Public Bus Systems

  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 06/12/2022

  • Mostrar Resumo
  • Proporcionar mobilidade urbana eficiente por meio de transporte público de qualidade é um dos principais objetivos do uso de tecnologias de cidades inteligentes pelas administrações públicas. As interrupções causadas por incidentes de trânsito são uma causa significativa de atrasos nos sistemas públicos de ônibus. A literatura mostra diversos Sistemas de Detecção de Incidentes (ID) utilizando múltiplas fontes de informação, como imagens de câmeras, radares (sensores fixos) e veículos ou smartphones com Sistema de Posicionamento Global (sensores móveis). No entanto, os sistemas de identificação propostos usando sensores móveis usam principalmente carros e dados de GPS de carros simulados, enquanto poucos trabalhos usam dados de GPS de ônibus.

    Este trabalho apresenta um modelo de Detecção de Incidentes para sistemas de ônibus utilizando dados de GPS de ônibus em redes urbanas. Utilizamos dados históricos de GPS de ônibus para extrair as características de cada segmento do sistema de ônibus. Propusemos dois modelos para ID: uma abordagem estatística baseada no tempo de viagem dos ônibus em cada segmento e uma abordagem de aprendizado de máquina aplicada a vários atributos que descrevem a dinâmica dos ônibus em tempo real em cada segmento. Para implementar esses modelos, também propusemos a arquitetura de um arcabouço que permite a integração de modelos compostos escaláveis e eficientes. Implementamos o arcabouço e avaliamos sua escalabilidade e as previsões de modelos simples de tempo de viagem. Mostramos que o uso em tempo real desse arcabouço é viável em grandes áreas metropolitanas, como a cidade de São Paulo. Por último, implementamos e avaliamos os modelos de ID propostos.

    Definimos os incidentes de trânsito com base nas mudanças nos intervalos entre os ônibus. Mostramos que nossos modelos alcançaram uma taxa de detecção de mais de 80% para incidentes de longa duração (mais de 10 minutos) com um tempo médio para detectar menos de 6,5 minutos e uma taxa de alarme falso de 3%.


  • Mostrar Abstract
  • Proporcionar mobilidade urbana eficiente por meio de transporte público de qualidade é um dos principais objetivos do uso de tecnologias de cidades inteligentes pelas administrações públicas. As interrupções causadas por incidentes de trânsito são uma causa significativa de atrasos nos sistemas públicos de ônibus. A literatura mostra diversos Sistemas de Detecção de Incidentes (ID) utilizando múltiplas fontes de informação, como imagens de câmeras, radares (sensores fixos) e veículos ou smartphones com Sistema de Posicionamento Global (sensores móveis). No entanto, os sistemas de identificação propostos usando sensores móveis usam principalmente carros e dados de GPS de carros simulados, enquanto poucos trabalhos usam dados de GPS de ônibus.

    Este trabalho apresenta um modelo de Detecção de Incidentes para sistemas de ônibus utilizando dados de GPS de ônibus em redes urbanas. Utilizamos dados históricos de GPS de ônibus para extrair as características de cada segmento do sistema de ônibus. Propusemos dois modelos para ID: uma abordagem estatística baseada no tempo de viagem dos ônibus em cada segmento e uma abordagem de aprendizado de máquina aplicada a vários atributos que descrevem a dinâmica dos ônibus em tempo real em cada segmento. Para implementar esses modelos, também propusemos a arquitetura de um arcabouço que permite a integração de modelos compostos escaláveis e eficientes. Implementamos o arcabouço e avaliamos sua escalabilidade e as previsões de modelos simples de tempo de viagem. Mostramos que o uso em tempo real desse arcabouço é viável em grandes áreas metropolitanas, como a cidade de São Paulo. Por último, implementamos e avaliamos os modelos de ID propostos.

    Definimos os incidentes de trânsito com base nas mudanças nos intervalos entre os ônibus. Mostramos que nossos modelos alcançaram uma taxa de detecção de mais de 80% para incidentes de longa duração (mais de 10 minutos) com um tempo médio para detectar menos de 6,5 minutos e uma taxa de alarme falso de 3%.

2021
Dissertações
1
  • EDUARDO MARCATE GARCIA DOS ANJOS
  • Machine Learning Applied to Machinery Fault Prediction

  • Orientador : KARLA VITTORI
  • Data: 04/01/2021

  • Mostrar Resumo
  • Despite the potential to reduce operational costs and the increase in the availability of the computational power demanded by this task, machinery health prognostics still unavailable to many companies either due to the lack of human resources or due to the costs involved. Here we propose an approach and perform some validation experiments of predicting an imminent failure without needing a priori information about the monitored system. The prediction is achieved by continually clustering sensor data using unsupervised ML techniques and analyzing the evolution in time of those clusters in real-time. Initial validation tests using public available datasets showed encouraging results, giving in some experiments alerts about future failures within the desired time frame in the majority of runs while avoiding false-positives, pointing that this approach can be useful especially when it is not possible to use a more precise physical model or expert knowledge.


  • Mostrar Abstract
  • Despite the potential to reduce operational costs and the increase in the availability of the computational power demanded by this task, machinery health prognostics still unavailable to many companies either due to the lack of human resources or due to the costs involved. Here we propose an approach and perform some validation experiments of predicting an imminent failure without needing a priori information about the monitored system. The prediction is achieved by continually clustering sensor data using unsupervised ML techniques and analyzing the evolution in time of those clusters in real-time. Initial validation tests using public available datasets showed encouraging results, giving in some experiments alerts about future failures within the desired time frame in the majority of runs while avoiding false-positives, pointing that this approach can be useful especially when it is not possible to use a more precise physical model or expert knowledge.

2
  • GUSTAVO BORGES LUGOBONI
  • Um método para simular e verificar Redes de Petri Aninhadas

  • Orientador : CARLA NEGRI LINTZMAYER
  • Data: 07/05/2021

  • Mostrar Resumo
  • O formalismo das redes de Petri tem sido estendido de várias maneiras para suportar recursos como tipos de dados, hierarquias, tempo, comunicação, prioridades, aninhamento e recursão.
    Os dois últimos recursos combinados nas redes de Petri aninhadas permitem uma modelagem incremental usando múltiplas camadas, que é muito conveniente para lidar com os sistemas cada vez mais complexos de hoje.
    Apesar disso, atualmente não existe ferramenta para projetar, simular e verificar as propriedades dessas redes.
    Portanto, na prática, elas devem ser transformadas em redes hierárquicas de uma única camada antes de serem analisadas.
    Esse processo de achatamento aumenta significativamente o tamanho da rede, dificultando a simulação e a interpretação dos resultados no modelo original após a verificação.

    O presente trabalho apresenta um panorama histórico que levou ao desenvolvimento das redes aninhadas e tem como objetivo fornecer um método que permita analisar o comportamento de uma rede de Petri aninhada preservando sua estrutura multicamadas.
    Para este fim, por meio desta dissertação, foi proposto o uso de uma ferramenta de verificação de modelos usualmente aplicada à verificação de software multithread, o SPIN.
    Em particular, as redes de Petri aninhadas foram modeladas a partir de uma proposta de extensão da PNML (Petri Net Markup Language - ISO15909-2), e traduzidas de forma automática em modelos de entrada para o verificador SPIN.
    O resultado da tradução automática foi avaliado a partir da análise de propriedades de redes aninhadas baseadas em modelos que surgem principalmente de dois domínios de aplicação: os sistemas multiagentes e fluxos de trabalho.
    Isso foi feito utilizando exemplos da literatura para avaliar a eficácia do método e comparar os resultados com outras iniciativas.


  • Mostrar Abstract
  • O formalismo das redes de Petri tem sido estendido de várias maneiras para suportar recursos como tipos de dados, hierarquias, tempo, comunicação, prioridades, aninhamento e recursão.
    Os dois últimos recursos combinados nas redes de Petri aninhadas permitem uma modelagem incremental usando múltiplas camadas, que é muito conveniente para lidar com os sistemas cada vez mais complexos de hoje.
    Apesar disso, atualmente não existe ferramenta para projetar, simular e verificar as propriedades dessas redes.
    Portanto, na prática, elas devem ser transformadas em redes hierárquicas de uma única camada antes de serem analisadas.
    Esse processo de achatamento aumenta significativamente o tamanho da rede, dificultando a simulação e a interpretação dos resultados no modelo original após a verificação.

    O presente trabalho apresenta um panorama histórico que levou ao desenvolvimento das redes aninhadas e tem como objetivo fornecer um método que permita analisar o comportamento de uma rede de Petri aninhada preservando sua estrutura multicamadas.
    Para este fim, por meio desta dissertação, foi proposto o uso de uma ferramenta de verificação de modelos usualmente aplicada à verificação de software multithread, o SPIN.
    Em particular, as redes de Petri aninhadas foram modeladas a partir de uma proposta de extensão da PNML (Petri Net Markup Language - ISO15909-2), e traduzidas de forma automática em modelos de entrada para o verificador SPIN.
    O resultado da tradução automática foi avaliado a partir da análise de propriedades de redes aninhadas baseadas em modelos que surgem principalmente de dois domínios de aplicação: os sistemas multiagentes e fluxos de trabalho.
    Isso foi feito utilizando exemplos da literatura para avaliar a eficácia do método e comparar os resultados com outras iniciativas.

3
  • PEDRO HENRIQUE DI FRANCIA ROSSO
  • OCFTL: an MPI implementation-independent fault tolerance library for task-based applications

  • Orientador : EMILIO DE CAMARGO FRANCESQUINI
  • Data: 16/07/2021

  • Mostrar Resumo
  • Tolerância a falhas (TF) é uma preocupação comum em ambientes de Computação de Alta Desempenho (CAD). Seria de se esperar que, quando se trata de Message Passing Interface (MPI) (uma ferramenta para CAD de suma importância), TF seria um problema resolvido. Contudo, o cenário para TF e MPI é complexo. Embora TF seja efetivamente uma realidade nesses ambientes, geralmente é “feita à mão”. As poucas exceções disponíveis vinculam os usuários MPI a implementações MPI específicas. Este trabalho propõe OCFTL, uma Biblioteca de TF que não é dependente de nenhuma implementação MPI específica para ser usada no OmpCluster. OCFTL é capaz de detectar falhas com apenas um atraso de 50 ms (com baixa sobrecarga de CPU). Também fornece detecção de falha em caso de falso positivo, reparo do comunicador MPI e pode isolar os usuários do comportamento não especificado de operações MPI na presença de falhas. Resultados experimentais indicam bom potencial para melhorar a confiabilidade do sistema e a execução de fluxos de trabalho científicos.


  • Mostrar Abstract
  • Tolerância a falhas (TF) é uma preocupação comum em ambientes de Computação de Alta Desempenho (CAD). Seria de se esperar que, quando se trata de Message Passing Interface (MPI) (uma ferramenta para CAD de suma importância), TF seria um problema resolvido. Contudo, o cenário para TF e MPI é complexo. Embora TF seja efetivamente uma realidade nesses ambientes, geralmente é “feita à mão”. As poucas exceções disponíveis vinculam os usuários MPI a implementações MPI específicas. Este trabalho propõe OCFTL, uma Biblioteca de TF que não é dependente de nenhuma implementação MPI específica para ser usada no OmpCluster. OCFTL é capaz de detectar falhas com apenas um atraso de 50 ms (com baixa sobrecarga de CPU). Também fornece detecção de falha em caso de falso positivo, reparo do comunicador MPI e pode isolar os usuários do comportamento não especificado de operações MPI na presença de falhas. Resultados experimentais indicam bom potencial para melhorar a confiabilidade do sistema e a execução de fluxos de trabalho científicos.

4
  • TAMIRES DOS SANTOS
  • Two-Ts: Reprodução de Expressões Faciais em Cabeça Robótica com Tecnologia 3D

  • Orientador : WAGNER TANAKA BOTELHO
  • Data: 04/08/2021

  • Mostrar Resumo
  • Uma cabeça robótica social possui um papel fundamental na troca de informações por meio da fala e expressões faciais. O presente trabalho tem como objetivo construir uma cabeça robótica social, conhecida como Two-Ts, de baixo custo utilizando tecnologia de impressão 3D. A característica principal da Two-Ts é reproduzir, mesmo com limitações mecânicas, as emoções básicas e universais da metodologia Facial Action Coding System (FACS) de Paul Ekman em parceria com Wallace Friesen. Pode-se citar felicidade, tristeza, medo, surpresa, raiva e nojo. A cabeça robótica possui oito Graus De Liberdade (GDL) e foi desenvolvida em duas etapas definidas como Modelagem 3D da Cabeça Humana e Construção e Validação da Two-Ts. Na primeira etapa, como o objetivo da Two-Ts é ter características mais próximas de uma cabeça humana, um exame de tomografia computadorizada foi realizado para capturar as imagens da região do crânio e maxilar da discente responsável pelo seu desenvolvimento. Na segunda etapa, o projeto mecânico estrutural foi modelado e simulado no Fusion 360 da Autodesk. Vale ressaltar que nesta etapa, o projeto eletrônico foi definido, pois os seus componentes interferiram diretamente na estrutura mecânica da cabeça robótica. Após analisar e validar os resultados no Fusion 360, foi efetuada a impressão 3D da Two-Ts, montagem e implementação dos sistemas de visão, audição e voz. A biblioteca OpenFace foi responsável por validar os movimentos faciais, mais especificamente as seis emoções básicas e universais, da Two-Ts virtual, real e da discente. Por fim, os sistemas de visão, audição e voz também foram validados em uma interação humano-robô com comunicação básica e acompanhamento de movimentos.


  • Mostrar Abstract
  • Uma cabeça robótica social possui um papel fundamental na troca de informações por meio da fala e expressões faciais. O presente trabalho tem como objetivo construir uma cabeça robótica social, conhecida como Two-Ts, de baixo custo utilizando tecnologia de impressão 3D. A característica principal da Two-Ts é reproduzir, mesmo com limitações mecânicas, as emoções básicas e universais da metodologia Facial Action Coding System (FACS) de Paul Ekman em parceria com Wallace Friesen. Pode-se citar felicidade, tristeza, medo, surpresa, raiva e nojo. A cabeça robótica possui oito Graus De Liberdade (GDL) e foi desenvolvida em duas etapas definidas como Modelagem 3D da Cabeça Humana e Construção e Validação da Two-Ts. Na primeira etapa, como o objetivo da Two-Ts é ter características mais próximas de uma cabeça humana, um exame de tomografia computadorizada foi realizado para capturar as imagens da região do crânio e maxilar da discente responsável pelo seu desenvolvimento. Na segunda etapa, o projeto mecânico estrutural foi modelado e simulado no Fusion 360 da Autodesk. Vale ressaltar que nesta etapa, o projeto eletrônico foi definido, pois os seus componentes interferiram diretamente na estrutura mecânica da cabeça robótica. Após analisar e validar os resultados no Fusion 360, foi efetuada a impressão 3D da Two-Ts, montagem e implementação dos sistemas de visão, audição e voz. A biblioteca OpenFace foi responsável por validar os movimentos faciais, mais especificamente as seis emoções básicas e universais, da Two-Ts virtual, real e da discente. Por fim, os sistemas de visão, audição e voz também foram validados em uma interação humano-robô com comunicação básica e acompanhamento de movimentos.

5
  • RODRIGO DIAS CASTELHANO
  • Mineração de Dados sobre Mortes por Abuso de Tricloroetileno: Traçando o Perfil de Vítimas da Região Leste de São Paulo

  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 24/08/2021

  • Mostrar Resumo
  • Durante discurso realizado em Viena, na Áustria, em março de 2017, a Dra. Margaret Chan, diretora-geral da Organização Mundial da Saúde, afirmou que o consumo de drogas é responsável por cerca de meio milhão de mortes a cada ano no mundo. O perfil de prevalência para o uso de drogas no Brasil coloca os solventes/inalantes em lugar de destaque. O Tricloroetileno é um hidrocarboneto clorado comumente usado como solvente industrial, e sua presença vêm sendo verificada frequentemente por meio de exames toxicológicos no organismo de vítimas necropsiadas  pela Equipe de Perícia Médico Legal da Região Leste da Cidade de São Paulo, sob suspeita de morte por intoxicação exógena. Este Trabalho confirma a hipótese sobre a significativa participação desta substância nas mortes por intoxicação na região estudada. Foi possível conhecer algumas características sobre o perfil dos usuários e quantificar taxas de estatísticas vitais e, para tanto, utilizamos o modelo de Suporte/Confiança, combinado com as medidas Lift e Convicção, aplicadas aos resultados obtidos pelo algoritmo Apriori, para minerar regras de associação extraídas de laudos necroscópicos. A presença do Tricloroetileno foi detectada em 63,52% dos casos, com dominância em relação ao uso exclusivo de Cocaína em todo o período estudado, sendo que a associação entre estas duas substâncias apresentou maior mortalidade do que suas formas de uso exclusivo. O Risco Relativo para os usuários desta associação, frente às mortes naturais por Edema Pulmonar, Infarto Agudo do Miocárdio ou Insuficiência Respiratória, para indivíduos com idade abaixo dos 30 anos, foi de 7,20(IC95%: 4,09;12,68) calculado para o ano de 2019. Os números apresentados, bem como das características obtidas sobre o perfil associado aos usuários de Tricloroetileno, podem contribuir para a formulação de políticas públicas específicas relacionadas ao uso abusivo deste inalante.


  • Mostrar Abstract
  • Durante discurso realizado em Viena, na Áustria, em março de 2017, a Dra. Margaret Chan, diretora-geral da Organização Mundial da Saúde, afirmou que o consumo de drogas é responsável por cerca de meio milhão de mortes a cada ano no mundo. O perfil de prevalência para o uso de drogas no Brasil coloca os solventes/inalantes em lugar de destaque. O Tricloroetileno é um hidrocarboneto clorado comumente usado como solvente industrial, e sua presença vêm sendo verificada frequentemente por meio de exames toxicológicos no organismo de vítimas necropsiadas  pela Equipe de Perícia Médico Legal da Região Leste da Cidade de São Paulo, sob suspeita de morte por intoxicação exógena. Este Trabalho confirma a hipótese sobre a significativa participação desta substância nas mortes por intoxicação na região estudada. Foi possível conhecer algumas características sobre o perfil dos usuários e quantificar taxas de estatísticas vitais e, para tanto, utilizamos o modelo de Suporte/Confiança, combinado com as medidas Lift e Convicção, aplicadas aos resultados obtidos pelo algoritmo Apriori, para minerar regras de associação extraídas de laudos necroscópicos. A presença do Tricloroetileno foi detectada em 63,52% dos casos, com dominância em relação ao uso exclusivo de Cocaína em todo o período estudado, sendo que a associação entre estas duas substâncias apresentou maior mortalidade do que suas formas de uso exclusivo. O Risco Relativo para os usuários desta associação, frente às mortes naturais por Edema Pulmonar, Infarto Agudo do Miocárdio ou Insuficiência Respiratória, para indivíduos com idade abaixo dos 30 anos, foi de 7,20(IC95%: 4,09;12,68) calculado para o ano de 2019. Os números apresentados, bem como das características obtidas sobre o perfil associado aos usuários de Tricloroetileno, podem contribuir para a formulação de políticas públicas específicas relacionadas ao uso abusivo deste inalante.

6
  • ANGELICA CRISTINA CRUZ CUSTODIO
  • Interpretabilidade de Modelos Black Box aplicada a problemas Uplift

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 01/09/2021

  • Mostrar Resumo
  • Medir o efeito de uma ação, seja uma campanha de marketing ou o efeito de um novo medicamento, é uma tarefa desafiadora e que envolve problemas nas mais diversas áreas. A modelagem Uplift leva em consideração quais pessoas apresentam algum comportamento devido à uma determinada ação e qual seria o comportamento dessas pessoas sem a ação, por exemplo. Essa diferença é modelada como resposta de um modelo de uplift. Uma abordagem comumente usada para predizer o comportamento desses para esse problema são os Modelos de Aprendizado de Máquina “Black Box”, que são modelos matematicamente complexos para os quais não é possível entender diretamente a relação das variáveis explicativas com a variável resposta. Para explicar essa relação, podemos utilizar ferramentas de interpretabilidade, tais como os gráficos de Dependência Parcial e Expectativa Condicional Individual e as Medidas dos Valores de Shapley ou ajuste de Modelos Locais interpretáveis. Neste trabalho levantamos técnicas utilizadas em Modelagem Uplift, com o objetivo de abordar a interpretabilidade nesse contexto.

     


  • Mostrar Abstract
  • Medir o efeito de uma ação, seja uma campanha de marketing ou o efeito de um novo medicamento, é uma tarefa desafiadora e que envolve problemas nas mais diversas áreas. A modelagem Uplift leva em consideração quais pessoas apresentam algum comportamento devido à uma determinada ação e qual seria o comportamento dessas pessoas sem a ação, por exemplo. Essa diferença é modelada como resposta de um modelo de uplift. Uma abordagem comumente usada para predizer o comportamento desses para esse problema são os Modelos de Aprendizado de Máquina “Black Box”, que são modelos matematicamente complexos para os quais não é possível entender diretamente a relação das variáveis explicativas com a variável resposta. Para explicar essa relação, podemos utilizar ferramentas de interpretabilidade, tais como os gráficos de Dependência Parcial e Expectativa Condicional Individual e as Medidas dos Valores de Shapley ou ajuste de Modelos Locais interpretáveis. Neste trabalho levantamos técnicas utilizadas em Modelagem Uplift, com o objetivo de abordar a interpretabilidade nesse contexto.

     

7
  • JOÃO CARLOS PANDOLFI SANTANA
  • Aprendizado com Transferência em Imagens Retinográficas

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 02/09/2021

  • Mostrar Resumo
  • Nos últimos anos, alguns modelos de Redes Neurais Artificiais Profundas (Deep Artificial Neural Networks) têm atingido um nível de acurácia comparável ao de especialistas em tarefas de  classificação de imagens médicas. Um dos desafios do treinamento de redes profundas em problemas de imagens médicas é o tamanho tipicamente limitado dos conjuntos de treinamento. Por isso, o treinamento nesse tipo de problemas geralmente envolve uma etapa de transferência, em que os parâmetros de uma rede primária, aprendidos em algum outro domínio, são reaproveitados no treinamento de uma rede específica para o problema médico. Até hoje, poucos estudos foram realizados para entender as propriedades do aprendizado com transferência (Transfer Learning) nesse contexto. As modalidades mais comuns de imagens médicas diferem significativamente em relação aos bancos de imagens naturais geralmente usados no treinamento da rede primária, tanto em resolução quanto em atributos como contraste, textura, presença de ruído, etc. Isso sugere que esta técnica pode não ser a melhor maneira de acelerar o treinamento da rede ou pode mesmo prejudicar o seu desempenho final. Para investigar as propriedades da transferência, nós propomos uma série de experimentos de classificação de imagens de fundo de olho, no contexto da detecção de glaucoma e usando diferentes configurações de aprendizado com transferência.


  • Mostrar Abstract
  • Nos últimos anos, alguns modelos de Redes Neurais Artificiais Profundas (Deep Artificial Neural Networks) têm atingido um nível de acurácia comparável ao de especialistas em tarefas de  classificação de imagens médicas. Um dos desafios do treinamento de redes profundas em problemas de imagens médicas é o tamanho tipicamente limitado dos conjuntos de treinamento. Por isso, o treinamento nesse tipo de problemas geralmente envolve uma etapa de transferência, em que os parâmetros de uma rede primária, aprendidos em algum outro domínio, são reaproveitados no treinamento de uma rede específica para o problema médico. Até hoje, poucos estudos foram realizados para entender as propriedades do aprendizado com transferência (Transfer Learning) nesse contexto. As modalidades mais comuns de imagens médicas diferem significativamente em relação aos bancos de imagens naturais geralmente usados no treinamento da rede primária, tanto em resolução quanto em atributos como contraste, textura, presença de ruído, etc. Isso sugere que esta técnica pode não ser a melhor maneira de acelerar o treinamento da rede ou pode mesmo prejudicar o seu desempenho final. Para investigar as propriedades da transferência, nós propomos uma série de experimentos de classificação de imagens de fundo de olho, no contexto da detecção de glaucoma e usando diferentes configurações de aprendizado com transferência.

8
  • FELIPE DA CRUZ NERY
  • Requisitos e Padrões para o Desenvolvimento de Configurações de
    Acessibilidade de Aplicativos Móveis sob a Perspectiva do Design Universal

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 21/09/2021

  • Mostrar Resumo
  • A onipresença acessível de dispositivos móveis atrai uma variedade de usuários. Para atender adequadamente a essa diversidade de usuários heterogêneos, seria necessário projetar aplicativos móveis orientados pelo design universal. O design universal de aplicativos móveis cria aplicativos acessíveis a todas as pessoas, independentemente de suas características, idade ou habilidades. Os sistemas operacionais de dispositivos móveis avançam em direção ao design universal, fornecendo aos usuários configurações de acessibilidade, como tamanho da fonte e configurações do leitor de tela. Essas configurações são de grande importância. Eles permitem que a funcionalidade do telefone móvel seja adaptada às necessidades de seus diferentes usuários e abrem o caminho para atender a dois dos princípios do design universal: o uso justo e flexível de Sistemas Operacionais (SO) móveis. Por outro lado, a mesma flexibilidade não acontece com os aplicativos instalados sobre esses SO, pois a maioria deles não oferece as mesmas possibilidades de configuração. Devido a limitações técnicas, eles nem sempre são capazes de herdá-los dos sistemas operacionais. No entanto, podemos afirmar que, por um lado, os sistemas operacionais avançam em direção ao acesso universal, proporcionando configurações de acessibilidade. Por outro lado, os aplicativos móveis representam um obstáculo para que esse avanço aconteça. Uma maneira de mitigar o problema da baixa flexibilidade dos aplicativos móveis é identificar no início do processo de desenvolvimento de aplicativos móveis um conjunto de requisitos de configuração acessíveis que direciona os desenvolvedores a incluí-los em seus aplicativos futuros. Acessibilidade é um requisito não funcional e precisa ser mapeada em um conjunto de requisitos funcionais. Daí a importância de identificar e publicar esses requisitos. Existem iniciativas recentes para desenvolver requisitos para aplicativos móveis acessíveis. Ainda assim, muitos não são específicos para os requisitos de configuração e outros não são projetados com base no design universal ou por meio da participação do usuário. Diante desse contexto, este trabalho teve como objetivo pesquisar e descobrir quais os requisitos de configuração de acessibilidade que os aplicativos móveis devem implementar e quais os padrões de interface devem ser utilizados para desenvolve-los.  Esses resultados servem como diretrizes para a implementação de aplicativos móveis mais flexíveis. Os produtos também ajudam a avaliar o grau de flexibilidade dos aplicativos móveis existentes. Esperamos contribuir para um uso mais equitativo dos aplicativos móveis.


  • Mostrar Abstract
  • A onipresença acessível de dispositivos móveis atrai uma variedade de usuários. Para atender adequadamente a essa diversidade de usuários heterogêneos, seria necessário projetar aplicativos móveis orientados pelo design universal. O design universal de aplicativos móveis cria aplicativos acessíveis a todas as pessoas, independentemente de suas características, idade ou habilidades. Os sistemas operacionais de dispositivos móveis avançam em direção ao design universal, fornecendo aos usuários configurações de acessibilidade, como tamanho da fonte e configurações do leitor de tela. Essas configurações são de grande importância. Eles permitem que a funcionalidade do telefone móvel seja adaptada às necessidades de seus diferentes usuários e abrem o caminho para atender a dois dos princípios do design universal: o uso justo e flexível de Sistemas Operacionais (SO) móveis. Por outro lado, a mesma flexibilidade não acontece com os aplicativos instalados sobre esses SO, pois a maioria deles não oferece as mesmas possibilidades de configuração. Devido a limitações técnicas, eles nem sempre são capazes de herdá-los dos sistemas operacionais. No entanto, podemos afirmar que, por um lado, os sistemas operacionais avançam em direção ao acesso universal, proporcionando configurações de acessibilidade. Por outro lado, os aplicativos móveis representam um obstáculo para que esse avanço aconteça. Uma maneira de mitigar o problema da baixa flexibilidade dos aplicativos móveis é identificar no início do processo de desenvolvimento de aplicativos móveis um conjunto de requisitos de configuração acessíveis que direciona os desenvolvedores a incluí-los em seus aplicativos futuros. Acessibilidade é um requisito não funcional e precisa ser mapeada em um conjunto de requisitos funcionais. Daí a importância de identificar e publicar esses requisitos. Existem iniciativas recentes para desenvolver requisitos para aplicativos móveis acessíveis. Ainda assim, muitos não são específicos para os requisitos de configuração e outros não são projetados com base no design universal ou por meio da participação do usuário. Diante desse contexto, este trabalho teve como objetivo pesquisar e descobrir quais os requisitos de configuração de acessibilidade que os aplicativos móveis devem implementar e quais os padrões de interface devem ser utilizados para desenvolve-los.  Esses resultados servem como diretrizes para a implementação de aplicativos móveis mais flexíveis. Os produtos também ajudam a avaliar o grau de flexibilidade dos aplicativos móveis existentes. Esperamos contribuir para um uso mais equitativo dos aplicativos móveis.

9
  • LUIS CESAR DE AZEVEDO
  • Dimensionamento da Decomposição do Viés e da Variância em Estudo na Ciência de Materiais

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 18/10/2021

  • Mostrar Resumo
  •  A maioria das aplicações de aprendizado de máquina envolvendo bancos de dados de química quântica utilizam exclusivamente um único parâmetro estatístico, por exemplo o Erro Quadrático Médio (EQM), para avaliação do desempenho da predição. Entretanto esta abordagem possui limitações, ou pode acarretar em interpretações incorretas. Aqui é apresentada uma investigação sistemática sobre dois componentes do EQM, o viés e a variância, utilizando o banco de dados QM9 como fonte de informações de treino e teste. Nesta abordagem são utilizados três descritores considerados como estado da arte: $(i)$ o \textit{Symmetry Functions} (SF) com dois e três corpos, $(ii)$ o \textit{Many-body tensor representation} (MBTR) também com dois e três corpos e $(iii)$ o \textit{Smooth Overlap of Atomic Positions} (SOAP). Foi avaliado o processo de predição feito com estes três descritores utilizando diferentes quantidades de moléculas nas amostras de treino e o efeito do viés e da variância no EQM. Normalmente tamanhos de amostra baixos estão relacionados a EQM mais alto. Além disso, o componente de viés influencia fortemente os maiores EQMs. Também há uma baixa correlação entre as moléculas com os erros atípicos, para todos os descritores. Entretanto, existe uma grande correlação entre os conjunto de interseção entre os \textit{outliers} dos diferentes descritores e o volume do fecho convexo das coordenadas geométricas (VFC). De acordo com os resultados obtidos com a distribuição do EQM (e seus componentes viés e variância) e a presença de \textit{outliers}, o uso de \textit{ensembles} composto de modelos com um viés baixo minimiza o EQM, mais especificamente quando é utilizado um número baixo de moléculas na amostra de treinamento.
     


  • Mostrar Abstract
  •  A maioria das aplicações de aprendizado de máquina envolvendo bancos de dados de química quântica utilizam exclusivamente um único parâmetro estatístico, por exemplo o Erro Quadrático Médio (EQM), para avaliação do desempenho da predição. Entretanto esta abordagem possui limitações, ou pode acarretar em interpretações incorretas. Aqui é apresentada uma investigação sistemática sobre dois componentes do EQM, o viés e a variância, utilizando o banco de dados QM9 como fonte de informações de treino e teste. Nesta abordagem são utilizados três descritores considerados como estado da arte: $(i)$ o \textit{Symmetry Functions} (SF) com dois e três corpos, $(ii)$ o \textit{Many-body tensor representation} (MBTR) também com dois e três corpos e $(iii)$ o \textit{Smooth Overlap of Atomic Positions} (SOAP). Foi avaliado o processo de predição feito com estes três descritores utilizando diferentes quantidades de moléculas nas amostras de treino e o efeito do viés e da variância no EQM. Normalmente tamanhos de amostra baixos estão relacionados a EQM mais alto. Além disso, o componente de viés influencia fortemente os maiores EQMs. Também há uma baixa correlação entre as moléculas com os erros atípicos, para todos os descritores. Entretanto, existe uma grande correlação entre os conjunto de interseção entre os \textit{outliers} dos diferentes descritores e o volume do fecho convexo das coordenadas geométricas (VFC). De acordo com os resultados obtidos com a distribuição do EQM (e seus componentes viés e variância) e a presença de \textit{outliers}, o uso de \textit{ensembles} composto de modelos com um viés baixo minimiza o EQM, mais especificamente quando é utilizado um número baixo de moléculas na amostra de treinamento.
     

10
  • GUILHERME SEIDYO IMAI ALDEIA
  • Avaliação da Interpretabilidade em Regressão Simbólica

  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 02/12/2021

  • Mostrar Resumo
  • A comunidade científica tem dado cada vez mais atenção para a transparência em modelos de aprendizado de máquina para uso em aplicações de suporte a decisões. Enquanto muitos dos métodos populares são considerados uma caixa-preta por não possibilitarem uma inspeção do seu funcionamento, a regressão simbólica aparece como candidato na direção de obtenção de modelos mais transparentes, por conta do potencial que tem de encontrar modelos mais simples e interpretáveis. Entretanto, uma vez que interpretabilidade é subjetiva, faz-se necessário o uso de métodos adicionais para alcançar um modelo inteligível para o utilizador. Enquanto a representação Interação-Transformação é um passo na direção de resultados mais simples, por restringir o espaço de busca à soluções mais simples e interpretáveis, o resultado ainda pode não ser inteligível dependendo domínio do problema. Este projeto tem como objetivos desenvolver e aplicar métodos para interpretar e explicar resultados de regressão simbólica utilizando a representação Interação-Transformação, por meio da automatização do processo de extração de informações de um modelo, providenciando diversas perspectivas para apresentar ao utilizador de como ele se comporta. Para isso, diferentes abordagens para extrair informações expressões simbólicas serão estudadas, como o uso de descrições de alto nível, ferramentas de visualização e medidas quantitativas do comportamento da expressão, facilitando com que possa ser estabelecida (ou rejeitada) a confiabilidade e plausibilidade do modelo.


  • Mostrar Abstract
  • A comunidade científica tem dado cada vez mais atenção para a transparência em modelos de aprendizado de máquina para uso em aplicações de suporte a decisões. Enquanto muitos dos métodos populares são considerados uma caixa-preta por não possibilitarem uma inspeção do seu funcionamento, a regressão simbólica aparece como candidato na direção de obtenção de modelos mais transparentes, por conta do potencial que tem de encontrar modelos mais simples e interpretáveis. Entretanto, uma vez que interpretabilidade é subjetiva, faz-se necessário o uso de métodos adicionais para alcançar um modelo inteligível para o utilizador. Enquanto a representação Interação-Transformação é um passo na direção de resultados mais simples, por restringir o espaço de busca à soluções mais simples e interpretáveis, o resultado ainda pode não ser inteligível dependendo domínio do problema. Este projeto tem como objetivos desenvolver e aplicar métodos para interpretar e explicar resultados de regressão simbólica utilizando a representação Interação-Transformação, por meio da automatização do processo de extração de informações de um modelo, providenciando diversas perspectivas para apresentar ao utilizador de como ele se comporta. Para isso, diferentes abordagens para extrair informações expressões simbólicas serão estudadas, como o uso de descrições de alto nível, ferramentas de visualização e medidas quantitativas do comportamento da expressão, facilitando com que possa ser estabelecida (ou rejeitada) a confiabilidade e plausibilidade do modelo.

11
  • GUILHERME VASCONCELOS DE ALMEIDA
  • Desenvolvimento de próteses mamárias ultrapersonalizadas por escaneamento e impressão 3D

  • Orientador : JOAO PAULO GOIS
  • Data: 07/12/2021

  • Mostrar Resumo
  • Existe uma significativa produção científica mostrando o impacto psicológico, social e na autoestima da mulher, desde o diagnóstico de câncer de mama até a retirada completa da mama, o que torna fundamental buscar suprir além das necessidades médicas, as necessidades estéticas e sociais para a reabilitação das pacientes no pós-operatório da mastectomia. Justifica-se esta iniciativa, pelas necessidades das pacientes e pela ausência de empresas que ofereçam próteses mamárias que são personalizadas para cada paciente individualmente (ultrapersonalizadas) por tecnologia 3D, visto os desafios de pesquisa e desenvolvimento para a sua produção.


  • Mostrar Abstract
  • Existe uma significativa produção científica mostrando o impacto psicológico, social e na autoestima da mulher, desde o diagnóstico de câncer de mama até a retirada completa da mama, o que torna fundamental buscar suprir além das necessidades médicas, as necessidades estéticas e sociais para a reabilitação das pacientes no pós-operatório da mastectomia. Justifica-se esta iniciativa, pelas necessidades das pacientes e pela ausência de empresas que ofereçam próteses mamárias que são personalizadas para cada paciente individualmente (ultrapersonalizadas) por tecnologia 3D, visto os desafios de pesquisa e desenvolvimento para a sua produção.

12
  • PABLO LUIZ LEON
  • A systems modernization methodology to support digital transformation: A case study in the financial sector in Brazil

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 09/12/2021

  • Mostrar Resumo
  • Contexto: Sistemas são construídos com base em uma arquitetura o qual indica a sua estrutura de elementos e componentes, internos e externos, bem como seus relacionamentos. Além disso, a arquitetura do sistema também define princípios e regras para apoiar o processo de evolução do sistema como um todo.
    Contudo, as arquiteturas de sistemas não evoluem no mesmo ritmo das tecnologias mais modernas o que traz dificuldades para se integra-las com sistemas mais novos, resultando em uma complexidade para a sua evolução. Este desafio torna-se mais evidente diante dos recentes processos de transformação digital das organizações onde os sistemas como tecnologias de informação e comunicação tornam-se meios para a entrega de produtos e serviços mais eficientes. Problema: A transformação digital demanda das empresas mais integrações entre produtos e serviços, mais canais de utilização de acesso aos produtos e serviços e principalmente mais agilidade para disponibilização de produtos e serviços e os departamentos de TI, precisam entregar mais funcionalidades em um menor período de tempo. Para tal, os esforços de tecnologia tem sido em buscar meios de efetuar alterações especificas em sistemas sem comprometer toda a plataforma, testar somente o for necessário testar, diminuir a complexidade das alterações de sistemas, diminuir a complexidade dos testes e entregar sistemas com capacidade de atender a grandes volumes de acesso. Para tais objetivos sistemas monolíticos trazem um grande problema de complexidade para os departamentos de TI, que acabam pela necessidade de modernizar e evoluir esses sistemas com arquiteturas modernas capazes de atender essas necessidades. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de modernizar sistemas monolíticos em arquiteturas modernas e com convivência com sistema monolítico e um estudo de caso de uma empresa do setor financeiro no brasil. A arquitetura e metodologia apresentada, permite a modernização de sistema de forma gradativa de acordo com a agenda de prioridades de negócio. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata a modernização de sistemas com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de Engenharia de software e arquitetura de sistemas. Através da teoria da prática um estudo de caso real do setor financeiro no brasil foi analisado com um processo de modernização, onde leva em consideração a modernização de sistemas de acordo com a agenda de prioridades do negócio, efetuando então essa modernização através de recortes de funcionalidades do sistema monolítico e criando integração entre sistemas modernos e sistema monolítico. Uma entrevista qualitativa foi feita, para extrair a aderência, coerência e eficiência da metodologia junto aos profissionais de tecnologia da empresa. Resultados: Os resultados da aplicação pesquisa qualitativa em uma equipe real que utiliza a metodologia, mostra que embora o processo é coerente e aderente as empresas que precisam modernizar sistemas e não podem deixar de atender as metas de negócios no avanço de aprimorar funcionalidades existentes ou criar novas funcionalidades em sistemas monolíticos existentes na empresa. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de software, que corroboram com os direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a necessidade de metodologia de modernização de sistemas que tenha sinergia com as iniciativas de negócio das empresas uma vez que modernizar sistemas e efetuar mudanças de arquiteturas demandam um quantidade de tempo considerável do departamento de TI, para tal essa modernização de sistemas deve acontecer de forma gradativa, priorizada e com recortes em um sistema monolítico mantendo integrações entre sistema moderno e monolítico para manter a integridade e coerência das informações.


  • Mostrar Abstract
  • Contexto: Sistemas são construídos com base em uma arquitetura o qual indica a sua estrutura de elementos e componentes, internos e externos, bem como seus relacionamentos. Além disso, a arquitetura do sistema também define princípios e regras para apoiar o processo de evolução do sistema como um todo.
    Contudo, as arquiteturas de sistemas não evoluem no mesmo ritmo das tecnologias mais modernas o que traz dificuldades para se integra-las com sistemas mais novos, resultando em uma complexidade para a sua evolução. Este desafio torna-se mais evidente diante dos recentes processos de transformação digital das organizações onde os sistemas como tecnologias de informação e comunicação tornam-se meios para a entrega de produtos e serviços mais eficientes. Problema: A transformação digital demanda das empresas mais integrações entre produtos e serviços, mais canais de utilização de acesso aos produtos e serviços e principalmente mais agilidade para disponibilização de produtos e serviços e os departamentos de TI, precisam entregar mais funcionalidades em um menor período de tempo. Para tal, os esforços de tecnologia tem sido em buscar meios de efetuar alterações especificas em sistemas sem comprometer toda a plataforma, testar somente o for necessário testar, diminuir a complexidade das alterações de sistemas, diminuir a complexidade dos testes e entregar sistemas com capacidade de atender a grandes volumes de acesso. Para tais objetivos sistemas monolíticos trazem um grande problema de complexidade para os departamentos de TI, que acabam pela necessidade de modernizar e evoluir esses sistemas com arquiteturas modernas capazes de atender essas necessidades. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de modernizar sistemas monolíticos em arquiteturas modernas e com convivência com sistema monolítico e um estudo de caso de uma empresa do setor financeiro no brasil. A arquitetura e metodologia apresentada, permite a modernização de sistema de forma gradativa de acordo com a agenda de prioridades de negócio. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata a modernização de sistemas com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de Engenharia de software e arquitetura de sistemas. Através da teoria da prática um estudo de caso real do setor financeiro no brasil foi analisado com um processo de modernização, onde leva em consideração a modernização de sistemas de acordo com a agenda de prioridades do negócio, efetuando então essa modernização através de recortes de funcionalidades do sistema monolítico e criando integração entre sistemas modernos e sistema monolítico. Uma entrevista qualitativa foi feita, para extrair a aderência, coerência e eficiência da metodologia junto aos profissionais de tecnologia da empresa. Resultados: Os resultados da aplicação pesquisa qualitativa em uma equipe real que utiliza a metodologia, mostra que embora o processo é coerente e aderente as empresas que precisam modernizar sistemas e não podem deixar de atender as metas de negócios no avanço de aprimorar funcionalidades existentes ou criar novas funcionalidades em sistemas monolíticos existentes na empresa. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de software, que corroboram com os direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a necessidade de metodologia de modernização de sistemas que tenha sinergia com as iniciativas de negócio das empresas uma vez que modernizar sistemas e efetuar mudanças de arquiteturas demandam um quantidade de tempo considerável do departamento de TI, para tal essa modernização de sistemas deve acontecer de forma gradativa, priorizada e com recortes em um sistema monolítico mantendo integrações entre sistema moderno e monolítico para manter a integridade e coerência das informações.

13
  • DANIEL GONCALVES DA SILVA
  • Autenticação utilizando Atributos Faciais obtidos por Redes Neurais Convolucionais em Sistema de Gestão de Aprendizado

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 15/12/2021

  • Mostrar Resumo
  • Avaliações online estão cada vez mais presentes. Isso é ainda mais evidente com a grande demanda resultante da pandemia de 2020. No entanto, verificar a autenticidade do avaliado é uma tarefa que ainda precisa de novas soluções. Neste sentido, este trabalho apresenta dois plugins para o Moodle, um Sistema de Gestão da Aprendizagem amplamente utilizado nos diversos níveis do ensino. O primeiro, chamado Face Verification Quiz, é para o registro e verificação facial do usuário no Moodle, em uma atividade de questionário com esse recurso habilitado. O segundo, chamado Face Verification Report, é para mostrar um relatório de acessos nesta atividade. Redes Neurais Convolucionais Profunda treinadas foram usadas para detectar rapidamente o contorno da face através de pixels dos olhos, nariz e boca. Outra rede foi utilizada para a verificação facial, extraindo um vetor de 128 dimensões de cada face por meio da arquitetura de rede neural ResNet-34. Esses plugins foram testados com 32 usuários. Os resultados apresentam a viabilidade de uso, com aprovação média de 76% através de um questionário aplicado em 16 usuários em atividades opcionais online realizadas no Moodle no final de 2020 e início de 2021.  Apesar dos desafios apresentados pela pandemia COVID-19, as soluções apresentadas poderão ser úteis após esse período de isolamento.


  • Mostrar Abstract
  • Avaliações online estão cada vez mais presentes. Isso é ainda mais evidente com a grande demanda resultante da pandemia de 2020. No entanto, verificar a autenticidade do avaliado é uma tarefa que ainda precisa de novas soluções. Neste sentido, este trabalho apresenta dois plugins para o Moodle, um Sistema de Gestão da Aprendizagem amplamente utilizado nos diversos níveis do ensino. O primeiro, chamado Face Verification Quiz, é para o registro e verificação facial do usuário no Moodle, em uma atividade de questionário com esse recurso habilitado. O segundo, chamado Face Verification Report, é para mostrar um relatório de acessos nesta atividade. Redes Neurais Convolucionais Profunda treinadas foram usadas para detectar rapidamente o contorno da face através de pixels dos olhos, nariz e boca. Outra rede foi utilizada para a verificação facial, extraindo um vetor de 128 dimensões de cada face por meio da arquitetura de rede neural ResNet-34. Esses plugins foram testados com 32 usuários. Os resultados apresentam a viabilidade de uso, com aprovação média de 76% através de um questionário aplicado em 16 usuários em atividades opcionais online realizadas no Moodle no final de 2020 e início de 2021.  Apesar dos desafios apresentados pela pandemia COVID-19, as soluções apresentadas poderão ser úteis após esse período de isolamento.

Teses
1
  • DIEGO LUIZ DA SILVA
  • A METHOD FOR FINDING FACTORS AFFECTING THE SERVICE RELIABILITY ON FIXED BUS ROUTES
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 16/03/2021

  • Mostrar Resumo
  • A confiabilidade é um componente essencial do transporte público e compreende medidas sobre o desempenho e a qualidade do trânsito. Os recentes avanços tecnológicos permitiram a coleta massiva de dados e a aplicação de um novo conjunto de análises de dados, desbloqueando a discussão em um nível sistêmico e agregando uma perspectiva mais precisa do cliente. No entanto, a maioria dos estudos de confiabilidade de trânsito se concentra em métricas, estratégias para controlar a viagem e a variabilidade do tempo de espera, mas sem uma discussão clara sobre as variáveis explicativas que causam essas flutuações. Nosso estudo analisou os dados arquivados da cidade de São Paulo coletados em todas as 1.317 rotas de ônibus a cada 45s durante nove meses. Aplicamos um algoritmo baseado em árvore para identificar padrões em um conjunto de variáveis agrupadas em seis categorias: serviços de agência, topologia, demanda, clima, condição de tráfego e dia da semana. Para capturar a importância da variável independente do modelo, usamos Inteligência Artificial Explicável chamada TreeSHAP para calcular os valores de shapley, uma técnica da Teoria dos Jogos baseada em um jogo de coalizão justo.

    Ao calcular o “pagamento” distribuído entre as variáveis independentes, observamos que a variabilidade geral é altamente afetada pelos serviços da agência, conforme o esperado. No entanto, a categoria topologia afetou principalmente o tempo de viagem. Os passageiros com um tempo de chegada limitado ao destino dependem de um serviço regular da agência pelo menos 60% do tempo planejado para sua viagem independente da localização espacial em rotas de ônibus de alta frequência. Os resultados abrem uma discussão para compreender a parcela de contribuição das agências de transporte público para manter um serviço confiável e reinterpretar o desempenho das métricas de pontualidade, considerando efeitos adicionais na variabilidade do tempo de espera e de viagem.



  • Mostrar Abstract
  • A confiabilidade é um componente essencial do transporte público e compreende medidas sobre o desempenho e a qualidade do trânsito. Os recentes avanços tecnológicos permitiram a coleta massiva de dados e a aplicação de um novo conjunto de análises de dados, desbloqueando a discussão em um nível sistêmico e agregando uma perspectiva mais precisa do cliente. No entanto, a maioria dos estudos de confiabilidade de trânsito se concentra em métricas, estratégias para controlar a viagem e a variabilidade do tempo de espera, mas sem uma discussão clara sobre as variáveis explicativas que causam essas flutuações. Nosso estudo analisou os dados arquivados da cidade de São Paulo coletados em todas as 1.317 rotas de ônibus a cada 45s durante nove meses. Aplicamos um algoritmo baseado em árvore para identificar padrões em um conjunto de variáveis agrupadas em seis categorias: serviços de agência, topologia, demanda, clima, condição de tráfego e dia da semana. Para capturar a importância da variável independente do modelo, usamos Inteligência Artificial Explicável chamada TreeSHAP para calcular os valores de shapley, uma técnica da Teoria dos Jogos baseada em um jogo de coalizão justo.

    Ao calcular o “pagamento” distribuído entre as variáveis independentes, observamos que a variabilidade geral é altamente afetada pelos serviços da agência, conforme o esperado. No entanto, a categoria topologia afetou principalmente o tempo de viagem. Os passageiros com um tempo de chegada limitado ao destino dependem de um serviço regular da agência pelo menos 60% do tempo planejado para sua viagem independente da localização espacial em rotas de ônibus de alta frequência. Os resultados abrem uma discussão para compreender a parcela de contribuição das agências de transporte público para manter um serviço confiável e reinterpretar o desempenho das métricas de pontualidade, considerando efeitos adicionais na variabilidade do tempo de espera e de viagem.


2
  • DIOGO FERNANDO TREVISAN
  • FRAMEWORK COMPUTACIONAL PARA INTERVENÇÕES COMPORTAMENTAIS

  • Orientador : JOAO PAULO GOIS
  • Data: 07/05/2021

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é caracterizado por comportamento repetitivo e estereotipado, dificuldades na comunicação verbal e não verbal e no comportamento social. As causas do TEA ainda são desconhecidas, porém, quanto antes identificado, mais cedo pode-se começar uma intervenção e dar mais autonomia à criança. A Análise do Comportamento Aplicada, do inglês Applied Behavior Analysis  (ABA), se refere à ciência comportamental, fundamentada nos princípios da análise experimental do comportamento e apresenta os melhores resultados para os transtornos de neurodesenvolvimento.  A ABA consiste em avaliar e intervir, através do ensino de comportamentos específicos que envolvem diversas áreas do desenvolvimento da criança. Para cada criança, é necessário que um profissional - analista do comportamento - faça uma avaliação para verificar seu desenvolvimento e intervenha com um programa de ensino específico.Atualmente, existem diversos software para auxiliar na aplicação da ABA, porém, com pouca (ou nenhuma) flexibilidade na personalização do programa de ensino - apenas permitem selecionar imagens que serão utilizadas em atividades já definidas. Desta maneira, o profissional deve utilizar atividades pré-definidas, o impossibilitando de criar um programa de ensino específico para cada estudante. Neste trabalho é apresentado o design e implementação de um software para educação especial baseado em ABA. O software permite que profissionais da análise comportamental criem atividades personalizadas baseadas em templates já existentes no software, além de permitir a criação de seus próprios templates, sem a necessidade de conhecimento prévio de programação de computadores. O software tem suporte multimídia, o que permite utilizar como estímulos nas atividades imagens, textos, áudio e vídeo. Também é possível criar perfis para os estudantes, configurar programas de ensino com recompensas e correções configuráveis e visualizar relatórios. O software foi implementado em plataforma web com design responsivo ajustável aos diferentes tamanhos de tela,  dispositivos, browsers e sistemas operacionais.Para validar a aceitação do software, foram realizadas avaliações com profissionais do comportamento e também com mães de estudantes com necessidades especiais. Tanto os profissionais quanto as mães avaliaram positivamente o software e disseram que utilizariam em futuras intervenções: os profissionais para criarem programas de ensino, e os pais como ferramenta para ensinar seus filhos. Durante o isolamento social da Covid-19, o software foi inserido no uso cotidiano, sendo incorporado ao workflow de analistas comportamentais e educadores. Ao final do trabalho, são apresentadas as descobertas que este estudo proporcionou, as suas limitações , bem como os trabalhos futuros.



  • Mostrar Abstract
  • O Transtorno do Espectro Autista (TEA) é caracterizado por comportamento repetitivo e estereotipado, dificuldades na comunicação verbal e não verbal e no comportamento social. As causas do TEA ainda são desconhecidas, porém, quanto antes identificado, mais cedo pode-se começar uma intervenção e dar mais autonomia à criança. A Análise do Comportamento Aplicada, do inglês Applied Behavior Analysis  (ABA), se refere à ciência comportamental, fundamentada nos princípios da análise experimental do comportamento e apresenta os melhores resultados para os transtornos de neurodesenvolvimento.  A ABA consiste em avaliar e intervir, através do ensino de comportamentos específicos que envolvem diversas áreas do desenvolvimento da criança. Para cada criança, é necessário que um profissional - analista do comportamento - faça uma avaliação para verificar seu desenvolvimento e intervenha com um programa de ensino específico.Atualmente, existem diversos software para auxiliar na aplicação da ABA, porém, com pouca (ou nenhuma) flexibilidade na personalização do programa de ensino - apenas permitem selecionar imagens que serão utilizadas em atividades já definidas. Desta maneira, o profissional deve utilizar atividades pré-definidas, o impossibilitando de criar um programa de ensino específico para cada estudante. Neste trabalho é apresentado o design e implementação de um software para educação especial baseado em ABA. O software permite que profissionais da análise comportamental criem atividades personalizadas baseadas em templates já existentes no software, além de permitir a criação de seus próprios templates, sem a necessidade de conhecimento prévio de programação de computadores. O software tem suporte multimídia, o que permite utilizar como estímulos nas atividades imagens, textos, áudio e vídeo. Também é possível criar perfis para os estudantes, configurar programas de ensino com recompensas e correções configuráveis e visualizar relatórios. O software foi implementado em plataforma web com design responsivo ajustável aos diferentes tamanhos de tela,  dispositivos, browsers e sistemas operacionais.Para validar a aceitação do software, foram realizadas avaliações com profissionais do comportamento e também com mães de estudantes com necessidades especiais. Tanto os profissionais quanto as mães avaliaram positivamente o software e disseram que utilizariam em futuras intervenções: os profissionais para criarem programas de ensino, e os pais como ferramenta para ensinar seus filhos. Durante o isolamento social da Covid-19, o software foi inserido no uso cotidiano, sendo incorporado ao workflow de analistas comportamentais e educadores. Ao final do trabalho, são apresentadas as descobertas que este estudo proporcionou, as suas limitações , bem como os trabalhos futuros.


3
  • ANTONIO DE ABREU BATISTA JUNIOR
  • Predição na Ciência da Ciência: Explicativas de Modelos para Predições de Impacto Futuro de Cientistas Júnior

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 17/12/2021

  • Mostrar Resumo
  • Indicadores bibliométricos têm sido utilizados amplamente por governos, agências de governos e outros atores (e.g., universidades e pelos próprios cientistas) para mensurar o desempenho de pesquisadores, com o objetivo de orientar decisões de aprovação em estágio probatório, e como critério para progressão de carreira, financiamento de pesquisa, seleção de membros de quadros editoriais entre outras aplicações. A racionalidade por trás do uso desses indicadores como ferramentas de suporte à decisão, nesses contextos, é a força preditiva que supostamente eles carregam. Para essas e outras aplicações, o potencial para impacto futuro de um avaliado é a preocupação central. Indicadores alternativos (i.e., o índice-h futuro estimado via modelos de aprendizado de máquina) capturando o potencial para impacto futuro de cientistas claramente têm uma vantagem sobre indicadores tradicionais. Entretanto, vieses de toda natureza (e.g., favorecimento de certos grupos privilegiados) encontrados nesses modelos e a ausência de explicativas para suas tomadas de decisões têm tornado o uso deles inadequados nesses contextos em que decisões fundamentadas são pré-requisitos. Esta tese foca em como resolver essa questão. Em uma tentativa de aumentar a confiabilidade de modelos, nós propomos novos modelos interpretáveis para predição do Q futuro (impacto futuro) de jovens cientistas, e comparamos as suas acurácias e as suas explicativas para suas decisões contra outros modelos de aprendizado de máquina (Redes neurais profundas) e analíticos (e.g., o modelo Q, o índice h). Nós encontramos que esses modelos preditivos (indicadores alternativos) são confiáveis. Entretanto, por um lado esses testes revelaram que houve propagação involuntária de vieses (e.g., favorecimento de pesquisadores júnior já em posição de destaque) por algoritmos de aprendizado de máquina. Por outro lado, eles mostraram que as explicativas de modelos para suas decisões poderiam ser avaliadas por julgadores humanos para aliviar essa questão. Como esperado, nossos experimentos mostram que mesmo com poucos dados, o desempenho futuro (ou impacto) de pesquisadores júnior pode em grande medida ser predito. Em geral, as explicativas de modelos dadas para suas decisões são razoáveis. No entanto, a decisão final deve sempre ser do julgador humano porque existe sempre um risco embutido em uma predição.
    Adicionalmente, nós propomos o Q para periódicos, uma nova medida de impacto complementar às medidas de impacto de periódico. A sua principal vantagem sobre as demais medidas é ser uma medida não cumulativa, produzindo um ranking permanente.


  • Mostrar Abstract
  • Indicadores bibliométricos têm sido utilizados amplamente por governos, agências de governos e outros atores (e.g., universidades e pelos próprios cientistas) para mensurar o desempenho de pesquisadores, com o objetivo de orientar decisões de aprovação em estágio probatório, e como critério para progressão de carreira, financiamento de pesquisa, seleção de membros de quadros editoriais entre outras aplicações. A racionalidade por trás do uso desses indicadores como ferramentas de suporte à decisão, nesses contextos, é a força preditiva que supostamente eles carregam. Para essas e outras aplicações, o potencial para impacto futuro de um avaliado é a preocupação central. Indicadores alternativos (i.e., o índice-h futuro estimado via modelos de aprendizado de máquina) capturando o potencial para impacto futuro de cientistas claramente têm uma vantagem sobre indicadores tradicionais. Entretanto, vieses de toda natureza (e.g., favorecimento de certos grupos privilegiados) encontrados nesses modelos e a ausência de explicativas para suas tomadas de decisões têm tornado o uso deles inadequados nesses contextos em que decisões fundamentadas são pré-requisitos. Esta tese foca em como resolver essa questão. Em uma tentativa de aumentar a confiabilidade de modelos, nós propomos novos modelos interpretáveis para predição do Q futuro (impacto futuro) de jovens cientistas, e comparamos as suas acurácias e as suas explicativas para suas decisões contra outros modelos de aprendizado de máquina (Redes neurais profundas) e analíticos (e.g., o modelo Q, o índice h). Nós encontramos que esses modelos preditivos (indicadores alternativos) são confiáveis. Entretanto, por um lado esses testes revelaram que houve propagação involuntária de vieses (e.g., favorecimento de pesquisadores júnior já em posição de destaque) por algoritmos de aprendizado de máquina. Por outro lado, eles mostraram que as explicativas de modelos para suas decisões poderiam ser avaliadas por julgadores humanos para aliviar essa questão. Como esperado, nossos experimentos mostram que mesmo com poucos dados, o desempenho futuro (ou impacto) de pesquisadores júnior pode em grande medida ser predito. Em geral, as explicativas de modelos dadas para suas decisões são razoáveis. No entanto, a decisão final deve sempre ser do julgador humano porque existe sempre um risco embutido em uma predição.
    Adicionalmente, nós propomos o Q para periódicos, uma nova medida de impacto complementar às medidas de impacto de periódico. A sua principal vantagem sobre as demais medidas é ser uma medida não cumulativa, produzindo um ranking permanente.

2020
Dissertações
1
  • PEDRO HENRIQUE PARREIRA
  • Aprendizagem ativa em fluxo de dados com latência intermediária

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 20/01/2020

  • Mostrar Resumo
  • Um fluxo de dados possui diversas características desafiadoras para os algoritmos clássicos de aprendizagem de máquina, tais como os fenômenos de mudança e evolução de conceito, que são caracterizados pela mudança na distribuição dos dados e do surgimento de novas classes ao longo do fluxo, respectivamente. Além de tais características, ao longo do fluxo, os dados chegam de forma contínua e ininterrupta. Como consequência, uma enorme quantidade de dados são produzidos. Em diversas aplicações de mineração de dados a obtenção dos rótulos é uma tarefa custosa, sendo que em um fluxo de dados tal tarefa se torna ainda mais desafiadora pela enorme quantidade de dados que são gerados. Desta maneira, assumir que todos os dados terão seus respectivos rótulos disponibilizados se torna pouco provável para diversas aplicações reais em fluxo de dados. Portanto, ao considerar tal cenário, um modelo de classificação tem seu desempenho preditivo afetado negativamente ao longo do fluxo de dados devido aos fenômenos de mudança e evolução de conceito. Neste caso, é necessário a adaptação do modelo de classificação de tempos em tempos para a manutenção do seu desempenho preditivo. Essa adaptação requer dados rotulados ao longo do fluxo. Todavia, considerando um cenário realista, nem sempre é factível que os rótulos sejam disponibilizados de modo imediato, como é comumente assumido na maioria das abordagens encontradas na literatura. As abordagens existentes na literatura consideram que, ao ser disponibilizado um determinado exemplo, o seu rótulo é disponibilizado logo após a sua predição, isto é, o rótulo é disponibilizado com latência nula, e ambos são utilizados na adaptação do modelo. Porém, em diversas aplicações reais, o rótulo pode ser disponibilizado com um atraso não infinito, ou seja, com latência intermediária, e apenas para um subconjunto dos exemplos do fluxo. Em meio a tais desafios, este trabalho tem por objetivo a investigação e o desenvolvimento de um conjunto estratégias de aprendizagem ativa que consideram o cenário de fluxo de dados com latência intermediária.



  • Mostrar Abstract
  • Um fluxo de dados possui diversas características desafiadoras para os algoritmos clássicos de aprendizagem de máquina, tais como os fenômenos de mudança e evolução de conceito, que são caracterizados pela mudança na distribuição dos dados e do surgimento de novas classes ao longo do fluxo, respectivamente. Além de tais características, ao longo do fluxo, os dados chegam de forma contínua e ininterrupta. Como consequência, uma enorme quantidade de dados são produzidos. Em diversas aplicações de mineração de dados a obtenção dos rótulos é uma tarefa custosa, sendo que em um fluxo de dados tal tarefa se torna ainda mais desafiadora pela enorme quantidade de dados que são gerados. Desta maneira, assumir que todos os dados terão seus respectivos rótulos disponibilizados se torna pouco provável para diversas aplicações reais em fluxo de dados. Portanto, ao considerar tal cenário, um modelo de classificação tem seu desempenho preditivo afetado negativamente ao longo do fluxo de dados devido aos fenômenos de mudança e evolução de conceito. Neste caso, é necessário a adaptação do modelo de classificação de tempos em tempos para a manutenção do seu desempenho preditivo. Essa adaptação requer dados rotulados ao longo do fluxo. Todavia, considerando um cenário realista, nem sempre é factível que os rótulos sejam disponibilizados de modo imediato, como é comumente assumido na maioria das abordagens encontradas na literatura. As abordagens existentes na literatura consideram que, ao ser disponibilizado um determinado exemplo, o seu rótulo é disponibilizado logo após a sua predição, isto é, o rótulo é disponibilizado com latência nula, e ambos são utilizados na adaptação do modelo. Porém, em diversas aplicações reais, o rótulo pode ser disponibilizado com um atraso não infinito, ou seja, com latência intermediária, e apenas para um subconjunto dos exemplos do fluxo. Em meio a tais desafios, este trabalho tem por objetivo a investigação e o desenvolvimento de um conjunto estratégias de aprendizagem ativa que consideram o cenário de fluxo de dados com latência intermediária.


2
  • PEDRO HENRIQUE ARRUDA FAUSTINI
  • Fake news detection in multiple platforms and languages

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 27/01/2020

  • Mostrar Resumo
  • Notícias falsas têm atraído atenção nos últimos tempos, levantando questões sobre o grau de influência que podem exercer sobre importantes atividades das vidas das pessoas. Esforços têm sido feitos para detectá-las, mas geralmente dependem de trabalho humano, o que pode ser custoso e demorado. Disso surge a necessidade de maneiras automáticas de inferir se um determinado artigo é verdadeiro ou falso. O objetivo deste trabalho é estudar técnicas de aprendizado supervisionado para inferir automaticamente se as notícias são falsas ou não em várias plataformas e idiomas. Usamos seis conjuntos de dados de três plataformas diferentes (sites,Twitter e WhatsApp) em dois idiomas (português e inglês). Dois desses conjuntos de dados são novos
    e foram coletados durante este estudo. Monitoramos sites de checagem de fatos procurando por tópicos de notícias falsas. Então, nós recuperamos mensagens no Twitter de tais tópicos, juntamente com conteúdo verdadeiro. Também baixamos mensagens do WhatsApp reportados por esses sites. Então, para cada conjunto de dados, usamos três conjuntos de atributos (textual, bag-of-words e DCDistance) e aplicamos algoritmos de classificação neles para separar conteúdo falso de verdadeiro. No conjunto de dados do WhatsApp, aplicamos classificação de uma classe, uma abordagem inovadora neste tipo de aplicação.

     


  • Mostrar Abstract
  • Notícias falsas têm atraído atenção nos últimos tempos, levantando questões sobre o grau de influência que podem exercer sobre importantes atividades das vidas das pessoas. Esforços têm sido feitos para detectá-las, mas geralmente dependem de trabalho humano, o que pode ser custoso e demorado. Disso surge a necessidade de maneiras automáticas de inferir se um determinado artigo é verdadeiro ou falso. O objetivo deste trabalho é estudar técnicas de aprendizado supervisionado para inferir automaticamente se as notícias são falsas ou não em várias plataformas e idiomas. Usamos seis conjuntos de dados de três plataformas diferentes (sites,Twitter e WhatsApp) em dois idiomas (português e inglês). Dois desses conjuntos de dados são novos
    e foram coletados durante este estudo. Monitoramos sites de checagem de fatos procurando por tópicos de notícias falsas. Então, nós recuperamos mensagens no Twitter de tais tópicos, juntamente com conteúdo verdadeiro. Também baixamos mensagens do WhatsApp reportados por esses sites. Então, para cada conjunto de dados, usamos três conjuntos de atributos (textual, bag-of-words e DCDistance) e aplicamos algoritmos de classificação neles para separar conteúdo falso de verdadeiro. No conjunto de dados do WhatsApp, aplicamos classificação de uma classe, uma abordagem inovadora neste tipo de aplicação.

     

3
  • THAYRON CRYSTIAN HORTENCES DE MORAES
  • LSBCTR: Um Algoritmo de Recomendação Baseado no Estilo de Aprendizagem

  • Orientador : ITANA STIUBIENER
  • Data: 03/02/2020

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

4
  • LINCOLN LIMA SOUZA CANABRAVA MOTA
  • Redes neurais convolucionais para classificação de imagens e detecção de objetos com casos de uso

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 05/02/2020

  • Mostrar Resumo
  • Nos últimos anos vemos na sociedade uma proliferação de soluções inovadoras e arrojadas sobretudo nos campos de visão computacional, reconhecimento e síntese de fala. Quando olhamos mais atentamente para tais implementações verificamos que elas possuem algoritmos baseados em redes neurais convolucionais profundas (CNN, do inglês Convolutional Neural Network), treinadas em hardware de alto poder computacional com modernas placas gráficas de processamento paralelo de propósito geral. Mais recentemente vimos propostas para racionalização desses recursos computacionais e um foco em desempenho de modo a atingir execuções em tempo real. Dado este contexto, o presente trabalho tem como objetivo analisar e propor soluções utilizando abordagens CNN, tais como, arquiteturas Google Net, Mobile Net, VGG (versão 16 e 24), NasNet e DenseNet. Estas soluções serão aplicadas em problemas ainda pouco explorados como digitalização de livros, detecção de gestos, detecção de códigos de barra e QRCodes, onde todas essas tarefas têm como entrada principal de dados imagens adquiridas por câmera de vídeo convencional e a análise é efetuada em tempo real. Como resultados, constatamos que a melhor arquitetura depende de cada um destes problemas. 


  • Mostrar Abstract
  • Nos últimos anos vemos na sociedade uma proliferação de soluções inovadoras e arrojadas sobretudo nos campos de visão computacional, reconhecimento e síntese de fala. Quando olhamos mais atentamente para tais implementações verificamos que elas possuem algoritmos baseados em redes neurais convolucionais profundas (CNN, do inglês Convolutional Neural Network), treinadas em hardware de alto poder computacional com modernas placas gráficas de processamento paralelo de propósito geral. Mais recentemente vimos propostas para racionalização desses recursos computacionais e um foco em desempenho de modo a atingir execuções em tempo real. Dado este contexto, o presente trabalho tem como objetivo analisar e propor soluções utilizando abordagens CNN, tais como, arquiteturas Google Net, Mobile Net, VGG (versão 16 e 24), NasNet e DenseNet. Estas soluções serão aplicadas em problemas ainda pouco explorados como digitalização de livros, detecção de gestos, detecção de códigos de barra e QRCodes, onde todas essas tarefas têm como entrada principal de dados imagens adquiridas por câmera de vídeo convencional e a análise é efetuada em tempo real. Como resultados, constatamos que a melhor arquitetura depende de cada um destes problemas. 

5
  • CARLOS REYNALDO PORTOCARRERO TOVAR
  • Computação de Campos Atratores em Redes Dinâmicas Discretas Acopladas

  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 27/05/2020

  • Mostrar Resumo
  • Os processos de estabilização e sincronização em redes de entidades dinâmicas interagentes são quase onipresentes na natureza e desempenham um papel muito importante em muitos contextos diferentes, da biologia à sociologia. Redes Dinâmicas Discretas Acopladas (RDDA) são uma classe de modelos para redes de entidades dinâmicas interagentes, que incluem redes Boolenas acopladas, e que apresentam um amplo leque de potenciais aplicações, principalmente em Biologia de Sistemas. Apesar da sua importância, existem relativamente poucos estudos focados em estabilidade envolvendo essa classe específica de modelos, em particular estudos baseados em abordagens computacionais. Campos atratores em RDDAs consistem numa classe restrita de estados globalmente estáveis do sistema, nos quais a dinâmica de toda entidade interagente permanece ``confinada'' -- para todo tempo -- num mesmo atrator local. O objetivo desse projeto consiste em desenvolver um método computacionalmente eficiente que, dada uma RDDA como entrada, seja capaz de responder se ela contém ou não campos atratores, bem como identificá-los.


  • Mostrar Abstract
  • Os processos de estabilização e sincronização em redes de entidades dinâmicas interagentes são quase onipresentes na natureza e desempenham um papel muito importante em muitos contextos diferentes, da biologia à sociologia. Redes Dinâmicas Discretas Acopladas (RDDA) são uma classe de modelos para redes de entidades dinâmicas interagentes, que incluem redes Boolenas acopladas, e que apresentam um amplo leque de potenciais aplicações, principalmente em Biologia de Sistemas. Apesar da sua importância, existem relativamente poucos estudos focados em estabilidade envolvendo essa classe específica de modelos, em particular estudos baseados em abordagens computacionais. Campos atratores em RDDAs consistem numa classe restrita de estados globalmente estáveis do sistema, nos quais a dinâmica de toda entidade interagente permanece ``confinada'' -- para todo tempo -- num mesmo atrator local. O objetivo desse projeto consiste em desenvolver um método computacionalmente eficiente que, dada uma RDDA como entrada, seja capaz de responder se ela contém ou não campos atratores, bem como identificá-los.

6
  • CLARISSA SIMOYAMA DAVID
  • Detecção de estruturas implícitas textuais por agrupamento hard

  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 04/06/2020

  • Mostrar Resumo
  • Com o grande aumento na disponibilidade de dados de várias áreas, há um interesse crescente na pesquisa de padrões em conjuntos de dados. Esses padrões podem ser usados para executar tarefas como agrupamento e classificação. A área de pesquisa de Aprendizado de Máquina (AM) apresenta vários algoritmos com o objetivo de realizar essas tarefas. No entanto, algumas fontes destes dados podem trazer variáveis (ou atributos) desnecessárias que podem comprometer a qualidade dos padrões extraídos e podem, por exemplo, prejudicar em tarefas de classificação, interferindo no valor de acurácia obtido pelo classificador. Neste trabalho é proposta uma representação de dados textuais incorporando taxas de ocorrências de palavras associadas a suas funções sintáticas utilizando tarefas de Processamento de Linguagem Natural (PLN), como o POS-Tagging. A partir dessa estrutura de dados obtida é proposta a atribuição de importância a grupos desses atributos para representar os textos. Utilizando primeiramente Aprendizado Não-supervisionado, é realizado o agrupamento hard das palavras com o algoritmo K-médias, reduzindo a complexidade da base de dados sem que informações importantes sejam perdidas, e após a definição do número de grupos ideal, pesos são atribuídos aos grupos de palavras. Com a abordagem de Aprendizado Supervisionado, é aplicada classificação nos textos, inicialmente com os atributos sendo as  palavras previamente taggeadas, havendo uma etapa de otimização dos pesos dos atributos com o auxílio de um algoritmo de otimização baseada em população. Os resultados mostram que com esta estrutura de dados e com a abordagem de atribuição de pesos aos atributos houve uma melhora significativa em relação ao valor da acurácia na tarefa de classificação.


  • Mostrar Abstract
  • Com o grande aumento na disponibilidade de dados de várias áreas, há um interesse crescente na pesquisa de padrões em conjuntos de dados. Esses padrões podem ser usados para executar tarefas como agrupamento e classificação. A área de pesquisa de Aprendizado de Máquina (AM) apresenta vários algoritmos com o objetivo de realizar essas tarefas. No entanto, algumas fontes destes dados podem trazer variáveis (ou atributos) desnecessárias que podem comprometer a qualidade dos padrões extraídos e podem, por exemplo, prejudicar em tarefas de classificação, interferindo no valor de acurácia obtido pelo classificador. Neste trabalho é proposta uma representação de dados textuais incorporando taxas de ocorrências de palavras associadas a suas funções sintáticas utilizando tarefas de Processamento de Linguagem Natural (PLN), como o POS-Tagging. A partir dessa estrutura de dados obtida é proposta a atribuição de importância a grupos desses atributos para representar os textos. Utilizando primeiramente Aprendizado Não-supervisionado, é realizado o agrupamento hard das palavras com o algoritmo K-médias, reduzindo a complexidade da base de dados sem que informações importantes sejam perdidas, e após a definição do número de grupos ideal, pesos são atribuídos aos grupos de palavras. Com a abordagem de Aprendizado Supervisionado, é aplicada classificação nos textos, inicialmente com os atributos sendo as  palavras previamente taggeadas, havendo uma etapa de otimização dos pesos dos atributos com o auxílio de um algoritmo de otimização baseada em população. Os resultados mostram que com esta estrutura de dados e com a abordagem de atribuição de pesos aos atributos houve uma melhora significativa em relação ao valor da acurácia na tarefa de classificação.

7
  • ERICK FERNANDES DA CRUZ
  • Segmentação Assistida em Imagens de Grande Resolução

  • Orientador : JOAO PAULO GOIS
  • Data: 10/08/2020

  • Mostrar Resumo
  • Existem diversas técnicas de segmentação de imagens na literatura, e a importância delas pode ser vista em várias aplicações de áreas como, por exemplo, a visão computacional e o reconhecimento de padrões. Dentre essas áreas, temos a segmentação interativa de imagens, que se utiliza de algoritmos de segmentação assistidos para separar uma imagem em duas regiões com a utilização de marcações feitas pelo usuário. Um método que apresentou resultados interessantes na área da segmentação de imagens foi o Superpixel Laplacian Coordinates, que conseguiu resolver este problema com resultados bastante satisfatórios com relação a qualidade da segmentação e com relação ao tempo de execução, até mesmo em imagens de alta resolução. Apesar de sua performance ser superior a outros algoritmos utilizados em segmentação assistida, ele apresenta algumas etapas bem custosas com relação ao seu tempo de execução, sendo a mais demorada a aplicação do algoritmo SLIC para a geração de superpixels. O presente trabalho tem como objetivo encontrar técnicas de segmentação assistida de imagem que possam ser utilizadas em imagens de alta resolução. Para isso foi utilizado o algoritmo Superpixel Laplacian Coordinates, buscando otimizar suas etapas mais custosas mantendo a qualidade da segmentação final o mais próximo possível do resultado obtido pelo algoritmo original. Também foi desenvolvida uma nova técnica de segmentação derivada do Laplacian Coordinates, que também teve seu comportamento analisado nos diferentes conjuntos de imagens utilizados, denominado pelo presente trabalho como Pyramid Laplacian Coordinates. Para as variações do Superpixel Laplacian Coordinates foram utilizados 4 algoritmos de superpixel, incluindo o próprio SLIC, com variados parâmetros de entrada para conseguir uma comparação melhor de suas vantagens e desvantagens. Além disso realizamos a paralelização de algumas etapas do Superpixel Laplacian Coordinates para diminuir ainda mais seu tempo de processamento. Além de encontrar métodos de segmentação que possam ser utilizados em imagens de alta resolução, o presente trabalho disponibiliza uma aplicação gratuita e de código aberto que pode ser reaproveitada em trabalhos futuros.


  • Mostrar Abstract
  • Existem diversas técnicas de segmentação de imagens na literatura, e a importância delas pode ser vista em várias aplicações de áreas como, por exemplo, a visão computacional e o reconhecimento de padrões. Dentre essas áreas, temos a segmentação interativa de imagens, que se utiliza de algoritmos de segmentação assistidos para separar uma imagem em duas regiões com a utilização de marcações feitas pelo usuário. Um método que apresentou resultados interessantes na área da segmentação de imagens foi o Superpixel Laplacian Coordinates, que conseguiu resolver este problema com resultados bastante satisfatórios com relação a qualidade da segmentação e com relação ao tempo de execução, até mesmo em imagens de alta resolução. Apesar de sua performance ser superior a outros algoritmos utilizados em segmentação assistida, ele apresenta algumas etapas bem custosas com relação ao seu tempo de execução, sendo a mais demorada a aplicação do algoritmo SLIC para a geração de superpixels. O presente trabalho tem como objetivo encontrar técnicas de segmentação assistida de imagem que possam ser utilizadas em imagens de alta resolução. Para isso foi utilizado o algoritmo Superpixel Laplacian Coordinates, buscando otimizar suas etapas mais custosas mantendo a qualidade da segmentação final o mais próximo possível do resultado obtido pelo algoritmo original. Também foi desenvolvida uma nova técnica de segmentação derivada do Laplacian Coordinates, que também teve seu comportamento analisado nos diferentes conjuntos de imagens utilizados, denominado pelo presente trabalho como Pyramid Laplacian Coordinates. Para as variações do Superpixel Laplacian Coordinates foram utilizados 4 algoritmos de superpixel, incluindo o próprio SLIC, com variados parâmetros de entrada para conseguir uma comparação melhor de suas vantagens e desvantagens. Além disso realizamos a paralelização de algumas etapas do Superpixel Laplacian Coordinates para diminuir ainda mais seu tempo de processamento. Além de encontrar métodos de segmentação que possam ser utilizados em imagens de alta resolução, o presente trabalho disponibiliza uma aplicação gratuita e de código aberto que pode ser reaproveitada em trabalhos futuros.

8
  • CHARLES DE FIGUEREDO FERREIRA JUNIOR
  • DESENVOLVIMENTO DE SOFTWARE EM REALIDADE VIRTUAL PARA TRATAMENTO DE FOBIAS SEM CONFRONTO COM O OBJETO FÓBICO

  • Orientador : FRANCISCO JAVIER ROPERO PELAEZ
  • Data: 20/08/2020

  • Mostrar Resumo
  • Os métodos utilizados para o tratamento de fobias, em sua maioria, consistem
    em confrontar diretamente o paciente com o seu objeto fóbico (OF), o que é em
    muitos casos impensável para o detentor da fobia. O presente trabalho consiste no
    desenvolvimento de um software em realidade virtual para dispositivos móveis
    (smartphones) com sistema Android, que permitirá o tratamento de fobias sem o
    confronto direto do paciente com o OF. Para a realização do software foi utilizada a
    engine Unity3D, que é disponível para pesquisadores e possui uma interação com o
    Android para a programação em realidade virtual. A base teórica para o projeto
    consiste principalmente em um artigo apresentando por Granado et al. (2007),
    referente o tratamento de aracnofobia por meio da utilização de imagens que
    remetem a fobia correspondente, além de cursos e manuais referentes a linguagens
    utilizadas. A adaptação de um tratamento bem sucedido que utiliza imagens em 2D
    para um tratamento com realidade virtual facilitaria e aprimoraria o formato inicial,
    devido às possibilidades de estímulos mais realistas em 3D além da mobilidade
    possível com dispositivos móveis.


  • Mostrar Abstract
  • Os métodos utilizados para o tratamento de fobias, em sua maioria, consistem
    em confrontar diretamente o paciente com o seu objeto fóbico (OF), o que é em
    muitos casos impensável para o detentor da fobia. O presente trabalho consiste no
    desenvolvimento de um software em realidade virtual para dispositivos móveis
    (smartphones) com sistema Android, que permitirá o tratamento de fobias sem o
    confronto direto do paciente com o OF. Para a realização do software foi utilizada a
    engine Unity3D, que é disponível para pesquisadores e possui uma interação com o
    Android para a programação em realidade virtual. A base teórica para o projeto
    consiste principalmente em um artigo apresentando por Granado et al. (2007),
    referente o tratamento de aracnofobia por meio da utilização de imagens que
    remetem a fobia correspondente, além de cursos e manuais referentes a linguagens
    utilizadas. A adaptação de um tratamento bem sucedido que utiliza imagens em 2D
    para um tratamento com realidade virtual facilitaria e aprimoraria o formato inicial,
    devido às possibilidades de estímulos mais realistas em 3D além da mobilidade
    possível com dispositivos móveis.

9
  • WILLIAM DOS SANTOS MELO
  • Stochastic linear optimization approaches for joint probabilistic constrained problems with integer random variables

  • Orientador : CRISTIANE MARIA SATO
  • Data: 31/08/2020

  • Mostrar Resumo
  • The Stochastic Programming field combines optimization and probability theory. The focus of this field is dealing with optimization problems with uncertainty, in part or in all data, which arises naturally in real problems. There are several ways to model uncertainty and we describe some of them in this dissertation. Among these possibilities, we focus on stochastic linear optimization problems with joint probabilistic constraints in which we can separate the stochastic part from the deterministic part. Considering this type of constraint, we approach the case in which the probability distribution functions are integer. We present the concept of p-Level Efficient Points (p-LEPs) and we show examples in which the convex hull of the p-LEPs may contain unwanted points. Later on, we provide properties and geometric aspects of the convex hull of the p-LEPs and the notion of α-concavity for integer probability distribution functions. We include an algorithm to enumerate the p-LEPs and we exemplify its application to the stochastic set cover problem. Afterwards, we reformulate the stochastic problem with joint probabilistic constraints transforming them into deterministic problems using the p-LEPs. We present five approaches to solve these reformulations, they are: disjunctive programming, convex relaxation, cutting planes algorithm, column generation algorithm and the combination of the last two techniques. We use each one of these approaches to solve several instances of the stochastic set cover problem, in which we vary the number of dimensions and also the probability distribution functions.


  • Mostrar Abstract
  • The Stochastic Programming field combines optimization and probability theory. The focus of this field is dealing with optimization problems with uncertainty, in part or in all data, which arises naturally in real problems. There are several ways to model uncertainty and we describe some of them in this dissertation. Among these possibilities, we focus on stochastic linear optimization problems with joint probabilistic constraints in which we can separate the stochastic part from the deterministic part. Considering this type of constraint, we approach the case in which the probability distribution functions are integer. We present the concept of p-Level Efficient Points (p-LEPs) and we show examples in which the convex hull of the p-LEPs may contain unwanted points. Later on, we provide properties and geometric aspects of the convex hull of the p-LEPs and the notion of α-concavity for integer probability distribution functions. We include an algorithm to enumerate the p-LEPs and we exemplify its application to the stochastic set cover problem. Afterwards, we reformulate the stochastic problem with joint probabilistic constraints transforming them into deterministic problems using the p-LEPs. We present five approaches to solve these reformulations, they are: disjunctive programming, convex relaxation, cutting planes algorithm, column generation algorithm and the combination of the last two techniques. We use each one of these approaches to solve several instances of the stochastic set cover problem, in which we vary the number of dimensions and also the probability distribution functions.

10
  • RHÁLEFF NASCIMENTO RODRIGUES DE OLIVEIRA
  • PLANEJAMENTO DO DESIGN E DA EXECUÇÃO DA AVALIAÇÃO DO DESEMPENHO DE ALUNOS EM JOGOS SÉRIOS

  • Orientador : RAFAELA VILELA DA ROCHA CAMPOS
  • Data: 03/09/2020

  • Mostrar Resumo
  • Os jogos sérios educacionais (JSEs) são desenvolvidos para apoiar a aquisição de conhecimento e desenvolvimento de habilidades, por isso há a necessidade de mensurar os resultados alcançados (tanto depois que os alunos usam o jogo, como durante o jogo), para garantir a eficácia e efetividade dos jogos. Em JSEs, a avaliação pode ter o objetivo de avaliar o jogo em si, o produto final, ou o desempenho do aluno, no auxílio ao aprendizado do aluno. No entanto, a maioria das avaliações em JSEs são realizadas com foco em coletar a satisfação, motivação e outras reações dos alunos, sendo muitas vezes ignorada a avaliação da aprendizagem. Isto ocorre pela falta de abordagens (processos, modelos, métodos, frameworks) que apoiem o planejamento da avaliação durante o processo de produção de um JSE. Neste contexto, este trabalho tem como objetivo desenvolver e avaliar o AvaliaJSE, um modelo conceitual para estruturar, orientar e suportar o planejamento e design e execução da avaliação do desempenho do aluno em JSEs. O AvaliaJSE foi concebido por meio de uma visão holística sobre as abordagens (métodos, metodologias, processos, frameworks, modelos) de avaliação, no contexto de JSEs, através de um levantamento bibliográfico. O AvaliaJSE possui dois artefatos: um modelo canvas e um documento de projeto da avaliação, este para especificação mais detalhada do canvas. Para análise e exemplificação do uso do modelo, os artefatos foram aplicados a três jogos já prontos, como prova de conceito. Além disso, o AvaliaJSE foi avaliado por especialistas da área de desenvolvimento de JSEs e avaliação, por meio de questionário com perguntas fechadas e abertas, sobre sua corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade e usabilidade. O AvaliaJSE e seus artefatos podem ser usados para auxiliar a equipe no planejamento, documentação e desenvolvimento dos artefatos e coleta de dados em JSEs, bem como, na execução da avaliação, mensuração da aprendizagem e feedback constante e personalizado para os alunos.  


  • Mostrar Abstract
  • Os jogos sérios educacionais (JSEs) são desenvolvidos para apoiar a aquisição de conhecimento e desenvolvimento de habilidades, por isso há a necessidade de mensurar os resultados alcançados (tanto depois que os alunos usam o jogo, como durante o jogo), para garantir a eficácia e efetividade dos jogos. Em JSEs, a avaliação pode ter o objetivo de avaliar o jogo em si, o produto final, ou o desempenho do aluno, no auxílio ao aprendizado do aluno. No entanto, a maioria das avaliações em JSEs são realizadas com foco em coletar a satisfação, motivação e outras reações dos alunos, sendo muitas vezes ignorada a avaliação da aprendizagem. Isto ocorre pela falta de abordagens (processos, modelos, métodos, frameworks) que apoiem o planejamento da avaliação durante o processo de produção de um JSE. Neste contexto, este trabalho tem como objetivo desenvolver e avaliar o AvaliaJSE, um modelo conceitual para estruturar, orientar e suportar o planejamento e design e execução da avaliação do desempenho do aluno em JSEs. O AvaliaJSE foi concebido por meio de uma visão holística sobre as abordagens (métodos, metodologias, processos, frameworks, modelos) de avaliação, no contexto de JSEs, através de um levantamento bibliográfico. O AvaliaJSE possui dois artefatos: um modelo canvas e um documento de projeto da avaliação, este para especificação mais detalhada do canvas. Para análise e exemplificação do uso do modelo, os artefatos foram aplicados a três jogos já prontos, como prova de conceito. Além disso, o AvaliaJSE foi avaliado por especialistas da área de desenvolvimento de JSEs e avaliação, por meio de questionário com perguntas fechadas e abertas, sobre sua corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade e usabilidade. O AvaliaJSE e seus artefatos podem ser usados para auxiliar a equipe no planejamento, documentação e desenvolvimento dos artefatos e coleta de dados em JSEs, bem como, na execução da avaliação, mensuração da aprendizagem e feedback constante e personalizado para os alunos.  

11
  • LUÍS FELIPE DE OLIVEIRA MELLE
  • Proposta de extensão da metodologia INTERA para o desenvolvimento de jogos educacionais

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 14/09/2020

  • Mostrar Resumo
  • Os jogos educacionais, possibilitam aos jogadores entretenimento e aprendizado ao mesmo tempo. Porém para que isso ocorra é necessário que o jogo seja bem produzido, para que não fuja dos fins educacionais e seja apenas para entretenimento. Esse ponto abordado é uma dificuldade que vários jogos apresentam. Considerando tal dificuldade
    de construir um jogo digital educacional é indispensável o uso de metodologias para seu desenvolvimento. Existem algumas metodologias para o desenvolvimento de jogos digitais, porém elas ainda apresentam lacunas e são carentes de documentação. Analisando tais dificuldades, será proposto uma metodologia para o desenvolvimento de
    jogos digitais educacionais que preenche as lacunas que estão faltando nas metodologias existentes. A metodologia está sendo desenvolvia a partir de uma revisão sistemática da literatura, da metodologia INTERA e de um estudo de campo em um projeto para o desenvolvimento do jogo Expedição Antártica.


  • Mostrar Abstract
  • Os jogos educacionais, possibilitam aos jogadores entretenimento e aprendizado ao mesmo tempo. Porém para que isso ocorra é necessário que o jogo seja bem produzido, para que não fuja dos fins educacionais e seja apenas para entretenimento. Esse ponto abordado é uma dificuldade que vários jogos apresentam. Considerando tal dificuldade
    de construir um jogo digital educacional é indispensável o uso de metodologias para seu desenvolvimento. Existem algumas metodologias para o desenvolvimento de jogos digitais, porém elas ainda apresentam lacunas e são carentes de documentação. Analisando tais dificuldades, será proposto uma metodologia para o desenvolvimento de
    jogos digitais educacionais que preenche as lacunas que estão faltando nas metodologias existentes. A metodologia está sendo desenvolvia a partir de uma revisão sistemática da literatura, da metodologia INTERA e de um estudo de campo em um projeto para o desenvolvimento do jogo Expedição Antártica.

12
  • DIEGO MARQUES DE CARVALHO
  • Diretrizes para o desenvolvimento de jogos digitais educacionais embasados na teoria sociointeracionista de Lev Vigotski

  • Orientador : SILVIA CRISTINA DOTTA
  • Data: 16/09/2020

  • Mostrar Resumo
  • Os jogos educacionais digitais (JDEs), são considerados softwares educacionais (SEs) e têm sido utilizado como ferramenta de apoio a aprendizagem nos mais diversos contextos, no entanto observa-se a falta de atenção de questões pedagógicas em seu processo de criação. Desenvolver um JDE que supra as necessidades de uma perspectiva pedagógica sociointeracionista é também um desafio da computação, pertinente ao desenvolvimento de softwares com qualidade,  pois estes devem atender requisitos específicos dos educadores. Objetiva-se nesta pesquisa analisar o processo de desenvolvimento do JDE Expedição Antártica, desenvolvido pelo grupo de pesquisa INTERA (Inteligência em Tecnologias Educacionais e Recursos Acessíveis), investigando assim as características que tornam as mecânicas de jogo alicerçadas na teoria sociointeracionista de Lev Vigotski. Para tanto, recorreu-se à revisão sistemática da literatura e a análise do processo de desenvolvimento do jogo Expedição Antártica. Ao final, espera-se identificar as características da mecânica de jogo que o torna alicerçado na teoria de aprendizagem sociointeracionista.  


  • Mostrar Abstract
  • Os jogos educacionais digitais (JDEs), são considerados softwares educacionais (SEs) e têm sido utilizado como ferramenta de apoio a aprendizagem nos mais diversos contextos, no entanto observa-se a falta de atenção de questões pedagógicas em seu processo de criação. Desenvolver um JDE que supra as necessidades de uma perspectiva pedagógica sociointeracionista é também um desafio da computação, pertinente ao desenvolvimento de softwares com qualidade,  pois estes devem atender requisitos específicos dos educadores. Objetiva-se nesta pesquisa analisar o processo de desenvolvimento do JDE Expedição Antártica, desenvolvido pelo grupo de pesquisa INTERA (Inteligência em Tecnologias Educacionais e Recursos Acessíveis), investigando assim as características que tornam as mecânicas de jogo alicerçadas na teoria sociointeracionista de Lev Vigotski. Para tanto, recorreu-se à revisão sistemática da literatura e a análise do processo de desenvolvimento do jogo Expedição Antártica. Ao final, espera-se identificar as características da mecânica de jogo que o torna alicerçado na teoria de aprendizagem sociointeracionista.  

13
  • HENRIQUE MARTINS BOTELHO
  • Programa Evolver para Árvores de Steiner Ponderadas

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 23/09/2020

  • Mostrar Resumo
  • Apresentamos um algoritmo quase-ótimo inspirado em um experimento físico usando películas de sabão para o problema de Steiner ponderado no plano. Tal problema é NP-hard, mesmo em sua versão retilinear e devido a isso algoritmos heurísticos vêm sendo usados para encontrar árvores próximas da mínima. O algoritmo é implementado na linguagem de programação Evolver, que já contém muitas rotinas internas de minimização de energia. Algumas são chamadas pelo programa, o que permite que ele consista de 183 de código-fonte. Nosso algoritmo reproduz o experimento físico de uma película de sabão que se desprende de pinos conectados para chegar a uma configuração estável. Adicionalmente, no caso não-ponderado são feitas comparações com o GeoSteiner. Ao longo do texto, apresentamos diversos resultados de Geometria, Teoria dos Grafos e Física que modelam e nos d ̃ao uma visão do problema sob diferentes ângulos.


  • Mostrar Abstract
  • Apresentamos um algoritmo quase-ótimo inspirado em um experimento físico usando películas de sabão para o problema de Steiner ponderado no plano. Tal problema é NP-hard, mesmo em sua versão retilinear e devido a isso algoritmos heurísticos vêm sendo usados para encontrar árvores próximas da mínima. O algoritmo é implementado na linguagem de programação Evolver, que já contém muitas rotinas internas de minimização de energia. Algumas são chamadas pelo programa, o que permite que ele consista de 183 de código-fonte. Nosso algoritmo reproduz o experimento físico de uma película de sabão que se desprende de pinos conectados para chegar a uma configuração estável. Adicionalmente, no caso não-ponderado são feitas comparações com o GeoSteiner. Ao longo do texto, apresentamos diversos resultados de Geometria, Teoria dos Grafos e Física que modelam e nos d ̃ao uma visão do problema sob diferentes ângulos.

14
  • MAURICIO PEREIRA LUTI
  • SISTEMA COMPUTACIONAL PARA A MELHORIA DA MOBILIDADE DE PESSOAS COM DEFICIÊNCIAS VISUAIS EM REDES METROVIÁRIAS  (MMPDV_RM)

     

  • Orientador : ITANA STIUBIENER
  • Data: 04/11/2020

  • Mostrar Resumo
  • O crescimento populacional das grandes cidades do mundo tem sido extremamente acentuado ao longo dos anos e, segundo relatórios das Nações Unidas, a previsão é que continue em franca ascensão. Com o objetivo de atender às necessidades do crescimento dessa população, surge o conceito de Cidades Inteligentes, que se define como o uso da tecnologia para melhorar a infraestrutura urbana e prover uma melhor qualidade de vida da população. Nesse cenário, a mobilidade urbana será o tema abordado neste trabalho, mais especificamente, a mobilidade urbana dos deficientes visuais. O presente trabalho tem por objetivo propor um sistema de auxílio à locomoção de pessoas com deficiência visual em ambientes públicos de transporte, tais como estações de metrô, estações de trem, terminais de ônibus, etc., através de utilização de tecnologia celular (Smartphones). A proposta consiste em prover informações de localização aos usuários do serviço através de um programa aplicativo instalado em um Smartphone para que os funcionários dos ambientes públicos de transporte consigam localizar os usuários deficientes visuais mesmo que estes estejam fora da estação e auxiliá-los em sua locomoção dentro do transporte público. Como prova de conceito da proposta foi escolhido o ambiente do metrô.

     A metodologia utilizada no trabalho é a pesquisa experimental e será utilizado o cálculo dinâmico das distâncias físicas entre os usuários deficientes visuais e os pontos de acesso às estações de metrô, através de coordenadas de geolocalização, fornecidas pelo GPS dos Smartphones dos usuários.  Um servidor central irá gerenciar a comunicação entre os aplicativos instalados nos Smartphones dos usuários deficientes visuais, além de enviar ao setor operacional de cada estação de metrô as notificações de solicitação de auxílio aos usuários deficientes visuais.  Com os resultados desse trabalho espera-se gerar, através do uso de tecnologia, melhorias na autonomia dos deficientes visuais em termos de mobilidade nos transportes públicos contribuindo para o aumento de sua inclusão e cidadania, e também contribuindo com a expansão e desenvolvimento do conceito de Cidades Inteligentes.       

     

     

     

     

     


  • Mostrar Abstract
  • O crescimento populacional das grandes cidades do mundo tem sido extremamente acentuado ao longo dos anos e, segundo relatórios das Nações Unidas, a previsão é que continue em franca ascensão. Com o objetivo de atender às necessidades do crescimento dessa população, surge o conceito de Cidades Inteligentes, que se define como o uso da tecnologia para melhorar a infraestrutura urbana e prover uma melhor qualidade de vida da população. Nesse cenário, a mobilidade urbana será o tema abordado neste trabalho, mais especificamente, a mobilidade urbana dos deficientes visuais. O presente trabalho tem por objetivo propor um sistema de auxílio à locomoção de pessoas com deficiência visual em ambientes públicos de transporte, tais como estações de metrô, estações de trem, terminais de ônibus, etc., através de utilização de tecnologia celular (Smartphones). A proposta consiste em prover informações de localização aos usuários do serviço através de um programa aplicativo instalado em um Smartphone para que os funcionários dos ambientes públicos de transporte consigam localizar os usuários deficientes visuais mesmo que estes estejam fora da estação e auxiliá-los em sua locomoção dentro do transporte público. Como prova de conceito da proposta foi escolhido o ambiente do metrô.

     A metodologia utilizada no trabalho é a pesquisa experimental e será utilizado o cálculo dinâmico das distâncias físicas entre os usuários deficientes visuais e os pontos de acesso às estações de metrô, através de coordenadas de geolocalização, fornecidas pelo GPS dos Smartphones dos usuários.  Um servidor central irá gerenciar a comunicação entre os aplicativos instalados nos Smartphones dos usuários deficientes visuais, além de enviar ao setor operacional de cada estação de metrô as notificações de solicitação de auxílio aos usuários deficientes visuais.  Com os resultados desse trabalho espera-se gerar, através do uso de tecnologia, melhorias na autonomia dos deficientes visuais em termos de mobilidade nos transportes públicos contribuindo para o aumento de sua inclusão e cidadania, e também contribuindo com a expansão e desenvolvimento do conceito de Cidades Inteligentes.       

     

     

     

     

     

15
  • LARISSA DE MATTOS
  • Contribuições para o Desenvolvimento de Agentes Pedagógicos Conversacionais e sua integração a Ambientes Virtuais de Aprendizagem

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 17/11/2020

  • Mostrar Resumo
  • O desenvolvimento tecnológico têm criado condições para que as instituições de ensino adotem novas estratégias pedagógicas com o objetivo de enriquecer o processo de ensino-aprendizagem dos estudantes por meio da educação mediada por tecnologias. A visão de ensino como um fenômeno social incorpora-se no domínio de aprendizagem assistida por computador, e deste modo, são exploradas formas de empregar-se características sociais em ambientes de ensino virtuais. Neste contexto, a área de Agentes Pedagógicos Conversacionais (APC) denota o desenvolvimento de aplicações que visam o aperfeiçoamento da interação entre estudantes e ambientes virtuais de aprendizagem. Estudos apontam uma predileção dos estudantes por ambientes virtuais de aprendizagem que proporcionam interação com tais agentes, pois promovem proximidade à papéis educacionais relevantes, em um cenário que, em geral, os estudantes se sentem distantes dos professores e demais colegas. No entanto, o uso de APC tem sido pouco explorado em ambientes virtuais de aprendizagem. Neste sentido, este trabalho tem por objetivo geral apresentar o APC Penelopinha, desenvolvido para o domínio de conhecimento de Introdução a Programação, e integrado ao ambiente virtual Moodle. Além do APC destacam-se os seguintes resultados do trabalho: a especificação de um processo para desenvolvimento de APC e sua integração ao Moodle, a modelagem do domínio de conhecimento da disciplina de Processamento da Informação da UFABC, a avaliação a eficiência dos diálogos apresentados pelo Agente e a avaliação da percepção do usuário na interação humano-máquina proporcionada pelo APC com base no questionário Attrakdiff.


  • Mostrar Abstract
  • O desenvolvimento tecnológico têm criado condições para que as instituições de ensino adotem novas estratégias pedagógicas com o objetivo de enriquecer o processo de ensino-aprendizagem dos estudantes por meio da educação mediada por tecnologias. A visão de ensino como um fenômeno social incorpora-se no domínio de aprendizagem assistida por computador, e deste modo, são exploradas formas de empregar-se características sociais em ambientes de ensino virtuais. Neste contexto, a área de Agentes Pedagógicos Conversacionais (APC) denota o desenvolvimento de aplicações que visam o aperfeiçoamento da interação entre estudantes e ambientes virtuais de aprendizagem. Estudos apontam uma predileção dos estudantes por ambientes virtuais de aprendizagem que proporcionam interação com tais agentes, pois promovem proximidade à papéis educacionais relevantes, em um cenário que, em geral, os estudantes se sentem distantes dos professores e demais colegas. No entanto, o uso de APC tem sido pouco explorado em ambientes virtuais de aprendizagem. Neste sentido, este trabalho tem por objetivo geral apresentar o APC Penelopinha, desenvolvido para o domínio de conhecimento de Introdução a Programação, e integrado ao ambiente virtual Moodle. Além do APC destacam-se os seguintes resultados do trabalho: a especificação de um processo para desenvolvimento de APC e sua integração ao Moodle, a modelagem do domínio de conhecimento da disciplina de Processamento da Informação da UFABC, a avaliação a eficiência dos diálogos apresentados pelo Agente e a avaliação da percepção do usuário na interação humano-máquina proporcionada pelo APC com base no questionário Attrakdiff.

16
  • JOSÉ ROBERTO DOS SANTOS
  • Acompanhamento da Aprendizagem pelo Estudante por meio de Learning Analytics Dashboards no Ambiente Virtual Moodle

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 14/12/2020

  • Mostrar Resumo
  • O acompanhamento da aprendizagem pelo próprio estudante tem sido estudado no âmbito da autorregulação da aprendizagem. Pesquisas indicam que aprendizes com altos índices de autorregulação possuem maiores chances de continuarem ativos no decorrer de um curso.  Learning Analytics Dashboards (LAD) apresentam grande potencial para serem utilizadas como ferramentas para apoiar o acompanhamento e monitoramento da aprendizagem. LAD tipicamente capturam e apresentam de forma gráfica o rastreamento das atividades de aprendizagem dos estudantes, especialmente em Ambientes Virtuais da Aprendizagem (AVA) com a finalidade de promover a consciência e reflexão e permitir que os estudantes possam acompanhar tanto seu progresso quanto monitorar o próprio comportamento.  Entretanto, identificou-se que a maioria das aplicações de LAD disponíveis são desenvolvidas para apoiar os professores. Ou seja, poucas aplicações desse tipo são endereçadas explicitamente para que os próprios estudantes possam visualizar e analisar os seus dados e assim possibilitar a reflexão sobre o próprio desempenho ou comportamento de aprendizagem. Nesse sentido, este trabalho tem por objetivo geral apresentar a ferramenta DashLearner, que é um plugin Moodle desenvolvido para propiciar o acompanhamento da aprendizagem pelos estudantes. A expectativa é que a disponibilidade de um plugin com estas características, para um AVA bastante utilizado, possa fomentar e ampliar os processos de autorregulação da aprendizagem pelo estudante. O trabalho apresenta a discussão dos resultados do uso do DashLearner com uma turma de um curso de graduação e uma turma de um curso de especialização.  


  • Mostrar Abstract
  • O acompanhamento da aprendizagem pelo próprio estudante tem sido estudado no âmbito da autorregulação da aprendizagem. Pesquisas indicam que aprendizes com altos índices de autorregulação possuem maiores chances de continuarem ativos no decorrer de um curso.  Learning Analytics Dashboards (LAD) apresentam grande potencial para serem utilizadas como ferramentas para apoiar o acompanhamento e monitoramento da aprendizagem. LAD tipicamente capturam e apresentam de forma gráfica o rastreamento das atividades de aprendizagem dos estudantes, especialmente em Ambientes Virtuais da Aprendizagem (AVA) com a finalidade de promover a consciência e reflexão e permitir que os estudantes possam acompanhar tanto seu progresso quanto monitorar o próprio comportamento.  Entretanto, identificou-se que a maioria das aplicações de LAD disponíveis são desenvolvidas para apoiar os professores. Ou seja, poucas aplicações desse tipo são endereçadas explicitamente para que os próprios estudantes possam visualizar e analisar os seus dados e assim possibilitar a reflexão sobre o próprio desempenho ou comportamento de aprendizagem. Nesse sentido, este trabalho tem por objetivo geral apresentar a ferramenta DashLearner, que é um plugin Moodle desenvolvido para propiciar o acompanhamento da aprendizagem pelos estudantes. A expectativa é que a disponibilidade de um plugin com estas características, para um AVA bastante utilizado, possa fomentar e ampliar os processos de autorregulação da aprendizagem pelo estudante. O trabalho apresenta a discussão dos resultados do uso do DashLearner com uma turma de um curso de graduação e uma turma de um curso de especialização.  

17
  • BARBARA KATHELLEN ANDRADE PORFIRIO
  • Análise de Qualidade de Dados Geográficos Vetoriais: DA TAXONOMIA DE ERROS AO EXPERIMENTO

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 15/12/2020

  • Mostrar Resumo
  • O recente desenvolvimento de Sistemas de Informações Geográficas e a alta disponibilidade de recursos de geolocalização têm estimulado a geração de dados geográficos. O uso correto desses dados depende fortemente de sua qualidade e  capacidade de integração. Para encontrar uma maneira adequada de integrar dados geográficos, é essencial definir uma estratégia para identificar erros. Nesse contexto, este trabalho tem como objetivo propor uma forma de identificar e classificar erros geográficos, para fins de verificação automática e controle de qualidade dos dados. A classificação utiliza o padrão ISO 19157 como referência e aplica estratégias de integração baseada em dados de formatos abertos e software livre para a realização da verificação automática de erros em dados geográficos. Os resultados apresentam dois estudos de caso usando arquivos com limites municipais do estado de São Paulo, de fontes diferentes, mostrando resultados positivos.


  • Mostrar Abstract
  • O recente desenvolvimento de Sistemas de Informações Geográficas e a alta disponibilidade de recursos de geolocalização têm estimulado a geração de dados geográficos. O uso correto desses dados depende fortemente de sua qualidade e  capacidade de integração. Para encontrar uma maneira adequada de integrar dados geográficos, é essencial definir uma estratégia para identificar erros. Nesse contexto, este trabalho tem como objetivo propor uma forma de identificar e classificar erros geográficos, para fins de verificação automática e controle de qualidade dos dados. A classificação utiliza o padrão ISO 19157 como referência e aplica estratégias de integração baseada em dados de formatos abertos e software livre para a realização da verificação automática de erros em dados geográficos. Os resultados apresentam dois estudos de caso usando arquivos com limites municipais do estado de São Paulo, de fontes diferentes, mostrando resultados positivos.

18
  • FLÁVIA JANINE ROSANTE BÉO
  • Aprendizado de Máquina Quântica com Rede Neural Artificial Aplicado ao Problema de Coloração de Grafos

  • Orientador : KARLA VITTORI
  • Data: 16/12/2020

  • Mostrar Resumo
  • O problema de coloração de grafos consiste em atribuir cores a certos elementos de um grafo, sujeito a determinadas condições. Ao se caracterizar como um problema de otimização combinatória, ele possui aplicabilidade a uma vasta gama de áreas que envolvem particionamento e conflitos, compreendendo escalonamentos e alocações diversas, como, por exemplo, de tarefas, canais, redes, eventos e rotas. Inicialmente solucionado por algoritmos exatos, capazes de fornecer a solução ótima, estes se mostraram ineficientes na resolução de problemas de coloração de grafos de alta complexidade, sendo incapazes de fornecer soluções em um tempo computacional aceitável. Assim, técnicas de Inteligência Artificial foram aplicadas com sucesso a instâncias complexas deste problema nas últimas décadas. A Computação Quântica, tem se mostrado nos últimos anos uma possível alternativa viável e eficiente na resolução de problemas complexos diversos, com aplicações futuras na simulação e otimização em diferentes áreas, como medicina, transporte, finanças e segurança cibernética. Dentro deste contexto, esta pesquisa envolve a simulação da execução de um algoritmo de Inteligência Artificial em um computador quântico para a resolução de um problema de coloração de grafos, constituindo, portanto, um algoritmo híbrido. O intuito é demonstrar o ganho em performance, relacionada a diferentes métricas, como o tempo de execução do algoritmo implementado e a qualidade da solução por ele encontrada, ambos relacionados à simulação do seu funcionamento em um computador quântico. A técnica de Inteligência Artificial utilizada foi uma Rede Neural Artificial, que tem sido aplicada com sucesso nas últimas décadas a problemas de otimização combinatória de diversas áreas, como telecomunicações, medicina, gestão, segurança e previsão. Os experimentos foram realizados no IBM Q Experience, uma plataforma online que disponibiliza o acesso a um conjunto de protótipos de processadores quânticos da IBM, por meio da computação em nuvem. Os resultados obtidos foram comparados aos da rede neural utilizada, aplicada anteriormente ao problema de coloração de grafos na literatura, e implementada em um computador clássico, de acordo com determinadas métricas. O problema considerado, constituído por um grafo com 4 vértices, demonstrou o potencial do algoritmo híbrido quântico proposto na resolução de um problema de otimização combinatória, o qual obteve resultados superiores em relação àqueles apresentados pela rede neural artificial utilizada, implementada em um computador clássico, com relação ao tempo de processamento e à acurácia da rede neural considerada. Esta pesquisa também discutiu como minimizar futuramente as limitações ainda apresentadas por um computador quântico na resolução do problema de coloração de grafos, a qual pode ser estendida a outros problemas de otimização combinatória, para instâncias maiores.


  • Mostrar Abstract
  • O problema de coloração de grafos consiste em atribuir cores a certos elementos de um grafo, sujeito a determinadas condições. Ao se caracterizar como um problema de otimização combinatória, ele possui aplicabilidade a uma vasta gama de áreas que envolvem particionamento e conflitos, compreendendo escalonamentos e alocações diversas, como, por exemplo, de tarefas, canais, redes, eventos e rotas. Inicialmente solucionado por algoritmos exatos, capazes de fornecer a solução ótima, estes se mostraram ineficientes na resolução de problemas de coloração de grafos de alta complexidade, sendo incapazes de fornecer soluções em um tempo computacional aceitável. Assim, técnicas de Inteligência Artificial foram aplicadas com sucesso a instâncias complexas deste problema nas últimas décadas. A Computação Quântica, tem se mostrado nos últimos anos uma possível alternativa viável e eficiente na resolução de problemas complexos diversos, com aplicações futuras na simulação e otimização em diferentes áreas, como medicina, transporte, finanças e segurança cibernética. Dentro deste contexto, esta pesquisa envolve a simulação da execução de um algoritmo de Inteligência Artificial em um computador quântico para a resolução de um problema de coloração de grafos, constituindo, portanto, um algoritmo híbrido. O intuito é demonstrar o ganho em performance, relacionada a diferentes métricas, como o tempo de execução do algoritmo implementado e a qualidade da solução por ele encontrada, ambos relacionados à simulação do seu funcionamento em um computador quântico. A técnica de Inteligência Artificial utilizada foi uma Rede Neural Artificial, que tem sido aplicada com sucesso nas últimas décadas a problemas de otimização combinatória de diversas áreas, como telecomunicações, medicina, gestão, segurança e previsão. Os experimentos foram realizados no IBM Q Experience, uma plataforma online que disponibiliza o acesso a um conjunto de protótipos de processadores quânticos da IBM, por meio da computação em nuvem. Os resultados obtidos foram comparados aos da rede neural utilizada, aplicada anteriormente ao problema de coloração de grafos na literatura, e implementada em um computador clássico, de acordo com determinadas métricas. O problema considerado, constituído por um grafo com 4 vértices, demonstrou o potencial do algoritmo híbrido quântico proposto na resolução de um problema de otimização combinatória, o qual obteve resultados superiores em relação àqueles apresentados pela rede neural artificial utilizada, implementada em um computador clássico, com relação ao tempo de processamento e à acurácia da rede neural considerada. Esta pesquisa também discutiu como minimizar futuramente as limitações ainda apresentadas por um computador quântico na resolução do problema de coloração de grafos, a qual pode ser estendida a outros problemas de otimização combinatória, para instâncias maiores.

19
  • THIAGO DE JESUS INOCÊNCIO
  • UMA METODOLOGIA BASEADA EM MINERAÇÃO DE DADOS PARA O PROJETO DE SISTEMAS-DE-SISTEMAS A PARTIR DE COMPORTAMENTOS EMERGENTES SIMPLES DERIVADOS DOS PROCESSOS DE NEGÓCIOS
  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 16/12/2020

  • Mostrar Resumo
  • Contexto: Um sistema-de-sistemas (SoS) é uma classe de sistema caracterizada pela união de sistemas constituintes que são operados e gerenciados de forma independente e que juntos são capazes de produzir ações inovadoras. Cada constituinte de um SoS contribui com suas funcionalidades específicas para criar comportamentos novos conhecidos como comportamentos emergentes. Devido à natureza complexa dos SoS, à medida que novos constituintes se juntam ou saem do conjunto, comportamentos emergentes inesperados podem aparecer, tornando a modelagem e a simulação um papel significativo no desenvolvimento desses sistemas. Processos de negócios são amplamente adotados nas organizações com intuito de melhorar a agilidade e a tomada de decisão. Em muitos casos, as atividades presentes em um processo de negócio são realizadas por meio de sistemas. Problema: Caso uma atividade de processo negócio não puder ser executada de forma eficiente por um único sistema, podem existir conjuntos de sistemas que reunidos em um SoS apresentem comportamentos emergentes capazes de atender a essa atividade. A busca por constituintes pode ser realizada em repositórios de sistemas, no entanto, a depender dos requisitos definidos para os constituintes, a busca manual constitui-se uma tarefa dispendiosa e possivelmente orientada a falhas. Nesse sentido, técnicas de mineração de dados caracterizam-se como ferramenta importante no processo de descoberta e conhecimento em grandes bases de dados de sistemas. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de criar modelos de SoS com base em comportamentos emergentes derivados de processos de negócios utilizando técnicas de mineração de dados. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata de comportamentos emergentes em SoS com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de SoS. Com vistas a encontrar os sistemas constituintes dos SoS, algoritmos de mineração de dados foram utilizados para dar suporte a essa tarefa. Para isso, a metodologia proposta foi aplicada em um estudo de caso prático com vistas a validá-la. Resultados: Os resultados da aplicação da metodologia mostram que embora todos os algoritmos de mineração de dados analisados nesta pesquisa apresentem resultados satisfatórios, o agrupamento por densidade a partir do algoritmo dbscan apresentou resultados mais satisfatórios na busca por sistemas constituintes que unidos apresentam comportamentos emergentes que atendam aos requisitos de negócios. No entanto, pode-se observar que o algoritmo dbscan apresentou os maiores tempos de execução dentre todas as técnicas, tornando-o impraticável caso o tempo de execução seja uma variável importante durante a aplicação da metodologia. Em contrapartida, o algoritmo de ranking se apresentou a o melhor opção quando tempo de execução é relevante durante a aplicação. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de SoS que vão ao encontro dos direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a constatação de que comportamento emergentes de Sos derivados de processos de negócios são capazes de auxiliar a realização das atividades presentes nesses processos.


  • Mostrar Abstract
  • Contexto: Um sistema-de-sistemas (SoS) é uma classe de sistema caracterizada pela união de sistemas constituintes que são operados e gerenciados de forma independente e que juntos são capazes de produzir ações inovadoras. Cada constituinte de um SoS contribui com suas funcionalidades específicas para criar comportamentos novos conhecidos como comportamentos emergentes. Devido à natureza complexa dos SoS, à medida que novos constituintes se juntam ou saem do conjunto, comportamentos emergentes inesperados podem aparecer, tornando a modelagem e a simulação um papel significativo no desenvolvimento desses sistemas. Processos de negócios são amplamente adotados nas organizações com intuito de melhorar a agilidade e a tomada de decisão. Em muitos casos, as atividades presentes em um processo de negócio são realizadas por meio de sistemas. Problema: Caso uma atividade de processo negócio não puder ser executada de forma eficiente por um único sistema, podem existir conjuntos de sistemas que reunidos em um SoS apresentem comportamentos emergentes capazes de atender a essa atividade. A busca por constituintes pode ser realizada em repositórios de sistemas, no entanto, a depender dos requisitos definidos para os constituintes, a busca manual constitui-se uma tarefa dispendiosa e possivelmente orientada a falhas. Nesse sentido, técnicas de mineração de dados caracterizam-se como ferramenta importante no processo de descoberta e conhecimento em grandes bases de dados de sistemas. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de criar modelos de SoS com base em comportamentos emergentes derivados de processos de negócios utilizando técnicas de mineração de dados. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata de comportamentos emergentes em SoS com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de SoS. Com vistas a encontrar os sistemas constituintes dos SoS, algoritmos de mineração de dados foram utilizados para dar suporte a essa tarefa. Para isso, a metodologia proposta foi aplicada em um estudo de caso prático com vistas a validá-la. Resultados: Os resultados da aplicação da metodologia mostram que embora todos os algoritmos de mineração de dados analisados nesta pesquisa apresentem resultados satisfatórios, o agrupamento por densidade a partir do algoritmo dbscan apresentou resultados mais satisfatórios na busca por sistemas constituintes que unidos apresentam comportamentos emergentes que atendam aos requisitos de negócios. No entanto, pode-se observar que o algoritmo dbscan apresentou os maiores tempos de execução dentre todas as técnicas, tornando-o impraticável caso o tempo de execução seja uma variável importante durante a aplicação da metodologia. Em contrapartida, o algoritmo de ranking se apresentou a o melhor opção quando tempo de execução é relevante durante a aplicação. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de SoS que vão ao encontro dos direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a constatação de que comportamento emergentes de Sos derivados de processos de negócios são capazes de auxiliar a realização das atividades presentes nesses processos.

Teses
1
  • CHARLES HENRIQUE PORTO FERREIRA
  • Extração e Combinação de Múltiplas Visões para Classificação de Textos

  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 14/02/2020

  • Mostrar Resumo
  • Analisar a informação através de múltiplas perspectivas pode colaborar no entendimento dos dados e na extração de conhecimento, permitindo a exploração de um intervalo maior de características, principalmente em se tratando de textos. Para fazer uma análise significativa de todos os aspectos de um texto, é fundamental observá-lo através de múltiplas perspectivas permitindo assim uma investigação mais objetiva. Neste trabalho, estamos propondo uma técnica capaz de gerar múltiplas visões de textos para aprender suas características e incorporar seu conhecimento em uma única representação vetorial que seja apta para generalizar um modelo preditivo aprimorado que visa aperfeiçoar a classificação de documentos. Estamos apresentando duas propostas para combinar nossas múltiplas visões. Cada estratégia possui algumas variações que proporcionam mais flexibilidade. Avaliamos nossos métodos através da tarefa de classificação de textos sobre duas perspectivas diferentes. Inicialmente, comparamos nossa proposta contra métodos que usam uma única visão dos dados e posteriormente, confrontamos contra técnicas de estado-da-arte que  também utilizam múltiplas visões. Executamos os experimentos com quatro classificadores em seis bases de textos diferentes. Nossas propostas superaram as técnicas concorrentes em quase todos os experimentos mostrando sua capacidade de aprender com múltiplas visões de textos.



  • Mostrar Abstract
  • Analisar a informação através de múltiplas perspectivas pode colaborar no entendimento dos dados e na extração de conhecimento, permitindo a exploração de um intervalo maior de características, principalmente em se tratando de textos. Para fazer uma análise significativa de todos os aspectos de um texto, é fundamental observá-lo através de múltiplas perspectivas permitindo assim uma investigação mais objetiva. Neste trabalho, estamos propondo uma técnica capaz de gerar múltiplas visões de textos para aprender suas características e incorporar seu conhecimento em uma única representação vetorial que seja apta para generalizar um modelo preditivo aprimorado que visa aperfeiçoar a classificação de documentos. Estamos apresentando duas propostas para combinar nossas múltiplas visões. Cada estratégia possui algumas variações que proporcionam mais flexibilidade. Avaliamos nossos métodos através da tarefa de classificação de textos sobre duas perspectivas diferentes. Inicialmente, comparamos nossa proposta contra métodos que usam uma única visão dos dados e posteriormente, confrontamos contra técnicas de estado-da-arte que  também utilizam múltiplas visões. Executamos os experimentos com quatro classificadores em seis bases de textos diferentes. Nossas propostas superaram as técnicas concorrentes em quase todos os experimentos mostrando sua capacidade de aprender com múltiplas visões de textos.


2
  • RAFAEL JEFERSON PEZZUTO DAMACENO
  • Métodos computacionais para identificação e análise de grafos de genealogia acadêmica

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 10/08/2020

  • Mostrar Resumo
  • O impacto que acadêmicos exercem sobre a ciência frequentemente tem sido analisado sob a ótica da produção de publicações científicas. Poucos são os estudos que abordam a quantificação/qualificação da formação de recursos humanos como parte integrante da avaliação do desempenho dos acadêmicos, isto é, que consideram a produção de novos cientistas por meio das orientações acadêmicas. Neste sentido, áreas do conhecimento têm realizado esforços para a criação de bases de dados de acadêmicos e seus relacionamentos de orientação, utilizando a genealogia acadêmica para documentar e organizar essas informações por meio de grafos. No entanto, as bases de genealogia acadêmica existentes apresentam problemas como redundância, ausência e imprecisão de informações. Ainda, poucos empreendimentos científicos foram realizados para estudar de modo global e evolutivo a influência acadêmica entre acadêmicos e entre os campos do conhecimento.
    Neste trabalho são desenvolvidos e aplicados métodos computacionais para a identificação e análise de grafos de genealogia acadêmica obtidos a partir de fontes de informação que contém dados de formação e orientação no contexto da pós-graduação. São desenvolvidas estratégias para identificar grafos de genealogia acadêmica por meio de técnicas de desambiguação de vértices e arestas. E os grafos obtidos segundo distintas visões, tais como o crescimento das estruturas hierárquicas, as relações de influência entre parentes acadêmicos e a carreira segundo os papéis exercidos pelos acadêmicos.
    No processo de identificação de grafos de genealogia acadêmica, 6,3 milhões de currículos da Plataforma Lattes foram prospectados originando um grafo com 1,2 milhão de vértices e 1,4 milhão de arestas que representam os mestres e doutores que atuam ou atuaram na ciência brasileira. As técnicas de desambiguação foram capazes de reduzir a quantidade de ruído deste grafo. As análises permitiram evidenciar padrões no contexto do grafo como um todo bem como nos subgrafos que representam as grandes áreas de orientação e as linhagens acadêmicas das áreas de Ciência da Computação e Ciência da Informação. Foram identificados quais atores tiveram um papel fundamental no contexto brasileiro assim como foram gerados insumos para a elaboração de indicadores de formação acadêmica. Dentre as principais contribuições científicas deste trabalho podem ser destacadas: (i) a documentação e análise da influência acadêmica existente entre acadêmicos e entre campos do conhecimento, (ii) um método de identificação de grafos de genealogia acadêmica que pode ser replicado para outras bases de dados e (iii) um modelo populacional de crescimento capaz de rastrear a carreira acadêmica dos cientistas ao longo dos processos de formação e orientação.
    Finalmente, a principal contribuição tecnológica deste doutorado é a concepção e disponibilização do grafo de genealogia acadêmica do Brasil na plataforma denominada Acácia (http://plataforma-acacia.org).


  • Mostrar Abstract
  • O impacto que acadêmicos exercem sobre a ciência frequentemente tem sido analisado sob a ótica da produção de publicações científicas. Poucos são os estudos que abordam a quantificação/qualificação da formação de recursos humanos como parte integrante da avaliação do desempenho dos acadêmicos, isto é, que consideram a produção de novos cientistas por meio das orientações acadêmicas. Neste sentido, áreas do conhecimento têm realizado esforços para a criação de bases de dados de acadêmicos e seus relacionamentos de orientação, utilizando a genealogia acadêmica para documentar e organizar essas informações por meio de grafos. No entanto, as bases de genealogia acadêmica existentes apresentam problemas como redundância, ausência e imprecisão de informações. Ainda, poucos empreendimentos científicos foram realizados para estudar de modo global e evolutivo a influência acadêmica entre acadêmicos e entre os campos do conhecimento.
    Neste trabalho são desenvolvidos e aplicados métodos computacionais para a identificação e análise de grafos de genealogia acadêmica obtidos a partir de fontes de informação que contém dados de formação e orientação no contexto da pós-graduação. São desenvolvidas estratégias para identificar grafos de genealogia acadêmica por meio de técnicas de desambiguação de vértices e arestas. E os grafos obtidos segundo distintas visões, tais como o crescimento das estruturas hierárquicas, as relações de influência entre parentes acadêmicos e a carreira segundo os papéis exercidos pelos acadêmicos.
    No processo de identificação de grafos de genealogia acadêmica, 6,3 milhões de currículos da Plataforma Lattes foram prospectados originando um grafo com 1,2 milhão de vértices e 1,4 milhão de arestas que representam os mestres e doutores que atuam ou atuaram na ciência brasileira. As técnicas de desambiguação foram capazes de reduzir a quantidade de ruído deste grafo. As análises permitiram evidenciar padrões no contexto do grafo como um todo bem como nos subgrafos que representam as grandes áreas de orientação e as linhagens acadêmicas das áreas de Ciência da Computação e Ciência da Informação. Foram identificados quais atores tiveram um papel fundamental no contexto brasileiro assim como foram gerados insumos para a elaboração de indicadores de formação acadêmica. Dentre as principais contribuições científicas deste trabalho podem ser destacadas: (i) a documentação e análise da influência acadêmica existente entre acadêmicos e entre campos do conhecimento, (ii) um método de identificação de grafos de genealogia acadêmica que pode ser replicado para outras bases de dados e (iii) um modelo populacional de crescimento capaz de rastrear a carreira acadêmica dos cientistas ao longo dos processos de formação e orientação.
    Finalmente, a principal contribuição tecnológica deste doutorado é a concepção e disponibilização do grafo de genealogia acadêmica do Brasil na plataforma denominada Acácia (http://plataforma-acacia.org).

3
  • SAULO RAMOS DE CARVALHO PEREIRA
  • Sketch-Based Modeling From Single-view Drawings and Applications

  • Orientador : JOAO PAULO GOIS
  • Data: 20/10/2020

  • Mostrar Resumo
  • Para permitir que amadores ou iniciantes criem modelos rapidamente a partir de um conjunto de desenhos 2D, a reconstrução 3D ganhou atenção nos últimos anos. Entretanto, ao lidar com desenhos, é necessário tratar problemas importantes, como ambiguidade e dificuldade em inferir partes ocultas. Isso é especialmente válido ao descrever características de espécies vegetais e animais, exploradas por botânicos e zoólogos, nas quais, as abordagens precisam inferir ou descartar partes oclusas. Esta tese tem como objetivo reconstruir objetos 3D a partir de simples desenhos 2D em única vista, assumindo que uma grande classe de objetos apresenta simetria estrutural ou seja composta por múltiplos objetos desenhados como estruturas sobrepostas.

    Neste trabalho, apresentamos dois frameworks, uma abordagem automática que leva ao estudo e desenvolvimento de um método robusto para a geração de modelos 3D usando Funções de Base Radial a partir de dados Hermitianos, permitindo interpolar os contornos do desenho 2D com as normais 3D estimadas. Apesar dos resultados promissores, o uso de esqueletos em trabalhos anteriores descarta os detalhes presentes nos desenhos, criando cilindros generalizados em torno do eixo medial extraído das peças desenhadas. Além disso, como parte relevante do estudo, está o desenvolvimento de novas estratégias para a segmentação dos desenhos, permitindo tratar diferentes partes com maior flexibilidade.

    A seguir, apresentamos um framework interativo para interface baseada em sketches para modelar objetos 3D com múltiplos contornos e estruturas sobrepostas. Inspirado por estratégias tradicionais de ilustração e desenhos científicos, nossa interface de desenho permite ao usuário inferir simetrias perceptíveis e partes obstruídas do modelo antes de sua modelagem 3D automática. Propomos um conjunto de efeitos visuais 2D para aprimorar a percepção visual dos usuários ao esboçar vários objetos sobrepostos em uma única vista. Como resultado, demonstramos exemplos com desenhos que variam de simples sobreposição de linha a ilustrações de torções de fitas, além de sistemática biológica para apresentar as capacidades de nosso sistema.


  • Mostrar Abstract
  • Para permitir que amadores ou iniciantes criem modelos rapidamente a partir de um conjunto de desenhos 2D, a reconstrução 3D ganhou atenção nos últimos anos. Entretanto, ao lidar com desenhos, é necessário tratar problemas importantes, como ambiguidade e dificuldade em inferir partes ocultas. Isso é especialmente válido ao descrever características de espécies vegetais e animais, exploradas por botânicos e zoólogos, nas quais, as abordagens precisam inferir ou descartar partes oclusas. Esta tese tem como objetivo reconstruir objetos 3D a partir de simples desenhos 2D em única vista, assumindo que uma grande classe de objetos apresenta simetria estrutural ou seja composta por múltiplos objetos desenhados como estruturas sobrepostas.

    Neste trabalho, apresentamos dois frameworks, uma abordagem automática que leva ao estudo e desenvolvimento de um método robusto para a geração de modelos 3D usando Funções de Base Radial a partir de dados Hermitianos, permitindo interpolar os contornos do desenho 2D com as normais 3D estimadas. Apesar dos resultados promissores, o uso de esqueletos em trabalhos anteriores descarta os detalhes presentes nos desenhos, criando cilindros generalizados em torno do eixo medial extraído das peças desenhadas. Além disso, como parte relevante do estudo, está o desenvolvimento de novas estratégias para a segmentação dos desenhos, permitindo tratar diferentes partes com maior flexibilidade.

    A seguir, apresentamos um framework interativo para interface baseada em sketches para modelar objetos 3D com múltiplos contornos e estruturas sobrepostas. Inspirado por estratégias tradicionais de ilustração e desenhos científicos, nossa interface de desenho permite ao usuário inferir simetrias perceptíveis e partes obstruídas do modelo antes de sua modelagem 3D automática. Propomos um conjunto de efeitos visuais 2D para aprimorar a percepção visual dos usuários ao esboçar vários objetos sobrepostos em uma única vista. Como resultado, demonstramos exemplos com desenhos que variam de simples sobreposição de linha a ilustrações de torções de fitas, além de sistemática biológica para apresentar as capacidades de nosso sistema.

4
  • RICARDO BORGES DOS SANTOS
  • Tokens Não Fungíveis e Smart Contracts aplicados a Certificação de Terceira Pessoa de Alimentos a Base de Receitas  

  • Data: 26/11/2020

  • Mostrar Resumo
  • Esta pesquisa investiga o uso de tokens de blockchain e contratos inteligentes em aplicações de cadeia de suprimentos distribuída. Uma visão abrangente da tecnologia blockchain, contratos inteligentes e design e mecanismos de token é apresentada. Um caso de uso detalhado no campo da rastreabilidade de alimentos é desenvolvido. É descrito o uso de contratos inteligentes e tokens de blockchain para implementar um esquema de certificação de ingrediente confiável para o consumidor, começando na colheita para agro-alimentos, incluindo produtos alimentícios misturados, ou seja, baseados em receita. O mecanismo proposto permite que ingredientes com  qualquer propriedade desejada, incluindo algum valor social ou ambiental percebido pelo cliente, sejam certificados por qualquer autoridade de certificação, no momento da colheita ou extração, usando um token de contrato inteligente. O mecanismo envolve a transferência de tokens contendo o identificador de recursos unificados (URI) da Internet publicado no site da autoridade. O URI é transferido do fazendeiro ao longo da cadeia de abastecimento até o consumidor final em cada passagem de custódia do ingrediente usando o Critical Tracking Event(CTE) - Key Data Element(KDE). Isso permite que o consumidor final inspecione facilmente e tenha certeza da origem do ingrediente por meio de um aplicativo móvel. Uma implementação de código bem-sucedida para o mecanismo foi implantada como uma prova de conceito, testada e está sendo executada na cadeia de blocos ativa Ethereum como o token IGR (IGRtoken.eth). Concluímos que a arquitetura proposta permite total visibilidade da cadeia de suprimentos aos consumidores finais, sem efeitos prejudiciais ao proprietário da receita. Além disso, os incentivos econômicos inerentes apontam para um forte potencial de uso industrial do mecanismo. A principal contribuição desta pesquisa é a possibilidade de assegurar ao cliente a origem de qualquer instância ou lote de ingrediente de uma receita, sem prejudicar o direito legítimo do processador de evitar a divulgação de suas receitas e fornecedores.


  • Mostrar Abstract
  • Esta pesquisa investiga o uso de tokens de blockchain e contratos inteligentes em aplicações de cadeia de suprimentos distribuída. Uma visão abrangente da tecnologia blockchain, contratos inteligentes e design e mecanismos de token é apresentada. Um caso de uso detalhado no campo da rastreabilidade de alimentos é desenvolvido. É descrito o uso de contratos inteligentes e tokens de blockchain para implementar um esquema de certificação de ingrediente confiável para o consumidor, começando na colheita para agro-alimentos, incluindo produtos alimentícios misturados, ou seja, baseados em receita. O mecanismo proposto permite que ingredientes com  qualquer propriedade desejada, incluindo algum valor social ou ambiental percebido pelo cliente, sejam certificados por qualquer autoridade de certificação, no momento da colheita ou extração, usando um token de contrato inteligente. O mecanismo envolve a transferência de tokens contendo o identificador de recursos unificados (URI) da Internet publicado no site da autoridade. O URI é transferido do fazendeiro ao longo da cadeia de abastecimento até o consumidor final em cada passagem de custódia do ingrediente usando o Critical Tracking Event(CTE) - Key Data Element(KDE). Isso permite que o consumidor final inspecione facilmente e tenha certeza da origem do ingrediente por meio de um aplicativo móvel. Uma implementação de código bem-sucedida para o mecanismo foi implantada como uma prova de conceito, testada e está sendo executada na cadeia de blocos ativa Ethereum como o token IGR (IGRtoken.eth). Concluímos que a arquitetura proposta permite total visibilidade da cadeia de suprimentos aos consumidores finais, sem efeitos prejudiciais ao proprietário da receita. Além disso, os incentivos econômicos inerentes apontam para um forte potencial de uso industrial do mecanismo. A principal contribuição desta pesquisa é a possibilidade de assegurar ao cliente a origem de qualquer instância ou lote de ingrediente de uma receita, sem prejudicar o direito legítimo do processador de evitar a divulgação de suas receitas e fornecedores.

5
  • ALEXANDRE MIGUEL DE CARVALHO
  • DTO-SMOTE: um novo método de oversampling para o pré-processamento de dados desbalanceados

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 07/12/2020

  • Mostrar Resumo
  • Não informado

  • Mostrar Abstract
  • Não informado
6
  • CARLOS FERNANDO MONTOYA CUBAS
  • Agrupamento de instâncias em classes de equivalência para lidar com o problema da dimensionalidade em inferência de redes gênicas

  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 07/12/2020

  • Mostrar Resumo
  • A inferência de redes de interação gênica a partir de perfis de expressão é um dos problemas importantes pesquisados em biologia sistêmica, sendo considerado um problema em aberto. Diversas técnicas matemáticas, estatísticas e computacionais têm sido desenvolvidas para modelar, inferir e simular mecanismos de regulação gênica, sendo o problema de inferência o foco desta proposta. Tal proposta tem por objetivo continuar as pesquisas realizadas no mestrado, as quais envolveram o estudo de métodos de inferência de redes gênicas baseados em seleção de características (seleção do melhor conjunto de genes preditores do comportamento de um dado gene alvo em termos de suas expressões temporais de mRNA), propondo alternativas para aumentar o poder de estimação estatística em situações típicas nas quais o conjunto de amostras com perfis de expressão gênica é bem limitado e possuem elevada dimensionalidade (número de genes). Mais concretamente, no mestrado foram propostos métodos para aliviar o problema da dimensionalidade na inferência de redes Booleanas, através de partições no reticulado Booleano induzidas por combinações lineares dos valores dos genes preditores (instâncias dos preditores). Cada valor de combinação linear determina uma classe de equivalência entre as instâncias dos genes preditores. Neste trabalho de doutorado, o problema de agrupamento de instâncias foi reformulado como um problema de busca no reticulado de partições, além de formular estratégias de busca nesse reticulado com base em informações a priori (por exemplo: que uma rede gênica tende a ser composta majoritariamente por funções lineares e de canalização)  para examinar um subespaço de partições potencialmente relevantes sem abrir mão da eficiência computacional. Resultados preliminares indicam que os métodos desenvolvidos, especialmente o método que busca por funções de canalização, obtêm redes competitivas tanto do ponto de vista topológico, como do ponto de vista da dinâmica da expressão gênica gerada pelas redes inferidas. A principal vantagem desses métodos é a superior capacidade de generalização para gerar o próximo estado do sistema com base em estados iniciais sorteados e que não estejam no conjunto de amostras de treinamento. Além disso, desenvolvemos um método de transferência de aprendizado supervisionado obtido da inferência de redes geradas aleatoriamente (sintéticas) que busca estimar a dimensão correta dos conjuntos de genes preditores para os respectivos genes alvos, o qual confere uma vantagem a todos os métodos de inferência de redes gênicas considerados, incluindo o método original sem agrupamento de instâncias.


  • Mostrar Abstract
  • A inferência de redes de interação gênica a partir de perfis de expressão é um dos problemas importantes pesquisados em biologia sistêmica, sendo considerado um problema em aberto. Diversas técnicas matemáticas, estatísticas e computacionais têm sido desenvolvidas para modelar, inferir e simular mecanismos de regulação gênica, sendo o problema de inferência o foco desta proposta. Tal proposta tem por objetivo continuar as pesquisas realizadas no mestrado, as quais envolveram o estudo de métodos de inferência de redes gênicas baseados em seleção de características (seleção do melhor conjunto de genes preditores do comportamento de um dado gene alvo em termos de suas expressões temporais de mRNA), propondo alternativas para aumentar o poder de estimação estatística em situações típicas nas quais o conjunto de amostras com perfis de expressão gênica é bem limitado e possuem elevada dimensionalidade (número de genes). Mais concretamente, no mestrado foram propostos métodos para aliviar o problema da dimensionalidade na inferência de redes Booleanas, através de partições no reticulado Booleano induzidas por combinações lineares dos valores dos genes preditores (instâncias dos preditores). Cada valor de combinação linear determina uma classe de equivalência entre as instâncias dos genes preditores. Neste trabalho de doutorado, o problema de agrupamento de instâncias foi reformulado como um problema de busca no reticulado de partições, além de formular estratégias de busca nesse reticulado com base em informações a priori (por exemplo: que uma rede gênica tende a ser composta majoritariamente por funções lineares e de canalização)  para examinar um subespaço de partições potencialmente relevantes sem abrir mão da eficiência computacional. Resultados preliminares indicam que os métodos desenvolvidos, especialmente o método que busca por funções de canalização, obtêm redes competitivas tanto do ponto de vista topológico, como do ponto de vista da dinâmica da expressão gênica gerada pelas redes inferidas. A principal vantagem desses métodos é a superior capacidade de generalização para gerar o próximo estado do sistema com base em estados iniciais sorteados e que não estejam no conjunto de amostras de treinamento. Além disso, desenvolvemos um método de transferência de aprendizado supervisionado obtido da inferência de redes geradas aleatoriamente (sintéticas) que busca estimar a dimensão correta dos conjuntos de genes preditores para os respectivos genes alvos, o qual confere uma vantagem a todos os métodos de inferência de redes gênicas considerados, incluindo o método original sem agrupamento de instâncias.

2019
Dissertações
1
  • EDSON ELIZEU DA SILVA
  • Circunavegação Multirrobótica Reativa e Descentralizada

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 24/01/2019

  • Mostrar Resumo
  • Este trabalho é um estudo acerca da circunavegação multirrobótica, mais especificamente, sobre o movimento circular coletivo de robôs móveis n ̃ao-holomônicos ao redor de um alvo estático ou dinâmico. Essa técnica é geralmente aplicada em abordagens de vigilância seguida de cerco e escolta multirrobótica de alvos em potencial. Os objetivos principais desse trabalho são desenvolver e implementar algoritmos que executem a circunavegação reativa e descentralizada para o problema do movimento circular coletivo multirrobótico e demonstrar a possibilidade de utilizar esses algoritmos na circunavegação multirrobótica através da implementação em plataforma de simulação.Este trabalho foi desenvolvido no domínio da simulação computacional, mais especificamente, em plataformas de simulação NetLogo (multiagente) e ROS-Gazebo (multirrobótica) cujas características são também apresentadas e comparadas com outras plataformas existentes. O material da pesquisa realizada em plataformas de simulação e em circunavegação foi utilizado como referência para publicação de dois artigos. Em análise realizada nos resultados da simulação multirrobótica observou-se que a circunavegação é etapa posterior à busca do alvo e somente ocorre quando esta for efetiva. Então, neste trabalho também foi incluída a proposta de uma possível implementação com objetivo de para facilitar a busca pelo alvo, garantindo que ele seja encontrado e reduzindo o tempo necessário para encontrá-lo.


  • Mostrar Abstract
  • Este trabalho é um estudo acerca da circunavegação multirrobótica, mais especificamente, sobre o movimento circular coletivo de robôs móveis n ̃ao-holomônicos ao redor de um alvo estático ou dinâmico. Essa técnica é geralmente aplicada em abordagens de vigilância seguida de cerco e escolta multirrobótica de alvos em potencial. Os objetivos principais desse trabalho são desenvolver e implementar algoritmos que executem a circunavegação reativa e descentralizada para o problema do movimento circular coletivo multirrobótico e demonstrar a possibilidade de utilizar esses algoritmos na circunavegação multirrobótica através da implementação em plataforma de simulação.Este trabalho foi desenvolvido no domínio da simulação computacional, mais especificamente, em plataformas de simulação NetLogo (multiagente) e ROS-Gazebo (multirrobótica) cujas características são também apresentadas e comparadas com outras plataformas existentes. O material da pesquisa realizada em plataformas de simulação e em circunavegação foi utilizado como referência para publicação de dois artigos. Em análise realizada nos resultados da simulação multirrobótica observou-se que a circunavegação é etapa posterior à busca do alvo e somente ocorre quando esta for efetiva. Então, neste trabalho também foi incluída a proposta de uma possível implementação com objetivo de para facilitar a busca pelo alvo, garantindo que ele seja encontrado e reduzindo o tempo necessário para encontrá-lo.

2
  • GUSTAVO TORRES CUSTODIO
  • Sumarização de Artigos Científicos para Geração de Highlights de Pesquisa

  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 06/02/2019

  • Mostrar Resumo
  • Veículos de publicação de artigos científicos fornecem um grande volume de informação sobre assuntos específicos. Para facilitar a busca do leitor, é comum que esses repositórios forneçam gratuitamente uma versão reduzida dos artigos. Um exemplo disso são os highlights de pesquisa, frases pontuais que contém os pontos principais de um artigo. Essas frases normalmente são fornecidas manualmente pelos autores do artigo, por isso temos como objetivo gerar automaticamente esses highlights.

    Interpretamos a tarefa de escolher highlights de um artigo como um trabalho de sumarização automática de textos. O objetivo da sumarização automática é reduzir um texto para uma forma curta enquanto os pontos principais são mantidos.

    Este trabalho propõe uma abordagem para representar frases de um texto em um espaço cartesiano de características e investiga técnicas para identificar, neste espaço, as frases mais importantes. Foram consideradas técnicas de agrupamento, otimização baseada em população, classificação de uma classe e multiclasse.

     


  • Mostrar Abstract
  • Veículos de publicação de artigos científicos fornecem um grande volume de informação sobre assuntos específicos. Para facilitar a busca do leitor, é comum que esses repositórios forneçam gratuitamente uma versão reduzida dos artigos. Um exemplo disso são os highlights de pesquisa, frases pontuais que contém os pontos principais de um artigo. Essas frases normalmente são fornecidas manualmente pelos autores do artigo, por isso temos como objetivo gerar automaticamente esses highlights.

    Interpretamos a tarefa de escolher highlights de um artigo como um trabalho de sumarização automática de textos. O objetivo da sumarização automática é reduzir um texto para uma forma curta enquanto os pontos principais são mantidos.

    Este trabalho propõe uma abordagem para representar frases de um texto em um espaço cartesiano de características e investiga técnicas para identificar, neste espaço, as frases mais importantes. Foram consideradas técnicas de agrupamento, otimização baseada em população, classificação de uma classe e multiclasse.

     

3
  • FERNANDO HENRIQUE SANCHES
  • Analise de Algoritmos de Decomposição para o Problema da Distância de Edição em Árvores

  • Orientador : DANIEL MORGATO MARTIN
  • Data: 08/02/2019

  • Mostrar Resumo
  • O problema da Distancia de Ediç ã o de Á rvores é uma generalizaç ã o da Distâ ncia de Levenshtein (Distancia de Ediç ã o de Cadeias). Nele, temos duas á rvores rotuladas A e B, e queremos saber o custo mí nimo de uma sequencia de operaç õ es que transforma A em B atraves da inserç ã o, substituiç ã o e rerrotulaã o de nó s. Neste trabalho, analizamos alguns algoritmos da famí lia de algoritmos de decomposiç ã o: Zhang-Shasha, Klein e Demaine. Revisitamos as provas de alguns de seus lemas, visando trazer uma versao mais clara quanto possí vel. També m apresentamos uma implementaç ã o do algoritmo de Klein operando sobre cadeias de Euler, como descrito em seu trabalho original.


  • Mostrar Abstract
  • O problema da Distancia de Ediç ã o de Á rvores é uma generalizaç ã o da Distâ ncia de Levenshtein (Distancia de Ediç ã o de Cadeias). Nele, temos duas á rvores rotuladas A e B, e queremos saber o custo mí nimo de uma sequencia de operaç õ es que transforma A em B atraves da inserç ã o, substituiç ã o e rerrotulaã o de nó s. Neste trabalho, analizamos alguns algoritmos da famí lia de algoritmos de decomposiç ã o: Zhang-Shasha, Klein e Demaine. Revisitamos as provas de alguns de seus lemas, visando trazer uma versao mais clara quanto possí vel. També m apresentamos uma implementaç ã o do algoritmo de Klein operando sobre cadeias de Euler, como descrito em seu trabalho original.

4
  • EDUARDO PINHATA
  • ALGORITMOS PARA O PROBLEMA DE ENTREGA DE PACOTES AUXILIADA POR DRONE

  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 11/02/2019

  • Mostrar Resumo
  • Uma modalidade de entrega que está sendo considerada por grandes empresas como Amazon e DHL é a entrega de pacotes utilizando um caminhã o com um drone como seu assistente. Diversos autores estã o propondo variaç õ es de problemas de otimizaç ã o que modelam esse tipo de entrega, e os resolvendo com heurí sticas e mé todos exatos.

    Este trabalho propõ e dois algoritmos para encontrar soluç õ es para instâ ncias de uma dessas variaç õ es de problemas, chamada de Flying Sidekick Travelling Salesman Problem (FSTSP). O algoritmo de Triplas Vantajosas usa um modelo de programaç ã o quadrá ica para encontrar possí veis combinaç õ es de sub-rotas com drones, para resolver o problema. Desenvolvemos també m uma heurí stica, chamada de Heurí stica de Expansã o, que utiliza de algumas propriedades do problema para tentar melhorar soluç õ es de instâ ncias do FSTSP.

    Pelas aná lises realizadas, o algoritmo de Triplas Vantajosas pode obter, em mé dia, soluç õ es melhores que o algoritmo do autor que propô s o FSTSP. A Heurí stica de Expansã o obteve resultados positivos com uma baixa complexidade computacional.


  • Mostrar Abstract
  • Uma modalidade de entrega que está sendo considerada por grandes empresas como Amazon e DHL é a entrega de pacotes utilizando um caminhã o com um drone como seu assistente. Diversos autores estã o propondo variaç õ es de problemas de otimizaç ã o que modelam esse tipo de entrega, e os resolvendo com heurí sticas e mé todos exatos.

    Este trabalho propõ e dois algoritmos para encontrar soluç õ es para instâ ncias de uma dessas variaç õ es de problemas, chamada de Flying Sidekick Travelling Salesman Problem (FSTSP). O algoritmo de Triplas Vantajosas usa um modelo de programaç ã o quadrá ica para encontrar possí veis combinaç õ es de sub-rotas com drones, para resolver o problema. Desenvolvemos també m uma heurí stica, chamada de Heurí stica de Expansã o, que utiliza de algumas propriedades do problema para tentar melhorar soluç õ es de instâ ncias do FSTSP.

    Pelas aná lises realizadas, o algoritmo de Triplas Vantajosas pode obter, em mé dia, soluç õ es melhores que o algoritmo do autor que propô s o FSTSP. A Heurí stica de Expansã o obteve resultados positivos com uma baixa complexidade computacional.

5
  • THIAGO DONIZETTI DOS SANTOS
  • Um Modelo para Detecção de Ansiedade Computacional em Idosos Interagindo com a Web

  • Data: 13/02/2019

  • Mostrar Resumo
  • Com o aumento do número de diferentes tipos de tecnologias utilizadas no cotidiano, seria esperado que o uso de computadores fosse algo confortável e natural para todos. No entanto, é comum que algumas pessoas ainda se sintam apreensivas quando precisam usar computadores ou novas tecnologias. Essas pessoas enfrentam múltiplos níveis de ansiedade e, para níveis elevados, demonstram o que é chamado de Ansiedade Computacional (do inglês Computer Anxiety). Pessoas com Ansiedade Computacional enfrentam problemas no uso de tecnologias em casa, no ambiente de trabalho ou para fins de estudo. Isto pode criar múltiplas barreiras para essas pessoas, privando-as do acesso à tecnologia. Neste contexto, o presente projeto de mestrado investigou as principais características relacionadas a como pessoas com Ansiedade Computacional interagem com computadores relacionando-as com dados de interação (ou logs de interação). Isso foi feito através de um estudo de campo realizado com 31 idosos envolvendo captura de dados de interação, dados de rastreamento ocular, escalas para medir níveis de depressão, ansiedade, ansiedade computacional, entre outras. Os resultados obtidos foram utilizados no desenvolvimento de um modelo de detecção de ansiedade computacional capaz de identificar diferentes níveis de ansiedade (i.e., sem ansiedade, baixo nível de ansiedade computacional e alto nível de ansiedade computacional) com 83,87% de acurácia. A partir dos resultados apresentados, é possível identificar automaticamente diferentes níveis de ansiedade computacional de idosos interagindo com a Web através da análise de logs de interação. Então, possibilitando personalização da interface de usuário para pessoas com Ansiedade Computacional, por exemplo, simplificando-a.


  • Mostrar Abstract
  • Com o aumento do número de diferentes tipos de tecnologias utilizadas no cotidiano, seria esperado que o uso de computadores fosse algo confortável e natural para todos. No entanto, é comum que algumas pessoas ainda se sintam apreensivas quando precisam usar computadores ou novas tecnologias. Essas pessoas enfrentam múltiplos níveis de ansiedade e, para níveis elevados, demonstram o que é chamado de Ansiedade Computacional (do inglês Computer Anxiety). Pessoas com Ansiedade Computacional enfrentam problemas no uso de tecnologias em casa, no ambiente de trabalho ou para fins de estudo. Isto pode criar múltiplas barreiras para essas pessoas, privando-as do acesso à tecnologia. Neste contexto, o presente projeto de mestrado investigou as principais características relacionadas a como pessoas com Ansiedade Computacional interagem com computadores relacionando-as com dados de interação (ou logs de interação). Isso foi feito através de um estudo de campo realizado com 31 idosos envolvendo captura de dados de interação, dados de rastreamento ocular, escalas para medir níveis de depressão, ansiedade, ansiedade computacional, entre outras. Os resultados obtidos foram utilizados no desenvolvimento de um modelo de detecção de ansiedade computacional capaz de identificar diferentes níveis de ansiedade (i.e., sem ansiedade, baixo nível de ansiedade computacional e alto nível de ansiedade computacional) com 83,87% de acurácia. A partir dos resultados apresentados, é possível identificar automaticamente diferentes níveis de ansiedade computacional de idosos interagindo com a Web através da análise de logs de interação. Então, possibilitando personalização da interface de usuário para pessoas com Ansiedade Computacional, por exemplo, simplificando-a.

6
  • FERNANDA MIYUKI YAMADA
  • A heuristic for solving tangram puzzles through raster representation and mathematical morphology

  • Orientador : HARLEN COSTA BATAGELO
  • Data: 03/06/2019

  • Mostrar Resumo
  • O tangram é um quebra-cabeça de dissecação composto por peças poligonais que podem ser combinadas para formar diferentes padrões.  Além de ser um quebra-cabeça recreativo, o tangram se relaciona a uma classe mais geral de problemas combinatórios NP-difíceis, como o problema do corte bidimensional.  A maioria dos métodos atuais aplicados à solução automática do tangram é incapaz de representar padrões que não são descritos por um único contorno fechado sem furos.  Além disso, a maioria dos métodos apresenta limitações nas transformações aplicadas nas peças, restringindo os ângulos de rotação e não implementando a transformação de reflexão.  Neste estudo, atacamos essas limitações através da introdução de um método heurístico que usa uma representação raster do quebra-cabeça. De modo a adaptar as técnicas geométricas que são aplicadas na prevenção de sobreposições e na redução do espaço entre as peças, utilizamos representações e operadores morfológicos tradicionalmente aplicados no domínio discreto tais como o operador de dilatação, a transformada de distância e a esqueletonização morfológica.  Investigamos os efeitos da representação raster no processo de montagem do quebra-cabeça e verificamos a eficácia do método proposto na resolução de diferentes quebra-cabeças de tangram.


  • Mostrar Abstract
  • O tangram é um quebra-cabeça de dissecação composto por peças poligonais que podem ser combinadas para formar diferentes padrões.  Além de ser um quebra-cabeça recreativo, o tangram se relaciona a uma classe mais geral de problemas combinatórios NP-difíceis, como o problema do corte bidimensional.  A maioria dos métodos atuais aplicados à solução automática do tangram é incapaz de representar padrões que não são descritos por um único contorno fechado sem furos.  Além disso, a maioria dos métodos apresenta limitações nas transformações aplicadas nas peças, restringindo os ângulos de rotação e não implementando a transformação de reflexão.  Neste estudo, atacamos essas limitações através da introdução de um método heurístico que usa uma representação raster do quebra-cabeça. De modo a adaptar as técnicas geométricas que são aplicadas na prevenção de sobreposições e na redução do espaço entre as peças, utilizamos representações e operadores morfológicos tradicionalmente aplicados no domínio discreto tais como o operador de dilatação, a transformada de distância e a esqueletonização morfológica.  Investigamos os efeitos da representação raster no processo de montagem do quebra-cabeça e verificamos a eficácia do método proposto na resolução de diferentes quebra-cabeças de tangram.

7
  • MARCO YOSHIRO KUBOYAMA DE CAMARGO
  • Classifiers Optimization with Exceptional Model Mining

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 04/06/2019

  • Mostrar Resumo
  • Os algoritmos tradicionais de predição buscam otimizar uma métrica de predição global para identificar uma tendência que descreva o comportamento de um conjunto de dados. Então, essa regra generalizada pode ser utilizada para fornecer estimativas para amostras até então desconhecidas. Este modus operandi pode induzir ao negligenciamento de padrões interessantes que contém informação relevante apenas por não estarem próximos à tendência principal. Essas regiões potencialmente interessantes do espaço são conhecidas como excepcionalidades locais e podem ser identificadas por algoritmos como o Exceptional Model Mining (EMM) na forma de subgrupos. O EMM generaliza a tarefa conhecida como subgroup discovery abrangendo também medidas de qualidade multivariáveis. Suas instancias são definidas pela combinação de um modelo construído sobre atributos alvo pré-selecionados com uma medida de qualidade calculada em função dos modelos. Adicionar explicitamente essa informação em um conjunto de dados na forma de novos atributos forçaria os classificadores a considerar em seus espaços de busca as excepcionalidades locais, auxiliando o processo de construção das fronteiras de decisão e, consequentemente, melhorando o desempenho preditivo. Nossos resultados sugerem que, ao adicionar os subgrupos encontrados com o EMM como novos atributos em um conjunto de dados, foi possível melhorar o desempenho preditivos de algoritmos lineares tradicionais de classificação quando comparados com o mesmo algoritmo, executado com os mesmos parâmetros sobre o mesmo conjunto de dados, mas sem a informação provida pelo EMM. 


  • Mostrar Abstract
  • Os algoritmos tradicionais de predição buscam otimizar uma métrica de predição global para identificar uma tendência que descreva o comportamento de um conjunto de dados. Então, essa regra generalizada pode ser utilizada para fornecer estimativas para amostras até então desconhecidas. Este modus operandi pode induzir ao negligenciamento de padrões interessantes que contém informação relevante apenas por não estarem próximos à tendência principal. Essas regiões potencialmente interessantes do espaço são conhecidas como excepcionalidades locais e podem ser identificadas por algoritmos como o Exceptional Model Mining (EMM) na forma de subgrupos. O EMM generaliza a tarefa conhecida como subgroup discovery abrangendo também medidas de qualidade multivariáveis. Suas instancias são definidas pela combinação de um modelo construído sobre atributos alvo pré-selecionados com uma medida de qualidade calculada em função dos modelos. Adicionar explicitamente essa informação em um conjunto de dados na forma de novos atributos forçaria os classificadores a considerar em seus espaços de busca as excepcionalidades locais, auxiliando o processo de construção das fronteiras de decisão e, consequentemente, melhorando o desempenho preditivo. Nossos resultados sugerem que, ao adicionar os subgrupos encontrados com o EMM como novos atributos em um conjunto de dados, foi possível melhorar o desempenho preditivos de algoritmos lineares tradicionais de classificação quando comparados com o mesmo algoritmo, executado com os mesmos parâmetros sobre o mesmo conjunto de dados, mas sem a informação provida pelo EMM. 

8
  • RODRIGO PENNELLA CARDOSO
  • Um framework para interoperabilidade de instituições heterogêneas de ensino utilizando Blockchain

  • Orientador : DENISE HIDEKO GOYA
  • Data: 04/06/2019

  • Mostrar Resumo
  • O Blockchain é uma tecnologia que tem recebido grande atenção recentemente devido às suas características principais, como a descentralização, a persistência, a auditabilidade com alta proteção contra adulterações, mesmo trabalhando com redes peer-to-peer em nós não confiáveis. Estas peculiaridades a tornam uma importante ferramenta para ser utilizada para a interoperabilidade
    de instituições heterogêneas de ensino. Neste trabalho são apresentadas as características que sustentam o uso do Blockchain nesse contexto e é definido um modelo para a interoperabilidade de instituições heterogêneas de ensino, baseado no Blockchain do Ethereum.


  • Mostrar Abstract
  • O Blockchain é uma tecnologia que tem recebido grande atenção recentemente devido às suas características principais, como a descentralização, a persistência, a auditabilidade com alta proteção contra adulterações, mesmo trabalhando com redes peer-to-peer em nós não confiáveis. Estas peculiaridades a tornam uma importante ferramenta para ser utilizada para a interoperabilidade
    de instituições heterogêneas de ensino. Neste trabalho são apresentadas as características que sustentam o uso do Blockchain nesse contexto e é definido um modelo para a interoperabilidade de instituições heterogêneas de ensino, baseado no Blockchain do Ethereum.

9
  • FÁBIO REZENDE DE SOUZA
  • Semântica Distribucional Aplicada à Avaliação Didática

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 12/06/2019

  • Mostrar Resumo
  • A semântica distribucional é uma teoria derivada da linguística e psicologia, que possui como premissa a hipótese de que se pode derivar o significado de uma palavra pelos diversos contextos em que ela ocorre. Trata-se de uma teoria com um vasto número de aplicações em âmbito computacional: representações baseadas em semântica distribucional são largamente empregadas em tarefas como geração de texto, tradução automática e classificação de documentos. Uma das grandes vantagens deste tipo de representação consiste no fato de que todo o aprendizado da linguagem deriva da apresentação de exemplos de textos da linguagem em questão. Nesta dissertação, são investigadas oportunidades de utilização de representações baseadas em semântica distribucional para o processo de avaliação didática de questões dissertativas em variados domínios de conhecimento, abstraídos como problemas de classificação supervisionada. O principal objetivo deste método consiste em fornecer ferramentos para auxiliar professores nesta tarefa, servindo como um mitigador da subjetividade intrínseca do processo de correção de exercícios produzidos por alunos. São eles: a detecção de estruturas retóricas de artigos de opinião em redações de vestibular e aplicação automática de conceitos em scripts em Java produzidos por alunos em um curso introdutório de programação. No primeiro, foi obtida acurácia máxima de 74,22% entre os diversos experimentos propostos. No segundo, em uma série de 12 experimentos, foi obtida uma média de acurácia de 74, 90% . Além das oportunidades em educação aqui propostas, são também realizadas comparações de diferentes representações distribucionais entre si, e também, a avaliação de sua efetividade em dois domínios distintos: linguagem natural (redações em português), e linguagem formal (scripts de programação).


  • Mostrar Abstract
  • A semântica distribucional é uma teoria derivada da linguística e psicologia, que possui como premissa a hipótese de que se pode derivar o significado de uma palavra pelos diversos contextos em que ela ocorre. Trata-se de uma teoria com um vasto número de aplicações em âmbito computacional: representações baseadas em semântica distribucional são largamente empregadas em tarefas como geração de texto, tradução automática e classificação de documentos. Uma das grandes vantagens deste tipo de representação consiste no fato de que todo o aprendizado da linguagem deriva da apresentação de exemplos de textos da linguagem em questão. Nesta dissertação, são investigadas oportunidades de utilização de representações baseadas em semântica distribucional para o processo de avaliação didática de questões dissertativas em variados domínios de conhecimento, abstraídos como problemas de classificação supervisionada. O principal objetivo deste método consiste em fornecer ferramentos para auxiliar professores nesta tarefa, servindo como um mitigador da subjetividade intrínseca do processo de correção de exercícios produzidos por alunos. São eles: a detecção de estruturas retóricas de artigos de opinião em redações de vestibular e aplicação automática de conceitos em scripts em Java produzidos por alunos em um curso introdutório de programação. No primeiro, foi obtida acurácia máxima de 74,22% entre os diversos experimentos propostos. No segundo, em uma série de 12 experimentos, foi obtida uma média de acurácia de 74, 90% . Além das oportunidades em educação aqui propostas, são também realizadas comparações de diferentes representações distribucionais entre si, e também, a avaliação de sua efetividade em dois domínios distintos: linguagem natural (redações em português), e linguagem formal (scripts de programação).

10
  • EDUARDO DA SILVA CRUZ
  • Avaliação do uso de Métricas Metacognitivas no Processo de Aprendizagem mediado por Ambientes Virtuais

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 12/08/2019

  • Mostrar Resumo
  • Pesquisas têm indicado que o conhecimento sobre a própria conhecimento é essencial para alcançar uma aprendizagem com qualidade. Este conhecimento pode ser realçado com o desenvolvimento de capacidades metacognitivas, por meio de atividades que buscam envolver o aprendiz no monitoramento do próprio conhecimento. No entanto, Ambientes Virtuais de Aprendizagem (AVA) como o Moodle, bastante utilizado por educadores, não possuem nativamente ferramentas que permitam realizar estas atividades, capturar métricas e analisar os resultados.  Este trabalho tem por objetivo  geral investigar o potencial do uso de métricas metacognitivas no processo de ensino-aprendizagem por meio de ambientes virtuais. Para buscar o cumprimento do objetivo geral desenvolveu-se a ferramenta MetaRef, um plug-in para o Moodle, que permite organizar atividades e coletar métricas metacognitivas. A ferramenta permite ainda o acompanhamento dessas métricas por parte do estudante e do professor. Realizou-se um curso com a ferramenta MetaRef e os dados coletados foram analisados e discutidos.


  • Mostrar Abstract
  • Pesquisas têm indicado que o conhecimento sobre a própria conhecimento é essencial para alcançar uma aprendizagem com qualidade. Este conhecimento pode ser realçado com o desenvolvimento de capacidades metacognitivas, por meio de atividades que buscam envolver o aprendiz no monitoramento do próprio conhecimento. No entanto, Ambientes Virtuais de Aprendizagem (AVA) como o Moodle, bastante utilizado por educadores, não possuem nativamente ferramentas que permitam realizar estas atividades, capturar métricas e analisar os resultados.  Este trabalho tem por objetivo  geral investigar o potencial do uso de métricas metacognitivas no processo de ensino-aprendizagem por meio de ambientes virtuais. Para buscar o cumprimento do objetivo geral desenvolveu-se a ferramenta MetaRef, um plug-in para o Moodle, que permite organizar atividades e coletar métricas metacognitivas. A ferramenta permite ainda o acompanhamento dessas métricas por parte do estudante e do professor. Realizou-se um curso com a ferramenta MetaRef e os dados coletados foram analisados e discutidos.

11
  • ROZIVALDO ZACARIAS DE JESUS
  • Caracterização de pesquisadores usando medidas de Multidisciplinaridade: Uma abordagem baseada em mineração de produções acadêmicas

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 13/09/2019

  • Mostrar Resumo
  • A área de cientometria vem a décadas estudando formas de medir e aferir, de forma robusta, a ciência sob diversos aspectos. Em particular, os assuntos mais visitados, detalham a ciência sob a perspectiva qualitativa e quantitativa utilizando informações de fontes bibliométricas. A trans-, inter-, pluri- e multidisciplinaridade em pesquisa são diferentes formas de relação ou interação entre diferentes disciplinas científicas. Atualmente estas formas de interação são desejáveis na academia e motivada pelos diferentes órgãos de ciência e tecnologia assim como de agências de fomento à pesquisa. Nesse contexto, a caracterização de pesquisadores por indicadores cientométricos de multidisciplinaridade (que corresponde ao agrupamento simultâneo de disciplinas sem obrigatoriamente representar uma forte integração), é um primeiro passo para a descoberta de conhecimento sobre a relação de disciplinas a partir de fontes de dados bibliográficas e/ou curriculares incompletas.
    Neste trabalho apresentamos a criação de métodos computacionais para analisar, ao longo do tempo, quão multidisciplinar tem sido o atuar científico de grupos de pesquisadores pesquisa. Formamos também uma rede de multidisciplinaridade onde verificamos as integrações: pesquisador-disciplina, pesquisador-pesquisador e disciplina-disciplina, utilizando a estrutura de grafos heterogêneos e homogêneos. O procedimento computacional considera a abordagem tradicional de descoberta de conhecimento onde são utilizados técnicas de mineração (e.g., séries temporais e reconhecimento de padrões) aplicadas a dados bibliográficos e curriculares.


  • Mostrar Abstract
  • A área de cientometria vem a décadas estudando formas de medir e aferir, de forma robusta, a ciência sob diversos aspectos. Em particular, os assuntos mais visitados, detalham a ciência sob a perspectiva qualitativa e quantitativa utilizando informações de fontes bibliométricas. A trans-, inter-, pluri- e multidisciplinaridade em pesquisa são diferentes formas de relação ou interação entre diferentes disciplinas científicas. Atualmente estas formas de interação são desejáveis na academia e motivada pelos diferentes órgãos de ciência e tecnologia assim como de agências de fomento à pesquisa. Nesse contexto, a caracterização de pesquisadores por indicadores cientométricos de multidisciplinaridade (que corresponde ao agrupamento simultâneo de disciplinas sem obrigatoriamente representar uma forte integração), é um primeiro passo para a descoberta de conhecimento sobre a relação de disciplinas a partir de fontes de dados bibliográficas e/ou curriculares incompletas.
    Neste trabalho apresentamos a criação de métodos computacionais para analisar, ao longo do tempo, quão multidisciplinar tem sido o atuar científico de grupos de pesquisadores pesquisa. Formamos também uma rede de multidisciplinaridade onde verificamos as integrações: pesquisador-disciplina, pesquisador-pesquisador e disciplina-disciplina, utilizando a estrutura de grafos heterogêneos e homogêneos. O procedimento computacional considera a abordagem tradicional de descoberta de conhecimento onde são utilizados técnicas de mineração (e.g., séries temporais e reconhecimento de padrões) aplicadas a dados bibliográficos e curriculares.

12
  • RAFAEL DI CESARE GIANNELLA
  • Avaliação de Algoritmos Fonéticos para Melhoria de Busca em Texto de Mídias Sociais

  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 09/12/2019

  • Mostrar Resumo
  • A recente disseminação de redes sociais mudou radicalmente o uso que as pessoas fazem da Internet. Essas ferramentas permitem que você escreva e divulgue informações de maneira simples e imediata. Textos de mídia social têm várias propriedades que os tornam diferentes dos textos tradicionais, devido à natureza das conversas em redes sociais, postadas em tempo real. Os textos não são estruturados e são apresentados em vários formatos e escritos por pessoas diferentes em muitos idiomas e estilos. Além disso, os erros de digitação e as gírias de bate-papo se tornaram cada vez mais comuns em sites de redes sociais como o Facebook e o Twitter.

    Nesse ambiente dinâmico e veloz, não é raro que muitas mensagens apresentem problemas de digitação. Os textos incorretos muitas vezes não prejudicam a comunicação entre os interlocutores, pois possíveis erros podem ser rapidamente corrigidos posteriormente e os termos incorretos normalmente possuem alguma similaridade fonética que permite superar essas falhas. Apesar de não interferir de forma decisiva nos diálogos, quando se usa dos dados do Twitter para realização de análises de mídias sociais, os termos incorretamente grafados podem reduzir a quantidade de registros obtidos por algoritmos clássicos de busca. Esse cenário tende a diminuir o volume do banco de dados usado para análise e, consequentemente, diminuir o índice de precisão dos estudos realizados.

    Um algoritmo fonético é um algoritmo de busca por similaridade que transforma uma palavra de entrada em um código fonético que indica aproximadamente a maneira como o termo é pronunciado em um idioma particular. Dessa forma, algoritmos fonéticos podem ter papel importante na melhora da busca de palavras em dados não estruturados e ruidosos, como os provenientes de redes sociais.


    Neste trabalho estudamos o impacto da utilização de algoritmos fonéticos
    em operações de busca em bancos de dados textuais não-estruturados e de grande volume, provenientes de mídias sociais. Também propomos métodos de avaliação considerando variações de algoritmos fonéticos e outras categorias de algoritmos por busca de similaridade de texto.


  • Mostrar Abstract
  • A recente disseminação de redes sociais mudou radicalmente o uso que as pessoas fazem da Internet. Essas ferramentas permitem que você escreva e divulgue informações de maneira simples e imediata. Textos de mídia social têm várias propriedades que os tornam diferentes dos textos tradicionais, devido à natureza das conversas em redes sociais, postadas em tempo real. Os textos não são estruturados e são apresentados em vários formatos e escritos por pessoas diferentes em muitos idiomas e estilos. Além disso, os erros de digitação e as gírias de bate-papo se tornaram cada vez mais comuns em sites de redes sociais como o Facebook e o Twitter.

    Nesse ambiente dinâmico e veloz, não é raro que muitas mensagens apresentem problemas de digitação. Os textos incorretos muitas vezes não prejudicam a comunicação entre os interlocutores, pois possíveis erros podem ser rapidamente corrigidos posteriormente e os termos incorretos normalmente possuem alguma similaridade fonética que permite superar essas falhas. Apesar de não interferir de forma decisiva nos diálogos, quando se usa dos dados do Twitter para realização de análises de mídias sociais, os termos incorretamente grafados podem reduzir a quantidade de registros obtidos por algoritmos clássicos de busca. Esse cenário tende a diminuir o volume do banco de dados usado para análise e, consequentemente, diminuir o índice de precisão dos estudos realizados.

    Um algoritmo fonético é um algoritmo de busca por similaridade que transforma uma palavra de entrada em um código fonético que indica aproximadamente a maneira como o termo é pronunciado em um idioma particular. Dessa forma, algoritmos fonéticos podem ter papel importante na melhora da busca de palavras em dados não estruturados e ruidosos, como os provenientes de redes sociais.


    Neste trabalho estudamos o impacto da utilização de algoritmos fonéticos
    em operações de busca em bancos de dados textuais não-estruturados e de grande volume, provenientes de mídias sociais. Também propomos métodos de avaliação considerando variações de algoritmos fonéticos e outras categorias de algoritmos por busca de similaridade de texto.

13
  • GABRIEL PEIXOTO DE CARVALHO
  • A comparative study of sign language recognition methods

  • Orientador : ANDRE LUIZ BRANDAO
  • Data: 13/12/2019

  • Mostrar Resumo
  • Línguas de sinais utilizam de movimentos de mão e braços em combinação com expressões faciais e posturas corporais para transmitir idéias. Esta forma de comunicação é a principal utilizada por pessoas com deficiência auditiva em suas comunicadades, porém, grande parte da sociedade não compreende esse tipo de comunicação. Devido à essa falta de comunicação, pessoas com deficiência auditiva têm dificuldade de alcançar uma educação superior e fazer parte da força de trabalho especializada. No campo da ciência da computação, abordagens anteriores tratam reconhecimento de línguas de sinais como um problema de classificação de imagens ou de classificação de sequências. Entretanto, esses estudos propõe uma solução limitada pra o problema de entender e traduzir línguas de sinais. Para integrar tais sistemas efetivamente na sociedade é necessaŕio que existam abordagem para aquisição dos sinais porque, em um caso de aplicação real, o sistema terá que lidar com diferentes ambientes e condições de iluminação que não estão presentes em imagens processadas usadas na classificação. Neste trabalho, apresentamos um estudo comparativo de aquisição (detecção, rastreio e segmentação) e classificação de imagens de línguas de sinais. Para auxiliar no estudo, criamos uma arquitetura de reconhecimento de línguas de sinais modular e coletamos duas bases de dados: uma contendo vídeos para rastreio de mão e outra contendo 91 configurações da Lingua Brasileira de Sinais (LIBRAS). Além disso, nós comparamos os métodos das diferentes tarefas da arquitetura utilizando mais de 10 outras bases de dados disponíveis gratuitamente. Nossos experimentos mostram que a tarefa de aqusição de imagens de língua de sinais processadas em diferentes ambientes é muito mais complexa do que a tarefa de classificação e dependendo do ambiente no qual o sistema for aplicado, a acquisição pode ser realizada com métodos simples. Este estudo pode contribuir para uma percepção útil do campo e métodos para futuras pesquisas na área. As bases de dados coletadas preenchem uma lacuna no campo e podem ser utilizadas para testes de novos algoritmos. Além disso, a arquitetura proposta acelera a prototipação e testes de novos sistemas.


  • Mostrar Abstract
  • Línguas de sinais utilizam de movimentos de mão e braços em combinação com expressões faciais e posturas corporais para transmitir idéias. Esta forma de comunicação é a principal utilizada por pessoas com deficiência auditiva em suas comunicadades, porém, grande parte da sociedade não compreende esse tipo de comunicação. Devido à essa falta de comunicação, pessoas com deficiência auditiva têm dificuldade de alcançar uma educação superior e fazer parte da força de trabalho especializada. No campo da ciência da computação, abordagens anteriores tratam reconhecimento de línguas de sinais como um problema de classificação de imagens ou de classificação de sequências. Entretanto, esses estudos propõe uma solução limitada pra o problema de entender e traduzir línguas de sinais. Para integrar tais sistemas efetivamente na sociedade é necessaŕio que existam abordagem para aquisição dos sinais porque, em um caso de aplicação real, o sistema terá que lidar com diferentes ambientes e condições de iluminação que não estão presentes em imagens processadas usadas na classificação. Neste trabalho, apresentamos um estudo comparativo de aquisição (detecção, rastreio e segmentação) e classificação de imagens de línguas de sinais. Para auxiliar no estudo, criamos uma arquitetura de reconhecimento de línguas de sinais modular e coletamos duas bases de dados: uma contendo vídeos para rastreio de mão e outra contendo 91 configurações da Lingua Brasileira de Sinais (LIBRAS). Além disso, nós comparamos os métodos das diferentes tarefas da arquitetura utilizando mais de 10 outras bases de dados disponíveis gratuitamente. Nossos experimentos mostram que a tarefa de aqusição de imagens de língua de sinais processadas em diferentes ambientes é muito mais complexa do que a tarefa de classificação e dependendo do ambiente no qual o sistema for aplicado, a acquisição pode ser realizada com métodos simples. Este estudo pode contribuir para uma percepção útil do campo e métodos para futuras pesquisas na área. As bases de dados coletadas preenchem uma lacuna no campo e podem ser utilizadas para testes de novos algoritmos. Além disso, a arquitetura proposta acelera a prototipação e testes de novos sistemas.

14
  • MATHEUS CAMPOS FERNANDES
  • Aprendizado ativo para agrupamento de dados com restrições

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 17/12/2019

  • Mostrar Resumo
  • O interesse em aprendizado semissupervisionado tem crescido devido ao alto custo de
    rotular dados para análise. Paralelamente, o Aprendizado Ativo (AA) visa minimizar
    o custo da construção de bases de dados rotuladas, buscando identificar quais dados
    não rotulados são mais relevantes para o aprendizado, considerando os rótulos que já
    se tem disponíveis. Neste projeto, é analisada a combinação de AA com aprendizado
    semissupervisionado, em especial com Agrupamento de Dados com Restrições (ADR).
    Neste último tipo de aprendizado, ao invés de termos disponíveis rótulos de classe para
    um conjunto de objetos, somos informados se alguns pares de objetos devem estar no
    mesmo grupo ou em grupos diferentes. Em algumas aplicações, a identificação desse tipo
    de restrições envolve um custo reduzido já que consiste em menos informação do que um
    rótulo de classe. Este trabalho propõe diferentes estratégias de AA com o aprendizado
    de Modelos de Mistura de Gaussianas por um Algoritmo Evolutivo de ADR. Foram
    realizadas avaliações empíricas em 14 bases de dados conhecidas para medir os impactos
    de cada estratégia, quando comparadas com algoritmos supervisionados e um algoritmo
    estado-da-arte de AA para ADR. Adicionalmente a essa avaliação, desenvolvemos um
    estudo de caso relativo ao problema de classificação de plâncton. Apesar do alto custo de
    rotulação, este problema é abordado em poucos trabalhos no contexto de AA. O objetivo
    deste estudo de caso é, além de avaliar os métodos desenvolvidos em uma aplicação real,
    fornecer uma ferramenta que auxilie a classificação de plâncton, minimizando a interação
    com um especialista.


  • Mostrar Abstract
  • O interesse em aprendizado semissupervisionado tem crescido devido ao alto custo de
    rotular dados para análise. Paralelamente, o Aprendizado Ativo (AA) visa minimizar
    o custo da construção de bases de dados rotuladas, buscando identificar quais dados
    não rotulados são mais relevantes para o aprendizado, considerando os rótulos que já
    se tem disponíveis. Neste projeto, é analisada a combinação de AA com aprendizado
    semissupervisionado, em especial com Agrupamento de Dados com Restrições (ADR).
    Neste último tipo de aprendizado, ao invés de termos disponíveis rótulos de classe para
    um conjunto de objetos, somos informados se alguns pares de objetos devem estar no
    mesmo grupo ou em grupos diferentes. Em algumas aplicações, a identificação desse tipo
    de restrições envolve um custo reduzido já que consiste em menos informação do que um
    rótulo de classe. Este trabalho propõe diferentes estratégias de AA com o aprendizado
    de Modelos de Mistura de Gaussianas por um Algoritmo Evolutivo de ADR. Foram
    realizadas avaliações empíricas em 14 bases de dados conhecidas para medir os impactos
    de cada estratégia, quando comparadas com algoritmos supervisionados e um algoritmo
    estado-da-arte de AA para ADR. Adicionalmente a essa avaliação, desenvolvemos um
    estudo de caso relativo ao problema de classificação de plâncton. Apesar do alto custo de
    rotulação, este problema é abordado em poucos trabalhos no contexto de AA. O objetivo
    deste estudo de caso é, além de avaliar os métodos desenvolvidos em uma aplicação real,
    fornecer uma ferramenta que auxilie a classificação de plâncton, minimizando a interação
    com um especialista.

Teses
1
  • LUCIANO ROSSI
  • MÉTODOS COMPUTACIONAIS BASEADOS EM GENEALOGIA ACADÊMICA: CONTRIBUIÇÕES PARA A ANÁLISE DO FLUXO DE TÓPICOS DO CONHECIMENTO CIENTÍFICO

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 26/08/2019

  • Mostrar Resumo
  • A sociedade contemporânea vivência a denominada Era do Conhecimento, onde a produção, o compartilhamento e o acesso à informação nunca foram tão eficientes. Nesse contexto, estruturar o conhecimento acadêmico-científico fornece os meios para organizar o saber formal em classes, de modo a viabilizar sua gestão e contribuir para sua disseminação. Entretanto, os modelos formais de classificação do conhecimento não permitem observar as relações existentes entre as diferentes categorias, tão pouco contribuem para a identificação do fluxo desse conhecimento entre os membros de comunidades científicas. Assim, buscamos desenvolver um método computacional cujo objetivo é estruturar o conhecimento científico, considerando a estrutura hierárquica fornecida pela Genealogia Acadêmica (GA). Os métodos considerados neste trabalho abrangem (i) a prospecção de dados genealógicos, (ii) a estruturação do grafo de GA, (iii) a prospecção de registros biográficos dos acadêmicos, (iv) a inferência dos tópicos de atuação desses acadêmicos com base em suas respectivas biografias, (v) a propagação dos tópicos identificados no grafo de GA e (vi) a estruturação dos grafos de tópicos. Os métodos foram aplicados em um estudo de caso, no qual consideramos (i) os registros de doutores em matemática e áreas afins, disponibilizados pela plataforma Mathematics Genealogy Project, (ii) um conjunto de biografias referentes a esses matemáticos, disponibilizado pelo repositório Wikipedia e (iii) um dicionário de tópicos formado a partir de um glossário de áreas da matemática. Os grafos de tópicos, resultantes do estudo caso, são apresentados como objetos de estudo abrangendo abordagens distintas, sob o ponto de vista estrutural, as quais são acompanhadas de suas respectivas análises descritivas.  Consideramos que identificar e estudar o fluxo do conhecimento científico entre gerações de pesquisadores é uma tarefa importante, ainda pouco explorada pela comunidade científica devido à inexistência de conjuntos de dados. Acreditamos que este trabalho permitirá a definição de um novo método computacional para o estudo de fluxo de conhecimento científico. A relevância do trabalho recai na possibilidade de descoberta de novas informações que auxiliem a identificar, estruturar e analisar os caminhos da ciência.


  • Mostrar Abstract
  • A sociedade contemporânea vivência a denominada Era do Conhecimento, onde a produção, o compartilhamento e o acesso à informação nunca foram tão eficientes. Nesse contexto, estruturar o conhecimento acadêmico-científico fornece os meios para organizar o saber formal em classes, de modo a viabilizar sua gestão e contribuir para sua disseminação. Entretanto, os modelos formais de classificação do conhecimento não permitem observar as relações existentes entre as diferentes categorias, tão pouco contribuem para a identificação do fluxo desse conhecimento entre os membros de comunidades científicas. Assim, buscamos desenvolver um método computacional cujo objetivo é estruturar o conhecimento científico, considerando a estrutura hierárquica fornecida pela Genealogia Acadêmica (GA). Os métodos considerados neste trabalho abrangem (i) a prospecção de dados genealógicos, (ii) a estruturação do grafo de GA, (iii) a prospecção de registros biográficos dos acadêmicos, (iv) a inferência dos tópicos de atuação desses acadêmicos com base em suas respectivas biografias, (v) a propagação dos tópicos identificados no grafo de GA e (vi) a estruturação dos grafos de tópicos. Os métodos foram aplicados em um estudo de caso, no qual consideramos (i) os registros de doutores em matemática e áreas afins, disponibilizados pela plataforma Mathematics Genealogy Project, (ii) um conjunto de biografias referentes a esses matemáticos, disponibilizado pelo repositório Wikipedia e (iii) um dicionário de tópicos formado a partir de um glossário de áreas da matemática. Os grafos de tópicos, resultantes do estudo caso, são apresentados como objetos de estudo abrangendo abordagens distintas, sob o ponto de vista estrutural, as quais são acompanhadas de suas respectivas análises descritivas.  Consideramos que identificar e estudar o fluxo do conhecimento científico entre gerações de pesquisadores é uma tarefa importante, ainda pouco explorada pela comunidade científica devido à inexistência de conjuntos de dados. Acreditamos que este trabalho permitirá a definição de um novo método computacional para o estudo de fluxo de conhecimento científico. A relevância do trabalho recai na possibilidade de descoberta de novas informações que auxiliem a identificar, estruturar e analisar os caminhos da ciência.

2
  • DANILO CARASTAN DOS SANTOS
  • Aprendizagem Sobre Heurísticas Simples para Escalonamento Online de Tarefas Paralelas
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 27/11/2019

  • Mostrar Resumo
  • As plataformas de Computação de Alto Desempenho (do Inglês High Performance Computing, HPC) estão crescendo em tamanho e complexidade. De uma maneira adversa, a demanda de energia de tais plataformas também cresceu rapidamente, supercomputadores atuais exigem energia na escala de uma usina inteira. Em um esforço para fazer um uso mais responsável de tal poder computacional, pesquisadores estão dedicando uma grande quantidade de esforço para elaborar algoritmos e técnicas para melhorar diferentes aspectos de desempenho, tais como escalonamento e gerenciamento de recursos. Contudo, mantenedores de plataformas HPC ainda relutam em implementar métodos de estado-da-arte e a maioria deles revertem para heurísticas simples, como a EASY Backfilling, que é baseada em um ordenamento ingênuo First-Come-First-Served (FCFS). Os métodos mais recentes são muitas vezes complexos e obscuros e a simplicidade e a transparência da EASY Backfilling são importantes demais para serem sacrificadas.
     
    Em um primeiro momento, exploramos técnicas de Aprendizado de Máquina (do Inglês Machine Learning, ML) para aprender heurísticas de escalonamento on-line de tarefas paralelas. Usando simulações e um modelo de geração de workload, conseguimos determinar as características de aplicações HPC (tarefas) que levam a uma redução no slowdown médio de tarefas em uma fila de execução. Modelando essas características usando uma função não linear e aplicando essa função para selecionar a próxima tarefa em uma fila de execução melhorou o slowdown médio das tarefas de workloads sintéticos. Quando aplicadas em traces de execução reais de plataformas HPC altamente distintas, essas funções continuaram a resultar em melhorias de desempenho, atestando a capacidade de generalização das heurísticas obtidas.
     
    Em um segundo momento, usando simulações e traces de execução de plataformas HPC reais, realizamos uma análise completa dos resultados acumulados de quatro heurísticas de escalonamento simples (incluindo a EASY Backfilling). Também avaliamos outros efeitos, como a relação entre o tamanho das tarefas e o slowdown, a distribuição de valores de slowdown e o número de tarefas escalonados por meio de backfilling, para cada plataforma HPC e heurística de escalonamento. Mostramos evidências experimentais de que só podemos ganhar substituindo a EASY Backfilling pela política Smallest estimated Area First (SAF) com backfilling, pois ela oferece melhorias no desempenho em até 80% na métrica de slowdown, mantendo a simplicidade e a transparência da EASY Backfilling. SAF reduz o número de tarefas com valores de slowdown muito grandes e, com a inclusão de um mecanismo de limiar simples, garantimos que não ocorra inanição de tarefas.
     
    No geral, obtivemos as seguintes observações: (i) heurísticas de escalonamento simples e eficientes na forma de uma função não-linear das características das tarefas podem ser aprendidas automaticamente, embora seja subjetivo concluir sobre se o raciocínio por trás das decisões de escalonamento dessas heurísticas é claro ou não. (ii) A área (tempo estimado de processamento multiplicado pelo número de processadores) das tarefas parece ser uma propriedade bastante importante para boas heurísticas de escalonamento de tarefas paralelas, uma vez que muitas das heurísticas (notadamente a SAF) que alcançaram bons desempenhos têm a área da tarefa como entrada. (iii) O mecanismo de backfilling parece sempre ajudar no aumento do desempenho, embora não supere uma melhor ordenação da fila de espera das tarefas, como a ordenação realizada pela SAF.

  • Mostrar Abstract
  • As plataformas de Computação de Alto Desempenho (do Inglês High Performance Computing, HPC) estão crescendo em tamanho e complexidade. De uma maneira adversa, a demanda de energia de tais plataformas também cresceu rapidamente, supercomputadores atuais exigem energia na escala de uma usina inteira. Em um esforço para fazer um uso mais responsável de tal poder computacional, pesquisadores estão dedicando uma grande quantidade de esforço para elaborar algoritmos e técnicas para melhorar diferentes aspectos de desempenho, tais como escalonamento e gerenciamento de recursos. Contudo, mantenedores de plataformas HPC ainda relutam em implementar métodos de estado-da-arte e a maioria deles revertem para heurísticas simples, como a EASY Backfilling, que é baseada em um ordenamento ingênuo First-Come-First-Served (FCFS). Os métodos mais recentes são muitas vezes complexos e obscuros e a simplicidade e a transparência da EASY Backfilling são importantes demais para serem sacrificadas.
     
    Em um primeiro momento, exploramos técnicas de Aprendizado de Máquina (do Inglês Machine Learning, ML) para aprender heurísticas de escalonamento on-line de tarefas paralelas. Usando simulações e um modelo de geração de workload, conseguimos determinar as características de aplicações HPC (tarefas) que levam a uma redução no slowdown médio de tarefas em uma fila de execução. Modelando essas características usando uma função não linear e aplicando essa função para selecionar a próxima tarefa em uma fila de execução melhorou o slowdown médio das tarefas de workloads sintéticos. Quando aplicadas em traces de execução reais de plataformas HPC altamente distintas, essas funções continuaram a resultar em melhorias de desempenho, atestando a capacidade de generalização das heurísticas obtidas.
     
    Em um segundo momento, usando simulações e traces de execução de plataformas HPC reais, realizamos uma análise completa dos resultados acumulados de quatro heurísticas de escalonamento simples (incluindo a EASY Backfilling). Também avaliamos outros efeitos, como a relação entre o tamanho das tarefas e o slowdown, a distribuição de valores de slowdown e o número de tarefas escalonados por meio de backfilling, para cada plataforma HPC e heurística de escalonamento. Mostramos evidências experimentais de que só podemos ganhar substituindo a EASY Backfilling pela política Smallest estimated Area First (SAF) com backfilling, pois ela oferece melhorias no desempenho em até 80% na métrica de slowdown, mantendo a simplicidade e a transparência da EASY Backfilling. SAF reduz o número de tarefas com valores de slowdown muito grandes e, com a inclusão de um mecanismo de limiar simples, garantimos que não ocorra inanição de tarefas.
     
    No geral, obtivemos as seguintes observações: (i) heurísticas de escalonamento simples e eficientes na forma de uma função não-linear das características das tarefas podem ser aprendidas automaticamente, embora seja subjetivo concluir sobre se o raciocínio por trás das decisões de escalonamento dessas heurísticas é claro ou não. (ii) A área (tempo estimado de processamento multiplicado pelo número de processadores) das tarefas parece ser uma propriedade bastante importante para boas heurísticas de escalonamento de tarefas paralelas, uma vez que muitas das heurísticas (notadamente a SAF) que alcançaram bons desempenhos têm a área da tarefa como entrada. (iii) O mecanismo de backfilling parece sempre ajudar no aumento do desempenho, embora não supere uma melhor ordenação da fila de espera das tarefas, como a ordenação realizada pela SAF.
2018
Dissertações
1
  • DIEGO GARBELINI VENANCIO DOS SANTOS
  • Automatização de Regras de Genotipagem Usando Expressões Lógicas

  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 01/02/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

2
  • EDUARDO ALVES DE JESUS ANACLETO
  • Reavaliação Rápida em Problemas de Otimização Quadrática Binária
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 06/02/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • PAULO MATIAS DA SILVA JUNIOR
  • Distância de Edição para Estruturas de Dados
  • Orientador : RODRIGO DE ALENCAR HAUSEN
  • Data: 19/03/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CHRISTIAN REIS MENEGUIN
  • Seleção de características a partir da integração de dados por meio de análise de variação de número de cópias (CNV) para associação genótipo-fenótipo de doenças complexas
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 16/05/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • EDGARD BALISTA DAMIANI
  • Towards an Analytical Approach to 3D Character Modeling

  • Orientador : JOAO PAULO GOIS
  • Data: 03/08/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

6
  • JULIA BOTAN MACHADO
  • Detecção de Eventos offline no Twitter por Agrupamento de Termos 

  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 03/12/2018

  • Mostrar Resumo
  • Não informado.


  • Mostrar Abstract
  • Não informado.

7
  • DIOGO FORNAZIERO SEGURA RAMOS
  • TERRITÓRIO CAUSAL EM GRAFOS TEMPORAIS DE CONVITES E COPARTICIPAÇÕES

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 10/12/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

2017
Dissertações
1
  • RAUL FREIRE AGUIAR
  • Representações Textuais e a Geração de Hubs: um estudo comparativo
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 11/01/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
3
  • ÉRIC TADEU CAMACHO DE OLIVEIRA
  • Análise sobre comunidades em redes artificiais: detecção, propriedades e estimação de desempenho
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 08/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CASSIA DE SOUZA CARVALHO
  • Um modelo explícito de sistema de recomendação utilizando informações externas
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 09/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • CANDY VERONICA TENORIO GONZALES
  • Marmoreio Digital com Interface Natural
  • Orientador : MARIO ALEXANDRE GAZZIRO
  • Data: 22/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • RAFAEL GUIMARÃES SAKURAI
  • Neuroevolução aplicada no treinamento de redes neurais convolucionais para aprender estratégias específicas do jogo Go
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 23/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • PRISCILA THAIS VAZ
  • Extensão da Metodologia INTERA para o desenvolvimento de recursos educacionais acessíveis a pessoas com deficiência visual
  • Orientador : ITANA STIUBIENER
  • Data: 02/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • JOEL HERNÁN FLORES MARTINEZ
  • Roteamento em redes tolerantes a atrasos por meio de otimização por colônia de formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 10/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • RAFAEL GOMES MUNHOZ
  • Processamento de Imagens HDR utilizando shaders gráficos em múltiplas plataformas
  • Orientador : ANDRE GUILHERME RIBEIRO BALAN
  • Data: 16/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • CARLOS EDUARDO MARCHI
  • Análise metadimensional em inferência de redes gênicas e priorização gênica associada a doenças complexas
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 20/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • ALEXANDRE HARAYASHIKI MOREIRA
  • Sistema Multirrobótico Descentralizado no Controle de Posição e Formação por Quadricópteros: Uma Integração entre o Mundo Virtual e Real
  • Orientador : WAGNER TANAKA BOTELHO
  • Data: 27/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • RODRIGO TEISKE CHINA
  • Plataforma de aquisição e método de análise corporal por varredura tridimensional
  • Orientador : MARIO ALEXANDRE GAZZIRO
  • Data: 20/04/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
14
  • VITOR DE SOUZA
  • Em direção a um modelo fenomenológico de coluna tálamo-cortical com uma abordagem orientada a objetos
  • Orientador : FRANCISCO JAVIER ROPERO PELAEZ
  • Data: 01/08/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • ANDRE RICARDO FREDERICO
  • Sobrevivência em arquiteturas de grade computacional baseadas em redes ópticas e gerenciadas por algoritmo de Otimização por Colônias de Formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 21/08/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2016
Dissertações
1
  • CHARLES HENRIQUE PORTO FERREIRA
  • Seleção de atributos para classificação de textos usando técnicas baseadas em agrupamento, pos-tagging e algoritmos evolutivos
  • Orientador : FABIANA SOARES SANTANA
  • Data: 02/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • RAFAEL JEFERSON PEZZUTO DAMACENO
  • Acessibilidade de Pessoas com Deficiência Visual aos Dispositivos Móveis: Mapeamento de Problemas, Recomendações e Estudo de Caso de Gestos de Toque
  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 02/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • KARINE DA SILVA MIRAS DE ARAUJO
  • NeuroEvolução para a construção de uma estratégia genérica com o ambiente Evoman
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 03/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • NATÁLIA SALMAZZO
  • Classificação One-Class para predição de adaptação de espécies em ambientes desconhecidos
  • Orientador : FABIANA SOARES SANTANA
  • Data: 05/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ALINE YURI IEIRI
  • DESENVOLVIMENTO DE UM PROTÓTIPO LO-FI DE REPOSITÓRIO DE OBJETOS DE APRENDIZAGEM COM UTILIZAÇÃO DO MÉTODO DE BRUNO MUNARI
  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 26/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • THAIS RODRIGUEZ DE TOLEDO
  • DNP3 protocol traffic analysis using machine learning algorithms
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 08/03/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • ANDRÉ TEIXEIRA PINHA
  • Monitoramento de doadores de sangue através de integração de bases de texto heterogêneas
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 08/04/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • SHEILA NUNES DE VASCONCELOS
  • Processamento de Regras Dinâmicas Baseadas em Lógica de Primeira Ordem Aplicados a Análise de Dados Biológicos
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 05/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • JACQUELINE MAYUMI AKAZAKI
  • Senioridade Efetiva e Categoria de Inatividade Baseadas em Produções Acadêmicas
  • Orientador : LETICIA RODRIGUES BUENO
  • Data: 23/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ERICK SKORUPA PAROLIN
  • ASYNCHRONOUS TEAMS FOR SOLVING THE LOADING AND ROUTING AUTO-CARRIER PROBLEM
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 01/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • NELSON GONÇALVES DE OLIVEIRA
  • O Problema da Confecção da Escala de Trabalho para os Profissionais de Enfermagem no Brasil
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 01/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • DANIEL DE MORAES NAVARRO
  • Deopsminer: Mineração de Dados em Documentos da Ditadura Militar Brasileira
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 05/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • FABIO NEVES MARGARIDO
  • Criação de uma metodologia para o planejamento de cursos baseado em conceitos da engenharia de software e no design instrucional

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 06/09/2016

  • Mostrar Resumo
  • A cadastrar


  • Mostrar Abstract
  • A cadastrar

14
  • LUCAS TROMBETA
  • Solução de redundância múltipla de servidores DHCP utilizando redes definidas por software
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 06/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • JUAN FLORENCIO VALDIVIA GUEVARA
  • Classificação de Textos Usando Ontologias
  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 08/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

16
  • DANIEL RODRIGUES DE SOUSA
  • TB-Horse: Desenvolvimento e Validação de um Protótipo de Robô Quadrúpede Bioinspirado em um Cavalo Marchador
  • Orientador : WAGNER TANAKA BOTELHO
  • Data: 09/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

17
  • LUCIANA SILVA ZAPPAROLLI
  • FAG - Ferramenta de apoio à gestão no ambiente virtual de aprendizagem Moodle utilizando técnicas de Business Intelligence
  • Orientador : ITANA STIUBIENER
  • Data: 22/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

18
  • JANAINA CRISTINA DA SILVA
  • Recomendações de projeto de interface de um aplicativo móvel de registro de aula para pessoas com deficiência visual
  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 24/11/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

19
  • ALEXANDRE GRELUK SZYKMAN
  • A Framework for the Application of Participatory Design with Agile Game Development in a NUI Game for Wheelchair Users
  • Orientador : JOAO PAULO GOIS
  • Data: 02/12/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

20
  • DAVID PEREIRA BARBOSA
  • Classificação supervisionada da cobertura do solo: uma abordagem aplicada em imagens de sensoriamento remoto
  • Orientador : ALEXANDRE NOMA
  • Data: 08/12/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2015
Dissertações
1
  • BRUNO AUGUSTO DORTA MARQUES
  • Preenchimento e iluminação interativa de modelos 2.5D
  • Orientador : JOAO PAULO GOIS
  • Data: 12/03/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DANILO CARASTAN DOS SANTOS
  • Um Algoritmo Exato em clusters de GPUs para o Hitting Set Aplicado à Inferência de Redes de Regulação Gênica
  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 27/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • LUCIANO ROSSI
  • Caracterização de grafos de genealogia acadêmica por meio de métricas topológicas
  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 22/06/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • LUIS FELIPE SANT'ANA
  • Balanceamento de carga dinâmico em aglomerados de GPUs
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 16/07/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • LUCIANO BARROS PIRES
  • Integração, visualização e análise de informações eleitorais usando bancos de dados análiticos e fontes heterogeneas de grande volume.
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 22/07/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • PRISCILLA LABANCA
  • Séries Históricas e Método dos Mínimos Quadrados Aplicados ao Estudo Evolutivo da Doença de Alzheimer
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 05/08/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • VINÍCIUS EDUARDO FERREIRA DOS SANTOS SILVA
  • Protocolo de negociação e colaboração baseado em EBXML com objetivo de otimizar processos portuários
  • Data: 12/08/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • ALAN CLAUDIUS MACIEL
  • Um panorama das abordagens de otimização aplicadas ao transporte dutoviário
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 11/09/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • DANIEL SOUZA MAKIYAMA
  • A prática de seleção de frameworks web cliente de código aberto: fundamentos para a construção de uma base de conhecimento
  • Orientador : GORDANA MANIC
  • Data: 16/12/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2014
Dissertações
1
  • REINALDO DE SOUZA GONZAGA
  • Uma abordagem arquitetural para orquestração dinâmica de serviços
  • Orientador : FABIANA SOARES SANTANA
  • Data: 28/01/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • JHON FRANKO JORGE VELARDE
  • Aplicação do protocolo SPDY para aplicativos de monitoramento sobre redes de IP público
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 06/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • RAY DUEÑAS JIMENEZ
  • Algoritmos genéticos em inferência de redes gênicas
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 24/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CARLOS FERNANDO MONTOYA CUBAS
  • Seleção de características em inferência de redes de interação gênica a partir de conjuntos reduzidos de amostras
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 25/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ALICIA ISOLINA PRETEL JESUS
  • Processamento e estilização de dados RGB-Z em tempo real
  • Orientador : JOAO PAULO GOIS
  • Data: 28/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • EDILSON JOSE RODRIGUES
  • Um algoritmo para o problema do isomorfismo de Grafos
  • Orientador : DANIEL MORGATO MARTIN
  • Data: 28/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • AMAURY DE SOUZA AMARAL
  • Análise de funções booleanas e engenharia reversa em jogos de minoria
  • Orientador : JAIR DONADELLI JUNIOR
  • Data: 29/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • JORGE LUIS BARBIERI PUCOHUARANGA
  • Ciclos hamiltonianos em produtos cartesianos de grafos
  • Orientador : LETICIA RODRIGUES BUENO
  • Data: 26/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • GABRIELA OLIVEIRA BIONDI
  • Ajuste de parâmetros em algoritmos de aprendizado em máquina utilizando trasferência de aprendizado
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 29/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • SHEILA LEAL SANTOS
  • Método para modelagem de processos de negócios na engenharia de requisitos de software
  • Orientador : FABIANA SOARES SANTANA
  • Data: 23/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • RENATO STOFFALETTE JOÃO
  • Projeto de operadores de imagens binárias usando combinação de classificadores
  • Orientador : CARLOS DA SILVA DOS SANTOS
  • Data: 28/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • LIDIA MARIA RODRIGUES
  • Processamento de imagens HDR utilizando filtros não lineares e decomposição multiescala
  • Orientador : ANDRE GUILHERME RIBEIRO BALAN
  • Data: 31/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • PAULO CÉSAR ANGELO
  • Método de engenharia de requisitos baseado em BPMN e caso de uso
  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 31/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • RODRIGO IZIDORO TININI
  • Agendamento e reserva futura de caminhos ópticos em ambientes de Lambda Grid por meio de otimização por colônia de formigas.
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 01/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • MANOLO CANALES CUBA
  • Reconstrução tridimensional do corpo humano a partir de dados RGB-D
  • Orientador : JOAO PAULO GOIS
  • Data: 25/09/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2013
Dissertações
1
  • DENER EDSON OTTOLINI GUEDES DA SILVA
  • Estudo experimental do aprovisionamento dinâmico de caminhos ópticos com capacidade de restauração considerando restrições na camada física
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 10/01/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DIOGO FERNANDO TREVISAN
  • Técnicas e aplicações de superfícies implícitas a partir de dados hermitianos generalizados
  • Orientador : JOAO PAULO GOIS
  • Data: 08/03/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • JESSICA ANDRESSA DE SOUZA
  • Exploração de novas políticas de construção de métodos de acesso métricos
  • Orientador : MARIA CAMILA NARDINI BARIONI
  • Data: 14/03/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CLEBER SILVA FERREIRA DA LUZ
  • Implementações de algoritmos paralelos da subsequência máxima e da submatriz máxima em GPU
  • Data: 02/05/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ANDRÉIA CRISTINA DOS SANTOS GUSMÃO
  • Um algoritmo paralelo para ciclos hamiltoniamos em grafos Kneser
  • Orientador : LETICIA RODRIGUES BUENO
  • Data: 22/05/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • LEONARDO VILLANI
  • Anotação automática de imagens médicas bidimensionais por meio de classificação multirrótulo
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 19/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • ALANDER PEREIRA DOS SANTOS
  • Problema de cobertura por caminhos com k-terminais-fixos em grafos de intervalos
  • Orientador : GORDANA MANIC
  • Data: 31/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • ANDERSON BETONI
  • Evolução da infraestrutura embarcada do projeto vero considerando integração e migração de arcabouços de software e restrições de tempo real
  • Orientador : LUIZ GUSTAVO BIZARRO MIRISOLA
  • Data: 05/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • EDUARDO BATISTA GOMES MOREIRA
  • Algoritmos paralelos em GPUs para problemas de programação quadrática binária irrestrita
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 08/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ADERBAL DE MORAIS JUNIOR
  • Uma biblioteca para desenvolvimento de aplicações CUDA em aglomerados de GPUs
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 22/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • MARCEL JESUS DIAS
  • Sistema de detecção remota de sonolência em motoristas: uma solução móvel
  • Orientador : YOSSI ZANA
  • Data: 22/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • SILVIA SCHEUNEMANN SILVA
  • Uma ontologia para interoperabilidade entre padrões de descrição de dados em Biodiversidade ABCD e Darwin Core
  • Orientador : FABIANA SOARES SANTANA
  • Data: 22/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • OMAR LATORRE VILCA
  • Métodos para problemas de seleção de cadeias de caracteres
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 28/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • FABRIZIO FERREIRA BORELLI
  • Inferência de redes de regulação gênica usando algoritmo de busca exaustiva em cluster de GPUs
  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 17/12/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • CONSTÂNCIO BRINGEL GOMES NETO
  • Análise de técnicas de decomposição em algoritmos de estimação de distribuição
  • Orientador : KARLA VITTORI
  • Data: 19/12/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2012
Dissertações
1
  • ANDRE FILIPE DE MORAES BATISTA
  • Roteamento Ótico em Redes GMPLS multidominio por meio da Otimização de Colônia de Formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 25/10/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

SIGAA | UFABC - Núcleo de Tecnologia da Informação - ||||| | Copyright © 2006-2024 - UFRN - sigaa-1.ufabc.int.br.sigaa-1-prod