|
Dissertações |
|
1
|
-
RENATO BUENO DOMINGOS DE OLIVEIRA
-
IoT Redirector: Um redirecionador de mensagens para gerenciamento da heterogeneidade de dados em Aplicações IoT
-
Orientador : CARLOS ALBERTO KAMIENSKI
-
Data: 28/01/2022
-
-
Mostrar Resumo
-
Gerenciamento da Heterogeneidade de Dados em Aplicações Inteligentes baseadas na Internet das Coisas
-
Mostrar Abstract
-
Gerenciamento da Heterogeneidade de Dados em Aplicações Inteligentes baseadas na Internet das Coisas
|
|
2
|
-
HENRIQUE LUIZ VONI GIULIANI
-
COMITÊS DE MÁQUINAS APLICADOS A INTERFACES CÉREBRO-COMPUTADOR
-
Orientador : DENIS GUSTAVO FANTINATO
-
Data: 05/04/2022
-
-
Mostrar Resumo
-
As interfaces cérebro-computador (BCI, do inglês Brain-Computer Interface) são sistemas que englobam técnicas de diversas áreas de conhecimento para possibilitar a tradução do sinal cerebral para um comando de uma aplicação. Dentre tais técnicas destaca-se os algoritmos de aprendizado de máquina, que são responsáveis por extrair padrões e informações relevantes dos dados para a correta classificação de uma instrução do sistema. Entretanto, uma vez que o desempenho desses algoritmos também depende da complexidade dos dados, utilizar os dados de diferentes usuários em um sistema BCI ainda é uma tarefa desafiadora, dado que podem apresentar alta variabilidade a níveis intra e interusuário. Neste cenário, a aplicação de comitês de máquinas pode trazer resultados promissores considerando que cada classificador do comitê atue como especialista em um subconjunto dos dados. Sendo assim, neste trabalho abordamos o uso de diferentes propostas de comitês de máquina amplamente difundidas na literatura para classificar dados de diferentes indivíduos. Como principal contribuição para o tema analisado, é proposta uma nova abordagem de comitês: a Mistura de Especialistas baseada em kernel gaussiano (ou MEKG). Os resultados dos experimentos apontam que o desempenho do MEKG foi superior quando comparado aos demais comitês com um número significantemente menor de especialistas, alcançando uma acurácia média de 95,33% com indivíduos avaliados separadamente e 85,14% no caso cross-subject.
-
Mostrar Abstract
-
As interfaces cérebro-computador (BCI, do inglês Brain-Computer Interface) são sistemas que englobam técnicas de diversas áreas de conhecimento para possibilitar a tradução do sinal cerebral para um comando de uma aplicação. Dentre tais técnicas destaca-se os algoritmos de aprendizado de máquina, que são responsáveis por extrair padrões e informações relevantes dos dados para a correta classificação de uma instrução do sistema. Entretanto, uma vez que o desempenho desses algoritmos também depende da complexidade dos dados, utilizar os dados de diferentes usuários em um sistema BCI ainda é uma tarefa desafiadora, dado que podem apresentar alta variabilidade a níveis intra e interusuário. Neste cenário, a aplicação de comitês de máquinas pode trazer resultados promissores considerando que cada classificador do comitê atue como especialista em um subconjunto dos dados. Sendo assim, neste trabalho abordamos o uso de diferentes propostas de comitês de máquina amplamente difundidas na literatura para classificar dados de diferentes indivíduos. Como principal contribuição para o tema analisado, é proposta uma nova abordagem de comitês: a Mistura de Especialistas baseada em kernel gaussiano (ou MEKG). Os resultados dos experimentos apontam que o desempenho do MEKG foi superior quando comparado aos demais comitês com um número significantemente menor de especialistas, alcançando uma acurácia média de 95,33% com indivíduos avaliados separadamente e 85,14% no caso cross-subject.
|
|
3
|
-
CRISTIANO OLIVEIRA GONÇALVES
-
Representação de sentenças jurídicas no contexto de agrupamento automático
-
Orientador : THIAGO FERREIRA COVOES
-
Data: 11/04/2022
-
-
Mostrar Resumo
-
A digitalização de documentos no setor judiciário brasileiro facilita o acesso à informação de interesse público. No entanto, para que seja possível levantar métricas de interesse deste crescente repositório informacional, é fundamental que se organizem os documentos de maneira a facilitar a recuperação de informações relevantes, e técnicas de aprendizado de máquina podem diminuir o esforço humano na organização de um grande corpus. Este trabalho analisou diferentes técnicas de aprendizado de máquina frente à quão bem associam termos jurídicos segundo especialistas humanos. Para isso, desenvolvemos um web scraper, software que consolida conteúdos online, para criar um corpus de sentenças jurídicas de primeira instância. Este corpus é composto de 40.009 documentos, o que totaliza 24.139.185 tokens. As técnicas FastText, GloVe e Word2Vec foram avaliadas frente à sua capacidade de associar termos de acordo com o Tesauro Jurídico do Supremo Tribunal Federal (TSTF). Elas foram comparadas quando treinadas tanto no domínio geral da língua portuguesa, quanto no domínio jurídico. O modelo FastText de domínio geral foi o que apresentou a maior similaridade entre os termos associados segundo o TSTF. Apesar disso, o FastText de domínio jurídico apresentou desempenhos comparáveis ou superiores aos modelos GloVe e Word2Vec de domínio geral. Avaliamos também as técnicas FastText, GloVe, Word2Vec, Doc2Vec e hashing trick na tarefa de agrupamento de sentenças jurídicas de primeira instância frente ao assunto a que pertencem. Comparamos os modelos treinados tanto no domínio geral quanto no domínio jurídico usando a V-Measure média e seu desvio-padrão. Concluímos que o FastText de domínio jurídico treinado em 300 dimensões apresentou resultados equivalentes ou superiores aos modelos de domínio geral. Observamos também que a escolha da técnica possui influência maior do que a escolha de hiper-parâmetros na determinação do desempenho. Outro fator analisado neste trabalho foi a semelhança dos documentos de diferentes assuntos. Usamos nesta análise o melhor modelo produzido no domínio jurídico: o FastText de 300 dimensões. Concluímos que apesar da incerteza da própria representação criada pelo modelo, parecem haver documentos de diferentes assuntos que são muito similares entre si. Avaliamos ainda o aumento de desempenho conferido pelo volume de documentos jurídicos no processo de treinamento, e verificamos que a partir de aproximadamente 800.000 tokens, que equivalem a aproximadamente de 1500 sentenças, os aumentos de desempenho marginal do FastText de 300 dimensões é decrescente. A adição de mais documentos do mesmo corpus confere ganhos de desempenho incrementalmente muito pequenos, sendo que o custo computacional parece crescer mais rápido que a V-Measure.
-
Mostrar Abstract
-
A digitalização de documentos no setor judiciário brasileiro facilita o acesso à informação de interesse público. No entanto, para que seja possível levantar métricas de interesse deste crescente repositório informacional, é fundamental que se organizem os documentos de maneira a facilitar a recuperação de informações relevantes, e técnicas de aprendizado de máquina podem diminuir o esforço humano na organização de um grande corpus. Este trabalho analisou diferentes técnicas de aprendizado de máquina frente à quão bem associam termos jurídicos segundo especialistas humanos. Para isso, desenvolvemos um web scraper, software que consolida conteúdos online, para criar um corpus de sentenças jurídicas de primeira instância. Este corpus é composto de 40.009 documentos, o que totaliza 24.139.185 tokens. As técnicas FastText, GloVe e Word2Vec foram avaliadas frente à sua capacidade de associar termos de acordo com o Tesauro Jurídico do Supremo Tribunal Federal (TSTF). Elas foram comparadas quando treinadas tanto no domínio geral da língua portuguesa, quanto no domínio jurídico. O modelo FastText de domínio geral foi o que apresentou a maior similaridade entre os termos associados segundo o TSTF. Apesar disso, o FastText de domínio jurídico apresentou desempenhos comparáveis ou superiores aos modelos GloVe e Word2Vec de domínio geral. Avaliamos também as técnicas FastText, GloVe, Word2Vec, Doc2Vec e hashing trick na tarefa de agrupamento de sentenças jurídicas de primeira instância frente ao assunto a que pertencem. Comparamos os modelos treinados tanto no domínio geral quanto no domínio jurídico usando a V-Measure média e seu desvio-padrão. Concluímos que o FastText de domínio jurídico treinado em 300 dimensões apresentou resultados equivalentes ou superiores aos modelos de domínio geral. Observamos também que a escolha da técnica possui influência maior do que a escolha de hiper-parâmetros na determinação do desempenho. Outro fator analisado neste trabalho foi a semelhança dos documentos de diferentes assuntos. Usamos nesta análise o melhor modelo produzido no domínio jurídico: o FastText de 300 dimensões. Concluímos que apesar da incerteza da própria representação criada pelo modelo, parecem haver documentos de diferentes assuntos que são muito similares entre si. Avaliamos ainda o aumento de desempenho conferido pelo volume de documentos jurídicos no processo de treinamento, e verificamos que a partir de aproximadamente 800.000 tokens, que equivalem a aproximadamente de 1500 sentenças, os aumentos de desempenho marginal do FastText de 300 dimensões é decrescente. A adição de mais documentos do mesmo corpus confere ganhos de desempenho incrementalmente muito pequenos, sendo que o custo computacional parece crescer mais rápido que a V-Measure.
|
|
4
|
-
DIOGO EDUARDO LIMA ALVES
-
Funções Limiares para Propriedades anti-Ramsey
-
Orientador : GUILHERME OLIVEIRA MOTA
-
Data: 14/04/2022
-
-
Mostrar Resumo
-
Neste trabalho estudamos resultados centrados na definição da função limiar para a Propriedade anti-Ramsey, abordando alguns resultados existentes, tanto do tipo $0$-afirmação quanto $1$-afirmação. Este é um estudo bibliográfico destes resultados que contém diferentes técnicas de prova e compila parte das contribuições de diversos pesquisadores para essa subárea da Combinatória Extremal.
A propriedade anti-Ramsey pode ser explicada da seguinte forma: Dados dois grafos $G$ e $H$, denotamos por $G \rightarrow^{rb}_p H$ para toda coloração própria das arestas de $G$ existe uma cópia {\it arco-íris} de $H$ em $G$. Dizemos que uma cópia de um grafo $H$ é arco-íris quando $H$ não tem mais que uma aresta com a mesma cor.
Assim, neste texto estudamos resultados centrados na definição da função limiar ($p^{rb}_H = p^{rb}_H(n)$) para a propriedade $G \rightarrow^{rb}_p H$.
-
Mostrar Abstract
-
Neste trabalho estudamos resultados centrados na definição da função limiar para a Propriedade anti-Ramsey, abordando alguns resultados existentes, tanto do tipo $0$-afirmação quanto $1$-afirmação. Este é um estudo bibliográfico destes resultados que contém diferentes técnicas de prova e compila parte das contribuições de diversos pesquisadores para essa subárea da Combinatória Extremal.
A propriedade anti-Ramsey pode ser explicada da seguinte forma: Dados dois grafos $G$ e $H$, denotamos por $G \rightarrow^{rb}_p H$ para toda coloração própria das arestas de $G$ existe uma cópia {\it arco-íris} de $H$ em $G$. Dizemos que uma cópia de um grafo $H$ é arco-íris quando $H$ não tem mais que uma aresta com a mesma cor.
Assim, neste texto estudamos resultados centrados na definição da função limiar ($p^{rb}_H = p^{rb}_H(n)$) para a propriedade $G \rightarrow^{rb}_p H$.
|
|
5
|
-
HENRIQUE RAMOS RISSARDO WERNECK
-
Entity-Learning with Deep Reinforcement Learning: A Study on Different Abstractions of Input
-
Orientador : LUIZ ANTONIO CELIBERTO JUNIOR
-
Data: 06/05/2022
-
-
Mostrar Resumo
-
Deep reinforcement learning is a method that introduced promising solutions to various setbacks that reinforcement learning historically presented. These advances are subject of many recent studies. They regard, for example, the possibility of automatically abstracting relevant information from the environment, and performing consistently using higher dimensional data from complex environments, like entities present in such environment. For this work, the ViZDoom platform will be used in order to compare the learning efficiency of distinct input proposals: one learning from raw image inputs, one learning from edited image inputs and the other using more structured data, identifying entities in the scene. The curriculum learning method adopted for training will gradually increase the complexity of the environment, validating the performance of the algorithm at each step. This work aims to contribute with a comparative study on the learning efficiency displayed by agents when presented to data with different abstraction-levels, learning from a dynamic environment over ever increasing fundamental skills.
-
Mostrar Abstract
-
Deep reinforcement learning is a method that introduced promising solutions to various setbacks that reinforcement learning historically presented. These advances are subject of many recent studies. They regard, for example, the possibility of automatically abstracting relevant information from the environment, and performing consistently using higher dimensional data from complex environments, like entities present in such environment. For this work, the ViZDoom platform will be used in order to compare the learning efficiency of distinct input proposals: one learning from raw image inputs, one learning from edited image inputs and the other using more structured data, identifying entities in the scene. The curriculum learning method adopted for training will gradually increase the complexity of the environment, validating the performance of the algorithm at each step. This work aims to contribute with a comparative study on the learning efficiency displayed by agents when presented to data with different abstraction-levels, learning from a dynamic environment over ever increasing fundamental skills.
|
|
6
|
-
VICTOR BORGHI GIMENEZ
-
Classificação de sinais hemodinâmicos e eletroencefalográficos em alcoolismo mediante redes neurais artificiais
-
Orientador : FABIO MARQUES SIMOES DE SOUZA
-
Data: 10/05/2022
-
-
Mostrar Resumo
-
Esse trabalho consiste no uso de ferramentas computacionais para o apoio do estudo do cérebro. O trabalho segue uma abordagem interdisciplinar na fronteira entre a computação e a neurociência. Foram utilizados recursos de estimulação sensorial controlada de sujeitos durante tarefas de reconhecimento de verbos, registros cerebrais na forma de eletroencefalogramas, pré-processamento dos dados para filtragem de ruídos associados à rede elétrica, piscada dos olhos, movimento da cabeça e mordidas. Os dados cerebrais foram colocados no formato de potenciais relacionados ao evento (ERPs) e separados em um grupo correspondente aos sujeitos alcoólicos e outro de não alcoólicos. Foi utilizada a técnica de redes neurais artificiais para a classificação de sinais cerebrais em alcoólicos e não alcoólicos. Os resultados do trabalho mostraram que foi possível separar o grupo de sujeitos alcoólicos e não alcoólicos com base em seus ERPs.
-
Mostrar Abstract
-
Esse trabalho consiste no uso de ferramentas computacionais para o apoio do estudo do cérebro. O trabalho segue uma abordagem interdisciplinar na fronteira entre a computação e a neurociência. Foram utilizados recursos de estimulação sensorial controlada de sujeitos durante tarefas de reconhecimento de verbos, registros cerebrais na forma de eletroencefalogramas, pré-processamento dos dados para filtragem de ruídos associados à rede elétrica, piscada dos olhos, movimento da cabeça e mordidas. Os dados cerebrais foram colocados no formato de potenciais relacionados ao evento (ERPs) e separados em um grupo correspondente aos sujeitos alcoólicos e outro de não alcoólicos. Foi utilizada a técnica de redes neurais artificiais para a classificação de sinais cerebrais em alcoólicos e não alcoólicos. Os resultados do trabalho mostraram que foi possível separar o grupo de sujeitos alcoólicos e não alcoólicos com base em seus ERPs.
|
|
7
|
-
FRANCINETE FURTADO DA CUNHA
-
DIRETRIZES PARA O DESENHO UNIVERSAL EM JOGOS EDUCACIONAIS DO TIPO “ROLE PLAY GAME” (RPG)
-
Orientador : JULIANA CRISTINA BRAGA
-
Data: 16/05/2022
-
-
Mostrar Resumo
-
A exclusão por insuficiência de acessibilidade se reflete em diversas áreas da tecnologia, dentre elas Jogos Educacionais Digitais (JED). O jogo, por seu caráter divertido, tem sido cada vez mais utilizado como tecnologia de apoio ao processo de aprendizagem. No entanto, nesses casos, JEDs não acessíveis podem levar não somente a exclusão digital, mas também educacional. A literatura mostra que existem jogos que fornecem acessibilidade específica para um determinado tipo de usuário, mas há poucos relatos de um único jogo desenvolvido para um maior número de usuário, em outras palavras há poucos relatos de jogos que foram desenvolvidos sob a perspectiva do Desenho Universal (DU). Parte dessa lacuna pode ser atribuída à complexidade que envolve o desenho universal de um jogo o que é agravado pela ausência de diretrizes específicas para projetar jogos digitais para o DU. Diante desse contexto, este trabalho propõe um conjunto de recomendações para o desenho universal de um jogo educacional digital do tipo RPG. Para alcançar esse fim, foi realizado um estudo de campo, em que dados foram coletados por observação direta durante o projeto e desenvolvimento do jogo "Expedição Antártica". Durante o estudo de campo, testes de jogabilidade, usabilidade e acessibilidade foram realizados com 10 usuários, dentre eles: pessoas sem deficiência, surdos, pessoas com deficiência visual e cognitiva. Os resultados alcançados, propõe requisitos de acessibilidade baseados em DU abrangendo três perspectivas do design de jogos: interface de usuário, narrativa e mecânica. Espera-se dessa maneira, colaborar para que mais o jogos possam ser utilizados na educação universal e inclusiva.
-
Mostrar Abstract
-
A exclusão por insuficiência de acessibilidade se reflete em diversas áreas da tecnologia, dentre elas Jogos Educacionais Digitais (JED). O jogo, por seu caráter divertido, tem sido cada vez mais utilizado como tecnologia de apoio ao processo de aprendizagem. No entanto, nesses casos, JEDs não acessíveis podem levar não somente a exclusão digital, mas também educacional. A literatura mostra que existem jogos que fornecem acessibilidade específica para um determinado tipo de usuário, mas há poucos relatos de um único jogo desenvolvido para um maior número de usuário, em outras palavras há poucos relatos de jogos que foram desenvolvidos sob a perspectiva do Desenho Universal (DU). Parte dessa lacuna pode ser atribuída à complexidade que envolve o desenho universal de um jogo o que é agravado pela ausência de diretrizes específicas para projetar jogos digitais para o DU. Diante desse contexto, este trabalho propõe um conjunto de recomendações para o desenho universal de um jogo educacional digital do tipo RPG. Para alcançar esse fim, foi realizado um estudo de campo, em que dados foram coletados por observação direta durante o projeto e desenvolvimento do jogo "Expedição Antártica". Durante o estudo de campo, testes de jogabilidade, usabilidade e acessibilidade foram realizados com 10 usuários, dentre eles: pessoas sem deficiência, surdos, pessoas com deficiência visual e cognitiva. Os resultados alcançados, propõe requisitos de acessibilidade baseados em DU abrangendo três perspectivas do design de jogos: interface de usuário, narrativa e mecânica. Espera-se dessa maneira, colaborar para que mais o jogos possam ser utilizados na educação universal e inclusiva.
|
|
8
|
-
JOÃO CARLOS LIMA E SILVA
-
APLICAÇÃO DE ESTRATÉGIAS DE GAMIFICAÇÃO NO PROCESSO DE AVALIAÇÃO DA APRENDIZAGEM: PESQUISA-AÇÃO E CRIAÇÃO DE UM SISTEMA GAMIFICADO.
-
Orientador : CARLA LOPES RODRIGUEZ
-
Data: 28/06/2022
-
-
Mostrar Resumo
-
A avaliação da aprendizagem representa um grande desafio no contexto educacional. Muitos alunos apresentam uma repulsa pelo momento da avaliação. Muitas vezes o processo de avaliação é entendido apenas como classificatório ou punitivo. Diversas aplicações gamificadas têm sido desenvolvidas para melhorar o engajamento dos alunos, porém ainda são poucas as aplicações da gamificação no processo de avaliação. Nesse contexto, esta pesquisa tem como principal objetivo propor, implementar e testar um sistema gamificado de apoio ao processo da avaliação da aprendizagem, que utiliza elementos da gamificação como instrumentos de avaliação da aprendizagem, por meio de uma pesquisa-ação. Na pesquisa-ação, o sistema foi usado na gamificação do processo educacional em duas turmas de Ensino Médio integrado ao Técnico, com um total de 71 alunos. A pesquisa foi realizada em três cenários distintos. O primeiro sem nenhum elemento de gamificação, o segundo com a gamificação da avaliação e o terceiro com a gamificação das aulas e da avaliação. Em cada um dos cenários foram coletados dados para análise, como por exemplo, quantidade de entregas e engajamento. Verificou-se benefícios do uso da gamificação, como transparência dos resultados, velocidade de feedback e melhora na autonomia dos alunos. Os dados coletados também indicam um aumento na quantidade de entregas de atividades da disciplina.
-
Mostrar Abstract
-
A avaliação da aprendizagem representa um grande desafio no contexto educacional. Muitos alunos apresentam uma repulsa pelo momento da avaliação. Muitas vezes o processo de avaliação é entendido apenas como classificatório ou punitivo. Diversas aplicações gamificadas têm sido desenvolvidas para melhorar o engajamento dos alunos, porém ainda são poucas as aplicações da gamificação no processo de avaliação. Nesse contexto, esta pesquisa tem como principal objetivo propor, implementar e testar um sistema gamificado de apoio ao processo da avaliação da aprendizagem, que utiliza elementos da gamificação como instrumentos de avaliação da aprendizagem, por meio de uma pesquisa-ação. Na pesquisa-ação, o sistema foi usado na gamificação do processo educacional em duas turmas de Ensino Médio integrado ao Técnico, com um total de 71 alunos. A pesquisa foi realizada em três cenários distintos. O primeiro sem nenhum elemento de gamificação, o segundo com a gamificação da avaliação e o terceiro com a gamificação das aulas e da avaliação. Em cada um dos cenários foram coletados dados para análise, como por exemplo, quantidade de entregas e engajamento. Verificou-se benefícios do uso da gamificação, como transparência dos resultados, velocidade de feedback e melhora na autonomia dos alunos. Os dados coletados também indicam um aumento na quantidade de entregas de atividades da disciplina.
|
|
9
|
-
LUCAS HECK DOS SANTOS
-
Uso de Redes Adversárias Generativas em Sistemas de Interface Cérebro-Computador
-
Orientador : DENIS GUSTAVO FANTINATO
-
Data: 25/07/2022
-
-
Mostrar Resumo
-
Sistemas de Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface) têm sido foco de atenção devido a suas possíveis aplicações no campo medicinal e de entretenimento. Para estas tarefas, usualmente, é feita a classificação dos sinais ligados à atividade cerebral. Porém esses sinais possuem alta complexidade e estão sujeitos a ruídos, agravados pelo equipamento de medida. Redes de aprendizagem profunda vêm sendo utilizadas recentemente como forma de interpretar os sinais sem necessidade de ajuste manual de parâmetros. Nesse contexto, as Redes Neurais Convolucionais apresentam resultados muito interessantes, tanto em paradigmas de BCI de atenção seletiva quanto de imagética motora, ao superarem em acurácia os métodos tradicionais. No entanto, essas novas soluções têm dificuldades de convergência devido a escassez de dados disponíveis para treinamento. Neste trabalho fazemos o uso da Rede Adversária Generativa (GAN, do inglês Generative Adversarial Network) para produção de sinais artificiais com o objetivo de melhorar o treinamento da rede convolucional. Comparamos a GAN com aumento de dados via adição de ruído gaussiano, técnica de maior simplicidade. Buscamos ainda fazer o mapeamento dos sinais cerebrais em imagens, pois essas redes têm um potencial maior com dados multidimensionais. Os resultados dos experimentos demonstram que há melhora na acurácia com a introdução da GAN, porém com um ganho de cerca de 2% nos melhores casos com série temporal e codificada como imagem. Por outro lado, com aumento de dados via ruído obteve-se ganhos de até 5% no caso temporal e 2% com imagem.
-
Mostrar Abstract
-
Sistemas de Interface Cérebro-Computador (BCI, do inglês Brain-Computer Interface) têm sido foco de atenção devido a suas possíveis aplicações no campo medicinal e de entretenimento. Para estas tarefas, usualmente, é feita a classificação dos sinais ligados à atividade cerebral. Porém esses sinais possuem alta complexidade e estão sujeitos a ruídos, agravados pelo equipamento de medida. Redes de aprendizagem profunda vêm sendo utilizadas recentemente como forma de interpretar os sinais sem necessidade de ajuste manual de parâmetros. Nesse contexto, as Redes Neurais Convolucionais apresentam resultados muito interessantes, tanto em paradigmas de BCI de atenção seletiva quanto de imagética motora, ao superarem em acurácia os métodos tradicionais. No entanto, essas novas soluções têm dificuldades de convergência devido a escassez de dados disponíveis para treinamento. Neste trabalho fazemos o uso da Rede Adversária Generativa (GAN, do inglês Generative Adversarial Network) para produção de sinais artificiais com o objetivo de melhorar o treinamento da rede convolucional. Comparamos a GAN com aumento de dados via adição de ruído gaussiano, técnica de maior simplicidade. Buscamos ainda fazer o mapeamento dos sinais cerebrais em imagens, pois essas redes têm um potencial maior com dados multidimensionais. Os resultados dos experimentos demonstram que há melhora na acurácia com a introdução da GAN, porém com um ganho de cerca de 2% nos melhores casos com série temporal e codificada como imagem. Por outro lado, com aumento de dados via ruído obteve-se ganhos de até 5% no caso temporal e 2% com imagem.
|
|
10
|
-
GILLIARD CUSTÓDIO
-
Predição de umidade de solo como séries temporais: um comporativo entre técnicas estatísticas e aprendizado de máquina
-
Orientador : RONALDO CRISTIANO PRATI
-
Data: 28/07/2022
-
-
Mostrar Resumo
-
A gestão adequada do recurso hídrico no Brasil é uma demanda de interesse público. Dentre os principais consumidores do recurso hídrico potável destaca-se o processo de irrigação de cultivos agrícolas que é responsável pelo consumo de aproximadamente 50\% de toda água potável utilizada em um ano. É estimado que 60\% do recurso hídrico utilizado no processo de irrigação é desperdiçado. Logo, é fundamental que o processo de irrigação seja aprimorado. Para minimizar o desperdício de água no processo de irrigação o projeto Plataforma de Gerenciamento Inteligente de Água (SWAMP) propõe utilizar a tecnologia como aliada para gestão eficiente do processo. O gerenciamento do processo de irrigação tem como pré-requisito a estimativa da necessidade de água para o solo. Neste trabalho foi explorado técnicas de modelagem de série temporal multivariada para predição da umidade do solo. A umidade do solo é uma variável de interesse da plataforma SWAMP para o cálculo da necessidade de água que deve ser fornecida ao solo. Para isso, foi utilizado dados históricos de um período de dois anos com múltiplas componentes, como, umidade e temperatura do solo, por exemplo. Foram avaliados algoritmos de aprendizado de máquina, aprendizado profundo e uma técnica estatística tradicional foi utilizada como referência. Os algoritmos de aprendizado de máquina avaliados foram o \textit{Extreme Gradient Boosting} e \textit{Random Forest}. A arquitetura de rede neural \textit{Spectral Temporal Graph Neural Network} (StemGNN) foi o algoritmo de aprendizado profundo avaliado. E o \textit{Vector Autoregression}, foi utilizado como referência de desempenho esperado na predição da umidade do solo. Os experimentos preliminares mostram que o algoritmo \textit{Random Forest} foi o mais eficiente no processo de predição da umidade do solo e gerou o modelo com a melhor estabilidade nas predições do período avaliado. Além disso, foi observado que a StemGNN não foi capaz de superar o modelo referência na maioria dos cenários de modelagem.
-
Mostrar Abstract
-
A gestão adequada do recurso hídrico no Brasil é uma demanda de interesse público. Dentre os principais consumidores do recurso hídrico potável destaca-se o processo de irrigação de cultivos agrícolas que é responsável pelo consumo de aproximadamente 50\% de toda água potável utilizada em um ano. É estimado que 60\% do recurso hídrico utilizado no processo de irrigação é desperdiçado. Logo, é fundamental que o processo de irrigação seja aprimorado. Para minimizar o desperdício de água no processo de irrigação o projeto Plataforma de Gerenciamento Inteligente de Água (SWAMP) propõe utilizar a tecnologia como aliada para gestão eficiente do processo. O gerenciamento do processo de irrigação tem como pré-requisito a estimativa da necessidade de água para o solo. Neste trabalho foi explorado técnicas de modelagem de série temporal multivariada para predição da umidade do solo. A umidade do solo é uma variável de interesse da plataforma SWAMP para o cálculo da necessidade de água que deve ser fornecida ao solo. Para isso, foi utilizado dados históricos de um período de dois anos com múltiplas componentes, como, umidade e temperatura do solo, por exemplo. Foram avaliados algoritmos de aprendizado de máquina, aprendizado profundo e uma técnica estatística tradicional foi utilizada como referência. Os algoritmos de aprendizado de máquina avaliados foram o \textit{Extreme Gradient Boosting} e \textit{Random Forest}. A arquitetura de rede neural \textit{Spectral Temporal Graph Neural Network} (StemGNN) foi o algoritmo de aprendizado profundo avaliado. E o \textit{Vector Autoregression}, foi utilizado como referência de desempenho esperado na predição da umidade do solo. Os experimentos preliminares mostram que o algoritmo \textit{Random Forest} foi o mais eficiente no processo de predição da umidade do solo e gerou o modelo com a melhor estabilidade nas predições do período avaliado. Além disso, foi observado que a StemGNN não foi capaz de superar o modelo referência na maioria dos cenários de modelagem.
|
|
11
|
-
KLEBER DA SILVA PIRES
-
Análise de Resposta ao Tratamento Neoadjuvante em Câncer de Mama Utilizando Redes Profundas
-
Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
-
Data: 23/08/2022
-
-
Mostrar Resumo
-
O câncer de mama é o tipo de câncer mais comum entre mulheres, e este possui a maior taxa de óbitos entre todos os tipos de câncer. O tratamento pré-cirúrgico (neoadjuvante) pode melhorar o prognóstico do paciente, porém, não é possível prever se o paciente vai responder ao tratamento. Estudos anteriores foram conduzidos para encontrar características capazes de associar o tratamento neoadjuvante à resposta do paciente, alguns utilizando radiômica convencional e outros redes convolucionais, em sua maioria utilizando bases privadas com poucos exemplos, sendo trabalhos não reprodutíveis. Neste trabalho, foi proposto um modelo de aprendizado profundo utilizando imagens e dados clínicos oriundos de uma base de dados pública (Duke Breast Cancer MRI), capaz de extrair características de imagens de ressonância magnética da mama, e associar os atributos ao prognóstico. Os 300 pacientes foram divididos entre treino/validação (90%) e teste (10%) utilizando validação cruzada de três pastas, onde cada pasta possui uma combinação diferente de pacientes, sendo $10\%$ para validação e 90% para treinamento. Utilizando análises quantitativas dos resultados gerados a partir do modelo treinado, foi concluído que o modelo proposto é capaz de classificar os pacientes com resposta completa ao tratamento neoadjuvante. Os resultados demonstraram uma acurácia superior quando comparado com o estudo de Cain et al. na mesma base de dados, AUC (area under the curve) média de 0,70 para 0,82 e acurácia média de 70% no conjunto de testes e 75% no conjunto de validação. O modelo proposto obteve resultados competitivos comparando com a literatura em bases de dados públicas, não sendo possível reproduzir por completo os trabalhos de outros autores. Tendo em vista trabalhos de radiômica convencional, os experimentos mostraram que o método de redes convolucionais profundas também é sensível aos dados. Desta forma, métodos de tratamento de imagens podem melhorar os resultados.
-
Mostrar Abstract
-
O câncer de mama é o tipo de câncer mais comum entre mulheres, e este possui a maior taxa de óbitos entre todos os tipos de câncer. O tratamento pré-cirúrgico (neoadjuvante) pode melhorar o prognóstico do paciente, porém, não é possível prever se o paciente vai responder ao tratamento. Estudos anteriores foram conduzidos para encontrar características capazes de associar o tratamento neoadjuvante à resposta do paciente, alguns utilizando radiômica convencional e outros redes convolucionais, em sua maioria utilizando bases privadas com poucos exemplos, sendo trabalhos não reprodutíveis. Neste trabalho, foi proposto um modelo de aprendizado profundo utilizando imagens e dados clínicos oriundos de uma base de dados pública (Duke Breast Cancer MRI), capaz de extrair características de imagens de ressonância magnética da mama, e associar os atributos ao prognóstico. Os 300 pacientes foram divididos entre treino/validação (90%) e teste (10%) utilizando validação cruzada de três pastas, onde cada pasta possui uma combinação diferente de pacientes, sendo $10\%$ para validação e 90% para treinamento. Utilizando análises quantitativas dos resultados gerados a partir do modelo treinado, foi concluído que o modelo proposto é capaz de classificar os pacientes com resposta completa ao tratamento neoadjuvante. Os resultados demonstraram uma acurácia superior quando comparado com o estudo de Cain et al. na mesma base de dados, AUC (area under the curve) média de 0,70 para 0,82 e acurácia média de 70% no conjunto de testes e 75% no conjunto de validação. O modelo proposto obteve resultados competitivos comparando com a literatura em bases de dados públicas, não sendo possível reproduzir por completo os trabalhos de outros autores. Tendo em vista trabalhos de radiômica convencional, os experimentos mostraram que o método de redes convolucionais profundas também é sensível aos dados. Desta forma, métodos de tratamento de imagens podem melhorar os resultados.
|
|
12
|
-
FRANCIS BORGES OLIVEIRA
-
Estratégias de Implantação de Aplicações em Infraestruturas Distribuídas no Contexto da Internet das Coisas
-
Orientador : CARLOS ALBERTO KAMIENSKI
-
Data: 24/08/2022
-
-
Mostrar Resumo
-
Aplicações para a Internet das Coisas (IoT) vêm ganhando popularidade ao longo dos anos e cada vez mais é comum seu uso em diferentes segmentos como cidades inteligentes, agricultura inteligente, casa inteligente e indústrias (conhecida também como IoT industrial). Para acompanhar essa evolução, diversas tecnologias e ferramentas vêm sendo criadas para facilitar o desenvolvimento e configuração de aplicações IoT. Apesar disso, ainda não existe uma tecnologia consolidada em IoT que permite a adoção de técnicas de deployment como integração contínua e entrega contínua (CI/CD) que são técnicas utilizadas com sucesso em aplicações web. Uma outra característica comum é que muitas aplicações IoT são constituídas de serviços executados em ambientes heterogêneos como Nuvem, Névoa e Bruma, e o deployment destes serviços em geral é feito de maneira diferente para cada ambiente e de forma estática (um serviço executado na Névoa não pode ser movido para a Nuvem por exemplo).
O objetivo deste trabalho é propor uma solução para realizar o deployment estático, e também dinâmico, dos serviços que compõem um sistema IoT, através da utilização de containers e de um orquestrador de containers para controle e coordenação dos serviços. Para estender a orquestração de containers a borda da rede, adicionamos um novo componente que será responsável por cuidar da comunicação e gerenciamento dos containers que são executados fora da Nuvem. Para efetuar o deployment e garantir que todos os serviços sejam executados no ambiente correto, é apresentado um plugin criado para ser adicionado a uma ferramenta de CI/CD, possibilitando dessa forma se comunicar com o orquestrador de containers via API, seguindo uma configuração pré-estabelecida. O experimento apresenta resultados interessantes, demonstrando que o deployment em ambientes distribuídos é confiável e resiliente, até mesmo em cenários no qual é preciso realizar migração de dados sem interromper o funcionamento da aplicação.
-
Mostrar Abstract
-
Aplicações para a Internet das Coisas (IoT) vêm ganhando popularidade ao longo dos anos e cada vez mais é comum seu uso em diferentes segmentos como cidades inteligentes, agricultura inteligente, casa inteligente e indústrias (conhecida também como IoT industrial). Para acompanhar essa evolução, diversas tecnologias e ferramentas vêm sendo criadas para facilitar o desenvolvimento e configuração de aplicações IoT. Apesar disso, ainda não existe uma tecnologia consolidada em IoT que permite a adoção de técnicas de deployment como integração contínua e entrega contínua (CI/CD) que são técnicas utilizadas com sucesso em aplicações web. Uma outra característica comum é que muitas aplicações IoT são constituídas de serviços executados em ambientes heterogêneos como Nuvem, Névoa e Bruma, e o deployment destes serviços em geral é feito de maneira diferente para cada ambiente e de forma estática (um serviço executado na Névoa não pode ser movido para a Nuvem por exemplo).
O objetivo deste trabalho é propor uma solução para realizar o deployment estático, e também dinâmico, dos serviços que compõem um sistema IoT, através da utilização de containers e de um orquestrador de containers para controle e coordenação dos serviços. Para estender a orquestração de containers a borda da rede, adicionamos um novo componente que será responsável por cuidar da comunicação e gerenciamento dos containers que são executados fora da Nuvem. Para efetuar o deployment e garantir que todos os serviços sejam executados no ambiente correto, é apresentado um plugin criado para ser adicionado a uma ferramenta de CI/CD, possibilitando dessa forma se comunicar com o orquestrador de containers via API, seguindo uma configuração pré-estabelecida. O experimento apresenta resultados interessantes, demonstrando que o deployment em ambientes distribuídos é confiável e resiliente, até mesmo em cenários no qual é preciso realizar migração de dados sem interromper o funcionamento da aplicação.
|
|
13
|
-
FERNANDA BORGES DA SILVA
-
Ensembles de classificadores por meio de Algoritmos Evolutivos
-
Orientador : THIAGO FERREIRA COVOES
-
Data: 30/08/2022
-
-
Mostrar Resumo
-
A eficácia de um ensemble de classificadores depende da seleção de modelos de classificação que sejam acurados e diversos, ou seja, que cometam erros diferentes, para comporem o comitê. Entretanto, realizar a seleção dos hiperparâmetros dos classificadores garantindo diversidade e eficácia é um problema computacionalmente caro, uma vez que o espaço de busca é muito amplo. Os Algoritmos Evolutivos são meta-heurísticas que se mostraram efetivas em problemas NP-difíceis. Uma das vantagens desses algoritmos, em relação a métodos de busca tradicionais, é que eles possuem menor propensão a ficarem presos em ótimos locais; isso se deve principalmente ao fato de processarem um conjunto de soluções (população) em vez de apenas uma solução. Além disso, existem Algoritmos Evolutivos que fazem uma busca por diversidade, cuja seleção dos indivíduos para compor a próxima geração é feita considerando a dissimilaridade entre os membros da população. Dadas essas características, a utilização de Algoritmos Evolutivos para buscar diversidade é uma abordagem apropriada para a otimização da construção de ensembles. Portanto, um Algoritmo Evolutivo chamado Diversity-based Classifier Ensemble (DCE), que incentiva a seleção de classificadores diversos para comporem o comitê, foi desenvolvido nessa dissertação. Entretanto, a execução desse Algoritmo Evolutivo para criar ensembles consome uma grande quantidade de processamento e memória. Por esse motivo, o Algoritmo Evolutivo paralelo chamado Parallel Diversity-based Classifier Ensemble (P-DCE) também foi desenvolvido utilizando a técnica global parallelisation model para distribuir o custo computacional entre diversas CPUs. Com esse mesmo objetivo de explorar a busca por diversidade entre os classificadores do comitê e a distribuição do custo computacional entre diversas CPUs, também propomos nesta dissertação os algoritmos Island Diversity-based Classifier Ensemble (IDCE) e Island Classifier Ensemble (ICE), que são baseados no modelo de ilhas, que é um tipo de Algoritmo Evolutivo paralelo. Os resultados obtidos a partir dos experimentos computacionais realizados indicam que os algoritmos propostos são ferramentas úteis quando comparadas com a estratégia de busca aleatória para a resolução do problema de otimização de ensembles de classificadores. Mais precisamente, os algoritmos DCE e IDCE se mostrarem promissores para encontrar ensembles com acurácias satisfatórias em tempo competitivo com a abordagem de busca aleatória. O algoritmo ICE apresentou resultados melhores do que os apresentados pela abordagem de busca aleatória e pelos algoritmos DCE e IDCE. Por último, também foi possível concluir que conforme o paralelismo aumenta o tempo de execução do P-DCE diminui.
-
Mostrar Abstract
-
A eficácia de um ensemble de classificadores depende da seleção de modelos de classificação que sejam acurados e diversos, ou seja, que cometam erros diferentes, para comporem o comitê. Entretanto, realizar a seleção dos hiperparâmetros dos classificadores garantindo diversidade e eficácia é um problema computacionalmente caro, uma vez que o espaço de busca é muito amplo. Os Algoritmos Evolutivos são meta-heurísticas que se mostraram efetivas em problemas NP-difíceis. Uma das vantagens desses algoritmos, em relação a métodos de busca tradicionais, é que eles possuem menor propensão a ficarem presos em ótimos locais; isso se deve principalmente ao fato de processarem um conjunto de soluções (população) em vez de apenas uma solução. Além disso, existem Algoritmos Evolutivos que fazem uma busca por diversidade, cuja seleção dos indivíduos para compor a próxima geração é feita considerando a dissimilaridade entre os membros da população. Dadas essas características, a utilização de Algoritmos Evolutivos para buscar diversidade é uma abordagem apropriada para a otimização da construção de ensembles. Portanto, um Algoritmo Evolutivo chamado Diversity-based Classifier Ensemble (DCE), que incentiva a seleção de classificadores diversos para comporem o comitê, foi desenvolvido nessa dissertação. Entretanto, a execução desse Algoritmo Evolutivo para criar ensembles consome uma grande quantidade de processamento e memória. Por esse motivo, o Algoritmo Evolutivo paralelo chamado Parallel Diversity-based Classifier Ensemble (P-DCE) também foi desenvolvido utilizando a técnica global parallelisation model para distribuir o custo computacional entre diversas CPUs. Com esse mesmo objetivo de explorar a busca por diversidade entre os classificadores do comitê e a distribuição do custo computacional entre diversas CPUs, também propomos nesta dissertação os algoritmos Island Diversity-based Classifier Ensemble (IDCE) e Island Classifier Ensemble (ICE), que são baseados no modelo de ilhas, que é um tipo de Algoritmo Evolutivo paralelo. Os resultados obtidos a partir dos experimentos computacionais realizados indicam que os algoritmos propostos são ferramentas úteis quando comparadas com a estratégia de busca aleatória para a resolução do problema de otimização de ensembles de classificadores. Mais precisamente, os algoritmos DCE e IDCE se mostrarem promissores para encontrar ensembles com acurácias satisfatórias em tempo competitivo com a abordagem de busca aleatória. O algoritmo ICE apresentou resultados melhores do que os apresentados pela abordagem de busca aleatória e pelos algoritmos DCE e IDCE. Por último, também foi possível concluir que conforme o paralelismo aumenta o tempo de execução do P-DCE diminui.
|
|
14
|
-
THIAGO COSTA RIZUTI DA ROCHA
-
Sistemas de Recomendação utilizando coagrupamento e aprendizado simultâneo evolutivo
-
Orientador : THIAGO FERREIRA COVOES
-
Data: 31/08/2022
-
-
Mostrar Resumo
-
Sistemas de Recomendação são ferramentas que auxiliam na seleção personalizada de itens de acordo com as preferências individuais dos usuários. Filmes, músicas e produtos em e-commerce são exemplos de aplicações bem conhecidas. Características comuns em dados destes domínios são a alta dimensionalidade, devido a grande quantidade de usuários e itens, e a alta esparsidade, devido ao fato de que cada usuário interage apenas com uma pequena parte dos itens. Neste cenário, obter um modelo que represente a relação de todos usuários com todos os itens se mostra uma tarefa desafiadora. Como proposto no algoritmo SCOAL (Simultaneous Co-Clustering and Learning), a segmentação dos dados e o aprendizado de modelos locais se mostra como uma boa solução. Ainda assim, o número de modelos locais é um parâmetro crítico que deve ser ajustado manualmente. A fim de otimizar a busca do melhor valor deste parâmetro, propomos uma variante baseada em Algoritmos Evolutivos, denominada Evolutionary Simultaneous Co-Clustering and Learning (EvoSCOAL). Por meio de experimentos computacionais em dados sintéticos, observamos que o EvoSCOAL pode superar a abordagem da literatura, baseada em busca por bisecção, tanto na qualidade preditiva e quanto na capacidade de estimar o valores do parâmetro. Em bases de dados reais, o EvoSCOAL se mostrou competitivo em comparação a técnicas tradicionais da literatura de sistemas de recomendação.
-
Mostrar Abstract
-
Sistemas de Recomendação são ferramentas que auxiliam na seleção personalizada de itens de acordo com as preferências individuais dos usuários. Filmes, músicas e produtos em e-commerce são exemplos de aplicações bem conhecidas. Características comuns em dados destes domínios são a alta dimensionalidade, devido a grande quantidade de usuários e itens, e a alta esparsidade, devido ao fato de que cada usuário interage apenas com uma pequena parte dos itens. Neste cenário, obter um modelo que represente a relação de todos usuários com todos os itens se mostra uma tarefa desafiadora. Como proposto no algoritmo SCOAL (Simultaneous Co-Clustering and Learning), a segmentação dos dados e o aprendizado de modelos locais se mostra como uma boa solução. Ainda assim, o número de modelos locais é um parâmetro crítico que deve ser ajustado manualmente. A fim de otimizar a busca do melhor valor deste parâmetro, propomos uma variante baseada em Algoritmos Evolutivos, denominada Evolutionary Simultaneous Co-Clustering and Learning (EvoSCOAL). Por meio de experimentos computacionais em dados sintéticos, observamos que o EvoSCOAL pode superar a abordagem da literatura, baseada em busca por bisecção, tanto na qualidade preditiva e quanto na capacidade de estimar o valores do parâmetro. Em bases de dados reais, o EvoSCOAL se mostrou competitivo em comparação a técnicas tradicionais da literatura de sistemas de recomendação.
|
|
15
|
-
JULIANE KRISTINE DE LIMA
-
Cobertura de grafos aleatórios por componentes monocromáticas
-
Orientador : GUILHERME OLIVEIRA MOTA
-
Data: 14/09/2022
-
-
Mostrar Resumo
-
Muitos problemas de particionamento e cobertura dos vértices de um grafo estão em aberto, ainda que estejam presentes na literatura há mais de 50 anos. Neste trabalho, o interesse está em determinar o menor número $t$ de componentes monocromáticas necessárias para cobrir os vértices de um grafo aleatório binomial em qualquer coloração de arestas com $r=3$ cores, propriedade denotada por $tc_r(G(n,p)) \leq t$. No caso de $G(n,p)$, em que a densidade de arestas varia em função de $p=p(n)$, o objetivo deste trabalho é investigar o valor de $p$ que caracteriza uma função limiar para a propriedade $tc_3(G(n,p)) \leq 3$. Bal e De Biasio propuseram esse problema em 2017 e, desde então, alguns trabalhos trouxeram avanços no entendimento da propriedade. Por meio da construção de um contraexemplo, Ebsen Mota e Schnitzer determinaram um limitante inferior para $tc_r(G(n,p)) \leq t$, que ocorre assintoticamente quase certamente com $p \ll \left(\frac{\log n}{n}\right)^{1/4}$. Em 2021, Brada\v{c} e Buci\'{c} determinaram como limitante superior para a mesma propriedade o valor de $p \gg \left(\frac{\log n}{n}\right)^{1/4}$, por meio de uma técnica utilizando hipergrafos $r$-uniformes auxiliares. Assim, determinou-se que a função limiar para a propriedade $tc_3(G(n,p)) \leq 3$ é $p = \left(\frac{\log n}{n}\right)^{1/4}$. Neste trabalho, apresentamos os avanços realizados ao longo do tempo, a respeito desse problema, bem como apresentamos de forma detalhada várias técnicas relevantes em Combinatória, as quais foram utilizadas para a obtenção desses avanços.
-
Mostrar Abstract
-
Muitos problemas de particionamento e cobertura dos vértices de um grafo estão em aberto, ainda que estejam presentes na literatura há mais de 50 anos. Neste trabalho, o interesse está em determinar o menor número $t$ de componentes monocromáticas necessárias para cobrir os vértices de um grafo aleatório binomial em qualquer coloração de arestas com $r=3$ cores, propriedade denotada por $tc_r(G(n,p)) \leq t$. No caso de $G(n,p)$, em que a densidade de arestas varia em função de $p=p(n)$, o objetivo deste trabalho é investigar o valor de $p$ que caracteriza uma função limiar para a propriedade $tc_3(G(n,p)) \leq 3$. Bal e De Biasio propuseram esse problema em 2017 e, desde então, alguns trabalhos trouxeram avanços no entendimento da propriedade. Por meio da construção de um contraexemplo, Ebsen Mota e Schnitzer determinaram um limitante inferior para $tc_r(G(n,p)) \leq t$, que ocorre assintoticamente quase certamente com $p \ll \left(\frac{\log n}{n}\right)^{1/4}$. Em 2021, Brada\v{c} e Buci\'{c} determinaram como limitante superior para a mesma propriedade o valor de $p \gg \left(\frac{\log n}{n}\right)^{1/4}$, por meio de uma técnica utilizando hipergrafos $r$-uniformes auxiliares. Assim, determinou-se que a função limiar para a propriedade $tc_3(G(n,p)) \leq 3$ é $p = \left(\frac{\log n}{n}\right)^{1/4}$. Neste trabalho, apresentamos os avanços realizados ao longo do tempo, a respeito desse problema, bem como apresentamos de forma detalhada várias técnicas relevantes em Combinatória, as quais foram utilizadas para a obtenção desses avanços.
|
|
16
|
-
URIEL ALEJANDRO SALAZAR MARTÍNEZ
-
Um Estudo de Versões Probabilísticas de Propriedades Tipo Ramsey e Variantes
-
Orientador : GUILHERME OLIVEIRA MOTA
-
Data: 19/09/2022
-
-
Mostrar Resumo
-
Um dos maiores problemas em aberto em Combinatória pertence à Teoria de Ramsey. Nesta Teoria, por exemplo, temos interesse em determinar valores $n=n(k)$ tais que toda $2$-coloração das arestas do grafo completo $K_{n}$ contém uma cópia monocromática de $K_{k}$. Uma abordagem semelhante, em grafos aleatórios, pretende determinar valores de $p$ tais que toda coloração das arestas de $G(n,p)$ com $r$ cores contém uma cópia monocromática de um grafo fixo $H$. Algumas generalizações naturais dessa propriedade são a Teoria anti-Ramsey, onde queremos encontrar uma cópia \rainbow\ de um dado grafo $H$, ou podemos também combinar ambas as noções da Teoria de Ramsey e da Teoria anti-Ramsey. Em grafos aleatórios existe um fenômeno, conhecido como função limiar, caracterizado pela mudança abrupta, ao variar o valor $p$, da probabilidade de $G(n,p)$ satisfazer ou não certa propriedade. Um resultado clássico de Bollobás e Thomason garante que as propriedades do tipo Ramsey admitem uma função limiar, pois elas pertencem a uma família especial de propriedades, chamadas de propriedades crescentes. Neste trabalho serão estudadas algumas variantes das versões probabilísticas para as propriedades do tipo Ramsey, anti-Ramsey e generalizações, bem como os avanços feitos a respeito da determinação dos limiares para cada uma delas.
-
Mostrar Abstract
-
Um dos maiores problemas em aberto em Combinatória pertence à Teoria de Ramsey. Nesta Teoria, por exemplo, temos interesse em determinar valores $n=n(k)$ tais que toda $2$-coloração das arestas do grafo completo $K_{n}$ contém uma cópia monocromática de $K_{k}$. Uma abordagem semelhante, em grafos aleatórios, pretende determinar valores de $p$ tais que toda coloração das arestas de $G(n,p)$ com $r$ cores contém uma cópia monocromática de um grafo fixo $H$. Algumas generalizações naturais dessa propriedade são a Teoria anti-Ramsey, onde queremos encontrar uma cópia \rainbow\ de um dado grafo $H$, ou podemos também combinar ambas as noções da Teoria de Ramsey e da Teoria anti-Ramsey. Em grafos aleatórios existe um fenômeno, conhecido como função limiar, caracterizado pela mudança abrupta, ao variar o valor $p$, da probabilidade de $G(n,p)$ satisfazer ou não certa propriedade. Um resultado clássico de Bollobás e Thomason garante que as propriedades do tipo Ramsey admitem uma função limiar, pois elas pertencem a uma família especial de propriedades, chamadas de propriedades crescentes. Neste trabalho serão estudadas algumas variantes das versões probabilísticas para as propriedades do tipo Ramsey, anti-Ramsey e generalizações, bem como os avanços feitos a respeito da determinação dos limiares para cada uma delas.
|
|
17
|
-
GUSTAVO ROMAO GONZALES
-
Taxonomia de Arquiteturas de Sistemas de Apoio à Decisão baseada em Visual Analytics
-
Orientador : FLAVIO EDUARDO AOKI HORITA
-
Data: 21/10/2022
-
-
Mostrar Resumo
-
Vivemos na era da informação, em que a descoberta de novas oportunidades se dá por meio dos dados produzidos diariamente na Internet. Estes dados produzidos em escala exponencial criou novas áreas de pesquisa como o Big Data, a Internet das Coisas (IoT) entre outras. Uma classe de sistemas que tem utilizado o apoio dos dados em suas operações é o Sistema de Apoio à Decisão (SAD). Os SAD são genericamente falando, qualquer sistema que utilize dados no apoio de uma tomada de decisão. Atualmente, SAD se tornou uma área própria, tendo suas definições sólidas na literatura Os Sistemas de Apoio à Decisão (SAD) estão crescendo ao longo dos anos. Dentro da necessidade pelas informações, os SAD estão aproveitando o aumento do acesso à Internet e uso de dispositivos eletrônicos como meios de produção massiva de dados. Este grande volumes de dados (Big Data) para processamento torna o mercado mais competitivo e faz com que a tomada de decisão deva ser cada vez mais assertiva. Neste sentido, o Visual Analytics (VA) emerge como meio para permitir uma melhor utilização e exploração nestes volumes de dados através do poder computacional, alta interatividade e do pensamento humano. Embora o VA já tenha apresentado suas vantagens em SAD, sua implementação não é uma tarefa trivial, carecendo atualmente de métodos de implementação e avaliação. A literatura aponta padrões de desenvolvimento para ferramentas de visualização, indicando estruturas para suporte à exploração de dados, integração de novas técnicas de visualização entre outras. Enquanto que a área de VA apresenta escassez de referenciais teóricos descricionários. O presente trabalho tem como principal objetivo apresentar uma taxonomia de arquiteturas de SAD focada em VA, para isso, o projeto se dividiu em duas principais tarefas: a) Revisão da literatura por meio de um mapeamento sistemático, onde foram identificadas as principais lacunas da área de pesquisa; b) Desenvolvimento e Avaliação da taxonomia. As metodologias, bem como suas fases e seus resultados serão discutidos no decorrer do trabalho. Como principais resultados e contribuições deste trabalho, a taxonomia foi capaz de identificar os aspectos arquiteturais para implementação do VA dentro de uma arquitetura de SAD. Estes aspectos arquiteturais apresentam variações de implementação e podem apoiar na concepção de arquiteturas que implementam VA, indicando por exemplo quais aspectos podem ser considerados na arquitetura.
-
Mostrar Abstract
-
Vivemos na era da informação, em que a descoberta de novas oportunidades se dá por meio dos dados produzidos diariamente na Internet. Estes dados produzidos em escala exponencial criou novas áreas de pesquisa como o Big Data, a Internet das Coisas (IoT) entre outras. Uma classe de sistemas que tem utilizado o apoio dos dados em suas operações é o Sistema de Apoio à Decisão (SAD). Os SAD são genericamente falando, qualquer sistema que utilize dados no apoio de uma tomada de decisão. Atualmente, SAD se tornou uma área própria, tendo suas definições sólidas na literatura Os Sistemas de Apoio à Decisão (SAD) estão crescendo ao longo dos anos. Dentro da necessidade pelas informações, os SAD estão aproveitando o aumento do acesso à Internet e uso de dispositivos eletrônicos como meios de produção massiva de dados. Este grande volumes de dados (Big Data) para processamento torna o mercado mais competitivo e faz com que a tomada de decisão deva ser cada vez mais assertiva. Neste sentido, o Visual Analytics (VA) emerge como meio para permitir uma melhor utilização e exploração nestes volumes de dados através do poder computacional, alta interatividade e do pensamento humano. Embora o VA já tenha apresentado suas vantagens em SAD, sua implementação não é uma tarefa trivial, carecendo atualmente de métodos de implementação e avaliação. A literatura aponta padrões de desenvolvimento para ferramentas de visualização, indicando estruturas para suporte à exploração de dados, integração de novas técnicas de visualização entre outras. Enquanto que a área de VA apresenta escassez de referenciais teóricos descricionários. O presente trabalho tem como principal objetivo apresentar uma taxonomia de arquiteturas de SAD focada em VA, para isso, o projeto se dividiu em duas principais tarefas: a) Revisão da literatura por meio de um mapeamento sistemático, onde foram identificadas as principais lacunas da área de pesquisa; b) Desenvolvimento e Avaliação da taxonomia. As metodologias, bem como suas fases e seus resultados serão discutidos no decorrer do trabalho. Como principais resultados e contribuições deste trabalho, a taxonomia foi capaz de identificar os aspectos arquiteturais para implementação do VA dentro de uma arquitetura de SAD. Estes aspectos arquiteturais apresentam variações de implementação e podem apoiar na concepção de arquiteturas que implementam VA, indicando por exemplo quais aspectos podem ser considerados na arquitetura.
|
|
18
|
-
RENAN DA SILVA MARQUES
-
Um Conjunto de Instruções para Elaborar uma Estratégia de Transformação Digital: Um plano abrangente para diferentes contextos
-
Orientador : FLAVIO EDUARDO AOKI HORITA
-
Data: 27/10/2022
-
-
Mostrar Resumo
-
Diferentes organizações estão sendo pressionadas a modernizar seu modelo de negócio, deparando-se com a importância de elaborar uma boa estratégia de transformação digital. Apesar disso, a área ainda é considerada imatura, tendo uma literatura composta por diretrizes em âmbitos reduzidos, e que não abrangem diferentes organizações. Neste contexto, apesar de diretrizes já identificadas na literatura, as mesmas não são consideradas diretrizes absolutas, o que pode dificultar a identificação de diretrizes, e consequentemente a elaboração de uma estratégia. Deste modo, este trabalho tem o objetivo de disponibilizar uma metodologia que possibilite o desenvolvimento de uma estratégia de transformação digital em diferentes contextos. Para tal, foi realizada uma busca na literatura com o intuito de encontrar mecanismos para elaborar estratégias de transformação digital, incluindo suas respectivas etapas e as dificuldades no processo de transformação. Posteriormente, baseando na literatura, foi realizada a aplicação dos meios identificados em voluntários de diferentes organizações, de modo a averiguar e observar os resultados das diretrizes existentes. Em suma, por meio da análise dos resultados, comentários e desafios relatados na literatura, foi elaborado um conjunto de instruções, compilando todos os passos adaptados e ampliados, que ficará à disposição de qualquer gestor ou organização interessada. Por fim, trabalhos relacionados sugerem diretrizes por meio de relatos das organizações que tiveram sucesso no processo de transformação, não cobrindo desta maneira diferentes categorias de organizações como, por exemplo, em cenários acadêmicos ou organizações sem fins lucrativos. Este trabalho amplia o alcance das diretrizes para elaborar uma estratégia de transformação digital por meio de uma metodologia.
-
Mostrar Abstract
-
Diferentes organizações estão sendo pressionadas a modernizar seu modelo de negócio, deparando-se com a importância de elaborar uma boa estratégia de transformação digital. Apesar disso, a área ainda é considerada imatura, tendo uma literatura composta por diretrizes em âmbitos reduzidos, e que não abrangem diferentes organizações. Neste contexto, apesar de diretrizes já identificadas na literatura, as mesmas não são consideradas diretrizes absolutas, o que pode dificultar a identificação de diretrizes, e consequentemente a elaboração de uma estratégia. Deste modo, este trabalho tem o objetivo de disponibilizar uma metodologia que possibilite o desenvolvimento de uma estratégia de transformação digital em diferentes contextos. Para tal, foi realizada uma busca na literatura com o intuito de encontrar mecanismos para elaborar estratégias de transformação digital, incluindo suas respectivas etapas e as dificuldades no processo de transformação. Posteriormente, baseando na literatura, foi realizada a aplicação dos meios identificados em voluntários de diferentes organizações, de modo a averiguar e observar os resultados das diretrizes existentes. Em suma, por meio da análise dos resultados, comentários e desafios relatados na literatura, foi elaborado um conjunto de instruções, compilando todos os passos adaptados e ampliados, que ficará à disposição de qualquer gestor ou organização interessada. Por fim, trabalhos relacionados sugerem diretrizes por meio de relatos das organizações que tiveram sucesso no processo de transformação, não cobrindo desta maneira diferentes categorias de organizações como, por exemplo, em cenários acadêmicos ou organizações sem fins lucrativos. Este trabalho amplia o alcance das diretrizes para elaborar uma estratégia de transformação digital por meio de uma metodologia.
|
|
19
|
-
POLIANA NASCIMENTO FERREIRA
-
Reconhecimento de Atividades Humanas (HAR) com Crianças em Contexto Educacional.
-
Orientador : CARLA LOPES RODRIGUEZ
-
Data: 23/11/2022
-
-
Mostrar Resumo
-
A observação objetiva do comportamento de uma criança em sala de aula pode ser feita utilizando sensores de movimento, podendo gerar informações sobre nível de agitação, concentração e engajamento. O reconhecimento de atividades humanas (HAR), unido a sensores wearables com acelerômetros, têm auxiliado na captação objetiva e análise sobre a movimentação e comportamento dos indivíduos. Entretanto, em se tratando de um contexto aplicado de sala de aula e com público infantil, ainda há algumas limitações: a falta de bases de dados no contexto, a diferença na expressão das atividades por adultos e crianças, e de cada criança entre si. Assim, faz-se necessária a exploração do HAR no contexto proposto, considerando também dimensões motora e afetiva do aluno. Através de um estudo de caso em campo, foi realizada uma coleta de dados com sensores vestíveis inerciais das atividades de duas turmas do segundo ano do Ensino Fundamental, considerando o momento da aula, nível de atenção e atividades de cada aluno.Espera-se criar uma base de dados pública para mais estudos sobre o tema, realizar a classificação das atividades dos alunos em aula e entender a rotina escolar dos voluntários do estudo no cenário de pandemia.
-
Mostrar Abstract
-
A observação objetiva do comportamento de uma criança em sala de aula pode ser feita utilizando sensores de movimento, podendo gerar informações sobre nível de agitação, concentração e engajamento. O reconhecimento de atividades humanas (HAR), unido a sensores wearables com acelerômetros, têm auxiliado na captação objetiva e análise sobre a movimentação e comportamento dos indivíduos. Entretanto, em se tratando de um contexto aplicado de sala de aula e com público infantil, ainda há algumas limitações: a falta de bases de dados no contexto, a diferença na expressão das atividades por adultos e crianças, e de cada criança entre si. Assim, faz-se necessária a exploração do HAR no contexto proposto, considerando também dimensões motora e afetiva do aluno. Através de um estudo de caso em campo, foi realizada uma coleta de dados com sensores vestíveis inerciais das atividades de duas turmas do segundo ano do Ensino Fundamental, considerando o momento da aula, nível de atenção e atividades de cada aluno.Espera-se criar uma base de dados pública para mais estudos sobre o tema, realizar a classificação das atividades dos alunos em aula e entender a rotina escolar dos voluntários do estudo no cenário de pandemia.
|
|
20
|
-
LUCAS VIEIRA DE OLIVEIRA
-
Comparação Experimental de Critérios para Adaptação de Granularidade em Provas Matemáticas.
-
Orientador : EDSON PINHEIRO PIMENTEL
-
Data: 28/11/2022
-
-
Mostrar Resumo
-
Sistemas formais de demonstração matemática têm papel fundamental no aprimoramento e desenvolvimento de novas demonstrações. Além disso, os métodos e estruturas envolvidos em sistemas formais têm o potencial de apoiar o desenvolvimento de sistemas de tutoria para o aprendizado de demonstrações, o que já tem sido feito por diversos trabalhos. No entanto, o fato destes sistemas formais não terem objetivos pedagógicos como motivação principal, traz alguns obstáculos para o seu uso em um contexto de ensino. Um desses problemas é a granularidade, ou seja, o nível de detalhes em que uma demonstração é apresentada. Provas apresentadas dentro de sistemas formais necessitam que todos os passos sejam deduzidos explicitamente, dificultando sua interpretação, já que mesmo inferências consideradas óbvias para determinadas audiências devem ser exibidas, o que em alguns casos deixa a prova excessivamente longa. Adaptar a apresentação de uma prova formal para que inferências óbvias sejam omitidas, como na apresentação de provas matemáticas em linguagem natural, não é uma tarefa trivial, já que a princípio não existem padrões claros que possam ser utilizados para este fim. Alguns trabalhos têm estudado esse problema nas últimas décadas, no entanto, vários deles utilizando representações e dados diferentes. Essa fragmentação dificulta que avanços na área sejam pesquisados, já que impede a comparação direta dos diferentes métodos utilizados e sua comparação com possíveis novos métodos. Assim, o objetivo dessa pesquisa é comparar diferentes métodos de adaptação de granularidade de provas matemáticas em torno de uma mesma representação e mesmo conjunto de dados, a fim de identificar quais padrões são mais efetivos. Além da comparação de métodos já propostos em outros trabalhos, também é feita uma prova de conceito utilizando aprendizagem de máquina como contribuição para o avanço da área.
-
Mostrar Abstract
-
Sistemas formais de demonstração matemática têm papel fundamental no aprimoramento e desenvolvimento de novas demonstrações. Além disso, os métodos e estruturas envolvidos em sistemas formais têm o potencial de apoiar o desenvolvimento de sistemas de tutoria para o aprendizado de demonstrações, o que já tem sido feito por diversos trabalhos. No entanto, o fato destes sistemas formais não terem objetivos pedagógicos como motivação principal, traz alguns obstáculos para o seu uso em um contexto de ensino. Um desses problemas é a granularidade, ou seja, o nível de detalhes em que uma demonstração é apresentada. Provas apresentadas dentro de sistemas formais necessitam que todos os passos sejam deduzidos explicitamente, dificultando sua interpretação, já que mesmo inferências consideradas óbvias para determinadas audiências devem ser exibidas, o que em alguns casos deixa a prova excessivamente longa. Adaptar a apresentação de uma prova formal para que inferências óbvias sejam omitidas, como na apresentação de provas matemáticas em linguagem natural, não é uma tarefa trivial, já que a princípio não existem padrões claros que possam ser utilizados para este fim. Alguns trabalhos têm estudado esse problema nas últimas décadas, no entanto, vários deles utilizando representações e dados diferentes. Essa fragmentação dificulta que avanços na área sejam pesquisados, já que impede a comparação direta dos diferentes métodos utilizados e sua comparação com possíveis novos métodos. Assim, o objetivo dessa pesquisa é comparar diferentes métodos de adaptação de granularidade de provas matemáticas em torno de uma mesma representação e mesmo conjunto de dados, a fim de identificar quais padrões são mais efetivos. Além da comparação de métodos já propostos em outros trabalhos, também é feita uma prova de conceito utilizando aprendizagem de máquina como contribuição para o avanço da área.
|
|
21
|
-
DIEGO MARTOS BUORO
-
Criação, uso e análise de um processo sistemático orientado a modelos para desenvolvimento de jogos sérios
-
Orientador : DENISE HIDEKO GOYA
-
Data: 29/11/2022
-
-
Mostrar Resumo
-
Jogos sérios são jogos produzidos com a finalidade de proporcionar o desenvolvimento de competências por meio de uma mídia interativa e não linear. Para a criação desses jogos, é necessária uma equipe multidisciplinar, com profissionais de diversas áreas, como designers, programadores, artistas e especialistas no domínio de aplicação. Uma alternativa para facilitar o desenvolvimento de novos jogos, é fornecer ao especialista interessado em criar um jogo sério as ferramentas que eliminem barreiras técnicas de programação para inserção de conteúdo por meio do desenvolvimento orientado a modelos (Model-driven Game Development - MDGD). O MDGD define que o design do jogo seja baseado em modelos de alta abstração, os quais descrevem todos os elementos do jogo final que é gerado de forma automatizada. A linguagem específica de domínio (Domain Specific Language - DSL) que acompanha o MDGD, por meio de um metamodelo, define a capacidade dos elementos e relações presentes no jogo que será criado. Entretanto, há dificuldades no uso de MDGD em jogos sérios por causa da ausência de abordagens que integrem o MDGD com os requisitos de jogos sérios e a inconsistência da participação do especialista durante o processo de produção da DSL e do jogo sério. Nesse contexto, este trabalho tem como objetivo criar um processo sistemático do MDGD para a produção de jogos sérios, nomeado como PREMISSA, e avaliá-lo por meio do desenvolvimento de uma DSL para jogos sérios, envolvendo os gêneros quiz e aventura 2D. Como prova de conceito, o PREMISSA foi usado para criar uma Linguagem de Modelagem para Jogos de Aventura e Quiz (LMJAQ). Os resultados envolveram a produção de artefatos da DSL e do jogo sério criado: documentação, verificadores de código, a própria DSL LMJAQ, e os protótipos de baixa e alta fidelidade do jogo sério, sendo o último produzido no motor de jogos Unity. Como principais contribuições, tem-se o processo PREMISSA, a DSL LMJAQ, que incluiu mais de um gênero de jogabilidade, o jogo executável gerado a partir dos modelos criados, e a prova de conceito como exemplo de uso do PREMISSA. Os trabalhos futuros envolvem a avaliação do PREMISSA por outras equipes de desenvolvimento de jogos sérios, e a criação e validação de uma ferramenta de edição que apoie o uso do PREMISSA por especialistas no domínio de aplicação.
-
Mostrar Abstract
-
Jogos sérios são jogos produzidos com a finalidade de proporcionar o desenvolvimento de competências por meio de uma mídia interativa e não linear. Para a criação desses jogos, é necessária uma equipe multidisciplinar, com profissionais de diversas áreas, como designers, programadores, artistas e especialistas no domínio de aplicação. Uma alternativa para facilitar o desenvolvimento de novos jogos, é fornecer ao especialista interessado em criar um jogo sério as ferramentas que eliminem barreiras técnicas de programação para inserção de conteúdo por meio do desenvolvimento orientado a modelos (Model-driven Game Development - MDGD). O MDGD define que o design do jogo seja baseado em modelos de alta abstração, os quais descrevem todos os elementos do jogo final que é gerado de forma automatizada. A linguagem específica de domínio (Domain Specific Language - DSL) que acompanha o MDGD, por meio de um metamodelo, define a capacidade dos elementos e relações presentes no jogo que será criado. Entretanto, há dificuldades no uso de MDGD em jogos sérios por causa da ausência de abordagens que integrem o MDGD com os requisitos de jogos sérios e a inconsistência da participação do especialista durante o processo de produção da DSL e do jogo sério. Nesse contexto, este trabalho tem como objetivo criar um processo sistemático do MDGD para a produção de jogos sérios, nomeado como PREMISSA, e avaliá-lo por meio do desenvolvimento de uma DSL para jogos sérios, envolvendo os gêneros quiz e aventura 2D. Como prova de conceito, o PREMISSA foi usado para criar uma Linguagem de Modelagem para Jogos de Aventura e Quiz (LMJAQ). Os resultados envolveram a produção de artefatos da DSL e do jogo sério criado: documentação, verificadores de código, a própria DSL LMJAQ, e os protótipos de baixa e alta fidelidade do jogo sério, sendo o último produzido no motor de jogos Unity. Como principais contribuições, tem-se o processo PREMISSA, a DSL LMJAQ, que incluiu mais de um gênero de jogabilidade, o jogo executável gerado a partir dos modelos criados, e a prova de conceito como exemplo de uso do PREMISSA. Os trabalhos futuros envolvem a avaliação do PREMISSA por outras equipes de desenvolvimento de jogos sérios, e a criação e validação de uma ferramenta de edição que apoie o uso do PREMISSA por especialistas no domínio de aplicação.
|
|
22
|
-
BEATRIZ MAYUMI ANDRADE MATSUI
-
CONJUNTO DE RECOMENDAÇÕES PARA A IMPLEMENTAÇÃO DE PRÁTICAS DEVOPS NO CONTEXTO DE APRENDIZADO DE MÁQUINA
-
Orientador : DENISE HIDEKO GOYA
-
Data: 30/11/2022
-
-
Mostrar Resumo
-
Práticas DevOps estão cada vez mais presentes no contexto da engenharia de software, visando a automação e simplificação de processos que envolvem o ciclo de vida da aplicação, desde o seu desenvolvimento até a implantação em ambiente de produção. Para o aprendizado de máquina (ou machine learning, ML), tais práticas são conhecidas como MLOps (Machine Learning Operations) e têm o objetivo de integrar as etapas de desenvolvimento e operações de sistemas de ML, contemplando automação e monitoramento para a entrega e atualização contínua do sistema ao usuário final. Na literatura, estudos têm mostrado a aplicabilidade dessas práticas em contextos específicos, mas poucos fornecem diretrizes para guiar sua implementação de forma abrangente, considerando todo o conjunto de fatores envolvidos na adoção de MLOps – desde mudanças culturais e organizacionais até os elementos técnicos necessários para sua efetiva implementação. Neste cenário, o presente trabalho propõe um conjunto de recomendações para auxiliar na compreensão e adoção de MLOps por pesquisadores, gestores, engenheiros, cientistas de dados e demais envolvidos no desenvolvimento de sistemas de aprendizado de máquina. O conjunto de recomendações foi desenvolvido a partir de Mapeamento Sistemático da Literatura e método Design Science Research para a geração de artefatos que representam o detalhamento e fluxo das recomendações propostas. Aplicou-se também um questionário para validar a qualidade e relevância dessas recomendações por profissionais que atuam com práticas MLOps. A análise dos resultados do questionário indicou uma boa consistência interna das respostas, de acordo com cálculo de alfa de Cronbach. Os resultados também indicaram que as recomendações e artefatos gerados são relevantes e apresentam qualidade, tendo potencial de produzir impactos positivos em ambientes reais que envolvem MLOps.
-
Mostrar Abstract
-
Práticas DevOps estão cada vez mais presentes no contexto da engenharia de software, visando a automação e simplificação de processos que envolvem o ciclo de vida da aplicação, desde o seu desenvolvimento até a implantação em ambiente de produção. Para o aprendizado de máquina (ou machine learning, ML), tais práticas são conhecidas como MLOps (Machine Learning Operations) e têm o objetivo de integrar as etapas de desenvolvimento e operações de sistemas de ML, contemplando automação e monitoramento para a entrega e atualização contínua do sistema ao usuário final. Na literatura, estudos têm mostrado a aplicabilidade dessas práticas em contextos específicos, mas poucos fornecem diretrizes para guiar sua implementação de forma abrangente, considerando todo o conjunto de fatores envolvidos na adoção de MLOps – desde mudanças culturais e organizacionais até os elementos técnicos necessários para sua efetiva implementação. Neste cenário, o presente trabalho propõe um conjunto de recomendações para auxiliar na compreensão e adoção de MLOps por pesquisadores, gestores, engenheiros, cientistas de dados e demais envolvidos no desenvolvimento de sistemas de aprendizado de máquina. O conjunto de recomendações foi desenvolvido a partir de Mapeamento Sistemático da Literatura e método Design Science Research para a geração de artefatos que representam o detalhamento e fluxo das recomendações propostas. Aplicou-se também um questionário para validar a qualidade e relevância dessas recomendações por profissionais que atuam com práticas MLOps. A análise dos resultados do questionário indicou uma boa consistência interna das respostas, de acordo com cálculo de alfa de Cronbach. Os resultados também indicaram que as recomendações e artefatos gerados são relevantes e apresentam qualidade, tendo potencial de produzir impactos positivos em ambientes reais que envolvem MLOps.
|
|
23
|
-
VINICIUS LUIS TREVISAN DE SOUZA
-
Estudo Sobre o Uso de Redes Adversárias Generativas para Transformação de Contornos em Imagens e Síntese de Imagens
-
Orientador : JOAO PAULO GOIS
-
Data: 30/11/2022
-
-
Mostrar Resumo
-
As áreas de processamento de imagens, computação gráfica e visão computacional recentemente viram avanços significativos em diversas aplicações, muitos dos quais se devem a técnicas baseadas em Redes Adversárias Generativas (Generative Adversarial Networks - GANs). Dentre essas aplicações, podemos ressaltar a super-resolução, transformação de domínio, transferência de estilo, restauração de fotos, e síntese de imagens, dentre outras. Neste trabalho estudamos o uso de GANs em aplicações de transformações de contornos em imagens e síntese de imagens de faces. A primeira aplicação envolve transformar esboços de carros em imagens realistas, e esboços de personagens de desenho em uma versão colorida e texturizada. Analisamos e discutimos o uso das arquiteturas Pix2Pix e CycleGAN nessa tarefa, experimentando com diferentes configurações de parâmetros como melhorar a imagem sintetizada. Na aplicação de síntese, inspirados por trabalhos de manipulação de imagens, exploramos como gerar imagens sintéticas de faces humanas utilizando GANs condicionais como autoencoders, de forma que gerem vetores latentes que permitam a manipulação das imagens diretamente no espaço latente das características. Testamos diversas combinações de geradores, discriminadores, funções de loss e técnicas de treinamento para entender quais elementos contribuem na melhoria da imagem sintetizada.
-
Mostrar Abstract
-
As áreas de processamento de imagens, computação gráfica e visão computacional recentemente viram avanços significativos em diversas aplicações, muitos dos quais se devem a técnicas baseadas em Redes Adversárias Generativas (Generative Adversarial Networks - GANs). Dentre essas aplicações, podemos ressaltar a super-resolução, transformação de domínio, transferência de estilo, restauração de fotos, e síntese de imagens, dentre outras. Neste trabalho estudamos o uso de GANs em aplicações de transformações de contornos em imagens e síntese de imagens de faces. A primeira aplicação envolve transformar esboços de carros em imagens realistas, e esboços de personagens de desenho em uma versão colorida e texturizada. Analisamos e discutimos o uso das arquiteturas Pix2Pix e CycleGAN nessa tarefa, experimentando com diferentes configurações de parâmetros como melhorar a imagem sintetizada. Na aplicação de síntese, inspirados por trabalhos de manipulação de imagens, exploramos como gerar imagens sintéticas de faces humanas utilizando GANs condicionais como autoencoders, de forma que gerem vetores latentes que permitam a manipulação das imagens diretamente no espaço latente das características. Testamos diversas combinações de geradores, discriminadores, funções de loss e técnicas de treinamento para entender quais elementos contribuem na melhoria da imagem sintetizada.
|
|
24
|
-
GUILHERME DIAS BELARMINO
-
Critérios de Acessibilidade e Desenho Universal para Jogos Educacionais Digitais
-
Orientador : DENISE HIDEKO GOYA
-
Data: 07/12/2022
-
-
Mostrar Resumo
-
Jogos educacionais digitais são aqueles que podem atuar como um recurso didático na construção do conhecimento, pois aliam elementos como engajamento e motivação com a diversão para favorecer o processo de ensino-aprendizagem. A produção de jogos educacionais é complexa por envolver uma equipe multidisciplinar, com profissionais de programação, análise, arte, educação e gestão, apenas para citar alguns exemplos. Dado que a educação é um direito universal, recursos com fins educacionais precisam atender a todos, isto é, devem ser projetados para incluir pessoas com deficiência, sem distinção. Uma forma de atingir esse propósito é agregar ao projeto de produção de jogos o conceito de Desenho Universal, que busca que todos aprendam com o mesmo recurso, removendo barreiras impeditivas. Diretrizes de acessibilidade estabelecem normas e recomendações com o intuito de auxiliar projetistas e desenvolvedores na concepção ou avaliação de acessibilidade. Entretanto, diretrizes para jogos acessíveis não têm sido suficientes para guiar a produção de jogos universalmente inclusivos. Nesse contexto, este trabalho tem por objetivo construir, descrever e validar um conjunto de critérios de acessibilidade, nomeado ACUDaGames (Accessibility Criteria and Universal Design for Educational Games), que possa ser empregado no processo de produção de jogos educacionais acessíveis às pessoas com e sem deficiência seguindo a abordagem do Desenho Universal. Para isso, foi conduzido um mapeamento sistemático da literatura sobre as recomendações de acessibilidade propostas em trabalhos que apresentam requisitos ou critérios de acessibilidade para que um jogo educacional seja acessível às pessoas com deficiências em específico ou que adote princípios do Desenho Universal. Na sequência, uma revisão narrativa foi conduzida para complementar o conjunto inicial de critérios, além de uma complementação com três diretrizes de acessibilidade para jogos existentes (GAG, Includification e EduGameAccess). O ACUDaGames é resultado das revisões sistemática e narrativa e categorizado segundo o framework conceitual de design de jogos Mechanics, Dynamics e Aesthetics (MDA). O ACUDaGames foi validado, quanto à sua qualidade, por 13 especialistas no domínio de design de jogos, interação humano-computador, informática na educação e acessibilidade, por meio de um questionário online. O resultado da análise da opinião dos especialistas aponta boa consistência interna, conforme coeficiente alfa de Cronbach, e indica que o ACUDaGames é completo, correto, autêntico, consistente, claro, inequívoco, flexível e tem usabilidade. Entretanto, no futuro, o conjunto precisará passar por uma validação prática no processo de produção de um jogo educacional acessível, para atestar sua eficácia e identificar pontos de aprimoramento. De forma geral, os resultados deste trabalho evidenciaram que o ACUDaGames tem potencial de uso para a criação e produção de jogos educacionais acessíveis, sob a perspectiva do Desenho Universal.
-
Mostrar Abstract
-
Jogos educacionais digitais são aqueles que podem atuar como um recurso didático na construção do conhecimento, pois aliam elementos como engajamento e motivação com a diversão para favorecer o processo de ensino-aprendizagem. A produção de jogos educacionais é complexa por envolver uma equipe multidisciplinar, com profissionais de programação, análise, arte, educação e gestão, apenas para citar alguns exemplos. Dado que a educação é um direito universal, recursos com fins educacionais precisam atender a todos, isto é, devem ser projetados para incluir pessoas com deficiência, sem distinção. Uma forma de atingir esse propósito é agregar ao projeto de produção de jogos o conceito de Desenho Universal, que busca que todos aprendam com o mesmo recurso, removendo barreiras impeditivas. Diretrizes de acessibilidade estabelecem normas e recomendações com o intuito de auxiliar projetistas e desenvolvedores na concepção ou avaliação de acessibilidade. Entretanto, diretrizes para jogos acessíveis não têm sido suficientes para guiar a produção de jogos universalmente inclusivos. Nesse contexto, este trabalho tem por objetivo construir, descrever e validar um conjunto de critérios de acessibilidade, nomeado ACUDaGames (Accessibility Criteria and Universal Design for Educational Games), que possa ser empregado no processo de produção de jogos educacionais acessíveis às pessoas com e sem deficiência seguindo a abordagem do Desenho Universal. Para isso, foi conduzido um mapeamento sistemático da literatura sobre as recomendações de acessibilidade propostas em trabalhos que apresentam requisitos ou critérios de acessibilidade para que um jogo educacional seja acessível às pessoas com deficiências em específico ou que adote princípios do Desenho Universal. Na sequência, uma revisão narrativa foi conduzida para complementar o conjunto inicial de critérios, além de uma complementação com três diretrizes de acessibilidade para jogos existentes (GAG, Includification e EduGameAccess). O ACUDaGames é resultado das revisões sistemática e narrativa e categorizado segundo o framework conceitual de design de jogos Mechanics, Dynamics e Aesthetics (MDA). O ACUDaGames foi validado, quanto à sua qualidade, por 13 especialistas no domínio de design de jogos, interação humano-computador, informática na educação e acessibilidade, por meio de um questionário online. O resultado da análise da opinião dos especialistas aponta boa consistência interna, conforme coeficiente alfa de Cronbach, e indica que o ACUDaGames é completo, correto, autêntico, consistente, claro, inequívoco, flexível e tem usabilidade. Entretanto, no futuro, o conjunto precisará passar por uma validação prática no processo de produção de um jogo educacional acessível, para atestar sua eficácia e identificar pontos de aprimoramento. De forma geral, os resultados deste trabalho evidenciaram que o ACUDaGames tem potencial de uso para a criação e produção de jogos educacionais acessíveis, sob a perspectiva do Desenho Universal.
|
|
25
|
-
CLAUDIO RIBEIRO DE AMORIM
-
Framework para Integração de Transações Financeiras entre o Modelo Centralizado e o Modelo Distribuído Blockchain
-
Orientador : LUIZ CARLOS DA SILVA ROZANTE
-
Data: 13/12/2022
-
-
Mostrar Resumo
-
A tecnologia blockchain subjacente às criptomoedas vem sendo muito estudada desde a criação do Bitcoin em 2009. Os princípios de segurança e robustez no quesito integridade de dados, dados inerentes à blockchain e seu poder distribuído são características centrais que se apresentam como vantagens para seu uso potencial em várias áreas. Muitos acreditam que as características dessa tecnologia disruptiva trarão impactos significativos na vida das pessoas, das organizações e nos modelos de negócios atuais. No presente trabalho, apresentamos uma arquitetura de um framework para integrar transações financeiras entre o modelo centralizado tradicional e o modelo distribuído blockchain, levando em consideração a estrutura do arranjo de pagamentos brasileiro. Também propomos um modelo para reduzir o custo global das transações financeiras para os integrantes do arranjo. Analisamos os fundamentos da tecnologia blockchain, discutimos a estrutura do arranjo de pagamentos do sistema financeiro brasileiro e aplicamos, ao modelo de redução de custo global, o método simplex para redes aplicado ao problema de transporte. Implementamos tanto o framework proposto como o método simplex para redes aplicado ao problema de otimização do custo global de transações na rede (framework). Realizamos alguns experimentos preliminares a fim de validar o método e a implementação desenvolvida. Assim, realizamos a prova de conceito de que é possível promover uma integração entre a indústria financeira tradicional e modelos distribuídos e descentralizados para transações, o que abre possibilidades para promover a inclusão financeira e econômica aos não bancarizados.
-
Mostrar Abstract
-
A tecnologia blockchain subjacente às criptomoedas vem sendo muito estudada desde a criação do Bitcoin em 2009. Os princípios de segurança e robustez no quesito integridade de dados, dados inerentes à blockchain e seu poder distribuído são características centrais que se apresentam como vantagens para seu uso potencial em várias áreas. Muitos acreditam que as características dessa tecnologia disruptiva trarão impactos significativos na vida das pessoas, das organizações e nos modelos de negócios atuais. No presente trabalho, apresentamos uma arquitetura de um framework para integrar transações financeiras entre o modelo centralizado tradicional e o modelo distribuído blockchain, levando em consideração a estrutura do arranjo de pagamentos brasileiro. Também propomos um modelo para reduzir o custo global das transações financeiras para os integrantes do arranjo. Analisamos os fundamentos da tecnologia blockchain, discutimos a estrutura do arranjo de pagamentos do sistema financeiro brasileiro e aplicamos, ao modelo de redução de custo global, o método simplex para redes aplicado ao problema de transporte. Implementamos tanto o framework proposto como o método simplex para redes aplicado ao problema de otimização do custo global de transações na rede (framework). Realizamos alguns experimentos preliminares a fim de validar o método e a implementação desenvolvida. Assim, realizamos a prova de conceito de que é possível promover uma integração entre a indústria financeira tradicional e modelos distribuídos e descentralizados para transações, o que abre possibilidades para promover a inclusão financeira e econômica aos não bancarizados.
|
|
26
|
-
DANILO DOS SANTOS BEZERRA
-
Geração Procedimental de Níveis para Jogos Sérios de Desenvolvimento do Pensamento Computacional
-
Orientador : RAFAELA VILELA DA ROCHA CAMPOS
-
Data: 15/12/2022
-
-
Mostrar Resumo
-
O pensamento computacional é um agrupamento de habilidades para organizar problemas e suas respectivas soluções de forma que um computador possa colocá-las em prática, sendo uma habilidade importante para diferentes áreas, além da ciência da computação. Os jogos sérios são criados com um propósito além do puro entretenimento, por exemplo, o desenvolvimento do pensamento computacional. O conteúdo é um componente essencial para jogos sérios e uma das tarefas mais trabalhosas e demoradas para a equipe de desenvolvimento, especialmente se tal conteúdo exigir adaptabilidade a diferentes jogadores. Os métodos de geração procedimental resolvem parte do problema da criação de conteúdo para jogos. Entretanto, quando o objetivo é o desenvolvimento de competências do jogador, além do entretenimento, é necessário um maior controle sobre o jogo que está sendo produzido. Uma possível solução para este problema é incluir o especialista de domínio nesse processo, para que ele possa definir as configurações e restrições necessárias. Nesse contexto, este trabalho visa propor uma solução de iniciativa mista, que inclui um algoritmo de geração procedimental de conteúdo e um agente de inteligência artificial para a concepção de níveis em um jogo sério de desenvolvimento do pensamento computacional, do gênero quebra-cabeças baseado em programação por blocos, com diferentes graus de complexidade. Para isso, foi realizada uma revisão da literatura das características de um jogo sério de pensamento computacional e dos algoritmos mais utilizados para criar níveis de jogos sob especificidades similares. Em seguida, foram especificados os requisitos e construído um sistema de iniciativa mista fazendo o uso de algoritmos de aprendizado por reforço, acompanhado de um protótipo de jogo. O sistema foi testado e analisado a partir do seu uso e suas implicações avaliadas com base nos testes realizados. Como resultado, foi desenvolvida uma prova de conceito da solução, formada pelo sistema de iniciativa mista e pelo protótipo de jogo, concebido para receber as representações de níveis geradas. Ao avaliar a solução com base nos aspectos testados a partir de seu uso, foi possível identificar contribuições científica e computacionais (uma solução tecnológica de iniciativa mista contendo um gerador de níveis, implementado com algoritmo de aprendizado por reforço e um protótipo do jogo de quebra-cabeças de programação) e sociais (espera-se que o uso do jogo, com diferentes níveis gerados pela solução, possibilite o desenvolvimento do pensamento computacional).
-
Mostrar Abstract
-
O pensamento computacional é um agrupamento de habilidades para organizar problemas e suas respectivas soluções de forma que um computador possa colocá-las em prática, sendo uma habilidade importante para diferentes áreas, além da ciência da computação. Os jogos sérios são criados com um propósito além do puro entretenimento, por exemplo, o desenvolvimento do pensamento computacional. O conteúdo é um componente essencial para jogos sérios e uma das tarefas mais trabalhosas e demoradas para a equipe de desenvolvimento, especialmente se tal conteúdo exigir adaptabilidade a diferentes jogadores. Os métodos de geração procedimental resolvem parte do problema da criação de conteúdo para jogos. Entretanto, quando o objetivo é o desenvolvimento de competências do jogador, além do entretenimento, é necessário um maior controle sobre o jogo que está sendo produzido. Uma possível solução para este problema é incluir o especialista de domínio nesse processo, para que ele possa definir as configurações e restrições necessárias. Nesse contexto, este trabalho visa propor uma solução de iniciativa mista, que inclui um algoritmo de geração procedimental de conteúdo e um agente de inteligência artificial para a concepção de níveis em um jogo sério de desenvolvimento do pensamento computacional, do gênero quebra-cabeças baseado em programação por blocos, com diferentes graus de complexidade. Para isso, foi realizada uma revisão da literatura das características de um jogo sério de pensamento computacional e dos algoritmos mais utilizados para criar níveis de jogos sob especificidades similares. Em seguida, foram especificados os requisitos e construído um sistema de iniciativa mista fazendo o uso de algoritmos de aprendizado por reforço, acompanhado de um protótipo de jogo. O sistema foi testado e analisado a partir do seu uso e suas implicações avaliadas com base nos testes realizados. Como resultado, foi desenvolvida uma prova de conceito da solução, formada pelo sistema de iniciativa mista e pelo protótipo de jogo, concebido para receber as representações de níveis geradas. Ao avaliar a solução com base nos aspectos testados a partir de seu uso, foi possível identificar contribuições científica e computacionais (uma solução tecnológica de iniciativa mista contendo um gerador de níveis, implementado com algoritmo de aprendizado por reforço e um protótipo do jogo de quebra-cabeças de programação) e sociais (espera-se que o uso do jogo, com diferentes níveis gerados pela solução, possibilite o desenvolvimento do pensamento computacional).
|
|
|
Teses |
|
1
|
-
MUHSEN HAMMOUD
-
Computational Approaches for Analyzing Structured Data in Biological Systematics and Biogeography
-
Orientador : JOAO PAULO GOIS
-
Data: 25/04/2022
-
-
Mostrar Resumo
-
Biological sciences use connected acyclic graphs -or trees- to present evolutionary relationships and biogeographical history. The base of trees might be genetic, molecular, morphological, geological, behavioral, or geographical pieces of evidence. In large-scope studies, especially when dealing with many different biological groups or complex biogeographical history, manual data processing becomes infeasible and costly (in terms of time and money). Also, the results might have many errors. Evolutionary biologists already have their methods to process their data. However, applying these methods manually on large data sets is proven not to be practical, which is a significant burden in front of having more understanding of the data at hand. Despite the availability of some approaches for structured data processing, they are either outdated or hard to use (such as command-line tools). This thesis focuses on understanding the very basis of the philosophy of computer science in the context of biological and evolutionary problems, then, based on this understanding, to facilitate evolutionary biologists' work by automating the workflow they follow, rather than changing it. Here, we present four computational approaches, three of which are concerned with building a combined MRP-matrix using input trees in a parenthetical format. These approaches are named as follows: “Generating combined MRP-matrices”, “Generating Topographic-Units MRP-matrix”, and “Generating Combined Areagram MRP-matrix”. While the fourth uses information visualization to facilitate phylogenetic trees comparison named “interactive Phylogenetic trees Comparison (iPhyloC)”. We encapsulated all of the computational approaches in this thesis in easy-to-use web-based frameworks that are available for free online. We developed the four approaches in this thesis in close collaboration with domain experts. The testing results of all the approaches show they are reliable, easy to use and deliver correct results. They indeed help evolutionary biologists to focus on driving results from the data at hand rather than spending time processing the data.
-
Mostrar Abstract
-
Biological sciences use connected acyclic graphs -or trees- to present evolutionary relationships and biogeographical history. The base of trees might be genetic, molecular, morphological, geological, behavioral, or geographical pieces of evidence. In large-scope studies, especially when dealing with many different biological groups or complex biogeographical history, manual data processing becomes infeasible and costly (in terms of time and money). Also, the results might have many errors. Evolutionary biologists already have their methods to process their data. However, applying these methods manually on large data sets is proven not to be practical, which is a significant burden in front of having more understanding of the data at hand. Despite the availability of some approaches for structured data processing, they are either outdated or hard to use (such as command-line tools). This thesis focuses on understanding the very basis of the philosophy of computer science in the context of biological and evolutionary problems, then, based on this understanding, to facilitate evolutionary biologists' work by automating the workflow they follow, rather than changing it. Here, we present four computational approaches, three of which are concerned with building a combined MRP-matrix using input trees in a parenthetical format. These approaches are named as follows: “Generating combined MRP-matrices”, “Generating Topographic-Units MRP-matrix”, and “Generating Combined Areagram MRP-matrix”. While the fourth uses information visualization to facilitate phylogenetic trees comparison named “interactive Phylogenetic trees Comparison (iPhyloC)”. We encapsulated all of the computational approaches in this thesis in easy-to-use web-based frameworks that are available for free online. We developed the four approaches in this thesis in close collaboration with domain experts. The testing results of all the approaches show they are reliable, easy to use and deliver correct results. They indeed help evolutionary biologists to focus on driving results from the data at hand rather than spending time processing the data.
|
|
2
|
-
EDUARDO ALVES DE JESUS ANACLETO
-
Algorithms for solving pseudo-Boolean optimization problems
-
Orientador : CLAUDIO NOGUEIRA DE MENESES
-
Data: 21/06/2022
-
-
Mostrar Resumo
-
Investigamos os problemas de Otimização Pseudo-Booleana (PBO), Otimização Quadrática Binária Irrestrita (QUBO) e Programação Quadrática Booleana com Restrições de Limitantes Superiores Generalizados (BQP-GUB). Estes problemas pertencem à classe de complexidade computacional NP-difícil e têm sido estudados desde os anos 60. A busca por métodos para resolver esses problemas constitui um campo de pesquisa ativo, devido a situações reais que podem ser modeladas por meio deles. Em virtude de apelos práticos, pesquisadores têm mostrado grande interesse no desenvolvimento desses métodos. Com o intuito de contribuir de maneira significativa para esta área de pesquisa: (a) propomos um algoritmo exato para resolver os problemas PBO e QUBO; (b) projetamos um algoritmo de tempo polinomial para resolver classes de instâncias dos problemas PBO e QUBO; (c) desenvolvemos fórmulas para gerar limitantes para os valores de soluções ótimas para o problema QUBO; (d) criamos fórmulas para calcular rapidamente o valor da função objetivo do BQP-GUB; e (e) reformulamos problemas de otimização combinatória para a forma dos problemas QUBO e BQP-GUB.
-
Mostrar Abstract
-
Investigamos os problemas de Otimização Pseudo-Booleana (PBO), Otimização Quadrática Binária Irrestrita (QUBO) e Programação Quadrática Booleana com Restrições de Limitantes Superiores Generalizados (BQP-GUB). Estes problemas pertencem à classe de complexidade computacional NP-difícil e têm sido estudados desde os anos 60. A busca por métodos para resolver esses problemas constitui um campo de pesquisa ativo, devido a situações reais que podem ser modeladas por meio deles. Em virtude de apelos práticos, pesquisadores têm mostrado grande interesse no desenvolvimento desses métodos. Com o intuito de contribuir de maneira significativa para esta área de pesquisa: (a) propomos um algoritmo exato para resolver os problemas PBO e QUBO; (b) projetamos um algoritmo de tempo polinomial para resolver classes de instâncias dos problemas PBO e QUBO; (c) desenvolvemos fórmulas para gerar limitantes para os valores de soluções ótimas para o problema QUBO; (d) criamos fórmulas para calcular rapidamente o valor da função objetivo do BQP-GUB; e (e) reformulamos problemas de otimização combinatória para a forma dos problemas QUBO e BQP-GUB.
|
|
3
|
-
EDUARDO MACHADO REAL
-
Contribuições para a Análise dos Trajetos de Aprendizagem dos Estudantes com o suporte de Mineração de Processos Educacionais
-
Orientador : EDSON PINHEIRO PIMENTEL
-
Data: 24/11/2022
-
-
Mostrar Resumo
-
Ambientes Virtuais de Aprendizagem (AVA) têm sido utilizados para organizar materiais instrucionais e apoiar a comunicação entre educadores e aprendizes no processo de aprendizagem, especialmente na Educação a Distância (EaD). Nestes ambientes, normalmente, o professor organiza a sequência dos conteúdos e atividades do curso de acordo com suas estratégias didático-pedagógicas e espera que essa organização guie cada estudante no seu trajeto de aprendizagem. No entanto, os estudantes podem seguir caminhos diferentes daqueles indicados na organização do material. Normalmente, os AVAs registram a interação dos estudantes com os materiais dos cursos por meio de log de eventos. Utilizar estes registros para conhecer os trajetos de aprendizagem seguidos pelos estudantes pode ajudar a compreender melhor os resultados de aprendizagem e as relações com a organização dos materiais do curso e as estratégias pedagógicas adotadas pelo professor. Técnicas de Mineração de Processos (MP) têm sido aplicadas sobre logs de eventos para descobrir conhecimentos nesses dados a partir de informações estatísticas históricas e modelos de processo que representam os fluxos das ações realizadas. Aplicada sobre dados educacionais a MP é chamada de Mineração de Processos Educacionais (MPE). Existem algumas ferramentas computacionais para apoiar a aplicação de MP mas, o seu uso exige conhecimentos técnicos que não são triviais. Este cenário dificulta, por exemplo, ampliar o uso da MPE pelos professores. Este trabalho tem por objetivo propor um modelo de aplicação da Mineração de Processos Educacionais que facilite, ao professor, identificar e analisar trajetos de aprendizagem dos estudantes. A expectativa é que os resultados da MPE ajudem o professor a identificar adequações necessárias para melhorar os resultados de aprendizagem dos estudantes. O trabalho apresenta o modelo concebido, denominado de PM4Edu, bem como a ferramenta computacional desenvolvida para apoiar o modelo. O modelo foi aplicado e avaliado por professores da modalidade EaD. No desenho da avaliação, os professores forneceram os logs dos cursos, responderam questionários e interpretaram os resultados fornecidos pelo modelo, em um processo interativo com o pesquisador. Os resultados indicam que o modelo fornece informações relevantes para apoiar os professores em possíveis intervenções quanto ao redesenho dos cursos.
-
Mostrar Abstract
-
Ambientes Virtuais de Aprendizagem (AVA) têm sido utilizados para organizar materiais instrucionais e apoiar a comunicação entre educadores e aprendizes no processo de aprendizagem, especialmente na Educação a Distância (EaD). Nestes ambientes, normalmente, o professor organiza a sequência dos conteúdos e atividades do curso de acordo com suas estratégias didático-pedagógicas e espera que essa organização guie cada estudante no seu trajeto de aprendizagem. No entanto, os estudantes podem seguir caminhos diferentes daqueles indicados na organização do material. Normalmente, os AVAs registram a interação dos estudantes com os materiais dos cursos por meio de log de eventos. Utilizar estes registros para conhecer os trajetos de aprendizagem seguidos pelos estudantes pode ajudar a compreender melhor os resultados de aprendizagem e as relações com a organização dos materiais do curso e as estratégias pedagógicas adotadas pelo professor. Técnicas de Mineração de Processos (MP) têm sido aplicadas sobre logs de eventos para descobrir conhecimentos nesses dados a partir de informações estatísticas históricas e modelos de processo que representam os fluxos das ações realizadas. Aplicada sobre dados educacionais a MP é chamada de Mineração de Processos Educacionais (MPE). Existem algumas ferramentas computacionais para apoiar a aplicação de MP mas, o seu uso exige conhecimentos técnicos que não são triviais. Este cenário dificulta, por exemplo, ampliar o uso da MPE pelos professores. Este trabalho tem por objetivo propor um modelo de aplicação da Mineração de Processos Educacionais que facilite, ao professor, identificar e analisar trajetos de aprendizagem dos estudantes. A expectativa é que os resultados da MPE ajudem o professor a identificar adequações necessárias para melhorar os resultados de aprendizagem dos estudantes. O trabalho apresenta o modelo concebido, denominado de PM4Edu, bem como a ferramenta computacional desenvolvida para apoiar o modelo. O modelo foi aplicado e avaliado por professores da modalidade EaD. No desenho da avaliação, os professores forneceram os logs dos cursos, responderam questionários e interpretaram os resultados fornecidos pelo modelo, em um processo interativo com o pesquisador. Os resultados indicam que o modelo fornece informações relevantes para apoiar os professores em possíveis intervenções quanto ao redesenho dos cursos.
|
|
4
|
-
MAYURÍ ANNEROSE MORAIS
-
A Framework for Incident Detection in Large-Scale Public Bus Systems
-
Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
-
Data: 06/12/2022
-
-
Mostrar Resumo
-
Proporcionar mobilidade urbana eficiente por meio de transporte público de qualidade é um dos principais objetivos do uso de tecnologias de cidades inteligentes pelas administrações públicas. As interrupções causadas por incidentes de trânsito são uma causa significativa de atrasos nos sistemas públicos de ônibus. A literatura mostra diversos Sistemas de Detecção de Incidentes (ID) utilizando múltiplas fontes de informação, como imagens de câmeras, radares (sensores fixos) e veículos ou smartphones com Sistema de Posicionamento Global (sensores móveis). No entanto, os sistemas de identificação propostos usando sensores móveis usam principalmente carros e dados de GPS de carros simulados, enquanto poucos trabalhos usam dados de GPS de ônibus.
Este trabalho apresenta um modelo de Detecção de Incidentes para sistemas de ônibus utilizando dados de GPS de ônibus em redes urbanas. Utilizamos dados históricos de GPS de ônibus para extrair as características de cada segmento do sistema de ônibus. Propusemos dois modelos para ID: uma abordagem estatística baseada no tempo de viagem dos ônibus em cada segmento e uma abordagem de aprendizado de máquina aplicada a vários atributos que descrevem a dinâmica dos ônibus em tempo real em cada segmento. Para implementar esses modelos, também propusemos a arquitetura de um arcabouço que permite a integração de modelos compostos escaláveis e eficientes. Implementamos o arcabouço e avaliamos sua escalabilidade e as previsões de modelos simples de tempo de viagem. Mostramos que o uso em tempo real desse arcabouço é viável em grandes áreas metropolitanas, como a cidade de São Paulo. Por último, implementamos e avaliamos os modelos de ID propostos.
Definimos os incidentes de trânsito com base nas mudanças nos intervalos entre os ônibus. Mostramos que nossos modelos alcançaram uma taxa de detecção de mais de 80% para incidentes de longa duração (mais de 10 minutos) com um tempo médio para detectar menos de 6,5 minutos e uma taxa de alarme falso de 3%.
-
Mostrar Abstract
-
Proporcionar mobilidade urbana eficiente por meio de transporte público de qualidade é um dos principais objetivos do uso de tecnologias de cidades inteligentes pelas administrações públicas. As interrupções causadas por incidentes de trânsito são uma causa significativa de atrasos nos sistemas públicos de ônibus. A literatura mostra diversos Sistemas de Detecção de Incidentes (ID) utilizando múltiplas fontes de informação, como imagens de câmeras, radares (sensores fixos) e veículos ou smartphones com Sistema de Posicionamento Global (sensores móveis). No entanto, os sistemas de identificação propostos usando sensores móveis usam principalmente carros e dados de GPS de carros simulados, enquanto poucos trabalhos usam dados de GPS de ônibus.
Este trabalho apresenta um modelo de Detecção de Incidentes para sistemas de ônibus utilizando dados de GPS de ônibus em redes urbanas. Utilizamos dados históricos de GPS de ônibus para extrair as características de cada segmento do sistema de ônibus. Propusemos dois modelos para ID: uma abordagem estatística baseada no tempo de viagem dos ônibus em cada segmento e uma abordagem de aprendizado de máquina aplicada a vários atributos que descrevem a dinâmica dos ônibus em tempo real em cada segmento. Para implementar esses modelos, também propusemos a arquitetura de um arcabouço que permite a integração de modelos compostos escaláveis e eficientes. Implementamos o arcabouço e avaliamos sua escalabilidade e as previsões de modelos simples de tempo de viagem. Mostramos que o uso em tempo real desse arcabouço é viável em grandes áreas metropolitanas, como a cidade de São Paulo. Por último, implementamos e avaliamos os modelos de ID propostos.
Definimos os incidentes de trânsito com base nas mudanças nos intervalos entre os ônibus. Mostramos que nossos modelos alcançaram uma taxa de detecção de mais de 80% para incidentes de longa duração (mais de 10 minutos) com um tempo médio para detectar menos de 6,5 minutos e uma taxa de alarme falso de 3%.
|
|