|
Dissertações |
|
1
|
-
PEDRO HENRIQUE PARREIRA
-
Aprendizagem ativa em fluxo de dados com latência intermediária
-
Orientador : RONALDO CRISTIANO PRATI
-
Data: 20/01/2020
-
-
Mostrar Resumo
-
Um fluxo de dados possui diversas características desafiadoras para os algoritmos clássicos de aprendizagem de máquina, tais como os fenômenos de mudança e evolução de conceito, que são caracterizados pela mudança na distribuição dos dados e do surgimento de novas classes ao longo do fluxo, respectivamente. Além de tais características, ao longo do fluxo, os dados chegam de forma contínua e ininterrupta. Como consequência, uma enorme quantidade de dados são produzidos. Em diversas aplicações de mineração de dados a obtenção dos rótulos é uma tarefa custosa, sendo que em um fluxo de dados tal tarefa se torna ainda mais desafiadora pela enorme quantidade de dados que são gerados. Desta maneira, assumir que todos os dados terão seus respectivos rótulos disponibilizados se torna pouco provável para diversas aplicações reais em fluxo de dados. Portanto, ao considerar tal cenário, um modelo de classificação tem seu desempenho preditivo afetado negativamente ao longo do fluxo de dados devido aos fenômenos de mudança e evolução de conceito. Neste caso, é necessário a adaptação do modelo de classificação de tempos em tempos para a manutenção do seu desempenho preditivo. Essa adaptação requer dados rotulados ao longo do fluxo. Todavia, considerando um cenário realista, nem sempre é factível que os rótulos sejam disponibilizados de modo imediato, como é comumente assumido na maioria das abordagens encontradas na literatura. As abordagens existentes na literatura consideram que, ao ser disponibilizado um determinado exemplo, o seu rótulo é disponibilizado logo após a sua predição, isto é, o rótulo é disponibilizado com latência nula, e ambos são utilizados na adaptação do modelo. Porém, em diversas aplicações reais, o rótulo pode ser disponibilizado com um atraso não infinito, ou seja, com latência intermediária, e apenas para um subconjunto dos exemplos do fluxo. Em meio a tais desafios, este trabalho tem por objetivo a investigação e o desenvolvimento de um conjunto estratégias de aprendizagem ativa que consideram o cenário de fluxo de dados com latência intermediária.
-
Mostrar Abstract
-
Um fluxo de dados possui diversas características desafiadoras para os algoritmos clássicos de aprendizagem de máquina, tais como os fenômenos de mudança e evolução de conceito, que são caracterizados pela mudança na distribuição dos dados e do surgimento de novas classes ao longo do fluxo, respectivamente. Além de tais características, ao longo do fluxo, os dados chegam de forma contínua e ininterrupta. Como consequência, uma enorme quantidade de dados são produzidos. Em diversas aplicações de mineração de dados a obtenção dos rótulos é uma tarefa custosa, sendo que em um fluxo de dados tal tarefa se torna ainda mais desafiadora pela enorme quantidade de dados que são gerados. Desta maneira, assumir que todos os dados terão seus respectivos rótulos disponibilizados se torna pouco provável para diversas aplicações reais em fluxo de dados. Portanto, ao considerar tal cenário, um modelo de classificação tem seu desempenho preditivo afetado negativamente ao longo do fluxo de dados devido aos fenômenos de mudança e evolução de conceito. Neste caso, é necessário a adaptação do modelo de classificação de tempos em tempos para a manutenção do seu desempenho preditivo. Essa adaptação requer dados rotulados ao longo do fluxo. Todavia, considerando um cenário realista, nem sempre é factível que os rótulos sejam disponibilizados de modo imediato, como é comumente assumido na maioria das abordagens encontradas na literatura. As abordagens existentes na literatura consideram que, ao ser disponibilizado um determinado exemplo, o seu rótulo é disponibilizado logo após a sua predição, isto é, o rótulo é disponibilizado com latência nula, e ambos são utilizados na adaptação do modelo. Porém, em diversas aplicações reais, o rótulo pode ser disponibilizado com um atraso não infinito, ou seja, com latência intermediária, e apenas para um subconjunto dos exemplos do fluxo. Em meio a tais desafios, este trabalho tem por objetivo a investigação e o desenvolvimento de um conjunto estratégias de aprendizagem ativa que consideram o cenário de fluxo de dados com latência intermediária.
|
|
2
|
-
PEDRO HENRIQUE ARRUDA FAUSTINI
-
Fake news detection in multiple platforms and languages
-
Orientador : THIAGO FERREIRA COVOES
-
Data: 27/01/2020
-
-
Mostrar Resumo
-
Notícias falsas têm atraído atenção nos últimos tempos, levantando questões sobre o grau de influência que podem exercer sobre importantes atividades das vidas das pessoas. Esforços têm sido feitos para detectá-las, mas geralmente dependem de trabalho humano, o que pode ser custoso e demorado. Disso surge a necessidade de maneiras automáticas de inferir se um determinado artigo é verdadeiro ou falso. O objetivo deste trabalho é estudar técnicas de aprendizado supervisionado para inferir automaticamente se as notícias são falsas ou não em várias plataformas e idiomas. Usamos seis conjuntos de dados de três plataformas diferentes (sites,Twitter e WhatsApp) em dois idiomas (português e inglês). Dois desses conjuntos de dados são novos e foram coletados durante este estudo. Monitoramos sites de checagem de fatos procurando por tópicos de notícias falsas. Então, nós recuperamos mensagens no Twitter de tais tópicos, juntamente com conteúdo verdadeiro. Também baixamos mensagens do WhatsApp reportados por esses sites. Então, para cada conjunto de dados, usamos três conjuntos de atributos (textual, bag-of-words e DCDistance) e aplicamos algoritmos de classificação neles para separar conteúdo falso de verdadeiro. No conjunto de dados do WhatsApp, aplicamos classificação de uma classe, uma abordagem inovadora neste tipo de aplicação.
-
Mostrar Abstract
-
Notícias falsas têm atraído atenção nos últimos tempos, levantando questões sobre o grau de influência que podem exercer sobre importantes atividades das vidas das pessoas. Esforços têm sido feitos para detectá-las, mas geralmente dependem de trabalho humano, o que pode ser custoso e demorado. Disso surge a necessidade de maneiras automáticas de inferir se um determinado artigo é verdadeiro ou falso. O objetivo deste trabalho é estudar técnicas de aprendizado supervisionado para inferir automaticamente se as notícias são falsas ou não em várias plataformas e idiomas. Usamos seis conjuntos de dados de três plataformas diferentes (sites,Twitter e WhatsApp) em dois idiomas (português e inglês). Dois desses conjuntos de dados são novos e foram coletados durante este estudo. Monitoramos sites de checagem de fatos procurando por tópicos de notícias falsas. Então, nós recuperamos mensagens no Twitter de tais tópicos, juntamente com conteúdo verdadeiro. Também baixamos mensagens do WhatsApp reportados por esses sites. Então, para cada conjunto de dados, usamos três conjuntos de atributos (textual, bag-of-words e DCDistance) e aplicamos algoritmos de classificação neles para separar conteúdo falso de verdadeiro. No conjunto de dados do WhatsApp, aplicamos classificação de uma classe, uma abordagem inovadora neste tipo de aplicação.
|
|
3
|
-
THAYRON CRYSTIAN HORTENCES DE MORAES
-
LSBCTR: Um Algoritmo de Recomendação Baseado no Estilo de Aprendizagem
-
Orientador : ITANA STIUBIENER
-
Data: 03/02/2020
-
-
Mostrar Resumo
-
Não informado
-
Mostrar Abstract
-
Não informado
|
|
4
|
-
LINCOLN LIMA SOUZA CANABRAVA MOTA
-
Redes neurais convolucionais para classificação de imagens e detecção de objetos com casos de uso
-
Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
-
Data: 05/02/2020
-
-
Mostrar Resumo
-
Nos últimos anos vemos na sociedade uma proliferação de soluções inovadoras e arrojadas sobretudo nos campos de visão computacional, reconhecimento e síntese de fala. Quando olhamos mais atentamente para tais implementações verificamos que elas possuem algoritmos baseados em redes neurais convolucionais profundas (CNN, do inglês Convolutional Neural Network), treinadas em hardware de alto poder computacional com modernas placas gráficas de processamento paralelo de propósito geral. Mais recentemente vimos propostas para racionalização desses recursos computacionais e um foco em desempenho de modo a atingir execuções em tempo real. Dado este contexto, o presente trabalho tem como objetivo analisar e propor soluções utilizando abordagens CNN, tais como, arquiteturas Google Net, Mobile Net, VGG (versão 16 e 24), NasNet e DenseNet. Estas soluções serão aplicadas em problemas ainda pouco explorados como digitalização de livros, detecção de gestos, detecção de códigos de barra e QRCodes, onde todas essas tarefas têm como entrada principal de dados imagens adquiridas por câmera de vídeo convencional e a análise é efetuada em tempo real. Como resultados, constatamos que a melhor arquitetura depende de cada um destes problemas.
-
Mostrar Abstract
-
Nos últimos anos vemos na sociedade uma proliferação de soluções inovadoras e arrojadas sobretudo nos campos de visão computacional, reconhecimento e síntese de fala. Quando olhamos mais atentamente para tais implementações verificamos que elas possuem algoritmos baseados em redes neurais convolucionais profundas (CNN, do inglês Convolutional Neural Network), treinadas em hardware de alto poder computacional com modernas placas gráficas de processamento paralelo de propósito geral. Mais recentemente vimos propostas para racionalização desses recursos computacionais e um foco em desempenho de modo a atingir execuções em tempo real. Dado este contexto, o presente trabalho tem como objetivo analisar e propor soluções utilizando abordagens CNN, tais como, arquiteturas Google Net, Mobile Net, VGG (versão 16 e 24), NasNet e DenseNet. Estas soluções serão aplicadas em problemas ainda pouco explorados como digitalização de livros, detecção de gestos, detecção de códigos de barra e QRCodes, onde todas essas tarefas têm como entrada principal de dados imagens adquiridas por câmera de vídeo convencional e a análise é efetuada em tempo real. Como resultados, constatamos que a melhor arquitetura depende de cada um destes problemas.
|
|
5
|
-
CARLOS REYNALDO PORTOCARRERO TOVAR
-
Computação de Campos Atratores em Redes Dinâmicas Discretas Acopladas
-
Orientador : LUIZ CARLOS DA SILVA ROZANTE
-
Data: 27/05/2020
-
-
Mostrar Resumo
-
Os processos de estabilização e sincronização em redes de entidades dinâmicas interagentes são quase onipresentes na natureza e desempenham um papel muito importante em muitos contextos diferentes, da biologia à sociologia. Redes Dinâmicas Discretas Acopladas (RDDA) são uma classe de modelos para redes de entidades dinâmicas interagentes, que incluem redes Boolenas acopladas, e que apresentam um amplo leque de potenciais aplicações, principalmente em Biologia de Sistemas. Apesar da sua importância, existem relativamente poucos estudos focados em estabilidade envolvendo essa classe específica de modelos, em particular estudos baseados em abordagens computacionais. Campos atratores em RDDAs consistem numa classe restrita de estados globalmente estáveis do sistema, nos quais a dinâmica de toda entidade interagente permanece ``confinada'' -- para todo tempo -- num mesmo atrator local. O objetivo desse projeto consiste em desenvolver um método computacionalmente eficiente que, dada uma RDDA como entrada, seja capaz de responder se ela contém ou não campos atratores, bem como identificá-los.
-
Mostrar Abstract
-
Os processos de estabilização e sincronização em redes de entidades dinâmicas interagentes são quase onipresentes na natureza e desempenham um papel muito importante em muitos contextos diferentes, da biologia à sociologia. Redes Dinâmicas Discretas Acopladas (RDDA) são uma classe de modelos para redes de entidades dinâmicas interagentes, que incluem redes Boolenas acopladas, e que apresentam um amplo leque de potenciais aplicações, principalmente em Biologia de Sistemas. Apesar da sua importância, existem relativamente poucos estudos focados em estabilidade envolvendo essa classe específica de modelos, em particular estudos baseados em abordagens computacionais. Campos atratores em RDDAs consistem numa classe restrita de estados globalmente estáveis do sistema, nos quais a dinâmica de toda entidade interagente permanece ``confinada'' -- para todo tempo -- num mesmo atrator local. O objetivo desse projeto consiste em desenvolver um método computacionalmente eficiente que, dada uma RDDA como entrada, seja capaz de responder se ela contém ou não campos atratores, bem como identificá-los.
|
|
6
|
-
CLARISSA SIMOYAMA DAVID
-
Detecção de estruturas implícitas textuais por agrupamento hard
-
Orientador : DEBORA MARIA ROSSI DE MEDEIROS
-
Data: 04/06/2020
-
-
Mostrar Resumo
-
Com o grande aumento na disponibilidade de dados de várias áreas, há um interesse crescente na pesquisa de padrões em conjuntos de dados. Esses padrões podem ser usados para executar tarefas como agrupamento e classificação. A área de pesquisa de Aprendizado de Máquina (AM) apresenta vários algoritmos com o objetivo de realizar essas tarefas. No entanto, algumas fontes destes dados podem trazer variáveis (ou atributos) desnecessárias que podem comprometer a qualidade dos padrões extraídos e podem, por exemplo, prejudicar em tarefas de classificação, interferindo no valor de acurácia obtido pelo classificador. Neste trabalho é proposta uma representação de dados textuais incorporando taxas de ocorrências de palavras associadas a suas funções sintáticas utilizando tarefas de Processamento de Linguagem Natural (PLN), como o POS-Tagging. A partir dessa estrutura de dados obtida é proposta a atribuição de importância a grupos desses atributos para representar os textos. Utilizando primeiramente Aprendizado Não-supervisionado, é realizado o agrupamento hard das palavras com o algoritmo K-médias, reduzindo a complexidade da base de dados sem que informações importantes sejam perdidas, e após a definição do número de grupos ideal, pesos são atribuídos aos grupos de palavras. Com a abordagem de Aprendizado Supervisionado, é aplicada classificação nos textos, inicialmente com os atributos sendo as palavras previamente taggeadas, havendo uma etapa de otimização dos pesos dos atributos com o auxílio de um algoritmo de otimização baseada em população. Os resultados mostram que com esta estrutura de dados e com a abordagem de atribuição de pesos aos atributos houve uma melhora significativa em relação ao valor da acurácia na tarefa de classificação.
-
Mostrar Abstract
-
Com o grande aumento na disponibilidade de dados de várias áreas, há um interesse crescente na pesquisa de padrões em conjuntos de dados. Esses padrões podem ser usados para executar tarefas como agrupamento e classificação. A área de pesquisa de Aprendizado de Máquina (AM) apresenta vários algoritmos com o objetivo de realizar essas tarefas. No entanto, algumas fontes destes dados podem trazer variáveis (ou atributos) desnecessárias que podem comprometer a qualidade dos padrões extraídos e podem, por exemplo, prejudicar em tarefas de classificação, interferindo no valor de acurácia obtido pelo classificador. Neste trabalho é proposta uma representação de dados textuais incorporando taxas de ocorrências de palavras associadas a suas funções sintáticas utilizando tarefas de Processamento de Linguagem Natural (PLN), como o POS-Tagging. A partir dessa estrutura de dados obtida é proposta a atribuição de importância a grupos desses atributos para representar os textos. Utilizando primeiramente Aprendizado Não-supervisionado, é realizado o agrupamento hard das palavras com o algoritmo K-médias, reduzindo a complexidade da base de dados sem que informações importantes sejam perdidas, e após a definição do número de grupos ideal, pesos são atribuídos aos grupos de palavras. Com a abordagem de Aprendizado Supervisionado, é aplicada classificação nos textos, inicialmente com os atributos sendo as palavras previamente taggeadas, havendo uma etapa de otimização dos pesos dos atributos com o auxílio de um algoritmo de otimização baseada em população. Os resultados mostram que com esta estrutura de dados e com a abordagem de atribuição de pesos aos atributos houve uma melhora significativa em relação ao valor da acurácia na tarefa de classificação.
|
|
7
|
-
ERICK FERNANDES DA CRUZ
-
Segmentação Assistida em Imagens de Grande Resolução
-
Orientador : JOAO PAULO GOIS
-
Data: 10/08/2020
-
-
Mostrar Resumo
-
Existem diversas técnicas de segmentação de imagens na literatura, e a importância delas pode ser vista em várias aplicações de áreas como, por exemplo, a visão computacional e o reconhecimento de padrões. Dentre essas áreas, temos a segmentação interativa de imagens, que se utiliza de algoritmos de segmentação assistidos para separar uma imagem em duas regiões com a utilização de marcações feitas pelo usuário. Um método que apresentou resultados interessantes na área da segmentação de imagens foi o Superpixel Laplacian Coordinates, que conseguiu resolver este problema com resultados bastante satisfatórios com relação a qualidade da segmentação e com relação ao tempo de execução, até mesmo em imagens de alta resolução. Apesar de sua performance ser superior a outros algoritmos utilizados em segmentação assistida, ele apresenta algumas etapas bem custosas com relação ao seu tempo de execução, sendo a mais demorada a aplicação do algoritmo SLIC para a geração de superpixels. O presente trabalho tem como objetivo encontrar técnicas de segmentação assistida de imagem que possam ser utilizadas em imagens de alta resolução. Para isso foi utilizado o algoritmo Superpixel Laplacian Coordinates, buscando otimizar suas etapas mais custosas mantendo a qualidade da segmentação final o mais próximo possível do resultado obtido pelo algoritmo original. Também foi desenvolvida uma nova técnica de segmentação derivada do Laplacian Coordinates, que também teve seu comportamento analisado nos diferentes conjuntos de imagens utilizados, denominado pelo presente trabalho como Pyramid Laplacian Coordinates. Para as variações do Superpixel Laplacian Coordinates foram utilizados 4 algoritmos de superpixel, incluindo o próprio SLIC, com variados parâmetros de entrada para conseguir uma comparação melhor de suas vantagens e desvantagens. Além disso realizamos a paralelização de algumas etapas do Superpixel Laplacian Coordinates para diminuir ainda mais seu tempo de processamento. Além de encontrar métodos de segmentação que possam ser utilizados em imagens de alta resolução, o presente trabalho disponibiliza uma aplicação gratuita e de código aberto que pode ser reaproveitada em trabalhos futuros.
-
Mostrar Abstract
-
Existem diversas técnicas de segmentação de imagens na literatura, e a importância delas pode ser vista em várias aplicações de áreas como, por exemplo, a visão computacional e o reconhecimento de padrões. Dentre essas áreas, temos a segmentação interativa de imagens, que se utiliza de algoritmos de segmentação assistidos para separar uma imagem em duas regiões com a utilização de marcações feitas pelo usuário. Um método que apresentou resultados interessantes na área da segmentação de imagens foi o Superpixel Laplacian Coordinates, que conseguiu resolver este problema com resultados bastante satisfatórios com relação a qualidade da segmentação e com relação ao tempo de execução, até mesmo em imagens de alta resolução. Apesar de sua performance ser superior a outros algoritmos utilizados em segmentação assistida, ele apresenta algumas etapas bem custosas com relação ao seu tempo de execução, sendo a mais demorada a aplicação do algoritmo SLIC para a geração de superpixels. O presente trabalho tem como objetivo encontrar técnicas de segmentação assistida de imagem que possam ser utilizadas em imagens de alta resolução. Para isso foi utilizado o algoritmo Superpixel Laplacian Coordinates, buscando otimizar suas etapas mais custosas mantendo a qualidade da segmentação final o mais próximo possível do resultado obtido pelo algoritmo original. Também foi desenvolvida uma nova técnica de segmentação derivada do Laplacian Coordinates, que também teve seu comportamento analisado nos diferentes conjuntos de imagens utilizados, denominado pelo presente trabalho como Pyramid Laplacian Coordinates. Para as variações do Superpixel Laplacian Coordinates foram utilizados 4 algoritmos de superpixel, incluindo o próprio SLIC, com variados parâmetros de entrada para conseguir uma comparação melhor de suas vantagens e desvantagens. Além disso realizamos a paralelização de algumas etapas do Superpixel Laplacian Coordinates para diminuir ainda mais seu tempo de processamento. Além de encontrar métodos de segmentação que possam ser utilizados em imagens de alta resolução, o presente trabalho disponibiliza uma aplicação gratuita e de código aberto que pode ser reaproveitada em trabalhos futuros.
|
|
8
|
-
CHARLES DE FIGUEREDO FERREIRA JUNIOR
-
DESENVOLVIMENTO DE SOFTWARE EM REALIDADE VIRTUAL PARA TRATAMENTO DE FOBIAS SEM CONFRONTO COM O OBJETO FÓBICO
-
Orientador : FRANCISCO JAVIER ROPERO PELAEZ
-
Data: 20/08/2020
-
-
Mostrar Resumo
-
Os métodos utilizados para o tratamento de fobias, em sua maioria, consistem em confrontar diretamente o paciente com o seu objeto fóbico (OF), o que é em muitos casos impensável para o detentor da fobia. O presente trabalho consiste no desenvolvimento de um software em realidade virtual para dispositivos móveis (smartphones) com sistema Android, que permitirá o tratamento de fobias sem o confronto direto do paciente com o OF. Para a realização do software foi utilizada a engine Unity3D, que é disponível para pesquisadores e possui uma interação com o Android para a programação em realidade virtual. A base teórica para o projeto consiste principalmente em um artigo apresentando por Granado et al. (2007), referente o tratamento de aracnofobia por meio da utilização de imagens que remetem a fobia correspondente, além de cursos e manuais referentes a linguagens utilizadas. A adaptação de um tratamento bem sucedido que utiliza imagens em 2D para um tratamento com realidade virtual facilitaria e aprimoraria o formato inicial, devido às possibilidades de estímulos mais realistas em 3D além da mobilidade possível com dispositivos móveis.
-
Mostrar Abstract
-
Os métodos utilizados para o tratamento de fobias, em sua maioria, consistem em confrontar diretamente o paciente com o seu objeto fóbico (OF), o que é em muitos casos impensável para o detentor da fobia. O presente trabalho consiste no desenvolvimento de um software em realidade virtual para dispositivos móveis (smartphones) com sistema Android, que permitirá o tratamento de fobias sem o confronto direto do paciente com o OF. Para a realização do software foi utilizada a engine Unity3D, que é disponível para pesquisadores e possui uma interação com o Android para a programação em realidade virtual. A base teórica para o projeto consiste principalmente em um artigo apresentando por Granado et al. (2007), referente o tratamento de aracnofobia por meio da utilização de imagens que remetem a fobia correspondente, além de cursos e manuais referentes a linguagens utilizadas. A adaptação de um tratamento bem sucedido que utiliza imagens em 2D para um tratamento com realidade virtual facilitaria e aprimoraria o formato inicial, devido às possibilidades de estímulos mais realistas em 3D além da mobilidade possível com dispositivos móveis.
|
|
9
|
-
WILLIAM DOS SANTOS MELO
-
Stochastic linear optimization approaches for joint probabilistic constrained problems with integer random variables
-
Orientador : CRISTIANE MARIA SATO
-
Data: 31/08/2020
-
-
Mostrar Resumo
-
The Stochastic Programming field combines optimization and probability theory. The focus of this field is dealing with optimization problems with uncertainty, in part or in all data, which arises naturally in real problems. There are several ways to model uncertainty and we describe some of them in this dissertation. Among these possibilities, we focus on stochastic linear optimization problems with joint probabilistic constraints in which we can separate the stochastic part from the deterministic part. Considering this type of constraint, we approach the case in which the probability distribution functions are integer. We present the concept of p-Level Efficient Points (p-LEPs) and we show examples in which the convex hull of the p-LEPs may contain unwanted points. Later on, we provide properties and geometric aspects of the convex hull of the p-LEPs and the notion of α-concavity for integer probability distribution functions. We include an algorithm to enumerate the p-LEPs and we exemplify its application to the stochastic set cover problem. Afterwards, we reformulate the stochastic problem with joint probabilistic constraints transforming them into deterministic problems using the p-LEPs. We present five approaches to solve these reformulations, they are: disjunctive programming, convex relaxation, cutting planes algorithm, column generation algorithm and the combination of the last two techniques. We use each one of these approaches to solve several instances of the stochastic set cover problem, in which we vary the number of dimensions and also the probability distribution functions.
-
Mostrar Abstract
-
The Stochastic Programming field combines optimization and probability theory. The focus of this field is dealing with optimization problems with uncertainty, in part or in all data, which arises naturally in real problems. There are several ways to model uncertainty and we describe some of them in this dissertation. Among these possibilities, we focus on stochastic linear optimization problems with joint probabilistic constraints in which we can separate the stochastic part from the deterministic part. Considering this type of constraint, we approach the case in which the probability distribution functions are integer. We present the concept of p-Level Efficient Points (p-LEPs) and we show examples in which the convex hull of the p-LEPs may contain unwanted points. Later on, we provide properties and geometric aspects of the convex hull of the p-LEPs and the notion of α-concavity for integer probability distribution functions. We include an algorithm to enumerate the p-LEPs and we exemplify its application to the stochastic set cover problem. Afterwards, we reformulate the stochastic problem with joint probabilistic constraints transforming them into deterministic problems using the p-LEPs. We present five approaches to solve these reformulations, they are: disjunctive programming, convex relaxation, cutting planes algorithm, column generation algorithm and the combination of the last two techniques. We use each one of these approaches to solve several instances of the stochastic set cover problem, in which we vary the number of dimensions and also the probability distribution functions.
|
|
10
|
-
RHÁLEFF NASCIMENTO RODRIGUES DE OLIVEIRA
-
PLANEJAMENTO DO DESIGN E DA EXECUÇÃO DA AVALIAÇÃO DO DESEMPENHO DE ALUNOS EM JOGOS SÉRIOS
-
Orientador : RAFAELA VILELA DA ROCHA CAMPOS
-
Data: 03/09/2020
-
-
Mostrar Resumo
-
Os jogos sérios educacionais (JSEs) são desenvolvidos para apoiar a aquisição de conhecimento e desenvolvimento de habilidades, por isso há a necessidade de mensurar os resultados alcançados (tanto depois que os alunos usam o jogo, como durante o jogo), para garantir a eficácia e efetividade dos jogos. Em JSEs, a avaliação pode ter o objetivo de avaliar o jogo em si, o produto final, ou o desempenho do aluno, no auxílio ao aprendizado do aluno. No entanto, a maioria das avaliações em JSEs são realizadas com foco em coletar a satisfação, motivação e outras reações dos alunos, sendo muitas vezes ignorada a avaliação da aprendizagem. Isto ocorre pela falta de abordagens (processos, modelos, métodos, frameworks) que apoiem o planejamento da avaliação durante o processo de produção de um JSE. Neste contexto, este trabalho tem como objetivo desenvolver e avaliar o AvaliaJSE, um modelo conceitual para estruturar, orientar e suportar o planejamento e design e execução da avaliação do desempenho do aluno em JSEs. O AvaliaJSE foi concebido por meio de uma visão holística sobre as abordagens (métodos, metodologias, processos, frameworks, modelos) de avaliação, no contexto de JSEs, através de um levantamento bibliográfico. O AvaliaJSE possui dois artefatos: um modelo canvas e um documento de projeto da avaliação, este para especificação mais detalhada do canvas. Para análise e exemplificação do uso do modelo, os artefatos foram aplicados a três jogos já prontos, como prova de conceito. Além disso, o AvaliaJSE foi avaliado por especialistas da área de desenvolvimento de JSEs e avaliação, por meio de questionário com perguntas fechadas e abertas, sobre sua corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade e usabilidade. O AvaliaJSE e seus artefatos podem ser usados para auxiliar a equipe no planejamento, documentação e desenvolvimento dos artefatos e coleta de dados em JSEs, bem como, na execução da avaliação, mensuração da aprendizagem e feedback constante e personalizado para os alunos.
-
Mostrar Abstract
-
Os jogos sérios educacionais (JSEs) são desenvolvidos para apoiar a aquisição de conhecimento e desenvolvimento de habilidades, por isso há a necessidade de mensurar os resultados alcançados (tanto depois que os alunos usam o jogo, como durante o jogo), para garantir a eficácia e efetividade dos jogos. Em JSEs, a avaliação pode ter o objetivo de avaliar o jogo em si, o produto final, ou o desempenho do aluno, no auxílio ao aprendizado do aluno. No entanto, a maioria das avaliações em JSEs são realizadas com foco em coletar a satisfação, motivação e outras reações dos alunos, sendo muitas vezes ignorada a avaliação da aprendizagem. Isto ocorre pela falta de abordagens (processos, modelos, métodos, frameworks) que apoiem o planejamento da avaliação durante o processo de produção de um JSE. Neste contexto, este trabalho tem como objetivo desenvolver e avaliar o AvaliaJSE, um modelo conceitual para estruturar, orientar e suportar o planejamento e design e execução da avaliação do desempenho do aluno em JSEs. O AvaliaJSE foi concebido por meio de uma visão holística sobre as abordagens (métodos, metodologias, processos, frameworks, modelos) de avaliação, no contexto de JSEs, através de um levantamento bibliográfico. O AvaliaJSE possui dois artefatos: um modelo canvas e um documento de projeto da avaliação, este para especificação mais detalhada do canvas. Para análise e exemplificação do uso do modelo, os artefatos foram aplicados a três jogos já prontos, como prova de conceito. Além disso, o AvaliaJSE foi avaliado por especialistas da área de desenvolvimento de JSEs e avaliação, por meio de questionário com perguntas fechadas e abertas, sobre sua corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade e usabilidade. O AvaliaJSE e seus artefatos podem ser usados para auxiliar a equipe no planejamento, documentação e desenvolvimento dos artefatos e coleta de dados em JSEs, bem como, na execução da avaliação, mensuração da aprendizagem e feedback constante e personalizado para os alunos.
|
|
11
|
-
LUÍS FELIPE DE OLIVEIRA MELLE
-
Proposta de extensão da metodologia INTERA para o desenvolvimento de jogos educacionais
-
Orientador : JULIANA CRISTINA BRAGA
-
Data: 14/09/2020
-
-
Mostrar Resumo
-
Os jogos educacionais, possibilitam aos jogadores entretenimento e aprendizado ao mesmo tempo. Porém para que isso ocorra é necessário que o jogo seja bem produzido, para que não fuja dos fins educacionais e seja apenas para entretenimento. Esse ponto abordado é uma dificuldade que vários jogos apresentam. Considerando tal dificuldade de construir um jogo digital educacional é indispensável o uso de metodologias para seu desenvolvimento. Existem algumas metodologias para o desenvolvimento de jogos digitais, porém elas ainda apresentam lacunas e são carentes de documentação. Analisando tais dificuldades, será proposto uma metodologia para o desenvolvimento de jogos digitais educacionais que preenche as lacunas que estão faltando nas metodologias existentes. A metodologia está sendo desenvolvia a partir de uma revisão sistemática da literatura, da metodologia INTERA e de um estudo de campo em um projeto para o desenvolvimento do jogo Expedição Antártica.
-
Mostrar Abstract
-
Os jogos educacionais, possibilitam aos jogadores entretenimento e aprendizado ao mesmo tempo. Porém para que isso ocorra é necessário que o jogo seja bem produzido, para que não fuja dos fins educacionais e seja apenas para entretenimento. Esse ponto abordado é uma dificuldade que vários jogos apresentam. Considerando tal dificuldade de construir um jogo digital educacional é indispensável o uso de metodologias para seu desenvolvimento. Existem algumas metodologias para o desenvolvimento de jogos digitais, porém elas ainda apresentam lacunas e são carentes de documentação. Analisando tais dificuldades, será proposto uma metodologia para o desenvolvimento de jogos digitais educacionais que preenche as lacunas que estão faltando nas metodologias existentes. A metodologia está sendo desenvolvia a partir de uma revisão sistemática da literatura, da metodologia INTERA e de um estudo de campo em um projeto para o desenvolvimento do jogo Expedição Antártica.
|
|
12
|
-
DIEGO MARQUES DE CARVALHO
-
Diretrizes para o desenvolvimento de jogos digitais educacionais embasados na teoria sociointeracionista de Lev Vigotski
-
Orientador : SILVIA CRISTINA DOTTA
-
Data: 16/09/2020
-
-
Mostrar Resumo
-
Os jogos educacionais digitais (JDEs), são considerados softwares educacionais (SEs) e têm sido utilizado como ferramenta de apoio a aprendizagem nos mais diversos contextos, no entanto observa-se a falta de atenção de questões pedagógicas em seu processo de criação. Desenvolver um JDE que supra as necessidades de uma perspectiva pedagógica sociointeracionista é também um desafio da computação, pertinente ao desenvolvimento de softwares com qualidade, pois estes devem atender requisitos específicos dos educadores. Objetiva-se nesta pesquisa analisar o processo de desenvolvimento do JDE Expedição Antártica, desenvolvido pelo grupo de pesquisa INTERA (Inteligência em Tecnologias Educacionais e Recursos Acessíveis), investigando assim as características que tornam as mecânicas de jogo alicerçadas na teoria sociointeracionista de Lev Vigotski. Para tanto, recorreu-se à revisão sistemática da literatura e a análise do processo de desenvolvimento do jogo Expedição Antártica. Ao final, espera-se identificar as características da mecânica de jogo que o torna alicerçado na teoria de aprendizagem sociointeracionista.
-
Mostrar Abstract
-
Os jogos educacionais digitais (JDEs), são considerados softwares educacionais (SEs) e têm sido utilizado como ferramenta de apoio a aprendizagem nos mais diversos contextos, no entanto observa-se a falta de atenção de questões pedagógicas em seu processo de criação. Desenvolver um JDE que supra as necessidades de uma perspectiva pedagógica sociointeracionista é também um desafio da computação, pertinente ao desenvolvimento de softwares com qualidade, pois estes devem atender requisitos específicos dos educadores. Objetiva-se nesta pesquisa analisar o processo de desenvolvimento do JDE Expedição Antártica, desenvolvido pelo grupo de pesquisa INTERA (Inteligência em Tecnologias Educacionais e Recursos Acessíveis), investigando assim as características que tornam as mecânicas de jogo alicerçadas na teoria sociointeracionista de Lev Vigotski. Para tanto, recorreu-se à revisão sistemática da literatura e a análise do processo de desenvolvimento do jogo Expedição Antártica. Ao final, espera-se identificar as características da mecânica de jogo que o torna alicerçado na teoria de aprendizagem sociointeracionista.
|
|
13
|
-
HENRIQUE MARTINS BOTELHO
-
Programa Evolver para Árvores de Steiner Ponderadas
-
Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
-
Data: 23/09/2020
-
-
Mostrar Resumo
-
Apresentamos um algoritmo quase-ótimo inspirado em um experimento físico usando películas de sabão para o problema de Steiner ponderado no plano. Tal problema é NP-hard, mesmo em sua versão retilinear e devido a isso algoritmos heurísticos vêm sendo usados para encontrar árvores próximas da mínima. O algoritmo é implementado na linguagem de programação Evolver, que já contém muitas rotinas internas de minimização de energia. Algumas são chamadas pelo programa, o que permite que ele consista de 183 de código-fonte. Nosso algoritmo reproduz o experimento físico de uma película de sabão que se desprende de pinos conectados para chegar a uma configuração estável. Adicionalmente, no caso não-ponderado são feitas comparações com o GeoSteiner. Ao longo do texto, apresentamos diversos resultados de Geometria, Teoria dos Grafos e Física que modelam e nos d ̃ao uma visão do problema sob diferentes ângulos.
-
Mostrar Abstract
-
Apresentamos um algoritmo quase-ótimo inspirado em um experimento físico usando películas de sabão para o problema de Steiner ponderado no plano. Tal problema é NP-hard, mesmo em sua versão retilinear e devido a isso algoritmos heurísticos vêm sendo usados para encontrar árvores próximas da mínima. O algoritmo é implementado na linguagem de programação Evolver, que já contém muitas rotinas internas de minimização de energia. Algumas são chamadas pelo programa, o que permite que ele consista de 183 de código-fonte. Nosso algoritmo reproduz o experimento físico de uma película de sabão que se desprende de pinos conectados para chegar a uma configuração estável. Adicionalmente, no caso não-ponderado são feitas comparações com o GeoSteiner. Ao longo do texto, apresentamos diversos resultados de Geometria, Teoria dos Grafos e Física que modelam e nos d ̃ao uma visão do problema sob diferentes ângulos.
|
|
14
|
-
MAURICIO PEREIRA LUTI
-
SISTEMA COMPUTACIONAL PARA A MELHORIA DA MOBILIDADE DE PESSOAS COM DEFICIÊNCIAS VISUAIS EM REDES METROVIÁRIAS (MMPDV_RM)
-
Orientador : ITANA STIUBIENER
-
Data: 04/11/2020
-
-
Mostrar Resumo
-
O crescimento populacional das grandes cidades do mundo tem sido extremamente acentuado ao longo dos anos e, segundo relatórios das Nações Unidas, a previsão é que continue em franca ascensão. Com o objetivo de atender às necessidades do crescimento dessa população, surge o conceito de Cidades Inteligentes, que se define como o uso da tecnologia para melhorar a infraestrutura urbana e prover uma melhor qualidade de vida da população. Nesse cenário, a mobilidade urbana será o tema abordado neste trabalho, mais especificamente, a mobilidade urbana dos deficientes visuais. O presente trabalho tem por objetivo propor um sistema de auxílio à locomoção de pessoas com deficiência visual em ambientes públicos de transporte, tais como estações de metrô, estações de trem, terminais de ônibus, etc., através de utilização de tecnologia celular (Smartphones). A proposta consiste em prover informações de localização aos usuários do serviço através de um programa aplicativo instalado em um Smartphone para que os funcionários dos ambientes públicos de transporte consigam localizar os usuários deficientes visuais mesmo que estes estejam fora da estação e auxiliá-los em sua locomoção dentro do transporte público. Como prova de conceito da proposta foi escolhido o ambiente do metrô.
A metodologia utilizada no trabalho é a pesquisa experimental e será utilizado o cálculo dinâmico das distâncias físicas entre os usuários deficientes visuais e os pontos de acesso às estações de metrô, através de coordenadas de geolocalização, fornecidas pelo GPS dos Smartphones dos usuários. Um servidor central irá gerenciar a comunicação entre os aplicativos instalados nos Smartphones dos usuários deficientes visuais, além de enviar ao setor operacional de cada estação de metrô as notificações de solicitação de auxílio aos usuários deficientes visuais. Com os resultados desse trabalho espera-se gerar, através do uso de tecnologia, melhorias na autonomia dos deficientes visuais em termos de mobilidade nos transportes públicos contribuindo para o aumento de sua inclusão e cidadania, e também contribuindo com a expansão e desenvolvimento do conceito de Cidades Inteligentes.
-
Mostrar Abstract
-
O crescimento populacional das grandes cidades do mundo tem sido extremamente acentuado ao longo dos anos e, segundo relatórios das Nações Unidas, a previsão é que continue em franca ascensão. Com o objetivo de atender às necessidades do crescimento dessa população, surge o conceito de Cidades Inteligentes, que se define como o uso da tecnologia para melhorar a infraestrutura urbana e prover uma melhor qualidade de vida da população. Nesse cenário, a mobilidade urbana será o tema abordado neste trabalho, mais especificamente, a mobilidade urbana dos deficientes visuais. O presente trabalho tem por objetivo propor um sistema de auxílio à locomoção de pessoas com deficiência visual em ambientes públicos de transporte, tais como estações de metrô, estações de trem, terminais de ônibus, etc., através de utilização de tecnologia celular (Smartphones). A proposta consiste em prover informações de localização aos usuários do serviço através de um programa aplicativo instalado em um Smartphone para que os funcionários dos ambientes públicos de transporte consigam localizar os usuários deficientes visuais mesmo que estes estejam fora da estação e auxiliá-los em sua locomoção dentro do transporte público. Como prova de conceito da proposta foi escolhido o ambiente do metrô.
A metodologia utilizada no trabalho é a pesquisa experimental e será utilizado o cálculo dinâmico das distâncias físicas entre os usuários deficientes visuais e os pontos de acesso às estações de metrô, através de coordenadas de geolocalização, fornecidas pelo GPS dos Smartphones dos usuários. Um servidor central irá gerenciar a comunicação entre os aplicativos instalados nos Smartphones dos usuários deficientes visuais, além de enviar ao setor operacional de cada estação de metrô as notificações de solicitação de auxílio aos usuários deficientes visuais. Com os resultados desse trabalho espera-se gerar, através do uso de tecnologia, melhorias na autonomia dos deficientes visuais em termos de mobilidade nos transportes públicos contribuindo para o aumento de sua inclusão e cidadania, e também contribuindo com a expansão e desenvolvimento do conceito de Cidades Inteligentes.
|
|
15
|
-
LARISSA DE MATTOS
-
Contribuições para o Desenvolvimento de Agentes Pedagógicos Conversacionais e sua integração a Ambientes Virtuais de Aprendizagem
-
Orientador : EDSON PINHEIRO PIMENTEL
-
Data: 17/11/2020
-
-
Mostrar Resumo
-
O desenvolvimento tecnológico têm criado condições para que as instituições de ensino adotem novas estratégias pedagógicas com o objetivo de enriquecer o processo de ensino-aprendizagem dos estudantes por meio da educação mediada por tecnologias. A visão de ensino como um fenômeno social incorpora-se no domínio de aprendizagem assistida por computador, e deste modo, são exploradas formas de empregar-se características sociais em ambientes de ensino virtuais. Neste contexto, a área de Agentes Pedagógicos Conversacionais (APC) denota o desenvolvimento de aplicações que visam o aperfeiçoamento da interação entre estudantes e ambientes virtuais de aprendizagem. Estudos apontam uma predileção dos estudantes por ambientes virtuais de aprendizagem que proporcionam interação com tais agentes, pois promovem proximidade à papéis educacionais relevantes, em um cenário que, em geral, os estudantes se sentem distantes dos professores e demais colegas. No entanto, o uso de APC tem sido pouco explorado em ambientes virtuais de aprendizagem. Neste sentido, este trabalho tem por objetivo geral apresentar o APC Penelopinha, desenvolvido para o domínio de conhecimento de Introdução a Programação, e integrado ao ambiente virtual Moodle. Além do APC destacam-se os seguintes resultados do trabalho: a especificação de um processo para desenvolvimento de APC e sua integração ao Moodle, a modelagem do domínio de conhecimento da disciplina de Processamento da Informação da UFABC, a avaliação a eficiência dos diálogos apresentados pelo Agente e a avaliação da percepção do usuário na interação humano-máquina proporcionada pelo APC com base no questionário Attrakdiff.
-
Mostrar Abstract
-
O desenvolvimento tecnológico têm criado condições para que as instituições de ensino adotem novas estratégias pedagógicas com o objetivo de enriquecer o processo de ensino-aprendizagem dos estudantes por meio da educação mediada por tecnologias. A visão de ensino como um fenômeno social incorpora-se no domínio de aprendizagem assistida por computador, e deste modo, são exploradas formas de empregar-se características sociais em ambientes de ensino virtuais. Neste contexto, a área de Agentes Pedagógicos Conversacionais (APC) denota o desenvolvimento de aplicações que visam o aperfeiçoamento da interação entre estudantes e ambientes virtuais de aprendizagem. Estudos apontam uma predileção dos estudantes por ambientes virtuais de aprendizagem que proporcionam interação com tais agentes, pois promovem proximidade à papéis educacionais relevantes, em um cenário que, em geral, os estudantes se sentem distantes dos professores e demais colegas. No entanto, o uso de APC tem sido pouco explorado em ambientes virtuais de aprendizagem. Neste sentido, este trabalho tem por objetivo geral apresentar o APC Penelopinha, desenvolvido para o domínio de conhecimento de Introdução a Programação, e integrado ao ambiente virtual Moodle. Além do APC destacam-se os seguintes resultados do trabalho: a especificação de um processo para desenvolvimento de APC e sua integração ao Moodle, a modelagem do domínio de conhecimento da disciplina de Processamento da Informação da UFABC, a avaliação a eficiência dos diálogos apresentados pelo Agente e a avaliação da percepção do usuário na interação humano-máquina proporcionada pelo APC com base no questionário Attrakdiff.
|
|
16
|
-
JOSÉ ROBERTO DOS SANTOS
-
Acompanhamento da Aprendizagem pelo Estudante por meio de Learning Analytics Dashboards no Ambiente Virtual Moodle
-
Orientador : EDSON PINHEIRO PIMENTEL
-
Data: 14/12/2020
-
-
Mostrar Resumo
-
O acompanhamento da aprendizagem pelo próprio estudante tem sido estudado no âmbito da autorregulação da aprendizagem. Pesquisas indicam que aprendizes com altos índices de autorregulação possuem maiores chances de continuarem ativos no decorrer de um curso. Learning Analytics Dashboards (LAD) apresentam grande potencial para serem utilizadas como ferramentas para apoiar o acompanhamento e monitoramento da aprendizagem. LAD tipicamente capturam e apresentam de forma gráfica o rastreamento das atividades de aprendizagem dos estudantes, especialmente em Ambientes Virtuais da Aprendizagem (AVA) com a finalidade de promover a consciência e reflexão e permitir que os estudantes possam acompanhar tanto seu progresso quanto monitorar o próprio comportamento. Entretanto, identificou-se que a maioria das aplicações de LAD disponíveis são desenvolvidas para apoiar os professores. Ou seja, poucas aplicações desse tipo são endereçadas explicitamente para que os próprios estudantes possam visualizar e analisar os seus dados e assim possibilitar a reflexão sobre o próprio desempenho ou comportamento de aprendizagem. Nesse sentido, este trabalho tem por objetivo geral apresentar a ferramenta DashLearner, que é um plugin Moodle desenvolvido para propiciar o acompanhamento da aprendizagem pelos estudantes. A expectativa é que a disponibilidade de um plugin com estas características, para um AVA bastante utilizado, possa fomentar e ampliar os processos de autorregulação da aprendizagem pelo estudante. O trabalho apresenta a discussão dos resultados do uso do DashLearner com uma turma de um curso de graduação e uma turma de um curso de especialização.
-
Mostrar Abstract
-
O acompanhamento da aprendizagem pelo próprio estudante tem sido estudado no âmbito da autorregulação da aprendizagem. Pesquisas indicam que aprendizes com altos índices de autorregulação possuem maiores chances de continuarem ativos no decorrer de um curso. Learning Analytics Dashboards (LAD) apresentam grande potencial para serem utilizadas como ferramentas para apoiar o acompanhamento e monitoramento da aprendizagem. LAD tipicamente capturam e apresentam de forma gráfica o rastreamento das atividades de aprendizagem dos estudantes, especialmente em Ambientes Virtuais da Aprendizagem (AVA) com a finalidade de promover a consciência e reflexão e permitir que os estudantes possam acompanhar tanto seu progresso quanto monitorar o próprio comportamento. Entretanto, identificou-se que a maioria das aplicações de LAD disponíveis são desenvolvidas para apoiar os professores. Ou seja, poucas aplicações desse tipo são endereçadas explicitamente para que os próprios estudantes possam visualizar e analisar os seus dados e assim possibilitar a reflexão sobre o próprio desempenho ou comportamento de aprendizagem. Nesse sentido, este trabalho tem por objetivo geral apresentar a ferramenta DashLearner, que é um plugin Moodle desenvolvido para propiciar o acompanhamento da aprendizagem pelos estudantes. A expectativa é que a disponibilidade de um plugin com estas características, para um AVA bastante utilizado, possa fomentar e ampliar os processos de autorregulação da aprendizagem pelo estudante. O trabalho apresenta a discussão dos resultados do uso do DashLearner com uma turma de um curso de graduação e uma turma de um curso de especialização.
|
|
17
|
-
BARBARA KATHELLEN ANDRADE PORFIRIO
-
Análise de Qualidade de Dados Geográficos Vetoriais: DA TAXONOMIA DE ERROS AO EXPERIMENTO
-
Orientador : FLAVIO EDUARDO AOKI HORITA
-
Data: 15/12/2020
-
-
Mostrar Resumo
-
O recente desenvolvimento de Sistemas de Informações Geográficas e a alta disponibilidade de recursos de geolocalização têm estimulado a geração de dados geográficos. O uso correto desses dados depende fortemente de sua qualidade e capacidade de integração. Para encontrar uma maneira adequada de integrar dados geográficos, é essencial definir uma estratégia para identificar erros. Nesse contexto, este trabalho tem como objetivo propor uma forma de identificar e classificar erros geográficos, para fins de verificação automática e controle de qualidade dos dados. A classificação utiliza o padrão ISO 19157 como referência e aplica estratégias de integração baseada em dados de formatos abertos e software livre para a realização da verificação automática de erros em dados geográficos. Os resultados apresentam dois estudos de caso usando arquivos com limites municipais do estado de São Paulo, de fontes diferentes, mostrando resultados positivos.
-
Mostrar Abstract
-
O recente desenvolvimento de Sistemas de Informações Geográficas e a alta disponibilidade de recursos de geolocalização têm estimulado a geração de dados geográficos. O uso correto desses dados depende fortemente de sua qualidade e capacidade de integração. Para encontrar uma maneira adequada de integrar dados geográficos, é essencial definir uma estratégia para identificar erros. Nesse contexto, este trabalho tem como objetivo propor uma forma de identificar e classificar erros geográficos, para fins de verificação automática e controle de qualidade dos dados. A classificação utiliza o padrão ISO 19157 como referência e aplica estratégias de integração baseada em dados de formatos abertos e software livre para a realização da verificação automática de erros em dados geográficos. Os resultados apresentam dois estudos de caso usando arquivos com limites municipais do estado de São Paulo, de fontes diferentes, mostrando resultados positivos.
|
|
18
|
-
FLÁVIA JANINE ROSANTE BÉO
-
Aprendizado de Máquina Quântica com Rede Neural Artificial Aplicado ao Problema de Coloração de Grafos
-
Orientador : KARLA VITTORI
-
Data: 16/12/2020
-
-
Mostrar Resumo
-
O problema de coloração de grafos consiste em atribuir cores a certos elementos de um grafo, sujeito a determinadas condições. Ao se caracterizar como um problema de otimização combinatória, ele possui aplicabilidade a uma vasta gama de áreas que envolvem particionamento e conflitos, compreendendo escalonamentos e alocações diversas, como, por exemplo, de tarefas, canais, redes, eventos e rotas. Inicialmente solucionado por algoritmos exatos, capazes de fornecer a solução ótima, estes se mostraram ineficientes na resolução de problemas de coloração de grafos de alta complexidade, sendo incapazes de fornecer soluções em um tempo computacional aceitável. Assim, técnicas de Inteligência Artificial foram aplicadas com sucesso a instâncias complexas deste problema nas últimas décadas. A Computação Quântica, tem se mostrado nos últimos anos uma possível alternativa viável e eficiente na resolução de problemas complexos diversos, com aplicações futuras na simulação e otimização em diferentes áreas, como medicina, transporte, finanças e segurança cibernética. Dentro deste contexto, esta pesquisa envolve a simulação da execução de um algoritmo de Inteligência Artificial em um computador quântico para a resolução de um problema de coloração de grafos, constituindo, portanto, um algoritmo híbrido. O intuito é demonstrar o ganho em performance, relacionada a diferentes métricas, como o tempo de execução do algoritmo implementado e a qualidade da solução por ele encontrada, ambos relacionados à simulação do seu funcionamento em um computador quântico. A técnica de Inteligência Artificial utilizada foi uma Rede Neural Artificial, que tem sido aplicada com sucesso nas últimas décadas a problemas de otimização combinatória de diversas áreas, como telecomunicações, medicina, gestão, segurança e previsão. Os experimentos foram realizados no IBM Q Experience, uma plataforma online que disponibiliza o acesso a um conjunto de protótipos de processadores quânticos da IBM, por meio da computação em nuvem. Os resultados obtidos foram comparados aos da rede neural utilizada, aplicada anteriormente ao problema de coloração de grafos na literatura, e implementada em um computador clássico, de acordo com determinadas métricas. O problema considerado, constituído por um grafo com 4 vértices, demonstrou o potencial do algoritmo híbrido quântico proposto na resolução de um problema de otimização combinatória, o qual obteve resultados superiores em relação àqueles apresentados pela rede neural artificial utilizada, implementada em um computador clássico, com relação ao tempo de processamento e à acurácia da rede neural considerada. Esta pesquisa também discutiu como minimizar futuramente as limitações ainda apresentadas por um computador quântico na resolução do problema de coloração de grafos, a qual pode ser estendida a outros problemas de otimização combinatória, para instâncias maiores.
-
Mostrar Abstract
-
O problema de coloração de grafos consiste em atribuir cores a certos elementos de um grafo, sujeito a determinadas condições. Ao se caracterizar como um problema de otimização combinatória, ele possui aplicabilidade a uma vasta gama de áreas que envolvem particionamento e conflitos, compreendendo escalonamentos e alocações diversas, como, por exemplo, de tarefas, canais, redes, eventos e rotas. Inicialmente solucionado por algoritmos exatos, capazes de fornecer a solução ótima, estes se mostraram ineficientes na resolução de problemas de coloração de grafos de alta complexidade, sendo incapazes de fornecer soluções em um tempo computacional aceitável. Assim, técnicas de Inteligência Artificial foram aplicadas com sucesso a instâncias complexas deste problema nas últimas décadas. A Computação Quântica, tem se mostrado nos últimos anos uma possível alternativa viável e eficiente na resolução de problemas complexos diversos, com aplicações futuras na simulação e otimização em diferentes áreas, como medicina, transporte, finanças e segurança cibernética. Dentro deste contexto, esta pesquisa envolve a simulação da execução de um algoritmo de Inteligência Artificial em um computador quântico para a resolução de um problema de coloração de grafos, constituindo, portanto, um algoritmo híbrido. O intuito é demonstrar o ganho em performance, relacionada a diferentes métricas, como o tempo de execução do algoritmo implementado e a qualidade da solução por ele encontrada, ambos relacionados à simulação do seu funcionamento em um computador quântico. A técnica de Inteligência Artificial utilizada foi uma Rede Neural Artificial, que tem sido aplicada com sucesso nas últimas décadas a problemas de otimização combinatória de diversas áreas, como telecomunicações, medicina, gestão, segurança e previsão. Os experimentos foram realizados no IBM Q Experience, uma plataforma online que disponibiliza o acesso a um conjunto de protótipos de processadores quânticos da IBM, por meio da computação em nuvem. Os resultados obtidos foram comparados aos da rede neural utilizada, aplicada anteriormente ao problema de coloração de grafos na literatura, e implementada em um computador clássico, de acordo com determinadas métricas. O problema considerado, constituído por um grafo com 4 vértices, demonstrou o potencial do algoritmo híbrido quântico proposto na resolução de um problema de otimização combinatória, o qual obteve resultados superiores em relação àqueles apresentados pela rede neural artificial utilizada, implementada em um computador clássico, com relação ao tempo de processamento e à acurácia da rede neural considerada. Esta pesquisa também discutiu como minimizar futuramente as limitações ainda apresentadas por um computador quântico na resolução do problema de coloração de grafos, a qual pode ser estendida a outros problemas de otimização combinatória, para instâncias maiores.
|
|
19
|
-
THIAGO DE JESUS INOCÊNCIO
-
UMA METODOLOGIA BASEADA EM MINERAÇÃO DE DADOS PARA O PROJETO DE SISTEMAS-DE-SISTEMAS A PARTIR DE COMPORTAMENTOS EMERGENTES SIMPLES DERIVADOS DOS PROCESSOS DE NEGÓCIOS
-
Orientador : FLAVIO EDUARDO AOKI HORITA
-
Data: 16/12/2020
-
-
Mostrar Resumo
-
Contexto: Um sistema-de-sistemas (SoS) é uma classe de sistema caracterizada pela união de sistemas constituintes que são operados e gerenciados de forma independente e que juntos são capazes de produzir ações inovadoras. Cada constituinte de um SoS contribui com suas funcionalidades específicas para criar comportamentos novos conhecidos como comportamentos emergentes. Devido à natureza complexa dos SoS, à medida que novos constituintes se juntam ou saem do conjunto, comportamentos emergentes inesperados podem aparecer, tornando a modelagem e a simulação um papel significativo no desenvolvimento desses sistemas. Processos de negócios são amplamente adotados nas organizações com intuito de melhorar a agilidade e a tomada de decisão. Em muitos casos, as atividades presentes em um processo de negócio são realizadas por meio de sistemas. Problema: Caso uma atividade de processo negócio não puder ser executada de forma eficiente por um único sistema, podem existir conjuntos de sistemas que reunidos em um SoS apresentem comportamentos emergentes capazes de atender a essa atividade. A busca por constituintes pode ser realizada em repositórios de sistemas, no entanto, a depender dos requisitos definidos para os constituintes, a busca manual constitui-se uma tarefa dispendiosa e possivelmente orientada a falhas. Nesse sentido, técnicas de mineração de dados caracterizam-se como ferramenta importante no processo de descoberta e conhecimento em grandes bases de dados de sistemas. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de criar modelos de SoS com base em comportamentos emergentes derivados de processos de negócios utilizando técnicas de mineração de dados. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata de comportamentos emergentes em SoS com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de SoS. Com vistas a encontrar os sistemas constituintes dos SoS, algoritmos de mineração de dados foram utilizados para dar suporte a essa tarefa. Para isso, a metodologia proposta foi aplicada em um estudo de caso prático com vistas a validá-la. Resultados: Os resultados da aplicação da metodologia mostram que embora todos os algoritmos de mineração de dados analisados nesta pesquisa apresentem resultados satisfatórios, o agrupamento por densidade a partir do algoritmo dbscan apresentou resultados mais satisfatórios na busca por sistemas constituintes que unidos apresentam comportamentos emergentes que atendam aos requisitos de negócios. No entanto, pode-se observar que o algoritmo dbscan apresentou os maiores tempos de execução dentre todas as técnicas, tornando-o impraticável caso o tempo de execução seja uma variável importante durante a aplicação da metodologia. Em contrapartida, o algoritmo de ranking se apresentou a o melhor opção quando tempo de execução é relevante durante a aplicação. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de SoS que vão ao encontro dos direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a constatação de que comportamento emergentes de Sos derivados de processos de negócios são capazes de auxiliar a realização das atividades presentes nesses processos.
-
Mostrar Abstract
-
Contexto: Um sistema-de-sistemas (SoS) é uma classe de sistema caracterizada pela união de sistemas constituintes que são operados e gerenciados de forma independente e que juntos são capazes de produzir ações inovadoras. Cada constituinte de um SoS contribui com suas funcionalidades específicas para criar comportamentos novos conhecidos como comportamentos emergentes. Devido à natureza complexa dos SoS, à medida que novos constituintes se juntam ou saem do conjunto, comportamentos emergentes inesperados podem aparecer, tornando a modelagem e a simulação um papel significativo no desenvolvimento desses sistemas. Processos de negócios são amplamente adotados nas organizações com intuito de melhorar a agilidade e a tomada de decisão. Em muitos casos, as atividades presentes em um processo de negócio são realizadas por meio de sistemas. Problema: Caso uma atividade de processo negócio não puder ser executada de forma eficiente por um único sistema, podem existir conjuntos de sistemas que reunidos em um SoS apresentem comportamentos emergentes capazes de atender a essa atividade. A busca por constituintes pode ser realizada em repositórios de sistemas, no entanto, a depender dos requisitos definidos para os constituintes, a busca manual constitui-se uma tarefa dispendiosa e possivelmente orientada a falhas. Nesse sentido, técnicas de mineração de dados caracterizam-se como ferramenta importante no processo de descoberta e conhecimento em grandes bases de dados de sistemas. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de criar modelos de SoS com base em comportamentos emergentes derivados de processos de negócios utilizando técnicas de mineração de dados. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata de comportamentos emergentes em SoS com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de SoS. Com vistas a encontrar os sistemas constituintes dos SoS, algoritmos de mineração de dados foram utilizados para dar suporte a essa tarefa. Para isso, a metodologia proposta foi aplicada em um estudo de caso prático com vistas a validá-la. Resultados: Os resultados da aplicação da metodologia mostram que embora todos os algoritmos de mineração de dados analisados nesta pesquisa apresentem resultados satisfatórios, o agrupamento por densidade a partir do algoritmo dbscan apresentou resultados mais satisfatórios na busca por sistemas constituintes que unidos apresentam comportamentos emergentes que atendam aos requisitos de negócios. No entanto, pode-se observar que o algoritmo dbscan apresentou os maiores tempos de execução dentre todas as técnicas, tornando-o impraticável caso o tempo de execução seja uma variável importante durante a aplicação da metodologia. Em contrapartida, o algoritmo de ranking se apresentou a o melhor opção quando tempo de execução é relevante durante a aplicação. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de SoS que vão ao encontro dos direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a constatação de que comportamento emergentes de Sos derivados de processos de negócios são capazes de auxiliar a realização das atividades presentes nesses processos.
|
|
|
Teses |
|
1
|
-
CHARLES HENRIQUE PORTO FERREIRA
-
Extração e Combinação de Múltiplas Visões para Classificação de Textos
-
Orientador : DEBORA MARIA ROSSI DE MEDEIROS
-
Data: 14/02/2020
-
-
Mostrar Resumo
-
Analisar a informação através de múltiplas perspectivas pode colaborar no entendimento dos dados e na extração de conhecimento, permitindo a exploração de um intervalo maior de características, principalmente em se tratando de textos. Para fazer uma análise significativa de todos os aspectos de um texto, é fundamental observá-lo através de múltiplas perspectivas permitindo assim uma investigação mais objetiva. Neste trabalho, estamos propondo uma técnica capaz de gerar múltiplas visões de textos para aprender suas características e incorporar seu conhecimento em uma única representação vetorial que seja apta para generalizar um modelo preditivo aprimorado que visa aperfeiçoar a classificação de documentos. Estamos apresentando duas propostas para combinar nossas múltiplas visões. Cada estratégia possui algumas variações que proporcionam mais flexibilidade. Avaliamos nossos métodos através da tarefa de classificação de textos sobre duas perspectivas diferentes. Inicialmente, comparamos nossa proposta contra métodos que usam uma única visão dos dados e posteriormente, confrontamos contra técnicas de estado-da-arte que também utilizam múltiplas visões. Executamos os experimentos com quatro classificadores em seis bases de textos diferentes. Nossas propostas superaram as técnicas concorrentes em quase todos os experimentos mostrando sua capacidade de aprender com múltiplas visões de textos.
-
Mostrar Abstract
-
Analisar a informação através de múltiplas perspectivas pode colaborar no entendimento dos dados e na extração de conhecimento, permitindo a exploração de um intervalo maior de características, principalmente em se tratando de textos. Para fazer uma análise significativa de todos os aspectos de um texto, é fundamental observá-lo através de múltiplas perspectivas permitindo assim uma investigação mais objetiva. Neste trabalho, estamos propondo uma técnica capaz de gerar múltiplas visões de textos para aprender suas características e incorporar seu conhecimento em uma única representação vetorial que seja apta para generalizar um modelo preditivo aprimorado que visa aperfeiçoar a classificação de documentos. Estamos apresentando duas propostas para combinar nossas múltiplas visões. Cada estratégia possui algumas variações que proporcionam mais flexibilidade. Avaliamos nossos métodos através da tarefa de classificação de textos sobre duas perspectivas diferentes. Inicialmente, comparamos nossa proposta contra métodos que usam uma única visão dos dados e posteriormente, confrontamos contra técnicas de estado-da-arte que também utilizam múltiplas visões. Executamos os experimentos com quatro classificadores em seis bases de textos diferentes. Nossas propostas superaram as técnicas concorrentes em quase todos os experimentos mostrando sua capacidade de aprender com múltiplas visões de textos.
|
|
2
|
-
RAFAEL JEFERSON PEZZUTO DAMACENO
-
Métodos computacionais para identificação e análise de grafos de genealogia acadêmica
-
Orientador : JESUS PASCUAL MENA CHALCO
-
Data: 10/08/2020
-
-
Mostrar Resumo
-
O impacto que acadêmicos exercem sobre a ciência frequentemente tem sido analisado sob a ótica da produção de publicações científicas. Poucos são os estudos que abordam a quantificação/qualificação da formação de recursos humanos como parte integrante da avaliação do desempenho dos acadêmicos, isto é, que consideram a produção de novos cientistas por meio das orientações acadêmicas. Neste sentido, áreas do conhecimento têm realizado esforços para a criação de bases de dados de acadêmicos e seus relacionamentos de orientação, utilizando a genealogia acadêmica para documentar e organizar essas informações por meio de grafos. No entanto, as bases de genealogia acadêmica existentes apresentam problemas como redundância, ausência e imprecisão de informações. Ainda, poucos empreendimentos científicos foram realizados para estudar de modo global e evolutivo a influência acadêmica entre acadêmicos e entre os campos do conhecimento. Neste trabalho são desenvolvidos e aplicados métodos computacionais para a identificação e análise de grafos de genealogia acadêmica obtidos a partir de fontes de informação que contém dados de formação e orientação no contexto da pós-graduação. São desenvolvidas estratégias para identificar grafos de genealogia acadêmica por meio de técnicas de desambiguação de vértices e arestas. E os grafos obtidos segundo distintas visões, tais como o crescimento das estruturas hierárquicas, as relações de influência entre parentes acadêmicos e a carreira segundo os papéis exercidos pelos acadêmicos. No processo de identificação de grafos de genealogia acadêmica, 6,3 milhões de currículos da Plataforma Lattes foram prospectados originando um grafo com 1,2 milhão de vértices e 1,4 milhão de arestas que representam os mestres e doutores que atuam ou atuaram na ciência brasileira. As técnicas de desambiguação foram capazes de reduzir a quantidade de ruído deste grafo. As análises permitiram evidenciar padrões no contexto do grafo como um todo bem como nos subgrafos que representam as grandes áreas de orientação e as linhagens acadêmicas das áreas de Ciência da Computação e Ciência da Informação. Foram identificados quais atores tiveram um papel fundamental no contexto brasileiro assim como foram gerados insumos para a elaboração de indicadores de formação acadêmica. Dentre as principais contribuições científicas deste trabalho podem ser destacadas: (i) a documentação e análise da influência acadêmica existente entre acadêmicos e entre campos do conhecimento, (ii) um método de identificação de grafos de genealogia acadêmica que pode ser replicado para outras bases de dados e (iii) um modelo populacional de crescimento capaz de rastrear a carreira acadêmica dos cientistas ao longo dos processos de formação e orientação. Finalmente, a principal contribuição tecnológica deste doutorado é a concepção e disponibilização do grafo de genealogia acadêmica do Brasil na plataforma denominada Acácia (http://plataforma-acacia.org).
-
Mostrar Abstract
-
O impacto que acadêmicos exercem sobre a ciência frequentemente tem sido analisado sob a ótica da produção de publicações científicas. Poucos são os estudos que abordam a quantificação/qualificação da formação de recursos humanos como parte integrante da avaliação do desempenho dos acadêmicos, isto é, que consideram a produção de novos cientistas por meio das orientações acadêmicas. Neste sentido, áreas do conhecimento têm realizado esforços para a criação de bases de dados de acadêmicos e seus relacionamentos de orientação, utilizando a genealogia acadêmica para documentar e organizar essas informações por meio de grafos. No entanto, as bases de genealogia acadêmica existentes apresentam problemas como redundância, ausência e imprecisão de informações. Ainda, poucos empreendimentos científicos foram realizados para estudar de modo global e evolutivo a influência acadêmica entre acadêmicos e entre os campos do conhecimento. Neste trabalho são desenvolvidos e aplicados métodos computacionais para a identificação e análise de grafos de genealogia acadêmica obtidos a partir de fontes de informação que contém dados de formação e orientação no contexto da pós-graduação. São desenvolvidas estratégias para identificar grafos de genealogia acadêmica por meio de técnicas de desambiguação de vértices e arestas. E os grafos obtidos segundo distintas visões, tais como o crescimento das estruturas hierárquicas, as relações de influência entre parentes acadêmicos e a carreira segundo os papéis exercidos pelos acadêmicos. No processo de identificação de grafos de genealogia acadêmica, 6,3 milhões de currículos da Plataforma Lattes foram prospectados originando um grafo com 1,2 milhão de vértices e 1,4 milhão de arestas que representam os mestres e doutores que atuam ou atuaram na ciência brasileira. As técnicas de desambiguação foram capazes de reduzir a quantidade de ruído deste grafo. As análises permitiram evidenciar padrões no contexto do grafo como um todo bem como nos subgrafos que representam as grandes áreas de orientação e as linhagens acadêmicas das áreas de Ciência da Computação e Ciência da Informação. Foram identificados quais atores tiveram um papel fundamental no contexto brasileiro assim como foram gerados insumos para a elaboração de indicadores de formação acadêmica. Dentre as principais contribuições científicas deste trabalho podem ser destacadas: (i) a documentação e análise da influência acadêmica existente entre acadêmicos e entre campos do conhecimento, (ii) um método de identificação de grafos de genealogia acadêmica que pode ser replicado para outras bases de dados e (iii) um modelo populacional de crescimento capaz de rastrear a carreira acadêmica dos cientistas ao longo dos processos de formação e orientação. Finalmente, a principal contribuição tecnológica deste doutorado é a concepção e disponibilização do grafo de genealogia acadêmica do Brasil na plataforma denominada Acácia (http://plataforma-acacia.org).
|
|
3
|
-
SAULO RAMOS DE CARVALHO PEREIRA
-
Sketch-Based Modeling From Single-view Drawings and Applications
-
Orientador : JOAO PAULO GOIS
-
Data: 20/10/2020
-
-
Mostrar Resumo
-
Para permitir que amadores ou iniciantes criem modelos rapidamente a partir de um conjunto de desenhos 2D, a reconstrução 3D ganhou atenção nos últimos anos. Entretanto, ao lidar com desenhos, é necessário tratar problemas importantes, como ambiguidade e dificuldade em inferir partes ocultas. Isso é especialmente válido ao descrever características de espécies vegetais e animais, exploradas por botânicos e zoólogos, nas quais, as abordagens precisam inferir ou descartar partes oclusas. Esta tese tem como objetivo reconstruir objetos 3D a partir de simples desenhos 2D em única vista, assumindo que uma grande classe de objetos apresenta simetria estrutural ou seja composta por múltiplos objetos desenhados como estruturas sobrepostas.
Neste trabalho, apresentamos dois frameworks, uma abordagem automática que leva ao estudo e desenvolvimento de um método robusto para a geração de modelos 3D usando Funções de Base Radial a partir de dados Hermitianos, permitindo interpolar os contornos do desenho 2D com as normais 3D estimadas. Apesar dos resultados promissores, o uso de esqueletos em trabalhos anteriores descarta os detalhes presentes nos desenhos, criando cilindros generalizados em torno do eixo medial extraído das peças desenhadas. Além disso, como parte relevante do estudo, está o desenvolvimento de novas estratégias para a segmentação dos desenhos, permitindo tratar diferentes partes com maior flexibilidade.
A seguir, apresentamos um framework interativo para interface baseada em sketches para modelar objetos 3D com múltiplos contornos e estruturas sobrepostas. Inspirado por estratégias tradicionais de ilustração e desenhos científicos, nossa interface de desenho permite ao usuário inferir simetrias perceptíveis e partes obstruídas do modelo antes de sua modelagem 3D automática. Propomos um conjunto de efeitos visuais 2D para aprimorar a percepção visual dos usuários ao esboçar vários objetos sobrepostos em uma única vista. Como resultado, demonstramos exemplos com desenhos que variam de simples sobreposição de linha a ilustrações de torções de fitas, além de sistemática biológica para apresentar as capacidades de nosso sistema.
-
Mostrar Abstract
-
Para permitir que amadores ou iniciantes criem modelos rapidamente a partir de um conjunto de desenhos 2D, a reconstrução 3D ganhou atenção nos últimos anos. Entretanto, ao lidar com desenhos, é necessário tratar problemas importantes, como ambiguidade e dificuldade em inferir partes ocultas. Isso é especialmente válido ao descrever características de espécies vegetais e animais, exploradas por botânicos e zoólogos, nas quais, as abordagens precisam inferir ou descartar partes oclusas. Esta tese tem como objetivo reconstruir objetos 3D a partir de simples desenhos 2D em única vista, assumindo que uma grande classe de objetos apresenta simetria estrutural ou seja composta por múltiplos objetos desenhados como estruturas sobrepostas.
Neste trabalho, apresentamos dois frameworks, uma abordagem automática que leva ao estudo e desenvolvimento de um método robusto para a geração de modelos 3D usando Funções de Base Radial a partir de dados Hermitianos, permitindo interpolar os contornos do desenho 2D com as normais 3D estimadas. Apesar dos resultados promissores, o uso de esqueletos em trabalhos anteriores descarta os detalhes presentes nos desenhos, criando cilindros generalizados em torno do eixo medial extraído das peças desenhadas. Além disso, como parte relevante do estudo, está o desenvolvimento de novas estratégias para a segmentação dos desenhos, permitindo tratar diferentes partes com maior flexibilidade.
A seguir, apresentamos um framework interativo para interface baseada em sketches para modelar objetos 3D com múltiplos contornos e estruturas sobrepostas. Inspirado por estratégias tradicionais de ilustração e desenhos científicos, nossa interface de desenho permite ao usuário inferir simetrias perceptíveis e partes obstruídas do modelo antes de sua modelagem 3D automática. Propomos um conjunto de efeitos visuais 2D para aprimorar a percepção visual dos usuários ao esboçar vários objetos sobrepostos em uma única vista. Como resultado, demonstramos exemplos com desenhos que variam de simples sobreposição de linha a ilustrações de torções de fitas, além de sistemática biológica para apresentar as capacidades de nosso sistema.
|
|
4
|
-
RICARDO BORGES DOS SANTOS
-
Tokens Não Fungíveis e Smart Contracts aplicados a Certificação de Terceira Pessoa de Alimentos a Base de Receitas
-
Data: 26/11/2020
-
-
Mostrar Resumo
-
Esta pesquisa investiga o uso de tokens de blockchain e contratos inteligentes em aplicações de cadeia de suprimentos distribuída. Uma visão abrangente da tecnologia blockchain, contratos inteligentes e design e mecanismos de token é apresentada. Um caso de uso detalhado no campo da rastreabilidade de alimentos é desenvolvido. É descrito o uso de contratos inteligentes e tokens de blockchain para implementar um esquema de certificação de ingrediente confiável para o consumidor, começando na colheita para agro-alimentos, incluindo produtos alimentícios misturados, ou seja, baseados em receita. O mecanismo proposto permite que ingredientes com qualquer propriedade desejada, incluindo algum valor social ou ambiental percebido pelo cliente, sejam certificados por qualquer autoridade de certificação, no momento da colheita ou extração, usando um token de contrato inteligente. O mecanismo envolve a transferência de tokens contendo o identificador de recursos unificados (URI) da Internet publicado no site da autoridade. O URI é transferido do fazendeiro ao longo da cadeia de abastecimento até o consumidor final em cada passagem de custódia do ingrediente usando o Critical Tracking Event(CTE) - Key Data Element(KDE). Isso permite que o consumidor final inspecione facilmente e tenha certeza da origem do ingrediente por meio de um aplicativo móvel. Uma implementação de código bem-sucedida para o mecanismo foi implantada como uma prova de conceito, testada e está sendo executada na cadeia de blocos ativa Ethereum como o token IGR (IGRtoken.eth). Concluímos que a arquitetura proposta permite total visibilidade da cadeia de suprimentos aos consumidores finais, sem efeitos prejudiciais ao proprietário da receita. Além disso, os incentivos econômicos inerentes apontam para um forte potencial de uso industrial do mecanismo. A principal contribuição desta pesquisa é a possibilidade de assegurar ao cliente a origem de qualquer instância ou lote de ingrediente de uma receita, sem prejudicar o direito legítimo do processador de evitar a divulgação de suas receitas e fornecedores.
-
Mostrar Abstract
-
Esta pesquisa investiga o uso de tokens de blockchain e contratos inteligentes em aplicações de cadeia de suprimentos distribuída. Uma visão abrangente da tecnologia blockchain, contratos inteligentes e design e mecanismos de token é apresentada. Um caso de uso detalhado no campo da rastreabilidade de alimentos é desenvolvido. É descrito o uso de contratos inteligentes e tokens de blockchain para implementar um esquema de certificação de ingrediente confiável para o consumidor, começando na colheita para agro-alimentos, incluindo produtos alimentícios misturados, ou seja, baseados em receita. O mecanismo proposto permite que ingredientes com qualquer propriedade desejada, incluindo algum valor social ou ambiental percebido pelo cliente, sejam certificados por qualquer autoridade de certificação, no momento da colheita ou extração, usando um token de contrato inteligente. O mecanismo envolve a transferência de tokens contendo o identificador de recursos unificados (URI) da Internet publicado no site da autoridade. O URI é transferido do fazendeiro ao longo da cadeia de abastecimento até o consumidor final em cada passagem de custódia do ingrediente usando o Critical Tracking Event(CTE) - Key Data Element(KDE). Isso permite que o consumidor final inspecione facilmente e tenha certeza da origem do ingrediente por meio de um aplicativo móvel. Uma implementação de código bem-sucedida para o mecanismo foi implantada como uma prova de conceito, testada e está sendo executada na cadeia de blocos ativa Ethereum como o token IGR (IGRtoken.eth). Concluímos que a arquitetura proposta permite total visibilidade da cadeia de suprimentos aos consumidores finais, sem efeitos prejudiciais ao proprietário da receita. Além disso, os incentivos econômicos inerentes apontam para um forte potencial de uso industrial do mecanismo. A principal contribuição desta pesquisa é a possibilidade de assegurar ao cliente a origem de qualquer instância ou lote de ingrediente de uma receita, sem prejudicar o direito legítimo do processador de evitar a divulgação de suas receitas e fornecedores.
|
|
5
|
-
ALEXANDRE MIGUEL DE CARVALHO
-
DTO-SMOTE: um novo método de oversampling para o pré-processamento de dados desbalanceados
-
Orientador : RONALDO CRISTIANO PRATI
-
Data: 07/12/2020
-
-
Mostrar Resumo
-
Não informado
-
Mostrar Abstract
-
Não informado
|
|
6
|
-
CARLOS FERNANDO MONTOYA CUBAS
-
Agrupamento de instâncias em classes de equivalência para lidar com o problema da dimensionalidade em inferência de redes gênicas
-
Orientador : DAVID CORREA MARTINS JUNIOR
-
Data: 07/12/2020
-
-
Mostrar Resumo
-
A inferência de redes de interação gênica a partir de perfis de expressão é um dos problemas importantes pesquisados em biologia sistêmica, sendo considerado um problema em aberto. Diversas técnicas matemáticas, estatísticas e computacionais têm sido desenvolvidas para modelar, inferir e simular mecanismos de regulação gênica, sendo o problema de inferência o foco desta proposta. Tal proposta tem por objetivo continuar as pesquisas realizadas no mestrado, as quais envolveram o estudo de métodos de inferência de redes gênicas baseados em seleção de características (seleção do melhor conjunto de genes preditores do comportamento de um dado gene alvo em termos de suas expressões temporais de mRNA), propondo alternativas para aumentar o poder de estimação estatística em situações típicas nas quais o conjunto de amostras com perfis de expressão gênica é bem limitado e possuem elevada dimensionalidade (número de genes). Mais concretamente, no mestrado foram propostos métodos para aliviar o problema da dimensionalidade na inferência de redes Booleanas, através de partições no reticulado Booleano induzidas por combinações lineares dos valores dos genes preditores (instâncias dos preditores). Cada valor de combinação linear determina uma classe de equivalência entre as instâncias dos genes preditores. Neste trabalho de doutorado, o problema de agrupamento de instâncias foi reformulado como um problema de busca no reticulado de partições, além de formular estratégias de busca nesse reticulado com base em informações a priori (por exemplo: que uma rede gênica tende a ser composta majoritariamente por funções lineares e de canalização) para examinar um subespaço de partições potencialmente relevantes sem abrir mão da eficiência computacional. Resultados preliminares indicam que os métodos desenvolvidos, especialmente o método que busca por funções de canalização, obtêm redes competitivas tanto do ponto de vista topológico, como do ponto de vista da dinâmica da expressão gênica gerada pelas redes inferidas. A principal vantagem desses métodos é a superior capacidade de generalização para gerar o próximo estado do sistema com base em estados iniciais sorteados e que não estejam no conjunto de amostras de treinamento. Além disso, desenvolvemos um método de transferência de aprendizado supervisionado obtido da inferência de redes geradas aleatoriamente (sintéticas) que busca estimar a dimensão correta dos conjuntos de genes preditores para os respectivos genes alvos, o qual confere uma vantagem a todos os métodos de inferência de redes gênicas considerados, incluindo o método original sem agrupamento de instâncias.
-
Mostrar Abstract
-
A inferência de redes de interação gênica a partir de perfis de expressão é um dos problemas importantes pesquisados em biologia sistêmica, sendo considerado um problema em aberto. Diversas técnicas matemáticas, estatísticas e computacionais têm sido desenvolvidas para modelar, inferir e simular mecanismos de regulação gênica, sendo o problema de inferência o foco desta proposta. Tal proposta tem por objetivo continuar as pesquisas realizadas no mestrado, as quais envolveram o estudo de métodos de inferência de redes gênicas baseados em seleção de características (seleção do melhor conjunto de genes preditores do comportamento de um dado gene alvo em termos de suas expressões temporais de mRNA), propondo alternativas para aumentar o poder de estimação estatística em situações típicas nas quais o conjunto de amostras com perfis de expressão gênica é bem limitado e possuem elevada dimensionalidade (número de genes). Mais concretamente, no mestrado foram propostos métodos para aliviar o problema da dimensionalidade na inferência de redes Booleanas, através de partições no reticulado Booleano induzidas por combinações lineares dos valores dos genes preditores (instâncias dos preditores). Cada valor de combinação linear determina uma classe de equivalência entre as instâncias dos genes preditores. Neste trabalho de doutorado, o problema de agrupamento de instâncias foi reformulado como um problema de busca no reticulado de partições, além de formular estratégias de busca nesse reticulado com base em informações a priori (por exemplo: que uma rede gênica tende a ser composta majoritariamente por funções lineares e de canalização) para examinar um subespaço de partições potencialmente relevantes sem abrir mão da eficiência computacional. Resultados preliminares indicam que os métodos desenvolvidos, especialmente o método que busca por funções de canalização, obtêm redes competitivas tanto do ponto de vista topológico, como do ponto de vista da dinâmica da expressão gênica gerada pelas redes inferidas. A principal vantagem desses métodos é a superior capacidade de generalização para gerar o próximo estado do sistema com base em estados iniciais sorteados e que não estejam no conjunto de amostras de treinamento. Além disso, desenvolvemos um método de transferência de aprendizado supervisionado obtido da inferência de redes geradas aleatoriamente (sintéticas) que busca estimar a dimensão correta dos conjuntos de genes preditores para os respectivos genes alvos, o qual confere uma vantagem a todos os métodos de inferência de redes gênicas considerados, incluindo o método original sem agrupamento de instâncias.
|
|