PPGCCM PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO FUNDAÇÃO UNIVERSIDADE FEDERAL DO ABC Telefone/Ramal: Não informado http://propg.ufabc.edu.br/ppgccm
Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações Sucupira/CAPES. Preencha os campos desejados para fazer a busca.

2021
Dissertações
1
  • EDUARDO MARCATE GARCIA DOS ANJOS
  • Machine Learning Applied to Machinery Fault Prediction

  • Orientador : KARLA VITTORI
  • Data: 04/01/2021

  • Mostrar Resumo
  • Despite the potential to reduce operational costs and the increase in the availability of the computational power demanded by this task, machinery health prognostics still unavailable to many companies either due to the lack of human resources or due to the costs involved. Here we propose an approach and perform some validation experiments of predicting an imminent failure without needing a priori information about the monitored system. The prediction is achieved by continually clustering sensor data using unsupervised ML techniques and analyzing the evolution in time of those clusters in real-time. Initial validation tests using public available datasets showed encouraging results, giving in some experiments alerts about future failures within the desired time frame in the majority of runs while avoiding false-positives, pointing that this approach can be useful especially when it is not possible to use a more precise physical model or expert knowledge.


  • Mostrar Abstract
  • Despite the potential to reduce operational costs and the increase in the availability of the computational power demanded by this task, machinery health prognostics still unavailable to many companies either due to the lack of human resources or due to the costs involved. Here we propose an approach and perform some validation experiments of predicting an imminent failure without needing a priori information about the monitored system. The prediction is achieved by continually clustering sensor data using unsupervised ML techniques and analyzing the evolution in time of those clusters in real-time. Initial validation tests using public available datasets showed encouraging results, giving in some experiments alerts about future failures within the desired time frame in the majority of runs while avoiding false-positives, pointing that this approach can be useful especially when it is not possible to use a more precise physical model or expert knowledge.

2
  • GUSTAVO BORGES LUGOBONI
  • Um método para simular e verificar Redes de Petri Aninhadas

  • Orientador : CARLA NEGRI LINTZMAYER
  • Data: 07/05/2021

  • Mostrar Resumo
  • O formalismo das redes de Petri tem sido estendido de várias maneiras para suportar recursos como tipos de dados, hierarquias, tempo, comunicação, prioridades, aninhamento e recursão.
    Os dois últimos recursos combinados nas redes de Petri aninhadas permitem uma modelagem incremental usando múltiplas camadas, que é muito conveniente para lidar com os sistemas cada vez mais complexos de hoje.
    Apesar disso, atualmente não existe ferramenta para projetar, simular e verificar as propriedades dessas redes.
    Portanto, na prática, elas devem ser transformadas em redes hierárquicas de uma única camada antes de serem analisadas.
    Esse processo de achatamento aumenta significativamente o tamanho da rede, dificultando a simulação e a interpretação dos resultados no modelo original após a verificação.

    O presente trabalho apresenta um panorama histórico que levou ao desenvolvimento das redes aninhadas e tem como objetivo fornecer um método que permita analisar o comportamento de uma rede de Petri aninhada preservando sua estrutura multicamadas.
    Para este fim, por meio desta dissertação, foi proposto o uso de uma ferramenta de verificação de modelos usualmente aplicada à verificação de software multithread, o SPIN.
    Em particular, as redes de Petri aninhadas foram modeladas a partir de uma proposta de extensão da PNML (Petri Net Markup Language - ISO15909-2), e traduzidas de forma automática em modelos de entrada para o verificador SPIN.
    O resultado da tradução automática foi avaliado a partir da análise de propriedades de redes aninhadas baseadas em modelos que surgem principalmente de dois domínios de aplicação: os sistemas multiagentes e fluxos de trabalho.
    Isso foi feito utilizando exemplos da literatura para avaliar a eficácia do método e comparar os resultados com outras iniciativas.


  • Mostrar Abstract
  • O formalismo das redes de Petri tem sido estendido de várias maneiras para suportar recursos como tipos de dados, hierarquias, tempo, comunicação, prioridades, aninhamento e recursão.
    Os dois últimos recursos combinados nas redes de Petri aninhadas permitem uma modelagem incremental usando múltiplas camadas, que é muito conveniente para lidar com os sistemas cada vez mais complexos de hoje.
    Apesar disso, atualmente não existe ferramenta para projetar, simular e verificar as propriedades dessas redes.
    Portanto, na prática, elas devem ser transformadas em redes hierárquicas de uma única camada antes de serem analisadas.
    Esse processo de achatamento aumenta significativamente o tamanho da rede, dificultando a simulação e a interpretação dos resultados no modelo original após a verificação.

    O presente trabalho apresenta um panorama histórico que levou ao desenvolvimento das redes aninhadas e tem como objetivo fornecer um método que permita analisar o comportamento de uma rede de Petri aninhada preservando sua estrutura multicamadas.
    Para este fim, por meio desta dissertação, foi proposto o uso de uma ferramenta de verificação de modelos usualmente aplicada à verificação de software multithread, o SPIN.
    Em particular, as redes de Petri aninhadas foram modeladas a partir de uma proposta de extensão da PNML (Petri Net Markup Language - ISO15909-2), e traduzidas de forma automática em modelos de entrada para o verificador SPIN.
    O resultado da tradução automática foi avaliado a partir da análise de propriedades de redes aninhadas baseadas em modelos que surgem principalmente de dois domínios de aplicação: os sistemas multiagentes e fluxos de trabalho.
    Isso foi feito utilizando exemplos da literatura para avaliar a eficácia do método e comparar os resultados com outras iniciativas.

Teses
1
  • DIEGO LUIZ DA SILVA
  • A METHOD FOR FINDING FACTORS AFFECTING THE SERVICE RELIABILITY ON FIXED BUS ROUTES
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 16/03/2021

  • Mostrar Resumo
  • A confiabilidade é um componente essencial do transporte público e compreende medidas sobre o desempenho e a qualidade do trânsito. Os recentes avanços tecnológicos permitiram a coleta massiva de dados e a aplicação de um novo conjunto de análises de dados, desbloqueando a discussão em um nível sistêmico e agregando uma perspectiva mais precisa do cliente. No entanto, a maioria dos estudos de confiabilidade de trânsito se concentra em métricas, estratégias para controlar a viagem e a variabilidade do tempo de espera, mas sem uma discussão clara sobre as variáveis explicativas que causam essas flutuações. Nosso estudo analisou os dados arquivados da cidade de São Paulo coletados em todas as 1.317 rotas de ônibus a cada 45s durante nove meses. Aplicamos um algoritmo baseado em árvore para identificar padrões em um conjunto de variáveis agrupadas em seis categorias: serviços de agência, topologia, demanda, clima, condição de tráfego e dia da semana. Para capturar a importância da variável independente do modelo, usamos Inteligência Artificial Explicável chamada TreeSHAP para calcular os valores de shapley, uma técnica da Teoria dos Jogos baseada em um jogo de coalizão justo.

    Ao calcular o “pagamento” distribuído entre as variáveis independentes, observamos que a variabilidade geral é altamente afetada pelos serviços da agência, conforme o esperado. No entanto, a categoria topologia afetou principalmente o tempo de viagem. Os passageiros com um tempo de chegada limitado ao destino dependem de um serviço regular da agência pelo menos 60% do tempo planejado para sua viagem independente da localização espacial em rotas de ônibus de alta frequência. Os resultados abrem uma discussão para compreender a parcela de contribuição das agências de transporte público para manter um serviço confiável e reinterpretar o desempenho das métricas de pontualidade, considerando efeitos adicionais na variabilidade do tempo de espera e de viagem.



  • Mostrar Abstract
  • A confiabilidade é um componente essencial do transporte público e compreende medidas sobre o desempenho e a qualidade do trânsito. Os recentes avanços tecnológicos permitiram a coleta massiva de dados e a aplicação de um novo conjunto de análises de dados, desbloqueando a discussão em um nível sistêmico e agregando uma perspectiva mais precisa do cliente. No entanto, a maioria dos estudos de confiabilidade de trânsito se concentra em métricas, estratégias para controlar a viagem e a variabilidade do tempo de espera, mas sem uma discussão clara sobre as variáveis explicativas que causam essas flutuações. Nosso estudo analisou os dados arquivados da cidade de São Paulo coletados em todas as 1.317 rotas de ônibus a cada 45s durante nove meses. Aplicamos um algoritmo baseado em árvore para identificar padrões em um conjunto de variáveis agrupadas em seis categorias: serviços de agência, topologia, demanda, clima, condição de tráfego e dia da semana. Para capturar a importância da variável independente do modelo, usamos Inteligência Artificial Explicável chamada TreeSHAP para calcular os valores de shapley, uma técnica da Teoria dos Jogos baseada em um jogo de coalizão justo.

    Ao calcular o “pagamento” distribuído entre as variáveis independentes, observamos que a variabilidade geral é altamente afetada pelos serviços da agência, conforme o esperado. No entanto, a categoria topologia afetou principalmente o tempo de viagem. Os passageiros com um tempo de chegada limitado ao destino dependem de um serviço regular da agência pelo menos 60% do tempo planejado para sua viagem independente da localização espacial em rotas de ônibus de alta frequência. Os resultados abrem uma discussão para compreender a parcela de contribuição das agências de transporte público para manter um serviço confiável e reinterpretar o desempenho das métricas de pontualidade, considerando efeitos adicionais na variabilidade do tempo de espera e de viagem.


2
  • DIOGO FERNANDO TREVISAN
  • FRAMEWORK COMPUTACIONAL PARA INTERVENÇÕES COMPORTAMENTAIS

  • Orientador : JOAO PAULO GOIS
  • Data: 07/05/2021

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é caracterizado por comportamento repetitivo e estereotipado, dificuldades na comunicação verbal e não verbal e no comportamento social. As causas do TEA ainda são desconhecidas, porém, quanto antes identificado, mais cedo pode-se começar uma intervenção e dar mais autonomia à criança. A Análise do Comportamento Aplicada, do inglês Applied Behavior Analysis  (ABA), se refere à ciência comportamental, fundamentada nos princípios da análise experimental do comportamento e apresenta os melhores resultados para os transtornos de neurodesenvolvimento.  A ABA consiste em avaliar e intervir, através do ensino de comportamentos específicos que envolvem diversas áreas do desenvolvimento da criança. Para cada criança, é necessário que um profissional - analista do comportamento - faça uma avaliação para verificar seu desenvolvimento e intervenha com um programa de ensino específico.Atualmente, existem diversos software para auxiliar na aplicação da ABA, porém, com pouca (ou nenhuma) flexibilidade na personalização do programa de ensino - apenas permitem selecionar imagens que serão utilizadas em atividades já definidas. Desta maneira, o profissional deve utilizar atividades pré-definidas, o impossibilitando de criar um programa de ensino específico para cada estudante. Neste trabalho é apresentado o design e implementação de um software para educação especial baseado em ABA. O software permite que profissionais da análise comportamental criem atividades personalizadas baseadas em templates já existentes no software, além de permitir a criação de seus próprios templates, sem a necessidade de conhecimento prévio de programação de computadores. O software tem suporte multimídia, o que permite utilizar como estímulos nas atividades imagens, textos, áudio e vídeo. Também é possível criar perfis para os estudantes, configurar programas de ensino com recompensas e correções configuráveis e visualizar relatórios. O software foi implementado em plataforma web com design responsivo ajustável aos diferentes tamanhos de tela,  dispositivos, browsers e sistemas operacionais.Para validar a aceitação do software, foram realizadas avaliações com profissionais do comportamento e também com mães de estudantes com necessidades especiais. Tanto os profissionais quanto as mães avaliaram positivamente o software e disseram que utilizariam em futuras intervenções: os profissionais para criarem programas de ensino, e os pais como ferramenta para ensinar seus filhos. Durante o isolamento social da Covid-19, o software foi inserido no uso cotidiano, sendo incorporado ao workflow de analistas comportamentais e educadores. Ao final do trabalho, são apresentadas as descobertas que este estudo proporcionou, as suas limitações , bem como os trabalhos futuros.



  • Mostrar Abstract
  • O Transtorno do Espectro Autista (TEA) é caracterizado por comportamento repetitivo e estereotipado, dificuldades na comunicação verbal e não verbal e no comportamento social. As causas do TEA ainda são desconhecidas, porém, quanto antes identificado, mais cedo pode-se começar uma intervenção e dar mais autonomia à criança. A Análise do Comportamento Aplicada, do inglês Applied Behavior Analysis  (ABA), se refere à ciência comportamental, fundamentada nos princípios da análise experimental do comportamento e apresenta os melhores resultados para os transtornos de neurodesenvolvimento.  A ABA consiste em avaliar e intervir, através do ensino de comportamentos específicos que envolvem diversas áreas do desenvolvimento da criança. Para cada criança, é necessário que um profissional - analista do comportamento - faça uma avaliação para verificar seu desenvolvimento e intervenha com um programa de ensino específico.Atualmente, existem diversos software para auxiliar na aplicação da ABA, porém, com pouca (ou nenhuma) flexibilidade na personalização do programa de ensino - apenas permitem selecionar imagens que serão utilizadas em atividades já definidas. Desta maneira, o profissional deve utilizar atividades pré-definidas, o impossibilitando de criar um programa de ensino específico para cada estudante. Neste trabalho é apresentado o design e implementação de um software para educação especial baseado em ABA. O software permite que profissionais da análise comportamental criem atividades personalizadas baseadas em templates já existentes no software, além de permitir a criação de seus próprios templates, sem a necessidade de conhecimento prévio de programação de computadores. O software tem suporte multimídia, o que permite utilizar como estímulos nas atividades imagens, textos, áudio e vídeo. Também é possível criar perfis para os estudantes, configurar programas de ensino com recompensas e correções configuráveis e visualizar relatórios. O software foi implementado em plataforma web com design responsivo ajustável aos diferentes tamanhos de tela,  dispositivos, browsers e sistemas operacionais.Para validar a aceitação do software, foram realizadas avaliações com profissionais do comportamento e também com mães de estudantes com necessidades especiais. Tanto os profissionais quanto as mães avaliaram positivamente o software e disseram que utilizariam em futuras intervenções: os profissionais para criarem programas de ensino, e os pais como ferramenta para ensinar seus filhos. Durante o isolamento social da Covid-19, o software foi inserido no uso cotidiano, sendo incorporado ao workflow de analistas comportamentais e educadores. Ao final do trabalho, são apresentadas as descobertas que este estudo proporcionou, as suas limitações , bem como os trabalhos futuros.


2020
Dissertações
1
  • PEDRO HENRIQUE PARREIRA
  • Aprendizagem ativa em fluxo de dados com latência intermediária

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 20/01/2020

  • Mostrar Resumo
  • Um fluxo de dados possui diversas características desafiadoras para os algoritmos clássicos de aprendizagem de máquina, tais como os fenômenos de mudança e evolução de conceito, que são caracterizados pela mudança na distribuição dos dados e do surgimento de novas classes ao longo do fluxo, respectivamente. Além de tais características, ao longo do fluxo, os dados chegam de forma contínua e ininterrupta. Como consequência, uma enorme quantidade de dados são produzidos. Em diversas aplicações de mineração de dados a obtenção dos rótulos é uma tarefa custosa, sendo que em um fluxo de dados tal tarefa se torna ainda mais desafiadora pela enorme quantidade de dados que são gerados. Desta maneira, assumir que todos os dados terão seus respectivos rótulos disponibilizados se torna pouco provável para diversas aplicações reais em fluxo de dados. Portanto, ao considerar tal cenário, um modelo de classificação tem seu desempenho preditivo afetado negativamente ao longo do fluxo de dados devido aos fenômenos de mudança e evolução de conceito. Neste caso, é necessário a adaptação do modelo de classificação de tempos em tempos para a manutenção do seu desempenho preditivo. Essa adaptação requer dados rotulados ao longo do fluxo. Todavia, considerando um cenário realista, nem sempre é factível que os rótulos sejam disponibilizados de modo imediato, como é comumente assumido na maioria das abordagens encontradas na literatura. As abordagens existentes na literatura consideram que, ao ser disponibilizado um determinado exemplo, o seu rótulo é disponibilizado logo após a sua predição, isto é, o rótulo é disponibilizado com latência nula, e ambos são utilizados na adaptação do modelo. Porém, em diversas aplicações reais, o rótulo pode ser disponibilizado com um atraso não infinito, ou seja, com latência intermediária, e apenas para um subconjunto dos exemplos do fluxo. Em meio a tais desafios, este trabalho tem por objetivo a investigação e o desenvolvimento de um conjunto estratégias de aprendizagem ativa que consideram o cenário de fluxo de dados com latência intermediária.



  • Mostrar Abstract
  • Um fluxo de dados possui diversas características desafiadoras para os algoritmos clássicos de aprendizagem de máquina, tais como os fenômenos de mudança e evolução de conceito, que são caracterizados pela mudança na distribuição dos dados e do surgimento de novas classes ao longo do fluxo, respectivamente. Além de tais características, ao longo do fluxo, os dados chegam de forma contínua e ininterrupta. Como consequência, uma enorme quantidade de dados são produzidos. Em diversas aplicações de mineração de dados a obtenção dos rótulos é uma tarefa custosa, sendo que em um fluxo de dados tal tarefa se torna ainda mais desafiadora pela enorme quantidade de dados que são gerados. Desta maneira, assumir que todos os dados terão seus respectivos rótulos disponibilizados se torna pouco provável para diversas aplicações reais em fluxo de dados. Portanto, ao considerar tal cenário, um modelo de classificação tem seu desempenho preditivo afetado negativamente ao longo do fluxo de dados devido aos fenômenos de mudança e evolução de conceito. Neste caso, é necessário a adaptação do modelo de classificação de tempos em tempos para a manutenção do seu desempenho preditivo. Essa adaptação requer dados rotulados ao longo do fluxo. Todavia, considerando um cenário realista, nem sempre é factível que os rótulos sejam disponibilizados de modo imediato, como é comumente assumido na maioria das abordagens encontradas na literatura. As abordagens existentes na literatura consideram que, ao ser disponibilizado um determinado exemplo, o seu rótulo é disponibilizado logo após a sua predição, isto é, o rótulo é disponibilizado com latência nula, e ambos são utilizados na adaptação do modelo. Porém, em diversas aplicações reais, o rótulo pode ser disponibilizado com um atraso não infinito, ou seja, com latência intermediária, e apenas para um subconjunto dos exemplos do fluxo. Em meio a tais desafios, este trabalho tem por objetivo a investigação e o desenvolvimento de um conjunto estratégias de aprendizagem ativa que consideram o cenário de fluxo de dados com latência intermediária.


2
  • PEDRO HENRIQUE ARRUDA FAUSTINI
  • Fake news detection in multiple platforms and languages

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 27/01/2020

  • Mostrar Resumo
  • Notícias falsas têm atraído atenção nos últimos tempos, levantando questões sobre o grau de influência que podem exercer sobre importantes atividades das vidas das pessoas. Esforços têm sido feitos para detectá-las, mas geralmente dependem de trabalho humano, o que pode ser custoso e demorado. Disso surge a necessidade de maneiras automáticas de inferir se um determinado artigo é verdadeiro ou falso. O objetivo deste trabalho é estudar técnicas de aprendizado supervisionado para inferir automaticamente se as notícias são falsas ou não em várias plataformas e idiomas. Usamos seis conjuntos de dados de três plataformas diferentes (sites,Twitter e WhatsApp) em dois idiomas (português e inglês). Dois desses conjuntos de dados são novos
    e foram coletados durante este estudo. Monitoramos sites de checagem de fatos procurando por tópicos de notícias falsas. Então, nós recuperamos mensagens no Twitter de tais tópicos, juntamente com conteúdo verdadeiro. Também baixamos mensagens do WhatsApp reportados por esses sites. Então, para cada conjunto de dados, usamos três conjuntos de atributos (textual, bag-of-words e DCDistance) e aplicamos algoritmos de classificação neles para separar conteúdo falso de verdadeiro. No conjunto de dados do WhatsApp, aplicamos classificação de uma classe, uma abordagem inovadora neste tipo de aplicação.

     


  • Mostrar Abstract
  • Notícias falsas têm atraído atenção nos últimos tempos, levantando questões sobre o grau de influência que podem exercer sobre importantes atividades das vidas das pessoas. Esforços têm sido feitos para detectá-las, mas geralmente dependem de trabalho humano, o que pode ser custoso e demorado. Disso surge a necessidade de maneiras automáticas de inferir se um determinado artigo é verdadeiro ou falso. O objetivo deste trabalho é estudar técnicas de aprendizado supervisionado para inferir automaticamente se as notícias são falsas ou não em várias plataformas e idiomas. Usamos seis conjuntos de dados de três plataformas diferentes (sites,Twitter e WhatsApp) em dois idiomas (português e inglês). Dois desses conjuntos de dados são novos
    e foram coletados durante este estudo. Monitoramos sites de checagem de fatos procurando por tópicos de notícias falsas. Então, nós recuperamos mensagens no Twitter de tais tópicos, juntamente com conteúdo verdadeiro. Também baixamos mensagens do WhatsApp reportados por esses sites. Então, para cada conjunto de dados, usamos três conjuntos de atributos (textual, bag-of-words e DCDistance) e aplicamos algoritmos de classificação neles para separar conteúdo falso de verdadeiro. No conjunto de dados do WhatsApp, aplicamos classificação de uma classe, uma abordagem inovadora neste tipo de aplicação.

     

3
  • THAYRON CRYSTIAN HORTENCES DE MORAES
  • LSBCTR: Um Algoritmo de Recomendação Baseado no Estilo de Aprendizagem

  • Orientador : ITANA STIUBIENER
  • Data: 03/02/2020

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

4
  • LINCOLN LIMA SOUZA CANABRAVA MOTA
  • Redes neurais convolucionais para classificação de imagens e detecção de objetos com casos de uso

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 05/02/2020

  • Mostrar Resumo
  • Nos últimos anos vemos na sociedade uma proliferação de soluções inovadoras e arrojadas sobretudo nos campos de visão computacional, reconhecimento e síntese de fala. Quando olhamos mais atentamente para tais implementações verificamos que elas possuem algoritmos baseados em redes neurais convolucionais profundas (CNN, do inglês Convolutional Neural Network), treinadas em hardware de alto poder computacional com modernas placas gráficas de processamento paralelo de propósito geral. Mais recentemente vimos propostas para racionalização desses recursos computacionais e um foco em desempenho de modo a atingir execuções em tempo real. Dado este contexto, o presente trabalho tem como objetivo analisar e propor soluções utilizando abordagens CNN, tais como, arquiteturas Google Net, Mobile Net, VGG (versão 16 e 24), NasNet e DenseNet. Estas soluções serão aplicadas em problemas ainda pouco explorados como digitalização de livros, detecção de gestos, detecção de códigos de barra e QRCodes, onde todas essas tarefas têm como entrada principal de dados imagens adquiridas por câmera de vídeo convencional e a análise é efetuada em tempo real. Como resultados, constatamos que a melhor arquitetura depende de cada um destes problemas. 


  • Mostrar Abstract
  • Nos últimos anos vemos na sociedade uma proliferação de soluções inovadoras e arrojadas sobretudo nos campos de visão computacional, reconhecimento e síntese de fala. Quando olhamos mais atentamente para tais implementações verificamos que elas possuem algoritmos baseados em redes neurais convolucionais profundas (CNN, do inglês Convolutional Neural Network), treinadas em hardware de alto poder computacional com modernas placas gráficas de processamento paralelo de propósito geral. Mais recentemente vimos propostas para racionalização desses recursos computacionais e um foco em desempenho de modo a atingir execuções em tempo real. Dado este contexto, o presente trabalho tem como objetivo analisar e propor soluções utilizando abordagens CNN, tais como, arquiteturas Google Net, Mobile Net, VGG (versão 16 e 24), NasNet e DenseNet. Estas soluções serão aplicadas em problemas ainda pouco explorados como digitalização de livros, detecção de gestos, detecção de códigos de barra e QRCodes, onde todas essas tarefas têm como entrada principal de dados imagens adquiridas por câmera de vídeo convencional e a análise é efetuada em tempo real. Como resultados, constatamos que a melhor arquitetura depende de cada um destes problemas. 

5
  • CARLOS REYNALDO PORTOCARRERO TOVAR
  • Computação de Campos Atratores em Redes Dinâmicas Discretas Acopladas

  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 27/05/2020

  • Mostrar Resumo
  • Os processos de estabilização e sincronização em redes de entidades dinâmicas interagentes são quase onipresentes na natureza e desempenham um papel muito importante em muitos contextos diferentes, da biologia à sociologia. Redes Dinâmicas Discretas Acopladas (RDDA) são uma classe de modelos para redes de entidades dinâmicas interagentes, que incluem redes Boolenas acopladas, e que apresentam um amplo leque de potenciais aplicações, principalmente em Biologia de Sistemas. Apesar da sua importância, existem relativamente poucos estudos focados em estabilidade envolvendo essa classe específica de modelos, em particular estudos baseados em abordagens computacionais. Campos atratores em RDDAs consistem numa classe restrita de estados globalmente estáveis do sistema, nos quais a dinâmica de toda entidade interagente permanece ``confinada'' -- para todo tempo -- num mesmo atrator local. O objetivo desse projeto consiste em desenvolver um método computacionalmente eficiente que, dada uma RDDA como entrada, seja capaz de responder se ela contém ou não campos atratores, bem como identificá-los.


  • Mostrar Abstract
  • Os processos de estabilização e sincronização em redes de entidades dinâmicas interagentes são quase onipresentes na natureza e desempenham um papel muito importante em muitos contextos diferentes, da biologia à sociologia. Redes Dinâmicas Discretas Acopladas (RDDA) são uma classe de modelos para redes de entidades dinâmicas interagentes, que incluem redes Boolenas acopladas, e que apresentam um amplo leque de potenciais aplicações, principalmente em Biologia de Sistemas. Apesar da sua importância, existem relativamente poucos estudos focados em estabilidade envolvendo essa classe específica de modelos, em particular estudos baseados em abordagens computacionais. Campos atratores em RDDAs consistem numa classe restrita de estados globalmente estáveis do sistema, nos quais a dinâmica de toda entidade interagente permanece ``confinada'' -- para todo tempo -- num mesmo atrator local. O objetivo desse projeto consiste em desenvolver um método computacionalmente eficiente que, dada uma RDDA como entrada, seja capaz de responder se ela contém ou não campos atratores, bem como identificá-los.

6
  • CLARISSA SIMOYAMA DAVID
  • Detecção de estruturas implícitas textuais por agrupamento hard

  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 04/06/2020

  • Mostrar Resumo
  • Com o grande aumento na disponibilidade de dados de várias áreas, há um interesse crescente na pesquisa de padrões em conjuntos de dados. Esses padrões podem ser usados para executar tarefas como agrupamento e classificação. A área de pesquisa de Aprendizado de Máquina (AM) apresenta vários algoritmos com o objetivo de realizar essas tarefas. No entanto, algumas fontes destes dados podem trazer variáveis (ou atributos) desnecessárias que podem comprometer a qualidade dos padrões extraídos e podem, por exemplo, prejudicar em tarefas de classificação, interferindo no valor de acurácia obtido pelo classificador. Neste trabalho é proposta uma representação de dados textuais incorporando taxas de ocorrências de palavras associadas a suas funções sintáticas utilizando tarefas de Processamento de Linguagem Natural (PLN), como o POS-Tagging. A partir dessa estrutura de dados obtida é proposta a atribuição de importância a grupos desses atributos para representar os textos. Utilizando primeiramente Aprendizado Não-supervisionado, é realizado o agrupamento hard das palavras com o algoritmo K-médias, reduzindo a complexidade da base de dados sem que informações importantes sejam perdidas, e após a definição do número de grupos ideal, pesos são atribuídos aos grupos de palavras. Com a abordagem de Aprendizado Supervisionado, é aplicada classificação nos textos, inicialmente com os atributos sendo as  palavras previamente taggeadas, havendo uma etapa de otimização dos pesos dos atributos com o auxílio de um algoritmo de otimização baseada em população. Os resultados mostram que com esta estrutura de dados e com a abordagem de atribuição de pesos aos atributos houve uma melhora significativa em relação ao valor da acurácia na tarefa de classificação.


  • Mostrar Abstract
  • Com o grande aumento na disponibilidade de dados de várias áreas, há um interesse crescente na pesquisa de padrões em conjuntos de dados. Esses padrões podem ser usados para executar tarefas como agrupamento e classificação. A área de pesquisa de Aprendizado de Máquina (AM) apresenta vários algoritmos com o objetivo de realizar essas tarefas. No entanto, algumas fontes destes dados podem trazer variáveis (ou atributos) desnecessárias que podem comprometer a qualidade dos padrões extraídos e podem, por exemplo, prejudicar em tarefas de classificação, interferindo no valor de acurácia obtido pelo classificador. Neste trabalho é proposta uma representação de dados textuais incorporando taxas de ocorrências de palavras associadas a suas funções sintáticas utilizando tarefas de Processamento de Linguagem Natural (PLN), como o POS-Tagging. A partir dessa estrutura de dados obtida é proposta a atribuição de importância a grupos desses atributos para representar os textos. Utilizando primeiramente Aprendizado Não-supervisionado, é realizado o agrupamento hard das palavras com o algoritmo K-médias, reduzindo a complexidade da base de dados sem que informações importantes sejam perdidas, e após a definição do número de grupos ideal, pesos são atribuídos aos grupos de palavras. Com a abordagem de Aprendizado Supervisionado, é aplicada classificação nos textos, inicialmente com os atributos sendo as  palavras previamente taggeadas, havendo uma etapa de otimização dos pesos dos atributos com o auxílio de um algoritmo de otimização baseada em população. Os resultados mostram que com esta estrutura de dados e com a abordagem de atribuição de pesos aos atributos houve uma melhora significativa em relação ao valor da acurácia na tarefa de classificação.

7
  • ERICK FERNANDES DA CRUZ
  • Segmentação Assistida em Imagens de Grande Resolução

  • Orientador : JOAO PAULO GOIS
  • Data: 10/08/2020

  • Mostrar Resumo
  • Existem diversas técnicas de segmentação de imagens na literatura, e a importância delas pode ser vista em várias aplicações de áreas como, por exemplo, a visão computacional e o reconhecimento de padrões. Dentre essas áreas, temos a segmentação interativa de imagens, que se utiliza de algoritmos de segmentação assistidos para separar uma imagem em duas regiões com a utilização de marcações feitas pelo usuário. Um método que apresentou resultados interessantes na área da segmentação de imagens foi o Superpixel Laplacian Coordinates, que conseguiu resolver este problema com resultados bastante satisfatórios com relação a qualidade da segmentação e com relação ao tempo de execução, até mesmo em imagens de alta resolução. Apesar de sua performance ser superior a outros algoritmos utilizados em segmentação assistida, ele apresenta algumas etapas bem custosas com relação ao seu tempo de execução, sendo a mais demorada a aplicação do algoritmo SLIC para a geração de superpixels. O presente trabalho tem como objetivo encontrar técnicas de segmentação assistida de imagem que possam ser utilizadas em imagens de alta resolução. Para isso foi utilizado o algoritmo Superpixel Laplacian Coordinates, buscando otimizar suas etapas mais custosas mantendo a qualidade da segmentação final o mais próximo possível do resultado obtido pelo algoritmo original. Também foi desenvolvida uma nova técnica de segmentação derivada do Laplacian Coordinates, que também teve seu comportamento analisado nos diferentes conjuntos de imagens utilizados, denominado pelo presente trabalho como Pyramid Laplacian Coordinates. Para as variações do Superpixel Laplacian Coordinates foram utilizados 4 algoritmos de superpixel, incluindo o próprio SLIC, com variados parâmetros de entrada para conseguir uma comparação melhor de suas vantagens e desvantagens. Além disso realizamos a paralelização de algumas etapas do Superpixel Laplacian Coordinates para diminuir ainda mais seu tempo de processamento. Além de encontrar métodos de segmentação que possam ser utilizados em imagens de alta resolução, o presente trabalho disponibiliza uma aplicação gratuita e de código aberto que pode ser reaproveitada em trabalhos futuros.


  • Mostrar Abstract
  • Existem diversas técnicas de segmentação de imagens na literatura, e a importância delas pode ser vista em várias aplicações de áreas como, por exemplo, a visão computacional e o reconhecimento de padrões. Dentre essas áreas, temos a segmentação interativa de imagens, que se utiliza de algoritmos de segmentação assistidos para separar uma imagem em duas regiões com a utilização de marcações feitas pelo usuário. Um método que apresentou resultados interessantes na área da segmentação de imagens foi o Superpixel Laplacian Coordinates, que conseguiu resolver este problema com resultados bastante satisfatórios com relação a qualidade da segmentação e com relação ao tempo de execução, até mesmo em imagens de alta resolução. Apesar de sua performance ser superior a outros algoritmos utilizados em segmentação assistida, ele apresenta algumas etapas bem custosas com relação ao seu tempo de execução, sendo a mais demorada a aplicação do algoritmo SLIC para a geração de superpixels. O presente trabalho tem como objetivo encontrar técnicas de segmentação assistida de imagem que possam ser utilizadas em imagens de alta resolução. Para isso foi utilizado o algoritmo Superpixel Laplacian Coordinates, buscando otimizar suas etapas mais custosas mantendo a qualidade da segmentação final o mais próximo possível do resultado obtido pelo algoritmo original. Também foi desenvolvida uma nova técnica de segmentação derivada do Laplacian Coordinates, que também teve seu comportamento analisado nos diferentes conjuntos de imagens utilizados, denominado pelo presente trabalho como Pyramid Laplacian Coordinates. Para as variações do Superpixel Laplacian Coordinates foram utilizados 4 algoritmos de superpixel, incluindo o próprio SLIC, com variados parâmetros de entrada para conseguir uma comparação melhor de suas vantagens e desvantagens. Além disso realizamos a paralelização de algumas etapas do Superpixel Laplacian Coordinates para diminuir ainda mais seu tempo de processamento. Além de encontrar métodos de segmentação que possam ser utilizados em imagens de alta resolução, o presente trabalho disponibiliza uma aplicação gratuita e de código aberto que pode ser reaproveitada em trabalhos futuros.

8
  • CHARLES DE FIGUEREDO FERREIRA JUNIOR
  • DESENVOLVIMENTO DE SOFTWARE EM REALIDADE VIRTUAL PARA TRATAMENTO DE FOBIAS SEM CONFRONTO COM O OBJETO FÓBICO

  • Orientador : FRANCISCO JAVIER ROPERO PELAEZ
  • Data: 20/08/2020

  • Mostrar Resumo
  • Os métodos utilizados para o tratamento de fobias, em sua maioria, consistem
    em confrontar diretamente o paciente com o seu objeto fóbico (OF), o que é em
    muitos casos impensável para o detentor da fobia. O presente trabalho consiste no
    desenvolvimento de um software em realidade virtual para dispositivos móveis
    (smartphones) com sistema Android, que permitirá o tratamento de fobias sem o
    confronto direto do paciente com o OF. Para a realização do software foi utilizada a
    engine Unity3D, que é disponível para pesquisadores e possui uma interação com o
    Android para a programação em realidade virtual. A base teórica para o projeto
    consiste principalmente em um artigo apresentando por Granado et al. (2007),
    referente o tratamento de aracnofobia por meio da utilização de imagens que
    remetem a fobia correspondente, além de cursos e manuais referentes a linguagens
    utilizadas. A adaptação de um tratamento bem sucedido que utiliza imagens em 2D
    para um tratamento com realidade virtual facilitaria e aprimoraria o formato inicial,
    devido às possibilidades de estímulos mais realistas em 3D além da mobilidade
    possível com dispositivos móveis.


  • Mostrar Abstract
  • Os métodos utilizados para o tratamento de fobias, em sua maioria, consistem
    em confrontar diretamente o paciente com o seu objeto fóbico (OF), o que é em
    muitos casos impensável para o detentor da fobia. O presente trabalho consiste no
    desenvolvimento de um software em realidade virtual para dispositivos móveis
    (smartphones) com sistema Android, que permitirá o tratamento de fobias sem o
    confronto direto do paciente com o OF. Para a realização do software foi utilizada a
    engine Unity3D, que é disponível para pesquisadores e possui uma interação com o
    Android para a programação em realidade virtual. A base teórica para o projeto
    consiste principalmente em um artigo apresentando por Granado et al. (2007),
    referente o tratamento de aracnofobia por meio da utilização de imagens que
    remetem a fobia correspondente, além de cursos e manuais referentes a linguagens
    utilizadas. A adaptação de um tratamento bem sucedido que utiliza imagens em 2D
    para um tratamento com realidade virtual facilitaria e aprimoraria o formato inicial,
    devido às possibilidades de estímulos mais realistas em 3D além da mobilidade
    possível com dispositivos móveis.

9
  • WILLIAM DOS SANTOS MELO
  • Stochastic linear optimization approaches for joint probabilistic constrained problems with integer random variables

  • Orientador : CRISTIANE MARIA SATO
  • Data: 31/08/2020

  • Mostrar Resumo
  • The Stochastic Programming field combines optimization and probability theory. The focus of this field is dealing with optimization problems with uncertainty, in part or in all data, which arises naturally in real problems. There are several ways to model uncertainty and we describe some of them in this dissertation. Among these possibilities, we focus on stochastic linear optimization problems with joint probabilistic constraints in which we can separate the stochastic part from the deterministic part. Considering this type of constraint, we approach the case in which the probability distribution functions are integer. We present the concept of p-Level Efficient Points (p-LEPs) and we show examples in which the convex hull of the p-LEPs may contain unwanted points. Later on, we provide properties and geometric aspects of the convex hull of the p-LEPs and the notion of α-concavity for integer probability distribution functions. We include an algorithm to enumerate the p-LEPs and we exemplify its application to the stochastic set cover problem. Afterwards, we reformulate the stochastic problem with joint probabilistic constraints transforming them into deterministic problems using the p-LEPs. We present five approaches to solve these reformulations, they are: disjunctive programming, convex relaxation, cutting planes algorithm, column generation algorithm and the combination of the last two techniques. We use each one of these approaches to solve several instances of the stochastic set cover problem, in which we vary the number of dimensions and also the probability distribution functions.


  • Mostrar Abstract
  • The Stochastic Programming field combines optimization and probability theory. The focus of this field is dealing with optimization problems with uncertainty, in part or in all data, which arises naturally in real problems. There are several ways to model uncertainty and we describe some of them in this dissertation. Among these possibilities, we focus on stochastic linear optimization problems with joint probabilistic constraints in which we can separate the stochastic part from the deterministic part. Considering this type of constraint, we approach the case in which the probability distribution functions are integer. We present the concept of p-Level Efficient Points (p-LEPs) and we show examples in which the convex hull of the p-LEPs may contain unwanted points. Later on, we provide properties and geometric aspects of the convex hull of the p-LEPs and the notion of α-concavity for integer probability distribution functions. We include an algorithm to enumerate the p-LEPs and we exemplify its application to the stochastic set cover problem. Afterwards, we reformulate the stochastic problem with joint probabilistic constraints transforming them into deterministic problems using the p-LEPs. We present five approaches to solve these reformulations, they are: disjunctive programming, convex relaxation, cutting planes algorithm, column generation algorithm and the combination of the last two techniques. We use each one of these approaches to solve several instances of the stochastic set cover problem, in which we vary the number of dimensions and also the probability distribution functions.

10
  • RHÁLEFF NASCIMENTO RODRIGUES DE OLIVEIRA
  • PLANEJAMENTO DO DESIGN E DA EXECUÇÃO DA AVALIAÇÃO DO DESEMPENHO DE ALUNOS EM JOGOS SÉRIOS

  • Orientador : RAFAELA VILELA DA ROCHA CAMPOS
  • Data: 03/09/2020

  • Mostrar Resumo
  • Os jogos sérios educacionais (JSEs) são desenvolvidos para apoiar a aquisição de conhecimento e desenvolvimento de habilidades, por isso há a necessidade de mensurar os resultados alcançados (tanto depois que os alunos usam o jogo, como durante o jogo), para garantir a eficácia e efetividade dos jogos. Em JSEs, a avaliação pode ter o objetivo de avaliar o jogo em si, o produto final, ou o desempenho do aluno, no auxílio ao aprendizado do aluno. No entanto, a maioria das avaliações em JSEs são realizadas com foco em coletar a satisfação, motivação e outras reações dos alunos, sendo muitas vezes ignorada a avaliação da aprendizagem. Isto ocorre pela falta de abordagens (processos, modelos, métodos, frameworks) que apoiem o planejamento da avaliação durante o processo de produção de um JSE. Neste contexto, este trabalho tem como objetivo desenvolver e avaliar o AvaliaJSE, um modelo conceitual para estruturar, orientar e suportar o planejamento e design e execução da avaliação do desempenho do aluno em JSEs. O AvaliaJSE foi concebido por meio de uma visão holística sobre as abordagens (métodos, metodologias, processos, frameworks, modelos) de avaliação, no contexto de JSEs, através de um levantamento bibliográfico. O AvaliaJSE possui dois artefatos: um modelo canvas e um documento de projeto da avaliação, este para especificação mais detalhada do canvas. Para análise e exemplificação do uso do modelo, os artefatos foram aplicados a três jogos já prontos, como prova de conceito. Além disso, o AvaliaJSE foi avaliado por especialistas da área de desenvolvimento de JSEs e avaliação, por meio de questionário com perguntas fechadas e abertas, sobre sua corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade e usabilidade. O AvaliaJSE e seus artefatos podem ser usados para auxiliar a equipe no planejamento, documentação e desenvolvimento dos artefatos e coleta de dados em JSEs, bem como, na execução da avaliação, mensuração da aprendizagem e feedback constante e personalizado para os alunos.  


  • Mostrar Abstract
  • Os jogos sérios educacionais (JSEs) são desenvolvidos para apoiar a aquisição de conhecimento e desenvolvimento de habilidades, por isso há a necessidade de mensurar os resultados alcançados (tanto depois que os alunos usam o jogo, como durante o jogo), para garantir a eficácia e efetividade dos jogos. Em JSEs, a avaliação pode ter o objetivo de avaliar o jogo em si, o produto final, ou o desempenho do aluno, no auxílio ao aprendizado do aluno. No entanto, a maioria das avaliações em JSEs são realizadas com foco em coletar a satisfação, motivação e outras reações dos alunos, sendo muitas vezes ignorada a avaliação da aprendizagem. Isto ocorre pela falta de abordagens (processos, modelos, métodos, frameworks) que apoiem o planejamento da avaliação durante o processo de produção de um JSE. Neste contexto, este trabalho tem como objetivo desenvolver e avaliar o AvaliaJSE, um modelo conceitual para estruturar, orientar e suportar o planejamento e design e execução da avaliação do desempenho do aluno em JSEs. O AvaliaJSE foi concebido por meio de uma visão holística sobre as abordagens (métodos, metodologias, processos, frameworks, modelos) de avaliação, no contexto de JSEs, através de um levantamento bibliográfico. O AvaliaJSE possui dois artefatos: um modelo canvas e um documento de projeto da avaliação, este para especificação mais detalhada do canvas. Para análise e exemplificação do uso do modelo, os artefatos foram aplicados a três jogos já prontos, como prova de conceito. Além disso, o AvaliaJSE foi avaliado por especialistas da área de desenvolvimento de JSEs e avaliação, por meio de questionário com perguntas fechadas e abertas, sobre sua corretude, consistência, clareza, inequívoco, completude, autenticidade, flexibilidade e usabilidade. O AvaliaJSE e seus artefatos podem ser usados para auxiliar a equipe no planejamento, documentação e desenvolvimento dos artefatos e coleta de dados em JSEs, bem como, na execução da avaliação, mensuração da aprendizagem e feedback constante e personalizado para os alunos.  

11
  • LUÍS FELIPE DE OLIVEIRA MELLE
  • Proposta de extensão da metodologia INTERA para o desenvolvimento de jogos educacionais

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 14/09/2020

  • Mostrar Resumo
  • Os jogos educacionais, possibilitam aos jogadores entretenimento e aprendizado ao mesmo tempo. Porém para que isso ocorra é necessário que o jogo seja bem produzido, para que não fuja dos fins educacionais e seja apenas para entretenimento. Esse ponto abordado é uma dificuldade que vários jogos apresentam. Considerando tal dificuldade
    de construir um jogo digital educacional é indispensável o uso de metodologias para seu desenvolvimento. Existem algumas metodologias para o desenvolvimento de jogos digitais, porém elas ainda apresentam lacunas e são carentes de documentação. Analisando tais dificuldades, será proposto uma metodologia para o desenvolvimento de
    jogos digitais educacionais que preenche as lacunas que estão faltando nas metodologias existentes. A metodologia está sendo desenvolvia a partir de uma revisão sistemática da literatura, da metodologia INTERA e de um estudo de campo em um projeto para o desenvolvimento do jogo Expedição Antártica.


  • Mostrar Abstract
  • Os jogos educacionais, possibilitam aos jogadores entretenimento e aprendizado ao mesmo tempo. Porém para que isso ocorra é necessário que o jogo seja bem produzido, para que não fuja dos fins educacionais e seja apenas para entretenimento. Esse ponto abordado é uma dificuldade que vários jogos apresentam. Considerando tal dificuldade
    de construir um jogo digital educacional é indispensável o uso de metodologias para seu desenvolvimento. Existem algumas metodologias para o desenvolvimento de jogos digitais, porém elas ainda apresentam lacunas e são carentes de documentação. Analisando tais dificuldades, será proposto uma metodologia para o desenvolvimento de
    jogos digitais educacionais que preenche as lacunas que estão faltando nas metodologias existentes. A metodologia está sendo desenvolvia a partir de uma revisão sistemática da literatura, da metodologia INTERA e de um estudo de campo em um projeto para o desenvolvimento do jogo Expedição Antártica.

12
  • DIEGO MARQUES DE CARVALHO
  • Diretrizes para o desenvolvimento de jogos digitais educacionais embasados na teoria sociointeracionista de Lev Vigotski

  • Orientador : SILVIA CRISTINA DOTTA
  • Data: 16/09/2020

  • Mostrar Resumo
  • Os jogos educacionais digitais (JDEs), são considerados softwares educacionais (SEs) e têm sido utilizado como ferramenta de apoio a aprendizagem nos mais diversos contextos, no entanto observa-se a falta de atenção de questões pedagógicas em seu processo de criação. Desenvolver um JDE que supra as necessidades de uma perspectiva pedagógica sociointeracionista é também um desafio da computação, pertinente ao desenvolvimento de softwares com qualidade,  pois estes devem atender requisitos específicos dos educadores. Objetiva-se nesta pesquisa analisar o processo de desenvolvimento do JDE Expedição Antártica, desenvolvido pelo grupo de pesquisa INTERA (Inteligência em Tecnologias Educacionais e Recursos Acessíveis), investigando assim as características que tornam as mecânicas de jogo alicerçadas na teoria sociointeracionista de Lev Vigotski. Para tanto, recorreu-se à revisão sistemática da literatura e a análise do processo de desenvolvimento do jogo Expedição Antártica. Ao final, espera-se identificar as características da mecânica de jogo que o torna alicerçado na teoria de aprendizagem sociointeracionista.  


  • Mostrar Abstract
  • Os jogos educacionais digitais (JDEs), são considerados softwares educacionais (SEs) e têm sido utilizado como ferramenta de apoio a aprendizagem nos mais diversos contextos, no entanto observa-se a falta de atenção de questões pedagógicas em seu processo de criação. Desenvolver um JDE que supra as necessidades de uma perspectiva pedagógica sociointeracionista é também um desafio da computação, pertinente ao desenvolvimento de softwares com qualidade,  pois estes devem atender requisitos específicos dos educadores. Objetiva-se nesta pesquisa analisar o processo de desenvolvimento do JDE Expedição Antártica, desenvolvido pelo grupo de pesquisa INTERA (Inteligência em Tecnologias Educacionais e Recursos Acessíveis), investigando assim as características que tornam as mecânicas de jogo alicerçadas na teoria sociointeracionista de Lev Vigotski. Para tanto, recorreu-se à revisão sistemática da literatura e a análise do processo de desenvolvimento do jogo Expedição Antártica. Ao final, espera-se identificar as características da mecânica de jogo que o torna alicerçado na teoria de aprendizagem sociointeracionista.  

13
  • HENRIQUE MARTINS BOTELHO
  • Programa Evolver para Árvores de Steiner Ponderadas

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 23/09/2020

  • Mostrar Resumo
  • Apresentamos um algoritmo quase-ótimo inspirado em um experimento físico usando películas de sabão para o problema de Steiner ponderado no plano. Tal problema é NP-hard, mesmo em sua versão retilinear e devido a isso algoritmos heurísticos vêm sendo usados para encontrar árvores próximas da mínima. O algoritmo é implementado na linguagem de programação Evolver, que já contém muitas rotinas internas de minimização de energia. Algumas são chamadas pelo programa, o que permite que ele consista de 183 de código-fonte. Nosso algoritmo reproduz o experimento físico de uma película de sabão que se desprende de pinos conectados para chegar a uma configuração estável. Adicionalmente, no caso não-ponderado são feitas comparações com o GeoSteiner. Ao longo do texto, apresentamos diversos resultados de Geometria, Teoria dos Grafos e Física que modelam e nos d ̃ao uma visão do problema sob diferentes ângulos.


  • Mostrar Abstract
  • Apresentamos um algoritmo quase-ótimo inspirado em um experimento físico usando películas de sabão para o problema de Steiner ponderado no plano. Tal problema é NP-hard, mesmo em sua versão retilinear e devido a isso algoritmos heurísticos vêm sendo usados para encontrar árvores próximas da mínima. O algoritmo é implementado na linguagem de programação Evolver, que já contém muitas rotinas internas de minimização de energia. Algumas são chamadas pelo programa, o que permite que ele consista de 183 de código-fonte. Nosso algoritmo reproduz o experimento físico de uma película de sabão que se desprende de pinos conectados para chegar a uma configuração estável. Adicionalmente, no caso não-ponderado são feitas comparações com o GeoSteiner. Ao longo do texto, apresentamos diversos resultados de Geometria, Teoria dos Grafos e Física que modelam e nos d ̃ao uma visão do problema sob diferentes ângulos.

14
  • MAURICIO PEREIRA LUTI
  • SISTEMA COMPUTACIONAL PARA A MELHORIA DA MOBILIDADE DE PESSOAS COM DEFICIÊNCIAS VISUAIS EM REDES METROVIÁRIAS  (MMPDV_RM)

     

  • Orientador : ITANA STIUBIENER
  • Data: 04/11/2020

  • Mostrar Resumo
  • O crescimento populacional das grandes cidades do mundo tem sido extremamente acentuado ao longo dos anos e, segundo relatórios das Nações Unidas, a previsão é que continue em franca ascensão. Com o objetivo de atender às necessidades do crescimento dessa população, surge o conceito de Cidades Inteligentes, que se define como o uso da tecnologia para melhorar a infraestrutura urbana e prover uma melhor qualidade de vida da população. Nesse cenário, a mobilidade urbana será o tema abordado neste trabalho, mais especificamente, a mobilidade urbana dos deficientes visuais. O presente trabalho tem por objetivo propor um sistema de auxílio à locomoção de pessoas com deficiência visual em ambientes públicos de transporte, tais como estações de metrô, estações de trem, terminais de ônibus, etc., através de utilização de tecnologia celular (Smartphones). A proposta consiste em prover informações de localização aos usuários do serviço através de um programa aplicativo instalado em um Smartphone para que os funcionários dos ambientes públicos de transporte consigam localizar os usuários deficientes visuais mesmo que estes estejam fora da estação e auxiliá-los em sua locomoção dentro do transporte público. Como prova de conceito da proposta foi escolhido o ambiente do metrô.

     A metodologia utilizada no trabalho é a pesquisa experimental e será utilizado o cálculo dinâmico das distâncias físicas entre os usuários deficientes visuais e os pontos de acesso às estações de metrô, através de coordenadas de geolocalização, fornecidas pelo GPS dos Smartphones dos usuários.  Um servidor central irá gerenciar a comunicação entre os aplicativos instalados nos Smartphones dos usuários deficientes visuais, além de enviar ao setor operacional de cada estação de metrô as notificações de solicitação de auxílio aos usuários deficientes visuais.  Com os resultados desse trabalho espera-se gerar, através do uso de tecnologia, melhorias na autonomia dos deficientes visuais em termos de mobilidade nos transportes públicos contribuindo para o aumento de sua inclusão e cidadania, e também contribuindo com a expansão e desenvolvimento do conceito de Cidades Inteligentes.       

     

     

     

     

     


  • Mostrar Abstract
  • O crescimento populacional das grandes cidades do mundo tem sido extremamente acentuado ao longo dos anos e, segundo relatórios das Nações Unidas, a previsão é que continue em franca ascensão. Com o objetivo de atender às necessidades do crescimento dessa população, surge o conceito de Cidades Inteligentes, que se define como o uso da tecnologia para melhorar a infraestrutura urbana e prover uma melhor qualidade de vida da população. Nesse cenário, a mobilidade urbana será o tema abordado neste trabalho, mais especificamente, a mobilidade urbana dos deficientes visuais. O presente trabalho tem por objetivo propor um sistema de auxílio à locomoção de pessoas com deficiência visual em ambientes públicos de transporte, tais como estações de metrô, estações de trem, terminais de ônibus, etc., através de utilização de tecnologia celular (Smartphones). A proposta consiste em prover informações de localização aos usuários do serviço através de um programa aplicativo instalado em um Smartphone para que os funcionários dos ambientes públicos de transporte consigam localizar os usuários deficientes visuais mesmo que estes estejam fora da estação e auxiliá-los em sua locomoção dentro do transporte público. Como prova de conceito da proposta foi escolhido o ambiente do metrô.

     A metodologia utilizada no trabalho é a pesquisa experimental e será utilizado o cálculo dinâmico das distâncias físicas entre os usuários deficientes visuais e os pontos de acesso às estações de metrô, através de coordenadas de geolocalização, fornecidas pelo GPS dos Smartphones dos usuários.  Um servidor central irá gerenciar a comunicação entre os aplicativos instalados nos Smartphones dos usuários deficientes visuais, além de enviar ao setor operacional de cada estação de metrô as notificações de solicitação de auxílio aos usuários deficientes visuais.  Com os resultados desse trabalho espera-se gerar, através do uso de tecnologia, melhorias na autonomia dos deficientes visuais em termos de mobilidade nos transportes públicos contribuindo para o aumento de sua inclusão e cidadania, e também contribuindo com a expansão e desenvolvimento do conceito de Cidades Inteligentes.       

     

     

     

     

     

15
  • LARISSA DE MATTOS
  • Contribuições para o Desenvolvimento de Agentes Pedagógicos Conversacionais e sua integração a Ambientes Virtuais de Aprendizagem

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 17/11/2020

  • Mostrar Resumo
  • O desenvolvimento tecnológico têm criado condições para que as instituições de ensino adotem novas estratégias pedagógicas com o objetivo de enriquecer o processo de ensino-aprendizagem dos estudantes por meio da educação mediada por tecnologias. A visão de ensino como um fenômeno social incorpora-se no domínio de aprendizagem assistida por computador, e deste modo, são exploradas formas de empregar-se características sociais em ambientes de ensino virtuais. Neste contexto, a área de Agentes Pedagógicos Conversacionais (APC) denota o desenvolvimento de aplicações que visam o aperfeiçoamento da interação entre estudantes e ambientes virtuais de aprendizagem. Estudos apontam uma predileção dos estudantes por ambientes virtuais de aprendizagem que proporcionam interação com tais agentes, pois promovem proximidade à papéis educacionais relevantes, em um cenário que, em geral, os estudantes se sentem distantes dos professores e demais colegas. No entanto, o uso de APC tem sido pouco explorado em ambientes virtuais de aprendizagem. Neste sentido, este trabalho tem por objetivo geral apresentar o APC Penelopinha, desenvolvido para o domínio de conhecimento de Introdução a Programação, e integrado ao ambiente virtual Moodle. Além do APC destacam-se os seguintes resultados do trabalho: a especificação de um processo para desenvolvimento de APC e sua integração ao Moodle, a modelagem do domínio de conhecimento da disciplina de Processamento da Informação da UFABC, a avaliação a eficiência dos diálogos apresentados pelo Agente e a avaliação da percepção do usuário na interação humano-máquina proporcionada pelo APC com base no questionário Attrakdiff.


  • Mostrar Abstract
  • O desenvolvimento tecnológico têm criado condições para que as instituições de ensino adotem novas estratégias pedagógicas com o objetivo de enriquecer o processo de ensino-aprendizagem dos estudantes por meio da educação mediada por tecnologias. A visão de ensino como um fenômeno social incorpora-se no domínio de aprendizagem assistida por computador, e deste modo, são exploradas formas de empregar-se características sociais em ambientes de ensino virtuais. Neste contexto, a área de Agentes Pedagógicos Conversacionais (APC) denota o desenvolvimento de aplicações que visam o aperfeiçoamento da interação entre estudantes e ambientes virtuais de aprendizagem. Estudos apontam uma predileção dos estudantes por ambientes virtuais de aprendizagem que proporcionam interação com tais agentes, pois promovem proximidade à papéis educacionais relevantes, em um cenário que, em geral, os estudantes se sentem distantes dos professores e demais colegas. No entanto, o uso de APC tem sido pouco explorado em ambientes virtuais de aprendizagem. Neste sentido, este trabalho tem por objetivo geral apresentar o APC Penelopinha, desenvolvido para o domínio de conhecimento de Introdução a Programação, e integrado ao ambiente virtual Moodle. Além do APC destacam-se os seguintes resultados do trabalho: a especificação de um processo para desenvolvimento de APC e sua integração ao Moodle, a modelagem do domínio de conhecimento da disciplina de Processamento da Informação da UFABC, a avaliação a eficiência dos diálogos apresentados pelo Agente e a avaliação da percepção do usuário na interação humano-máquina proporcionada pelo APC com base no questionário Attrakdiff.

16
  • JOSÉ ROBERTO DOS SANTOS
  • Acompanhamento da Aprendizagem pelo Estudante por meio de Learning Analytics Dashboards no Ambiente Virtual Moodle

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 14/12/2020

  • Mostrar Resumo
  • O acompanhamento da aprendizagem pelo próprio estudante tem sido estudado no âmbito da autorregulação da aprendizagem. Pesquisas indicam que aprendizes com altos índices de autorregulação possuem maiores chances de continuarem ativos no decorrer de um curso.  Learning Analytics Dashboards (LAD) apresentam grande potencial para serem utilizadas como ferramentas para apoiar o acompanhamento e monitoramento da aprendizagem. LAD tipicamente capturam e apresentam de forma gráfica o rastreamento das atividades de aprendizagem dos estudantes, especialmente em Ambientes Virtuais da Aprendizagem (AVA) com a finalidade de promover a consciência e reflexão e permitir que os estudantes possam acompanhar tanto seu progresso quanto monitorar o próprio comportamento.  Entretanto, identificou-se que a maioria das aplicações de LAD disponíveis são desenvolvidas para apoiar os professores. Ou seja, poucas aplicações desse tipo são endereçadas explicitamente para que os próprios estudantes possam visualizar e analisar os seus dados e assim possibilitar a reflexão sobre o próprio desempenho ou comportamento de aprendizagem. Nesse sentido, este trabalho tem por objetivo geral apresentar a ferramenta DashLearner, que é um plugin Moodle desenvolvido para propiciar o acompanhamento da aprendizagem pelos estudantes. A expectativa é que a disponibilidade de um plugin com estas características, para um AVA bastante utilizado, possa fomentar e ampliar os processos de autorregulação da aprendizagem pelo estudante. O trabalho apresenta a discussão dos resultados do uso do DashLearner com uma turma de um curso de graduação e uma turma de um curso de especialização.  


  • Mostrar Abstract
  • O acompanhamento da aprendizagem pelo próprio estudante tem sido estudado no âmbito da autorregulação da aprendizagem. Pesquisas indicam que aprendizes com altos índices de autorregulação possuem maiores chances de continuarem ativos no decorrer de um curso.  Learning Analytics Dashboards (LAD) apresentam grande potencial para serem utilizadas como ferramentas para apoiar o acompanhamento e monitoramento da aprendizagem. LAD tipicamente capturam e apresentam de forma gráfica o rastreamento das atividades de aprendizagem dos estudantes, especialmente em Ambientes Virtuais da Aprendizagem (AVA) com a finalidade de promover a consciência e reflexão e permitir que os estudantes possam acompanhar tanto seu progresso quanto monitorar o próprio comportamento.  Entretanto, identificou-se que a maioria das aplicações de LAD disponíveis são desenvolvidas para apoiar os professores. Ou seja, poucas aplicações desse tipo são endereçadas explicitamente para que os próprios estudantes possam visualizar e analisar os seus dados e assim possibilitar a reflexão sobre o próprio desempenho ou comportamento de aprendizagem. Nesse sentido, este trabalho tem por objetivo geral apresentar a ferramenta DashLearner, que é um plugin Moodle desenvolvido para propiciar o acompanhamento da aprendizagem pelos estudantes. A expectativa é que a disponibilidade de um plugin com estas características, para um AVA bastante utilizado, possa fomentar e ampliar os processos de autorregulação da aprendizagem pelo estudante. O trabalho apresenta a discussão dos resultados do uso do DashLearner com uma turma de um curso de graduação e uma turma de um curso de especialização.  

17
  • BARBARA KATHELLEN ANDRADE PORFIRIO
  • Análise de Qualidade de Dados Geográficos Vetoriais: DA TAXONOMIA DE ERROS AO EXPERIMENTO

  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 15/12/2020

  • Mostrar Resumo
  • O recente desenvolvimento de Sistemas de Informações Geográficas e a alta disponibilidade de recursos de geolocalização têm estimulado a geração de dados geográficos. O uso correto desses dados depende fortemente de sua qualidade e  capacidade de integração. Para encontrar uma maneira adequada de integrar dados geográficos, é essencial definir uma estratégia para identificar erros. Nesse contexto, este trabalho tem como objetivo propor uma forma de identificar e classificar erros geográficos, para fins de verificação automática e controle de qualidade dos dados. A classificação utiliza o padrão ISO 19157 como referência e aplica estratégias de integração baseada em dados de formatos abertos e software livre para a realização da verificação automática de erros em dados geográficos. Os resultados apresentam dois estudos de caso usando arquivos com limites municipais do estado de São Paulo, de fontes diferentes, mostrando resultados positivos.


  • Mostrar Abstract
  • O recente desenvolvimento de Sistemas de Informações Geográficas e a alta disponibilidade de recursos de geolocalização têm estimulado a geração de dados geográficos. O uso correto desses dados depende fortemente de sua qualidade e  capacidade de integração. Para encontrar uma maneira adequada de integrar dados geográficos, é essencial definir uma estratégia para identificar erros. Nesse contexto, este trabalho tem como objetivo propor uma forma de identificar e classificar erros geográficos, para fins de verificação automática e controle de qualidade dos dados. A classificação utiliza o padrão ISO 19157 como referência e aplica estratégias de integração baseada em dados de formatos abertos e software livre para a realização da verificação automática de erros em dados geográficos. Os resultados apresentam dois estudos de caso usando arquivos com limites municipais do estado de São Paulo, de fontes diferentes, mostrando resultados positivos.

18
  • FLÁVIA JANINE ROSANTE BÉO
  • Aprendizado de Máquina Quântica com Rede Neural Artificial Aplicado ao Problema de Coloração de Grafos

  • Orientador : KARLA VITTORI
  • Data: 16/12/2020

  • Mostrar Resumo
  • O problema de coloração de grafos consiste em atribuir cores a certos elementos de um grafo, sujeito a determinadas condições. Ao se caracterizar como um problema de otimização combinatória, ele possui aplicabilidade a uma vasta gama de áreas que envolvem particionamento e conflitos, compreendendo escalonamentos e alocações diversas, como, por exemplo, de tarefas, canais, redes, eventos e rotas. Inicialmente solucionado por algoritmos exatos, capazes de fornecer a solução ótima, estes se mostraram ineficientes na resolução de problemas de coloração de grafos de alta complexidade, sendo incapazes de fornecer soluções em um tempo computacional aceitável. Assim, técnicas de Inteligência Artificial foram aplicadas com sucesso a instâncias complexas deste problema nas últimas décadas. A Computação Quântica, tem se mostrado nos últimos anos uma possível alternativa viável e eficiente na resolução de problemas complexos diversos, com aplicações futuras na simulação e otimização em diferentes áreas, como medicina, transporte, finanças e segurança cibernética. Dentro deste contexto, esta pesquisa envolve a simulação da execução de um algoritmo de Inteligência Artificial em um computador quântico para a resolução de um problema de coloração de grafos, constituindo, portanto, um algoritmo híbrido. O intuito é demonstrar o ganho em performance, relacionada a diferentes métricas, como o tempo de execução do algoritmo implementado e a qualidade da solução por ele encontrada, ambos relacionados à simulação do seu funcionamento em um computador quântico. A técnica de Inteligência Artificial utilizada foi uma Rede Neural Artificial, que tem sido aplicada com sucesso nas últimas décadas a problemas de otimização combinatória de diversas áreas, como telecomunicações, medicina, gestão, segurança e previsão. Os experimentos foram realizados no IBM Q Experience, uma plataforma online que disponibiliza o acesso a um conjunto de protótipos de processadores quânticos da IBM, por meio da computação em nuvem. Os resultados obtidos foram comparados aos da rede neural utilizada, aplicada anteriormente ao problema de coloração de grafos na literatura, e implementada em um computador clássico, de acordo com determinadas métricas. O problema considerado, constituído por um grafo com 4 vértices, demonstrou o potencial do algoritmo híbrido quântico proposto na resolução de um problema de otimização combinatória, o qual obteve resultados superiores em relação àqueles apresentados pela rede neural artificial utilizada, implementada em um computador clássico, com relação ao tempo de processamento e à acurácia da rede neural considerada. Esta pesquisa também discutiu como minimizar futuramente as limitações ainda apresentadas por um computador quântico na resolução do problema de coloração de grafos, a qual pode ser estendida a outros problemas de otimização combinatória, para instâncias maiores.


  • Mostrar Abstract
  • O problema de coloração de grafos consiste em atribuir cores a certos elementos de um grafo, sujeito a determinadas condições. Ao se caracterizar como um problema de otimização combinatória, ele possui aplicabilidade a uma vasta gama de áreas que envolvem particionamento e conflitos, compreendendo escalonamentos e alocações diversas, como, por exemplo, de tarefas, canais, redes, eventos e rotas. Inicialmente solucionado por algoritmos exatos, capazes de fornecer a solução ótima, estes se mostraram ineficientes na resolução de problemas de coloração de grafos de alta complexidade, sendo incapazes de fornecer soluções em um tempo computacional aceitável. Assim, técnicas de Inteligência Artificial foram aplicadas com sucesso a instâncias complexas deste problema nas últimas décadas. A Computação Quântica, tem se mostrado nos últimos anos uma possível alternativa viável e eficiente na resolução de problemas complexos diversos, com aplicações futuras na simulação e otimização em diferentes áreas, como medicina, transporte, finanças e segurança cibernética. Dentro deste contexto, esta pesquisa envolve a simulação da execução de um algoritmo de Inteligência Artificial em um computador quântico para a resolução de um problema de coloração de grafos, constituindo, portanto, um algoritmo híbrido. O intuito é demonstrar o ganho em performance, relacionada a diferentes métricas, como o tempo de execução do algoritmo implementado e a qualidade da solução por ele encontrada, ambos relacionados à simulação do seu funcionamento em um computador quântico. A técnica de Inteligência Artificial utilizada foi uma Rede Neural Artificial, que tem sido aplicada com sucesso nas últimas décadas a problemas de otimização combinatória de diversas áreas, como telecomunicações, medicina, gestão, segurança e previsão. Os experimentos foram realizados no IBM Q Experience, uma plataforma online que disponibiliza o acesso a um conjunto de protótipos de processadores quânticos da IBM, por meio da computação em nuvem. Os resultados obtidos foram comparados aos da rede neural utilizada, aplicada anteriormente ao problema de coloração de grafos na literatura, e implementada em um computador clássico, de acordo com determinadas métricas. O problema considerado, constituído por um grafo com 4 vértices, demonstrou o potencial do algoritmo híbrido quântico proposto na resolução de um problema de otimização combinatória, o qual obteve resultados superiores em relação àqueles apresentados pela rede neural artificial utilizada, implementada em um computador clássico, com relação ao tempo de processamento e à acurácia da rede neural considerada. Esta pesquisa também discutiu como minimizar futuramente as limitações ainda apresentadas por um computador quântico na resolução do problema de coloração de grafos, a qual pode ser estendida a outros problemas de otimização combinatória, para instâncias maiores.

19
  • THIAGO DE JESUS INOCÊNCIO
  • UMA METODOLOGIA BASEADA EM MINERAÇÃO DE DADOS PARA O PROJETO DE SISTEMAS-DE-SISTEMAS A PARTIR DE COMPORTAMENTOS EMERGENTES SIMPLES DERIVADOS DOS PROCESSOS DE NEGÓCIOS
  • Orientador : FLAVIO EDUARDO AOKI HORITA
  • Data: 16/12/2020

  • Mostrar Resumo
  • Contexto: Um sistema-de-sistemas (SoS) é uma classe de sistema caracterizada pela união de sistemas constituintes que são operados e gerenciados de forma independente e que juntos são capazes de produzir ações inovadoras. Cada constituinte de um SoS contribui com suas funcionalidades específicas para criar comportamentos novos conhecidos como comportamentos emergentes. Devido à natureza complexa dos SoS, à medida que novos constituintes se juntam ou saem do conjunto, comportamentos emergentes inesperados podem aparecer, tornando a modelagem e a simulação um papel significativo no desenvolvimento desses sistemas. Processos de negócios são amplamente adotados nas organizações com intuito de melhorar a agilidade e a tomada de decisão. Em muitos casos, as atividades presentes em um processo de negócio são realizadas por meio de sistemas. Problema: Caso uma atividade de processo negócio não puder ser executada de forma eficiente por um único sistema, podem existir conjuntos de sistemas que reunidos em um SoS apresentem comportamentos emergentes capazes de atender a essa atividade. A busca por constituintes pode ser realizada em repositórios de sistemas, no entanto, a depender dos requisitos definidos para os constituintes, a busca manual constitui-se uma tarefa dispendiosa e possivelmente orientada a falhas. Nesse sentido, técnicas de mineração de dados caracterizam-se como ferramenta importante no processo de descoberta e conhecimento em grandes bases de dados de sistemas. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de criar modelos de SoS com base em comportamentos emergentes derivados de processos de negócios utilizando técnicas de mineração de dados. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata de comportamentos emergentes em SoS com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de SoS. Com vistas a encontrar os sistemas constituintes dos SoS, algoritmos de mineração de dados foram utilizados para dar suporte a essa tarefa. Para isso, a metodologia proposta foi aplicada em um estudo de caso prático com vistas a validá-la. Resultados: Os resultados da aplicação da metodologia mostram que embora todos os algoritmos de mineração de dados analisados nesta pesquisa apresentem resultados satisfatórios, o agrupamento por densidade a partir do algoritmo dbscan apresentou resultados mais satisfatórios na busca por sistemas constituintes que unidos apresentam comportamentos emergentes que atendam aos requisitos de negócios. No entanto, pode-se observar que o algoritmo dbscan apresentou os maiores tempos de execução dentre todas as técnicas, tornando-o impraticável caso o tempo de execução seja uma variável importante durante a aplicação da metodologia. Em contrapartida, o algoritmo de ranking se apresentou a o melhor opção quando tempo de execução é relevante durante a aplicação. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de SoS que vão ao encontro dos direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a constatação de que comportamento emergentes de Sos derivados de processos de negócios são capazes de auxiliar a realização das atividades presentes nesses processos.


  • Mostrar Abstract
  • Contexto: Um sistema-de-sistemas (SoS) é uma classe de sistema caracterizada pela união de sistemas constituintes que são operados e gerenciados de forma independente e que juntos são capazes de produzir ações inovadoras. Cada constituinte de um SoS contribui com suas funcionalidades específicas para criar comportamentos novos conhecidos como comportamentos emergentes. Devido à natureza complexa dos SoS, à medida que novos constituintes se juntam ou saem do conjunto, comportamentos emergentes inesperados podem aparecer, tornando a modelagem e a simulação um papel significativo no desenvolvimento desses sistemas. Processos de negócios são amplamente adotados nas organizações com intuito de melhorar a agilidade e a tomada de decisão. Em muitos casos, as atividades presentes em um processo de negócio são realizadas por meio de sistemas. Problema: Caso uma atividade de processo negócio não puder ser executada de forma eficiente por um único sistema, podem existir conjuntos de sistemas que reunidos em um SoS apresentem comportamentos emergentes capazes de atender a essa atividade. A busca por constituintes pode ser realizada em repositórios de sistemas, no entanto, a depender dos requisitos definidos para os constituintes, a busca manual constitui-se uma tarefa dispendiosa e possivelmente orientada a falhas. Nesse sentido, técnicas de mineração de dados caracterizam-se como ferramenta importante no processo de descoberta e conhecimento em grandes bases de dados de sistemas. Objetivo: Dessa forma, o objetivo principal desta dissertação de mestrado é apresentar uma metodologia capaz de criar modelos de SoS com base em comportamentos emergentes derivados de processos de negócios utilizando técnicas de mineração de dados. Métodos: Um mapeamento sistemático da literatura foi realizado com vistas a analisar a literatura existente que trata de comportamentos emergentes em SoS com o propósito de caracterizar o estado da arte atual em relação a trabalhos existentes na área de SoS. Com vistas a encontrar os sistemas constituintes dos SoS, algoritmos de mineração de dados foram utilizados para dar suporte a essa tarefa. Para isso, a metodologia proposta foi aplicada em um estudo de caso prático com vistas a validá-la. Resultados: Os resultados da aplicação da metodologia mostram que embora todos os algoritmos de mineração de dados analisados nesta pesquisa apresentem resultados satisfatórios, o agrupamento por densidade a partir do algoritmo dbscan apresentou resultados mais satisfatórios na busca por sistemas constituintes que unidos apresentam comportamentos emergentes que atendam aos requisitos de negócios. No entanto, pode-se observar que o algoritmo dbscan apresentou os maiores tempos de execução dentre todas as técnicas, tornando-o impraticável caso o tempo de execução seja uma variável importante durante a aplicação da metodologia. Em contrapartida, o algoritmo de ranking se apresentou a o melhor opção quando tempo de execução é relevante durante a aplicação. Conclusões: Essa dissertação de mestrado apresentou resultados importantes para o estado da arte de engenharia de SoS que vão ao encontro dos direcionamentos de pesquisa identificados no mapeamento sistemático. A principal contribuição diz respeito a constatação de que comportamento emergentes de Sos derivados de processos de negócios são capazes de auxiliar a realização das atividades presentes nesses processos.

Teses
1
  • CHARLES HENRIQUE PORTO FERREIRA
  • Extração e Combinação de Múltiplas Visões para Classificação de Textos

  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 14/02/2020

  • Mostrar Resumo
  • Analisar a informação através de múltiplas perspectivas pode colaborar no entendimento dos dados e na extração de conhecimento, permitindo a exploração de um intervalo maior de características, principalmente em se tratando de textos. Para fazer uma análise significativa de todos os aspectos de um texto, é fundamental observá-lo através de múltiplas perspectivas permitindo assim uma investigação mais objetiva. Neste trabalho, estamos propondo uma técnica capaz de gerar múltiplas visões de textos para aprender suas características e incorporar seu conhecimento em uma única representação vetorial que seja apta para generalizar um modelo preditivo aprimorado que visa aperfeiçoar a classificação de documentos. Estamos apresentando duas propostas para combinar nossas múltiplas visões. Cada estratégia possui algumas variações que proporcionam mais flexibilidade. Avaliamos nossos métodos através da tarefa de classificação de textos sobre duas perspectivas diferentes. Inicialmente, comparamos nossa proposta contra métodos que usam uma única visão dos dados e posteriormente, confrontamos contra técnicas de estado-da-arte que  também utilizam múltiplas visões. Executamos os experimentos com quatro classificadores em seis bases de textos diferentes. Nossas propostas superaram as técnicas concorrentes em quase todos os experimentos mostrando sua capacidade de aprender com múltiplas visões de textos.



  • Mostrar Abstract
  • Analisar a informação através de múltiplas perspectivas pode colaborar no entendimento dos dados e na extração de conhecimento, permitindo a exploração de um intervalo maior de características, principalmente em se tratando de textos. Para fazer uma análise significativa de todos os aspectos de um texto, é fundamental observá-lo através de múltiplas perspectivas permitindo assim uma investigação mais objetiva. Neste trabalho, estamos propondo uma técnica capaz de gerar múltiplas visões de textos para aprender suas características e incorporar seu conhecimento em uma única representação vetorial que seja apta para generalizar um modelo preditivo aprimorado que visa aperfeiçoar a classificação de documentos. Estamos apresentando duas propostas para combinar nossas múltiplas visões. Cada estratégia possui algumas variações que proporcionam mais flexibilidade. Avaliamos nossos métodos através da tarefa de classificação de textos sobre duas perspectivas diferentes. Inicialmente, comparamos nossa proposta contra métodos que usam uma única visão dos dados e posteriormente, confrontamos contra técnicas de estado-da-arte que  também utilizam múltiplas visões. Executamos os experimentos com quatro classificadores em seis bases de textos diferentes. Nossas propostas superaram as técnicas concorrentes em quase todos os experimentos mostrando sua capacidade de aprender com múltiplas visões de textos.


2
  • RAFAEL JEFERSON PEZZUTO DAMACENO
  • Métodos computacionais para identificação e análise de grafos de genealogia acadêmica

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 10/08/2020

  • Mostrar Resumo
  • O impacto que acadêmicos exercem sobre a ciência frequentemente tem sido analisado sob a ótica da produção de publicações científicas. Poucos são os estudos que abordam a quantificação/qualificação da formação de recursos humanos como parte integrante da avaliação do desempenho dos acadêmicos, isto é, que consideram a produção de novos cientistas por meio das orientações acadêmicas. Neste sentido, áreas do conhecimento têm realizado esforços para a criação de bases de dados de acadêmicos e seus relacionamentos de orientação, utilizando a genealogia acadêmica para documentar e organizar essas informações por meio de grafos. No entanto, as bases de genealogia acadêmica existentes apresentam problemas como redundância, ausência e imprecisão de informações. Ainda, poucos empreendimentos científicos foram realizados para estudar de modo global e evolutivo a influência acadêmica entre acadêmicos e entre os campos do conhecimento.
    Neste trabalho são desenvolvidos e aplicados métodos computacionais para a identificação e análise de grafos de genealogia acadêmica obtidos a partir de fontes de informação que contém dados de formação e orientação no contexto da pós-graduação. São desenvolvidas estratégias para identificar grafos de genealogia acadêmica por meio de técnicas de desambiguação de vértices e arestas. E os grafos obtidos segundo distintas visões, tais como o crescimento das estruturas hierárquicas, as relações de influência entre parentes acadêmicos e a carreira segundo os papéis exercidos pelos acadêmicos.
    No processo de identificação de grafos de genealogia acadêmica, 6,3 milhões de currículos da Plataforma Lattes foram prospectados originando um grafo com 1,2 milhão de vértices e 1,4 milhão de arestas que representam os mestres e doutores que atuam ou atuaram na ciência brasileira. As técnicas de desambiguação foram capazes de reduzir a quantidade de ruído deste grafo. As análises permitiram evidenciar padrões no contexto do grafo como um todo bem como nos subgrafos que representam as grandes áreas de orientação e as linhagens acadêmicas das áreas de Ciência da Computação e Ciência da Informação. Foram identificados quais atores tiveram um papel fundamental no contexto brasileiro assim como foram gerados insumos para a elaboração de indicadores de formação acadêmica. Dentre as principais contribuições científicas deste trabalho podem ser destacadas: (i) a documentação e análise da influência acadêmica existente entre acadêmicos e entre campos do conhecimento, (ii) um método de identificação de grafos de genealogia acadêmica que pode ser replicado para outras bases de dados e (iii) um modelo populacional de crescimento capaz de rastrear a carreira acadêmica dos cientistas ao longo dos processos de formação e orientação.
    Finalmente, a principal contribuição tecnológica deste doutorado é a concepção e disponibilização do grafo de genealogia acadêmica do Brasil na plataforma denominada Acácia (http://plataforma-acacia.org).


  • Mostrar Abstract
  • O impacto que acadêmicos exercem sobre a ciência frequentemente tem sido analisado sob a ótica da produção de publicações científicas. Poucos são os estudos que abordam a quantificação/qualificação da formação de recursos humanos como parte integrante da avaliação do desempenho dos acadêmicos, isto é, que consideram a produção de novos cientistas por meio das orientações acadêmicas. Neste sentido, áreas do conhecimento têm realizado esforços para a criação de bases de dados de acadêmicos e seus relacionamentos de orientação, utilizando a genealogia acadêmica para documentar e organizar essas informações por meio de grafos. No entanto, as bases de genealogia acadêmica existentes apresentam problemas como redundância, ausência e imprecisão de informações. Ainda, poucos empreendimentos científicos foram realizados para estudar de modo global e evolutivo a influência acadêmica entre acadêmicos e entre os campos do conhecimento.
    Neste trabalho são desenvolvidos e aplicados métodos computacionais para a identificação e análise de grafos de genealogia acadêmica obtidos a partir de fontes de informação que contém dados de formação e orientação no contexto da pós-graduação. São desenvolvidas estratégias para identificar grafos de genealogia acadêmica por meio de técnicas de desambiguação de vértices e arestas. E os grafos obtidos segundo distintas visões, tais como o crescimento das estruturas hierárquicas, as relações de influência entre parentes acadêmicos e a carreira segundo os papéis exercidos pelos acadêmicos.
    No processo de identificação de grafos de genealogia acadêmica, 6,3 milhões de currículos da Plataforma Lattes foram prospectados originando um grafo com 1,2 milhão de vértices e 1,4 milhão de arestas que representam os mestres e doutores que atuam ou atuaram na ciência brasileira. As técnicas de desambiguação foram capazes de reduzir a quantidade de ruído deste grafo. As análises permitiram evidenciar padrões no contexto do grafo como um todo bem como nos subgrafos que representam as grandes áreas de orientação e as linhagens acadêmicas das áreas de Ciência da Computação e Ciência da Informação. Foram identificados quais atores tiveram um papel fundamental no contexto brasileiro assim como foram gerados insumos para a elaboração de indicadores de formação acadêmica. Dentre as principais contribuições científicas deste trabalho podem ser destacadas: (i) a documentação e análise da influência acadêmica existente entre acadêmicos e entre campos do conhecimento, (ii) um método de identificação de grafos de genealogia acadêmica que pode ser replicado para outras bases de dados e (iii) um modelo populacional de crescimento capaz de rastrear a carreira acadêmica dos cientistas ao longo dos processos de formação e orientação.
    Finalmente, a principal contribuição tecnológica deste doutorado é a concepção e disponibilização do grafo de genealogia acadêmica do Brasil na plataforma denominada Acácia (http://plataforma-acacia.org).

3
  • SAULO RAMOS DE CARVALHO PEREIRA
  • Sketch-Based Modeling From Single-view Drawings and Applications

  • Orientador : JOAO PAULO GOIS
  • Data: 20/10/2020

  • Mostrar Resumo
  • Para permitir que amadores ou iniciantes criem modelos rapidamente a partir de um conjunto de desenhos 2D, a reconstrução 3D ganhou atenção nos últimos anos. Entretanto, ao lidar com desenhos, é necessário tratar problemas importantes, como ambiguidade e dificuldade em inferir partes ocultas. Isso é especialmente válido ao descrever características de espécies vegetais e animais, exploradas por botânicos e zoólogos, nas quais, as abordagens precisam inferir ou descartar partes oclusas. Esta tese tem como objetivo reconstruir objetos 3D a partir de simples desenhos 2D em única vista, assumindo que uma grande classe de objetos apresenta simetria estrutural ou seja composta por múltiplos objetos desenhados como estruturas sobrepostas.

    Neste trabalho, apresentamos dois frameworks, uma abordagem automática que leva ao estudo e desenvolvimento de um método robusto para a geração de modelos 3D usando Funções de Base Radial a partir de dados Hermitianos, permitindo interpolar os contornos do desenho 2D com as normais 3D estimadas. Apesar dos resultados promissores, o uso de esqueletos em trabalhos anteriores descarta os detalhes presentes nos desenhos, criando cilindros generalizados em torno do eixo medial extraído das peças desenhadas. Além disso, como parte relevante do estudo, está o desenvolvimento de novas estratégias para a segmentação dos desenhos, permitindo tratar diferentes partes com maior flexibilidade.

    A seguir, apresentamos um framework interativo para interface baseada em sketches para modelar objetos 3D com múltiplos contornos e estruturas sobrepostas. Inspirado por estratégias tradicionais de ilustração e desenhos científicos, nossa interface de desenho permite ao usuário inferir simetrias perceptíveis e partes obstruídas do modelo antes de sua modelagem 3D automática. Propomos um conjunto de efeitos visuais 2D para aprimorar a percepção visual dos usuários ao esboçar vários objetos sobrepostos em uma única vista. Como resultado, demonstramos exemplos com desenhos que variam de simples sobreposição de linha a ilustrações de torções de fitas, além de sistemática biológica para apresentar as capacidades de nosso sistema.


  • Mostrar Abstract
  • Para permitir que amadores ou iniciantes criem modelos rapidamente a partir de um conjunto de desenhos 2D, a reconstrução 3D ganhou atenção nos últimos anos. Entretanto, ao lidar com desenhos, é necessário tratar problemas importantes, como ambiguidade e dificuldade em inferir partes ocultas. Isso é especialmente válido ao descrever características de espécies vegetais e animais, exploradas por botânicos e zoólogos, nas quais, as abordagens precisam inferir ou descartar partes oclusas. Esta tese tem como objetivo reconstruir objetos 3D a partir de simples desenhos 2D em única vista, assumindo que uma grande classe de objetos apresenta simetria estrutural ou seja composta por múltiplos objetos desenhados como estruturas sobrepostas.

    Neste trabalho, apresentamos dois frameworks, uma abordagem automática que leva ao estudo e desenvolvimento de um método robusto para a geração de modelos 3D usando Funções de Base Radial a partir de dados Hermitianos, permitindo interpolar os contornos do desenho 2D com as normais 3D estimadas. Apesar dos resultados promissores, o uso de esqueletos em trabalhos anteriores descarta os detalhes presentes nos desenhos, criando cilindros generalizados em torno do eixo medial extraído das peças desenhadas. Além disso, como parte relevante do estudo, está o desenvolvimento de novas estratégias para a segmentação dos desenhos, permitindo tratar diferentes partes com maior flexibilidade.

    A seguir, apresentamos um framework interativo para interface baseada em sketches para modelar objetos 3D com múltiplos contornos e estruturas sobrepostas. Inspirado por estratégias tradicionais de ilustração e desenhos científicos, nossa interface de desenho permite ao usuário inferir simetrias perceptíveis e partes obstruídas do modelo antes de sua modelagem 3D automática. Propomos um conjunto de efeitos visuais 2D para aprimorar a percepção visual dos usuários ao esboçar vários objetos sobrepostos em uma única vista. Como resultado, demonstramos exemplos com desenhos que variam de simples sobreposição de linha a ilustrações de torções de fitas, além de sistemática biológica para apresentar as capacidades de nosso sistema.

4
  • RICARDO BORGES DOS SANTOS
  • Tokens Não Fungíveis e Smart Contracts aplicados a Certificação de Terceira Pessoa de Alimentos a Base de Receitas  

  • Data: 26/11/2020

  • Mostrar Resumo
  • Esta pesquisa investiga o uso de tokens de blockchain e contratos inteligentes em aplicações de cadeia de suprimentos distribuída. Uma visão abrangente da tecnologia blockchain, contratos inteligentes e design e mecanismos de token é apresentada. Um caso de uso detalhado no campo da rastreabilidade de alimentos é desenvolvido. É descrito o uso de contratos inteligentes e tokens de blockchain para implementar um esquema de certificação de ingrediente confiável para o consumidor, começando na colheita para agro-alimentos, incluindo produtos alimentícios misturados, ou seja, baseados em receita. O mecanismo proposto permite que ingredientes com  qualquer propriedade desejada, incluindo algum valor social ou ambiental percebido pelo cliente, sejam certificados por qualquer autoridade de certificação, no momento da colheita ou extração, usando um token de contrato inteligente. O mecanismo envolve a transferência de tokens contendo o identificador de recursos unificados (URI) da Internet publicado no site da autoridade. O URI é transferido do fazendeiro ao longo da cadeia de abastecimento até o consumidor final em cada passagem de custódia do ingrediente usando o Critical Tracking Event(CTE) - Key Data Element(KDE). Isso permite que o consumidor final inspecione facilmente e tenha certeza da origem do ingrediente por meio de um aplicativo móvel. Uma implementação de código bem-sucedida para o mecanismo foi implantada como uma prova de conceito, testada e está sendo executada na cadeia de blocos ativa Ethereum como o token IGR (IGRtoken.eth). Concluímos que a arquitetura proposta permite total visibilidade da cadeia de suprimentos aos consumidores finais, sem efeitos prejudiciais ao proprietário da receita. Além disso, os incentivos econômicos inerentes apontam para um forte potencial de uso industrial do mecanismo. A principal contribuição desta pesquisa é a possibilidade de assegurar ao cliente a origem de qualquer instância ou lote de ingrediente de uma receita, sem prejudicar o direito legítimo do processador de evitar a divulgação de suas receitas e fornecedores.


  • Mostrar Abstract
  • Esta pesquisa investiga o uso de tokens de blockchain e contratos inteligentes em aplicações de cadeia de suprimentos distribuída. Uma visão abrangente da tecnologia blockchain, contratos inteligentes e design e mecanismos de token é apresentada. Um caso de uso detalhado no campo da rastreabilidade de alimentos é desenvolvido. É descrito o uso de contratos inteligentes e tokens de blockchain para implementar um esquema de certificação de ingrediente confiável para o consumidor, começando na colheita para agro-alimentos, incluindo produtos alimentícios misturados, ou seja, baseados em receita. O mecanismo proposto permite que ingredientes com  qualquer propriedade desejada, incluindo algum valor social ou ambiental percebido pelo cliente, sejam certificados por qualquer autoridade de certificação, no momento da colheita ou extração, usando um token de contrato inteligente. O mecanismo envolve a transferência de tokens contendo o identificador de recursos unificados (URI) da Internet publicado no site da autoridade. O URI é transferido do fazendeiro ao longo da cadeia de abastecimento até o consumidor final em cada passagem de custódia do ingrediente usando o Critical Tracking Event(CTE) - Key Data Element(KDE). Isso permite que o consumidor final inspecione facilmente e tenha certeza da origem do ingrediente por meio de um aplicativo móvel. Uma implementação de código bem-sucedida para o mecanismo foi implantada como uma prova de conceito, testada e está sendo executada na cadeia de blocos ativa Ethereum como o token IGR (IGRtoken.eth). Concluímos que a arquitetura proposta permite total visibilidade da cadeia de suprimentos aos consumidores finais, sem efeitos prejudiciais ao proprietário da receita. Além disso, os incentivos econômicos inerentes apontam para um forte potencial de uso industrial do mecanismo. A principal contribuição desta pesquisa é a possibilidade de assegurar ao cliente a origem de qualquer instância ou lote de ingrediente de uma receita, sem prejudicar o direito legítimo do processador de evitar a divulgação de suas receitas e fornecedores.

5
  • ALEXANDRE MIGUEL DE CARVALHO
  • DTO-SMOTE: um novo método de oversampling para o pré-processamento de dados desbalanceados

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 07/12/2020

  • Mostrar Resumo
  • Não informado

  • Mostrar Abstract
  • Não informado
6
  • CARLOS FERNANDO MONTOYA CUBAS
  • Agrupamento de instâncias em classes de equivalência para lidar com o problema da dimensionalidade em inferência de redes gênicas

  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 07/12/2020

  • Mostrar Resumo
  • A inferência de redes de interação gênica a partir de perfis de expressão é um dos problemas importantes pesquisados em biologia sistêmica, sendo considerado um problema em aberto. Diversas técnicas matemáticas, estatísticas e computacionais têm sido desenvolvidas para modelar, inferir e simular mecanismos de regulação gênica, sendo o problema de inferência o foco desta proposta. Tal proposta tem por objetivo continuar as pesquisas realizadas no mestrado, as quais envolveram o estudo de métodos de inferência de redes gênicas baseados em seleção de características (seleção do melhor conjunto de genes preditores do comportamento de um dado gene alvo em termos de suas expressões temporais de mRNA), propondo alternativas para aumentar o poder de estimação estatística em situações típicas nas quais o conjunto de amostras com perfis de expressão gênica é bem limitado e possuem elevada dimensionalidade (número de genes). Mais concretamente, no mestrado foram propostos métodos para aliviar o problema da dimensionalidade na inferência de redes Booleanas, através de partições no reticulado Booleano induzidas por combinações lineares dos valores dos genes preditores (instâncias dos preditores). Cada valor de combinação linear determina uma classe de equivalência entre as instâncias dos genes preditores. Neste trabalho de doutorado, o problema de agrupamento de instâncias foi reformulado como um problema de busca no reticulado de partições, além de formular estratégias de busca nesse reticulado com base em informações a priori (por exemplo: que uma rede gênica tende a ser composta majoritariamente por funções lineares e de canalização)  para examinar um subespaço de partições potencialmente relevantes sem abrir mão da eficiência computacional. Resultados preliminares indicam que os métodos desenvolvidos, especialmente o método que busca por funções de canalização, obtêm redes competitivas tanto do ponto de vista topológico, como do ponto de vista da dinâmica da expressão gênica gerada pelas redes inferidas. A principal vantagem desses métodos é a superior capacidade de generalização para gerar o próximo estado do sistema com base em estados iniciais sorteados e que não estejam no conjunto de amostras de treinamento. Além disso, desenvolvemos um método de transferência de aprendizado supervisionado obtido da inferência de redes geradas aleatoriamente (sintéticas) que busca estimar a dimensão correta dos conjuntos de genes preditores para os respectivos genes alvos, o qual confere uma vantagem a todos os métodos de inferência de redes gênicas considerados, incluindo o método original sem agrupamento de instâncias.


  • Mostrar Abstract
  • A inferência de redes de interação gênica a partir de perfis de expressão é um dos problemas importantes pesquisados em biologia sistêmica, sendo considerado um problema em aberto. Diversas técnicas matemáticas, estatísticas e computacionais têm sido desenvolvidas para modelar, inferir e simular mecanismos de regulação gênica, sendo o problema de inferência o foco desta proposta. Tal proposta tem por objetivo continuar as pesquisas realizadas no mestrado, as quais envolveram o estudo de métodos de inferência de redes gênicas baseados em seleção de características (seleção do melhor conjunto de genes preditores do comportamento de um dado gene alvo em termos de suas expressões temporais de mRNA), propondo alternativas para aumentar o poder de estimação estatística em situações típicas nas quais o conjunto de amostras com perfis de expressão gênica é bem limitado e possuem elevada dimensionalidade (número de genes). Mais concretamente, no mestrado foram propostos métodos para aliviar o problema da dimensionalidade na inferência de redes Booleanas, através de partições no reticulado Booleano induzidas por combinações lineares dos valores dos genes preditores (instâncias dos preditores). Cada valor de combinação linear determina uma classe de equivalência entre as instâncias dos genes preditores. Neste trabalho de doutorado, o problema de agrupamento de instâncias foi reformulado como um problema de busca no reticulado de partições, além de formular estratégias de busca nesse reticulado com base em informações a priori (por exemplo: que uma rede gênica tende a ser composta majoritariamente por funções lineares e de canalização)  para examinar um subespaço de partições potencialmente relevantes sem abrir mão da eficiência computacional. Resultados preliminares indicam que os métodos desenvolvidos, especialmente o método que busca por funções de canalização, obtêm redes competitivas tanto do ponto de vista topológico, como do ponto de vista da dinâmica da expressão gênica gerada pelas redes inferidas. A principal vantagem desses métodos é a superior capacidade de generalização para gerar o próximo estado do sistema com base em estados iniciais sorteados e que não estejam no conjunto de amostras de treinamento. Além disso, desenvolvemos um método de transferência de aprendizado supervisionado obtido da inferência de redes geradas aleatoriamente (sintéticas) que busca estimar a dimensão correta dos conjuntos de genes preditores para os respectivos genes alvos, o qual confere uma vantagem a todos os métodos de inferência de redes gênicas considerados, incluindo o método original sem agrupamento de instâncias.

2019
Dissertações
1
  • EDSON ELIZEU DA SILVA
  • Circunavegação Multirrobótica Reativa e Descentralizada

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 24/01/2019

  • Mostrar Resumo
  • Este trabalho é um estudo acerca da circunavegação multirrobótica, mais especificamente, sobre o movimento circular coletivo de robôs móveis n ̃ao-holomônicos ao redor de um alvo estático ou dinâmico. Essa técnica é geralmente aplicada em abordagens de vigilância seguida de cerco e escolta multirrobótica de alvos em potencial. Os objetivos principais desse trabalho são desenvolver e implementar algoritmos que executem a circunavegação reativa e descentralizada para o problema do movimento circular coletivo multirrobótico e demonstrar a possibilidade de utilizar esses algoritmos na circunavegação multirrobótica através da implementação em plataforma de simulação.Este trabalho foi desenvolvido no domínio da simulação computacional, mais especificamente, em plataformas de simulação NetLogo (multiagente) e ROS-Gazebo (multirrobótica) cujas características são também apresentadas e comparadas com outras plataformas existentes. O material da pesquisa realizada em plataformas de simulação e em circunavegação foi utilizado como referência para publicação de dois artigos. Em análise realizada nos resultados da simulação multirrobótica observou-se que a circunavegação é etapa posterior à busca do alvo e somente ocorre quando esta for efetiva. Então, neste trabalho também foi incluída a proposta de uma possível implementação com objetivo de para facilitar a busca pelo alvo, garantindo que ele seja encontrado e reduzindo o tempo necessário para encontrá-lo.


  • Mostrar Abstract
  • Este trabalho é um estudo acerca da circunavegação multirrobótica, mais especificamente, sobre o movimento circular coletivo de robôs móveis n ̃ao-holomônicos ao redor de um alvo estático ou dinâmico. Essa técnica é geralmente aplicada em abordagens de vigilância seguida de cerco e escolta multirrobótica de alvos em potencial. Os objetivos principais desse trabalho são desenvolver e implementar algoritmos que executem a circunavegação reativa e descentralizada para o problema do movimento circular coletivo multirrobótico e demonstrar a possibilidade de utilizar esses algoritmos na circunavegação multirrobótica através da implementação em plataforma de simulação.Este trabalho foi desenvolvido no domínio da simulação computacional, mais especificamente, em plataformas de simulação NetLogo (multiagente) e ROS-Gazebo (multirrobótica) cujas características são também apresentadas e comparadas com outras plataformas existentes. O material da pesquisa realizada em plataformas de simulação e em circunavegação foi utilizado como referência para publicação de dois artigos. Em análise realizada nos resultados da simulação multirrobótica observou-se que a circunavegação é etapa posterior à busca do alvo e somente ocorre quando esta for efetiva. Então, neste trabalho também foi incluída a proposta de uma possível implementação com objetivo de para facilitar a busca pelo alvo, garantindo que ele seja encontrado e reduzindo o tempo necessário para encontrá-lo.

2
  • GUSTAVO TORRES CUSTODIO
  • Sumarização de Artigos Científicos para Geração de Highlights de Pesquisa

  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 06/02/2019

  • Mostrar Resumo
  • Veículos de publicação de artigos científicos fornecem um grande volume de informação sobre assuntos específicos. Para facilitar a busca do leitor, é comum que esses repositórios forneçam gratuitamente uma versão reduzida dos artigos. Um exemplo disso são os highlights de pesquisa, frases pontuais que contém os pontos principais de um artigo. Essas frases normalmente são fornecidas manualmente pelos autores do artigo, por isso temos como objetivo gerar automaticamente esses highlights.

    Interpretamos a tarefa de escolher highlights de um artigo como um trabalho de sumarização automática de textos. O objetivo da sumarização automática é reduzir um texto para uma forma curta enquanto os pontos principais são mantidos.

    Este trabalho propõe uma abordagem para representar frases de um texto em um espaço cartesiano de características e investiga técnicas para identificar, neste espaço, as frases mais importantes. Foram consideradas técnicas de agrupamento, otimização baseada em população, classificação de uma classe e multiclasse.

     


  • Mostrar Abstract
  • Veículos de publicação de artigos científicos fornecem um grande volume de informação sobre assuntos específicos. Para facilitar a busca do leitor, é comum que esses repositórios forneçam gratuitamente uma versão reduzida dos artigos. Um exemplo disso são os highlights de pesquisa, frases pontuais que contém os pontos principais de um artigo. Essas frases normalmente são fornecidas manualmente pelos autores do artigo, por isso temos como objetivo gerar automaticamente esses highlights.

    Interpretamos a tarefa de escolher highlights de um artigo como um trabalho de sumarização automática de textos. O objetivo da sumarização automática é reduzir um texto para uma forma curta enquanto os pontos principais são mantidos.

    Este trabalho propõe uma abordagem para representar frases de um texto em um espaço cartesiano de características e investiga técnicas para identificar, neste espaço, as frases mais importantes. Foram consideradas técnicas de agrupamento, otimização baseada em população, classificação de uma classe e multiclasse.

     

3
  • FERNANDO HENRIQUE SANCHES
  • Analise de Algoritmos de Decomposição para o Problema da Distância de Edição em Árvores

  • Orientador : DANIEL MORGATO MARTIN
  • Data: 08/02/2019

  • Mostrar Resumo
  • O problema da Distancia de Ediç ã o de Á rvores é uma generalizaç ã o da Distâ ncia de Levenshtein (Distancia de Ediç ã o de Cadeias). Nele, temos duas á rvores rotuladas A e B, e queremos saber o custo mí nimo de uma sequencia de operaç õ es que transforma A em B atraves da inserç ã o, substituiç ã o e rerrotulaã o de nó s. Neste trabalho, analizamos alguns algoritmos da famí lia de algoritmos de decomposiç ã o: Zhang-Shasha, Klein e Demaine. Revisitamos as provas de alguns de seus lemas, visando trazer uma versao mais clara quanto possí vel. També m apresentamos uma implementaç ã o do algoritmo de Klein operando sobre cadeias de Euler, como descrito em seu trabalho original.


  • Mostrar Abstract
  • O problema da Distancia de Ediç ã o de Á rvores é uma generalizaç ã o da Distâ ncia de Levenshtein (Distancia de Ediç ã o de Cadeias). Nele, temos duas á rvores rotuladas A e B, e queremos saber o custo mí nimo de uma sequencia de operaç õ es que transforma A em B atraves da inserç ã o, substituiç ã o e rerrotulaã o de nó s. Neste trabalho, analizamos alguns algoritmos da famí lia de algoritmos de decomposiç ã o: Zhang-Shasha, Klein e Demaine. Revisitamos as provas de alguns de seus lemas, visando trazer uma versao mais clara quanto possí vel. També m apresentamos uma implementaç ã o do algoritmo de Klein operando sobre cadeias de Euler, como descrito em seu trabalho original.

4
  • EDUARDO PINHATA
  • ALGORITMOS PARA O PROBLEMA DE ENTREGA DE PACOTES AUXILIADA POR DRONE

  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 11/02/2019

  • Mostrar Resumo
  • Uma modalidade de entrega que está sendo considerada por grandes empresas como Amazon e DHL é a entrega de pacotes utilizando um caminhã o com um drone como seu assistente. Diversos autores estã o propondo variaç õ es de problemas de otimizaç ã o que modelam esse tipo de entrega, e os resolvendo com heurí sticas e mé todos exatos.

    Este trabalho propõ e dois algoritmos para encontrar soluç õ es para instâ ncias de uma dessas variaç õ es de problemas, chamada de Flying Sidekick Travelling Salesman Problem (FSTSP). O algoritmo de Triplas Vantajosas usa um modelo de programaç ã o quadrá ica para encontrar possí veis combinaç õ es de sub-rotas com drones, para resolver o problema. Desenvolvemos també m uma heurí stica, chamada de Heurí stica de Expansã o, que utiliza de algumas propriedades do problema para tentar melhorar soluç õ es de instâ ncias do FSTSP.

    Pelas aná lises realizadas, o algoritmo de Triplas Vantajosas pode obter, em mé dia, soluç õ es melhores que o algoritmo do autor que propô s o FSTSP. A Heurí stica de Expansã o obteve resultados positivos com uma baixa complexidade computacional.


  • Mostrar Abstract
  • Uma modalidade de entrega que está sendo considerada por grandes empresas como Amazon e DHL é a entrega de pacotes utilizando um caminhã o com um drone como seu assistente. Diversos autores estã o propondo variaç õ es de problemas de otimizaç ã o que modelam esse tipo de entrega, e os resolvendo com heurí sticas e mé todos exatos.

    Este trabalho propõ e dois algoritmos para encontrar soluç õ es para instâ ncias de uma dessas variaç õ es de problemas, chamada de Flying Sidekick Travelling Salesman Problem (FSTSP). O algoritmo de Triplas Vantajosas usa um modelo de programaç ã o quadrá ica para encontrar possí veis combinaç õ es de sub-rotas com drones, para resolver o problema. Desenvolvemos també m uma heurí stica, chamada de Heurí stica de Expansã o, que utiliza de algumas propriedades do problema para tentar melhorar soluç õ es de instâ ncias do FSTSP.

    Pelas aná lises realizadas, o algoritmo de Triplas Vantajosas pode obter, em mé dia, soluç õ es melhores que o algoritmo do autor que propô s o FSTSP. A Heurí stica de Expansã o obteve resultados positivos com uma baixa complexidade computacional.

5
  • THIAGO DONIZETTI DOS SANTOS
  • Um Modelo para Detecção de Ansiedade Computacional em Idosos Interagindo com a Web

  • Data: 13/02/2019

  • Mostrar Resumo
  • Com o aumento do número de diferentes tipos de tecnologias utilizadas no cotidiano, seria esperado que o uso de computadores fosse algo confortável e natural para todos. No entanto, é comum que algumas pessoas ainda se sintam apreensivas quando precisam usar computadores ou novas tecnologias. Essas pessoas enfrentam múltiplos níveis de ansiedade e, para níveis elevados, demonstram o que é chamado de Ansiedade Computacional (do inglês Computer Anxiety). Pessoas com Ansiedade Computacional enfrentam problemas no uso de tecnologias em casa, no ambiente de trabalho ou para fins de estudo. Isto pode criar múltiplas barreiras para essas pessoas, privando-as do acesso à tecnologia. Neste contexto, o presente projeto de mestrado investigou as principais características relacionadas a como pessoas com Ansiedade Computacional interagem com computadores relacionando-as com dados de interação (ou logs de interação). Isso foi feito através de um estudo de campo realizado com 31 idosos envolvendo captura de dados de interação, dados de rastreamento ocular, escalas para medir níveis de depressão, ansiedade, ansiedade computacional, entre outras. Os resultados obtidos foram utilizados no desenvolvimento de um modelo de detecção de ansiedade computacional capaz de identificar diferentes níveis de ansiedade (i.e., sem ansiedade, baixo nível de ansiedade computacional e alto nível de ansiedade computacional) com 83,87% de acurácia. A partir dos resultados apresentados, é possível identificar automaticamente diferentes níveis de ansiedade computacional de idosos interagindo com a Web através da análise de logs de interação. Então, possibilitando personalização da interface de usuário para pessoas com Ansiedade Computacional, por exemplo, simplificando-a.


  • Mostrar Abstract
  • Com o aumento do número de diferentes tipos de tecnologias utilizadas no cotidiano, seria esperado que o uso de computadores fosse algo confortável e natural para todos. No entanto, é comum que algumas pessoas ainda se sintam apreensivas quando precisam usar computadores ou novas tecnologias. Essas pessoas enfrentam múltiplos níveis de ansiedade e, para níveis elevados, demonstram o que é chamado de Ansiedade Computacional (do inglês Computer Anxiety). Pessoas com Ansiedade Computacional enfrentam problemas no uso de tecnologias em casa, no ambiente de trabalho ou para fins de estudo. Isto pode criar múltiplas barreiras para essas pessoas, privando-as do acesso à tecnologia. Neste contexto, o presente projeto de mestrado investigou as principais características relacionadas a como pessoas com Ansiedade Computacional interagem com computadores relacionando-as com dados de interação (ou logs de interação). Isso foi feito através de um estudo de campo realizado com 31 idosos envolvendo captura de dados de interação, dados de rastreamento ocular, escalas para medir níveis de depressão, ansiedade, ansiedade computacional, entre outras. Os resultados obtidos foram utilizados no desenvolvimento de um modelo de detecção de ansiedade computacional capaz de identificar diferentes níveis de ansiedade (i.e., sem ansiedade, baixo nível de ansiedade computacional e alto nível de ansiedade computacional) com 83,87% de acurácia. A partir dos resultados apresentados, é possível identificar automaticamente diferentes níveis de ansiedade computacional de idosos interagindo com a Web através da análise de logs de interação. Então, possibilitando personalização da interface de usuário para pessoas com Ansiedade Computacional, por exemplo, simplificando-a.

6
  • FERNANDA MIYUKI YAMADA
  • A heuristic for solving tangram puzzles through raster representation and mathematical morphology

  • Orientador : HARLEN COSTA BATAGELO
  • Data: 03/06/2019

  • Mostrar Resumo
  • O tangram é um quebra-cabeça de dissecação composto por peças poligonais que podem ser combinadas para formar diferentes padrões.  Além de ser um quebra-cabeça recreativo, o tangram se relaciona a uma classe mais geral de problemas combinatórios NP-difíceis, como o problema do corte bidimensional.  A maioria dos métodos atuais aplicados à solução automática do tangram é incapaz de representar padrões que não são descritos por um único contorno fechado sem furos.  Além disso, a maioria dos métodos apresenta limitações nas transformações aplicadas nas peças, restringindo os ângulos de rotação e não implementando a transformação de reflexão.  Neste estudo, atacamos essas limitações através da introdução de um método heurístico que usa uma representação raster do quebra-cabeça. De modo a adaptar as técnicas geométricas que são aplicadas na prevenção de sobreposições e na redução do espaço entre as peças, utilizamos representações e operadores morfológicos tradicionalmente aplicados no domínio discreto tais como o operador de dilatação, a transformada de distância e a esqueletonização morfológica.  Investigamos os efeitos da representação raster no processo de montagem do quebra-cabeça e verificamos a eficácia do método proposto na resolução de diferentes quebra-cabeças de tangram.


  • Mostrar Abstract
  • O tangram é um quebra-cabeça de dissecação composto por peças poligonais que podem ser combinadas para formar diferentes padrões.  Além de ser um quebra-cabeça recreativo, o tangram se relaciona a uma classe mais geral de problemas combinatórios NP-difíceis, como o problema do corte bidimensional.  A maioria dos métodos atuais aplicados à solução automática do tangram é incapaz de representar padrões que não são descritos por um único contorno fechado sem furos.  Além disso, a maioria dos métodos apresenta limitações nas transformações aplicadas nas peças, restringindo os ângulos de rotação e não implementando a transformação de reflexão.  Neste estudo, atacamos essas limitações através da introdução de um método heurístico que usa uma representação raster do quebra-cabeça. De modo a adaptar as técnicas geométricas que são aplicadas na prevenção de sobreposições e na redução do espaço entre as peças, utilizamos representações e operadores morfológicos tradicionalmente aplicados no domínio discreto tais como o operador de dilatação, a transformada de distância e a esqueletonização morfológica.  Investigamos os efeitos da representação raster no processo de montagem do quebra-cabeça e verificamos a eficácia do método proposto na resolução de diferentes quebra-cabeças de tangram.

7
  • MARCO YOSHIRO KUBOYAMA DE CAMARGO
  • Classifiers Optimization with Exceptional Model Mining

  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 04/06/2019

  • Mostrar Resumo
  • Os algoritmos tradicionais de predição buscam otimizar uma métrica de predição global para identificar uma tendência que descreva o comportamento de um conjunto de dados. Então, essa regra generalizada pode ser utilizada para fornecer estimativas para amostras até então desconhecidas. Este modus operandi pode induzir ao negligenciamento de padrões interessantes que contém informação relevante apenas por não estarem próximos à tendência principal. Essas regiões potencialmente interessantes do espaço são conhecidas como excepcionalidades locais e podem ser identificadas por algoritmos como o Exceptional Model Mining (EMM) na forma de subgrupos. O EMM generaliza a tarefa conhecida como subgroup discovery abrangendo também medidas de qualidade multivariáveis. Suas instancias são definidas pela combinação de um modelo construído sobre atributos alvo pré-selecionados com uma medida de qualidade calculada em função dos modelos. Adicionar explicitamente essa informação em um conjunto de dados na forma de novos atributos forçaria os classificadores a considerar em seus espaços de busca as excepcionalidades locais, auxiliando o processo de construção das fronteiras de decisão e, consequentemente, melhorando o desempenho preditivo. Nossos resultados sugerem que, ao adicionar os subgrupos encontrados com o EMM como novos atributos em um conjunto de dados, foi possível melhorar o desempenho preditivos de algoritmos lineares tradicionais de classificação quando comparados com o mesmo algoritmo, executado com os mesmos parâmetros sobre o mesmo conjunto de dados, mas sem a informação provida pelo EMM. 


  • Mostrar Abstract
  • Os algoritmos tradicionais de predição buscam otimizar uma métrica de predição global para identificar uma tendência que descreva o comportamento de um conjunto de dados. Então, essa regra generalizada pode ser utilizada para fornecer estimativas para amostras até então desconhecidas. Este modus operandi pode induzir ao negligenciamento de padrões interessantes que contém informação relevante apenas por não estarem próximos à tendência principal. Essas regiões potencialmente interessantes do espaço são conhecidas como excepcionalidades locais e podem ser identificadas por algoritmos como o Exceptional Model Mining (EMM) na forma de subgrupos. O EMM generaliza a tarefa conhecida como subgroup discovery abrangendo também medidas de qualidade multivariáveis. Suas instancias são definidas pela combinação de um modelo construído sobre atributos alvo pré-selecionados com uma medida de qualidade calculada em função dos modelos. Adicionar explicitamente essa informação em um conjunto de dados na forma de novos atributos forçaria os classificadores a considerar em seus espaços de busca as excepcionalidades locais, auxiliando o processo de construção das fronteiras de decisão e, consequentemente, melhorando o desempenho preditivo. Nossos resultados sugerem que, ao adicionar os subgrupos encontrados com o EMM como novos atributos em um conjunto de dados, foi possível melhorar o desempenho preditivos de algoritmos lineares tradicionais de classificação quando comparados com o mesmo algoritmo, executado com os mesmos parâmetros sobre o mesmo conjunto de dados, mas sem a informação provida pelo EMM. 

8
  • RODRIGO PENNELLA CARDOSO
  • Um framework para interoperabilidade de instituições heterogêneas de ensino utilizando Blockchain

  • Orientador : DENISE HIDEKO GOYA
  • Data: 04/06/2019

  • Mostrar Resumo
  • O Blockchain é uma tecnologia que tem recebido grande atenção recentemente devido às suas características principais, como a descentralização, a persistência, a auditabilidade com alta proteção contra adulterações, mesmo trabalhando com redes peer-to-peer em nós não confiáveis. Estas peculiaridades a tornam uma importante ferramenta para ser utilizada para a interoperabilidade
    de instituições heterogêneas de ensino. Neste trabalho são apresentadas as características que sustentam o uso do Blockchain nesse contexto e é definido um modelo para a interoperabilidade de instituições heterogêneas de ensino, baseado no Blockchain do Ethereum.


  • Mostrar Abstract
  • O Blockchain é uma tecnologia que tem recebido grande atenção recentemente devido às suas características principais, como a descentralização, a persistência, a auditabilidade com alta proteção contra adulterações, mesmo trabalhando com redes peer-to-peer em nós não confiáveis. Estas peculiaridades a tornam uma importante ferramenta para ser utilizada para a interoperabilidade
    de instituições heterogêneas de ensino. Neste trabalho são apresentadas as características que sustentam o uso do Blockchain nesse contexto e é definido um modelo para a interoperabilidade de instituições heterogêneas de ensino, baseado no Blockchain do Ethereum.

9
  • FÁBIO REZENDE DE SOUZA
  • Semântica Distribucional Aplicada à Avaliação Didática

  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 12/06/2019

  • Mostrar Resumo
  • A semântica distribucional é uma teoria derivada da linguística e psicologia, que possui como premissa a hipótese de que se pode derivar o significado de uma palavra pelos diversos contextos em que ela ocorre. Trata-se de uma teoria com um vasto número de aplicações em âmbito computacional: representações baseadas em semântica distribucional são largamente empregadas em tarefas como geração de texto, tradução automática e classificação de documentos. Uma das grandes vantagens deste tipo de representação consiste no fato de que todo o aprendizado da linguagem deriva da apresentação de exemplos de textos da linguagem em questão. Nesta dissertação, são investigadas oportunidades de utilização de representações baseadas em semântica distribucional para o processo de avaliação didática de questões dissertativas em variados domínios de conhecimento, abstraídos como problemas de classificação supervisionada. O principal objetivo deste método consiste em fornecer ferramentos para auxiliar professores nesta tarefa, servindo como um mitigador da subjetividade intrínseca do processo de correção de exercícios produzidos por alunos. São eles: a detecção de estruturas retóricas de artigos de opinião em redações de vestibular e aplicação automática de conceitos em scripts em Java produzidos por alunos em um curso introdutório de programação. No primeiro, foi obtida acurácia máxima de 74,22% entre os diversos experimentos propostos. No segundo, em uma série de 12 experimentos, foi obtida uma média de acurácia de 74, 90% . Além das oportunidades em educação aqui propostas, são também realizadas comparações de diferentes representações distribucionais entre si, e também, a avaliação de sua efetividade em dois domínios distintos: linguagem natural (redações em português), e linguagem formal (scripts de programação).


  • Mostrar Abstract
  • A semântica distribucional é uma teoria derivada da linguística e psicologia, que possui como premissa a hipótese de que se pode derivar o significado de uma palavra pelos diversos contextos em que ela ocorre. Trata-se de uma teoria com um vasto número de aplicações em âmbito computacional: representações baseadas em semântica distribucional são largamente empregadas em tarefas como geração de texto, tradução automática e classificação de documentos. Uma das grandes vantagens deste tipo de representação consiste no fato de que todo o aprendizado da linguagem deriva da apresentação de exemplos de textos da linguagem em questão. Nesta dissertação, são investigadas oportunidades de utilização de representações baseadas em semântica distribucional para o processo de avaliação didática de questões dissertativas em variados domínios de conhecimento, abstraídos como problemas de classificação supervisionada. O principal objetivo deste método consiste em fornecer ferramentos para auxiliar professores nesta tarefa, servindo como um mitigador da subjetividade intrínseca do processo de correção de exercícios produzidos por alunos. São eles: a detecção de estruturas retóricas de artigos de opinião em redações de vestibular e aplicação automática de conceitos em scripts em Java produzidos por alunos em um curso introdutório de programação. No primeiro, foi obtida acurácia máxima de 74,22% entre os diversos experimentos propostos. No segundo, em uma série de 12 experimentos, foi obtida uma média de acurácia de 74, 90% . Além das oportunidades em educação aqui propostas, são também realizadas comparações de diferentes representações distribucionais entre si, e também, a avaliação de sua efetividade em dois domínios distintos: linguagem natural (redações em português), e linguagem formal (scripts de programação).

10
  • EDUARDO DA SILVA CRUZ
  • Avaliação do uso de Métricas Metacognitivas no Processo de Aprendizagem mediado por Ambientes Virtuais

  • Orientador : EDSON PINHEIRO PIMENTEL
  • Data: 12/08/2019

  • Mostrar Resumo
  • Pesquisas têm indicado que o conhecimento sobre a própria conhecimento é essencial para alcançar uma aprendizagem com qualidade. Este conhecimento pode ser realçado com o desenvolvimento de capacidades metacognitivas, por meio de atividades que buscam envolver o aprendiz no monitoramento do próprio conhecimento. No entanto, Ambientes Virtuais de Aprendizagem (AVA) como o Moodle, bastante utilizado por educadores, não possuem nativamente ferramentas que permitam realizar estas atividades, capturar métricas e analisar os resultados.  Este trabalho tem por objetivo  geral investigar o potencial do uso de métricas metacognitivas no processo de ensino-aprendizagem por meio de ambientes virtuais. Para buscar o cumprimento do objetivo geral desenvolveu-se a ferramenta MetaRef, um plug-in para o Moodle, que permite organizar atividades e coletar métricas metacognitivas. A ferramenta permite ainda o acompanhamento dessas métricas por parte do estudante e do professor. Realizou-se um curso com a ferramenta MetaRef e os dados coletados foram analisados e discutidos.


  • Mostrar Abstract
  • Pesquisas têm indicado que o conhecimento sobre a própria conhecimento é essencial para alcançar uma aprendizagem com qualidade. Este conhecimento pode ser realçado com o desenvolvimento de capacidades metacognitivas, por meio de atividades que buscam envolver o aprendiz no monitoramento do próprio conhecimento. No entanto, Ambientes Virtuais de Aprendizagem (AVA) como o Moodle, bastante utilizado por educadores, não possuem nativamente ferramentas que permitam realizar estas atividades, capturar métricas e analisar os resultados.  Este trabalho tem por objetivo  geral investigar o potencial do uso de métricas metacognitivas no processo de ensino-aprendizagem por meio de ambientes virtuais. Para buscar o cumprimento do objetivo geral desenvolveu-se a ferramenta MetaRef, um plug-in para o Moodle, que permite organizar atividades e coletar métricas metacognitivas. A ferramenta permite ainda o acompanhamento dessas métricas por parte do estudante e do professor. Realizou-se um curso com a ferramenta MetaRef e os dados coletados foram analisados e discutidos.

11
  • ROZIVALDO ZACARIAS DE JESUS
  • Caracterização de pesquisadores usando medidas de Multidisciplinaridade: Uma abordagem baseada em mineração de produções acadêmicas

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 13/09/2019

  • Mostrar Resumo
  • A área de cientometria vem a décadas estudando formas de medir e aferir, de forma robusta, a ciência sob diversos aspectos. Em particular, os assuntos mais visitados, detalham a ciência sob a perspectiva qualitativa e quantitativa utilizando informações de fontes bibliométricas. A trans-, inter-, pluri- e multidisciplinaridade em pesquisa são diferentes formas de relação ou interação entre diferentes disciplinas científicas. Atualmente estas formas de interação são desejáveis na academia e motivada pelos diferentes órgãos de ciência e tecnologia assim como de agências de fomento à pesquisa. Nesse contexto, a caracterização de pesquisadores por indicadores cientométricos de multidisciplinaridade (que corresponde ao agrupamento simultâneo de disciplinas sem obrigatoriamente representar uma forte integração), é um primeiro passo para a descoberta de conhecimento sobre a relação de disciplinas a partir de fontes de dados bibliográficas e/ou curriculares incompletas.
    Neste trabalho apresentamos a criação de métodos computacionais para analisar, ao longo do tempo, quão multidisciplinar tem sido o atuar científico de grupos de pesquisadores pesquisa. Formamos também uma rede de multidisciplinaridade onde verificamos as integrações: pesquisador-disciplina, pesquisador-pesquisador e disciplina-disciplina, utilizando a estrutura de grafos heterogêneos e homogêneos. O procedimento computacional considera a abordagem tradicional de descoberta de conhecimento onde são utilizados técnicas de mineração (e.g., séries temporais e reconhecimento de padrões) aplicadas a dados bibliográficos e curriculares.


  • Mostrar Abstract
  • A área de cientometria vem a décadas estudando formas de medir e aferir, de forma robusta, a ciência sob diversos aspectos. Em particular, os assuntos mais visitados, detalham a ciência sob a perspectiva qualitativa e quantitativa utilizando informações de fontes bibliométricas. A trans-, inter-, pluri- e multidisciplinaridade em pesquisa são diferentes formas de relação ou interação entre diferentes disciplinas científicas. Atualmente estas formas de interação são desejáveis na academia e motivada pelos diferentes órgãos de ciência e tecnologia assim como de agências de fomento à pesquisa. Nesse contexto, a caracterização de pesquisadores por indicadores cientométricos de multidisciplinaridade (que corresponde ao agrupamento simultâneo de disciplinas sem obrigatoriamente representar uma forte integração), é um primeiro passo para a descoberta de conhecimento sobre a relação de disciplinas a partir de fontes de dados bibliográficas e/ou curriculares incompletas.
    Neste trabalho apresentamos a criação de métodos computacionais para analisar, ao longo do tempo, quão multidisciplinar tem sido o atuar científico de grupos de pesquisadores pesquisa. Formamos também uma rede de multidisciplinaridade onde verificamos as integrações: pesquisador-disciplina, pesquisador-pesquisador e disciplina-disciplina, utilizando a estrutura de grafos heterogêneos e homogêneos. O procedimento computacional considera a abordagem tradicional de descoberta de conhecimento onde são utilizados técnicas de mineração (e.g., séries temporais e reconhecimento de padrões) aplicadas a dados bibliográficos e curriculares.

12
  • RAFAEL DI CESARE GIANNELLA
  • Avaliação de Algoritmos Fonéticos para Melhoria de Busca em Texto de Mídias Sociais

  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 09/12/2019

  • Mostrar Resumo
  • A recente disseminação de redes sociais mudou radicalmente o uso que as pessoas fazem da Internet. Essas ferramentas permitem que você escreva e divulgue informações de maneira simples e imediata. Textos de mídia social têm várias propriedades que os tornam diferentes dos textos tradicionais, devido à natureza das conversas em redes sociais, postadas em tempo real. Os textos não são estruturados e são apresentados em vários formatos e escritos por pessoas diferentes em muitos idiomas e estilos. Além disso, os erros de digitação e as gírias de bate-papo se tornaram cada vez mais comuns em sites de redes sociais como o Facebook e o Twitter.

    Nesse ambiente dinâmico e veloz, não é raro que muitas mensagens apresentem problemas de digitação. Os textos incorretos muitas vezes não prejudicam a comunicação entre os interlocutores, pois possíveis erros podem ser rapidamente corrigidos posteriormente e os termos incorretos normalmente possuem alguma similaridade fonética que permite superar essas falhas. Apesar de não interferir de forma decisiva nos diálogos, quando se usa dos dados do Twitter para realização de análises de mídias sociais, os termos incorretamente grafados podem reduzir a quantidade de registros obtidos por algoritmos clássicos de busca. Esse cenário tende a diminuir o volume do banco de dados usado para análise e, consequentemente, diminuir o índice de precisão dos estudos realizados.

    Um algoritmo fonético é um algoritmo de busca por similaridade que transforma uma palavra de entrada em um código fonético que indica aproximadamente a maneira como o termo é pronunciado em um idioma particular. Dessa forma, algoritmos fonéticos podem ter papel importante na melhora da busca de palavras em dados não estruturados e ruidosos, como os provenientes de redes sociais.


    Neste trabalho estudamos o impacto da utilização de algoritmos fonéticos
    em operações de busca em bancos de dados textuais não-estruturados e de grande volume, provenientes de mídias sociais. Também propomos métodos de avaliação considerando variações de algoritmos fonéticos e outras categorias de algoritmos por busca de similaridade de texto.


  • Mostrar Abstract
  • A recente disseminação de redes sociais mudou radicalmente o uso que as pessoas fazem da Internet. Essas ferramentas permitem que você escreva e divulgue informações de maneira simples e imediata. Textos de mídia social têm várias propriedades que os tornam diferentes dos textos tradicionais, devido à natureza das conversas em redes sociais, postadas em tempo real. Os textos não são estruturados e são apresentados em vários formatos e escritos por pessoas diferentes em muitos idiomas e estilos. Além disso, os erros de digitação e as gírias de bate-papo se tornaram cada vez mais comuns em sites de redes sociais como o Facebook e o Twitter.

    Nesse ambiente dinâmico e veloz, não é raro que muitas mensagens apresentem problemas de digitação. Os textos incorretos muitas vezes não prejudicam a comunicação entre os interlocutores, pois possíveis erros podem ser rapidamente corrigidos posteriormente e os termos incorretos normalmente possuem alguma similaridade fonética que permite superar essas falhas. Apesar de não interferir de forma decisiva nos diálogos, quando se usa dos dados do Twitter para realização de análises de mídias sociais, os termos incorretamente grafados podem reduzir a quantidade de registros obtidos por algoritmos clássicos de busca. Esse cenário tende a diminuir o volume do banco de dados usado para análise e, consequentemente, diminuir o índice de precisão dos estudos realizados.

    Um algoritmo fonético é um algoritmo de busca por similaridade que transforma uma palavra de entrada em um código fonético que indica aproximadamente a maneira como o termo é pronunciado em um idioma particular. Dessa forma, algoritmos fonéticos podem ter papel importante na melhora da busca de palavras em dados não estruturados e ruidosos, como os provenientes de redes sociais.


    Neste trabalho estudamos o impacto da utilização de algoritmos fonéticos
    em operações de busca em bancos de dados textuais não-estruturados e de grande volume, provenientes de mídias sociais. Também propomos métodos de avaliação considerando variações de algoritmos fonéticos e outras categorias de algoritmos por busca de similaridade de texto.

13
  • GABRIEL PEIXOTO DE CARVALHO
  • A comparative study of sign language recognition methods

  • Orientador : ANDRE LUIZ BRANDAO
  • Data: 13/12/2019

  • Mostrar Resumo
  • Línguas de sinais utilizam de movimentos de mão e braços em combinação com expressões faciais e posturas corporais para transmitir idéias. Esta forma de comunicação é a principal utilizada por pessoas com deficiência auditiva em suas comunicadades, porém, grande parte da sociedade não compreende esse tipo de comunicação. Devido à essa falta de comunicação, pessoas com deficiência auditiva têm dificuldade de alcançar uma educação superior e fazer parte da força de trabalho especializada. No campo da ciência da computação, abordagens anteriores tratam reconhecimento de línguas de sinais como um problema de classificação de imagens ou de classificação de sequências. Entretanto, esses estudos propõe uma solução limitada pra o problema de entender e traduzir línguas de sinais. Para integrar tais sistemas efetivamente na sociedade é necessaŕio que existam abordagem para aquisição dos sinais porque, em um caso de aplicação real, o sistema terá que lidar com diferentes ambientes e condições de iluminação que não estão presentes em imagens processadas usadas na classificação. Neste trabalho, apresentamos um estudo comparativo de aquisição (detecção, rastreio e segmentação) e classificação de imagens de línguas de sinais. Para auxiliar no estudo, criamos uma arquitetura de reconhecimento de línguas de sinais modular e coletamos duas bases de dados: uma contendo vídeos para rastreio de mão e outra contendo 91 configurações da Lingua Brasileira de Sinais (LIBRAS). Além disso, nós comparamos os métodos das diferentes tarefas da arquitetura utilizando mais de 10 outras bases de dados disponíveis gratuitamente. Nossos experimentos mostram que a tarefa de aqusição de imagens de língua de sinais processadas em diferentes ambientes é muito mais complexa do que a tarefa de classificação e dependendo do ambiente no qual o sistema for aplicado, a acquisição pode ser realizada com métodos simples. Este estudo pode contribuir para uma percepção útil do campo e métodos para futuras pesquisas na área. As bases de dados coletadas preenchem uma lacuna no campo e podem ser utilizadas para testes de novos algoritmos. Além disso, a arquitetura proposta acelera a prototipação e testes de novos sistemas.


  • Mostrar Abstract
  • Línguas de sinais utilizam de movimentos de mão e braços em combinação com expressões faciais e posturas corporais para transmitir idéias. Esta forma de comunicação é a principal utilizada por pessoas com deficiência auditiva em suas comunicadades, porém, grande parte da sociedade não compreende esse tipo de comunicação. Devido à essa falta de comunicação, pessoas com deficiência auditiva têm dificuldade de alcançar uma educação superior e fazer parte da força de trabalho especializada. No campo da ciência da computação, abordagens anteriores tratam reconhecimento de línguas de sinais como um problema de classificação de imagens ou de classificação de sequências. Entretanto, esses estudos propõe uma solução limitada pra o problema de entender e traduzir línguas de sinais. Para integrar tais sistemas efetivamente na sociedade é necessaŕio que existam abordagem para aquisição dos sinais porque, em um caso de aplicação real, o sistema terá que lidar com diferentes ambientes e condições de iluminação que não estão presentes em imagens processadas usadas na classificação. Neste trabalho, apresentamos um estudo comparativo de aquisição (detecção, rastreio e segmentação) e classificação de imagens de línguas de sinais. Para auxiliar no estudo, criamos uma arquitetura de reconhecimento de línguas de sinais modular e coletamos duas bases de dados: uma contendo vídeos para rastreio de mão e outra contendo 91 configurações da Lingua Brasileira de Sinais (LIBRAS). Além disso, nós comparamos os métodos das diferentes tarefas da arquitetura utilizando mais de 10 outras bases de dados disponíveis gratuitamente. Nossos experimentos mostram que a tarefa de aqusição de imagens de língua de sinais processadas em diferentes ambientes é muito mais complexa do que a tarefa de classificação e dependendo do ambiente no qual o sistema for aplicado, a acquisição pode ser realizada com métodos simples. Este estudo pode contribuir para uma percepção útil do campo e métodos para futuras pesquisas na área. As bases de dados coletadas preenchem uma lacuna no campo e podem ser utilizadas para testes de novos algoritmos. Além disso, a arquitetura proposta acelera a prototipação e testes de novos sistemas.

14
  • MATHEUS CAMPOS FERNANDES
  • Aprendizado ativo para agrupamento de dados com restrições

  • Orientador : THIAGO FERREIRA COVOES
  • Data: 17/12/2019

  • Mostrar Resumo
  • O interesse em aprendizado semissupervisionado tem crescido devido ao alto custo de
    rotular dados para análise. Paralelamente, o Aprendizado Ativo (AA) visa minimizar
    o custo da construção de bases de dados rotuladas, buscando identificar quais dados
    não rotulados são mais relevantes para o aprendizado, considerando os rótulos que já
    se tem disponíveis. Neste projeto, é analisada a combinação de AA com aprendizado
    semissupervisionado, em especial com Agrupamento de Dados com Restrições (ADR).
    Neste último tipo de aprendizado, ao invés de termos disponíveis rótulos de classe para
    um conjunto de objetos, somos informados se alguns pares de objetos devem estar no
    mesmo grupo ou em grupos diferentes. Em algumas aplicações, a identificação desse tipo
    de restrições envolve um custo reduzido já que consiste em menos informação do que um
    rótulo de classe. Este trabalho propõe diferentes estratégias de AA com o aprendizado
    de Modelos de Mistura de Gaussianas por um Algoritmo Evolutivo de ADR. Foram
    realizadas avaliações empíricas em 14 bases de dados conhecidas para medir os impactos
    de cada estratégia, quando comparadas com algoritmos supervisionados e um algoritmo
    estado-da-arte de AA para ADR. Adicionalmente a essa avaliação, desenvolvemos um
    estudo de caso relativo ao problema de classificação de plâncton. Apesar do alto custo de
    rotulação, este problema é abordado em poucos trabalhos no contexto de AA. O objetivo
    deste estudo de caso é, além de avaliar os métodos desenvolvidos em uma aplicação real,
    fornecer uma ferramenta que auxilie a classificação de plâncton, minimizando a interação
    com um especialista.


  • Mostrar Abstract
  • O interesse em aprendizado semissupervisionado tem crescido devido ao alto custo de
    rotular dados para análise. Paralelamente, o Aprendizado Ativo (AA) visa minimizar
    o custo da construção de bases de dados rotuladas, buscando identificar quais dados
    não rotulados são mais relevantes para o aprendizado, considerando os rótulos que já
    se tem disponíveis. Neste projeto, é analisada a combinação de AA com aprendizado
    semissupervisionado, em especial com Agrupamento de Dados com Restrições (ADR).
    Neste último tipo de aprendizado, ao invés de termos disponíveis rótulos de classe para
    um conjunto de objetos, somos informados se alguns pares de objetos devem estar no
    mesmo grupo ou em grupos diferentes. Em algumas aplicações, a identificação desse tipo
    de restrições envolve um custo reduzido já que consiste em menos informação do que um
    rótulo de classe. Este trabalho propõe diferentes estratégias de AA com o aprendizado
    de Modelos de Mistura de Gaussianas por um Algoritmo Evolutivo de ADR. Foram
    realizadas avaliações empíricas em 14 bases de dados conhecidas para medir os impactos
    de cada estratégia, quando comparadas com algoritmos supervisionados e um algoritmo
    estado-da-arte de AA para ADR. Adicionalmente a essa avaliação, desenvolvemos um
    estudo de caso relativo ao problema de classificação de plâncton. Apesar do alto custo de
    rotulação, este problema é abordado em poucos trabalhos no contexto de AA. O objetivo
    deste estudo de caso é, além de avaliar os métodos desenvolvidos em uma aplicação real,
    fornecer uma ferramenta que auxilie a classificação de plâncton, minimizando a interação
    com um especialista.

Teses
1
  • LUCIANO ROSSI
  • MÉTODOS COMPUTACIONAIS BASEADOS EM GENEALOGIA ACADÊMICA: CONTRIBUIÇÕES PARA A ANÁLISE DO FLUXO DE TÓPICOS DO CONHECIMENTO CIENTÍFICO

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 26/08/2019

  • Mostrar Resumo
  • A sociedade contemporânea vivência a denominada Era do Conhecimento, onde a produção, o compartilhamento e o acesso à informação nunca foram tão eficientes. Nesse contexto, estruturar o conhecimento acadêmico-científico fornece os meios para organizar o saber formal em classes, de modo a viabilizar sua gestão e contribuir para sua disseminação. Entretanto, os modelos formais de classificação do conhecimento não permitem observar as relações existentes entre as diferentes categorias, tão pouco contribuem para a identificação do fluxo desse conhecimento entre os membros de comunidades científicas. Assim, buscamos desenvolver um método computacional cujo objetivo é estruturar o conhecimento científico, considerando a estrutura hierárquica fornecida pela Genealogia Acadêmica (GA). Os métodos considerados neste trabalho abrangem (i) a prospecção de dados genealógicos, (ii) a estruturação do grafo de GA, (iii) a prospecção de registros biográficos dos acadêmicos, (iv) a inferência dos tópicos de atuação desses acadêmicos com base em suas respectivas biografias, (v) a propagação dos tópicos identificados no grafo de GA e (vi) a estruturação dos grafos de tópicos. Os métodos foram aplicados em um estudo de caso, no qual consideramos (i) os registros de doutores em matemática e áreas afins, disponibilizados pela plataforma Mathematics Genealogy Project, (ii) um conjunto de biografias referentes a esses matemáticos, disponibilizado pelo repositório Wikipedia e (iii) um dicionário de tópicos formado a partir de um glossário de áreas da matemática. Os grafos de tópicos, resultantes do estudo caso, são apresentados como objetos de estudo abrangendo abordagens distintas, sob o ponto de vista estrutural, as quais são acompanhadas de suas respectivas análises descritivas.  Consideramos que identificar e estudar o fluxo do conhecimento científico entre gerações de pesquisadores é uma tarefa importante, ainda pouco explorada pela comunidade científica devido à inexistência de conjuntos de dados. Acreditamos que este trabalho permitirá a definição de um novo método computacional para o estudo de fluxo de conhecimento científico. A relevância do trabalho recai na possibilidade de descoberta de novas informações que auxiliem a identificar, estruturar e analisar os caminhos da ciência.


  • Mostrar Abstract
  • A sociedade contemporânea vivência a denominada Era do Conhecimento, onde a produção, o compartilhamento e o acesso à informação nunca foram tão eficientes. Nesse contexto, estruturar o conhecimento acadêmico-científico fornece os meios para organizar o saber formal em classes, de modo a viabilizar sua gestão e contribuir para sua disseminação. Entretanto, os modelos formais de classificação do conhecimento não permitem observar as relações existentes entre as diferentes categorias, tão pouco contribuem para a identificação do fluxo desse conhecimento entre os membros de comunidades científicas. Assim, buscamos desenvolver um método computacional cujo objetivo é estruturar o conhecimento científico, considerando a estrutura hierárquica fornecida pela Genealogia Acadêmica (GA). Os métodos considerados neste trabalho abrangem (i) a prospecção de dados genealógicos, (ii) a estruturação do grafo de GA, (iii) a prospecção de registros biográficos dos acadêmicos, (iv) a inferência dos tópicos de atuação desses acadêmicos com base em suas respectivas biografias, (v) a propagação dos tópicos identificados no grafo de GA e (vi) a estruturação dos grafos de tópicos. Os métodos foram aplicados em um estudo de caso, no qual consideramos (i) os registros de doutores em matemática e áreas afins, disponibilizados pela plataforma Mathematics Genealogy Project, (ii) um conjunto de biografias referentes a esses matemáticos, disponibilizado pelo repositório Wikipedia e (iii) um dicionário de tópicos formado a partir de um glossário de áreas da matemática. Os grafos de tópicos, resultantes do estudo caso, são apresentados como objetos de estudo abrangendo abordagens distintas, sob o ponto de vista estrutural, as quais são acompanhadas de suas respectivas análises descritivas.  Consideramos que identificar e estudar o fluxo do conhecimento científico entre gerações de pesquisadores é uma tarefa importante, ainda pouco explorada pela comunidade científica devido à inexistência de conjuntos de dados. Acreditamos que este trabalho permitirá a definição de um novo método computacional para o estudo de fluxo de conhecimento científico. A relevância do trabalho recai na possibilidade de descoberta de novas informações que auxiliem a identificar, estruturar e analisar os caminhos da ciência.

2
  • DANILO CARASTAN DOS SANTOS
  • Aprendizagem Sobre Heurísticas Simples para Escalonamento Online de Tarefas Paralelas
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 27/11/2019

  • Mostrar Resumo
  • As plataformas de Computação de Alto Desempenho (do Inglês High Performance Computing, HPC) estão crescendo em tamanho e complexidade. De uma maneira adversa, a demanda de energia de tais plataformas também cresceu rapidamente, supercomputadores atuais exigem energia na escala de uma usina inteira. Em um esforço para fazer um uso mais responsável de tal poder computacional, pesquisadores estão dedicando uma grande quantidade de esforço para elaborar algoritmos e técnicas para melhorar diferentes aspectos de desempenho, tais como escalonamento e gerenciamento de recursos. Contudo, mantenedores de plataformas HPC ainda relutam em implementar métodos de estado-da-arte e a maioria deles revertem para heurísticas simples, como a EASY Backfilling, que é baseada em um ordenamento ingênuo First-Come-First-Served (FCFS). Os métodos mais recentes são muitas vezes complexos e obscuros e a simplicidade e a transparência da EASY Backfilling são importantes demais para serem sacrificadas.
     
    Em um primeiro momento, exploramos técnicas de Aprendizado de Máquina (do Inglês Machine Learning, ML) para aprender heurísticas de escalonamento on-line de tarefas paralelas. Usando simulações e um modelo de geração de workload, conseguimos determinar as características de aplicações HPC (tarefas) que levam a uma redução no slowdown médio de tarefas em uma fila de execução. Modelando essas características usando uma função não linear e aplicando essa função para selecionar a próxima tarefa em uma fila de execução melhorou o slowdown médio das tarefas de workloads sintéticos. Quando aplicadas em traces de execução reais de plataformas HPC altamente distintas, essas funções continuaram a resultar em melhorias de desempenho, atestando a capacidade de generalização das heurísticas obtidas.
     
    Em um segundo momento, usando simulações e traces de execução de plataformas HPC reais, realizamos uma análise completa dos resultados acumulados de quatro heurísticas de escalonamento simples (incluindo a EASY Backfilling). Também avaliamos outros efeitos, como a relação entre o tamanho das tarefas e o slowdown, a distribuição de valores de slowdown e o número de tarefas escalonados por meio de backfilling, para cada plataforma HPC e heurística de escalonamento. Mostramos evidências experimentais de que só podemos ganhar substituindo a EASY Backfilling pela política Smallest estimated Area First (SAF) com backfilling, pois ela oferece melhorias no desempenho em até 80% na métrica de slowdown, mantendo a simplicidade e a transparência da EASY Backfilling. SAF reduz o número de tarefas com valores de slowdown muito grandes e, com a inclusão de um mecanismo de limiar simples, garantimos que não ocorra inanição de tarefas.
     
    No geral, obtivemos as seguintes observações: (i) heurísticas de escalonamento simples e eficientes na forma de uma função não-linear das características das tarefas podem ser aprendidas automaticamente, embora seja subjetivo concluir sobre se o raciocínio por trás das decisões de escalonamento dessas heurísticas é claro ou não. (ii) A área (tempo estimado de processamento multiplicado pelo número de processadores) das tarefas parece ser uma propriedade bastante importante para boas heurísticas de escalonamento de tarefas paralelas, uma vez que muitas das heurísticas (notadamente a SAF) que alcançaram bons desempenhos têm a área da tarefa como entrada. (iii) O mecanismo de backfilling parece sempre ajudar no aumento do desempenho, embora não supere uma melhor ordenação da fila de espera das tarefas, como a ordenação realizada pela SAF.

  • Mostrar Abstract
  • As plataformas de Computação de Alto Desempenho (do Inglês High Performance Computing, HPC) estão crescendo em tamanho e complexidade. De uma maneira adversa, a demanda de energia de tais plataformas também cresceu rapidamente, supercomputadores atuais exigem energia na escala de uma usina inteira. Em um esforço para fazer um uso mais responsável de tal poder computacional, pesquisadores estão dedicando uma grande quantidade de esforço para elaborar algoritmos e técnicas para melhorar diferentes aspectos de desempenho, tais como escalonamento e gerenciamento de recursos. Contudo, mantenedores de plataformas HPC ainda relutam em implementar métodos de estado-da-arte e a maioria deles revertem para heurísticas simples, como a EASY Backfilling, que é baseada em um ordenamento ingênuo First-Come-First-Served (FCFS). Os métodos mais recentes são muitas vezes complexos e obscuros e a simplicidade e a transparência da EASY Backfilling são importantes demais para serem sacrificadas.
     
    Em um primeiro momento, exploramos técnicas de Aprendizado de Máquina (do Inglês Machine Learning, ML) para aprender heurísticas de escalonamento on-line de tarefas paralelas. Usando simulações e um modelo de geração de workload, conseguimos determinar as características de aplicações HPC (tarefas) que levam a uma redução no slowdown médio de tarefas em uma fila de execução. Modelando essas características usando uma função não linear e aplicando essa função para selecionar a próxima tarefa em uma fila de execução melhorou o slowdown médio das tarefas de workloads sintéticos. Quando aplicadas em traces de execução reais de plataformas HPC altamente distintas, essas funções continuaram a resultar em melhorias de desempenho, atestando a capacidade de generalização das heurísticas obtidas.
     
    Em um segundo momento, usando simulações e traces de execução de plataformas HPC reais, realizamos uma análise completa dos resultados acumulados de quatro heurísticas de escalonamento simples (incluindo a EASY Backfilling). Também avaliamos outros efeitos, como a relação entre o tamanho das tarefas e o slowdown, a distribuição de valores de slowdown e o número de tarefas escalonados por meio de backfilling, para cada plataforma HPC e heurística de escalonamento. Mostramos evidências experimentais de que só podemos ganhar substituindo a EASY Backfilling pela política Smallest estimated Area First (SAF) com backfilling, pois ela oferece melhorias no desempenho em até 80% na métrica de slowdown, mantendo a simplicidade e a transparência da EASY Backfilling. SAF reduz o número de tarefas com valores de slowdown muito grandes e, com a inclusão de um mecanismo de limiar simples, garantimos que não ocorra inanição de tarefas.
     
    No geral, obtivemos as seguintes observações: (i) heurísticas de escalonamento simples e eficientes na forma de uma função não-linear das características das tarefas podem ser aprendidas automaticamente, embora seja subjetivo concluir sobre se o raciocínio por trás das decisões de escalonamento dessas heurísticas é claro ou não. (ii) A área (tempo estimado de processamento multiplicado pelo número de processadores) das tarefas parece ser uma propriedade bastante importante para boas heurísticas de escalonamento de tarefas paralelas, uma vez que muitas das heurísticas (notadamente a SAF) que alcançaram bons desempenhos têm a área da tarefa como entrada. (iii) O mecanismo de backfilling parece sempre ajudar no aumento do desempenho, embora não supere uma melhor ordenação da fila de espera das tarefas, como a ordenação realizada pela SAF.
2018
Dissertações
1
  • DIEGO GARBELINI VENANCIO DOS SANTOS
  • Automatização de Regras de Genotipagem Usando Expressões Lógicas

  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 01/02/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

2
  • EDUARDO ALVES DE JESUS ANACLETO
  • Reavaliação Rápida em Problemas de Otimização Quadrática Binária
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 06/02/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • PAULO MATIAS DA SILVA JUNIOR
  • Distância de Edição para Estruturas de Dados
  • Orientador : RODRIGO DE ALENCAR HAUSEN
  • Data: 19/03/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CHRISTIAN REIS MENEGUIN
  • Seleção de características a partir da integração de dados por meio de análise de variação de número de cópias (CNV) para associação genótipo-fenótipo de doenças complexas
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 16/05/2018

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • EDGARD BALISTA DAMIANI
  • Towards an Analytical Approach to 3D Character Modeling

  • Orientador : JOAO PAULO GOIS
  • Data: 03/08/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

6
  • JULIA BOTAN MACHADO
  • Detecção de Eventos offline no Twitter por Agrupamento de Termos 

  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 03/12/2018

  • Mostrar Resumo
  • Não informado.


  • Mostrar Abstract
  • Não informado.

7
  • DIOGO FORNAZIERO SEGURA RAMOS
  • TERRITÓRIO CAUSAL EM GRAFOS TEMPORAIS DE CONVITES E COPARTICIPAÇÕES

  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 10/12/2018

  • Mostrar Resumo
  • Não informado


  • Mostrar Abstract
  • Não informado

2017
Dissertações
1
  • RAUL FREIRE AGUIAR
  • Representações Textuais e a Geração de Hubs: um estudo comparativo
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 11/01/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
3
  • ÉRIC TADEU CAMACHO DE OLIVEIRA
  • Análise sobre comunidades em redes artificiais: detecção, propriedades e estimação de desempenho
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 08/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CASSIA DE SOUZA CARVALHO
  • Um modelo explícito de sistema de recomendação utilizando informações externas
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 09/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • CANDY VERONICA TENORIO GONZALES
  • Marmoreio Digital com Interface Natural
  • Orientador : MARIO ALEXANDRE GAZZIRO
  • Data: 22/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • RAFAEL GUIMARÃES SAKURAI
  • Neuroevolução aplicada no treinamento de redes neurais convolucionais para aprender estratégias específicas do jogo Go
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 23/02/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • PRISCILA THAIS VAZ
  • Extensão da Metodologia INTERA para o desenvolvimento de recursos educacionais acessíveis a pessoas com deficiência visual
  • Orientador : ITANA STIUBIENER
  • Data: 02/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • JOEL HERNÁN FLORES MARTINEZ
  • Roteamento em redes tolerantes a atrasos por meio de otimização por colônia de formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 10/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • RAFAEL GOMES MUNHOZ
  • Processamento de Imagens HDR utilizando shaders gráficos em múltiplas plataformas
  • Orientador : ANDRE GUILHERME RIBEIRO BALAN
  • Data: 16/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • CARLOS EDUARDO MARCHI
  • Análise metadimensional em inferência de redes gênicas e priorização gênica associada a doenças complexas
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 20/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • ALEXANDRE HARAYASHIKI MOREIRA
  • Sistema Multirrobótico Descentralizado no Controle de Posição e Formação por Quadricópteros: Uma Integração entre o Mundo Virtual e Real
  • Orientador : WAGNER TANAKA BOTELHO
  • Data: 27/03/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • RODRIGO TEISKE CHINA
  • Plataforma de aquisição e método de análise corporal por varredura tridimensional
  • Orientador : MARIO ALEXANDRE GAZZIRO
  • Data: 20/04/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
14
  • VITOR DE SOUZA
  • Em direção a um modelo fenomenológico de coluna tálamo-cortical com uma abordagem orientada a objetos
  • Orientador : FRANCISCO JAVIER ROPERO PELAEZ
  • Data: 01/08/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • ANDRE RICARDO FREDERICO
  • Sobrevivência em arquiteturas de grade computacional baseadas em redes ópticas e gerenciadas por algoritmo de Otimização por Colônias de Formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 21/08/2017

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2016
Dissertações
1
  • CHARLES HENRIQUE PORTO FERREIRA
  • Seleção de atributos para classificação de textos usando técnicas baseadas em agrupamento, pos-tagging e algoritmos evolutivos
  • Orientador : FABIANA SOARES SANTANA
  • Data: 02/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • RAFAEL JEFERSON PEZZUTO DAMACENO
  • Acessibilidade de Pessoas com Deficiência Visual aos Dispositivos Móveis: Mapeamento de Problemas, Recomendações e Estudo de Caso de Gestos de Toque
  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 02/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • KARINE DA SILVA MIRAS DE ARAUJO
  • NeuroEvolução para a construção de uma estratégia genérica com o ambiente Evoman
  • Orientador : FABRICIO OLIVETTI DE FRANCA
  • Data: 03/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • NATÁLIA SALMAZZO
  • Classificação One-Class para predição de adaptação de espécies em ambientes desconhecidos
  • Orientador : FABIANA SOARES SANTANA
  • Data: 05/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ALINE YURI IEIRI
  • DESENVOLVIMENTO DE UM PROTÓTIPO LO-FI DE REPOSITÓRIO DE OBJETOS DE APRENDIZAGEM COM UTILIZAÇÃO DO MÉTODO DE BRUNO MUNARI
  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 26/02/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • THAIS RODRIGUEZ DE TOLEDO
  • DNP3 protocol traffic analysis using machine learning algorithms
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 08/03/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • ANDRÉ TEIXEIRA PINHA
  • Monitoramento de doadores de sangue através de integração de bases de texto heterogêneas
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 08/04/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • SHEILA NUNES DE VASCONCELOS
  • Processamento de Regras Dinâmicas Baseadas em Lógica de Primeira Ordem Aplicados a Análise de Dados Biológicos
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 05/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • JACQUELINE MAYUMI AKAZAKI
  • Senioridade Efetiva e Categoria de Inatividade Baseadas em Produções Acadêmicas
  • Orientador : LETICIA RODRIGUES BUENO
  • Data: 23/08/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ERICK SKORUPA PAROLIN
  • ASYNCHRONOUS TEAMS FOR SOLVING THE LOADING AND ROUTING AUTO-CARRIER PROBLEM
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 01/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • NELSON GONÇALVES DE OLIVEIRA
  • O Problema da Confecção da Escala de Trabalho para os Profissionais de Enfermagem no Brasil
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 01/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • DANIEL DE MORAES NAVARRO
  • Deopsminer: Mineração de Dados em Documentos da Ditadura Militar Brasileira
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 05/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • FABIO NEVES MARGARIDO
  • Criação de uma metodologia para o planejamento de cursos baseado em conceitos da engenharia de software e no design instrucional

  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 06/09/2016

  • Mostrar Resumo
  • A cadastrar


  • Mostrar Abstract
  • A cadastrar

14
  • LUCAS TROMBETA
  • Solução de redundância múltipla de servidores DHCP utilizando redes definidas por software
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 06/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • JUAN FLORENCIO VALDIVIA GUEVARA
  • Classificação de Textos Usando Ontologias
  • Orientador : DEBORA MARIA ROSSI DE MEDEIROS
  • Data: 08/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

16
  • DANIEL RODRIGUES DE SOUSA
  • TB-Horse: Desenvolvimento e Validação de um Protótipo de Robô Quadrúpede Bioinspirado em um Cavalo Marchador
  • Orientador : WAGNER TANAKA BOTELHO
  • Data: 09/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

17
  • LUCIANA SILVA ZAPPAROLLI
  • FAG - Ferramenta de apoio à gestão no ambiente virtual de aprendizagem Moodle utilizando técnicas de Business Intelligence
  • Orientador : ITANA STIUBIENER
  • Data: 22/09/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

18
  • JANAINA CRISTINA DA SILVA
  • Recomendações de projeto de interface de um aplicativo móvel de registro de aula para pessoas com deficiência visual
  • Orientador : JULIANA CRISTINA BRAGA
  • Data: 24/11/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

19
  • ALEXANDRE GRELUK SZYKMAN
  • A Framework for the Application of Participatory Design with Agile Game Development in a NUI Game for Wheelchair Users
  • Orientador : JOAO PAULO GOIS
  • Data: 02/12/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

20
  • DAVID PEREIRA BARBOSA
  • Classificação supervisionada da cobertura do solo: uma abordagem aplicada em imagens de sensoriamento remoto
  • Orientador : ALEXANDRE NOMA
  • Data: 08/12/2016

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2015
Dissertações
1
  • BRUNO AUGUSTO DORTA MARQUES
  • Preenchimento e iluminação interativa de modelos 2.5D
  • Orientador : JOAO PAULO GOIS
  • Data: 12/03/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DANILO CARASTAN DOS SANTOS
  • Um Algoritmo Exato em clusters de GPUs para o Hitting Set Aplicado à Inferência de Redes de Regulação Gênica
  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 27/05/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • LUCIANO ROSSI
  • Caracterização de grafos de genealogia acadêmica por meio de métricas topológicas
  • Orientador : JESUS PASCUAL MENA CHALCO
  • Data: 22/06/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • LUIS FELIPE SANT'ANA
  • Balanceamento de carga dinâmico em aglomerados de GPUs
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 16/07/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • LUCIANO BARROS PIRES
  • Integração, visualização e análise de informações eleitorais usando bancos de dados análiticos e fontes heterogeneas de grande volume.
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 22/07/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • PRISCILLA LABANCA
  • Séries Históricas e Método dos Mínimos Quadrados Aplicados ao Estudo Evolutivo da Doença de Alzheimer
  • Orientador : MARCIO KATSUMI OIKAWA
  • Data: 05/08/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • VINÍCIUS EDUARDO FERREIRA DOS SANTOS SILVA
  • Protocolo de negociação e colaboração baseado em EBXML com objetivo de otimizar processos portuários
  • Data: 12/08/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • ALAN CLAUDIUS MACIEL
  • Um panorama das abordagens de otimização aplicadas ao transporte dutoviário
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 11/09/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • DANIEL SOUZA MAKIYAMA
  • A prática de seleção de frameworks web cliente de código aberto: fundamentos para a construção de uma base de conhecimento
  • Orientador : GORDANA MANIC
  • Data: 16/12/2015

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2014
Dissertações
1
  • REINALDO DE SOUZA GONZAGA
  • Uma abordagem arquitetural para orquestração dinâmica de serviços
  • Orientador : FABIANA SOARES SANTANA
  • Data: 28/01/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • JHON FRANKO JORGE VELARDE
  • Aplicação do protocolo SPDY para aplicativos de monitoramento sobre redes de IP público
  • Orientador : NUNZIO MARCO TORRISI
  • Data: 06/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • RAY DUEÑAS JIMENEZ
  • Algoritmos genéticos em inferência de redes gênicas
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 24/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CARLOS FERNANDO MONTOYA CUBAS
  • Seleção de características em inferência de redes de interação gênica a partir de conjuntos reduzidos de amostras
  • Orientador : DAVID CORREA MARTINS JUNIOR
  • Data: 25/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ALICIA ISOLINA PRETEL JESUS
  • Processamento e estilização de dados RGB-Z em tempo real
  • Orientador : JOAO PAULO GOIS
  • Data: 28/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • EDILSON JOSE RODRIGUES
  • Um algoritmo para o problema do isomorfismo de Grafos
  • Orientador : DANIEL MORGATO MARTIN
  • Data: 28/03/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • AMAURY DE SOUZA AMARAL
  • Análise de funções booleanas e engenharia reversa em jogos de minoria
  • Orientador : JAIR DONADELLI JUNIOR
  • Data: 29/04/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • JORGE LUIS BARBIERI PUCOHUARANGA
  • Ciclos hamiltonianos em produtos cartesianos de grafos
  • Orientador : LETICIA RODRIGUES BUENO
  • Data: 26/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • GABRIELA OLIVEIRA BIONDI
  • Ajuste de parâmetros em algoritmos de aprendizado em máquina utilizando trasferência de aprendizado
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 29/05/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • SHEILA LEAL SANTOS
  • Método para modelagem de processos de negócios na engenharia de requisitos de software
  • Orientador : FABIANA SOARES SANTANA
  • Data: 23/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • RENATO STOFFALETTE JOÃO
  • Projeto de operadores de imagens binárias usando combinação de classificadores
  • Orientador : CARLOS DA SILVA DOS SANTOS
  • Data: 28/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • LIDIA MARIA RODRIGUES
  • Processamento de imagens HDR utilizando filtros não lineares e decomposição multiescala
  • Orientador : ANDRE GUILHERME RIBEIRO BALAN
  • Data: 31/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • PAULO CÉSAR ANGELO
  • Método de engenharia de requisitos baseado em BPMN e caso de uso
  • Orientador : FRANCISCO DE ASSIS ZAMPIROLLI
  • Data: 31/07/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • RODRIGO IZIDORO TININI
  • Agendamento e reserva futura de caminhos ópticos em ambientes de Lambda Grid por meio de otimização por colônia de formigas.
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 01/08/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • MANOLO CANALES CUBA
  • Reconstrução tridimensional do corpo humano a partir de dados RGB-D
  • Orientador : JOAO PAULO GOIS
  • Data: 25/09/2014

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2013
Dissertações
1
  • DENER EDSON OTTOLINI GUEDES DA SILVA
  • Estudo experimental do aprovisionamento dinâmico de caminhos ópticos com capacidade de restauração considerando restrições na camada física
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 10/01/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2
  • DIOGO FERNANDO TREVISAN
  • Técnicas e aplicações de superfícies implícitas a partir de dados hermitianos generalizados
  • Orientador : JOAO PAULO GOIS
  • Data: 08/03/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

3
  • JESSICA ANDRESSA DE SOUZA
  • Exploração de novas políticas de construção de métodos de acesso métricos
  • Orientador : MARIA CAMILA NARDINI BARIONI
  • Data: 14/03/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

4
  • CLEBER SILVA FERREIRA DA LUZ
  • Implementações de algoritmos paralelos da subsequência máxima e da submatriz máxima em GPU
  • Data: 02/05/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

5
  • ANDRÉIA CRISTINA DOS SANTOS GUSMÃO
  • Um algoritmo paralelo para ciclos hamiltoniamos em grafos Kneser
  • Orientador : LETICIA RODRIGUES BUENO
  • Data: 22/05/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

6
  • LEONARDO VILLANI
  • Anotação automática de imagens médicas bidimensionais por meio de classificação multirrótulo
  • Orientador : RONALDO CRISTIANO PRATI
  • Data: 19/06/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

7
  • ALANDER PEREIRA DOS SANTOS
  • Problema de cobertura por caminhos com k-terminais-fixos em grafos de intervalos
  • Orientador : GORDANA MANIC
  • Data: 31/07/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

8
  • ANDERSON BETONI
  • Evolução da infraestrutura embarcada do projeto vero considerando integração e migração de arcabouços de software e restrições de tempo real
  • Orientador : LUIZ GUSTAVO BIZARRO MIRISOLA
  • Data: 05/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

9
  • EDUARDO BATISTA GOMES MOREIRA
  • Algoritmos paralelos em GPUs para problemas de programação quadrática binária irrestrita
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 08/08/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

10
  • ADERBAL DE MORAIS JUNIOR
  • Uma biblioteca para desenvolvimento de aplicações CUDA em aglomerados de GPUs
  • Orientador : RAPHAEL YOKOINGAWA DE CAMARGO
  • Data: 22/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

11
  • MARCEL JESUS DIAS
  • Sistema de detecção remota de sonolência em motoristas: uma solução móvel
  • Orientador : YOSSI ZANA
  • Data: 22/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

12
  • SILVIA SCHEUNEMANN SILVA
  • Uma ontologia para interoperabilidade entre padrões de descrição de dados em Biodiversidade ABCD e Darwin Core
  • Orientador : FABIANA SOARES SANTANA
  • Data: 22/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

13
  • OMAR LATORRE VILCA
  • Métodos para problemas de seleção de cadeias de caracteres
  • Orientador : CLAUDIO NOGUEIRA DE MENESES
  • Data: 28/11/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

14
  • FABRIZIO FERREIRA BORELLI
  • Inferência de redes de regulação gênica usando algoritmo de busca exaustiva em cluster de GPUs
  • Orientador : LUIZ CARLOS DA SILVA ROZANTE
  • Data: 17/12/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

15
  • CONSTÂNCIO BRINGEL GOMES NETO
  • Análise de técnicas de decomposição em algoritmos de estimação de distribuição
  • Orientador : KARLA VITTORI
  • Data: 19/12/2013

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

2012
Dissertações
1
  • ANDRE FILIPE DE MORAES BATISTA
  • Roteamento Ótico em Redes GMPLS multidominio por meio da Otimização de Colônia de Formigas
  • Orientador : GUSTAVO SOUSA PAVANI
  • Data: 25/10/2012

  • Mostrar Resumo
  • nihil


  • Mostrar Abstract
  • nihil

SIGAA | UFABC - Núcleo de Tecnologia da Informação - ||||| | Copyright © 2006-2021 - UFRN - sigaa-2.sigaa-2