Inferência de redes gênicas via aprendizado por reforço
A inferência de redes de regulação gênica a partir de dados de expressão é um problema importante no campo da biologia de sistemas, envolvendo a estimativa de dependências indiretas entre genes e as funções regulatórias entre essas interações para fornecer um modelo que explique o conjunto de dados de expressão gênica. O principal objetivo é entender os mecanismos moleculares globais subjacentes às doenças para o desenvolvimento de tratamentos e medicamentos. No entanto, tal problema é considerado um problema em aberto, pois é um desafio obter uma estimativa satisfatória das dependências dado um número muito limitado de amostras sujeitas a ruídos experimentais. Muitos métodos de inferência de redes gênicas foram propostos na literatura, onde alguns deles usam heurísticas ou algoritmos baseados em modelos para encontrar redes que explicam os dados codificando redes inteiras como soluções. No entanto, em geral, esses modelos são lentos, não escaláveis para redes de tamanho real (milhares de genes), ou requerem muitos parâmetros, o conhecimento de um especialista ou um grande número de amostras para serem viáveis. Por outro lado, o Aprendizado por Reforço é uma abordagem adaptável orientada a objetivos que não requer grandes conjuntos de dados rotulados e muitos parâmetros; pode prover soluções de boa qualidade em um tempo de execução viável; e pode funcionar automaticamente por um longo tempo sem a necessidade de um especialista. Portanto, propomos aqui uma forma de adaptar o Aprendizado por Reforço ao domínio de inferência de redes de regulação gênica, a fim de obter redes com qualidade comparável à obtida por busca exaustiva, mas em tempo de execução muito menor. Nossa avaliação experimental mostra que nossa proposta é promissora em aprender e encontrar com sucesso boas soluções em diferentes tarefas automaticamente em um tempo razoável. No entanto, a escalabilidade para redes com milhares de genes permanece como uma limitação de nossa abordagem devido ao consumo excessivo de memória, embora antevemos algumas possíveis melhorias que poderiam lidar com essa limitação em versões futuras do método proposto.