Interpretabilidade em Regressão Simbólica com a Representação Interação-Transformação
A comunidade científica tem dado cada vez mais atenção para a transparência em modelos de aprendizado de máquina para uso em aplicações de suporte a decisões. Enquanto muitos dos métodos populares são considerados uma caixa-preta por não possibilitarem uma inspeção do seu funcionamento, a regressão simbólica aparece como candidato na direção de obtenção de modelos mais transparentes, por conta do potencial que tem de encontrar modelos mais simples e interpretáveis. Entretanto, uma vez que interpretabilidade é subjetiva, faz-se necessário o uso de métodos adicionais para alcançar um modelo inteligível para o utilizador. Enquanto a representação Interação-Transformação é um passo na direção de resultados mais simples, por restringir o espaço de busca à soluções mais simples e interpretáveis, o resultado ainda pode não ser inteligível dependendo domínio do problema. Este projeto tem como objetivos desenvolver e aplicar métodos para interpretar e explicar resultados de regressão simbólica utilizando a representação Interação-Transformação, por meio da automatização do processo de extração de informações de um modelo, providenciando diversas perspectivas para apresentar ao utilizador de como ele se comporta. Para isso, diferentes abordagens para extrair informações expressões simbólicas serão estudadas, como o uso de descrições de alto nível, ferramentas de visualização e medidas quantitativas do comportamento da expressão, facilitando com que possa ser estabelecida (ou rejeitada) a confiabilidade e plausibilidade do modelo.