AVALIAÇÃO DE ALGORITMO DE APRENDIZADO NÃO SUPERVISIONADO DE ENSEMBLE DE REPRESENTAÇÕES
INTRODUÇÃO: Diante da crescente demanda por soluções eficazes em cenários com escassez de dados rotulados, os estudos baseados em abordagem não supervisionada têm recebido uma crescente atenção da comunicade de Aprendizagem de Máquina. Nesta direção, este trabalho investigou alternativas ao aprendizado supervisionado tradicional, com foco no modelo Representation Ensemble Learning (REL). Inserido no paradigma do Self-Taught Learning (STL), o REL explora a utilização de conjuntos de dados não rotulados para treinar AutoEncoders Convolucionais (AEC), que extraem representações úteis a serem aplicadas em domínios distintos. A importância desse estudo se acentua em aplicações médicas, como a detecção de cálculos renais, onde a obtenção de dados rotulados é limitada e dispendiosa. OBJETIVOS: O principal objetivo foi avaliar o desempenho do algoritmo REL em tarefas de classificação em múltiplos domínios, com ênfase na capacidade de generalização entre bases distintas, especialmente na área médica. Procurou-se validar a eficácia do REL em comparação a modelos de referência da literatura, propondo também melhorias arquiteturais para ampliar sua performance. MATERIAIS E MÉTODO: A pesquisa foi conduzida em duas fases experimentais, totalizando 17 experimentos. Na Fase 1, foram utilizados dados médicos (bases Yildirim e Kaggle) com a arquitetura original do REL, aplicando diferentes estratégias de data augmentation, tamanho de entrada e combinações de representações latentes. Já na Fase 2, foi incorporada uma nova arquitetura baseada na DenseNet, reconhecida por sua capacidade de preservação de informações em tarefas de visão computacional. Técnicas de normalização, como PCA e padding, também foram ajustadas para corrigir perdas de informação nos vetores latentes. RESULTADOS: Os experimentos da Fase 1 revelaram limitações significativas do REL original, com acurácias baixas em cenários Cross-Dataset, mesmo com diferentes combinações de hiperparâmetros. A introdução da DenseNet e a correção na aplicação do PCA resultaram em avanços substanciais na Fase 2, com destaque para a acurácia de 72,4% na tarefa de generalização entre as bases Yildirim e Kaggle — superando o modelo de Kadir Yildirim, referência na área. Observou-se também que a qualidade e diversidade do conjunto auxiliar são fatores determinantes para a eficácia do modelo. CONSIDERAÇÕES FINAIS: O modelo REL demonstrou-se promissor como uma alternativa ao aprendizado supervisionado em contextos com poucos dados rotulados, especialmente em aplicações médicas. Após ajustes na arquitetura e no pré-processamento, alcançou resultados competitivos frente à literatura. O estudo reforça o potencial do STL em tarefas complexas de classificação e indica a necessidade de bases auxiliares mais robustas para ampliar sua capacidade de generalização. A pesquisa contribui significativamente para o avanço das técnicas de aprendizado não supervisionado na área de inteligência artificial.
PALAVRAS-CHAVE: Aprendizado Não Supervisionado; AutoEncoders Convolucionais; Ensemble de Representações; Self-Taught Learning.
Para validarmos seu voto, por favor, preencha os campos abaixo. Alertamos que votos duplicados ou com CPF inválido não serão considerados.