IMPLEMENTAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO DIAGNÓSTICO ULTRASSONOGRÁFICO EM CÃES
INTRODUÇÃO: A aplicação de inteligência artificial (IA) à ultrassonografia veterinária tem potencial para ampliar diagnósticos precisos mesmo em contextos clínicos com poucos especialistas. Contudo, essa integração enfrenta barreiras como a escassez de imagens rotuladas de qualidade e a dependência da experiência do operador. A detecção de alterações renais em cães via ultrassom é desafiadora, pois as manifestações patológicas são frequentemente sutis e difíceis de distinguir visualmente. Este cenário justifica a adoção de ferramentas baseadas em aprendizado profundo, capazes de identificar padrões ocultos com mais robustez que a análise humana, mesmo em imagens de baixa qualidade ou obtidas com equipamentos variados.Diante disso, o trabalho investiga se modelos leves de deep learning, como o YOLOv11-nano, podem atuar com precisão clínica satisfatória mesmo em bases de dados pequenas e desbalanceadas. A proposta se ancora no uso de estratégias de aumento de dados e validação robusta para superar a escassez de amostras. A premissa é que, com técnicas adequadas de pré-processamento e anotação, é possível construir um sistema eficiente de apoio ao diagnóstico, adaptado às limitações típicas da medicina veterinária. OBJETIVOS: O objetivo central é desenvolver uma ferramenta baseada em IA para classificar imagens ultrassonográficas de rins caninos (e possivelmente felinos) como normais ou alterados, visando aplicação clínica. Os objetivos específicos incluem: construir uma base própria de imagens anotadas; aplicar data augmentation e transfer learning; avaliar o desempenho com métricas quantitativas; e oferecer diretrizes técnicas que subsidiem futuros sistemas de apoio à decisão em diagnóstico por imagem na medicina veterinária. MATERIAIS E MÉTODO: Foram utilizados seis conjuntos de imagens, totalizando 1.835 amostras, divididas entre transdutores convexos e lineares. As imagens passaram por padronização, anonimização e anotação por especialistas, utilizando bounding boxes no padrão YOLO. A validação adotou K-fold estratificado (K=5), garantindo que imagens de um mesmo paciente não estivessem em múltiplas partições. O treinamento foi realizado com YOLOv11-nano, priorizando leveza computacional. O aumento de dados utilizou RandAugment com variações visuais controladas. A avaliação dos modelos incluiu acurácia, precisão, recall, F1-score, mAP@50 e mAP@50-95. RESULTADOS: O modelo apresentou desempenho variável conforme o cenário. O conjunto “Linear Ampliado” obteve o melhor resultado com acurácia de 86%, superando os demais, incluindo os com imagens convexas. Já os conjuntos “Convexo” e “Completo” mantiveram desempenho inferior a 75%. Os cenários com data augmentation apresentaram melhora substancial, indicando que a diversidade sintética ajudou a compensar o desbalanceamento e a escassez de imagens, sobretudo nas classes “Alterado”. CONSIDERAÇÕES FINAIS: A hipótese foi parcialmente confirmada. A combinação de data augmentation com arquitetura leve mostrou-se eficaz, especialmente com imagens lineares. Contudo, limitações como desbalanceamento entre classes e variabilidade nos parâmetros de aquisição impactaram negativamente o desempenho geral. O projeto estruturou uma base promissora e demonstrou a viabilidade de soluções com IA em contextos restritos, mas ainda carece de generalização ampla e validação externa para uso clínico consolidado.
PALAVRAS-CHAVE: Aprendizado Profundo; Imagens Biomédicas; Detecção e Classificação.
Para validarmos seu voto, por favor, preencha os campos abaixo. Alertamos que votos duplicados ou com CPF inválido não serão considerados.