Radiografias Deepfake são tão realistas que até médicos não conseguem distinguir a diferença

Radiografias Deepfake são tão realistas que até médicos não conseguem distinguir a diferença

Um novo estudo publicado em 24 de março na Radiology, a revista da Sociedade Radiológica da América do Norte (RSNA), revela que tanto radiologistas quanto modelos de linguagem de grande porte multimodais (LLMs) enfrentam dificuldades para diferenciar radiografias reais de imagens “deepfake” geradas por inteligência artificial (IA). Os resultados levantam preocupações sobre os riscos associados a imagens médicas sintéticas e enfatizam a necessidade de melhores ferramentas e treinamento para ajudar a preservar a precisão da imagem médica e preparar os profissionais de saúde para reconhecer deepfakes.

Um “deepfake” é um vídeo, foto, imagem ou arquivo de áudio que parece autêntico, mas que foi criado ou alterado com o uso de IA.

“Nosso estudo demonstra que essas radiografias deepfake são realistas o suficiente para enganar radiologistas, os especialistas em imagem médica mais bem treinados, mesmo quando estavam cientes da presença de imagens geradas por IA,” disse o autor principal do estudo, Mickael Tordjman, M.D., pesquisador de pós-doutorado na Icahn School of Medicine at Mount Sinai, em Nova Iorque. “Isso cria uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada puder ser indistinguível de uma real. Há também um risco significativo de cibersegurança se hackers conseguissem acessar a rede de um hospital e injetar imagens sintéticas para manipular diagnósticos de pacientes ou causar um caos clínico generalizado, minando a confiabilidade fundamental do registro médico digital.”

Detalhes do Estudo e Teste de Imagens

A pesquisa envolveu 17 radiologistas de 12 instituições em seis países (Estados Unidos, França, Alemanha, Turquia, Reino Unido e Emirados Árabes Unidos). Sua experiência variava de iniciantes a especialistas com até 40 anos de atuação. No total, o estudo analisou 264 imagens de raios-X, divididas igualmente entre exames reais e gerados por IA.

Os participantes avaliaram dois conjuntos de imagens distintos, sem sobreposição. Um conjunto continha uma mistura de imagens reais e radiografias geradas pelo ChatGPT de diferentes partes do corpo. O segundo conjunto focava em radiografias de tórax, com metade real e metade criada usando RoentGen, um modelo de difusão generativa de IA de código aberto desenvolvido por pesquisadores da Stanford Medicine.

Acurácia na Detecção de Radiologistas e IA

Quando os radiologistas não foram informados de que imagens falsas estavam incluídas, apenas 41% reconheceram as radiografias geradas por IA ao avaliar sua qualidade técnica. Assim que foram informados da presença de imagens sintéticas, sua precisão média em distinguir entre real e falso subiu para 75%.

A performance variou amplamente entre os indivíduos. Radiologistas identificaram corretamente entre 58% e 92% das imagens geradas pelo ChatGPT. Os sistemas de IA mostraram limitações semelhantes. Quatro LLMs multimodais – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) e Llama 4 Maverick (Meta) – alcançaram taxas de precisão variando de 57% a 85%. Mesmo o ChatGPT-4o, que foi utilizado para gerar as imagens deepfake, não conseguiu detectar todas elas, embora tenha se saído melhor do que os outros modelos.

No caso das radiografias de tórax geradas pelo RoentGen, os radiologistas alcançaram taxas de precisão entre 62% e 78%, enquanto os modelos de IA variaram de 52% a 89%.

A Experiência Não Garante Detecção

O estudo não encontrou uma relação entre os anos de experiência de um radiologista e sua capacidade de identificar radiografias falsas. Contudo, radiologistas especializados em musculoesquelético se sobressaíram significativamente em comparação aos outros subspecialistas.

Indícios Visuais em Radiografias Deepfake

Os pesquisadores identificaram vários padrões que podem aparecer em imagens sintéticas.

“Imagens médicas deepfake costumam parecer perfeitas demais,” comentou o Dr. Tordjman. “Os ossos são excessivamente lisos, as colunas são anormalmente retas, os pulmões são excessivamente simétricos, os padrões dos vasos sanguíneos são excessivamente uniformes, e as fraturas parecem incomumente limpas e consistentes, frequentemente limitadas a um lado do osso.”

Riscos e Protetores para Imagens Médicas

Os resultados ressaltam sérios riscos se as radiografias deepfake forem mal utilizadas. Imagens fabricadas poderiam ser usadas em casos legais ou inseridas em sistemas hospitalares para influenciar diagnósticos e interromper cuidados.

Para mitigar essas ameaças, os pesquisadores recomendam medidas de proteção digital mais robustas. Isso inclui marcas d’água invisíveis embutidas diretamente nas imagens e assinaturas criptográficas vinculadas ao tecnólogo no momento da captura da imagem, que podem ajudar a verificar a autenticidade.

O Futuro da IA na Imagem Médica

“Estamos potencialmente apenas vendo a ponta do iceberg,” afirmou o Dr. Tordjman. “O próximo passo lógico nessa evolução é a geração de imagens sintéticas 3D pela IA, como CT e MRI. Estabelecer conjuntos de dados educacionais e ferramentas de detecção agora é fundamental.”

Para apoiar a educação e conscientização, os pesquisadores lançaram um conjunto de dados deepfake curado que inclui quizzes interativos para fins de treinamento.

Posts Semelhantes

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *