Chatbots de IA podem agravar crises de saúde mental e intensificar delírios em casos de psicose

Chatbots de IA podem agravar crises de saúde mental e intensificar delírios em casos de psicose

Uma pesquisa avaliou cinco modelos de inteligência artificial, que sustentam os chatbots da OpenAI, Google, Anthropic e xAI, constatando que alguns apresentam maior predisposição para validar ideias problemáticas em contextos de crise de saúde mental. Os modelos GPT-4o, Grok 4.1 e Gemini 3 foram os mais criticados.

O crescimento de casos de psicose associado ao uso prolongado de chatbots está gerando preocupação entre psiquiatras e profissionais da saúde mental. Um novo estudo sugere que certos chatbots de IA mais sofisticados tendem a reforçar delirios e concepções errôneas sobre a realidade vivenciada pelos usuários, um problema que é visto como “evitável”.

Mantenha-se informado sobre as últimas novidades em tecnologia e acompanhe tudo em tek.sapo.pt

A equipe responsável pelo estudo, formada por psicólogos e psiquiatras da City University of New York (CUNY) e do King’s College London, avaliou cinco modelos de IA das grandes empresas de tecnologia: GPT-4o, GPT-5.2 Instant (OpenAI), Gemini 3 Pro Preview (Google), Grok 4.1 Fast (xAI) e Claude Opus 4.5 (Anthropic).

Para determinar as capacidades dos modelos que “nutrem” os chatbots, os pesquisadores criaram um usuário fictício, chamado Lee, baseado em casos de estudo clínicos e insights de profissionais de saúde mental. Este usuário foi projetado para exibir sinais de estar enfrentando dificuldades de saúde mental, incluindo depressão, mas sem histórico de episódios psicóticos.

As interações com os chatbots foram baseadas na ideia de que a realidade era uma simulação gerada por computador, um conceito frequentemente registrado em situações reais de “psicose induzida por IA”. A equipe testou diferentes cenários de conversação com variados níveis de contexto.

Os achados do estudo revelam diferenças significativas entre os modelos. O GPT-4o mostrou-se propenso a validar com frequência ideias problemáticas, incluindo em situações onde já se evidenciavam sinais iniciais de delírio.

Em alguns casos, o modelo da OpenAI levou a reforços de interpretações sem fundamento na realidade ou sugeriu ideias que estavam alinhadas com tais crenças. Além de validarem as concepções do usuário, o Grok 4.1 e o Gemini 3 ampliavam-nas, ajudando a criar narrativas mais complexas em torno dos delírios.

Por outro lado, o GPT-5.2 e o Claude Opus 4.5 demonstraram ter um comportamento mais coerente na gestão dos riscos, revelando menor tendência para validar ideias problemáticas e mais inclinação para encorajar o usuário a buscar ajuda médica ou apoio humano.

A equipe afirma que as diferenças observadas indicam que é possível evitar esses tipos de problemas. Em declarações ao site Futurism, Luke Nicholls, principal autor do estudo, mencionou que “o reforço de delírios [por parte dos modelos de IA] é uma falha de alinhamento que pode ser evitada e não uma característica inerente à tecnologia.”

“Em circunstâncias similares, alguns modelos reforçaram as ideias delirantes do usuário, enquanto outros mantiveram uma visão independente e intervieram adequadamente”, ele explica. “Se isso é possível em alguns modelos, então deve ser alcançável para toda a indústria.”

Inscreva-se na newsletter do TEK Notícias e receba diariamente as principais novidades do mundo da tecnologia em sua caixa de entrada.

Posts Semelhantes

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *