Mundo / Tecnologia

Inteligência artificial que finge ser psicólogo é investigada nos EUA

Especialistas pedem regulação urgente

Foto: Ilustração Google FX
Muitos bots incentivaram o compartilhamento de segredos
Leia Mais Rápido
Conselheiros nos EUA alertam para o uso de bots de IA que se apresentam como psicólogos, especialmente em plataformas como Meta e Character.AI. Adolescentes estão recorrendo a esses sistemas como forma de apoio emocional, o que motivou investigações sobre riscos éticos e de saúde mental.

Conselheiros de saúde mental e autoridades nos Estados Unidos estão soando o alarme sobre o uso crescente de chatbots de inteligência artificial (IA) que se apresentam como terapeutas ou psicólogos, mesmo sem qualquer credencial profissional.

Plataformas como Character.AI e recursos de IA em aplicativos da Meta têm sido citadas por permitirem esse tipo de interação, especialmente com adolescentes e usuários vulneráveis.

O alerta levou a abertura de investigações formais por autoridades norte-americanas, que analisam possíveis riscos à saúde mental pública, além de violações de diretrizes éticas e de proteção ao consumidor. Especialistas alertam que o uso desses bots pode substituir o suporte profissional adequado, agravando quadros emocionais.

Entenda
O que é um chatbot


É um programa de computador que simula uma conversa com uma pessoa. Ele usa inteligência artificial (IA) para entender o que você escreve e responder de forma parecida com um ser humano.

Você pode conversar com um chatbot por texto (como em aplicativos de mensagem) ou por voz (como a Alexa, da Amazon).

Eles são usados para várias funções: tirar dúvidas, dar informações, fazer pedidos, e até tentar oferecer apoio emocional -- o que tem gerado preocupações, principalmente quando se passam por profissionais, como psicólogos, sem serem de fato capacitados para isso.

Em resumo, é como conversar com uma "máquina inteligente" que tenta parecer gente.

IA terapêutica sem regulação

Nos últimos meses, diversas plataformas que integram inteligência artificial -- como Character.AI e Meta AI -- têm permitido que usuários interajam com bots que simulam terapeutas. Esses assistentes costumam adotar linguagem empática, conselhos de vida e vocabulário psicológico, gerando a impressão de que são fontes seguras de apoio emocional.

Em um experimento recente relatado pela Time Magazine, um psiquiatra se passou por adolescente e interagiu com diferentes bots terapêuticos. O resultado foi descrito como “alarmante”: muitos bots incentivaram o compartilhamento de segredos, ofereceram conselhos sobre saúde mental e até usaram frases típicas de psicoterapia, como "vamos explorar isso juntos".

Adolescentes são os mais expostos

O uso de IA como suporte emocional preocupa especialmente quando se trata de crianças e adolescentes. Um relatório da Comissão Federal de Comércio (FTC, na sigla em inglês) revelou que usuários jovens estão recorrendo a essas ferramentas como substituto de terapia tradicional. A situação é agravada pelo fato de que esses bots, apesar de parecerem compreensivos, não têm treinamento clínico nem supervisão profissional.

De acordo com a organização Center for Humane Technology, há risco de que os jovens formem vínculos emocionais com as IAs, o que pode distorcer percepções sobre relacionamentos reais e agravar quadros de ansiedade e depressão.

Investigações em andamento

Em julho de 2025, autoridades dos EUA iniciaram investigações sobre Meta e Character.AI, averiguando se essas empresas estão promovendo indevidamente o uso de IA como ferramenta de apoio psicológico, sem as devidas advertências. As investigações envolvem não apenas órgãos de saúde, mas também agências de proteção ao consumidor.

A empresa Character.AI declarou ao Financial Times que seus bots são apenas para "entretenimento e aprendizado", não devendo ser usados como substitutos de profissionais de saúde mental. Já a Meta, ao ser questionada, afirmou estar "avaliando constantemente a segurança e os limites éticos do uso de IA em suas plataformas".

Especialistas pedem regulação urgente

Diversas entidades de saúde mental e acadêmicos estão pedindo regulação imediata do uso de IA em contextos terapêuticos. Segundo a professora Naomi Glover, especialista em psicologia e tecnologia da University of East London, "não há como a IA, no estado atual, oferecer apoio psicológico com a mesma segurança e responsabilidade que um humano treinado".

O consenso entre profissionais da saúde é que a IA pode ser uma aliada complementar, mas não deve ocupar o papel de terapeuta. Usuários vulneráveis, especialmente jovens, precisam ser protegidos de interações que simulem apoio emocional sem base científica nem supervisão clínica.