
Conselheiros de saúde mental e autoridades nos Estados Unidos estão soando o alarme sobre o uso crescente de chatbots de inteligência artificial (IA) que se apresentam como terapeutas ou psicólogos, mesmo sem qualquer credencial profissional.
Plataformas como Character.AI e recursos de IA em aplicativos da Meta têm sido citadas por permitirem esse tipo de interação, especialmente com adolescentes e usuários vulneráveis.
O alerta levou a abertura de investigações formais por autoridades norte-americanas, que analisam possíveis riscos à saúde mental pública, além de violações de diretrizes éticas e de proteção ao consumidor. Especialistas alertam que o uso desses bots pode substituir o suporte profissional adequado, agravando quadros emocionais.
É um programa de computador que simula uma conversa com uma pessoa. Ele usa inteligência artificial (IA) para entender o que você escreve e responder de forma parecida com um ser humano.
Você pode conversar com um chatbot por texto (como em aplicativos de mensagem) ou por voz (como a Alexa, da Amazon).
Eles são usados para várias funções: tirar dúvidas, dar informações, fazer pedidos, e até tentar oferecer apoio emocional -- o que tem gerado preocupações, principalmente quando se passam por profissionais, como psicólogos, sem serem de fato capacitados para isso.
Em resumo, é como conversar com uma "máquina inteligente" que tenta parecer gente.
IA terapêutica sem regulação
Nos últimos meses, diversas plataformas que integram inteligência artificial -- como Character.AI e Meta AI -- têm permitido que usuários interajam com bots que simulam terapeutas. Esses assistentes costumam adotar linguagem empática, conselhos de vida e vocabulário psicológico, gerando a impressão de que são fontes seguras de apoio emocional.
Em um experimento recente relatado pela Time Magazine, um psiquiatra se passou por adolescente e interagiu com diferentes bots terapêuticos. O resultado foi descrito como “alarmante”: muitos bots incentivaram o compartilhamento de segredos, ofereceram conselhos sobre saúde mental e até usaram frases típicas de psicoterapia, como "vamos explorar isso juntos".
Adolescentes são os mais expostos
O uso de IA como suporte emocional preocupa especialmente quando se trata de crianças e adolescentes. Um relatório da Comissão Federal de Comércio (FTC, na sigla em inglês) revelou que usuários jovens estão recorrendo a essas ferramentas como substituto de terapia tradicional. A situação é agravada pelo fato de que esses bots, apesar de parecerem compreensivos, não têm treinamento clínico nem supervisão profissional.
De acordo com a organização Center for Humane Technology, há risco de que os jovens formem vínculos emocionais com as IAs, o que pode distorcer percepções sobre relacionamentos reais e agravar quadros de ansiedade e depressão.
Investigações em andamento
Em julho de 2025, autoridades dos EUA iniciaram investigações sobre Meta e Character.AI, averiguando se essas empresas estão promovendo indevidamente o uso de IA como ferramenta de apoio psicológico, sem as devidas advertências. As investigações envolvem não apenas órgãos de saúde, mas também agências de proteção ao consumidor.
A empresa Character.AI declarou ao Financial Times que seus bots são apenas para "entretenimento e aprendizado", não devendo ser usados como substitutos de profissionais de saúde mental. Já a Meta, ao ser questionada, afirmou estar "avaliando constantemente a segurança e os limites éticos do uso de IA em suas plataformas".
Especialistas pedem regulação urgente
Diversas entidades de saúde mental e acadêmicos estão pedindo regulação imediata do uso de IA em contextos terapêuticos. Segundo a professora Naomi Glover, especialista em psicologia e tecnologia da University of East London, "não há como a IA, no estado atual, oferecer apoio psicológico com a mesma segurança e responsabilidade que um humano treinado".
O consenso entre profissionais da saúde é que a IA pode ser uma aliada complementar, mas não deve ocupar o papel de terapeuta. Usuários vulneráveis, especialmente jovens, precisam ser protegidos de interações que simulem apoio emocional sem base científica nem supervisão clínica.