Comportamento

IAs prometem 'conversas' com mortos (e muita gente acredita)

O fenômeno provoca debates sobre saúde mental

Foto: Ilustração SeaArt IA
Essas tecnologias despertam tanto esperança quanto apreensão
Leia Mais Rápido
Pessoas usam IA para recriar avatares de entes queridos falecidos e “conversar” com eles, motivadas por luto e saudade. A tecnologia — chamada de “grief bots” ou “death bots” — levanta questões sobre consentimento, saúde mental e ética. Sem regulação clara, o fenômeno promete conforto, mas carrega riscos.

Pessoas estão recorrendo à inteligência artificial (IA) para tentar manter contato com entes queridos que já morreram -- por meio de simulações que imitam voz, aparência ou estilo de fala dos falecidos.

Essa prática, impulsionada por uma nova geração de aplicativos, tem se espalhado pelo mundo, sobretudo em países tecnologicamente avançados, com laços emocionais e comerciais misturados.

O fenômeno provoca debates sobre saúde mental, consentimento e o que significa “perder” alguém, enquanto operadores dizem oferecer conforto e continuidade de vínculo.

O que está acontecendo

Nos últimos anos, uma série de iniciativas emergiu com o propósito de criar “replicas digitais” de pessoas falecidas -- chatbots treinados com mensagens, fotos, vídeos e relatórios de voz, que buscam imitar o estilo de comunicação do morto.

Um dos primeiros casos documentados envolve Muhammad Aurangzeb Ahmad, professor e cientista de dados, que em 2024 relatou ter criado um “bot” de seu pai falecido para permitir que seus filhos interagissem com aquela versão digital. 

Mais recentemente, a startup por trás do aplicativo 2wai -- que permite “conversas em tempo real” com avatares holográficos de entes queridos mortos -- tem ganhado atenção da mídia. 

Essas tecnologias, já apelidadas de “grief bots” [robôs do luto] ou “death bots” [robôs da morte], despertam tanto esperança quanto apreensão. Em sua definição mais formal: “um avatar digital criado com IA que se assemelha a uma pessoa que morreu, muitas vezes treinado nos restos digitais desse indivíduo, para manter ‘continuidade de vínculo’.”

Por que as pessoas recorrem a isso

-- Luto e saudade: para quem perdeu alguém muito próximo, a ideia de “ouvir a voz de novo”, “falar como antes” ou “continuar uma relação” é forte. Alguns relatam que o bot permite fazer perguntas não respondidas.

-- Medo do esquecimento: em um mundo digital onde memórias desaparecem rapidamente, criar uma versão que “perdura” parece uma forma de preservar a identidade do morto.

-- Curiosidade tecnológica: os avanços em IA, voz, avatar e realidade virtual tornam possível algo que há alguns anos parecia ficção?científica.

-- Negócio e mercado: há empresas apostando nesse nicho, já que o luto é uma experiência humana universal e existe demanda.

Por exemplo, o aplicativo 2wai afirma: “três minutos podem durar para sempre” — alegando que basta um trecho de vídeo para gerar um avatar interativo.

Como funciona a tecnologia

Em linhas gerais, os processos envolvem:

-- Coleta de dados: vídeos, fotos, textos, gravações ou conversas do falecido.

-- Treinamento da IA: um modelo de linguagem ou multimodal aprende a “imitar” estilo de fala, expressão, preferências ou temas que a pessoa falecida costumava usar.

-- Interface interativa: a versão digital permite que o usuário converse com o avatar ou chatbot, seja por texto, voz ou imagem.

-- Entrega ao usuário: por meio de app, site ou dispositivo VR/AR, o “ente querido digital” está disponível para interação.

Impactos psicológicos, sociais e éticos

Psicológicos

-- Pode facilitar a dependência emocional: em vez de seguir o processo natural do luto, o usuário se prende a uma “versão digital” que não se transforma nem desaparece.

-- Risco de confusão de realidade: o avatar pode dar respostas previsíveis -- mas não é o falecido de fato. A ilusão pode gerar mais dor.

-- Falta de evidência de que “reviver” digitalmente alguém ajude a curar ou seguir adiante com o luto.

Sociais e éticos

-- Consentimento: a pessoa falecida pode não ter dado permissão para ter seu estilo de fala, imagem ou personalidade replicada.

-- Autenticidade: o avatar não é a pessoa real, mas pode dar a impressão de que “é”. Isso pode enganar familiares ou terceiros.

-- Comercialização do luto: quem lucra com esse tipo de serviço? Há perigo de exploração de vulneráveis.

-- Privacidade e dados: e os conteúdos usados para treinar a IA? Quem controla? Podem haver vazamentos ou usos indevidos.

-- Regulação: a tecnologia avança mais rápido do que o marco regulatório adequado. Já surgem casos jurídicos envolvendo deepfakes e uso de voz ou imagem de falecidos.

O futuro e os dilemas que vêm por aí

-- Melhorias tecnológicas: voz, expressão facial, reconhecimento de entonação e contextos — tudo aponta para avatares cada vez mais realistas.

-- Regulação emergente: leis de direitos digitais, uso da imagem após a morte, consentimento e fraude digital serão campos de disputa.

-- Saúde mental: psicólogos e terapeutas terão que lidar com novas formas de luto mediadas por tecnologia.

-- Mudança cultural: o que significa “morrer” ou “estar ausente” quando podemos interagir com versões digitais? A linha entre vida e pós?vida se torna fluida.

-- Desigualdade de acesso: essas tecnologias podem tornar?se privilégio de quem pode pagar, criando uma “economia do luto”.