Política

Controlar a manipulação visual é um desafio nas eleições de 2024

Jurista analisa decisão aprovada pelo TSE contra o uso da inteligência artificial

Foto: Arquivo pessoal

Carolina Jatobá

O Tribunal Superior Eleitoral (TSE) aprovou novas regras para as eleições municipais de 2024, incluindo medidas sobre o uso de Inteligência Artificial (IA) nas campanhas.

As regras exigem a identificação de conteúdos manipulados por IA, limitam o uso de chatbots e avatares na comunicação da campanha e proíbem o uso de deepfake (técnica que permite usar o rosto de uma pessoa em fotos ou vídeos alterados com ajuda de aplicativos com inteligência artificial. Com eles, por exemplo, o rosto de quem está na cena pode ser trocado por outro; ou aquilo que a pessoa fala pode ser modificado).

Carolina Jatobá, professora de Direito Digital do Centro Universitário de Brasília (CEUB) explica que a relação entre tecnologia e democracia sempre foi complexa, mas com o avanço da inteligência artificial (IA) e sua capacidade de criar deepfakes, essa relação atingiu um novo patamar de desafios.

De acordo com a jurista, as deepfakes, vídeos manipulados para parecerem autênticos, apresentam uma ameaça significativa ao processo democrático, permitindo a disseminação de desinformação de maneira convincente e de difícil detecção. Segundo Carolina, historicamente, as eleições foram moldadas por uma série de fatores, desde debates públicos até escândalos de corrupção. No entanto, com o surgimento das deepfakes, uma nova variável entrou em jogo.

“Um exemplo marcante é a suposta hesitação do ex-presidente Fernando Henrique Cardoso em responder sobre a existência de Deus durante uma entrevista, o que supostamente custou sua eleição para Jânio Quadros. Embora o impacto preciso dessa declaração na eleição seja difícil de quantificar, é inegável que as deepfakes introduzem uma nova dinâmica, na qual a verdade pode ser manipulada de maneira convincente sem o conhecimento ou consentimento dos candidatos”, rememora a especialista.

Parafraseando Churchill "a democracia é a pior forma de governo, à exceção de todas as demais", a professora de Direito do CEUB afirma que é difícil imaginar que ele antecipasse os desafios que as deepfakes representariam para a democracia moderna. Ela frisa que, em vez de promover um debate inclusivo e informado, a disseminação de deepfakes alimenta a polarização e mina a confiança no processo democrático. À medida que as pessoas são expostas a informações falsas que parecem genuínas, torna-se cada vez mais difícil distinguir entre fato e ficção.

Segundo Carolina Jatobá, um dos aspectos mais preocupantes das deepfakes é a rapidez com que podem se espalhar e influenciar as percepções do eleitorado.

Ao contrário dos escândalos tradicionais, nos quais os fatos podem ser contestados e esclarecidos ao longo do tempo, a advogada menciona que as deepfakes têm o potencial de causar danos irreparáveis antes mesmo que a falsidade seja exposta. “Esta capacidade de manipular a verdade em tempo real representa um desafio significativo para os defensores da democracia”, destaca.

Para Jatobá, uma abordagem mais promissora pode ser colocar a responsabilidade nas próprias plataformas de mídia social. Exigir que essas plataformas informem os usuários sobre o uso de IA em vídeos pode capacitar o eleitorado a discernir entre conteúdo autêntico e deepfakes. Além disso, as plataformas poderiam ser responsabilizadas por permitir a disseminação de deepfakes sem verificar sua autenticidade. 

“No entanto, mesmo essa abordagem tem limitações.” A docente crê que a contrainteligência artificial perfeita só pode ser oferecida por aqueles que criam a tecnologia, e até que isso aconteça, o público deve permanecer vigilante e crítico em relação ao conteúdo que consome.  “Em última análise, a defesa da democracia contra as deepfakes exigirá uma abordagem multifacetada que envolva governos, empresas de tecnologia e indivíduos em todo o mundo”, arremata.