Política

Mudanças no ChatGPT tentam impedir o uso durante as eleições

Geradora de imagens Dall-E também está sendo aperfeiçoada

Foto: Pixabay/Creative Commons
A inteligência artificial pode afetar o resultado de eleições

Este ano, bilhões de pessoas em algumas das maiores democracias do mundo irão às urnas, da Europa aos Estados Unidos, enquanto cresce a preocupação de que os sistemas de inteligência artificial possam gerar desinformação em massa e influenciar os eleitores.

A OpenAI, empresa emblemática da IA generativa com o ChatGPT, delineou seus planos para tentar proibir o uso de sua tecnologia para criar candidatos falsos e visa detectar fotos geradas por software.

"Queremos garantir que nossa tecnologia não seja usada de maneira que possa minar o processo democrático", explica a empresa liderada por Sam Altman, que dois meses atrás foi removido e depois reintegrado como CEO, devido a preocupações de que a tecnologia pudesse ficar fora de controle.

Além do popular software ChatGPT, a OpenAI produz o gerador de imagens Dall-E e fornece seu sistema de inteligência artificial para muitas empresas, incluindo a Microsoft.

Em seu blog, declarou que não permitirá que as pessoas usem sua tecnologia para criar aplicativos para campanhas políticas e atividades de lobby, para desencorajar as pessoas a votar ou espalhar desinformação sobre o processo de votação.

E não permitirá que os desenvolvedores criem chatbots que finjam ser candidatos ou instituições.

Também afirmou que começará a incorporar em imagens criadas por seu gerador Dall-E uma ferramenta para detectar fotos criadas por inteligência artificial.

Será lançado "no início deste ano", e está sendo testado por um grupo de pessoas, incluindo jornalistas e pesquisadores.

"Estamos trabalhando para antecipar e prevenir abusos relevantes, como deepfakes enganosos, operações de influência em larga escala ou chatbots que se passam por candidatos", diz a OpenAI, na postagem do blog.

Em relação às eleições nos Estados Unidos, em particular, a empresa explica que direcionará as perguntas dos usuários sobre o processo eleitoral para fontes confiáveis, como o CanIVote.org.

As medidas da OpenAI ocorrem depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o aumento da inteligência artificial.

Em dezembro, o Google declarou que limitaria o tipo de respostas fornecidas por suas ferramentas de IA a perguntas relacionadas às eleições.

E exigirá que quem comprou espaços publicitários eleitorais revele quando a inteligência artificial foi usada.

Meta, a empresa-mãe do Facebook, também pedirá aos anunciantes políticos que revelem se usaram essa tecnologia.

"Até que saibamos mais, não permitiremos que as pessoas criem aplicativos para campanhas políticas e lobby. Teremos mais para compartilhar nos próximos meses", conclui a OpenAI.

O jogo está apenas começando.