
Uma inteligência artificial desenvolvida por pesquisadores liderados por Jeff Clune, da Universidade da Colúmbia Britânica, produziu de forma totalmente autônoma um artigo científico que foi aceito, após revisão por pares, na Conferência Internacional sobre Representações de Aprendizado de 2025.
O sistema, chamado AI Scientist, funciona por meio de múltiplos módulos. Após receber um tema geral, a ferramenta analisa literatura disponível, propõe hipóteses e avalia a originalidade das ideias. Em seguida, planeja experimentos, executa análises, gera gráficos e redige o artigo científico.
O sistema também realiza uma revisão interna para identificar possíveis falhas antes da submissão. A tecnologia utiliza modelos já existentes, como Claude Sonnet e GPT-4o, enquanto a inovação dos pesquisadores está na integração e coordenação dessas ferramentas.
Para testar a qualidade dos resultados, os pesquisadores submeteram três artigos produzidos pela IA ao workshop I Can’t Believe It’s Not Better [Não Dá Para Acreditar Que Não Seja Melhor], vinculado à conferência ICLR 2025. Um dos trabalhos foi aceito após avaliação.
A organização do evento autorizou previamente a submissão e os artigos foram retirados após a conclusão do processo de revisão.
O aumento de trabalhos gerados por IA pode dificultar o processo de avaliação científica. Como resposta, conferências começaram a estabelecer regras que proíbem submissões totalmente produzidas por inteligência artificial ou exigem transparência sobre o uso dessas ferramentas.
Outras iniciativas semelhantes já surgiram. A empresa Intology afirmou que sua IA Zochi teve artigo aceito na reunião anual da Associação de Linguística Computacional, com participação humana na verificação dos resultados. O Autoscience Institute também declarou que seus sistemas já haviam obtido aprovação em workshops da ICLR.
