Estimativa aponta que serviços como ChatGPT e Gemini estão sendo usados com alguma intensidade em pelo menos 10% dos trabalhos, destaca o Globo
O uso da inteligência artificial dos chamados grandes modelos de linguagem (LLMs), com ChatGPT e Gemini, para escrever trabalhos científicos continua se disseminando e preocupa pesquisadores.
Muitos periódicos acadêmicos importantes já possuem política que restringe total ou parcialmente o uso desses chatbots, mas dois terços das publicações ainda não possuem regras para tal, indica um levantamento recente feito pela Universidade McMaster, de Ontario (Canadá).
O trabalho, liderado pelo cientista Daivat Bhavsar, inquiriu mais de 162 publishers da Associação Internacional de Editoras Científicas, Técnicas e Médicas (STM), e apenas 56 delas já tinham, no meio do ano passado, diretrizes específicas para uso de IA. Destas, apenas quatro implementaram política de tolerância zero. Outras aceitavam uso para correção gramatical ou de estilo, mas exigiam que os artigos incluíssem um aviso.
Leia na íntegra: O Globo
