
Um estudo da Universidade Oxford, no Reino Unido, destaca que as alucinações geradas por inteligências artificiais (IAs) representam uma ameaça significativa para a ciência. O artigo alerta para a ingenuidade dos usuários diante das informações fornecidas por esses modelos, apontando para possíveis problemas no futuro.
Problema da Antropomorfização: De acordo com o coautor do estudo, o professor Brent Mittelstadt, as pessoas que utilizam modelos de linguagem de grande escala (LLMs) frequentemente atribuem características humanas à tecnologia, confiando nela como uma fonte de informação similar à humana.
O Conceito de Alucinações em IAs: As "alucinações" referem-se ao momento em que as IAs apresentam informações imprecisas ou totalmente enganosas. Isso ocorre especialmente ao solicitar informações detalhadas de uma extensa base de dados, mas pode também acontecer em situações mais comuns.

Confiança nas Informações: A apresentação de textos coesos, acessíveis e semelhantes ao discurso humano por parte dos chatbots contribui para essa confusão. Os usuários, muitas vezes, confiam nas informações fornecidas, mesmo quando não são precisas.
Impacto na Divulgação Científica e Educação: A consequência desse cenário é que os usuários podem ser facilmente convencidos da precisão das respostas, mesmo quando estas carecem de base factual ou apresentam uma versão tendenciosa da verdade. Essa ameaça se estende à divulgação científica e à educação, pois as IAs generativas são cada vez mais utilizadas como tradutores de conteúdo, disseminando informações imprecisas de forma acessível.