Um novo artigo de pesquisadores da Oxford Internet Institute, publicado na Nature Human Behaviour, alerta que os Modelos de Linguagem de Grande Escala (LLMs) representam uma ameaça direta à ciência devido a "alucinações" (respostas não verdadeiras) e deveriam ser restritos para proteger a verdade científica. O artigo, de autoria dos Professores Brent Mittelstadt, Chris Russell e Sandra Wachter, destaca que os LLMs são projetados para produzir respostas úteis e convincentes sem garantias de precisão ou alinhamento com fatos.
Os LLMs são treinados em grandes conjuntos de dados textuais, muitas vezes retirados de fontes online, que podem conter declarações falsas, opiniões e escritas criativas, entre outros tipos de informações não factuais. O Prof. Mittelstadt explica que os usuários frequentemente antropomorfizam a tecnologia, confiando nela como uma fonte de informação semelhante aos humanos. Isso se deve, em parte, ao design dos LLMs como agentes que soam humanos, úteis, que conversam com os usuários e respondem a quase qualquer pergunta com textos bem escritos e confiantes. Resultado disso é que os usuários podem ser facilmente convencidos da precisão das respostas, mesmo quando elas não têm base em fatos ou apresentam uma versão tendenciosa ou parcial da verdade.
Para proteger a ciência e a educação da propagação de informações ruins e tendenciosas, os autores argumentam que devem ser estabelecidas expectativas claras sobre o que os LLMs podem contribuir de maneira responsável e útil. Eles sugerem que, para tarefas onde a verdade importa, os usuários devem escrever prompts de tradução que incluam informações verificadas e factuais.
Os autores reconhecem que a tecnologia sem dúvida auxiliará nos fluxos de trabalho científicos, mas enfatizam que o escrutínio de suas saídas é fundamental para proteger a ciência robusta. Eles propõem que os LLMs sejam usados como "tradutores de zero-shot", em vez de depender dos LLMs como fonte de informações relevantes, o usuário deve simplesmente fornecer ao LLM informações apropriadas e pedir que as transforme em um resultado desejado. Isso facilita a verificação de que a saída é factualmente correta e consistente com a entrada fornecida.
Com informações - University of Oxford.