22 de Novembro, 2023

Estudo da Oxford Internet Institute adverte sobre riscos dos LLMs à ciência

image 24

Um novo artigo de pesquisadores da Oxford Internet Institute, publicado na Nature Human Behaviour, alerta que os Modelos de Linguagem de Grande Escala (LLMs) representam uma ameaça direta à ciência devido a "alucinações" (respostas não verdadeiras) e deveriam ser restritos para proteger a verdade científica. O artigo, de autoria dos Professores Brent Mittelstadt, Chris Russell e Sandra Wachter, destaca que os LLMs são projetados para produzir respostas úteis e convincentes sem garantias de precisão ou alinhamento com fatos.

Os LLMs são treinados em grandes conjuntos de dados textuais, muitas vezes retirados de fontes online, que podem conter declarações falsas, opiniões e escritas criativas, entre outros tipos de informações não factuais. O Prof. Mittelstadt explica que os usuários frequentemente antropomorfizam a tecnologia, confiando nela como uma fonte de informação semelhante aos humanos. Isso se deve, em parte, ao design dos LLMs como agentes que soam humanos, úteis, que conversam com os usuários e respondem a quase qualquer pergunta com textos bem escritos e confiantes. Resultado disso é que os usuários podem ser facilmente convencidos da precisão das respostas, mesmo quando elas não têm base em fatos ou apresentam uma versão tendenciosa ou parcial da verdade.

Para proteger a ciência e a educação da propagação de informações ruins e tendenciosas, os autores argumentam que devem ser estabelecidas expectativas claras sobre o que os LLMs podem contribuir de maneira responsável e útil. Eles sugerem que, para tarefas onde a verdade importa, os usuários devem escrever prompts de tradução que incluam informações verificadas e factuais.

Os autores reconhecem que a tecnologia sem dúvida auxiliará nos fluxos de trabalho científicos, mas enfatizam que o escrutínio de suas saídas é fundamental para proteger a ciência robusta. Eles propõem que os LLMs sejam usados como "tradutores de zero-shot", em vez de depender dos LLMs como fonte de informações relevantes, o usuário deve simplesmente fornecer ao LLM informações apropriadas e pedir que as transforme em um resultado desejado. Isso facilita a verificação de que a saída é factualmente correta e consistente com a entrada fornecida.

Com informações - University of Oxford.

Quer ficar por dentro das ultimas notícias na área?

Assine nossa newsletter semanal e acompanhe as notícias mais relevantes em segurança da informação e proteção de dados.

Posts recentes

Vulnerabilidades críticas em plugins do WordPress expõem mais de 4 milhões de sites

Duas graves vulnerabilidades foram identificadas em plugins amplamente utilizados no WordPress, expondo milhões de sites a riscos de invasão e controle malicioso. Uma das falhas, rastreada como CVE-2024-10924 (pontuação CVSS: 9.8), foi encontrada no plugin Really Simple Security (antigamente Really Simple SSL). A vulnerabilidade, presente nas versões 9.0.0 a 9.1.1.1 do plugin, permite que atacantes […]

Ler Mais
Falha na segurança e violação da LGPD levam à condenação de bancos

A 2ª Turma Recursal dos Juizados Especiais do Tribunal de Justiça do Paraná manteve a condenação do Banco Bradesco S.A. e do Itaú Unibanco S.A. por falhas na segurança de dados e por violação à Lei Geral de Proteção de Dados (LGPD) em um caso de fraude financeira envolvendo empréstimos consignados. Um cliente foi vítima […]

Ler Mais
Banco condenado por descontos indevidos e falhas na proteção de dados pessoais

O Tribunal de Justiça do Estado de São Paulo negou o recurso do Banco Itaú Consignado S.A. em um processo envolvendo descontos indevidos no benefício previdenciário de um consumidor. A decisão manteve a condenação da instituição ao pagamento de R$ 5.000 por danos morais e à devolução em dobro dos valores descontados irregularmente. No caso, […]

Ler Mais
Av. Senador Alberto Pasqualini, n. 180, sala 2 - Três de Maio/RS
contato@brownpipe.com.br
Comercial: (55) 999164209 - WhatsApp e Signal 

CONECTE-SE CONOSCO
Fique atualizado com as notícias mais relevantes em segurança da informação e proteção de dados. Inscreva-se na nossa newsletter semanal! 
Políticas BrownPipe *
Termos de privacidade
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram