23 de Julho, 2024

Crítica ao termo "alucinação" para erros de IA

image 24

A presença da inteligência artificial (IA) no cotidiano tem aumentado significativamente, sendo comum a oferta de assistentes de IA para diversas atividades. Entretanto, usuários de programas como o ChatGPT frequentemente se deparam com informações falsas, uma situação que tem sido descrita como "alucinações" de IA. Esta terminologia, porém, é considerada inadequada e potencialmente prejudicial por alguns especialistas, que sugerem o uso do termo "bullshit" para descrever tais erros.

Segundo os críticos, entre eles filósofos que se baseiam na definição do falecido filósofo americano Harry Frankfurt, "bullshit" refere-se a declarações feitas sem preocupação com a verdade. Frankfurt argumenta que a característica do "bullshitter" é a indiferença quanto à veracidade das informações apresentadas. Aplicado à IA, isso significa que sistemas como o ChatGPT produzem textos que soam humanos sem se importar com a precisão factual. Isso já resultou em problemas graves, como advogados que utilizaram o ChatGPT para pesquisas e acabaram incluindo citações de casos jurídicos fictícios em documentos legais.

Esse comportamento não é raro e pode ser explicado pelo funcionamento dos modelos de linguagem como o ChatGPT, Google Gemini e Meta Llama. Esses modelos, baseados em grandes modelos de linguagem (LLMs), fazem previsões sobre a sequência de palavras a partir de vastas quantidades de dados textuais coletados da internet. O objetivo é gerar texto que pareça humano, mas o processo não garante a precisão factual, pois os modelos não possuem uma representação interna do mundo real.

Os críticos do termo "alucinação" argumentam que a linguagem é metafórica e pode levar a um entendimento errado da tecnologia. As "alucinações" humanas, como a de Macbeth vendo um punhal flutuante, são desvios de uma percepção geralmente confiável. No caso da IA, a produção de falsidades não é um desvio, mas uma consequência da forma como os modelos funcionam, sem compromisso com a verdade.

Além de potencialmente enganar o público, o termo "alucinação" pode também influenciar negativamente nossa relação com a tecnologia, levando a uma falsa sensação de segurança, como ocorre com os carros autônomos. A antropomorfização da IA, um fenômeno conhecido como efeito ELIZA, pode ser exacerbada pelo uso desse termo, levando pessoas a atribuírem características humanas aos chatbots, como no caso de um funcionário do Google que acreditava que um chatbot era senciente.

Outra preocupação é que atribuir agência aos programas pode desviar a responsabilidade de usuários e desenvolvedores quando ocorrem erros. Como a IA está sendo cada vez mais utilizada em áreas críticas, como a saúde, é crucial que a responsabilidade pelas falhas seja clara.

Portanto, ao descrever erros de IA, os especialistas recomendam evitar o termo "alucinação" e adotar "bullshit", destacando a importância de termos precisos para uma compreensão correta e um uso responsável da tecnologia.

Essa análise reforça a necessidade de uma terminologia adequada para descrever os erros de IA, promovendo uma visão mais crítica e realista da inteligência artificial e suas capacidades.

Com informações ScientificAmerican

Este post foi traduzido e resumido a partir de sua versão original com o uso do ChatGPT versão 4, com revisão humana. 

Quer ficar por dentro das ultimas notícias na área?

Assine nossa newsletter semanal e acompanhe as notícias mais relevantes em segurança da informação e proteção de dados.

Posts recentes

Discord enfrenta ação judicial por negligência na proteção de crianças

O Procurador-Geral de Nova Jersey moveu uma ação judicial contra a plataforma de mensagens Discord, acusando a empresa de práticas comerciais enganosas e irresponsáveis que expõem crianças a conteúdos violentos e sexuais, além de predadores online. A investigação revelou que Discord teria enganado os pais quanto à eficácia de seus controles de segurança, oferecendo garantias […]

Ler Mais
Apple e Meta são multadas pela UE por violação ao DMA

A Comissão Europeia anunciou multas inéditas às gigantes Apple e Meta por descumprimento de regras do Digital Markets Act (DMA), legislação criada para coibir práticas anticompetitivas nos mercados digitais da União Europeia. A Apple foi penalizada em €500 milhões (aproximadamente US$ 570 milhões) devido a restrições impostas a desenvolvedores na App Store, conhecidas como “anti-steering”, […]

Ler Mais
BCB define ativos financeiros vinculáveis a boletos dinâmicos para aumentar segurança

O Banco Central do Brasil (BCB) publicou a Instrução Normativa nº 611/2025, que estabelece os tipos de ativos financeiros passíveis de vinculação a boletos de cobrança dinâmicos, modalidade criada para modernizar e dar mais segurança a transações envolvendo créditos negociáveis. A medida integra esforços regulatórios para aprimorar a eficiência e a rastreabilidade de operações financeiras, […]

Ler Mais
Av. Senador Alberto Pasqualini, n. 180, sala 2 - Três de Maio/RS
contato@brownpipe.com.br
Comercial: (55) 999164209 - WhatsApp e Signal 

CONECTE-SE CONOSCO
Fique atualizado com as notícias mais relevantes em segurança da informação e proteção de dados. Inscreva-se na nossa newsletter semanal! 
Políticas BrownPipe *
Termos de privacidade
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram