Legisladores da União Europeia estão nas etapas finais de elaborar um marco regulatório histórico para a Inteligência Artificial (AI Act), com foco especial em modelos de fundação como o GPT-4, que formam a base de várias aplicações de IA, incluindo chatbots renomados como o ChatGPT.
Nas recentes negociações, conhecidas como trílogos, envolvendo a Comissão Europeia, o Parlamento e o Conselho da UE, a presidência espanhola do Conselho apresentou um rascunho inicial de obrigações para esses modelos de fundação, principalmente os classificados como de "alto impacto".
A resposta dos co-relatores do Parlamento Europeu, Dragoș Tudorache e Brando Benifei, ao rascunho espanhol propôs quatro critérios iniciais para identificar esses modelos de fundação de alto impacto. Esses critérios incluem o tamanho das amostras de dados usadas para treinamento, o tamanho dos parâmetros do modelo, a quantidade de computação usada no treinamento e benchmarks de desempenho ainda a serem elaborados.
Além disso, os co-relatores sugeriram mudanças nas obrigações para os provedores de modelos de alto impacto, incluindo a exigência de registro no banco de dados público da UE e a adesão a padrões de uso de recursos e gestão de resíduos.
Os legisladores também propuseram a avaliação de riscos sistêmicos potenciais, como efeitos negativos nos direitos fundamentais, violência de gênero, saúde pública, meio ambiente e proteção de menores.
A OCDE também apresentou uma nova definição de IA para a contribuição do projeto: "Um sistema de IA é um sistema baseado em máquina que, com objetivos explícitos ou implícitos, infere, a partir dos dados de entrada que recebe, como gerar saídas, como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais. Diferentes sistemas de IA variam em seus níveis de autonomia e adaptabilidade após o seu lançamento".
A abordagem da UE para os modelos de IA poderosos está tomando forma à medida que os países europeus discutem possíveis concessões nas próximas negociações. Isso inclui a definição de obrigações horizontais para todos os modelos de fundação e regras específicas para IA generativa, exigindo que suas saídas sejam marcadas como artificialmente geradas ou manipuladas.