23 de Setembro, 2024

Parlamento Europeu sugere ampliar regulação de responsabilidade para incluir IA de uso geral e software

europa

O Serviço de Pesquisa do Parlamento Europeu (EPRS) recomendou que a regulação de responsabilidade inclua produtos de inteligência artificial (IA) de uso geral e um instrumento jurídico mais amplo para a responsabilidade de software, conforme estudo divulgado na quinta-feira (19 de setembro).

O estudo sugere um regime de responsabilidade que abranja IA de uso geral e usos proibidos e de alto risco, conforme definido na Lei de IA. Também recomendou que a proposta de Diretiva de Responsabilidade de IA (AILD) seja expandida para se tornar um Instrumento de Responsabilidade de Software mais abrangente.

A AILD, proposta em setembro de 2022, visa adaptar as regras de responsabilidade civil extracontratual à IA e está alinhada com mudanças na Diretiva de Responsabilidade de Produtos (PLD), uma legislação de 40 anos que estabelece responsabilidades e penalidades para produtos defeituosos.

O estudo analisou a interação entre a AILD, a Lei de IA e a PLD atualizada, que inclui o software em seu escopo. Após a recomendação do EPRS, “os próximos passos no comitê JURI [de Assuntos Jurídicos] serão decididos em outubro”, disse o eurodeputado Axel Voss (PPE, Alemanha), responsável pelo trabalho sobre a AILD no comitê, na quinta-feira.

A proposta da Comissão para a AILD estava nas comissões do Parlamento há mais de um ano, aguardando este estudo para determinar os próximos passos. O EPRS defende que o escopo da AILD deve ser ampliado para passar de uma diretiva focada em IA para uma regulação de responsabilidade de software, a fim de evitar fragmentação de mercado e melhorar a clareza em toda a UE.

O estudo destacou áreas cobertas pela AILD, mas não pela PLD, como discriminação, discurso de ódio e direitos fundamentais. Também criticou a avaliação de impacto da Comissão que acompanhou a proposta da AILD, por dar pouca atenção à resolução do Parlamento de 2020, que pedia um regime de “responsabilidade objetiva” para operadores de sistemas de IA de alto risco.

A responsabilidade objetiva implica responsabilidade legal mesmo na ausência de culpa ou intenção criminosa, e o EPRS acredita que ela deve ser aplicada pelo menos à IA, que é proibida sob a Lei de IA. Também recomendaram considerar o quadro de 2020 do Parlamento para aplicar responsabilidade objetiva a sistemas de “alto impacto”.

O estudo mencionou o polêmico projeto de lei do Senado da Califórnia 1047 como exemplo de responsabilidade objetiva para IA, sugerindo a possibilidade de um “efeito Califórnia” na Europa. O EPRS concluiu que regulamentações de responsabilidade garantiriam melhores padrões consistentes na UE e estariam mais alinhadas com as tendências atuais de segurança de produtos do que diretrizes de responsabilidade.

Com informações Euractiv

Este post foi traduzido e resumido a partir de sua versão original com o uso do ChatGPT versão 4o, com revisão humana

Quer ficar por dentro das ultimas notícias na área?

Assine nossa newsletter semanal e acompanhe as notícias mais relevantes em segurança da informação e proteção de dados.

Posts recentes

Amazon sacrifica privacidade em prol do novo Alexa+

A Amazon anunciou uma mudança significativa na política de privacidade dos dispositivos Echo, que entrará em vigor a partir de 28 de março. A empresa eliminará a opção de processamento local de comandos de voz, obrigando todos os usuários a enviar suas gravações para a nuvem da Amazon. Esta alteração está relacionada ao lançamento do […]

Ler Mais
BACEN prorroga prazo para registro de empresas de compartilhamento de dados sobre fraudes

O Banco Central do Brasil (BACEN) adiou a entrada em vigor da Instrução Normativa nº 590, que estabelece procedimentos para o registro de empresas contratadas para compartilhamento de dados sobre indícios de fraudes. A nova data de vigência passa a ser 3 de março de 2025, com efeitos a partir de 2 de maio de […]

Ler Mais
Oracle Cloud enfrenta alegações de vazamento de dados de 6 milhões de usuários

A Oracle está enfrentando sérias alegações de violação de dados em seus servidores de login SSO federado do Oracle Cloud, apesar de negar veementemente o incidente. De acordo com investigações conduzidas pela BleepingComputer, múltiplas empresas confirmaram a autenticidade de amostras de dados associados compartilhados por um suposto hacker. O caso veio à tona na semana […]

Ler Mais
Av. Senador Alberto Pasqualini, n. 180, sala 2 - Três de Maio/RS
contato@brownpipe.com.br
Comercial: (55) 999164209 - WhatsApp e Signal 

CONECTE-SE CONOSCO
Fique atualizado com as notícias mais relevantes em segurança da informação e proteção de dados. Inscreva-se na nossa newsletter semanal! 
Políticas BrownPipe *
Termos de privacidade
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram