
O Serviço de Pesquisa do Parlamento Europeu (EPRS) recomendou que a regulação de responsabilidade inclua produtos de inteligência artificial (IA) de uso geral e um instrumento jurídico mais amplo para a responsabilidade de software, conforme estudo divulgado na quinta-feira (19 de setembro).
O estudo sugere um regime de responsabilidade que abranja IA de uso geral e usos proibidos e de alto risco, conforme definido na Lei de IA. Também recomendou que a proposta de Diretiva de Responsabilidade de IA (AILD) seja expandida para se tornar um Instrumento de Responsabilidade de Software mais abrangente.
A AILD, proposta em setembro de 2022, visa adaptar as regras de responsabilidade civil extracontratual à IA e está alinhada com mudanças na Diretiva de Responsabilidade de Produtos (PLD), uma legislação de 40 anos que estabelece responsabilidades e penalidades para produtos defeituosos.
O estudo analisou a interação entre a AILD, a Lei de IA e a PLD atualizada, que inclui o software em seu escopo. Após a recomendação do EPRS, “os próximos passos no comitê JURI [de Assuntos Jurídicos] serão decididos em outubro”, disse o eurodeputado Axel Voss (PPE, Alemanha), responsável pelo trabalho sobre a AILD no comitê, na quinta-feira.
A proposta da Comissão para a AILD estava nas comissões do Parlamento há mais de um ano, aguardando este estudo para determinar os próximos passos. O EPRS defende que o escopo da AILD deve ser ampliado para passar de uma diretiva focada em IA para uma regulação de responsabilidade de software, a fim de evitar fragmentação de mercado e melhorar a clareza em toda a UE.
O estudo destacou áreas cobertas pela AILD, mas não pela PLD, como discriminação, discurso de ódio e direitos fundamentais. Também criticou a avaliação de impacto da Comissão que acompanhou a proposta da AILD, por dar pouca atenção à resolução do Parlamento de 2020, que pedia um regime de “responsabilidade objetiva” para operadores de sistemas de IA de alto risco.
A responsabilidade objetiva implica responsabilidade legal mesmo na ausência de culpa ou intenção criminosa, e o EPRS acredita que ela deve ser aplicada pelo menos à IA, que é proibida sob a Lei de IA. Também recomendaram considerar o quadro de 2020 do Parlamento para aplicar responsabilidade objetiva a sistemas de “alto impacto”.
O estudo mencionou o polêmico projeto de lei do Senado da Califórnia 1047 como exemplo de responsabilidade objetiva para IA, sugerindo a possibilidade de um “efeito Califórnia” na Europa. O EPRS concluiu que regulamentações de responsabilidade garantiriam melhores padrões consistentes na UE e estariam mais alinhadas com as tendências atuais de segurança de produtos do que diretrizes de responsabilidade.
Com informações Euractiv
Este post foi traduzido e resumido a partir de sua versão original com o uso do ChatGPT versão 4o, com revisão humana