O Information Commissioner's Office (ICO) divulgou recentemente um guia com perguntas-chave que as organizações devem fazer ao adquirir ferramentas de inteligência artificial para processos de recrutamento. O objetivo é orientar empresas que buscam essas tecnologias para melhorar a eficiência da seleção de candidatos, resumir currículos e pontuar perfis. No entanto, o uso inadequado dessas ferramentas pode resultar em exclusão injusta de candidatos ou comprometimento de sua privacidade.
Em uma auditoria recente, o ICO examinou diversos fornecedores e desenvolvedores de ferramentas de IA para o setor de recrutamento e identificou áreas significativas de melhoria, como garantir o tratamento justo das informações pessoais, limitando o processamento ao necessário, e explicando claramente aos candidatos como suas informações serão utilizadas pela ferramenta de IA.
O relatório da auditoria, publicado hoje, apresenta quase 300 recomendações claras para que provedores e desenvolvedores aprimorem a conformidade com as leis de proteção de dados, as quais foram todas aceitas, integralmente ou parcialmente. A publicação resume as principais descobertas e oferece orientações práticas para recrutadores interessados em adotar essas tecnologias.
Ian Hulme, diretor de Garantia do ICO, comentou:
“A IA pode trazer benefícios reais ao processo de contratação, mas também apresenta novos riscos que podem prejudicar os candidatos se não for utilizada de forma legal e justa. As organizações que consideram adquirir ferramentas de IA para recrutamento devem fazer perguntas-chave sobre proteção de dados aos fornecedores e buscar garantias claras de conformidade com a lei.”
As seguintes questões devem ser observadas, segundo o ICO, antes de adquirir uma ferramenta de IA para recrutamento:
- Você completou uma DPIA?
A Avaliação de Impacto sobre a Proteção de Dados (DPIA) é uma etapa fundamental para identificar e mitigar riscos à privacidade. A DPIA deve ser realizada antes do uso de uma ferramenta de IA, idealmente na fase de aquisição, e deve ser atualizada conforme o processamento e seus impactos evoluem. Essa prática também ajuda a cumprir as obrigações de responsabilidade previstas na lei. - Qual é a sua base legal para o processamento de informações pessoais?
Se você está processando dados pessoais, é necessário identificar uma base legal apropriada, como consentimento ou interesses legítimos. Caso pretenda processar dados sensíveis, como origem racial ou dados de saúde, é preciso atender a uma condição específica prevista na legislação. - Você documentou responsabilidades e definiu instruções de processamento claras?
Recrutadores e fornecedores de IA têm responsabilidade pela conformidade com a proteção de dados. É preciso identificar claramente quem é o controlador e quem é o processador de informações e registrar essas definições em contrato. Além disso, se o fornecedor de IA for o processador, é essencial fornecer instruções explícitas e abrangentes. - Você verificou se o fornecedor mitigou o viés?
A auditoria revelou que algumas ferramentas de IA não processavam informações de maneira justa, permitindo que recrutadores filtrassem candidatos com certas características protegidas. É crucial monitorar o uso justo, preciso e sem viés da ferramenta, e levantar quaisquer questões de justiça ou precisão junto ao fornecedor. - A ferramenta de IA está sendo utilizada de forma transparente?
Os candidatos devem ser informados de forma clara sobre como a ferramenta processará seus dados, incluindo a lógica das decisões automatizadas e como contestá-las, caso sejam impactados por essas decisões. - Como você limitará o processamento desnecessário?
A auditoria indicou que algumas ferramentas de IA coletavam mais informações pessoais do que o necessário, mantendo esses dados indefinidamente. É fundamental que o uso da ferramenta seja restrito ao mínimo necessário para seu propósito e que não seja utilizado para fins incompatíveis.
O ICO também realizará um webinar em 22 de janeiro de 2025 para desenvolvedores de IA e recrutadores sobre os resultados da auditoria e sua aplicação prática.
Com informações ICO
Este post foi traduzido e resumido a partir de sua versão original com o uso do ChatGPT versão 4o, com revisão humana.