
Configurações excessivamente permissivas no serviço Document AI do Google Cloud podem ser exploradas por cibercriminosos para acessar buckets do Cloud Storage e roubar informações sensíveis. Essa falha foi identificada pela empresa de detecção de ameaças Vectra AI e sua pesquisadora Kat Traxler, que revelou que, apesar de ter recebido uma recompensa do Google pela descoberta, a falha ainda não foi corrigida.
Traxler relatou o problema ao Google em abril, mas inicialmente foi informado que a documentação apresentada era insuficiente para um pagamento. Posteriormente, o Google mudou sua posição e concedeu à pesquisadora uma recompensa de $3133,70, declarando que a vulnerabilidade estava "corrigida", o que Traxler contesta, afirmando que a falha persiste.
A vulnerabilidade está no uso do Document AI, que processa documentos em projetos no Google Cloud Storage usando uma conta de serviço gerida pelo Google. As permissões atribuídas a essa conta são excessivamente amplas, permitindo que dados de qualquer bucket dentro do mesmo projeto sejam movidos, mesmo que o usuário não tenha acesso direto a esses dados.
Traxler demonstrou como essa falha pode ser explorada para exfiltrar dados, manipulá-los e devolvê-los ao bucket de origem, contornando os controles de acesso. Ela alertou o Google sobre o risco de exfiltração de dados, recomendando que fosse utilizada uma conta de serviço gerida pelo usuário, como no Cloud Workflows.
O Google afirmou que desenvolveu uma correção e está trabalhando para implementá-la. A falha será apresentada publicamente em um evento de segurança em setembro de 2024.
Com informações TheRegister
Este post foi traduzido e resumido a partir de sua versão original com o uso do ChatGPT versão 4o, com revisão humana.