Programa global de recompensas do Google para caçadores de bugs em sistemas de IA
O Google abriu oficialmente sua “temporada de caça” para bugs em suas inteligências artificiais (IAs). Através do AI Vulnerability Reward Program (AI VRP), a empresa oferece recompensas que podem chegar até R$ 170 mil para quem conseguir identificar falhas críticas nos seus sistemas.
A ideia é simples: aumentar a segurança digital das plataformas do Google e incentivar que pesquisadores, desenvolvedores e especialistas ajudem a identificar vulnerabilidades antes que criminosos possam aproveitá-las. Essa ação é parte dos esforços do Google para proteger suas tecnologias de IA.
Desde que começou a incluir a IA em seu programa de recompensas em 2023, o Google já pagou mais de R$ 2 milhões a caçadores de bugs. Com o lançamento do AI VRP, a empresa quer dar um passo ainda maior na proteção de seus sistemas de inteligência artificial, focando em problemas que realmente podem afetar a segurança dos usuários.
O que o Google está buscando: falhas críticas
O programa não busca problemas comuns, como erros nas respostas ou textos gerados de forma tendenciosa pela IA. O foco é em brechas que realmente comprometem a segurança dos usuários, como acesso não autorizado a informações, ações mal intencionadas em contas e manipulações nas IAs.
O Google define sete categorias principais de falhas, sendo as mais críticas:
-
“Ações maliciosas”: quando um ataque modifica a conta ou os dados de um usuário sem permissão.
-
“Extração de dados sigilosos”: quando informações pessoais são extraídas sem autorização.
-
“Roubo de modelo”: que se refere a tentativas de roubar dados de modelos de IA.
-
“Manipulação de contexto”: quando um invasor altera o ambiente da IA de maneira oculta.
Além disso, o programa cobre casos de phishing, acessos não autorizados a serviços pagos e ataques cibernéticos do tipo DDoS. Contudo, falhas ligados a “jailbreaks”, “injeções de prompt” e problemas de alinhamento ficam fora, sendo resolvidas pelo suporte interno.
Exemplos práticos de vulnerabilidades
Para mostrar os riscos de forma mais clara, o Google listou exemplos que chamam a atenção. Um deles envolve um ataque ao Google Home, onde um comando mal-intencionado poderia ser usado para destrancar uma porta sem autorização. Outro exemplo cita uma falha no Google Calendar, que poderia ativar rotinas automatizadas, como abrir cortinas e desligar luzes, por meio de um evento manipulado.
Esses casos mostram como pequenas alterações podem se transformar em problemas sérios, afetando a segurança física e digital dos usuários.
Produtos que estão no radar do AI VRP
O Google deixou claro que o programa vai focar apenas em seus serviços que têm uma visibilidade e impacto bem altos. Entre os principais estão:
-
Aplicativos Gemini, disponíveis na web, Android e iOS.
-
Serviços fundamentais do Workspace, como Gmail, Drive, Meet e Docs.
Produtos com uso restrito ou em fase de teste, como NotebookLM e Jules, têm recompensas menores. Além disso, projetos de código aberto que não estão dentro do ecossistema do Google não fazem parte dessa iniciativa.
A ideia é concentrar esforços onde uma vulnerabilidade pode afetar milhões de usuários ao mesmo tempo.
Como funcionam as recompensas e participação no programa
As recompensas variam de acordo com a gravidade da falha e a importância do produto afetado. Uma vulnerabilidade crítica em serviços importantes, como Gmail ou Gemini, pode render R$ 113 mil como base. Com um relatório técnico de qualidade e uma descoberta original, o valor pode chegar a R$ 170 mil.
Para produtos menos prioritários, os pagamentos podem ser na faixa de centenas de dólares. Desde a inclusão de falhas de IA no programa em 2023, mais de R$ 2,4 milhões já foram distribuídos para pesquisadores.
CodeMender e a segurança em várias camadas
O AI VRP é apenas uma parte da estratégia de segurança do Google. A empresa também lançou o CodeMender, um agente de IA responsável por corrigir vulnerabilidades em códigos de software. Ele sugere correções para projetos de código aberto, que depois passam por uma revisão humana antes de serem aplicadas.
O Google afirma que o CodeMender já ajudou a corrigir 72 falhas em projetos públicos. Além disso, a segurança de serviços próprios está sendo reforçada. Por exemplo, o Google Drive agora conta com um modelo de IA que detecta sinais de ransomware em tempo real.
Caso um ataque seja suspeito, o sistema para a sincronização dos arquivos, cria uma “bolha protetora” e orienta o usuário sobre como restaurar documentos que possam ter sido comprometidos.
Dados de uma empresa de cibersegurança ligada ao Google mostram que esse tipo de invasão representa mais de 20% dos incidentes globais de segurança, resultando em prejuízos que, em média, ultrapassam R$ 26 milhões.
Segurança colaborativa e o futuro da IA
Para o Google, juntar recompensas externas, agentes de IA e camadas de proteção integradas é fundamental para enfrentar ameaças cada vez mais complexas. O objetivo é fortalecer o ambiente digital de forma colaborativa, transformando os “caçadores de bugs” em aliados na defesa da privacidade e integridade dos sistemas.
Ao incentivar a comunidade a participar, o Google espera criar um ecossistema mais seguro e protegido contra ameaças cibernéticas, beneficiando tanto usuários quanto a própria empresa. A iniciativa é um passo importante na evolução da segurança digital e na construção de um futuro melhor para a inteligência artificial.