Programa global de recompensas do Google para caçadores de bugs em sistemas de IA

    O Google abriu oficialmente sua “temporada de caça” para bugs em suas inteligências artificiais (IAs). Através do AI Vulnerability Reward Program (AI VRP), a empresa oferece recompensas que podem chegar até R$ 170 mil para quem conseguir identificar falhas críticas nos seus sistemas.

    A ideia é simples: aumentar a segurança digital das plataformas do Google e incentivar que pesquisadores, desenvolvedores e especialistas ajudem a identificar vulnerabilidades antes que criminosos possam aproveitá-las. Essa ação é parte dos esforços do Google para proteger suas tecnologias de IA.

    Desde que começou a incluir a IA em seu programa de recompensas em 2023, o Google já pagou mais de R$ 2 milhões a caçadores de bugs. Com o lançamento do AI VRP, a empresa quer dar um passo ainda maior na proteção de seus sistemas de inteligência artificial, focando em problemas que realmente podem afetar a segurança dos usuários.

    O que o Google está buscando: falhas críticas

    O programa não busca problemas comuns, como erros nas respostas ou textos gerados de forma tendenciosa pela IA. O foco é em brechas que realmente comprometem a segurança dos usuários, como acesso não autorizado a informações, ações mal intencionadas em contas e manipulações nas IAs.

    O Google define sete categorias principais de falhas, sendo as mais críticas:

    • “Ações maliciosas”: quando um ataque modifica a conta ou os dados de um usuário sem permissão.

    • “Extração de dados sigilosos”: quando informações pessoais são extraídas sem autorização.

    • “Roubo de modelo”: que se refere a tentativas de roubar dados de modelos de IA.

    • “Manipulação de contexto”: quando um invasor altera o ambiente da IA de maneira oculta.

    Além disso, o programa cobre casos de phishing, acessos não autorizados a serviços pagos e ataques cibernéticos do tipo DDoS. Contudo, falhas ligados a “jailbreaks”, “injeções de prompt” e problemas de alinhamento ficam fora, sendo resolvidas pelo suporte interno.

    Exemplos práticos de vulnerabilidades

    Para mostrar os riscos de forma mais clara, o Google listou exemplos que chamam a atenção. Um deles envolve um ataque ao Google Home, onde um comando mal-intencionado poderia ser usado para destrancar uma porta sem autorização. Outro exemplo cita uma falha no Google Calendar, que poderia ativar rotinas automatizadas, como abrir cortinas e desligar luzes, por meio de um evento manipulado.

    Esses casos mostram como pequenas alterações podem se transformar em problemas sérios, afetando a segurança física e digital dos usuários.

    Produtos que estão no radar do AI VRP

    O Google deixou claro que o programa vai focar apenas em seus serviços que têm uma visibilidade e impacto bem altos. Entre os principais estão:

    • Aplicativos Gemini, disponíveis na web, Android e iOS.

    • Serviços fundamentais do Workspace, como Gmail, Drive, Meet e Docs.

    Produtos com uso restrito ou em fase de teste, como NotebookLM e Jules, têm recompensas menores. Além disso, projetos de código aberto que não estão dentro do ecossistema do Google não fazem parte dessa iniciativa.

    A ideia é concentrar esforços onde uma vulnerabilidade pode afetar milhões de usuários ao mesmo tempo.

    Como funcionam as recompensas e participação no programa

    As recompensas variam de acordo com a gravidade da falha e a importância do produto afetado. Uma vulnerabilidade crítica em serviços importantes, como Gmail ou Gemini, pode render R$ 113 mil como base. Com um relatório técnico de qualidade e uma descoberta original, o valor pode chegar a R$ 170 mil.

    Para produtos menos prioritários, os pagamentos podem ser na faixa de centenas de dólares. Desde a inclusão de falhas de IA no programa em 2023, mais de R$ 2,4 milhões já foram distribuídos para pesquisadores.

    CodeMender e a segurança em várias camadas

    O AI VRP é apenas uma parte da estratégia de segurança do Google. A empresa também lançou o CodeMender, um agente de IA responsável por corrigir vulnerabilidades em códigos de software. Ele sugere correções para projetos de código aberto, que depois passam por uma revisão humana antes de serem aplicadas.

    O Google afirma que o CodeMender já ajudou a corrigir 72 falhas em projetos públicos. Além disso, a segurança de serviços próprios está sendo reforçada. Por exemplo, o Google Drive agora conta com um modelo de IA que detecta sinais de ransomware em tempo real.

    Caso um ataque seja suspeito, o sistema para a sincronização dos arquivos, cria uma “bolha protetora” e orienta o usuário sobre como restaurar documentos que possam ter sido comprometidos.

    Dados de uma empresa de cibersegurança ligada ao Google mostram que esse tipo de invasão representa mais de 20% dos incidentes globais de segurança, resultando em prejuízos que, em média, ultrapassam R$ 26 milhões.

    Segurança colaborativa e o futuro da IA

    Para o Google, juntar recompensas externas, agentes de IA e camadas de proteção integradas é fundamental para enfrentar ameaças cada vez mais complexas. O objetivo é fortalecer o ambiente digital de forma colaborativa, transformando os “caçadores de bugs” em aliados na defesa da privacidade e integridade dos sistemas.

    Ao incentivar a comunidade a participar, o Google espera criar um ecossistema mais seguro e protegido contra ameaças cibernéticas, beneficiando tanto usuários quanto a própria empresa. A iniciativa é um passo importante na evolução da segurança digital e na construção de um futuro melhor para a inteligência artificial.

    Share.

    Formado em Publicidade e Propaganda pela UFG, Nathan começou sua carreira como design freelancer e depois entrou em uma agência em Goiânia. Foi designer gráfico e um dos pensadores no uso de drones em filmagens no estado de Goiás. Hoje em dia, se dedica a dar consultorias para empresas que querem fortalecer seu marketing.