Cibercriminosos supostamente ligados a governos de vários países já estão usando ativamente ferramentas de inteligência artificial (IA) em invasões — mas a situação ainda não é tão grave quanto poderia ser. Essa é uma conclusão de um estudo da Google com base no uso da sua própria plataforma de chatbot, o Gemini.
O relatório da companhia avaliou como hackers ligados a nações como China, Irã, Coreia do Norte e Rússia têm utilizado o Gemini para práticas ilegais. De modo geral, a Google observou que já há uma ampla utilização do chatbot em várias fases de operações cibercriminosas, com particularidades de acordo com o tipo de ataque e o país de origem.
Por outro lado, há uma boa notícia: ao menos por enquanto, esses agentes mal intencionados não conseguiram adaptar a IA para trabalhar ativamente como parte de um ciberataque, encontrando brechas de segurança, desenvolvendo prompts ofensivos ou usando o aprendizado de máquina do próprio Gemini para aprimorar parte de um golpe.
Ainda assim, e apesar de vários desses comandos terem sido barrados ou monitorados de perto pelo teor, a Google se mostrou preocupada com a situação e uma possível piora do cenário. Ela já pediu uma colaboração com o governo dos Estados Unidos e maior união entre empresas para seguir aumentando as defesas das ferramentas de IA e impedir o uso criminoso delas.
Como invasores internacionais usam o Gemini
De acordo com a Google, hackers ligados a países atualmente considerados inimigos dos EUA estão usando o Gemini (e outras IAs generativas, como o ChatGPT) para várias etapas de planejamento e execução de golpes, principalmente para otimizar e acelerar certos processos.
Segudo a Google, cibercriminosos ligados ao Irã foram os mais ativos no uso do Gemini, em especial para fazer pesquisas sobre organizações de defesa e vulnerabilidades, além de buscar referências sobre especialistas em cibersegurança. Eles ainda aproveitaram a ferramenta para criar mensagens de campanhas de phishing.
No caso dos mais de 20 grupos hackers chineses monitorados, o uso mais frequente do Gemini envolveu programação. Os suspeitos testaram códigos, desenvolveram scripts e perguntaram ao chatbot sobre tópicos sensíveis, como acesso a determinadas redes e formas de escapar da detecção de sistemas de segurança.
Já os invasores com conexões com a Coreia do Norte foram os mais versáteis, aproveitando a ferramenta para a maior variabilidade de tarefas. Além de pesquisas e programação, eles aproveitaram o serviço para geração, tradução ou localização de conteúdo — inclusive emails ou a criação de perfis falsos de pessoas para ataques envolvendo engenharia social, como no ataque envolvendo funcionários infiltrados em empresas de TI. Por fim, no caso da Rússia, foram detectados usos mais limitados do Gemini para tarefas envolvendo códigos.
Os invasores no geral também tentaram sem sucesso usar o Gemini para encontrar dicas de como explorar serviços da própria Google. Eles ainda buscaram formas de “desbloquear” a IA da Google e desabilitar controles de segurança da plataforma, além de tentar códigos em Python que poderiam resultar em ataques DDoS.
O relatório completo da Google sobre as ameaças de IA por agentes internacionais pode ser lido aqui (em inglês).