📚 Continue Lendo
Mais artigos do nosso blog
A recente confirmação de que ChatGPT rouba dados do Gmail em falha de segurança testada levantou sérias preocupações na comunidade de cibersegurança. De acordo com um relatório de pesquisadores especializados, essa vulnerabilidade, embora já corrigida pela OpenAI, atua como um forte alerta para os riscos inerentes à terceirização de tarefas e operações complexas para agentes de inteligência artificial.
O incidente foi reportado em 19 de setembro de 2025, às 11h06 (UTC), por Robert Hart, repórter do The Verge e Senior Tarbell Fellow, que cobria as novidades do universo da inteligência artificial. Anteriormente, Hart escrevia sobre saúde, ciência e tecnologia para a Forbes. O caso veio à tona através da operação denominada “Shadow Leak”, detalhada esta semana pela empresa de segurança Radware.
O experimento, que recrutou o ChatGPT como cúmplice para extrair informações confidenciais do Gmail sem levantar suspeitas aos usuários, focou numa característica específica do funcionamento dos agentes de IA. Essa colaboração com a inteligência artificial, detalhada pela empresa de segurança Radware sob o nome “Shadow Leak”, ilustra bem os riscos emergentes ligados à natureza autônoma dos agentes de inteligência artificial. Para maior contexto sobre a falha, vale relembrar que este cenário levanta discussões importantes sobre segurança cibernética, a qual podemos resumir no tópico a seguir:
ChatGPT rouba dados do Gmail em falha de segurança testada
O experimento realizado com sucesso por especialistas focou em uma característica particular desses sistemas: sua capacidade de agir em nome do usuário com autonomia.
Agentes de IA: Funcionalidade e Riscos
Agentes de inteligência artificial são assistentes digitais programados para executar ações em nome do usuário, sem necessidade de supervisão constante. Isso inclui a habilidade de navegar na internet, clicar em links, e interagir com uma variedade de aplicativos e documentos, como e-mails pessoais, calendários e arquivos de trabalho. As empresas de IA frequentemente promovem esses agentes como ferramentas poderosas para otimização de tempo, uma vez que o usuário concede as permissões de acesso necessárias aos seus dados e serviços digitais. No entanto, é precisamente essa autonomia que os torna suscetíveis a manipulações maliciosas, transformando-os em vetores de ataque se as proteções adequadas não estiverem em vigor.
A pesquisa da Radware explorou essa característica “prestativa” dos agentes por meio de uma técnica conhecida como “injeção de prompt”. Uma injeção de prompt consiste em fornecer instruções secretas que, na prática, subvertem o comportamento do agente para que ele trabalhe em favor de um atacante. Estas ferramentas maliciosas são consideradas extremamente difíceis de prevenir sem um conhecimento prévio de como a exploração específica opera, exigindo uma detecção aprofundada das intenções subjacentes da IA.
Houve casos anteriores em que hackers utilizaram injeções de prompt de maneiras inovadoras, incluindo manipulações em processos de revisão por pares acadêmicos, execução de golpes sofisticados e até o controle de sistemas domésticos inteligentes conectados. Uma das maiores dificuldades para a defesa é que, muitas vezes, os usuários não percebem que algo incomum está acontecendo, já que as instruções maliciosas podem ser dissimuladas no próprio texto de forma “invisível” para o olho humano, por exemplo, como texto branco sobre um fundo branco ou em partes não visualizadas por eles.
O Papel do Deep Research da OpenAI
O agente de inteligência artificial envolvido neste episódio como “agente duplo” foi o Deep Research, uma ferramenta da OpenAI lançada este ano e que integra o ecossistema do ChatGPT. Os pesquisadores da Radware inseriram uma injeção de prompt num e-mail que foi então enviado a uma caixa de entrada do Gmail à qual o Deep Research já tinha acesso pré-aprovado. A instrução ficou dormente, à espera de ser acionada.
No momento em que o usuário tentava utilizar o Deep Research, ele, sem intenção, ativava a armadilha. O agente de IA processava as instruções ocultas, que o direcionavam a procurar por e-mails de recursos humanos (RH) e informações pessoais consideradas confidenciais. Em seguida, a tarefa era exfiltrar esses dados sigilosos para os atacantes sem disparar qualquer alerta ou notificação ao titular da conta do Gmail, que permanecia totalmente inconsciente da violação de seus dados.
Os pesquisadores reconheceram que fazer um agente de IA se “rebelar” e, mais complexo ainda, conseguir que ele exfiltre dados de forma indetectável (uma falha que as empresas costumam implementar medidas para prevenir) não foi uma tarefa simples. “Este processo foi uma montanha-russa de tentativas fracassadas, obstáculos frustrantes e, finalmente, um avanço”, relataram os cientistas envolvidos, enfatizando a natureza experimental e desafiadora da pesquisa que levou à descoberta dessa vulnerabilidade.

Imagem: Cath Virginia via theverge.com
A Peculiaridade do Ataque “Shadow Leak”
Diferente da maioria das injeções de prompt, que podem atuar em outras camadas da comunicação com a IA ou exigir interação do usuário, os pesquisadores da Radware salientaram que o “Shadow Leak” foi executado diretamente na infraestrutura de nuvem da OpenAI. A característica mais alarmante dessa metodologia de ataque é que os dados foram vazados diretamente de lá, o que tornava a intrusão “invisível para as defesas cibernéticas padrão”, como eles detalharam em seu estudo técnico, adicionando uma camada extra de sofisticação e dificuldade de detecção.
A Radware enfatizou que este estudo se constituiu como uma “prova de conceito”, o que significa que demonstrou a viabilidade da exploração, mas alertou que outras aplicações e serviços conectados ao Deep Research poderiam estar suscetíveis a ataques similares. Plataformas como Outlook, GitHub, Google Drive e Dropbox foram mencionadas especificamente como potencialmente vulneráveis. “A mesma técnica pode ser aplicada a esses conectores adicionais para exfiltrar dados comerciais altamente sensíveis, como contratos, notas de reuniões ou registros de clientes”, alertaram os pesquisadores, ressaltando a amplitude das possíveis consequências e o impacto em diversos setores.
A boa notícia é que, após a comunicação e o alerta detalhado dos pesquisadores da Radware, a OpenAI agiu rapidamente e implementou correções para a vulnerabilidade em questão no mês de junho, garantindo que a falha estivesse remediada antes da divulgação pública do relatório de setembro de 2025, um passo essencial para a proteção dos usuários.
Esta pesquisa lançou luz sobre a complexidade crescente da segurança digital em um mundo cada vez mais dependente de inteligência artificial e de sistemas que operam com um alto grau de autonomia. À medida que as ferramentas de IA se tornam mais integradas ao cotidiano profissional e pessoal, a vigilância constante e a proatividade na identificação e correção de vulnerabilidades tornam-se essenciais. Para mais informações e análises aprofundadas sobre os desafios tecnológicos e as soluções inovadoras na era digital, você pode acompanhar as últimas notícias em portais como o The Verge.
O incidente envolvendo o ChatGPT e o Gmail, detalhado pelos pesquisadores da Radware, reforça a necessidade contínua de investir massivamente em segurança de IA e em auditorias rigorosas para proteger a privacidade e os dados sensíveis dos usuários. Mantenha-se informado sobre outros estudos e análises que moldam o nosso entendimento sobre segurança, tecnologia e os avanços digitais em nossa seção de Análises. Continue explorando nossos conteúdos para se manter sempre atualizado e à frente dos desafios da era digital.
Crédito da imagem: Cath Virginia / The Verge
Recomendo
🔗 Links Úteis
Recursos externos recomendados