Microsoft corrige falha de contrabando de ASCII que permitia roubo de dados do Microsoft 365 Copilot

Microsoft corrige falha de contrabando de ASCII que permitia roubo de dados do Microsoft 365 Copilot
Compartilhe

Surgiram detalhes sobre uma vulnerabilidade corrigida no Microsoft 365 Copilot que pode permitir o roubo de informações confidenciais do usuário usando uma técnica chamada contrabando de ASCII.

ASCII

“O contrabando de ASCII é uma técnica inovadora que usa caracteres Unicode especiais que espelham o ASCII, mas que na verdade não são visíveis na interface do usuário”, disse o pesquisador de segurança Johann Rehberger .

“Isso significa que um invasor pode fazer com que o [modelo de linguagem grande] renderize, para o usuário, dados invisíveis e os incorpore em hiperlinks clicáveis. Essa técnica basicamente prepara os dados para exfiltração!”

O ataque inteiro encadeia uma série de métodos de ataque para moldá-los em uma cadeia de exploração confiável. Isso inclui as seguintes etapas –

  • Disparar injeção de prompt por meio de conteúdo malicioso oculto em um documento compartilhado no chat
  • Usando uma carga útil de injeção rápida para instruir o Copilot a procurar mais e-mails e documentos
  • Aproveitando o contrabando ASCII para induzir o usuário a clicar em um link para exfiltrar dados valiosos para um servidor de terceiros

O resultado líquido do ataque é que dados sensíveis presentes em e-mails, incluindo códigos de autenticação multifator (MFA), podem ser transmitidos para um servidor controlado pelo adversário. A Microsoft abordou os problemas após a divulgação responsável em janeiro de 2024.

O desenvolvimento ocorre no momento em que ataques de prova de conceito (PoC) foram demonstrados contra o sistema Copilot da Microsoft para manipular respostas, exfiltrar dados privados e driblar proteções de segurança, destacando mais uma vez a necessidade de monitorar riscos em ferramentas de inteligência artificial (IA).

Os métodos, detalhados pela Zenity , permitem que agentes maliciosos realizem envenenamento de geração aumentada de recuperação ( RAG ) e injeção indireta de prompt, levando a ataques de execução remota de código que podem controlar totalmente o Microsoft Copilot e outros aplicativos de IA. Em um cenário de ataque hipotético, um hacker externo com recursos de execução de código poderia enganar o Copilot para fornecer aos usuários páginas de phishing.

Talvez um dos ataques mais novos seja a capacidade de transformar a IA em uma máquina de spear-phishing. A técnica de red-teaming, chamada LOLCopilot , permite que um invasor com acesso à conta de e-mail de uma vítima envie mensagens de phishing imitando o estilo dos usuários comprometidos.

A Microsoft também reconheceu que bots Copilot expostos publicamente, criados usando o Microsoft Copilot Studio e sem nenhuma proteção de autenticação, podem ser uma maneira de agentes de ameaças extrairem informações confidenciais, supondo que tenham conhecimento prévio do nome ou URL do Copilot.

“As empresas devem avaliar sua tolerância a riscos e exposição para evitar vazamentos de dados dos Copilots (anteriormente Power Virtual Agents) e habilitar a Prevenção contra Perda de Dados e outros controles de segurança adequadamente para controlar a criação e publicação dos Copilots”, disse Rehberger .

Fontes: The Hacker News