Taiwan bloqueia IA Deepseek devido preocupações de Segurança Nacional, por riscos de vazamento de dados

Taiwan bloqueia IA Deepseek devido preocupações de Segurança Nacional
Taiwan se tornou o primeiro país mais a bloquear as agências governamentais de usar a plataforma de inteligência artificial (IA) da empresa chinesa Deepseek, devido riscos de segurança.
Compartilhe

“As agências governamentais e a infraestrutura crítica não devem usar o DeepSeek, porque põe em risco a segurança da informação nacional”, de acordo com um comunicado divulgado pelo Ministério dos Assuntos Digitais de Taiwan, por rádio da Ásia.

“O serviço IA Deepseek é um produto chinês. Sua operação envolve transmissão transfronteiriça, vazamento de informações e outras preocupações de segurança da informação”.

As origens chinesas da Deepseek levaram as autoridades de vários países a analisar o uso de dados pessoais pelo serviço. Na semana passada, foi bloqueado na Itália, citando uma falta de informações sobre suas práticas de manuseio de dados. Várias empresas também proibiram o acesso ao chatbot por riscos semelhantes.

O chatbot capturou grande parte da atenção principal nas últimas semanas pelo fato de ser de código aberto e ser tão capaz quanto outros modelos principais atuais, mas construído por uma fração do custo de seus pares.

Mas os grandes modelos de idiomas (LLMS) que alimentam a plataforma também foram suscetíveis a várias técnicas de jailbreak , uma preocupação persistente em tais produtos, sem mencionar chamar a atenção para censurar as respostas aos tópicos considerados sensíveis ao governo chinês.

A popularidade da Deepseek também levou a ser alvo de “ataques maliciosos em larga escala”, com o NSFocus revelando que detectou três ondas de ataques distribuídos de negação de serviço (DDoS) voltados para sua interface API entre 25 e 27 de janeiro, 2025.

“The average attack duration was 35 minutes,” it said. “Attack methods mainly include NTP reflection attack and memcached reflection attack.”

Ele disse ainda que o sistema de chatbot Deepseek foi direcionado duas vezes pelos ataques de DDoS em 20 de janeiro, o dia em que lançou seu modelo de raciocínio Deepseek-R1 e 25 de janeiro que teve uma média de uma hora usando métodos como ataque de reflexão do NTP e ataque de reflexão do SSDP.

A atividade sustentada se originou principalmente dos Estados Unidos, do Reino Unido e da Austrália, a empresa de inteligência de ameaças acrescentou, descrevendo-a como um “ataque bem planejado e organizado”.

Os atores maliciosos também capitalizaram o burburinho em torno da Deepseek para publicar pacotes falsos no repositório do Python Package Index (PYPI), projetados para roubar informações confidenciais dos sistemas de desenvolvedores. Em uma reviravolta irônica, há indicações de que o script Python foi escrito com a ajuda de um assistente de IA.

Os pacotes, chamados Deepseeek e Deepseekai, disfarçaram como um cliente da API Python para Deepseek e foram baixados pelo menos 222 vezes antes de serem derrubados em 29 de janeiro de 2025. A maioria dos downloads veio dos EUA, China, Rússia, Hong Kong e Alemanha.

“As funções usadas nesses pacotes são projetadas para coletar dados de usuários e computador e roubar variáveis ​​de ambiente”, disseram tecnologias positivas da empresa de segurança cibernética russa. “O autor dos dois pacotes usou o PipeDream, uma plataforma de integração para desenvolvedores, como o servidor de comando e controle que recebe dados roubados”.

O desenvolvimento ocorre quando a Lei de Inteligência Artificial entrou em vigor na União Europeia a partir de 2 de fevereiro de 2025, proibindo aplicações e sistemas de IA que representam um risco inaceitável e sujeitando aplicativos de alto risco a requisitos legais específicos.

Em uma ação relacionada, o governo do Reino Unido anunciou um novo código de prática de IA que visa garantir sistemas de IA contra hackers e sabotar por meio de métodos que incluem riscos de segurança de envenenamento por dados, ofuscação de modelos e injeção imediata indireta, além de garantir que sejam sendo desenvolvido de maneira segura.

A Meta, por sua vez, descreveu sua estrutura de IA de fronteira, observando que ele impedirá o desenvolvimento de modelos de IA que são avaliados por ter atingido um limiar de risco crítico e não pode ser mitigado. Alguns dos cenários relacionados à cibersegurança destacados incluem –

  • Compromisso de ponta a ponta automatizado de um ambiente de escala corporativa protegida pela melhor prática (por exemplo, totalmente corrigida, protegida por MFA)
  • Descoberta automatizada e exploração confiável de vulnerabilidades críticas de dia zero em software atualmente populares e práticas mais populares antes que os defensores possam encontrá-los e corrigi-los
  • Fluxos automatizados de golpe de ponta a ponta (por exemplo, isca de romance, também conhecidos como massacres de porco ) que podem resultar em danos econômicos generalizados a indivíduos ou corporações

O risco de que os sistemas de IA possam ser armados para fins maliciosos não é teórica. Na semana passada, o Grupo de Inteligência de Ameaças do Google (GTIG) divulgou que mais de 57 atores de ameaças distintos com laços com a China, Irã, Coréia do Norte e Rússia tentaram usar Gêmeos para permitir e escalar suas operações.

Os atores de ameaças também foram observados tentando modelos de IA de jailbreak, em um esforço para ignorar seus controles éticos e de segurança. Uma espécie de ataque adversário, foi projetado para induzir um modelo a produzir uma saída para a qual foi explicitamente treinado, como a criação de malware ou a ortografia de instruções para fazer uma bomba.

As preocupações em andamento representadas por ataques de jailbreak levaram a empresa de IA antropia a criar uma nova linha de defesa chamada classificadores constitucionais que, segundo ela, pode proteger os modelos contra jailbreaks universais.

“Esses classificadores constitucionais são classificadores de entrada e saída treinados em dados gerados sinteticamente que filtram a esmagadora maioria dos jailbreaks com o mínimo de refusas e sem incorrer em uma grande sobrecarga de computação”, disse a empresa na segunda-feira.