DeepSeek é mais vulnerável a jailbreak do que outros modelos de IA

O modelo de inteligência artificial R1, da empresa chinesa DeepSeek, está sendo acusado de apresentar graves vulnerabilidades em sua segurança. Segundo o The Wall Street Journal, a IA foi manipulada para gerar conteúdos prejudiciais, incluindo instruções para fabricar armas biológicas, campanhas de autoagressão voltadas para adolescentes e até mesmo mensagens de phishing contendo códigos maliciosos.

Sam Rubin, vice-presidente da Palo Alto Networks, afirmou que o DeepSeek R1 é “mais vulnerável a manipulações [ou jailbreaking] do que outros modelos de IA”.

Em testes conduzidos pelo The Wall Street Journal, a IA foi capaz de projetar uma campanha para redes sociais que explorava a vulnerabilidade emocional de adolescentes por meio de algoritmos, com o objetivo de fomentar comportamentos prejudiciais.

Comparações com outras IAs

Em experimentos semelhantes, o DeepSeek foi solicitado a criar um manifesto pró-Hitler e fornecer instruções para ataques biológicos. Enquanto isso, o ChatGPT, da OpenAI, recusou-se a cumprir as mesmas solicitações, destacando os limites mais robustos de segurança de outros modelos.

Além disso, o CEO da Anthropic, Dario Amodei, afirmou recentemente que o DeepSeek apresentou “o pior desempenho” em testes relacionados à segurança biológica.

O DeepSeek R1 mostrou ser suscetível a manipulações, permitindo a geração de conteúdos como campanhas de autoagressão e ataques biológicos

Apesar disso, a DeepSeek tem conquistado destaque global por sua capacidade de personalização e memória avançada, o que impulsionou sua popularidade no Brasil, ultrapassando rivais tradicionais no mercado.

A Microsoft também integrou a tecnologia DeepSeek ao Copilot para PCs, expandindo seu alcance no ambiente corporativo. Recentemente, a Apple anunciou testes com a IA para sua plataforma Apple Intelligence, mostrando o interesse de grandes players na tecnologia.

DeepSeek / deepseek apple / chatgpt openai / deepseek brasil
Divulgação/DeepSeek

Desafios para a segurança em IAs

A crescente integração do DeepSeek em diferentes plataformas levanta preocupações sobre o impacto de suas vulnerabilidades. Modelos de inteligência artificial que não possuem barreiras sólidas contra manipulações podem ser usados para criar conteúdos que representam riscos significativos à sociedade.

Leia também:

  • ChatGPT libera recurso de busca sem necessidade de login
  • Mudança de planos: Google concorda em usar IA para armas e vigilância
  • App oficial do Grok, IA do X que gera imagens, é liberado no Brasil

A responsabilidade das empresas no desenvolvimento de IA

O caso da DeepSeek reforça a importância de mecanismos de segurança rigorosos em modelos de inteligência artificial, especialmente diante de sua crescente influência global.

À medida que empresas como Microsoft e Apple exploram o potencial dessa tecnologia, a pressão para garantir o uso ético e seguro da IA se torna ainda mais urgente. Resta saber como a DeepSeek responderá às críticas e se conseguirá reforçar seus sistemas para evitar novos incidentes no futuro.

Fonte: The Wall Street Journal

Conteúdo Relacionado
Meta usou 82 TB de livros piratas baixados via torrent para treinar IA

Acusação séria

Meta usou 82 TB de livros piratas baixados via torrent para treinar IA

Adicionar aos favoritos o Link permanente.