DeepSeek é considerado inseguro para uso corporativo, aponta estudo

A chegada da tecnologia de IA DeepSeek da China causou impacto no setor, sendo vista como uma alternativa mais rápida, inteligente e econômica aos modelos de linguagem (LLMs) já estabelecidos. No entanto, como acontece com a empolgação em torno de ferramentas como OpenAI e ChatGPT, a realidade de suas capacidades está entre demonstrações controladas e falhas significativas, especialmente em segurança. Pesquisas recentes revelaram falhas críticas em várias áreas, incluindo vulnerabilidade a jailbreaking e prompt injection, além da facilidade com que malware e vírus podem ser criados.

## Riscos de Segurança do DeepSeek para empresas

Uma pesquisa recente da AppSOC revelou falhas graves no DeepSeek para empresas, incluindo a facilidade com que ele pode ser usado para criar malware e vírus. Isso o torna arriscado para uso corporativo, mas isso não impede sua implementação, muitas vezes sem o conhecimento ou aprovação da liderança de segurança.

Com cerca de 76% dos desenvolvedores utilizando ou planejando usar ferramentas de IA no processo de desenvolvimento de software, os riscos de segurança bem documentados de muitos modelos de IA devem ser uma alta prioridade. A alta acessibilidade e rápida adoção do DeepSeek o posicionam como uma potencial ameaça. No entanto, as salvaguardas e diretrizes corretas podem eliminar o risco de segurança a longo prazo.

Um dos primeiros casos de uso impressionantes do DeepSeek foi sua capacidade de produzir código funcional de qualidade, em um padrão considerado melhor do que outros LLMs de código aberto, por meio de sua ferramenta proprietária DeepSeek Coder. Os dados da página do GitHub do DeepSeek Coder afirmam: “Avaliamos o DeepSeek Coder em vários benchmarks relacionados à codificação. O resultado mostra que o DeepSeek-Coder-Base-33B supera significativamente os LLMs de código aberto existentes”.

Os resultados de testes extensivos na página oferecem evidências tangíveis de que o DeepSeek Coder é uma opção sólida contra LLMs concorrentes, mas como ele se comporta em um ambiente de desenvolvimento real? David Gewirtz, da ZDNet, executou vários testes de codificação com o DeepSeek V3 e R1, com resultados mistos, incluindo falhas e saída de código detalhada. Embora haja uma trajetória promissora, parece estar longe da experiência perfeita oferecida em muitas demonstrações.

## Vulnerabilidades e o uso do DeepSeek para empresas

Empresas de segurança cibernética descobriram que a tecnologia tem backdoors que enviam informações do usuário diretamente para servidores do governo chinês, indicando um risco significativo à segurança nacional. Além da tendência de criar malware e da fraqueza diante de tentativas de jailbreaking, diz-se que o DeepSeek contém criptografia desatualizada, deixando-o vulnerável à exposição de dados confidenciais e SQL injection.

Pesquisas revelam que assistentes de codificação de IA produzem código inseguro, e o Baxbench indica que nenhum LLM atual está pronto para automação de código do ponto de vista da segurança. De qualquer forma, serão necessários desenvolvedores experientes em segurança para detectar os problemas e mitigá-los.

O problema é que os desenvolvedores escolherão qualquer modelo de IA que faça o trabalho de forma mais rápida e barata. O DeepSeek para empresas é funcional e, acima de tudo, gratuito, para recursos e capacidades poderosas. Muitos desenvolvedores já o estão usando e, na ausência de regulamentação ou políticas de segurança individuais que proíbam a instalação da ferramenta, muitos mais o adotarão, resultando em potenciais backdoors ou vulnerabilidades que entrarão nas bases de código corporativas.

Desenvolvedores com habilidades de segurança que alavancam a IA se beneficiarão de uma produtividade turbinada, produzindo um bom código em um ritmo e volume maiores. No entanto, desenvolvedores menos qualificados alcançarão os mesmos altos níveis de produtividade e volume, mas estarão preenchendo repositórios com código ruim e provavelmente explorável. As empresas que não gerenciarem efetivamente o risco do desenvolvedor serão as primeiras a sofrer. Uma das melhores maneiras de aprender é com Entendendo a Inteligência Artificial: Realidade e Riscos.

## A expansão da superfície de ataque corporativa

Os CISOs são sobrecarregados com stacks de tecnologia complexos que criam ainda mais complexidade em um ambiente corporativo já complicado. Soma-se a esse fardo o potencial de ferramentas arriscadas e fora da política sendo introduzidas por indivíduos que não entendem o impacto de segurança de suas ações.

A adoção ampla e descontrolada ou, pior, o uso “clandestino” secreto em equipes de desenvolvimento, apesar das restrições, é uma receita para o desastre. Os CISOs precisam implementar proteções de IA adequadas aos negócios e ferramentas aprovadas, apesar da legislação fraca ou pouco clara, ou enfrentar as consequências de envenenamento em seus repositórios.

Além disso, os programas de segurança modernos devem tornar a segurança orientada ao desenvolvedor uma força motriz fundamental da redução de riscos e vulnerabilidades, e isso significa investir em seu aprimoramento contínuo de habilidades de segurança, pois se relaciona com sua função.

É preciso garantir que as aplicações de IA sejam utilizadas com responsabilidade, por isso o Entendendo o Consentimento em IA é de suma importância.

## A importância de políticas internas e aprendizado contínuo

O espaço da IA está evoluindo e, embora esses avanços sejam empolgantes, os profissionais de segurança não podem perder de vista os riscos envolvidos em sua implementação no nível empresarial. O DeepSeek está decolando em todo o mundo, mas para a maioria dos casos de uso, ele acarreta um risco cibernético inaceitável.

Líderes de segurança devem considerar o seguinte:

* Políticas internas de IA: Banir ferramentas de IA não é a solução, pois muitos desenvolvedores encontrarão uma maneira de contornar as restrições e continuar a comprometer a empresa. Investigue, teste e aprove um pequeno conjunto de ferramentas de IA que possam ser implementadas com segurança de acordo com as políticas de IA estabelecidas. Permita que desenvolvedores com habilidades de segurança comprovadas usem IA em repositórios de código específicos e impeça aqueles que não foram verificados.
* Caminhos de aprendizado de segurança personalizados para desenvolvedores: O desenvolvimento de software está mudando, e os desenvolvedores precisam saber como navegar pelas vulnerabilidades nas linguagens e estruturas que usam ativamente, bem como aplicar conhecimento de segurança funcional a código de terceiros, seja uma biblioteca externa ou gerado por um assistente de codificação de IA. Se o gerenciamento de risco de desenvolvedor multifacetado, incluindo o aprendizado contínuo, não fizer parte do programa de segurança empresarial, ele ficará para trás.
* Levar a modelagem de ameaças a sério: A maioria das empresas ainda não está implementando a modelagem de ameaças de forma contínua e funcional, e especialmente não envolvem desenvolvedores. Esta é uma grande oportunidade para combinar desenvolvedores experientes em segurança (afinal, eles conhecem melhor seu código) com suas contrapartes do AppSec para exercícios aprimorados de modelagem de ameaças e analisar novos vetores de ameaças de IA.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

Leave a Comment

Exit mobile version