DeepSeek apresenta riscos para uso empresarial, apontam testes

A chegada da tecnologia de Inteligência Artificial (IA) DeepSeek da China gerou grande impacto no setor, sendo vista como uma alternativa mais rápida, inteligente e econômica aos modelos de linguagem grandes (LLMs) já estabelecidos. No entanto, como aconteceu com a empolgação em torno do OpenAI e das capacidades do ChatGPT, a realidade de seu desempenho está entre demonstrações controladas e falhas significativas, especialmente no quesito segurança.

Pesquisas recentes da AppSOC revelaram falhas críticas em várias áreas, incluindo a suscetibilidade a jailbreaking, prompt injection e outros problemas de segurança. Os pesquisadores ficaram particularmente preocupados com a facilidade com que malware e vírus podem ser criados usando a ferramenta. Isso a torna muito arriscada para uso empresarial, mas isso não impedirá sua implementação, muitas vezes sem o conhecimento ou aprovação da liderança de segurança corporativa.

Com aproximadamente 76% dos desenvolvedores usando ou planejando usar ferramentas de IA no processo de desenvolvimento de software, os riscos de segurança bem documentados de muitos modelos de IA devem ser uma alta prioridade para mitigar ativamente, e a alta acessibilidade e rápida adoção do DeepSeek o posiciona como um potencial vetor de ameaça desafiador. No entanto, as salvaguardas e diretrizes certas podem eliminar o impacto da segurança a longo prazo.

## DeepSeek para uso empresarial: Um parceiro ideal para programação em pares?

Um dos primeiros casos de uso impressionantes para DeepSeek foi sua capacidade de produzir código funcional de qualidade, em um padrão considerado melhor do que outros LLMs de código aberto, por meio de sua ferramenta proprietária DeepSeek Coder. Dados da página do GitHub do DeepSeek Coder afirmam:

“Avaliamos o DeepSeek Coder em vários benchmarks relacionados à codificação. O resultado mostra que o DeepSeek-Coder-Base-33B supera significativamente os LLMs de código aberto existentes.”

Os extensos resultados de testes na página oferecem evidências tangíveis de que o DeepSeek Coder é uma opção sólida contra LLMs concorrentes, mas como ele se comporta em um ambiente de desenvolvimento real? David Gewirtz, do ZDNet, executou vários testes de codificação com DeepSeek V3 e R1, com resultados decididamente mistos, incluindo falhas diretas e saída de código verbosa. Embora haja uma trajetória promissora, parece estar bem longe da experiência perfeita oferecida em muitas demonstrações.

Além disso, ainda não abordamos a codificação segura. Empresas de segurança cibernética já descobriram que a tecnologia tem backdoors que enviam informações do usuário diretamente para servidores pertencentes ao governo chinês, indicando que é um risco significativo para a segurança nacional. Além de uma tendência para criar malware e fraqueza diante de tentativas de jailbreaking, diz-se que o DeepSeek contém criptografia desatualizada, tornando-o vulnerável à exposição de dados confidenciais e injeção de SQL.

Pode-se supor que esses elementos melhorarão em atualizações subsequentes, mas benchmarking independente do Baxbench, além de uma recente colaboração de pesquisa entre acadêmicos na China, Austrália e Nova Zelândia, revelam que, em geral, os assistentes de codificação de IA produzem código inseguro, com o Baxbench em particular indicando que nenhum LLM atual está pronto para automação de código do ponto de vista da segurança. Em qualquer caso, serão necessários desenvolvedores experientes em segurança para detectar os problemas em primeiro lugar, para não mencionar mitigá-los.

## Os riscos de segurança e a adoção do DeepSeek

O problema é que os desenvolvedores escolherão qualquer modelo de IA que faça o trabalho de forma mais rápida e barata. O DeepSeek para uso empresarial é funcional e, acima de tudo, gratuito, para recursos e capacidades bastante poderosos. Muitos desenvolvedores já estão usando, e na ausência de regulamentação ou políticas de segurança individuais que proíbam a instalação da ferramenta, muitos mais a adotarão, resultando em potenciais backdoors ou vulnerabilidades que chegarão às bases de código corporativas.

Não se pode exagerar que desenvolvedores com habilidades de segurança que aproveitam a IA se beneficiarão de uma produtividade superalimentada, produzindo bom código em um ritmo e volume maiores. Desenvolvedores com pouca habilidade, no entanto, alcançarão os mesmos altos níveis de produtividade e volume, mas estarão preenchendo repositórios com código ruim e provavelmente explorável. As empresas que não gerenciarem efetivamente o risco do desenvolvedor estarão entre as primeiras a sofrer.

A Shadow AI continua sendo um expansor significativo da superfície de ataque empresarial. Os CISOs são sobrecarregados com pilhas de tecnologia expansivas e excessivas que criam ainda mais complexidade em um ambiente empresarial já complicado. Somando-se a esse fardo está o potencial para ferramentas arriscadas e fora da política serem introduzidas por indivíduos que não entendem o impacto de segurança de suas ações.

A adoção ampla e descontrolada – ou pior, o uso “sombra” secreto em equipes de desenvolvimento, apesar das restrições – é uma receita para o desastre. Os CISOs precisam implementar proteções de IA apropriadas para os negócios e ferramentas aprovadas, apesar da legislação enfraquecida ou pouco clara, ou enfrentar as consequências de envenenamento rápido em seus repositórios. Além disso, os programas de segurança modernos devem tornar a segurança orientada ao desenvolvedor uma força motriz fundamental da redução de riscos e vulnerabilidades, e isso significa investir em seu aprimoramento contínuo de segurança em relação ao seu papel.

Líderes de segurança devem considerar o seguinte:

* Políticas internas rigorosas de IA: Banir ferramentas de IA por completo não é a solução, pois muitos desenvolvedores encontrarão uma maneira de contornar quaisquer restrições e continuar a comprometer a empresa. Investigue, teste e aprove um pequeno conjunto de ferramentas de IA que podem ser implantadas com segurança de acordo com as políticas de IA estabelecidas. Permita que desenvolvedores com habilidades de segurança comprovadas usem IA em repositórios de código específicos e proíba aqueles que não foram verificados.
* Caminhos de aprendizado de segurança personalizados para desenvolvedores: O desenvolvimento de software está mudando, e os desenvolvedores precisam saber como navegar pelas vulnerabilidades nas linguagens e frameworks que usam ativamente, bem como aplicar conhecimento de segurança prático a código de terceiros, seja uma biblioteca externa ou gerado por um assistente de codificação de IA. Se o gerenciamento multifacetado de riscos do desenvolvedor, incluindo o aprendizado contínuo, não fizer parte do programa de segurança empresarial, ele ficará para trás.
* Leve a modelagem de ameaças a sério: A maioria das empresas ainda não está implementando a modelagem de ameaças de forma contínua e funcional, e especialmente não envolvem desenvolvedores. Esta é uma grande oportunidade para emparelhar desenvolvedores experientes em segurança (afinal, eles conhecem melhor seu código) com suas contrapartes AppSec para exercícios aprimorados de modelagem de ameaças e analisar novos vetores de ameaças de IA.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Leave a Comment

Exit mobile version