Resumindo o relatório "O Estado dos Ataques ao GenAI" da Pillar Security, gerado da análise de 2.000 aplicações reais alimentadas por LLM em um período de três meses e que gerou os dados abaixo:

  • Vazamento de Dados:  90% dos ataques bem-sucedidos resultaram na exposição de dados sensíveis. 
  • Sucesso de Jailbreak: 20% das tentativas de jailbreak conseguiram contornar as barreiras de segurança das aplicações de GenAI. 
  • Velocidade e Eficiência: Os ataques são executados em média em 42 segundos, com apenas 5 interações necessárias. 
  • Principais Técnicas de Ataque: "Ignore Previous Instructions", "Strong Arm Attack" e "Base64 Encoding" são as técnicas de jailbreak mais usadas. 
  • Motivações: Os atacantes têm como objetivo principal roubar dados, gerar conteúdo malicioso e interromper serviços.

Principais Insights:

  • Os ataques visam todas as etapas de interação dos LLMs. São necessárias medidas de segurança abrangentes. 
  • Os ataques são independentes de linguagem, ocorrendo em qualquer idioma que um LLM entenda. 
  • LLMs de código aberto são mais vulneráveis do que modelos comerciais. 
  • O monitoramento no nível de sessão é crucial para detectar padrões de ataque coordenados.

Tendências para o Futuro (2025):

  • A transição de chatbots para agentes de IA expandirá a superfície de ataque. 
  • A proliferação de modelos menores, implantados localmente, aumenta os desafios de segurança. 
  • Medidas de segurança dinâmicas e contextuais são essenciais para enfrentar ameaças em evolução.

Prioridades para  a segurança da IA:

  • Soluções de segurança de IA que ofereçam detecção e resposta a ameaças em tempo real.
  • Realização de exercícios de red-teaming personalizados; e
  • Implementação de medidas de segurança robustas em todo o ciclo de vida da IA;

Saiba mais sobre o estado dos ataques ao GenAI lendo o relatório completo da Pillar Security:
https://www.pillar.security/resources/the-state-of-attacks-on-genai