LLM Pentesting

LLM Pentesting

Nota importada desde Inbox durante consolidacion bulk.

Herramientas de Pentesting para LLMs

Resumen

Catalogo de herramientas y recursos para pruebas de seguridad en modelos de lenguaje (LLMs). Cubre escaneo de vulnerabilidades, proteccion contra inyeccion de prompts, fuzzing y entornos vulnerables para practica.

Categoria

Seguridad IA / Pentesting LLM / Prompt injection.

Herramientas y Recursos

Herramienta Enlace Descripcion
Garak GitHub - garak Escaner de vulnerabilidades de LLM: alucinaciones, filtraciones de datos, inyeccion de comandos, desinformacion, toxicidad, escapes de seguridad
Rebuff GitHub - rebuff Proteccion de aplicaciones de IA contra ataques de inyeccion de prompts (PI)
LLMFuzzer GitHub - LLMFuzzer Marco de pruebas de fuzzing para modelos de lenguaje
Pentesting LLM Apps 101 BoringAppSec Guia de pentesting para aplicaciones basadas en LLM
DamnVulnerableLLMProject GitHub - DVLLM Proyecto de LLM vulnerable para practica de pentesting

Casos de Uso

  • Evaluar la seguridad de aplicaciones que integran LLMs
  • Probar resistencia a inyeccion de prompts
  • Practicar pentesting de IA en entornos controlados
  • Auditar alucinaciones y filtraciones de datos en LLMs

Notas

  • Garak es la herramienta mas completa para escaneo automatizado
  • DamnVulnerableLLMProject es ideal para formacion (similar a DVWA pero para LLMs)
  • Ver smart-contract-pentesting para herramientas de seguridad blockchain
  • Ver red-team-vs-blue-team para herramientas generales de pentesting