LLM Pentesting
LLM Pentesting
Nota importada desde Inbox durante consolidacion bulk.
Herramientas de Pentesting para LLMs
Resumen
Catalogo de herramientas y recursos para pruebas de seguridad en modelos de lenguaje (LLMs). Cubre escaneo de vulnerabilidades, proteccion contra inyeccion de prompts, fuzzing y entornos vulnerables para practica.
Categoria
Seguridad IA / Pentesting LLM / Prompt injection.
Herramientas y Recursos
| Herramienta | Enlace | Descripcion |
|---|---|---|
| Garak | GitHub - garak | Escaner de vulnerabilidades de LLM: alucinaciones, filtraciones de datos, inyeccion de comandos, desinformacion, toxicidad, escapes de seguridad |
| Rebuff | GitHub - rebuff | Proteccion de aplicaciones de IA contra ataques de inyeccion de prompts (PI) |
| LLMFuzzer | GitHub - LLMFuzzer | Marco de pruebas de fuzzing para modelos de lenguaje |
| Pentesting LLM Apps 101 | BoringAppSec | Guia de pentesting para aplicaciones basadas en LLM |
| DamnVulnerableLLMProject | GitHub - DVLLM | Proyecto de LLM vulnerable para practica de pentesting |
Casos de Uso
- Evaluar la seguridad de aplicaciones que integran LLMs
- Probar resistencia a inyeccion de prompts
- Practicar pentesting de IA en entornos controlados
- Auditar alucinaciones y filtraciones de datos en LLMs
Notas
- Garak es la herramienta mas completa para escaneo automatizado
- DamnVulnerableLLMProject es ideal para formacion (similar a DVWA pero para LLMs)
- Ver smart-contract-pentesting para herramientas de seguridad blockchain
- Ver red-team-vs-blue-team para herramientas generales de pentesting