Deepfakes & AI Forensics — verificacion de medios sinteticos

Deepfakes & AI Forensics — verificacion de medios sinteticos

Panorama

Cobertura completa de AI-generated media verification — el campo emergente que combina IMINT clasica con deteccion de medios sinteticos generados por IA (deepfakes, voice cloning, sintesis textual, GAN-generated imagery). Sub-disciplina critica en 2026 con elecciones globales y aumento de operaciones de informacion via IA.

Hallazgos entre fuentes

El stack de deteccion combina: (1) manual (manual-ai-media-forensics — domain analysis, procedural workflows, toolkit 2025); (2) checklist operativa (checklist-ai-detection — image, video, audio, text, metadata, contextual); (3) content verification doctrina (content-verification de OSINT Bible cap. 20 — verificacion de cadena custody y consistencia contextual). Insight clave: ningun detector single-modality es fiable; combinar 3+ enfoques (visual + metadata + contextual) reduce falsos positivos.

Consideraciones metodologicas

Tools 2026: TrueMedia, Sensity, Reality Defender, Hive Moderation (commercial); Deepware, Resemblyzer (open source para audio); InVID, Frame-by-Frame analysis (manual). Workflow recomendado: (1) reverse image search primero, (2) metadata + EXIF check, (3) contextual consistency, (4) detector ML, (5) peer review si hay duda.

Vacios y preguntas abiertas

Faltan notas sobre: voice cloning detection 2026, video temporal artifacts post-Sora, watermarking C2PA y limitaciones, y attribution de actores que operan fakes (operations vs technologies).

Notas en este tema (3)