La Presidenta Claudia Sheinbaum informó que fue inducida a error por un video generado con inteligencia artificial (IA) y aprovechó para pedir un debate público sobre la regulación de estos contenidos. Según relató, creyó que un clip con supuestos militares era auténtico y lo remitió al Secretario de la Defensa, quien observó que en letra pequeña figuraba la leyenda «Inteligencia Artificial».
Técnicamente, los videos falsos (deepfakes) se generan mediante modelos generativos —por ejemplo, redes adversarias generativas o modelos de difusión— que sintetizan imágenes y audio a partir de grandes volúmenes de datos. La calidad actual permite recrear rostros, voces y gestos con grado alto de realismo, lo que dificulta su detección a simple vista.
Impacto en la comunicación y la seguridad: los deepfakes pueden:
– Desinformar a la población y erosionar la confianza en fuentes oficiales.
– Provocar respuestas institucionales equivocadas o generar crisis de seguridad.
– Facilitar delitos como fraude, suplantación y manipulación electoral.
Utilidad y medidas técnicas para mitigar el riesgo: autoridades y plataformas pueden aplicar herramientas y protocolos que reduzcan el daño práctico de estos contenidos. Entre las medidas efectivas están la detección forense automatizada (análisis de artefactos temporales y espectrales), la verificación de procedencia mediante metadatos y firmas criptográficas, y el uso de marcas de agua digitales que indiquen generación sintética.
Acciones institucionales y limitaciones: la Secretaría de Seguridad y Protección Ciudadana reporta remover páginas fraudulentas y mantener contacto con plataformas para retirarlas. Sin embargo, la dinámica tecnológica exige soluciones estandarizadas de trazabilidad y colaboración internacional, porque la capacidad de generar y distribuir deepfakes supera las respuestas reactivas aisladas.
Implicaciones legales y normativas: la producción y difusión deliberada de videos fraudulentos puede vulnerar derechos de acceso a la información y constituir delito según el contexto. Regular la IA implicaría definir obligaciones para desarrolladores, intermediarios digitales y usuarios, así como establecer sanciones proporcionales y mecanismos de supervisión técnica.
Conclusión: el caso citado subraya la necesidad de combinar detección tecnológica, protocolos de autenticidad, cooperación entre gobierno y plataformas, y un marco regulatorio claro para mitigar riesgos a la seguridad pública y la integridad informativa.



