Durante la conferencia matutina de este miércoles 1 de abril, la plataforma Infodemia ofreció una disculpa pública luego de haber asegurado que el video de una mujer asoleándose en un balcón de Palacio Nacional había sido generado con Inteligencia Artificial.
Fue durante la sección "Detector de Mentiras" donde Miguel Elorza admitió el error en el proceso de verificación. "Reconocemos el error que cometimos", expresó antes de iniciar la presentación de la sección.
VIDEO DE LA MUJER QUE TOMA EL SOL EN VENTANA DE PALACIO NACIONAL QUE SE VOLVIÓ VIRAL
El caso surgió luego de que en redes sociales se viralizara un video donde aparece una mujer sentada en uno de los balcones del recinto histórico mientras tomaba el sol y revisaba su teléfono celular.
Las imágenes generaron controversia y cuestionamientos entre usuarios, quienes se preguntaban cómo era posible que una persona pudiera permanecer en esa zona de uno de los edificios más emblemáticos del país y si existían protocolos de seguridad al respecto.
Ante la viralización del material, el tema llegó a la conferencia encabezada por la presidenta Claudia Sheinbaum, donde inicialmente se informó que el material era falso.
¿POR QUÉ INFODEMIA DIJO QUE ERA INTELIGENCIA ARTIFICIAL?
Durante la presentación del 19 de marzo del "Detector de Mentiras", Infodemia mostró una diapositiva en la que señalaba que una herramienta de análisis había detectado un 71% de probabilidad de uso de Inteligencia Artificial en el video. En ese momento, la plataforma afirmó:
"El video que circula en redes sociales es falso y fue generado con Inteligencia Artificial". Sin embargo, días después se confirmó que el video sí era real y que la mujer captada en las imágenes fue sancionada administrativamente, según confirmó la propia presidenta.
EXPLICAN EL PROCESO DE ANÁLISIS Y ADMITEN LA FALLA
Ante las críticas por el error, Infodemia explicó que el análisis se realizó utilizando las plataformas TruthScan y Undetectable AI, herramientas digitales que arrojaron resultados que sugerían manipulación con IA.
"El desmentido se realizó con base en el análisis hecho a través de las plataformas TruthScan y Undetectable IA, las cuales arrojaron que las imágenes contenían inteligencia artificial", explicó Elorza.
No obstante, el coordinador reiteró las disculpas públicas y reconoció que el caso evidenció la necesidad de fortalecer los procesos de verificación, especialmente ante el creciente uso de herramientas tecnológicas para analizar contenido viral.
CUESTIONAMIENTOS TRAS EL ERROR
El caso también abrió el debate en redes sociales sobre la confiabilidad de las herramientas automatizadas para detectar contenido manipulado y la importancia de complementar estos análisis con verificación humana.
Aunque Infodemia ratificó su compromiso con el combate a la desinformación, el episodio dejó cuestionamientos sobre los protocolos utilizados para validar información antes de presentarla públicamente.




