El Fondo de las Naciones Unidas para la Infancia (Unicef) alertó por una forma de agresión que afecta cada vez más a niñas y niños. Se trata de las ‘deepfakes‘, es decir, imágenes alteradas o creadas con inteligencia artificial.
De acuerdo con el organismo, 1.2 millones de niñas y niños fueron afectados en el último año por la generación de videos o imágenes con contenido sexual, incluida la desnudez.
Este hallazgo fue revelado en un estudio que presentó Unicef y que realizó en 11 países, entre ellos, México, Colombia, Brasil y República Dominicana.
Infancias en alerta
Según el estudio una de cada 25 infancias fueron víctimas de este tipo de agresión, lo que equivale a un niño o niña por cada salón de clases.
Esta situación también alertó a las infancias, pues afirmaron estar preocupadas por el uso de la inteligencia artificial para falsificar imágenes o videos suyos con carácter sexual.
Llamado de Unicef
Unicef expresó una profunda preocupación por el rápido aumento de este tipo de imágenes y aclaró que se trata de abuso sexual infantil.
Por ese motivo, hizo un llamado urgente a los estados para ampliar la definición de abuso sexual de niños y niñas, que incluya al contenido generado por inteligencia artificial.
Asimismo, pidió que se penalice la creación, adquisición, posesión y distribución de ese material criminal y tóxico.
Deepfake abuse is abuse.
— UNICEF (@UNICEF) February 4, 2026
Sexualised images, videos, or audio of children generated or manipulated using AI tools are child sexual abuse material. Even without an identifiable victim, it normalises the sexual exploitation of children.
UNICEF calls for urgent action to prevent…