IA, abuso digital y vacío legal: el caso de X
Las y los usuarios de Grok, herramienta de inteligencia artificial, generaron 3 millones de imágenes sexualizadas durante 11 días.
Entre el 29 de diciembre y el 8 de enero circularon en la plataforma social X imágenes sexualizadas generadas por inteligencia artificial de Taylor Swift, Selena Gómez, Billie Eilish, Kamala Harris y de más de miles de personas sin su consentimiento.
Las y los usuarios de Grok, la herramienta de inteligencia artificial de Elon Musk, generaron tres millones de imágenes sexualizadas durante 11 días, después de que el mismo Musk pidió a Grok publicar una imagen de sí mismo editada en bikini.
Esto provocó la mayor acumulación de contenido sexual generado por la inteligencia artificial jamás documentada. 70 veces más imágenes que las que crea uno de los mayores foros de creación de deepfakes sexuales de personas reales.
Infancias en peligro
Otra de las cifras alarmantes involucra a las infancias. Cada 41 segundos se generó una imagen de un menor sexualizado, y 29% de esas imágenes estuvieron públicamente accesibles en la plataforma X durante una semana.
A partir del 14 de enero, X implementó bloqueos para impedir que Grok edite fotos de personas reales con poca ropa o bikinis.
Sin embargo, el conflicto legal radica en que la empresa de Musk sostiene que el usuario es el “dueño y responsable legal de lo que genera” deslindándose por completo de cualquier obligación.
En el caso de México, la secretaria de Ciencia, Humanidades, Tecnología e Innovación (SECIHTI), Rosaura Ruiz Gutiérrez, presentó los 10 principios de ética y buen gobierno de la inteligencia artificial. “Los Principios de Chapultepec” garantizan los derechos humanos mientras se usa la inteligencia artificial.