Aplicaciones que utilizan inteligencia artificial para generar imágenes “desnudas” de personas reales continúan disponibles en las tiendas de Google Play y Apple App Store, a pesar de las políticas oficiales de ambas plataformas y de que la creación de deepfakes sexuales ya es ilegal en el Reino Unido.
Una investigación del Proyecto de Transparencia Tecnológica (TTP) reveló la existencia de al menos 55 aplicaciones en la versión estadounidense de Google Play Store y 47 en la App Store de Apple que permiten “eliminar” digitalmente la ropa de mujeres para mostrar sus cuerpos total o parcialmente desnudos, o con vestimenta mínima.
El diario The Independent confirmó que varias de estas aplicaciones también están disponibles en las versiones británicas de ambas tiendas digitales, incluso después de la polémica internacional por el uso de la IA Grok —de Elon Musk— para generar imágenes sexualizadas de mujeres y menores.
Entre los casos documentados, una aplicación permitía generar un video de una mujer quitándose la blusa y bailando a partir de una sola fotografía. Esta app seguía disponible y acumulaba más de cinco millones de descargas. Otras aplicaciones se promocionan como herramientas para “probarse ropa”, mostrando imágenes de mujeres en bikini o ropa mínima.
Te puede interesar: Meta y YouTube enfrentan un histórico juicio por acusaciones de adicción juvenil
Contradicción con las políticas oficiales
Las prácticas contradicen directamente las normas de ambas plataformas:
-
Google Play Store prohíbe contenido sexual explícito, pornografía, explotación sexual y la distribución de material sexual no consensuado.
-
Apple App Store prohíbe material sexualmente explícito, ofensivo o perturbador, así como contenido pornográfico o de explotación.
Pese a ello, estas aplicaciones continúan siendo accesibles al público.
Respuesta de las plataformas
Apple informó que eliminó 28 aplicaciones identificadas por el TTP y que contactó a otros desarrolladores para exigir correcciones conforme a sus directrices. Google también habría retirado algunas aplicaciones, aunque no todas las señaladas por las investigaciones.
Riesgos para mujeres y niñas
Organizaciones defensoras de derechos de las mujeres como Refuge, Women’s Aid y Womankind Worldwide advirtieron que el crecimiento del abuso de imágenes íntimas mediante IA representa un riesgo grave para la seguridad, salud mental y dignidad de mujeres y niñas.
Emma Pickering, directora de abuso facilitado por la tecnología en Refuge, señaló:
“La seguridad de mujeres y niñas depende de regulaciones más estrictas sobre el abuso de imágenes, ya sean reales o deepfake, así como de capacitación especializada para fiscales y policías”.
Añadió que las mujeres deben poder usar la tecnología sin miedo al abuso, y que las víctimas deben tener acceso a justicia rápida y protección efectiva.
The Independent informó que solicitó comentarios a Google y al gobierno británico sobre la permanencia de estas aplicaciones en las tiendas digitales.
(WCLS)
