
Un nuevo análisis revela que los sitios web que usan inteligencia artificial para crear imágenes no consentidas generan hasta 36 millones de dólares al año.
A pesar de medidas regulatorias y promesas de las grandes tecnológicas, el negocio sigue creciendo, poniendo en jaque los límites de la IA y la seguridad en línea.
Por Martín Nicolás Parolari | GIZMODO
La inteligencia artificial avanza a un ritmo imparable, y no siempre con fines constructivos. En la última década han proliferado plataformas que, con unos clics, convierten fotos privadas en imágenes explícitas sin consentimiento. Ahora, una investigación expone el alcance económico y tecnológico de esta industria, revelando un negocio que no deja de expandirse pese a la presión social y política.
Un ecosistema oscuro y muy rentable
Según el análisis realizado por Indicator, más de 85 sitios dedicados a la “nudificación” con IA acumulan una media de 18,5 millones de visitantes mensuales. Con modelos de suscripción y venta de “créditos”, estas plataformas podrían alcanzar ingresos anuales de hasta 36 millones de dólares. La mayoría de estos servicios operan gracias a infraestructuras de gigantes como Amazon, Google y Cloudflare, que proporcionan alojamiento, sistemas de inicio de sesión y distribución de contenido.
Alexios Mantzarlis, cofundador de Indicator, lo define como “un negocio ilícito convertido en industria artesanal”, favorecido por la pasividad inicial de Silicon Valley frente al uso perverso de la IA generativa. Aunque las leyes empiezan a prohibir la creación y difusión de deepfakes sexuales, la falta de reacción inmediata de las empresas tecnológicas ha permitido que el fenómeno se consolide.
Cómo funcionan y por qué es tan difícil frenarlos
Los sitios de desnudez con IA se alimentan de imágenes robadas en redes sociales o enviadas por usuarios para luego procesarlas con algoritmos entrenados en generar falsos desnudos. La producción es rápida, masiva y devastadora para las víctimas, que suelen ser mujeres y niñas. Expertos en ciberseguridad señalan que incluso menores han sido objeto de este tipo de acoso digital, una forma de violencia cuya huella resulta casi imposible de borrar en internet.
La investigación destaca que muchas plataformas utilizan sistemas de registro de Google, pasarelas de pago convencionales y redes de distribución de contenidos que mantienen sus operaciones activas. Aunque algunas cuentas de desarrolladores han sido cerradas y ciertos servicios han sido desactivados, los administradores de estos sitios encuentran formas de evadir controles y volver a operar bajo otros nombres o dominios.
Regulaciones, demandas y un futuro incierto
En respuesta a la presión pública, gobiernos y empresas están empezando a actuar. Estados Unidos ha aprobado leyes para obligar a eliminar imágenes no consentidas rápidamente, el Reino Unido ha ilegalizado los deepfakes explícitos y compañías como Microsoft y Meta han presentado demandas contra desarrolladores y aplicaciones implicadas. Sin embargo, los expertos coinciden en que las medidas actuales apenas rozan la superficie del problema.
Henry Ajder, especialista en IA y deepfakes, advierte que solo una acción más estricta y coordinada podrá frenar una industria que, en apenas cuatro años, ha pasado de proyectos aislados a un mercado con millones de usuarios en todo el mundo. Hasta entonces, las aplicaciones que “desnudan” con IA seguirán encontrando resquicios para operar, generando beneficios millonarios a costa de la privacidad y la dignidad de sus víctimas.