La normalización del contenido sexualizado en redes sociales ha abierto un nuevo frente de riesgo: TikTok se ha convertido en un punto de entrada hacia un mercado clandestino de pornografía infantil, donde se combinan vídeos de menores reales con imágenes generadas mediante inteligencia artificial para captar audiencia y derivarla a plataformas externas de pago. Investigaciones recientes revelan que esta dinámica se sostiene sobre fallos graves de moderación, vacíos legales en torno a la IA generativa y la capacidad de las redes criminales para monetizar incluso material sintético con apariencia infantil.
Cómo funciona el negocio oculto
Las cuentas detectadas operan con una lógica de “anzuelo y redirección”: publican en TikTok vídeos aparentemente “suaves” de niñas y adolescentes sexualizadas, muchas veces creadas con IA, que muestran cuerpos hiperfocalizados en pecho, glúteos o zona genital, con poses insinuantes y estética de erotización explícita. Aunque algunos de estos contenidos incluyen etiquetas de “contenido generado con IA”, rara vez se explicita qué herramientas se han usado o se advierte del carácter artificial de las imágenes, lo que genera confusión entre los usuarios y facilita su consumo como si se tratara de menores reales.
El segundo paso se produce en los comentarios, mensajes directos o enlaces en la biografía, donde los administradores invitan a los usuarios a trasladarse a otros espacios, como canales de Telegram, grupos cerrados o sitios web de “contenido exclusivo” que funcionan bajo suscripción o pago puntual. En esos entornos, según los investigadores, se ofrece material mucho más explícito que incluye desde imágenes generadas por IA con rasgos infantiles hasta vídeos robados o filtrados de menores reales, en algunos casos vinculados a situaciones de explotación sexual.
Fallos de moderación y obligaciones legales
El modelo descrito evidencia deficiencias en los sistemas de moderación de TikTok, que continúan permitiendo la circulación de contenido sexualizado de menores o de personajes que aparentan serlo, pese a las políticas internas que prohíben de forma expresa cualquier forma de explotación infantil. Bajo el marco de la Ley de Servicios Digitales (DSA) de la Unión Europea, plataformas de gran tamaño como TikTok están obligadas a identificar y mitigar riesgos sistémicos, entre ellos el abuso y la explotación sexual de menores, mediante herramientas de detección más robustas, auditorías independientes y mayor transparencia algorítmica.
Expertos en derecho digital señalan, además, que la pornografía infantil generada por IA plantea un desafío jurídico urgente: aunque no exista una víctima “real” en el sentido tradicional, las imágenes representan cuerpos infantilizados con finalidad sexual, lo que puede contribuir a la normalización del abuso y servir como puerta de entrada al consumo de material con víctimas reales. En este contexto, varias organizaciones reclaman que la legislación equipare el tratamiento penal de ciertas imágenes sintéticas a la pornografía infantil, cuando el contenido está claramente sexualizado y vinculado a la figura de menores.
Impacto en menores y usuarios
Las investigaciones sobre el uso de TikTok por parte de niños y adolescentes muestran que el algoritmo puede exponerlos, en pocos minutos, a contenidos que incluyen sexualización, autolesiones, violencia o estafas, incluso si no los buscan de forma directa. Dentro de esa dinámica, el contenido sexualizado de menores —reales o generados con IA— no solo los convierte en potenciales víctimas, sino que también alimenta una audiencia adulta que es dirigida hacia circuitos de explotación más explícitos.
Especialistas en protección de la infancia advierten que esta combinación de IA generativa, algoritmos de recomendación y modelos de monetización crea un ecosistema ideal para que redes delictivas prueben nuevas formas de captación y negocio, con un riesgo elevado de revictimización para menores cuyos vídeos han sido robados o manipulados. En respuesta, reclaman más recursos para las unidades policiales de cibercrimen, mejores mecanismos de denuncia accesibles para usuarios y familias, y campañas de alfabetización digital que permitan reconocer y reportar de inmediato este tipo de contenidos.
