ClothOff fue una plataforma de inteligencia artificial que se presentaba como una herramienta de edición fotográfica, pero en realidad ofrecía la posibilidad de “desnudar” imágenes de personas con resultados falsos y realistas. Funcionaba a través de Telegram y alcanzó más de 600 mil usuarios antes de ser eliminada.
El caso se hizo público luego de que una joven de 17 años en Estados Unidos denunciara que sus compañeros de escuela usaron esta aplicación para crear imágenes sexuales falsas de ella. El impacto psicológico la llevó a demandar a los responsables del bot, reavivando el debate sobre los riesgos del uso de la IA sin regulación.
ClothOff permitía subir fotografías y, mediante algoritmos de deepfake, transformarlas en desnudos falsos o incluso en videos de carácter sexual. El sistema ofrecía opciones para modificar cuerpo, edad, raza o pose, y aseguraba que las imágenes no se almacenaban, aunque nada garantizaba su privacidad.
Telegram confirmó el 21 de octubre que el bot fue eliminado de su plataforma. La empresa reiteró que la pornografía no consentida y las herramientas para crearla están prohibidas por sus términos de servicio y que sus moderadores eliminan de forma rutinaria este tipo de contenidos.
El caso de ClothOff expone los peligros de las tecnologías que pueden ser usadas para el acoso digital, la extorsión y la creación de pornografía falsa, especialmente cuando las víctimas son menores de edad.






