“Claudia” vende sus fotos íntimas, pero ella no existe: son creadas por inteligencia artificial / INFOBAE
(INFOBAE) Los rápidos avances de los generadores de imágenes permiten a cualquier usuario crear imágenes de personas ficticias que parecen increíblemente reales. Estas herramientas están cambiando la forma de hacer y consumir pornografía.
(INFOBAE) La foto muestra el rostro de una joven de pelo largo y oscuro y sonrisa suave que dice “sentirse guapa hoy :)”. Y en Reddit -donde Claudia, que así se llama, se ofrece a vender fotos de desnudos a cualquiera que le envíe un mensaje privado- es bastante popular: “Joder, eres preciosa”, decía un usuario
Pero Claudia es falsa: un conjunto de fotos sorprendentemente convincentes creadas por herramientas de imagen de inteligencia artificial, posiblemente para sacar dinero a compradores desprevenidos, según dos investigadores de medios sintéticos.
Los rápidos avances de los generadores de imágenes de inteligencia artificial, como Midjourney y Stable Diffusion, han acaparado la atención mundial en las últimas semanas por sus ingeniosas obras de arte e impresionantes falsificaciones de ex presidentes y papas.
Pero el caso de Claudia deja entrever el lado más explícito de la tecnología: al permitir a cualquiera crear imágenes de personas falsas que parecen increíblemente reales, estas herramientas están cambiando la forma de hacer y consumir porno.
Durante años, las nuevas tecnologías han sido pioneras a través del porno, y las herramientas de imagen por IA no han roto ese patrón. Actualmente hay miles de cuentas registradas en foros de debate y salas de chat dedicadas a la creación y el perfeccionamiento de personas sintéticas, la mayoría de las cuales se parecen a niñas y mujeres, un rápido cambio que podría poner patas arriba una industria multimillonaria, socavar la demanda de modelos y actores del mundo real y alimentar preocupaciones más profundas sobre la cosificación y la explotación de la mujer.