Investigadores en EE.UU. analizan distribución de imágenes de IA en redes sociales como Facebook
Una imagen de Jesús hecha con camarones, abuelas con pasteles y cabañas de madera sospechosamente acogedoras despertaron la alarma
Expertos y usuarios han alertado sobre la creciente cantidad de imágenes aparentemente generadas por inteligencia artificial (IA) que se extienden por Facebook y otras redes sociales.
El problema recae en que ahora muchos grupos se llenan de imágenes destinadas a evocar un sentimiento determinado: por ejemplo, imágenes especialmente tiernas de abuelas con pasteles o cabañas acogedoras. Algunas son más insólitas, como una imagen de Jesús hecha con crustáceos.
El problema llegó a tal punto que un equipo de investigadores del Observatorio de Internet de Stanford y del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown puso en marcha una investigación de más de 100 páginas de Facebook que presentaban una cantidad especialmente elevada de contenido generado por inteligencia artificial (IA).
El nuevo artículo aún no ha sido revisado por pares y se titula ‘How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth’ (que en español sería Cómo aprovechan los spammers y estafadores las imágenes generadas por inteligencia artificial en Facebook para aumentar su audiencia). Sostiene que el conflicto se debe a que la gente busca aumentar sus seguidores en las redes sociales.
“Gran parte de la investigación y el discurso sobre los riesgos de los generadores de imágenes de inteligencia artificial (IA), como DALL-E y Midjourney, se ha centrado en si podrían utilizarse para implantar información falsa en el discurso político”, escriben los autores. “Demostramos que los spammers y estafadores —aparentemente motivados por el lucro o la influencia, no por la ideología— ya están utilizando imágenes generadas por IA para ganar una tracción significativa en Facebook”.
The Independent preguntó a Chris Cox, jefe de producto de Meta que creó el feed original, sobre el crecimiento de este tipo de imágenes falsas durante un evento sobre inteligencia artificial a principios de este mes.
En su opinión, “el etiquetado es absolutamente fundamental”. Se refirió, por ejemplo, a las nuevas normas que exigen que cada publicación en un feed incluya un mensaje que indique que se generó con inteligencia artificial, ya sea utilizando uno de los sistemas de IA propios de Meta o los de otras empresas, como Midjourney.
“La clave aquí es: la experiencia del usuario a lo largo del camino. Hay que asegurar que nadie se sorprenda de la experiencia que está teniendo y confiar en herramientas sencillas de experiencia de usuario que etiqueten las IA cuando las veamos”, exclamó. “Por si sirve de algo, la cantidad de contenidos generados por IA en los feeds sigue siendo de minimis”.
Sin embargo, el nuevo artículo sugiere que, por ahora, al menos algunos de esos grupos comparten imágenes sin etiquetar. Esas imágenes sin etiquetar aparecen incluso a personas que no siguen a los grupos ni se dan cuenta de que son generadas por IA, lo que significa que fácilmente la gente podría confundirlas con fotos auténticas.
Cuando eso ocurre, dichas imágenes suelen recibir una avalancha de comentarios de apoyo. Pero no está claro cuántos de esos comentarios se escriben en parte o totalmente con herramientas de inteligencia artificial.
Esto ha suscitado cierto temor a la “Internet muerta”, es decir, la idea de que la red pronto estará repleta de sistemas automatizados que crearán contenidos y reaccionarán a ellos, lo que hará que muchos sitios web sean cada vez más hostiles a los usuarios humanos.