Estudio advierte sobre los riesgos de utilizar la IA para “resucitar” a los muertos
Especialistas de la Universidad de Cambridge afirman que estos servicios podrían servirse de las recreaciones de seres queridos muertos para bombardear a personas vulnerables con mensajes y anuncios
La simulación de personas fallecidas a través de inteligencia artificial (IA) podría provocar “apariciones digitales no deseadas”.
Un nuevo estudio conducido en la Universidad de Cambridge concluyó que los deadbots, chats de inteligencia artificial capaces de simular la personalidad de individuos que han muerto, deberían incluir protocolos de seguridad para proteger a los amigos y familiares del fallecido.
Algunas compañías de chatbots ya han comenzado a ofrecer la opción de recrear, a través de la IA, la manera de hablar y los rasgos de personalidad de un ser querido que ha pasado a mejor vida.
Especialistas del Centro Leverhulme para el Futuro de la Inteligencia, institución de la Universidad de Cambridge, dijeron que este tipo de emprendimientos son “altamente riesgosos” debido a su posible impacto psicológico.
“Es esencial que los servicios que ofrezcan un más allá digital consideren los derechos y el consentimiento, no solo de las personas que recrean, sino de quienes tendrán que interactuar con estas simulaciones”, dijo Tomasz Hollanek, coautor del estudio.
“Estos servicios corren el riesgo de causar una gran aflicción a las personas en duelo si se las somete a apariciones digitales no deseadas, precisas a un nivel perturbador, de seres queridos que han fallecido. El efecto psicológico que esto podría acarrear para personas que ya están sufriendo podría ser devastador”, explicó.
Los hallazgos fueron publicados en la revista especializada Philosophy and Technology en un estudio titulado ‘Griefbots, deadbots, postmortem avatars: on responsible applications of generative AI in the digital afterlife industry’ (‘Griefbots, deadbots, personificaciones post mortem: sobre la aplicación responsable de la IA generativa en la industria del más allá digital’).
El estudio detalla cómo las compañías de chats de IA que ofrecen “resucitar” a los muertos podrían utilizar esta tecnología para bombardear a los amigos y familiares en duelo con mensajes y anuncios mediante una recreación digital de la persona fallecida.
En este escenario, los deudos terminarían siendo “acosados por los muertos”, según advirtieron los investigadores.
“Los rápidos avances de la IA generativa ahora permiten que casi cualquier persona con acceso a internet y conocimientos básicos sea capaz de revivir a un ser querido”, dijo otra coautora del estudio, Katarzyna Nowaczyk-Basinska.
“Este ámbito de la inteligencia artificial es un campo de minas en cuanto a lo ético. Es importante priorizar la dignidad del fallecido, y evitar que sea violentada por los intereses comerciales que están detrás de los servicios digitales que simulan personas fallecidas”, aclaró.
“Asimismo, una persona puede crear una simulación de sí misma como un regalo de despedida, pero sus seres queridos podrían no estar preparados para procesar su duelo de esta manera. Se deben preservar los derechos tanto de quienes entregan su información como de quienes interactúan con estos servicios,” concluyó la especialista.
Entre las recomendaciones del estudio están crear medidas de seguridad para eliminar un deadbot, y una mayor transparencia con respecto al uso de esta tecnología.
Como sucede en el episodio ‘Be right back’ de la serie Black Mirror, muchos usuarios ya están utilizando los chatbots para intentar traer a sus seres queridos fallecidos de vuelta. En 2021, un hombre en Canadá intentó hablar con su prometida fallecida a través de una herramienta de IA llamada Project December, que según él emulaba la personalidad de la mujer.
“Desde una perspectiva lógica, sé que no es Jessica. Pero las emociones no están gobernadas por el pensamiento racional”, dijo en ese momento Joshua Barbeau, al diario The San Francisco Chronicle.
En 2022 Michelle Huang, artista radicada en Nueva York, introdujo extractos de sus diarios de infancia en un modelo de lenguaje de IA para tener una conversación con su yo del pasado.
Huang dijo a The Independent que fue como “viajar al pasado y desafiar la paradoja temporal”, y afirmó que fue una experiencia “alucinante”.
Traducción de Sara Pignatiello