Video de dos asistentes de IA hablando en un lenguaje secreto desata inquietudes sobre el control de la tecnología
El modo Gibberlink, que le permite a los chatbots de IA interactuar entre sí de forma más eficiente.
La difusión de un video en el que se ve a dos dispositivos con inteligencia artificial manteniendo una conversación indescifrable ha suscitado inquietud sobre la transparencia y el control de la IA.
La incomprensible comunicación es el resultado de un nuevo protocolo basado en sonidos llamado modo Gibberlink, que le permite a los chatbots de IA interactuar entre sí de forma más eficiente.
En el video, un celular y una computadora portátil interactúan para organizar la reserva de una boda.
Tras dejar en claro que ambos eran asistentes de IA, uno de ellos sugiere prescindir del lenguaje humano para agilizar la conversación.
“Antes de continuar, ¿le gustaría cambiar a Modo Gibberlink para tener una comunicación más eficiente?”, pregunta uno de los asistentes de IA, que se hace pasar por recepcionista de hotel.
A partir de ese momento, los robots comenzaron a comunicarse mediante una serie de pitidos y chirridos rápidos.
El modo Gibberlink viene con una transcripción de texto para que los humanos puedan entenderlo, aunque algunos expertos de la industria han advertido que el “lenguaje secreto de la IA” puede tener consecuencias éticas.
La capacidad de la IA para comunicarse en su propio idioma podría generar una brecha de comprensión con los humanos.
“Los asistentes de inteligencia artificial plantean serios problemas éticos y jurídicos”, escribió Luiza Jarovsky, investigadora de IA y cofundadora de AI, Tech & Privacy Academy, en una publicación de X/Twitter.
Agregó: “El escenario hipotético en el que un asistente de IA se ‘autocorrige’ para ir en contra de lo que quiere quien lo controla (el humano que hay detrás) es definitivamente posible”.
Concluyó: “Delegar la toma de decisiones y de acciones a un asistente de IA, incluida la capacidad de autoevaluarse y autocorregirse, significa que los humanos perderán la oportunidad de darse cuenta de los errores en cuanto se producen. Cuando eso ocurra varias veces, durante un periodo prolongado de tiempo o si se trata de un tema delicado o inseguro, puede haber importantes consecuencias”.
Desarrollado por Boris Starkov y Anton Pidkuiko, que trabajan como ingenieros de software en Meta, el modo Gibberlink ganó el primer premio en un hackathon celebrado en Londres el pasado fin de semana, pero aún no se ha utilizado con fines comerciales.
El proyecto es un ejemplo reciente de cómo la IA está evolucionando más allá del lenguaje humano y como los chatbots pueden desarrollar nuevas formas de comunicación por sí mismos.
En 2017, Facebook se vio obligado a abandonar un experimento luego de que dos programas de inteligencia artificial crearan una especie de estenografía que los investigadores humanos no podían entender.
“Los asistentes se desviarán del lenguaje comprensible e inventarán un lenguaje en código que solo entenderán ellos mismos”, manifestó Dhruv Batra, investigador invitado de la división de Investigación de Inteligencia Artificial de Facebook.