ChatGPT enloquece y arroja una oleada de respuestas sin sentido a los usuarios
El sistema de inteligencia artificial comenzó a responder cosas sin sentido, a hablar spanglish solo y a preocupar a los usuarios al sugerir que estaba en la habitación con ellos
ChatGPT parece haberse roto y proporcionó a los usuarios respuestas incoherentes.
En las últimas horas, la herramienta de inteligencia artificial respondió a las consultas con mensajes largos y sin sentido. También arrojó respuestas en spanglish sin que se lo pidan. Además, preocupó a los usuarios al sugerir en dichas respuestas que estaba en la habitación con ellos.
Aún no se sabe por qué se originó la falla. Sin embargo, los creadores comunicaron que estaban al tanto del problema y estaban controlando la situación.
Un usuario compartió un ejemplo en Reddit en donde hablaba con el robot sobre álbumes de jazz en vinilo. La conversación pronto se tornó extraña y la herramienta comenzó a responder “¡feliz escucha!” al usuario, entre otras incoherencias.
Otros se dieron cuenta de que al hacer preguntas sencillas como “¿Qué es una computadora?”, el chat generaba párrafos y párrafos de texto sin sentido.
En el ejemplo que se compartió en Reddit sobre esa respuesta, se leía lo siguiente: “Lo hace como el buen hacer de una red de arte para el país, un ratón de la ciencia, un sorteo fácil de unos pocos tristes, y finalmente, la casa global del arte, solo en un trabajo en el resto total. El desarrollo de todo un real que la tierra del tiempo es la profundidad de la computadora como un personaje complejo”.
En otro caso, ChatGPT respondió más incoherencias cuando le preguntaron cómo hacer tomates secos. En uno de los pasos se les indicaba a los usuarios: “Utilizar como amado”. Y también instruyó: “Renuncia al nuevo bocado de realidad en tu adorada cocina”.
Algunos otros usuarios constataron que el sistema parece estar perdiendo el dominio de las lenguas que habla. Asimismo, otras personas aseguraron que, al parecer, mezclaba el español con el inglés, utilizaba términos en latín o inventaba palabras en otro idioma que no tenían sentido.
Un grupo de usuarios incluso dijo que las respuestas ya se habían vuelto preocupantes. Cuando le pidieron ayuda a la herramienta con un problema de codificación, ChatGPT arrojó una respuesta larga e ilógica con la oración: “Hagamos de cuenta como si la IA estuviera en la habitación”.
En consecuencia, el usuario escribió en Reddit: “Leer esto a las 2 de la madrugada da miedo”.
El equipo de OpenAI reconoció en su página oficial los problemas, pero no dio ninguna explicación de por qué podrían estar ocurriendo.
“Estamos investigando informes que enviaron sobre respuestas inesperadas de ChatGPT”, declaró la empresa, antes de que anunciara poco después que el “problema fue identificado”. Por último, aseguró que estaba controlando la situación.
Algunos sugirieron que las respuestas se debían a que la “temperatura” estaba demasiado alta en ChatGPT. La temperatura es un parámetro que controla la creatividad o el enfoque del texto: si se ajusta a un nivel bajo, tiende a comportarse de acuerdo a lo esperado, pero si se ajusta a un nivel más alto, puede arrojar respuestas más diversas e inusuales.
No es la primera vez que el robot presenta cambios en su forma de responder a las preguntas por cuenta propia, sin el input del desarrollador OpenAI. A finales del año pasado, los usuarios se quejaron de que el sistema se había vuelto perezoso e impertinente, y se negaba a responder a las preguntas.
Acto seguido, desde la empresa OpenAI expresaron: “¡Leímos todos sus comentarios sobre que GPT4 es cada vez más perezoso!” Por último, agregaron: “No hemos actualizado el modelo desde el 11 de noviembre, y, desde luego, esto no es intencionado. El comportamiento del chat puede ser impredecible y estamos trabajando para resolver eso”.
Traducción de María Luz Ávila