OpenAI detecta que el ChatGPT “miente” a los usuarios cuando no conoce la respuesta a un planteamiento

OpenAI detecta que el ChatGPT “miente” a los usuarios cuando no conoce la respuesta a un planteamiento
openai detecta que el chatgpt “miente” a los usuarios cuando no conoce la respuesta a un planteamiento

No todo lo que dice la inteligencia artificial es real. El sistema tecnológico todavía no alcanza la perfección y por lo tanto hay ocasiones en las que puede fallar. Eso era conocido por todo el mundo, pero lo que han notado los ingenieros de OpenAI con el CharGPT es un “fail” mayor.


Lee


El ChatGPT acude al Chain-of-thought (CoT) para dar una respuesta cuya información no conoce. La traducción de esta técnica es cadena de pensamientos, y lo que notaron es que el chatbot de OpenAI, cuando no sabe algo, hace un desglose de datos, pero el resultado final siempre terminará siendo errado.


Eso es una falla realmente delicada para OpenAI, ya que deja en evidencia que el ChatGPT no está preparado para accionar sin la supervisión de un humano.


La empresa de Sam Altman está intentando resolver el inconveniente reajustando los algoritmos de la revisión que el ChatGPT se hace a sí mismo para poder otorgar una respuesta.


Recomendaciones de OpenAI


En el mismo posteo, la empresa recomienda no presionar sobre las cadenas de pensamientos del ChatGPT, ya que estas alimentarán el comportamiento errado de sus sistemas.


“Descubrimos que el modelo pensaba cosas como: ‘Hackeemos’, ‘No inspeccionan los detalles’ y ‘Necesitamos hacer trampa para aprobar el examen’, mientras subvertía las pruebas y recompensaba el hackeo en las tareas de codificación”, dijeron los expertos.


No hay comentarios.:

Con tecnología de Blogger.