Sam Altman defiende las “alucinaciones” de ChatGPT y la IA al dar respuestas falsas
Sam Altman finalmente es confrontado sobre el mayor problema de ChatGPT y ha esquivado con retĂłrica el debate. Cualquiera que haya utilizado la Inteligencia Artificial (IA) de OpenAI con el debido detenimiento y responsabilidad a estas alturas ya se habrĂĄ topado con un problema usual en sus respuestas: las “alucinaciones”.
Se trata de cualquier respuesta generada por la plataforma que suena absolutamente convincente, articulada y hasta justificada con supuestos datos, argumentos y fuentes. Pero al indagar en los mismos es posible comprobar que la respuesta es simplemente una invenciĂłn de la IA.
ChatGPT en su versiĂłn mĂĄs reciente y variaciones mĂĄs robustas como Bing Chat pueden llegar al grado de integrar enlaces a las supuestas fuentes de la informaciĂłn que se tomĂł como base para las respuestas generadas.
Pero al confrontar a la plataforma sobre la inexactitud de la informaciĂłn lo mĂĄs probable es que el chatbot termine expulsando al usuario y cortando de tajo todo diĂĄlogo. Lo que gradualmente se ha venido convirtiendo en un problema con el crecimiento de popularidad de la plataforma.
Ahora el CEO de OpenAI ha sido confrontado directamente sobre este fenĂłmeno y por fin obtuvimos una respuesta. Aunque no sea una realmente convincente. Por el contrario, nos recuerda a la forma exacta en la que su IA elude los hechos.
Sam Altman justifica las “alucinaciones” de ChatGPT: prefiere verlas como una funciĂłn distintiva mĂĄs que como un falla
Hace poco acaba de realizarse el ciclo de conferencias de Dreamforce 2023, en donde una serie de figuras de la industria de las TecnologĂas de la InformaciĂłn (IT) se dieron cita para hablar de temas de actualidad.
El evento empezĂł fuerte con una intervenciĂłn de Marc Benioff, CEO de Salesforce, anfitriĂłn del evento, quien señalĂł directamente que el tĂ©rmino de “alucinaciones”, para referirse a las respuestas falsas pero convincentes de cualquier IA le parecĂan mĂĄs bien un eufemismo para evitar decir que son “mentiras”.
MĂĄs adelante el ejecutivo tuvo una charla de diĂĄlogo frente a frente con Sam Altman, CEO de OpenAI, responsables de ChatGPT, donde se presenta con mayor frecuencia este fenĂłmeno de imprecisiones.
Lo curioso aquĂ es que el ejecutivo terminĂł respondiendo a este punto de controversia con un planteamiento que busca revertir la visiĂłn sobre el problema:
“Gran parte del valor de estos sistemas estĂĄ fuertemente relacionado con el hecho de que alucinan. Son mĂĄs un feature o caracterĂstica de sus funciones que un bug o falla. Si quieres buscar algo en una base de datos, ya hay cosas mĂĄs Ăștiles para hacerlo”.
La respuesta de Altman es curiosa, particularmente cuando intenta vender a ChatGPT como una herramienta de vanguardia que relevarĂa a dichas bases de datos que sĂ tienen la informaciĂłn precisa.
No hay comentarios.: