La inteligencia artificial de Chatgpt es cada vez menos precisa, revela un estudio cientĂ­fico

la inteligencia artificial de chatgpt es cada vez menos precisa, revela un estudio cientĂ­fico

Errar es de humanos y al parecer también es propio de los sistemas de Inteligencia Artificial Generativa como lo es ChatGPT de la compañía OpenAI. Al principio de este año el chatbot dejó impresionados a todos por su capacidad aparente para resolver problemas y hablar con elocuencia sobre una amplia diversidad de temas de todo tipo.


Pero quienes han interactuado a profundidad con la IA, teniendo amplio conocimiento del tema consultado, habrĂĄn llegado a la conclusiĂłn obvia de que ChatGPT serĂ­a muchas veces un “mentiroso” muy convincente.


En la gran mayorĂ­a de las veces la plataforma puede ofrecer respuestas y textos aparentemente robustos, aunque en el fondo estĂĄn plagados de imprecisiones, informaciĂłn inexacta o francas mentiras.


Este es un escenario que parece sentirse cada vez mĂĄs, sobre todo al abordar temas de ingenierĂ­a o ciencias exactas, y no se trata de nuestra imaginaciĂłn.


Ya que en realidad la Inteligencia Artificial cada vez serĂ­a menos exacta en sus respuestas. O al menos eso es lo que ha descubierto un interesante proyecto de investigaciĂłn que expone por completo a la IA.


ChatGPT es mĂĄs imprecisa cada vez y eso deberĂ­a preocuparle a quienes la usan ciegamente


La inteligencia artificial ChatGPT, desarrollada por OpenAI, ha empeorado en su capacidad para resolver problemas matemĂĄticos, segĂșn un estudio de la Universidad de Stanford, en donde se analizaron las dos versiones del chatbot de OpenAI: GPT-3.5 y GPT-4.


En los resultados mostraron que la precisiĂłn de ChatGPT en ciertas tareas matemĂĄticas ha disminuido significativamente en comparaciĂłn con su versiĂłn anterior. De igual forma se produjeron fluctuaciones similares en tareas mĂĄs elaboradas como escribir cĂłdigo y armar textos basados en razonamiento visual.


James Zou, profesor de informĂĄtica de Stanford que participĂł en el estudio, se sorprendiĂł por los cambios significativos en el rendimiento de ChatGPT:


“Cuando ajustamos un modelo de lenguaje grande para mejorar su desempeño en ciertas tareas, eso en realidad puede tener muchas consecuencias no deseadas, que en realidad podrĂ­an perjudicar el desempeño de este modelo en otras tareas ….


Hay todo tipo de interdependencias interesantes en la forma en que el modelo responde a las cosas que pueden conducir a algunos de los comportamientos que empeoran que observamos”.


Los resultados de la investigaciĂłn en sĂ­ son una clara muestra de ello. Ya que gracias a ellos se ha comprobado que las capacidades de ChatGPT no eran consistentes y por lo tanto el chatbot serĂ­a progresivamente menos confiable.


Por ejemplo, cuando se trataba de resolver problemas matemĂĄticos, GPT-4 comenzĂł con fuerza en marzo de 2023, identificando correctamente los nĂșmeros primos el 97,6% de las veces, pero solo tres meses despuĂ©s, en junio de 2023, su precisiĂłn cayĂł a solo el 2,4%.


Por su parte GPT-3.5 mostrĂł una mejora, pasando del 7,4% de precisiĂłn al 86,8% en la misma tarea. Lo que puede ser alarmante considerando que esta versiĂłn es la que en teorĂ­a va de salida para darle paso a su relevo.


El estudio también demostró que las respuestas de ChatGPT a preguntas sobre temas de género o étnicos se volvieron cada vez mås evasivas o incluso en algunos casos se negaron a contestar expulsando del chat a los usuarios.


La moraleja entonces obvia: no se debe confiar ciegamente en las capacidades y respuestas de esta plataforma.


No hay comentarios.:

Con tecnologĂ­a de Blogger.