Hay un riesgo con los agentes de IA y los errores acumulados: que sean un "teléfono escacharrado"
En el juego del "telĂ©fono escacharrado" (o roto, o descompuesto) un grupo de personas transmite un mensaje de uno en uno en secreto. Lo que suele suceder es que el mensaje original no tiene mucho que ver con lo que recibe el Ășltimo destinatario. Y el problema que estamos viendo es que algo similar puede ocurrir con los prometedores agentes de IA.
Errores acumulados. Toby Ord, investigador en la Universidad de Oxford, publicĂł recientemente un estudio sobre agentes de IA. En Ă©l hablaba de cĂłmo este tipo de sistemas tienen el problema del error acumulado o compuesto. Un agente de IA encadena varias etapas de forma autĂłnoma para tratar de resolver un problema que le proponemos —por ejemplo, crear cĂłdigo para cierta tarea—, pero si comete un error en una etapa, ese error se acumula y se hace mĂĄs preocupante en la siguiente etapa, y mĂĄs en la siguiente, y mĂĄs aĂșn en la siguiente. La precisiĂłn de la soluciĂłn se ve asĂ comprometida y puede no tener mucho (o nada) que ver con la que realmente solucionarĂa el problema que querĂamos resolver.
LeCun ya avisĂł. Yann LeCun, que dirige los esfuerzos de investigaciĂłn de IA en Meta, lleva mucho tiempo avisando de los problemas con los LLM. En junio de 2023 indicĂł cĂłmo los LLM autoregresivos no pueden ser factuales y evitar respuestas tĂłxicas. ExplicĂł que hay una alta probabilidad de que el token que genera un modelo nos lleve fuera del grupo de respuestas correctas, y cuanto mĂĄs larga es la respuesta, mĂĄs difĂcil es que sea correcta.
Para eso estĂĄ la correcciĂłn de errores. Para evitar el problema, necesitamos reducir la tasa de errores de los modelos de IA. Es algo muy conocido en ingenerĂa software, donde siempre se recomienda realizar una revisiĂłn temprana de cĂłdigo siguiendo una estrategia "shift left" para el ciclo de desarrollo de software: cuanto antes se detecta un error, mĂĄs fĂĄcil y barato es corregirlo. Y ocurre justo lo contrario si no lo hacemos: el coste de corregir un error crece exponencialmente cuanto mĂĄs tarde se detecta en el ciclo de vida. Otros expertos apuntan a que el aprendizaje por refuerzo (Reinforcement Learning, RL) podrĂa solucionar el problema, y aquĂ LeCun respondĂa que lo harĂa si tuviĂ©semos datos infinitos para pulir el comportamiento del modelo, cosa que no tenemos.
MĂĄs que agentes, multiagentes. En Anthropic demostraron recientemente cĂłmo hay una forma de mitigar aĂșn mĂĄs esos errores (y los posteriores errores acumulados): usar sistemas multiagĂ©nticos. Esto es: que mĂșltiples agentes de IA trabajen en paralelo para luego confrontar sus resultados y determinar el camino o soluciĂłn Ăłptima.
Pero los modelos y los agentes no paran de mejorar (¿o no?). El propio Todd apuntaba algo importante y que permite ser optimistas respecto a ese problema. "La tasa de error de los modelos de IA se estĂĄ reduciendo a la mitad aproximadamente cada cinco meses", explicaba. Y a ese ritmo es posible que los agentes de IA puedan completar con Ă©xito decenas de tareas encadenadas en año y medio y centenares en otro año y medio despuĂ©s. En The New York Times no estaban de acuerdo, y apuntaban recientemente a que aunque los modelos cada vez son mĂĄs potentes, tambiĂ©n "alucinan" mĂĄs que anteriores generaciones. La "tarjeta de sistema" de o3 y o4-mini precisamente apunta a que hay un problema real con la tasa de errores y "alucinaciones" en ambos modelos.
En este blog Las alucinaciones siguen siendo el talĂłn de Aquiles de la IA: los Ășltimos modelos de OpenAI inventan mĂĄs de la cuenta
No hay comentarios.: