La amabilidad con ChatGPT le está saliendo cara a OpenAI. Los “por favor” y “gracias” tienen un coste absurdo cada mes
Obviamente, no esperamos que los robots tomen el control del planeta. Pero no es casual que esa idea se haya hecho viral. El cine y la literatura llevan décadas alimentando ese imaginario entre la fascinación y el miedo. Lo curioso es que, más allá de la ficción, hay algo real en todo esto: ser educados con la inteligencia artificial (IA) no es gratis. Nuestra amabilidad, por rutinaria que sea, cuesta dinero. Y no precisamente poco.
El funcionamiento de la IA no es precisamente barato. Cuando usamos un chatbot de inteligencia artificial, rara vez pensamos en el consumo de recursos que implica cada una de nuestras peticiones. ChatGPT y otros sistemas similares funcionan gracias a grandes modelos de lenguaje, también conocidos como LLM, que operan en centros de datos equipados con hardware de alto rendimiento, como las GPU H100 de NVIDIA. La ejecución de esos modelos, lo que técnicamente se denomina inferencia, requiere una enorme capacidad de procesamiento y, por tanto, una cantidad considerable de electricidad.
Resulta curioso que, pese al alto coste energético y económico que eso representa, Altman considere que es un gasto justificado.
¿Hay que ser amable con una IA? Como ocurre en cualquier otro ámbito, hay personas que prefieren ir directo al punto y otras que optan por mantener un tono más cuidado y educado. Probablemente esa diferencia también tenga que ver con la forma en que cada uno se comunica en su día a día. Y en este contexto, la amabilidad no es solo una cuestión de modales.
Un estudio titulado “Should We Respect LLMs? A Cross-Linguistic Study of Prompt Politeness in Academic Performance” analizó el papel de la cortesía en las indicaciones y dejó algunas conclusiones interesantes. Entre ellas, que los mensajes descorteses tienden a generar un peor rendimiento. Aunque, eso sí, el exceso de cortesía no garantiza mejores resultados.
Lo que sí parece claro para quienes usamos a diario este tipo de chatbots, y más ahora que son capaces de aprender y recordar con más precisión, es que pueden adaptarse al tono del usuario. Si queremos una interacción más respetuosa, más coherente y un poco más humana, probablemente deberíamos empezar por dar ese paso nosotros.
En este blog Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta
No hay comentarios.: