Openai ya ha anunciado su estrategia para prevenir riesgos con Superinteligencia: Superalineraci贸n
OpenAI ha anunciado en un comunicado en su blog parte de su nueva estrategia. La llaman 'superalineaci贸n', est谩n creando un equipo de trabajo espec铆fico para dedicarse a ella, y se da un plazo de cuatro a帽os para cumplir su objetivo.
¿Qu茅 objetivo? Ser capaces de controlar sistemas de IA mucho m谩s inteligentes que el ser humano, de ah铆 el nombre 'superalineaci贸n': capacidad para alinear la superinteligencia con la voluntad humana. Algo as铆 como las tres leyes de la rob贸tica de Asimov, pero m谩s amplio y aplicado a la IA.
Prevenir rebeld铆as
El t茅rmino 'superinteligencia' que usa OpenAI viene a ser la evoluci贸n de 'AGI' (Inteligencia Artificial General). Si AGI hace referencia a la capacidad de la IA de replicar tareas humanas, superinteligencia se refiere a un nivel de capacidad muy superior al humano, preparado para resolver problemas a escala global que hasta ahora no pod铆an ser resueltos.
Desde OpenAI consideran que la superinteligencia podr铆a ser una realidad esta misma d茅cada, y que su capacidad, muy poderosa, tambi茅n entra帽a un riesgo que podr铆a llevar "al desempoderamiento de la humanidad o incluso a la extinci贸n humana".
Hiperbolizado o no, este riesgo es el que quieren enfrentar los creadores de ChatGPT con la creaci贸n de su equipo de superalineaci贸n, que se basa en el uso de IA para controlar la propia IA. Si hasta ahora las t茅cnicas se basan en aprendizaje autom谩tico a partir de la retroalimentaci贸n humana, donde son personas quienes se encargan de las bases de ese entrenamiento, la superalineaci贸n requerir谩 niveles de retroalimentaci贸n dif铆ciles de lograr 煤nicamente con humanos: har铆an falta much铆simos y extremadamente cualificados y especializados.
Un ejemplo de esta complejidad la dio la propia OpenAI en otro art铆culo de su blog hace unas semanas: en 茅l explicaban c贸mo el razonamiento matem谩tico complejo ya no solo se hac铆a hacia la consecuci贸n del resultado correcto, sino tambi茅n hacia el proceso.
Uno de los ejemplos usados, un problema de trigonometr铆a, tuvo una gran mayor铆a de intentos fallidos, pero lograron que el modelo reconociese la soluci贸n correcta.
Esa verificaci贸n, de cada paso de cada intento, necesita humanos con una alta cualificaci贸n en Matem谩ticas. Es lo que OpenAI busca reemplazar por una IA basada en aprendizaje autom谩tico que se alinee en la intenci贸n humana, no es la voluntad que pueda desarrollar la propia IA.
Para ello debe dar una se帽al de entrenamiento en tareas dif铆ciles de evaluar para los humanos, asistida por IA; automatizar la b煤squeda de comportamientos y componentes internos problem谩ticos, y entrenar deliberadamente modelos desalineados para confirmar que sus t茅cnicas detectan los peores tipos de desalineaciones. Algo similar a lo que llevamos a帽os viendo con las redes generativas antag贸nicas.
En el plazo de cuatro a帽os que se ha marcado OpenAI deber谩n resolver los principales desaf铆os t茅cnicos centrales de la alineaci贸n de la superinteligencia. Eso supone lograrlo hacia 2027, cerca de los 煤ltimos a帽os de la d茅cada, el plazo en el que la empresa cree factible la llegada de esa superinteligencia.
Imagen destacada este blog con Midjourney.
En este blog Los grandes expertos de la IA comparten un mensaje sobre el "riesgo de extinci贸n": les bastan 22 palabras.
No hay comentarios.: