Grok 3 muestra uno de los problemas futuros de las IAs: qué pasa cuando su creador las crea sesgadas
Elon Musk siempre se ha definido como un "absolutista" de la libertad de expresiĂłn. Precisamente uno de los objetivos cuando comprĂł Twitter era convertirlo en una "plaza pĂșblica" en la que poder hablar de todo sin tapujos. Parece que lo estĂĄ logrando, pero ahora va mĂĄs allĂĄ. Ahora quiere que nos creamos que Grok 3 siempre nos va a decir la verdad.
PolĂticamente incorrecto. SegĂșn Ă©l, Grok 3 "es una IA que busca la verdad al mĂĄximo, aunque a veces esa verdad estĂ© reñida con lo polĂticamente correcto". Como señalan en TechCrunch, lo dijo ayer durante la presentaciĂłn de esta nueva familia de modelos de IA.
¿Una IA neutral? Grok 3 parece querer aspirar por tanto a convertirse a una IA neutral que se ciñe a los hechos y que nos dice la verdad. AquĂ un elemento a favor de estos modelos es que Ășltimamente citan las fuentes en las que se basan para dar sus respuestas. Lo hace por ejemplo Perplexity, y eso ayuda a que podamos contrastar esas respuestas.
OpenAI es (un poco) de izquierdas. Estudios de 2003 detectaron que modelos de IA como ChatGPT tenĂan ciertos sesgos y parecĂan posicionarse mĂĄs hacia quienes apoyan la protecciĂłn del medioambiente, hacia las ideologĂas libertarias y hacia posiciones polĂticas de izquierdas. Gemini, el modelo de Google, fue criticado por crear imĂĄgenes "woke" de vikingos o nazis negros, por ejemplo.
Grok 3 podrĂa "hablar" como Donald Trump. Que una IA sea polĂticamente incorrecta nos hace esperar respuestas singulares. Dan Hendrycks, director del Center for AI Safety y consejero de xAI ha planteado cĂłmo un modelo de IA podrĂa responder como lo hace Donald Trump. Directo, sin ambages y sin tener en cuenta lo polĂticamente correcto. Eso puede resultar irritante, pero tambiĂ©n permitirĂa expresar opiniones impopulares y puntos de vista controvertidos. Fuera los sesgos, para bien y para mal. Eso sĂ, teĂłricamente sin violar las normas sociales y los principios Ă©ticos, como explica xAI en su "marco de trabajo para la gestiĂłn de riesgos".
Modelos partidistas. El estudio de Hendricks evaluĂł con quĂ© polĂtico de EEUU estaban mĂĄs alineados modelos como GPT-4o, Grok, o Llama 3.3, y segĂșn sus pruebas todos parecĂan estar mĂĄs cerca de la visiĂłn de Biden que las de Trump, Kamala Harris, o Bernie Sanders. En Ă©l desarrolla la idea de lo que llama una "Asamblea Ciudadana" en la que se recolectarĂan datos del censo de EUU sobre temas polĂticas para luego usar esas respuestas y modificar los valores de un LLM Open Source. En estos momentos ese modelo tendrĂa valores que serĂan mĂĄs cercanos a los de Trump que a los de Biden, por ejemplo.
Pero. Lo cierto es que Grok tuvo que ser actualizado el pasado mes de agosto precisamente por no decir la verdad. Cinco secretarios de estado en EEUU avisaron de que este chatbot estaba difundiendo desinformaciĂłn cuando los usuarios preguntaban por informaciĂłn sobre las entonces inminentes elecciones. El cambio no afectĂł a la capacidad de Grok de generar deepfakes de los candidatos, aunque en septiembre de 2023 X eliminĂł la capacidad de algunos usuarios de republicar desinformaciĂłn electoral.
El entrenamiento es clave. La IA aprende de aquellos datos que le suministramos en el proceso de entrenamiento, asĂ que los sesgos que pueda tener una IA tendrĂĄn su origen en esos datos. Si entrenamos a la IA con datos que perfilan sus respuestas hacia cierta corriente ideolĂłgica y critica otra, la IA teĂłricamente replicarĂĄ esa posiciĂłn en su discurso. No se han dado detalles sobre cĂłmo se ha entrenado a Grok 3 y es posible que nunca lo sepamos, pero si xAI quiere que confiemos en su modelo, tendrĂĄ que ser mucho mĂĄs transparente tanto en ese apartado como en el proceso que teĂłricamente han utilizado para "ajustar" sus perspectivas y sesgos.
En este blog X se ha llenado de fotos extrañĂsimas de famosos. El culpable es Grok, que no tiene lĂmites en su creaciĂłn de imĂĄgenes
No hay comentarios.: