Grok 3 muestra uno de los problemas futuros de las IAs: qué pasa cuando su creador las crea sesgadas

Grok 3 muestra uno de los problemas futuros de las IAs: qué pasa cuando su creador las crea sesgadas
grok 3 muestra uno de los problemas futuros de las ias: qué pasa cuando su creador las crea sesgadas

Elon Musk siempre se ha definido como un "absolutista" de la libertad de expresiĂłn. Precisamente uno de los objetivos cuando comprĂł Twitter era convertirlo en una "plaza pĂșblica" en la que poder hablar de todo sin tapujos. Parece que lo estĂĄ logrando, pero ahora va mĂĄs allĂĄ. Ahora quiere que nos creamos que Grok 3 siempre nos va a decir la verdad.


PolĂ­ticamente incorrecto. SegĂșn Ă©l, Grok 3 "es una IA que busca la verdad al mĂĄximo, aunque a veces esa verdad estĂ© reñida con lo polĂ­ticamente correcto". Como señalan en TechCrunch, lo dijo ayer durante la presentaciĂłn de esta nueva familia de modelos de IA.


¿Una IA neutral? Grok 3 parece querer aspirar por tanto a convertirse a una IA neutral que se ciñe a los hechos y que nos dice la verdad. AquĂ­ un elemento a favor de estos modelos es que Ășltimamente citan las fuentes en las que se basan para dar sus respuestas. Lo hace por ejemplo Perplexity, y eso ayuda a que podamos contrastar esas respuestas.


OpenAI es (un poco) de izquierdas. Estudios de 2003 detectaron que modelos de IA como ChatGPT tenĂ­an ciertos sesgos y parecĂ­an posicionarse mĂĄs hacia quienes apoyan la protecciĂłn del medioambiente, hacia las ideologĂ­as libertarias y hacia posiciones polĂ­ticas de izquierdas. Gemini, el modelo de Google, fue criticado por crear imĂĄgenes "woke" de vikingos o nazis negros, por ejemplo.


Grok 3 podría "hablar" como Donald Trump. Que una IA sea políticamente incorrecta nos hace esperar respuestas singulares. Dan Hendrycks, director del Center for AI Safety y consejero de xAI ha planteado cómo un modelo de IA podría responder como lo hace Donald Trump. Directo, sin ambages y sin tener en cuenta lo políticamente correcto. Eso puede resultar irritante, pero también permitiría expresar opiniones impopulares y puntos de vista controvertidos. Fuera los sesgos, para bien y para mal. Eso sí, teóricamente sin violar las normas sociales y los principios éticos, como explica xAI en su "marco de trabajo para la gestión de riesgos".


Modelos partidistas. El estudio de Hendricks evaluĂł con quĂ© polĂ­tico de EEUU estaban mĂĄs alineados modelos como GPT-4o, Grok, o Llama 3.3, y segĂșn sus pruebas todos parecĂ­an estar mĂĄs cerca de la visiĂłn de Biden que las de Trump, Kamala Harris, o Bernie Sanders. En Ă©l desarrolla la idea de lo que llama una "Asamblea Ciudadana" en la que se recolectarĂ­an datos del censo de EUU sobre temas polĂ­ticas para luego usar esas respuestas y modificar los valores de un LLM Open Source. En estos momentos ese modelo tendrĂ­a valores que serĂ­an mĂĄs cercanos a los de Trump que a los de Biden, por ejemplo.


Pero. Lo cierto es que Grok tuvo que ser actualizado el pasado mes de agosto precisamente por no decir la verdad. Cinco secretarios de estado en EEUU avisaron de que este chatbot estaba difundiendo desinformaciĂłn cuando los usuarios preguntaban por informaciĂłn sobre las entonces inminentes elecciones. El cambio no afectĂł a la capacidad de Grok de generar deepfakes de los candidatos, aunque en septiembre de 2023 X eliminĂł la capacidad de algunos usuarios de republicar desinformaciĂłn electoral.


El entrenamiento es clave. La IA aprende de aquellos datos que le suministramos en el proceso de entrenamiento, asĂ­ que los sesgos que pueda tener una IA tendrĂĄn su origen en esos datos. Si entrenamos a la IA con datos que perfilan sus respuestas hacia cierta corriente ideolĂłgica y critica otra, la IA teĂłricamente replicarĂĄ esa posiciĂłn en su discurso. No se han dado detalles sobre cĂłmo se ha entrenado a Grok 3 y es posible que nunca lo sepamos, pero si xAI quiere que confiemos en su modelo, tendrĂĄ que ser mucho mĂĄs transparente tanto en ese apartado como en el proceso que teĂłricamente han utilizado para "ajustar" sus perspectivas y sesgos.


En este blog X se ha llenado de fotos extrañísimas de famosos. El culpable es Grok, que no tiene límites en su creación de imågenes


No hay comentarios.:

Con tecnologĂ­a de Blogger.