Amazon quiso convertir Alexa en la némesis de ChatGPT. El proyecto ha acabado siendo un caos

Amazon quiso convertir Alexa en la némesis de ChatGPT. El proyecto ha acabado siendo un caos
amazon quiso convertir alexa en la némesis de chatgpt. el proyecto ha acabado siendo un caos

El pasado mes de septiembre Amazon parecía estar preparada para plantear su particular revolución en el mundo de la IA. En un evento en Washinton DC, los responsables de la firma nos enseñaban la nueva versión de Alexa. Su asistente de voz nos invitaba a chatear con él de todo tipo de cuestiones. Quería dejar tan tonto como una piedra y parecía que podría conseguirlo. Y después, silencio.


¿DĂłnde estĂĄ el nuevo Alexa? Se suponĂ­a que tras la presentaciĂłn el despliegue de Alexa, que realmente parecĂ­a prometedor, se extenderĂ­a rĂĄpidamente a los aproximadamente 500 millones de dispositivos con dicho asistente. Sin embargo en Amazon no volvieron a dar noticias de la evoluciĂłn del proyecto, y solo en enero de 2024 aparecieron rumores de que Alexa podrĂ­a aparecer este año... con una suscripciĂłn de la mano. ¿QuĂ© estĂĄ pasando? ¿Por quĂ© no se ha lanzado esa nueva versiĂłn?


Ni datos, ni GPUs. Los cientĂ­ficos entrevistados que trabajaron en el proyecto explicaban en Fortune que Amazon no tenĂ­a ni suficientes datos para entrenar el modelo, ni suficientes chips para entrenarlo y ejecutarlo de forma competitiva.


Mejor hagamos un chatbot para la nube. En lugar de seguir trabajando en Alexa a toda mĂĄquina, en Amazon parecen haber cambiado el foco y estĂĄn desarrollando un modelo de IA generativa orientado a Amazon Web Services. La empresa invirtiĂł 4.000 millones de dĂłlares en Anthropic, creadora de Claude, pero de momento eso no ha ayudado ni en un lado ni en otro.


Amazon niega que haya problemas. Una portavoz de Amazon ha indicado en Fortune que los datos proporcionados eran antiguos, y añadió que la empresa tiene acceso a cientos de miles de GPUs. También niega que Alexa haya perdido prioridad o que no estén usando Claude, pero no dio detalles sobre cómo lo estån haciendo.


Siri adelanta a Alexa por la derecha. Eso es al menos lo que parece tras los anuncios de esta semana en la WWDC 2024. Allí Apple mostró una versión mejorada de Siri con una voz sintética mås natural y el potencial de que el asistente complete acciones mediante aplicaciones con las que se conecta. La integración con ChatGPT es otra de las opciones llamativas de un asistente de voz que se lanzó en 2011 y que ahora, aun habiéndose olvidado de algunos de los dispositivos que podrían potenciarlo, tiene una nueva oportunidad. Alexa puede quedarse atrås.


Los exempleados de Amazon no son optimistas. Mihail Eric, un experto en aprendizaje automåtico que trabajó en Alexa AI, publicó recientemente un largo post en X. Dejó la empresa en julio de 2021, y afirma que a pesar de todos los recursos de Amazon y de tener también mucha gente con talento, la empresa estaba "plagada de problemas técnicos y burocråticos".


¿QuĂ© hay de Olympus? El pasado noviembre se revelĂł que Amazon tenĂ­a en marcha un proyecto para crear un LLM gigantesco llamado Olympus con dos billones de parĂĄmetros. Eso supone el doble de lo que se estima que utiliza GPT-4, pero uno de los entrevistados en Fortune indican que esa cifra "es un chiste". En realidad, afirma, el modelo mĂĄs grande que tienen ronda los 470.000 millones de parĂĄmetros (470B) , la cuarta parte de los que teĂłricamente iba a tener Olympus. Mientras, el LLM de esa nueva versiĂłn de Alexa ronda los 100B, y ahora estĂĄn al parecer trabajando en hacer un ajuste fino del mismo.


Lentos. El progreso del LLM de Alexa es aĂșn modesto. SegĂșn los datos publicados, Llama 3 fue preentrenado con 15 billones de tokens, mientras que Alexa LLM solo ha podido hacerlo con 3 billones. Su ajuste fino tambiĂ©n es peor que el del modelo de Meta, que utilizĂł 10 millones de "data points" frente a tan solo un millĂłn en el caso del de Amazon.


Demsiada gente, demasiada complejidad. El proyecto se ha alejado mucho de los famosos grupos de trabajo de "dos pizzas" de Jeff Bezos, y ahora aglutina a unos 10.000 empleados que ademĂĄs trabajan en distintos escenarios de uso, como el hogar, las compras, la mĂșsica o el entretenimiento. Eso no facilita las cosas, pero aĂșn asĂ­ en Amazon confĂ­an —tambiĂ©n lo hacen algunos de los entrevistados— en que ese LLM para Alexa acabarĂĄ apareciendo en el mercado.


Imagen Jonathan Borba


En este blog Amazon se ha cargado el nombre 'Alexa'. Se usa un 90% menos para llamar a niñas recién nacidas que antes del primer Echo


No hay comentarios.:

Con tecnologĂ­a de Blogger.