Builder.ai prometĂa programar como nunca gracias a la IA. Lo hizo como siempre: con 700 humanos simulando ser una IA
En la actualidad la IA es omnipresente en todas las ĂĄreas tecnolĂłgicas y miles de startups estĂĄn recibiendo inversiones millonarias de grandes tecnolĂłgicas y fondos de inversiĂłn para desarrollarla. El problema es que en algunos productos que se anunciaban como Ășltima tecnologĂa impulsada por IA, en realidad tenĂan detrĂĄs a todo un ejĂ©rcito de programadores de programadores mal remunerados que respondĂan a los usuarios simulando ser un chatbot de IA.
El escĂĄndalo de Builder.ai. CNBC publicaba que la startup londinense Builder.ai, que prometĂa revolucionar la creaciĂłn de aplicaciones con inteligencia artificial, era en realidad un gran fraude que empleaba a 700 programadores de India para simular una IA llamada Natasha.
La idea de programar basĂĄndose en bloques generados por IA ahora es bastante comĂșn, pero en 2018 era una idea bastante innovadora. Sobre todo, porque todavĂa no se habĂa iniciado la desenfrenada carrera por la IA que comenzĂł con el lanzamiento de ChatGPT. Esa propuesta innovadora proporcionĂł a la startup grandes inversiones, y rĂĄpidamente alcanzĂł una valoraciĂłn de 1.500 millones de dĂłlares.
Bancarrota y el gran descubrimiento. El desenlace llegó cuando Builder.ai incumplió el pago de un préstamo de 50 millones de dólares otorgado por Viola Credit en 2023. El acreedor embargó 37 millones de las cuentas de la empresa, lo que dejó a Builder.ai sin capacidad para pagar a sus empleados ni continuar sus operaciones.
Al mirar sus cuentas, se destapĂł que la empresa habĂa inflado sus cifras de venta simulando negocios con la firma india VerSe Innovation, lo cual, tal y como recogĂa Bloomberg, generĂł sospechas de manipulaciĂłn contador para aparentar una solvencia mayor de la real. La propia empresa admitiĂł en LinkedIn que estaba "trabajando estrechamente con los administradores" y agradeciĂł a su personal y partes interesadas, reconociendo que "los errores anteriores habĂan llevado a la compañĂa mĂĄs allĂĄ de la recuperaciĂłn".
La IA no daba lo que prometĂa. El principal problema de Bluider.ai no era que tras su IA Natasha hubiera 700 programadores humanos. El problema, como destacaba Engelbrecht en su mensaje, era que su cĂłdigo no funcionaba. La supuesta IA generaba aplicaciones plagadas de errores y con cĂłdigo ilegible. "Las aplicaciones resultantes estaban llenas de errores, eran disfuncionales y el cĂłdigo era ilegible. Todo era como una inteligencia artificial real, excepto que nada de eso lo era".
Los clientes de Builder.ai se encontraban con aplicaciones que no cumplĂan sus expectativas, y las ventas se iban desplomando progresivamente. Phil Brunkard, de Info-Tech Research Group, declarĂł a Business Today que muchas empresas del sector crecieron demasiado rĂĄpido, sin una base financiera sĂłlida ni ofertas verdaderamente innovadoras. Ahora, la caĂda de Builder.ai pone en tela de juicio la supervisiĂłn de los inversores y la transparencia de las empresas.
CrĂłnica de una estafa anunciada. No se puede decir que era la primera vez que se cuestionaba la autenticidad de la inteligencia artificial de Builder.ai. En 2019, The Wall Street Journal ya habĂa publicado que la startup ofrecĂa servicios de "IA asistida por humanos", aunque la realidad era mĂĄs bien al revĂ©s: humanos asistidos por IA.
Robert Holdheim, un exempleado de la startup, les demandĂł por 5 millones de dĂłlares alegando que fue despedido tras quejarse de que la tecnologĂa de Builder.ai "no funcionaba como se promocionaba y no era mĂĄs que una cortina de humo".
Sachin Dev Duggal, CEO de Builder.ai, declaraba en el artĂculo del WSJ que "alrededor del 60% en promedio de su software reutilizable es producido por mĂĄquinas y el resto es generado por humanos para el desarrollo de aplicaciones". Las evidencias han demostrado que ese porcentaje de aportaciĂłn humano era mucho mayor.
Imagen Wikimedia Commons (Web Summit)
No hay comentarios.: