Anthropic y OpenAI saben que donde la IA está dando dinero es en las empresas. Han encontrado la forma de exprimir esa estrategia
Los usarios finales no importamos mucho ya para los gigantes de la IA. Estas empresas están confirmando que los ingresos están de momento en el mundo profesional, y ya están haciendo movimientos para conquistar ese semento. Y si tienen que hacerlo empresa por empresa, que así sea, porque ahora OpenAI y Anthropic son un poquito menos empresas de IA y un poquito más consultoras.
La IA es más empresarial que nunca. Anthropic y OpenAI han comprendido que el verdadero negocio de la IA no está actualmente en las suscripciones individuales de 20 dólares, sino en lograr integrar sus modelos de IA en todo tipo de corporaciones. Ambas empresas han lanzado casi simultáneamente alianzas con otras compañías para proporcionar servicios de consultoría. El objetivo es simple: dejar de ser herramientas web externas para convertirse en el "sistema operativo" de miles de negocios a través de esos canales de venta tan exclusivos.
Ingenieros en la línea de fuego. Para impulsar estas estrategias, ambas empresas están adoptando el modelo del llamado 'Forward Deployed Engineer' (FDE), un sistema de despliegue que ya fue popularizado por Palantir y que usan tradicionalmente las consultoras. En lugar de vender una API sin más, Anthropic y OpenAI enviarán a sus ingenieros a trabajar con médicos, analistas financieros o personal IT para que sus modelos de IA puedan integrarse a la perfección en los flujos de trabajo reales de esos profesionales.
La salida a bolsa como objetivo. En los últimos meses parecemos estar viviendo una carrera contra el reloj hacia la salida a bolsa en ambos casos. Con valoraciones absolutamente estratosféricas (OpenAI 852.000 millones, Anthropic rondando los 900.000 millones), la presión por justificar estas cifras ante el mercado público es inmensa. La integración de herramientas de programación como Claude Code ha sido motor de crecimiento claro reciente, pero la verdadera mina de oro está en la automatización de procesos en sectores como la salud o las finanzas. Si estas joint ventures no logran escalar rápidamente, la burbuja de la valoración podría desinflarse antes de esas salidas a bolsa.
Conflictos de intereses. Cuando un fondo de capital riesgo invierte en un proveedor de tecnología y simultáneamente presiona a las empresas de su cartera para que adopten esa misma tecnología, la competencia deja de existir. Muchas empresas no tendrán demasiada capacidad de elección real basada en la calidad de producto. Lo que se vuelve a reforzar aquí es esa "economía circular" en la que la innovación no se elige, sino que se impone por intereses financieros y empresariales. El cliente no compra porque necesita la herramienta, sino porque su propio dueño financiero tiene una participación en quien suministra esa herramienta.
¿Pero la IA no iba a automatizarlo todo? La dependencia del modelo FDE es paradójica. La teoría nos dice que el software debe ser infinitamente replicable a coste marginal cero. Sin embargo, estas alianzas demuestran que la IA aún no es lo suficientemente inteligente para funcionar sin supervisión humana directa. Necesitamos que alguien nos enseñe a usarla bien, dicen las empresas, y tanto OpenAI como Anthropic van a aprovechar esa necesidad aunque lo que en realidad tengamos sea una consultoría personalizada de lujo. La IA será de momento más parte de los servicios que ofrece una consultora que una herramienta "plug and play" verdaderamente autónoma.
Nuevo trabajo: ingeniero de despliegue. Ahora Anthropic y OpenAI no solo serán empresas de IA: también serán consultoras con necesidad de mano de obra. Eso también sirve como ejemplo de que aunque la IA teóricamente eliminará puestos de trabajo, también creará otros nuevos. Aquí nos enfrentamos a una creciente demanda de "ingenieros de despliegue" —OpenAI ya los solicita—, profesionales que se encarguen precisamente de adaptar estos modelos de IA a las necesidades de las empresas que quieran implantarlos en su día a día.
Y los datos, qué. Hay otro problema fundamental: las empresas medianas no tendrán demasiada capacidad para gestionar su soberanía de datos. Para que Claude o GPT funcionen de forma adecuada en la empresa, necesitarán acceso a flujos de trabajo críticos, historiales médicos o datos financieros sensibles. Y cuando uno cede ese control a terceras partes, quedan vulnerables. No solo eso: la seguridad de esos datos queda comprometida porque para poder procesarlos deben salir y ser procesados en la nube de un proveedor externo. Los modelos de IA de estas empresas además probablemente pueda aprender de esos procesos, aunque aquí es razonable pensar que entrarán en juego las políticas Zero Data Retention ("No retención de datos").
Imagen TechCrunch Wikimedia Commons
En este blog La Casa Blanca quiere revisar los nuevos modelos de IA antes de que nadie los use: primero el Pentágono, luego el resto del mundo
No hay comentarios.: