OpenAI: Grandes Avances, Modelo de Negocio Dudoso

Un análisis de la tecnología de OpenAI y por qué, a pesar de su impacto, su modelo de negocio enfrenta desafíos para obtener ingresos.

Comentarios

No hay duda de que la IA generativa y en especial OpenAI han transformado la forma de trabajar de millones de personas. ChatGPT, GPT-4 y sus modelos recientes representan avances increíbles en inteligencia artificial. Se trata de una tecnología capaz de generar textos indistinguibles del humano, crear imágenes a partir de descripciones, programar software complejo, analizar documentos extensos, asistir en investigaciones científicas y mucho más. La IA generativa está redefiniendo industrias enteras, desde la programación hasta la medicina, el diseño y la educación.

Sin embargo, estos logros tecnológicos brillantes vienen con un coste astronómico que amenaza la viabilidad del negocio a largo plazo.

La realidad económica detrás de OpenAI

La realidad económica de OpenAI es desoladora: por cada dólar que ingresa, gasta aproximadamente 2,35 dólares:

  • Infraestructura costosísima: Las GPUs necesarias para entrenar y ejecutar estos modelos cuestan millones de dólares y tienen una vida útil limitada.
  • Consumo energético masivo: Los centros de datos que ejecutan estos modelos consumen electricidad a niveles industriales.
  • Entrenamiento cada vez más caro: GPT-4 costó aproximadamente 100 millones de dólares entrenar, y cada nueva generación multiplica estos costes.
  • Escalabilidad inversa: A diferencia del software tradicional, cada nuevo usuario incrementa los costes proporcionalmente.

Estos gastos estructurales son tan fundamentales que en 2024, mientras OpenAI generará aproximadamente 3.700 millones en ingresos, perderá unos 5.000 millones. Para 2025, proyecta ingresos de 11.600 millones, pero podría terminar gastando unos 27.000 millones para generarlos.

Mucha competencia y poca rentabilidad

OpenAI no está sola en esto. Todo el sector de IA generativa sufre problemas similares de rentabilidad:

Google Gemini (anteriormente Bard)

Google ha invertido decenas de miles de millones en su infraestructura de IA, con un gasto en capital estimado de 75.000 millones de dólares para 2025. A pesar de integrar Gemini en prácticamente todos sus productos y tener el buscador más utilizado del mundo como plataforma de distribución, solo ha logrado atraer aproximadamente 18 millones de usuarios mensuales a su aplicación dedicada.

Alphabet no desglosa específicamente sus ingresos por IA, lo que sugiere que los números no impresionarían a los inversores. Expertos del sector estiman que, como OpenAI, Google pierde dinero con cada interacción de usuario en sus productos de IA generativa.

Anthropic con Claude

Respaldada por miles de millones de Amazon, Google y otros inversores, Anthropic está valorada en más de 60.000 millones a pesar de tener "solo" unos 18 millones de usuarios mensuales en Claude. Según informes recientes, la empresa generó menos de 1.000 millones en ingresos en 2024 mientras perdía unos 5.600 millones. Sorprendentemente, Anthropic proyecta ingresos de 12.000 millones para 2027.

Microsoft y su estrategia Copilot

A pesar de la integración agresiva de Copilot en prácticamente todos sus productos, Microsoft solo ha logrado atraer a unos 11 millones de usuarios mensuales a su aplicación dedicada. La compañía afirma que genera "13.000 millones en ingresos anuales por IA", pero esta cifra incluye muchos servicios diferentes y no refleja la rentabilidad real.

Considerando que Microsoft planea gastar casi 94.000 millones en infraestructura en 2025, es difícil imaginar que su división de IA generativa sea rentable en un futuro cercano.

"Crecimiento ahora, rentabilidad después": Una estrategia familiar pero problemática

Esta situación recuerda a otras empresas tecnológicas que operaron con pérdidas durante años mientras construían una base masiva de usuarios, para posteriormente encontrar formas de monetizar esa escala. Es la famosa estrategia de "crecimiento ahora, rentabilidad después" que vimos en compañías como Uber, Lyft o Netflix.

Con sus 400 millones de usuarios mensuales y 10 millones de suscriptores de pago, OpenAI ha conseguido una escala impresionante. Su reciente valoración de 300.000 millones sugiere que muchos inversores creen en esta estrategia de crecimiento acelerado.

Esta aproximación funcionó para Amazon, que operó con márgenes mínimos durante más de una década antes de convertirse en la potencia rentable que es hoy. Uber, a pesar de años de pérdidas masivas, finalmente alcanzó rentabilidad. ¿Podría OpenAI seguir un camino similar?

Diferencias críticas: Por qué OpenAI no es Uber

Sin embargo, existen diferencias fundamentales entre OpenAI y estas empresas que consiguieron transformar el crecimiento en rentabilidad:

1. Economía de escala inversa

La mayoría de plataformas digitales disfrutan de economías de escala positivas: cada nuevo usuario incrementa el valor de la red mientras el coste marginal por usuario tiende a cero. En contraste, OpenAI enfrenta una economía de escala inversa:

  • Cada consulta a ChatGPT requiere recursos computacionales significativos
  • Más usuarios = más costes de infraestructura de forma proporcional
  • El entrenamiento de modelos más avanzados es cada vez más costoso

Mientras Uber podía distribuir sus costes fijos entre más viajes a medida que crecía, OpenAI ve aumentar sus costes variables con cada nueva interacción.

2. Falta de efecto de red clásico

Uber, Facebook o Airbnb se benefician de un efecto de red donde cada nuevo usuario hace el servicio más valioso para todos los demás (más conductores = mejor servicio para pasajeros; más usuarios = más atractivo para anunciantes).

ChatGPT no disfruta del mismo tipo de efecto de red. Si bien más usuarios generan más datos que podrían mejorar los modelos, este beneficio tiene rendimientos decrecientes y no reduce los costes operativos fundamentales.

3. Diferenciación cada vez más difícil

A diferencia de Uber, que tuvo tiempo para construir una marca fuerte y fidelizar usuarios antes de enfrentar una competencia seria, OpenAI opera en un entorno donde nuevas alternativas surgen constantemente y ofrecen prestaciones muy similares. Modelos como Google Gemini, Claude o Llama de Meta replican gran parte de sus capacidades, lo que hace cada vez más complicado establecer una ventaja competitiva sólida y duradera.

Los números que preocupan

A pesar del impresionante crecimiento de usuarios, los números financieros plantean serias dudas:

  • De los 400 millones de usuarios mensuales, solo el 3% son suscriptores de pago
  • Cada usuario gratuito activo, supone un gasto considerable
  • La empresa ha experimentado una notable fuga de talento: la Directora de Tecnología Mira Murati, el Director de Investigación Bob McGrew y el VP de Investigación Post-Training han abandonado la compañía
  • De los once cofundadores originales, solo permanecen tres

Posibles caminos hacia la rentabilidad

Para que OpenAI y sus competidores logren ser financieramente sostenibles, no basta solo con avances técnicos: inevitablemente, tendrán que ajustar su estrategia comercial de forma agresiva. Y eso, en la práctica, significa dos cosas muy concretas: subir los precios y restringir el acceso gratuito a los modelos más avanzados.

El plan: menos gratis, más premium

Actualmente, millones de personas usan versiones gratuitas de ChatGPT cada mes. Pero mantener esas sesiones cuesta dinero real: cada pregunta realizada requiere recursos computacionales considerables. A gran escala, eso es una sangría constante. Así que OpenAI probablemente hará lo siguiente (y no lo digo por chisme, lo digo porque tiene todo el sentido del mundo):

  • Reducir las capacidades de la versión gratuita: limitar acceso a modelos más potentes como GPT-4, imágenes o funciones avanzadas como navegar la web o leer archivos.
  • Introducir más niveles de pago: una especie de “pase premium” para acceso temprano a nuevas funciones o personalizaciones.
  • Reforzar el uso empresarial: impulsar suscripciones empresariales con precios altos y márgenes más saludables.
  • Eliminar gradualmente el modelo gratuito en mercados no estratégicos: especialmente donde el poder adquisitivo no justifica el coste por usuario.

¿Por qué? Porque toca. No hay IA sin luz, y la factura no se paga sola.

Incluso con mejoras en eficiencia (como modelos más ligeros o chips más baratos), el crecimiento explosivo de usuarios hace que el coste por sesión no baje lo suficiente. Y como no se puede pedir a los inversores que financien pérdidas eternamente, una ruta posible es convertir la base de usuarios en ingresos sostenibles.

Traducido: si te gusta ChatGPT, prepárate para pagar.

El riesgo: modelos abiertos, baratos y suficientemente buenos

Uno de los mayores temores (aunque pocos lo digan en voz alta) es que en el futuro cercano surjan modelos de código abierto que no solo sean gratuitos, sino también tan eficientes que puedan correr en laptops o teléfonos sin depender de supercomputadoras. Y lo más peligroso: que sean suficientemente buenos.

Ya estamos viendo señales. Modelos como Mistral, LLaMA o los experimentos con quantización extrema están reduciendo el peso de la IA sin perder tanta calidad. Y si un desarrollador promedio puede ejecutar un modelo útil en su servidor casero a bajo coste... ¿quién va a pagar una suscripción mensual a un modelo cerrado?

Esto cambiaría las reglas del juego. Haría que los grandes jugadores, como OpenAI, Google o Anthropic, se vean forzados a competir no solo contra gigantes bien financiados, sino contra una comunidad global que no necesita justificar gastos.

La historia del software libre ya nos dio lecciones: Linux nunca fue una empresa, pero se comió el mundo. La IA podría seguir ese camino si la eficiencia y accesibilidad superan el brillo de los modelos cerrados.

Comentarios

Cargando comentarios...

Deja tu comentario

Artículos relacionados