La pregunta de moda es quién va ganando la carrera de la inteligencia artificial. La respuesta, por ahora, es nadie. Lo que sí está claro es quién maneja la liquidez del recurso crítico: el cómputo. NVIDIA se ha convertido en el banco central de la IA mientras el mercado de modelos sigue fragmentado, China tropieza al intentar sustituir su hardware, el software de oficina reabre la batalla por los estándares y OpenAI apunta a la próxima frontera con interfaces cerebro-computadora.
El banco central del cómputo
NVIDIA controla más del 80% del mercado de GPUs para IA (algunas estimaciones elevan esa cuota por encima del 90%) y opera con márgenes brutos superiores al 70%. Pero su poder real está en las listas de espera: acceder o no a H100 y H200 puede significar lanzar el próximo modelo revolucionario o quedarse atrás durante seis a doce meses. Jensen Huang gestiona personalmente las asignaciones clave; una llamada puede acelerar o frenar pedidos críticos. Su ventaja no es solo hardware: el ecosistema CUDA, pulido durante años, ancla a los clientes.
El dominio podría prolongarse. Cada ciclo refuerza el lock-in de software, y la nueva generación Blackwell promete aumentar la distancia. Los reguladores observan, aunque intervenir en un mercado tan técnico y estratégicamente sensible es complejo. Además, cualquier freno en Occidente podría traducirse en ventaja para China. Mientras tanto, las empresas aceptan precios y tiempos de entrega porque no hay alternativa comparable.
Un mercado de modelos sin un ganador claro
La popularidad favorece a OpenAI, que presume de rozar los 700 millones de usuarios semanales activos con ChatGPT. Sin embargo, benchmarks y percepción pública no convergen. Tras el lanzamiento de GPT-5, en una plataforma de predicción como Polymarket el favoritismo cambió hacia Gemini. En pruebas específicas como ARC-AGI 2, Grok 4 aparece por encima, con GPT-5 superando por poco a Claude Opus 4. Las mediciones son parciales, los modelos evolucionan rápido y la experiencia de cada usuario es distinta: unos prefieren Claude para programar, otros ChatGPT para consultas generales, otros Gemini para aprender y conversar.
La consecuencia es un mercado sin monopolio ni duopolio: competencia feroz entre OpenAI, Google, Meta, Anthropic y xAI; presión de modelos open source que prometen entre el 80% y el 90% de capacidad a una fracción del coste; y un terreno fértil para startups que buscan la killer app. Ahí despuntan apuestas como el vibe coding (por ejemplo, Cursor o Windsurf), mientras las big tech soportan gastos de capital extraordinarios que, de momento, no se traducen en rentabilidad. Apple, por su parte, permanece en segundo plano con una implementación de IA discreta y un Siri retrasado, quizá esperando la aplicación decisiva, con fuerte foco en privacidad y ejecución local.
China, autonomía tecnológica y realidad del stack
El caso DeepSeek R2 ilustra el choque entre ambición geopolítica y madurez técnica. La startup, animada a abandonar NVIDIA para entrenar en chips Ascend de Huawei, encadenó obstáculos: ni una sesión de entrenamiento exitosa; uso limitado a inferencia; meses de retraso. Finalmente, regresó a GPUs NVIDIA (H800, H100 y HGX H20) ya empleadas en el desarrollo previo. Todo ello en un contexto de escasez de GPUs de gama alta en China por las restricciones de exportación, y con tensiones que han desembocado en acuerdos específicos para sostener la operativa de ventas con licencias.
La lección es clara: replicar un stack consolidado de hardware más software no se resuelve solo con voluntad o inversión. La infraestructura importa tanto como los datos y los algoritmos.
Estándares abiertos contra bloqueo de proveedor
En paralelo, la ofimática reabre una pugna histórica: la fundación detrás de LibreOffice publicó una guía para migrar al formato ODF y acusa a Microsoft, WPS y OnlyOffice de emplear formatos propietarios que condicionan a los usuarios y los mantienen cautivos. Aunque WPS y OnlyOffice soportan ODF, no lo establecen como predeterminado, lo que dificulta su adopción. Para LibreOffice, migrar a ODF es un movimiento estratégico por interoperabilidad, transparencia, seguridad, privacidad y soberanía digital. La realidad, no obstante, es que muchos siguen pagando suscripciones a Microsoft o eligen alternativas con anuncios, cambiando de proveedor pero no de dependencia.
La siguiente frontera: interfaces cerebro-computadora
OpenAI prepara un emprendimiento para competir con Neuralink mediante chips e interfaces cerebro-computadora, con ChatGPT como pieza clave de la experiencia. La iniciativa, denominada Merge Labs, busca recaudar 850 millones de dólares, con 250 millones provenientes de OpenAI, y tendría a Sam Altman y Alex Blania como cofundadores. La visión de Altman sobre la fusión humano-máquina no es nueva, pero ahora se traduce en un plan concreto. El listón está alto: Neuralink ya permitió a un paciente parapléjico controlar su ordenador y aspira a escalar a decenas de miles de implantes para 2030. La ejecución determinará si esta nueva interfaz se convierte en la próxima gran plataforma.
Lo que esto significa para equipos y empresas
El poder del cómputo se ha vuelto la variable determinante. Quien accede a GPUs a tiempo tiene ventaja; quien se ancla a un ecosistema dominante avanza más rápido, pero asume dependencia. En modelos, no hay ganador único: conviene evaluar por caso de uso y coste total, sin dogmas. En ofimática, adoptar estándares abiertos como ODF reduce el riesgo de cautividad. En hardware, los intentos de sustitución nacional enseñan que la compatibilidad y el software de base pesan tanto como el silicio. Y en la frontera BCI, se perfila un nuevo vector competitivo donde IA y hardware redefinirán la experiencia de usuario.
La foto de 2025 no es la de un campeón absoluto, sino la de múltiples carreras simultáneas: acceso a cómputo, eficiencia de modelos, control de estándares y nuevas interfaces. En todas ellas, NVIDIA marca el pulso del mercado, pero el desenlace dependerá de quién convierta estas capacidades en productos imprescindibles.