La IA vive una etapa de diversificación donde el hardware, el software y los productos de consumo se entrelazan para acelerar avances y aumentar la autonomía de las empresas frente a proveedores únicos.
Una de las piezas clave es la estrategia de OpenAI junto a Broadcom y TSMC para crear XPUs, chips diseñados desde cero para acelerar modelos de lenguaje. Estos procesadores no son GPUs adaptadas para IA; incorporan matrices sistólicas, memoria de alto ancho de banda y capacidades de red integradas, y su objetivo es optimizar hardware específicamente para IA. Se espera su producción en masa en 2026, con TSMC fabricando los chips en tecnología de 3 nanómetros. Broadcom lidera el diseño y, según el proyecto, controla aproximadamente el 70% del mercado de IA a medida. A diferencia de las GPUs actuales, estas XPUs se centrarían en entrenamiento e inferencia de IA desde cero.
OpenAI mantiene un acuerdo de 100.000 millones de dólares con Nvidia para su proyecto Stargate, asegurando suministro de potencia de cálculo mientras desarrolla su alternativa a largo plazo. Esta estrategia dual permite usar la potencia de cálculo de Nvidia para entrenamiento exigente, y empezar a usar XPUs para inferencia e operaciones internas cuando estén listas.
El verdadero foso de Nvidia es CUDA, la plataforma de desarrollo que ha forjado el estándar de la industria durante más de una década. Cambiar a otra arquitectura implicaría reescribir software y reentrenar equipos, lo que ralentiza la adopción de soluciones alternativas. Esa dependencia es la que mantiene a Nvidia en una posición dominante incluso ante la llegada de XPUs.
La rebelión por la dominancia de la IA no es exclusiva de OpenAI. Google lleva casi una década creando sus TPUs, Amazon ha desarrollado Trainium e Inferentia para AWS, Microsoft diseñó Maia para Azure y Meta colabora con AMD. También Huawei apunta a competir en los próximos años. En conjunto, estas iniciativas muestran un impulso hacia un mayor control de la cadena de suministro de chips y una arquitectura más abierta frente a dependencias de un único proveedor.
Con estas noticias, Broadcom sale reforzada y TSMC refuerza su papel como fabricante indispensable. Nvidia, por su parte, vio caer ligeramente su cotización, mientras AMD podría beneficiarse si algunas empresas buscan alternativas más asequibles para despliegues amplios.
En el terreno de consumo y movilidad, también aparece una señal de la misma dinámica tecnológica: un prototipo de Tesla barato fue avistado circulando sin camuflaje, presumiblemente basado en una versión más modesta del Model Y Juniper. Aunque no hay confirmación oficial, estas imágenes sugieren un diseño orientado a reducir costos y mantener la aerodinámica para un menor consumo, acercando la idea de un coche eléctrico más asequible a la realidad.
En el extremo del software, Sora 2 de OpenAI avanza en la creación de vídeos a partir de texto con audio sincronizado. Viene con una app social similar a TikTok y ofrece Cameos, una función para usar la propia cara y voz en vídeos, con verificación de identidad para evitar usos indebidos. Actualmente Sora 2 está en fase de pruebas en Estados Unidos con invitación; la llegada a España y otros mercados aún no tiene fecha oficial. Aun así, su capacidad para generar vídeos con mayor realismo y música de fondo marca un nuevo hito en IA audiovisual.
En paralelo, Anthropic presenta Claude Sonnet 4.5, que afirma poder generar código de forma acelerada—según la compañía, 11.000 líneas en 30 horas sin supervisión. La realidad, según desarrolladores que lo han probado, es que el código puede verse impecable en estructura pero funcionar mal o no compilar. Esto subraya una brecha persistente entre la promesa de generar software funcional y la realidad de que se necesite infraestructura adicional para agentes autónomos. La noticia recuerda que el camino hacia IA que “hace el trabajo” no está exento de retos técnicos y de verificación.