HTC apuesta por gafas AI, Microsoft simplifica el 3D y la neurotecnología avanza: luces y riesgos del presente tecnológico

La inteligencia artificial está mutando el perímetro de la tecnología: salta del móvil a las gafas, acelera flujos creativos, habilita nuevas formas de comunicación y, a la vez, expone vectores de riesgo en infraestructura crítica. Cuatro movimientos recientes —las HTC Vive Eagle, Copilot 3D de Microsoft, una interfaz cerebro-máquina de Stanford y la vulnerabilidad Heracles en AMD— dibujan un mapa nítido del momento. En paralelo, se reaviva el debate sobre la posible burbuja de la IA, como sugiere el título de un análisis reciente: “La inteligencia artificial y la burbuja que viene y va”.

Gafas inteligentes: HTC Vive Eagle va a por Meta y Xiaomi

HTC regresa con fuerza a una nueva categoría: las gafas inteligentes. Las HTC Vive Eagle buscan competir con propuestas como las Ray-Ban de Meta y las de Xiaomi, apostando por menos dependencia del móvil gracias a 32 GB de almacenamiento interno y funciones que corren en el propio dispositivo.

Su ficha técnica incluye Snapdragon AR1 Gen 1, 4 GB de RAM y una batería de 235 mAh con hasta 36 horas en espera o 4,5 horas de reproducción de música, cámara de 12 MP, LED de estado y captura, cuatro micrófonos, dos altavoces, Wi‑Fi 6E y Bluetooth 5.3. Son compatibles con iOS 17.6 en adelante y Android 10 o superior.

La capa diferencial está en la IA integrada: VIVE AI puede operar con Google Gemini u OpenAI GPT (en beta). Con la voz es posible hacer fotos, grabar vídeos, tomar notas, recibir recomendaciones personalizadas y traducir textos en tiempo real en hasta 13 idiomas. Su diseño discreto, disponible en cuatro colores (Berry, Black, Coffee y Grey), pesa menos de 50 gramos, añade resistencia IP54 y protección Zeiss UV400. El precio ronda los 450 euros en la preventa que dura hasta el 31 de agosto, con lanzamiento el 1 de septiembre en Taiwán y previsión de expansión a otros mercados, como Europa.

Lectura para el sector: más cómputo en el borde, menos fricción de uso y servicios de IA multimodelo. La categoría deja de ser un accesorio del smartphone y empieza a competir por casos de uso cotidianos.

Del 2D al 3D sin fricción: Copilot 3D

Microsoft ha lanzado Copilot 3D en fase previa dentro de Copilot Labs. La herramienta convierte imágenes 2D en modelos 3D listos para motores de juego, AR o impresión 3D. Es gratuita para cualquier usuario de Copilot y no requiere suscripción a Copilot Pro.

El flujo es directo: se sube una imagen clara, con buen contraste y fondo uniforme, y la IA infiere forma, volumen y profundidad. En pruebas citadas, funciona especialmente bien con objetos cotidianos (muebles, pelotas, paraguas o frutas) y muestra limitaciones con seres vivos, donde la anatomía complica el resultado. Tampoco incluye edición in‑app: si el modelo no es óptimo, hay que pulirlo en software 3D externo.

Que esté disponible tan pronto busca feedback para mejorar. La promesa es democratizar el 3D: menos curva de aprendizaje y más velocidad para diseñadores, desarrolladores y educadores. Se plantea que, con la llegada de GPT‑5 a Copilot, la sinergia entre lenguaje e imagen podría abrir nuevas funciones, como describir un objeto y obtener su versión tridimensional.

Comunicación sin hablar: una interfaz que lee el discurso interno

Un equipo de la Universidad de Stanford ha desarrollado una interfaz cerebro‑máquina capaz de interpretar el monólogo interno —no solo la intención de hablar—. En pruebas con voluntarios, el sistema alcanzó un 74% de precisión identificando frases pensadas. Para activar la lectura, los usuarios piensan una contraseña (“chitty chitty bang bang”), que el sistema reconoce con un 98% de acierto.

La técnica distingue entre habla intentada e interna por la distinta intensidad de actividad en la corteza motora. Con electrodos implantados, se entrenó un algoritmo con señales asociadas a hasta 125.000 palabras; luego reconoció contenido nuevo, incluso más allá de las frases iniciales. El objetivo inmediato es asistencial: devolver comunicación a personas que no pueden hablar, como pacientes con ELA o parálisis cerebral, reduciendo el esfuerzo de los enfoques basados solo en movimientos intentados.

Infraestructura bajo lupa: Heracles en AMD

Investigadores de la ETH Zúrich han descubierto “Heracles”, una vulnerabilidad que afecta a la tecnología de virtualización segura SEV‑SNP en procesadores AMD EPYC de 3.ª y 4.ª generación. El ataque aprovecha tres debilidades que permiten, en presencia de un hipervisor malicioso, observar el movimiento de páginas de memoria y correlacionar datos cifrados para reconstruir información sensible como contraseñas o claves.

El vector no expone texto plano directamente ni afecta al usuario común: requiere entornos de virtualización avanzada típicos de servidores y nube. AMD indica que es posible mitigar la reubicación de páginas mediante controles de políticas en SEV‑SNP, y que los chips de 5.ª generación no presentan el problema al ocultar el texto cifrado. Aun así, el paralelismo con incidentes como Spectre y Meltdown recuerda que las suposiciones de aislamiento en VMs deben revisarse con rigor.

¿Burbuja o madurez?

El propio título “La inteligencia artificial y la burbuja que viene y va” resume un clima de discusión latente: avances espectaculares conviven con límites prácticos y superficies de ataque. Las HTC Vive Eagle, Copilot 3D y la interfaz de Stanford muestran utilidad concreta; Heracles recuerda que la seguridad no puede ir a la zaga. El valor sostenible llegará donde la IA resuelva problemas reales con experiencias fluidas y controles robustos.

Posted in Tecnología