Connect with us

XR

Google liberó la Preview 3 del SDK para Android XR, abriendo el desarrollo para AI Glasses

Published

on

Android XR SDK Developer Preview 3

Google ha lanzado la Developer Preview 3 del Android XR SDK, abriendo oficialmente el desarrollo para AI Glasses (gafas inteligentes con IA, con o sin pantalla display) además de headsets y wired XR glasses.

Nuevas librerías Jetpack clave:

  • Jetpack Compose Glimmer: Toolkit de UI optimizado para experiencias «glanceable» (rápidas, minimalistas y no intrusivas) en gafas con display transparente. Enfocado en claridad, legibilidad y mínima distracción.
  • Jetpack Projected: Permite extender apps Android existentes desde un teléfono anfitrión a las gafas, con acceso seamless a cámara, micrófono, altavoces y display (si lo tiene).

Integración con IA:

  • Soporte para Gemini Live API: Habilitando conversaciones voz a voz en tiempo real y naturales con Gemini, ideal para asistentes multimodales.

Mejoras técnicas:

  • Expansión de ARCore for Jetpack XR: Mejoras en Motion Tracking, Geospatial API (wayfinding preciso), Visual Positioning Service y mayor estabilidad general en APIs inmersivas.
  • Emulador dedicado para AI Glasses en Android Studio.

Expansión del ecosistema:

  • Partnerships confirmados con Samsung (Galaxy XR headset), Warby Parker y Gentle Monster (gafas AI estilizadas y ligeras para uso todo el día, lanzamiento en 2026).
  • Project Aura de XREAL: Primeras wired XR glasses portátiles con optical see-through, 70° FOV y experiencias inmersivas ligeras.

Impacto para developers: Ahora es posible crear apps spatiales y augmentadas para dispositivos ligeros y cotidianos, no solo headsets pesados. Android XR se posiciona como plataforma abierta y accesible, compitiendo directamente con Apple Vision Pro y Meta Quest, pero con enfoque en IA integrada (Gemini) y ecosistema Android masivo.

2. Nuevas features para Samsung Galaxy XR

Anunciadas en paralelo con el SDK Preview 3 (disponibles en beta o rollout inmediato):

  • PC Connect: Streaming de alta fidelidad de Windows PC (app individual o desktop completo) al headset, ideal para productividad, gaming y multitasking inmersivo.
  • Travel Mode: Estabilización de tracking para uso seguro en movimiento (aviones, trenes, autos), convirtiendo viajes en cine personal o workspace estable.
  • Likeness (beta): Avatares fotorealistas generados desde el teléfono, con tracking facial y de manos en tiempo real para videollamadas más naturales (compatible con Google Meet).

Para devs: Estas features abren puertas a apps híbridas de productividad, colaboración remota y experiencias «on-the-go» en el headset Galaxy XR.

3. Otras menciones rápidas

  • Avances en generación AI de mundos 3D (prototipado rápido en Unity/Unreal con física realista y audio estereoscópico).
  • Casos de uso reales: AR en cirugías hospitalarias y VR terapéutica para niños en contextos difíciles.

La semana de diciembre 2025 ha estado dominada por Google acelerando XR hacia gafas AI accesibles y cotidianas, democratizando el spatial computing más allá de gaming o entretenimiento premium. Estamos en los inicios de una computación espacial masiva y multimodal.

Para developers: Cómo empezar

  • Descarga el Android XR SDK Developer Preview 3 y prueba el emulador en Android Studio (Canary recomendado).
  • Explora samples para immersive (headsets/wired glasses) y augmented experiences (AI glasses).
  • Usa herramientas familiares: Jetpack Compose, Unity, OpenXR o WebXR.
  • Feedback es clave: Reporta issues en el portal oficial ya que es preview.

¿Quieres más detalles sobre algún partnership o feature específica?

Fuentes (actualizadas a diciembre 2025)

9to5Google: Cobertura de anuncios XR diciembre 2025 – https://9to5google.com/2025/12/08/android-xr-glasses-displays-2026/

Android Developers Blog: Build for AI Glasses with Android XR SDK Developer Preview 3 – https://android-developers.googleblog.com/2025/12/build-for-ai-glasses-with-android-xr.html

Android Developers: Android XR hub – https://developer.android.com/develop/xr

Google Blog: The Android Show XR Edition updates – https://blog.google/products/android/android-show-xr-edition-updates/

Samsung News: Connected, Creative, Expanded (Galaxy XR features) – https://news.samsung.com/global/connected-creative-expanded-android-xrs-next-wave-of-innovation-enhances-the-galaxy-xr-experience

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

XR

Innovaciones en XR para petróleo y gas: Madurez tecnológica que transforma la rentabilidad energética

Published

on

Las implementaciones maduras de Realidad Extendida (XR) en la industria del petróleo y gas han alcanzado hitos impresionantes en 2025, con reducciones de hasta 50% en downtime (tiempo de inactividad), 90% en ciclos de diseño y revisiones, y precisión cercana al 100% en reparaciones complejas, según reportes recientes de consultoras como McKinsey y Deloitte. Estas métricas, validadas en pilotos con gigantes como Shell y ExxonMobil, redefinen la economía del sector al minimizar costos operativos (estimados en $49-90 millones anuales por pozo en downtime) y maximizar la eficiencia en un mercado que proyecta $7.4 mil millones en adopción de 5G-XR para 2025.

La reducción de downtime en 50% se logra mediante mantenimiento predictivo impulsado por XR y gemelos digitales (digital twins), que simulan fallos en tiempo real integrando IoT y IA. Por ejemplo, en operaciones offshore, sensores IoT detectan fugas de gas antes de incidentes, mientras AR superpone instrucciones holográficas en headsets como HoloLens o Meta Quest 3, guiando técnicos a «arreglos perfectos en el primer intento». Un caso de LTIMindtree reportó 30% menos interrupciones en refinerías mediante troubleshooting proactivo, ahorrando millones en viajes de expertos remotos. Esto se combina con colaboración en vivo: ingenieros globales «ven» a través de las gafas del trabajador en sitio, cortando tiempos de resolución de horas a minutos y reduciendo riesgos en entornos hostiles.

En ciclos de diseño y revisiones, la caída del 90% proviene de VR para prototipado virtual, eliminando la necesidad de modelos físicos costosos. Herramientas como Exxar’s plataforma no-code MR (lanzada en GasTech 2025) superponen modelos CAD 3D en módulos LNG prefabricados, destacando desviaciones con fotos anotadas y videos, logrando estabilidad «cero drift» en dispositivos como Quest 3. Esto acelera EPC (ingeniería, procurement y construcción) en un 80-90%, según BDO Global, y reduce emisiones al optimizar procesos desde la fase de diseño. En perforación, XR con IA mejora la precisión en modelado de reservorios, aumentando tasas de extracción en 20-40% y minimizando desperdicios.

La precisión del 100% en reparaciones complejas se sustenta en AR para instrucciones paso a paso, combinada con visión por computadora para inspecciones continuas via drones y bots subacuáticos. Shell, pionera en gafas inteligentes con 5G, reporta resolución más rápida y ahorros en viajes, mientras McKinsey estima 40% menos costos de mantenimiento. Tendencias 2025 incluyen automatización en extracción (sistemas de perforación direccional con XR para colocación óptima) y blockchain para trazabilidad, todo bajo un marco de sostenibilidad net-zero.

Métrica XR en Petróleo y GasImpacto Reportado (2025)Ejemplo de Aplicación
Reducción de DowntimeHasta 50%Mantenimiento predictivo con gemelos digitales y AR en offshore.
Ciclos de Diseño90% más rápidosVR para prototipado y revisiones MR en EPC.
Precisión en Reparaciones100% en primeros intentosInstrucciones holográficas y colaboración remota.
Costos Operativos40% menosMenos viajes y desperdicios de partes.

Estas innovaciones no solo elevan la rentabilidad—proyectando un mercado digital oilfield de $20 mil millones para 2026—sino que priorizan seguridad y sostenibilidad, atrayendo talento joven en una industria en transición energética. Empresas que adopten XR integralmente podrían ver ROI en 12-18 meses, redefiniendo la resiliencia operativa.

Continue Reading

XR

Google con un plan estratégico en XR

Published

on

Un plan escalonado para dominar el mercado inmersivo

Google ha revelado recientemente una estrategia ambiciosa en tres niveles para sus gafas XR (Realidad Extendida) basadas en Android XR, con lanzamientos previstos entre 2026 y 2027, que busca posicionar a la compañía como líder en wearables inteligentes frente a competidores como Apple y Meta. Esta hoja de ruta, presentada en el evento «The Android Show: XR Edition» el 8 de diciembre de 2025, enfatiza la integración profunda de inteligencia artificial (IA) mediante Gemini, avatares realistas y actualizaciones de software que potencian experiencias inmersivas, especialmente en colaboración con Samsung para sus dispositivos Galaxy XR.

El nivel 1: Gafas audio-only (sin pantalla, 2026) marca la entrada accesible al ecosistema. Estas gafas, con diseño ligero y aspecto de anteojos convencionales, incorporan altavoces integrados, micrófonos y cámaras para interacciones manos libres con Gemini. Funciones clave incluyen reproducción de música (como YouTube Music), navegación en tiempo real con Maps, actualizaciones de servicios como Uber y traducción contextual. Colaboraciones con marcas de moda como Warby Parker y Gentle Monster aseguran estilos elegantes para uso diario, reduciendo la dependencia del smartphone. Sergey Brin, cofundador de Google, destacó en el evento que la IA actual hace que estas gafas sean «útiles sin distracciones constantes», aprendiendo de fallos pasados como Google Glass. Se espera que compitan directamente con las Ray-Ban Meta AI, ofreciendo un ecosistema abierto para desarrolladores.

El nivel 2: Gafas moniculares con microdisplay (2026) añade una pantalla discreta sobre un lente para visuales básicas, manteniendo el peso bajo (con procesadores en el teléfono conectado). Demostraciones mostraron controles de IA para tareas cotidianas, con kits de desarrollo ya disponibles para partners como Samsung y Xreal (Project Aura). Estas gafas logran un campo de visión de hasta 70 grados, con batería de 4 horas y gestos de pellizco intuitivos, integrando apps de Android XR para una transición fluida desde headsets como el Galaxy XR.

Finalmente, el nivel 3: Gafas binoculares con displays duales (2027) desbloquea la realidad mixta completa, con pantallas microproyectadas en cada ojo para renderizado de profundidad y experiencias inmersivas como avatares «Likeness» (similares a las Personas Espaciales de Apple). Actualizaciones para Galaxy XR incluyen «Travel Mode» para anclaje estable en movimiento, «PC Connect» para integración con Windows y mayor precisión en avatares. Esta progresión busca crear un «ecosistema sin fisuras» entre gafas, headsets y dispositivos Android, con énfasis en portabilidad y privacidad.

En competencia, Google aprovecha su apertura: mientras Meta retrasa sus gafas «Phoenix» a 2027 y Apple prioriza modelos sin pantalla hasta 2026, Android XR ya impulsa el Galaxy XR (lanzado en octubre 2025) con procesadores Snapdragon XR2+ Gen 2 de Qualcomm. Analistas prevén que esta estrategia podría capturar el 40% del mercado de XR wearables para 2027, impulsando ventas de Samsung y atrayendo a 500 desarrolladores iniciales. El enfoque en IA contextual (como rastreo de objetos personales) y actualizaciones over-the-air redefine las gafas como extensiones del cerebro, no solo accesorios.

Continue Reading

XR

Estándares Interoperables en el Metaverso: Cómo el Metaverse Standards Forum Revoluciona XR

Published

on

En un mundo donde la realidad extendida (XR) promete transformar la forma en que interactuamos con el digital, la fragmentación entre plataformas sigue siendo un obstáculo mayor. Imagina pasar de una experiencia en realidad virtual (VR) a una en realidad aumentada (AR) sin perder tus avatares, activos 3D o progreso. Eso es exactamente lo que busca el Metaverse Standards Forum (MSF) con sus estándares interoperables. Este consorcio no lucrativo, lanzado en 2022, une a gigantes como Microsoft, Meta, NVIDIA y Adobe para avanzar en protocolos globales para XR, reduciendo la fragmentación y fomentando un metaverso abierto e inclusivo. En esta nota, exploramos a fondo el tema, analizamos su futuro y destacamos ejemplos reales, todo optimizado para que descubras cómo estos avances impulsan la interoperabilidad en VR, AR y más.

¿Qué es el Metaverse Standards Forum y Por Qué Importa la Interoperabilidad en XR?

El Metaverse Standards Forum es un espacio colaborativo que no crea estándares por sí solo, sino que coordina esfuerzos entre organizaciones como Khronos Group (creadores de OpenXR), W3C y Open Geospatial Consortium. Su misión: acelerar el desarrollo de estándares interoperables que permitan a tecnologías disruptivas como XR trabajar en armonía, evitando silos desconectados.

La interoperabilidad es clave en XR porque el metaverso no es una sola app, sino un ecosistema de plataformas (Oculus, HoloLens, web 3D). Sin estándares comunes, los usuarios enfrentan barreras: un avatar creado en VR no se ve en AR, o un activo 3D no se renderiza en otro motor. El MSF aborda esto mediante grupos de trabajo enfocados en protocolos globales, como el intercambio de activos 3D y la gestión de identidades seguras, promoviendo transiciones fluidas y reduciendo costos de desarrollo hasta en un 50% para empresas.

Protocolos Globales para XR: De la Teoría a la Práctica

El MSF avanza en protocolos globales para XR a través de 15 grupos de trabajo activos, desde 3D Asset Interoperability (usando USD y glTF) hasta XR Device Interoperability. Estos protocolos estandarizan flujos de trabajo: por ejemplo, glTF permite exportar modelos 3D portables que se comportan igual en engines como Unity o Unreal, independientemente del dispositivo.

Un hito reciente es la Iniciativa Forum Labs (lanzada en julio de 2025), que fomenta colaboraciones pre y post-estandarización. Aquí, empresas prueban implementaciones reales, como pipelines de transmisión de contenido XR en tiempo real, asegurando que los protocolos escalen globalmente. Esto reduce la fragmentación al alinear requisitos entre industrias: gaming, moda, educación e industrial.

Grupo de TrabajoEnfoque PrincipalImpacto en Interoperabilidad
3D Asset InteroperabilityActivos USD/glTFPortabilidad de modelos 3D entre engines VR/AR
XR Device InteroperabilityAPIs y hardwareTransiciones seamless entre dispositivos (e.g., Quest a HoloLens)
Accessibility in the MetaverseInclusividad XREstándares para usuarios con discapacidades en VR/AR
Interoperable Characters/AvatarsAvatares portablesUso cross-plataforma en gaming y social

Transiciones Fluidas entre Plataformas: De VR a AR sin Fronteras

Uno de los mayores avances del MSF es habilitar transiciones fluidas entre plataformas, como pasar de un entorno VR inmersivo a AR superpuesto en el mundo real. Protocolos como OpenXR (apoyado por Khronos) permiten runtime interoperability: una app VR se adapta automáticamente a AR sin recargar assets.

Ejemplo: En un piloto del MSF, un usuario en VR diseña un avatar en una plataforma como Roblox y lo transfiere a AR en Microsoft Mesh, manteniendo animaciones y texturas intactas. Esto se logra mediante testbeds y plugfests, eventos donde se validan flujos de datos en vivo, reduciendo latencia y errores.

Reducción de la Fragmentación: Beneficios para Desarrolladores y Usuarios

La fragmentación actual en XR genera silos: Meta domina VR, Apple AR, pero sin estándares, el metaverso se divide. El MSF reduce esto coordinando mejores prácticas y herramientas open source, como guías para integración de IoT en digital twins. Resultado: menor duplicación de esfuerzos, costos reducidos y un ecosistema inclusivo. Según su Informe Anual 2024, estos esfuerzos ya han influido en estándares globales, preparando el terreno para un metaverso unificado en 2025.

Ejemplos Prácticos de Implementaciones en el Mundo Real

El MSF no se queda en teoría; sus protocolos ya se implementan:

  • Avatares Interoperables: En industrias como moda y gaming, el grupo de Characters/Avatars usa glTF para portar diseños. Ejemplo: Un vestido virtual de Gucci en Decentraland se ve en VR de Horizon Worlds sin rediseño.
  • Activos 3D en XR: Pilotos con USD permiten workflows de authoring a rendering cross-engine. En educación, un modelo 3D de anatomía creado en VR se usa en AR para clases híbridas.
  • Encuestas y Colaboraciones: En 2024, una encuesta del grupo XR Device identificó pain points como API incompatibles, llevando a recomendaciones para portabilidad de experiencias. (Post en X de WolvicXR).
  • Forum Labs en Acción: En 2025, pruebas reales de volumetric media (vídeos 3D) entre VR y AR, con socios como NVIDIA, asegurando compatibilidad en edge computing.

Estos ejemplos demuestran cómo los estándares interoperables convierten la promesa del metaverso en realidad tangible.

Análisis del Futuro: Hacia un Metaverso Abierto en 2025-2026

Mirando al horizonte, el MSF acelera hacia un metaverso interoperable en 2025 y 2026. Eventos clave como AWE 2025 y SIGGRAPH 2025 destacarán avances en OpenXR para mundos 5G/edge-driven, enfocados en transiciones VR-AR. Se espera un prototipo funcional de ópticas AR discretas para 2026, integrando IA para personalización seamless.

Desafíos: Ética y privacidad (grupos dedicados) y adopción industrial, donde el metaverso podría optimizar gemelos digitales con estándares IEC. Oportunidades: Crecimiento en Web3 y blockchain para identidades descentralizadas, con el MSF liderando pilots en 2026. En resumen, estos avances podrían multiplicar el valor del mercado XR de $50B en 2025 a $200B en 2030, priorizando inclusión y sostenibilidad.

Conclusión: Únete al Movimiento Hacia un Metaverso Interoperable

El Metaverse Standards Forum no solo avanza estándares interoperables para XR; redefine el futuro con transiciones fluidas, menos fragmentación y ejemplos inspiradores. Si eres desarrollador, empresa o entusiasta, explora su sitio para unirte a grupos de trabajo. El metaverso abierto está aquí: ¿estás listo para transitar de VR a AR sin límites?

Continue Reading

TENDENCIAS