Connect with us

XR

​Building Information Modeling (BIM)

​Building Information Modeling (BIM)

Published

on

Photo: Shutterstock

BIM es una metodología digital que permite diseñar, construir y gestionar edificaciones e infraestructuras mediante modelos tridimensionales inteligentes. Estos modelos integran información detallada sobre materiales, costos, cronogramas y mantenimiento, facilitando una gestión eficiente durante todo el ciclo de vida del proyecto.

BIM y su integración con Realidad Aumentada (AR) y Realidad Virtual (VR)

La combinación de BIM con tecnologías de AR y VR está revolucionando la industria de la construcción:econova-institute.com

  • Realidad Aumentada (AR): Permite superponer modelos BIM sobre el entorno físico real mediante dispositivos como tablets o gafas inteligentes. Esto facilita la detección de errores en tiempo real y mejora la precisión durante la construcción.Digital Bricks

  • Realidad Virtual (VR): Ofrece experiencias inmersivas que permiten recorrer virtualmente un proyecto antes de su construcción, mejorando la toma de decisiones y la comunicación con los clientes.

Estas tecnologías, integradas con BIM, mejoran la visualización de proyectos, facilitan la colaboración entre equipos y optimizan la planificación al permitir la detección temprana de errores.Lean Construction Mexico+1Digital Bricks+1

 Avances recientes en BIM para 2025

En 2025, BIM continúa evolucionando con innovaciones que potencian su eficacia:

1. Gemelos Digitales (Digital Twins):

Los gemelos digitales son réplicas virtuales de activos físicos que, al integrarse con BIM y datos en tiempo real, permiten monitorear y optimizar el rendimiento de las instalaciones, anticipar mantenimientos y prolongar la vida útil de los activos.econova-institute.com+1seccion720.com+1

2. Inteligencia Artificial (IA) y Aprendizaje Automático:

La IA se integra en BIM para mejorar la eficiencia en el diseño y la gestión de proyectos. Por ejemplo, se han desarrollado sistemas que analizan grandes volúmenes de datos de uso para recomendar comandos en tiempo real, optimizando los flujos de trabajo y reduciendo errores.arXiv

3. Captura de Realidad Avanzada:

Herramientas como Cloud2BIM automatizan la conversión de nubes de puntos en modelos BIM, agilizando la digitalización de estructuras existentes y mejorando la precisión en proyectos de renovación.arXiv

BIM en la práctica: un ejemplo aplicado

Imaginemos un proyecto de construcción en Vicente López, Buenos Aires:

  1. Diseño: Se crea un modelo BIM detallado que incluye todos los aspectos del edificio.

  2. Visualización: Mediante VR, los stakeholders pueden recorrer virtualmente el edificio, identificando posibles mejoras antes de la construcción.

  3. Construcción: Con AR, los equipos en obra superponen el modelo BIM sobre la construcción real, asegurando que cada elemento se ubique correctamente y detectando desviaciones al instante.

  4. Mantenimiento: Una vez construido, el modelo BIM sirve como referencia para operaciones y mantenimiento, facilitando la gestión del edificio a lo largo del tiempo.

BIM, potenciado por tecnologías como AR, VR e IA, está transformando la manera en que concebimos, construimos y gestionamos edificaciones, ofreciendo soluciones más eficientes, precisas y sostenibles para la industria de la construcción.

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

XR

Google liberó la Preview 3 del SDK para Android XR, abriendo el desarrollo para AI Glasses

Published

on

Android XR SDK Developer Preview 3

Google ha lanzado la Developer Preview 3 del Android XR SDK, abriendo oficialmente el desarrollo para AI Glasses (gafas inteligentes con IA, con o sin pantalla display) además de headsets y wired XR glasses.

Nuevas librerías Jetpack clave:

  • Jetpack Compose Glimmer: Toolkit de UI optimizado para experiencias «glanceable» (rápidas, minimalistas y no intrusivas) en gafas con display transparente. Enfocado en claridad, legibilidad y mínima distracción.
  • Jetpack Projected: Permite extender apps Android existentes desde un teléfono anfitrión a las gafas, con acceso seamless a cámara, micrófono, altavoces y display (si lo tiene).

Integración con IA:

  • Soporte para Gemini Live API: Habilitando conversaciones voz a voz en tiempo real y naturales con Gemini, ideal para asistentes multimodales.

Mejoras técnicas:

  • Expansión de ARCore for Jetpack XR: Mejoras en Motion Tracking, Geospatial API (wayfinding preciso), Visual Positioning Service y mayor estabilidad general en APIs inmersivas.
  • Emulador dedicado para AI Glasses en Android Studio.

Expansión del ecosistema:

  • Partnerships confirmados con Samsung (Galaxy XR headset), Warby Parker y Gentle Monster (gafas AI estilizadas y ligeras para uso todo el día, lanzamiento en 2026).
  • Project Aura de XREAL: Primeras wired XR glasses portátiles con optical see-through, 70° FOV y experiencias inmersivas ligeras.

Impacto para developers: Ahora es posible crear apps spatiales y augmentadas para dispositivos ligeros y cotidianos, no solo headsets pesados. Android XR se posiciona como plataforma abierta y accesible, compitiendo directamente con Apple Vision Pro y Meta Quest, pero con enfoque en IA integrada (Gemini) y ecosistema Android masivo.

2. Nuevas features para Samsung Galaxy XR

Anunciadas en paralelo con el SDK Preview 3 (disponibles en beta o rollout inmediato):

  • PC Connect: Streaming de alta fidelidad de Windows PC (app individual o desktop completo) al headset, ideal para productividad, gaming y multitasking inmersivo.
  • Travel Mode: Estabilización de tracking para uso seguro en movimiento (aviones, trenes, autos), convirtiendo viajes en cine personal o workspace estable.
  • Likeness (beta): Avatares fotorealistas generados desde el teléfono, con tracking facial y de manos en tiempo real para videollamadas más naturales (compatible con Google Meet).

Para devs: Estas features abren puertas a apps híbridas de productividad, colaboración remota y experiencias «on-the-go» en el headset Galaxy XR.

3. Otras menciones rápidas

  • Avances en generación AI de mundos 3D (prototipado rápido en Unity/Unreal con física realista y audio estereoscópico).
  • Casos de uso reales: AR en cirugías hospitalarias y VR terapéutica para niños en contextos difíciles.

La semana de diciembre 2025 ha estado dominada por Google acelerando XR hacia gafas AI accesibles y cotidianas, democratizando el spatial computing más allá de gaming o entretenimiento premium. Estamos en los inicios de una computación espacial masiva y multimodal.

Para developers: Cómo empezar

  • Descarga el Android XR SDK Developer Preview 3 y prueba el emulador en Android Studio (Canary recomendado).
  • Explora samples para immersive (headsets/wired glasses) y augmented experiences (AI glasses).
  • Usa herramientas familiares: Jetpack Compose, Unity, OpenXR o WebXR.
  • Feedback es clave: Reporta issues en el portal oficial ya que es preview.

¿Quieres más detalles sobre algún partnership o feature específica?

Fuentes (actualizadas a diciembre 2025)

9to5Google: Cobertura de anuncios XR diciembre 2025 – https://9to5google.com/2025/12/08/android-xr-glasses-displays-2026/

Android Developers Blog: Build for AI Glasses with Android XR SDK Developer Preview 3 – https://android-developers.googleblog.com/2025/12/build-for-ai-glasses-with-android-xr.html

Android Developers: Android XR hub – https://developer.android.com/develop/xr

Google Blog: The Android Show XR Edition updates – https://blog.google/products/android/android-show-xr-edition-updates/

Samsung News: Connected, Creative, Expanded (Galaxy XR features) – https://news.samsung.com/global/connected-creative-expanded-android-xrs-next-wave-of-innovation-enhances-the-galaxy-xr-experience

Continue Reading

XR

Innovaciones en XR para petróleo y gas: Madurez tecnológica que transforma la rentabilidad energética

Published

on

Las implementaciones maduras de Realidad Extendida (XR) en la industria del petróleo y gas han alcanzado hitos impresionantes en 2025, con reducciones de hasta 50% en downtime (tiempo de inactividad), 90% en ciclos de diseño y revisiones, y precisión cercana al 100% en reparaciones complejas, según reportes recientes de consultoras como McKinsey y Deloitte. Estas métricas, validadas en pilotos con gigantes como Shell y ExxonMobil, redefinen la economía del sector al minimizar costos operativos (estimados en $49-90 millones anuales por pozo en downtime) y maximizar la eficiencia en un mercado que proyecta $7.4 mil millones en adopción de 5G-XR para 2025.

La reducción de downtime en 50% se logra mediante mantenimiento predictivo impulsado por XR y gemelos digitales (digital twins), que simulan fallos en tiempo real integrando IoT y IA. Por ejemplo, en operaciones offshore, sensores IoT detectan fugas de gas antes de incidentes, mientras AR superpone instrucciones holográficas en headsets como HoloLens o Meta Quest 3, guiando técnicos a «arreglos perfectos en el primer intento». Un caso de LTIMindtree reportó 30% menos interrupciones en refinerías mediante troubleshooting proactivo, ahorrando millones en viajes de expertos remotos. Esto se combina con colaboración en vivo: ingenieros globales «ven» a través de las gafas del trabajador en sitio, cortando tiempos de resolución de horas a minutos y reduciendo riesgos en entornos hostiles.

En ciclos de diseño y revisiones, la caída del 90% proviene de VR para prototipado virtual, eliminando la necesidad de modelos físicos costosos. Herramientas como Exxar’s plataforma no-code MR (lanzada en GasTech 2025) superponen modelos CAD 3D en módulos LNG prefabricados, destacando desviaciones con fotos anotadas y videos, logrando estabilidad «cero drift» en dispositivos como Quest 3. Esto acelera EPC (ingeniería, procurement y construcción) en un 80-90%, según BDO Global, y reduce emisiones al optimizar procesos desde la fase de diseño. En perforación, XR con IA mejora la precisión en modelado de reservorios, aumentando tasas de extracción en 20-40% y minimizando desperdicios.

La precisión del 100% en reparaciones complejas se sustenta en AR para instrucciones paso a paso, combinada con visión por computadora para inspecciones continuas via drones y bots subacuáticos. Shell, pionera en gafas inteligentes con 5G, reporta resolución más rápida y ahorros en viajes, mientras McKinsey estima 40% menos costos de mantenimiento. Tendencias 2025 incluyen automatización en extracción (sistemas de perforación direccional con XR para colocación óptima) y blockchain para trazabilidad, todo bajo un marco de sostenibilidad net-zero.

Métrica XR en Petróleo y GasImpacto Reportado (2025)Ejemplo de Aplicación
Reducción de DowntimeHasta 50%Mantenimiento predictivo con gemelos digitales y AR en offshore.
Ciclos de Diseño90% más rápidosVR para prototipado y revisiones MR en EPC.
Precisión en Reparaciones100% en primeros intentosInstrucciones holográficas y colaboración remota.
Costos Operativos40% menosMenos viajes y desperdicios de partes.

Estas innovaciones no solo elevan la rentabilidad—proyectando un mercado digital oilfield de $20 mil millones para 2026—sino que priorizan seguridad y sostenibilidad, atrayendo talento joven en una industria en transición energética. Empresas que adopten XR integralmente podrían ver ROI en 12-18 meses, redefiniendo la resiliencia operativa.

Continue Reading

XR

Google con un plan estratégico en XR

Published

on

Un plan escalonado para dominar el mercado inmersivo

Google ha revelado recientemente una estrategia ambiciosa en tres niveles para sus gafas XR (Realidad Extendida) basadas en Android XR, con lanzamientos previstos entre 2026 y 2027, que busca posicionar a la compañía como líder en wearables inteligentes frente a competidores como Apple y Meta. Esta hoja de ruta, presentada en el evento «The Android Show: XR Edition» el 8 de diciembre de 2025, enfatiza la integración profunda de inteligencia artificial (IA) mediante Gemini, avatares realistas y actualizaciones de software que potencian experiencias inmersivas, especialmente en colaboración con Samsung para sus dispositivos Galaxy XR.

El nivel 1: Gafas audio-only (sin pantalla, 2026) marca la entrada accesible al ecosistema. Estas gafas, con diseño ligero y aspecto de anteojos convencionales, incorporan altavoces integrados, micrófonos y cámaras para interacciones manos libres con Gemini. Funciones clave incluyen reproducción de música (como YouTube Music), navegación en tiempo real con Maps, actualizaciones de servicios como Uber y traducción contextual. Colaboraciones con marcas de moda como Warby Parker y Gentle Monster aseguran estilos elegantes para uso diario, reduciendo la dependencia del smartphone. Sergey Brin, cofundador de Google, destacó en el evento que la IA actual hace que estas gafas sean «útiles sin distracciones constantes», aprendiendo de fallos pasados como Google Glass. Se espera que compitan directamente con las Ray-Ban Meta AI, ofreciendo un ecosistema abierto para desarrolladores.

El nivel 2: Gafas moniculares con microdisplay (2026) añade una pantalla discreta sobre un lente para visuales básicas, manteniendo el peso bajo (con procesadores en el teléfono conectado). Demostraciones mostraron controles de IA para tareas cotidianas, con kits de desarrollo ya disponibles para partners como Samsung y Xreal (Project Aura). Estas gafas logran un campo de visión de hasta 70 grados, con batería de 4 horas y gestos de pellizco intuitivos, integrando apps de Android XR para una transición fluida desde headsets como el Galaxy XR.

Finalmente, el nivel 3: Gafas binoculares con displays duales (2027) desbloquea la realidad mixta completa, con pantallas microproyectadas en cada ojo para renderizado de profundidad y experiencias inmersivas como avatares «Likeness» (similares a las Personas Espaciales de Apple). Actualizaciones para Galaxy XR incluyen «Travel Mode» para anclaje estable en movimiento, «PC Connect» para integración con Windows y mayor precisión en avatares. Esta progresión busca crear un «ecosistema sin fisuras» entre gafas, headsets y dispositivos Android, con énfasis en portabilidad y privacidad.

En competencia, Google aprovecha su apertura: mientras Meta retrasa sus gafas «Phoenix» a 2027 y Apple prioriza modelos sin pantalla hasta 2026, Android XR ya impulsa el Galaxy XR (lanzado en octubre 2025) con procesadores Snapdragon XR2+ Gen 2 de Qualcomm. Analistas prevén que esta estrategia podría capturar el 40% del mercado de XR wearables para 2027, impulsando ventas de Samsung y atrayendo a 500 desarrolladores iniciales. El enfoque en IA contextual (como rastreo de objetos personales) y actualizaciones over-the-air redefine las gafas como extensiones del cerebro, no solo accesorios.

Continue Reading

TENDENCIAS