ARCore es la plataforma de Google para crear experiencias de realidad aumentada. Su principal rival es el ARKit de Apple, y la compañía con sede en Mountain View suele aprovechar el Google I/O para presentarnos las novedades que llegarán a esta plataforma a lo largo del año.
Como hemos podido ver en su blog, AR Core recibirá novedades relacionadas con las imágenes aumentadas y la forma de estimar la luz, así como nuevas herramientas para integrar esta tecnología dentro del propio navegador del smartphone.
ARCore promete experiencias más interactivas y realistas
Ayer mismo te contamos cómo Google empezaría a introducir la realidad aumentada en la búsqueda de Google, para poder trasladar objetos 3D vistos en la web a lo que ve nuestra cámara. De esto hablaremos más adelante, porque esta es solo una parte de las mejoras que se incluirán en ARCore.
Google nos habla a su vez de mejoras de las propias imágenes aumentadas. Un mejor comportamiento en las imágenes es básico para añadir realismo a las mismas. El primer objetivo de Google para con ellas, es el de "darle vida" a las imágenes 2D y 3D que creamos con Lens o que aparecen en la web.
En el GIF de muestra, podemos apreciar cómo será posible que estos objetos virtuales sean capaces de rastrear objetos reales en movimiento. Esto permite experiencias de realidad aumentada más completas, y abre las puertas asimismo a mejoras dentro del mundo del videojuego AR.
Por otro lado, Google nos habla de las mejoras en la estimación de luz. Para ello, ha transmitido el mismo principio que lleva años usando en sus Google Pixel, mejorar el HDR. Esto se traduce en que su API de estimación de luz ahora cuenta con este modo, algo que permite mejorar la iluminación de los objetos, y hacer de sus texturas algo bastante más realista.
Este HDR ambiental (así es cómo han querido llamarlo) que Google ha añadido a ARCore, utiliza algoritmos de aprendizaje automático para resolver los problemas de iluminación que puede tener cualquier objeto en 3D.
Gracias a la base de datos con la que ya cuenta el HDR Google, desde la compañía aseguran que son capaces de iluminar objetos digitales como si fuesen objetos físicos, incluso aunque estos estén en movimiento. Esta tecnología para mejorar el rango dinámico de los objetos digitales estará compuesta de tres API.
- Luz direccional principal: se encarga de que cada sombra esté ubicada en la dirección correcta
- Armónicos esféricos ambientales: en este paso, similar al de subexposición en el HDR tradicional, se modela la iluminación ambiental desde todas las direcciones
- HDR Cubemap: se encarga de añadir reflejos a la imagen
Por último, Google nos habla de Scene Viewer, su solución para que acceder a los modos AR sea algo más sencillo, y la que más quisieron destacar en el I/O. Esta herramienta está pensada para que los desarrolladores puedan añadir ciertos atributos a sus sitios web, logrando así que los usuarios podamos acceder a la realidad aumentada desde el navegador.
Por parte de Google, esta función debería estar disponible en el navegador móvil a finales de año. No obstante, su presencia a lo largo de los distintos sitios web dependerá en gran parte del trabajo que hagan los desarrolladores implementando o no esta posibilidad en sus webs.
Vía | Blog de Google