Puede que ni siquiera te hayas dado cuenta pero, con alta probabilidad, tu teléfono no muestra la misma imagen en la vista previa (antes de tomarla) que en la galería. Esto se debe a que la mayor parte del procesado de imagen en Android se hace tras tomar la foto, lo que ocasiona que, hasta que la foto no está ya procesada en la galería, no podemos ver cómo es realmente. Google acabó con este problema el año pasado con su Live HDR, una función que permite cómo va a quedar la foto de forma muy exacta antes de tomarla.
Procesar el HDR es algo muy complejo, de hecho, si te fijas, es muy probable que tengas un teléfono que en la vista previa muestra cielos y elementos quemados, algo que luego se solventa cuando tienes la fotografía final. Google ha querido explicar cómo funciona el HDR en tiempo real dentro de la vista previa, todo un ejercicio de fotografía computacional bastante curioso.
Así funciona el HDR "en vivo" de los Google Pixel 4
Google ha querido explicar, aprovechando el lanzamiento del reciente Google Pixel 4a, cómo funciona su HDR en vivo. Cuentan que hasta hace poco no eran capaces de calcular en tiempo real el HDR, lo que impedía verlo en el visor. Con el Pixel 4 esto se logró, y esta tecnología se ha podido aplicar también en el Pixel 4a. Se trata de la tecnología Live HDR+ de Google, que proporciona en la vista previa una aproximación prácticamente idéntica a la de la fotografía final.
Procesar el HDR no es algo sencillo. Google explica que, cuando pulsamos el obturador del Pixel, se capturan de 3 a 15 imágenes con distintas exposiciones. La magia del HDR de Google es que su algoritmo aplica una curva de tonos distinta a cada imagen, lo que permite reasignar los píxeles de cada imagen dentro de la imagen final. Para que lo entiendas de forma sencilla, el HDR de Google toma los valores de distintas fotografías para combinarlos en una fotografía final con el máximo rango dinámico. Se procesan los datos de las altas y bajas luces, se combinan los píxeles de las distintas imágenes y se obtiene el resultado final.
El problema aquí, como explica Google, es que el HDR+ es un proceso lento, por lo que no es fácil llevar esto a la vista previa. Es difícil procesar la curva de tonos de cada una de las imágenes que va a tomar el teléfono en tiempo real, así que la solución de Google para Live HDR+ es realizar este proceso a pequeña escala.
Así, Google realiza el mismo proceso que hemos descrito, pero en lugar de aplicarlo a toda la escena, selecciona pequeñas parte de ella, una división en mosaicos. Con esto se logra que el teléfono se haga una idea del procesado que va a hacer, pero al tener que trabajar solo con una pequeña parte de la fotografía, es capaz de mostrar en la vista previa este resultado.
Este procesado se hace principalmente mediante la GPU, y para calcular las curvas de forma local se utiliza un red neuronal llamada HDRNet, que permite utilizar imágenes de baja resolución para predecir curvas en un visor de alta resolución (la vista previa que vemos en la pantalla).
La guinda del pastel llega con una función que tan solo Google ha sido capaz de implementar hasta la fecha: el HDR de doble exposición. Los Pixel 4 no solo son capaces de mostrar el HDR en la vista previa, sino que permiten ajustarlo en tiempo real. No se trata tan solo del clásico botón para subir o bajar el brillo de la imagen, sino que son capaces de trabajar de forma independiente con las altas luces y las bajas luces de la imagen, mediante dos pequeños controle independientes.
Ver 2 comentarios