Los Google Pixel 3 llegaron no sin pocas funciones exclusivas, especialmente en el apartado fotográfico. Una de ellas es Top Shot, anteriormente conocido como captura inteligente o Smart Capture, en inglés.
Top Shot es algo así como los Motion Photos del Google Pixel 2, pero con una diferencia importante: es capaz de elegir con inteligencia artificial cuáles son las mejores fotos de la ráfaga. Ahora Google nos ha dado más detalles sobre cómo funciona el sistema en una nueva publicación en su blog de inteligencia artificial.
Primero: hacer muchas fotos
Aunque ya conocíamos su funcionamiento a grandes rasgos, ahora tenemos todos los detalles. Top Shot está activado de forma predeterminada en la cámara de los Google Pixel 3, y el primer paso es, obviamente, grabar una ráfaga.
Concretamente, son 90 imágenes las que se analizan abarcando desde 1,5 segundos antes y 1,5 segundos después de la pulsación del disparador. El sistema guardará en alta resolución la foto original -cuando se pulsó el disparador- y hasta dos alternativas elegidas por el sistema
Lo mejor es que todo este proceso sucede en el teléfono, sin que se envíe ninguna información a la nube de Google. Aquí sale a la ayuda el chip Visual Core para que el procesamiento en HDR+ de estas fotos alternativas sea lo más rápido posible, sin apenas latencia. El sistema está optimizado para tener un consumo de batería limitado.
Cómo sabe Google qué foto es mejor
Ahora bien, ¿cómo sabe un Google Pixel que una foto de la ráfaga de 90 es mejor que la que equivale exactamente a la pulsación del disparador? La respuesta rápida es obviamente inteligencia artificial, pero si queremos una explicación más extendida, se basa en un sistema de puntuaciones.
Básicamente, cada fotograma de la instantánea recibe una puntuación a partir de un gran número de factores como si la foto está borrosa, cómo es la iluminación, si se detecta una sonrisa, si los ojos están abiertos, las expresiones faciales de sorpresa o diversión.
Top Shot prioriza la interpretación de las imágenes, pero cuando no hay ninguna en la imagen, se tienen en cuenta otros factores como si hay un objeto en movimiento, datos de sensores y giroscopio y puntuaciones de autoexposición, balance de blancos y enfoque.
La "máquina" fue entrenada también con la ayuda de colaboradores humanos. Cientos de voluntarios, que de una ráfaga de 90 imágenes tuvieron que determinar cuáles eran mejores y por qué.
Más información | Google
Ver todos los comentarios en https://www.xatakandroid.com
VER 6 Comentarios