Google, al igual que otras empresas tecnológicas, están constantemente trabajando en nuevas tecnologías que se trasladen a sus productos de consumo. En esta ocasión, la compañía explora como mejorar las fotos que se realizan con los móviles, con una nueva tecnología que eliminaría automáticamente el ruido que se genera en las imágenes.
Este nuevo sistema basado en campos de radiación neuronal se presentó por parte de Google Research en la conferencia CVPR, que estuvo centrada en RawNeRF que es de lo que hemos conocido muchos más detalles en el día de hoy.
Google quiere eliminar el ruido en las imágenes de noche
Los campos de radiación neuronal, o NeRF, son redes neuronales que tienen la capacidad de partiendo de una imagen en 2D, crear una escena 3D automáticamente. En este caso, la aplicación que le ha dado Google es la de mejorar las fotografías que se toman en ambientes donde hay una escasa luminosidad. Y para poder hacer esto, la cámara 'simplemente' va a combinar diferentes puntos de vista para reconstruir la escena gracias a su procesador y dar un resultado nítido.
Lo que se ha podido detectar en las comparativas ofrecidas por Google con esta tecnología es que los resultados son realmente buenos. Lo primero de todo es que se consigue eliminar prácticamente todo el ruido de la imagen, que es muy característico cuando se hacen fotografías en un ambiente oscuro.
Esto se debe a que RawNeRF utiliza las imágenes RAW (de máxima calidad) para poder limpiar este ruido, haciendo las imágenes completamente legibles. Además de esto se recuperan los colores y los detalles más precisos. Aunque Google quiere detallar que esta es una tecnología que va a ir mucho más allá de eliminar ruido, mejorando los detalles que se ofrecen para dar un efecto bokeh mucho más preciso.
Para ello, Google ha publicado también un vídeo de seis minutos que trata de demostrar todo lo que puede hacer RawNeRF en un dispositivo. En lo que respecta a la parte práctica, los usuarios únicamente deberíamos hacer capturas en formato RAW que ocupan mucho más espacio y se combinaría con otras imágenes. Esto es algo que hace Google Fotos ya con la réplica de los movimientos 3D.
Actualmente, esta es una tecnología que está en desarrollo. Esto quiere decir que estos son los resultados de una investigación que puede quedar en un cajón o seguir adelante. En el caso de que funcione, es posible que en unos años se vea implementada en todos los dispositivos móviles como una característica extra en su sistema de cámaras, y puede que mucho más allá de los Google Pixel.
Ver 1 comentarios