Las cámaras de los móviles Android son cada vez mejores, pero no importa cuánto mejoren los sensores, hay limitaciones físicas que impiden obtener siempre el mejor resultado. Por eso, Google siempre se ha centrado más en mejorar los algoritmos que los sensores de los móviles Pixel.
[Google vuelve a hacer magia con tus fotos: así es la nueva función que llega a todos los Pixel]
Es fácil ver porqué. Los sensores de los teléfonos móviles tienen limitaciones de espacio que les impiden competir contra cámaras DSLR o profesionales; por lo tanto, lo lógico es intentar mejorar los datos que obtienen usando matemáticas y todo lo que sabemos de la manera en la que las imágenes se capturan. Aunque, curiosamente, el último avance no proviene de estos desarrollos de Google.
Fotos nocturnas mucho más claras
En realidad, el estudio (pdf) publicado por la Universidad de Cornell por investigadores pertenecientes a Google Research era originalmente un intento de arreglar una herramienta que no tiene nada que ver con los móviles Pixel. Se llama NeRF, y es un sintetizador de imágenes que es capaz de crear escenas tridimensionales a partir de fotografías; es un proyecto llamativo, aunque pasase algo desapercibido cuando fue presentado el pasado mes de mayo.
Durante el desarrollo de este proyecto, sus creadores se encontraron con una gran frustración: NeRF funciona mucho mejor con fotos tomadas de día o con muy buena iluminación, mientras que las fotos nocturnas o con baja luminosidad eran muy problemáticas y no daban resultados aceptables en el programa. Así que se centraron en crear RawNeRF, un algoritmo basado en Inteligencia Artificial que arreglase esas fotografías para poder crear entornos 3D más fácilmente.
Así, prácticamente sin quererlo, estos desarrolladores han conseguido crear una sorprendente solución para aclarar y eliminar imperfecciones de fotografías nocturnas. El gran culpable es el ‘ruido’, esos ‘puntitos’ que aparecen en las fotos cuando no llega suficiente luz al sensor; aunque ya hay filtros que eliminan esos puntos, lo hacen sacrificando los detalles de la foto, que termina pareciendo como si estuviese pintada por la falta de nitidez.
El logro de este proyecto ha estado en que la IA es capaz de eliminar el ruido sin sacrificar nitidez, algo que podríamos pensar que es imposible, pero que evidentemente han conseguido. De hecho, el resultado es mejor que programas dedicados específicamente a esta tarea, y eso que este no era el propósito original del proyecto. Las imágenes resultantes están renderizadas en el espacio de color HDR y por lo tanto, los usuarios no pierden la posibilidad de cambiar aspectos como la exposición o los colores.
Aunque Google aún no ha confirmado si usará esta tecnología en Android, siendo un proyecto que forma parte de Google Research, imaginamos que al menos notaremos mejoras en el futuro cuando hagamos fotos.
Te puede interesar
- Una de las herramientas mágicas del Pixel 6a para las fotos llegará a los Pixel 6
- Cómo tener el borrador mágico de Google Fotos en cualquier Google Pixel
- Google Pixel 6 Pro, análisis: reinando en la fotografía para ser un teléfono muy bien equilibrado
- La nueva app de Samsung usa IA para mejorar tus fotos como si fuese "magia"