La fotografía ha cambiado en sus más de 100 años de vida peor en las últimas décadas lo ha hecho más que en la primera mitad del siglo pasado.
El primer gran cambio vino en el paso de la fotografía analógica a la digital y si en ese momento ya creíamos estar en una gran brecha es porque no nos esperábamos lo que venía después: la fotografía social y los smartphones.
Actualmente estamos entrando en otra fase aún más disrruptiva, en la que el hardware está perdiendo poco a poco relevancia y en la que la fotografía computacional, esa en la que el software es clave, toma el relevo.
Esto es justo lo que está haciendo Google y hemos visto el resultado en el Google Pixel 2, que cuenta con la que es probablemente la mejor cámara jamás instalada en un móvil.
Ahora, en un vídeo que se ha publicado en el canal de Nat&Friends, la presentadora se introduce en las oficinas de Google para entrevistar y charlar con los responsables.
En el mismo, que está en inglés, Nat divide la explicación en varios apartados.
El hardware de la cámara
Un aspectos que no solemos tener presente es el pequeño tamaño del sensor de las cámaras de los móviles. En este caso el mismo está apoyado por seis lentes y cuenta con un
que, como seguro que ya sabéis, hace que el sensor se mueva físicamente mediante los datos del acelerómetro para compensar los movimientos de nuestra mano.
Los 12 Mpx de esta cámara tienen cierto truco ya que cada pixel está compuesto por dos subpíxeles. Esto hace que de forma limitada pueda obtener datos similares a los que obtienen dos cámaras simultáneas.
Procesamiento de imágenes
Más allá de los datos que se puedan obtener está lo que nuestro móvil pueda hacer con ellos. Esto es algo tanto o más importante que lo primero y Google ha puesto mucho esfuerzo aquí.
El sensor tiene un filtro físico que divide los píxeles en rojos, azules y verdes siendo estos últimos los más predominantes ya que es así como funciona el ojo humano.
Una vez recompuesta la imagen pasa por múltiples filtros donde se mejora la nitidez, el balance de blancos y muchos más aspectos, que hasta ahora se realizaban mayormente por hardware.
Fotografía computacional
El aplicar algoritmos a la fotografía no es algo nuevo pero cada vez tiene más relevancia. En el Google Pixel 2 se usa sobre todo en dos apartados, el HDR+ y el Modo retrato.
El HDR+ es una función que ya teníamos en los modelos anteriores pero que ahora cobra mayor importancia y da mejores resultados, haciendo que las fotos sean más parecidas a como vemos en la vida real. En este caso se usarán hasta 10 tomas diferentes las cuales se usarán para coger las zonas más correctas de cada una.
El Modo Retrato es la aproximación de Google a esta nueva tendencia, sin usar doble cámara. para ello usa un mapa de profundidad logrado por los subpíxeles del sensor y Machine Learning para saber qué tiene que desenfocar. Para ello se ha entrenado al Google Pixel 2 con casi un millón de fotografías.
Pruebas y modificaciones
Una vez obtenido los mecanismos hay que probarlos. Para ello se usan decenas de máquinas que ponen a prueba el balance de blanco, el enfoque o la velocidad de respuesta.
Todo ello para que el resultado fuera lo mejor posible. La propia Nat ha publicado un segundo vídeo realizado con el Pixel 2 sin corrección de color en unas vacaciones que llevó a cabo hace unas semanas. Un resultado espectacular.