Estamos ya llegando al fin de nuestro a los distintos componentes de hardware de las cámaras de los móviles y le llegará el turno a repasar a algunos aspectos del software, pero aún nos queda cuerda dentro de los componentes físicos y vamos a hablar de los sensores fotográficos. Ya hemos tocado las lentes súper grandes angulares, hemos hablado de los teleobjetivos y el zoom óptico sobre lentes fijas y móviles, las lentes macro y también sobre los sistemas de estabilización. Pero hablemos de negativos.
Decimos negativos porque un sensor es, de una forma muy resumida, el equivalente a lo que los negativos o carretes de las cámaras analógicas. No han nacido ni mucho menos a bordo de los móviles, por supuesto, pero éstos sí han contribuido en buena medida a su evolución, y merece la pena que dediquemos un espacio a hablar de qué son, cómo funcionan y qué tipos nos encontramos ahora en el mercado.
Así funcionan los sensores fotográficos
Ya hemos contado en alguna ocasión cómo la NASA, en su intento de miniaturizar los componentes de una cámara fotográfica para facilitar su transporte al espacio, transformó los antiguos sensores CCD en sensores CMOS. Son éstos los que tenemos hoy en día dando vueltas por todo el mercado relacionado con la fotografía y con el vídeo, y su funcionamiento, dentro de la complejidad, es más sencillo del que parece.
Un sensor fotográfico es un chip formado por pequeñas celdas, como si de un panal de abejas se tratase, encargadas de capturar la luz procedente del exterior, luz que les llega a través de la lente cuando la cámara abre el diafragma para dejarla pasar. Así funciona la fotografía, sólo que antes la luz impregnaba un negativo y ahora incide sobre un sensor que la digitaliza de forma automática.
Cada una de estas celdas es la que se llama fotosito o fotodiodo y está recubierto de un filtro de color específico que deja pasar únicamente el espectro de luz para el que está diseñado. Así, la luz se divide en rojo, verde y azul (RGB) o en rojo, amarillo y azul (RYB) y cada espectro de luz se captura de forma individual. Es lo que se conoce como la matriz de Bayer. Pero aunque la luz se divide en tres espectros de color distinto, se captura entre cuatro fotositos.
¿Por qué se hace así? El motivo es que existe un fotosito con información redundante. Las matrices RGB o RYB nunca son tan sencillas pues este nombre se usa únicamente para resumir. Hablaríamos siempre de RGGB o de RYYB. Un fotosito para el espectro de luz roja, un fotosito para el espectro de luz azul y dos fotositos para el espectro de luz verde o amarilla, según el tipo de sensor. Estos fotositos redundantes tendrían únicamente una función: capturar aún más información para aportar más luz con la que trabajar de cara a la composición fotográfica final.
La escisión entre RGGB y RYYB provocada por Huawei y Leica
El motivo de el color redudante sea el verde en los RGGB es que el ojo humano es más sensible a este color a que los otros dos en los que dividimos la luz blanca. Así, la imagen resultante acaba teniendo menos ruido y más detalle, pues la luz es la sangre de las fotografías. Pero como también hemos dicho, se puede cambiar el verde por el amarillo a la hora de fabricar los fotositos o fotodiodos, como en los Super Spectrum que Huawei (con la ayuda de Leica) puso en circulación en este 2019 a bordo de los Huawei P30 y P30 Pro.
Con la llegada de estos dos fotositos amarillos se produce la primera escisión en los tipos de sensor fotográfico en los teléfonos móviles. Por un lado tenemos los RGGB y por otro los RYYB. Estos últimos no son más que una traslación del sistema CMYK de impresión de tinta a la captura de luz, y su llegada supone un cambio en la composición de las imágenes. Los sensores dejan de funcionar de una forma aditiva a una forma sustractiva, cambiamos la luz blanca por la ausencia de luz. R+G+B = luz blanca frente a R-Y-B = negro.
El cambio introducido implica que los fotositos rojo y azul han de tener un doble procesado, pues son los únicos encargados de capturar la imagen como tal, y posteriormente se les resta el amarillo para obtener el resto de espectros de luz. Así, un conjunto de fotositos captura rojo+amarillo y el otro captura azul+amarillo. A su vez, los fotositos amarillos capturan más luz de la que pueden capturar los fotositos verdes y, sobre el papel, disponemos de mucha más información con la que componer la fotografía final.
Esto tiene un inconveniente como tal, y es que al tener que realizar muchos más cálculos a la hora de capturar cualquier fotografía, los teléfonos móviles han de contar con más potencia de procesado. Para eso, Huawei emplea las NPU para inteligencia artificial de sus procesadores, y cualquier otro fabricante que decida adoptar estos sensores tendría que seguir el mismo camino.
No todos los píxeles miden lo mismo
Consideramos que el píxel es la unidad mínima en fotografía digital pero, como hemos podido ver a la hora de la captura de las imágenes, tienen otras divisiones internas cuando nos referimos al hardware de la captura. Y dado que interviene una parte física en su captura, podemos jugar con sus tamaños y es que no todos los píxeles miden lo mismo.
Los sensores se dividen en celdas o fotositos, y éstos se agrupan en bloques de cuatro para la captura de cada píxel, así que podemos jugar con el tamaño de los fotositos para hacer los sensores más grandes o más pequeños, o colocar más píxeles en ellos. No mide lo mismo un sensor de 8 megapíxeles que uno de 64 megapíxeles, al igual que no todos los sensores de 64 megapíxeles son iguales. La razón es, simple y llanamente, que cada fabricante decide cuánta luz quiere capturar.
Por eso, los sensores suelen llevar en sus características internas las dimensiones de cada uno de sus píxeles. Aquí hablamos ya de micrones o micrómetros, y encontramos sensores de 1,22 micrones, de 1,55 micrones y hasta de 2 micrones. Esto significa que cada píxel tiene 2 micrones de lado, lo que deja un micrón de lado para cada uno de sus fotositos. A mayor tamaño, mayor captura de luz y más información. Pero dado que el tamaño dentro de un smartphone o cámara es reducido, hay que jugar con estos tamaños para ganar en megapíxeles o en captura de información. Pero los fabricantes han encontrado una solución para sortear esto.
Hablamos aquí de los píxeles fusionados a nivel de software. El Light Fusion de Huawei, el Tetracell de de Samsung o el Quad Bayer de Sony. Cada fabricante emplea un nombre para un mismo propósito: fusionar píxeles en bloques de cuatro para obtener más información a cambio de perder resolución. Es sencillo: un sensor de 48 megapíxeles emplea cuatro píxeles para crear uno, por lo que sus imágenes resultantes acaban siendo de 12 megapíxeles. Algo que, por cierto, puede activarse a voluntad desde el software de las cámaras.
Ver todos los comentarios en https://www.xatakamovil.com
VER 1 Comentario