
¿Qué es el sensor?
Da igual si es de una cámara réflex, compacta o mirrorless, el sensor es la parte que se encarga de captar la imagen que le llega a través del objetivo. Equivalente a lo que fue la película en las cámaras analógicas.
Los sensores son dispositivos de capturan la luz de forma lineal, lo cual condicionan mucho su respuesta a la exposición de la luz.
Tipos
El tipo de sensor y su tamaño condicionan mucho la calidad de la imagen resultante, no solo el tamaño de archivo que también, sino aspectos como el tamaño y la forma de los píxeles, la profundidad de color en bits, el rango dinámico y la respuesta al ruido en largas exposiciones.
Actualmente en el mercado todas las cámaras incorporan un sensor CMOS pero existen otros tipos de sensores:
- CCD: Dispositivo de carga acoplada de sus siglas en inglés (Charge Coupled Device)
- CMOS: Semiconductor complementario de óxido metálico de sus siglas en inglés (Complementary Metal Oxide Semiconductor)
- Foveon X3: Es una marca especial de sensores formado por tres capas apiladas verticalmente. Cada elemento de la matriz del sensor está formado por tres capas cada una de las cuales es sensible a uno de los colores primarios (RGB).
Principales características
Estas son las principales características a tener en cuenta a la hora de elegir una cámara u otra.
Tamaño y factor de recorte
Los sensores pueden ser de diferentes tamaños, por lo que pueden tener un factor de recorte o multiplicación, sobre la imagen que los objetivos proyectan.
El factor de multiplicación de la distancia focal no es más que un concepto. Es el valor numérico por el que ha de multiplicarse la distancia focal de un objetivo para determinar la distancia focal equivalente respecto a una cámara de formato completo o full frame (24 x 36mm)
Dicho de otra forma, si el sensor es menor de 24x36mm (Full Frame) el círculo de la imagen proyectada por el objetivo no se registra completamente en el sensor, se produce un recorte equivalente al uso de una focal mayor, multiplicando la focal real por un factor de 1.3x, 1.5x, 1.6x, etc
En la siguiente imagen podrás ver de una forma visual qué es esto del factor de recorte. Un sensor de tamaño completo o full frame con dimensiones 24 x 36 mm (marcado con un rectángulo azul en la imagen) cubre completamente el círculo de la imagen que proyecta un objetivo de una determinada longitud focal. En cambio un sensor más pequeño por ejemplo APS-C con dimensiones de 23,6 x 15,60 mm (marcado con el rectángulo de color rojo) cubre menos área de este círculo. Por tanto el factor de recorte sería 36 mm/23,6 mm = 1,525
Este factor de recorte afecta negativamente en el uso de grandes angulares, cuyo ángulo de visión más abierto se pierde, es decir una focal de 15-30 mm en FF equivaldría a 23-46 mm si montamos ese mismo objetivo en una cámara APS-C (1.52x).
Si quisiéramos abarcar el mismo ángulo de visión que abarca ese objetivo 15-30 mm pero en un sensor APS-C (1.52X) tendríamos que buscar una focal 10-20 mm. Este tipo de lentes suelen tener una calidad menor y un hándicap de fabricación por su angular extremo.
Píxeles
Un sensor es una matriz de píxeles, cada uno de ellos contiene uno o varios fotodetectores que miden la intensidad de la luz. Los fotodetectores o fotodiodos son dispositivos monocromáticos, es decir no distinguen las diferentes longitudes de onda de la luz por tanto no dan información relativa al color.
Para solventar este problema los fabricantes de sensores (Sony en su gran mayoría) colocan sobre el sensor un filtro de colores CFA de sus siglas en inglés Color Filter Array. Hay diversos tipos de estos filtros, pero el más usado es el Bayer, que distingue en los componentes rojo, verde y azul.
El patrón Bayer está formado por mosaicos 2 x 2, que siguen el esquema RGBG (Rojo, Verde, Azul, Verde). Hay dos filtros verdes por cada azul y rojo, porque el canal verde aporta mayor información lumínica que el resto de canales.
Son los microprocesadores de la cámara los que interpretan la información de color aplicando un algoritmo de interpolación que minimice la aparición de artefactos de color y forman la imagen final.
Estos algoritmos de interpolación generan en la imagen final un efecto llamado moiré cromático o muaré en español, producido por la disposición regular de los píxeles en filas y columnas. Para mitigar este efecto los fabricantes colocan un elemento conocido como filtro de paso bajo o filtro antialiasing.
Además de estos dos filtros, existe uno más, encargado de dejar pasar solo las longitudes de onda de la luz visibles al ojo humano, eliminando del espectro la luz infrarroja que puedan captar los fotoreceptores.
La disposición de todos estos filtros correctores influye mucho en la calidad resultante de la imagen. Por otro lado la colocación de otros elementos electrónicos que limitan el tamaño del fotoreceptor y la profundidad a la que se encuentra el mismo, por eso sobre el filtro Bayer se colocan unas microlentes que actúan como embudo de la luz.
Rango Dinámico
El rango dinámico es la capacidad medida en diafragmas, que tiene el sensor para obtener la mayor cantidad de tonos de gris entre los tonos extremos (Blancos o altas luces y Negros o sombras profundas), por tanto el rango dinámico es la gama tonal máxima que nuestro sensor es capaz de recoger.
Todos los tonos que reciba nuestro sensor pero que escapen a ese rango dinámico se plasmarán como blancos o negros sin detalle.
Por ejemplo cuando nos dispongamos a fotografiar una escena con una cámara cuyo sensor tiene un buen rango dinámico, pongamos 9 diafragmas, puede suceder:
- Que los tonos que aparecen en la escena sean menores y el sensor plasme todos los tonos de la escena con detalle. Es decir el histograma no aparecerá lleno.
- Que los tonos que aparecen en la escena tengan un rango de 12 diafragmas. En este caso el sensor se verá sobrepasado y no será capaz de plasmar todos los tonos que nuestro ojo si es capaz de apreciar, es decir el histograma estará desbordado por uno o los dos extremos. En estos casos nos veremos obligados a capturar en bracketing u horquillado.
Relación señal-ruido
Como ya he dicho el sensor está compuesto por una malla de miles de píxeles en los que se recibe la imagen formada por la óptica del objetivo. Cuanto mayor sea la cantidad de píxeles, más información podremos captar, independientemente de cuál sea la calidad de esta información.
Por otro lado la cantidad de ruido en la señal depende de varios factores:
- El primero de ellos está determinado por el tamaño de los fotodiodos/fotocaptadores del sensor. Cada uno de ellos genera una corriente eléctrica en presencia de la luz, esta corriente será luego convertida en datos numéricos que se almacenarán en forma digital en la memoria de la cámara y darán origen a cada uno de los píxeles de la imagen. En esa corriente eléctrica hay una cierta cantidad ruido aleatorio que se conoce como Shot noise o Photon noise (ruido de luminancia).
La sensibilidad de cada uno de los elementos del sensor es fija, es decir obtendremos la mejor relación señal-ruido con el valor de ISO nativo. Los valores ISO superiores no se obtienen por incremento de la sensibilidad de los fotocaptadores si no una amplificación de la señal eléctrica que estos emiten.
- Conversión analógica digital. Cuando la señal eléctrica de los fotocaptadores es transformada en el sistema binario para su almacenaje en la tarjeta de memoria de la cámara también se produce un ruido constante, denominado ruido de lectura.
- Con la temperatura del sensor también se produce ruido, conocido como ruido térmico o de crominancia. Este ruido térmico es más evidente cuanto más prolongado sea el tiempo de exposición o disparo.
Aún no hay comentarios, ¡añada su voz abajo!