You are on page 1of 9

Análisis de cámaras de video para satélites

Jarvik Jesus Gamarra Álvarez


Paul Dremyn Gomez Chong
December 29, 2008

Abstract
Este documento servirá como referencia para la adquisicion de una
cámara de video ideal para el proyecto del nanostelite del Centro de
Tecnologı́as de Información y comunicación de la Universidad Nacional
de Ingenierı́a y puede publicarse en cualquier medio, manteniendo los
créditos a sus autores.

Contents

1 Conceptos Preliminares
1.1 ¿Qué se entiende por fotografı́a digital?
La fotografı́a digital se basa en la captura de una imagen y su almacenamiento
en un fichero que se mantendrá invariable a lo largo del tiempo, con lo que
la calidad de la imagen no disminuirá nunca. La reproducción de esa imagen
almacenada en un soporte digital puede ser duplicada tantas veces como se
desee, produciendo siempre una copia con la misma calidad que la imagen
original.

La luz que detecta el objetivo de la cámara llega hasta el sensor de ima-


gen, denominado CCD o CMOS. La luz incidente genera una pequeña señal
eléctrica a cada receptor, que posteriormente, esta señal se transformará en
datos digitales por el conversor ADC, como una serie de cadenas de nḿeros
(ceros y unos), denominados dı́gitos binarios. Estos números binarios (O,1),

1
se representan como pequeños cuadraditos, en forma de mosaico individual
denominados pı́xeles.

1.2 Sistema binario y funcionamiento


La información que procede del sensor de una cámara digital son datos
analógicos. Para que estos datos se puedan almacenar en la tarjeta de memo-
ria y que el ordenador pueda interpretarlos se deben convertir a formato
binario ”bytes”.

1.3 Pixeles
En la fotografı́a digital, el elemento que en conjunto forma una imagen es el
pı́xel. Cada pı́xel ”cuadrito” contiene la información del color de esa pequeña
porción. El pı́xel solo puede ser de color rojo, verde o azul o la mezcla de los
tres. Un pı́xel, solo tiene un color no puede tener dos colores.

1.4 Resoluciones
La resolución expresa el número de pfı́xeles que forman una imagen de mapa
de bits. La calidad de una imagen, también depende de la resolución que
tenga el dispositivo que la capta. El número de pı́xeles que contenga una
imagen dependen de cuántos pı́xeles utilice el sensor CCD o CMOS de la
cámara para captar la imagen. La resolución de una imagen digital se expresa
multiplicando su anchura por la altura en pantalla. Por ejemplo la imagen
de 1200 x 1200 pı́xeles = 1.440.000 pı́xeles, expresado en MP megapı́xel es
igual a 1,4 Mp.
Conviene tener en cuenta que 1 Megapı́xels = 1millon de pı́xeles.

2 El sensor de Imagen
El sensor de la imagen es como la pelı́cula fotográfica que utiliza la cámara
analógica. El sensor de imagen esta compuesto por millones de pequeños
semiconductores de silicio, los cuales captan los fotones (elementos que com-
ponen la luz, la electricidad). A mayor intensidad de luz, más carga eléctrica
existirá. Estos fotones desprenden electrones dentro del sensor de imagen,
los cuales se transformarán en una serie de valores (datos digitales) creando

2
un pı́xel. Por lo tanto cada célula que desprenda el sensor de imagen se
corresponde a un pı́xel, el cual, formará cada punto de la imagen.

2.1 Clases de sensores


sensor CCD
sensor CMOS

2.2 El color en el sensor


Los sensores de imagen no pueden captar las imágenes en color, son monócromos,
es decir sólo pueden memorizar la intensidad de la luz pero sin color. Las
células que se encuentran en el sensor de imagen sólo utilizan la escala
monocroma (el blanco, el negro y la escala de grises).Para captar la imagen
en color se necesitan varios sistemas de filtros de color en el sensor de imagen.

Uno de los filtros más conocidos es el filtro CFA.

2.3 Filtro de color FCA


El filtro o mosaico CFA o color filter arrays o red de filtros de color. Consiste
en que cada célula o pı́xel tiene un filtro de color delante. Cuando a este filtro
le llega la luz, sólo deja pasar uno de los tres colores primarios, el verde, el
rojo y el azul. De esta forma cada pı́xel será solamente de un color.

3 Luz Infraroja
El infrarrojo es un tipo de luz que no podemos ver con nuestros ojos. Nuestros
ojos pueden solamente ver lo que llamamos luz visible. La luz infrarroja
nos brinda información especial que no podemos obtener de la luz visible.
Nos muestra cuánto calor tiene alguna cosa y nos da información sobre la
temperatura de un objeto. Todas las cosas tienen algo de calor e irradian
luz infrarroja. Incluso las cosas que nosotros pensamos que son muy frı́as,
como un cubo de hielo, irradian algo de calor. Los objetos frı́os irradian
menos calor que los objetos calientes. Entre más caliente sea algo más es
el calor irradiado y entre más frı́o es algo menos es el calor irradiado. Los
objetos calientes brillan más luminosamente en el infrarrojo porque irradian

3
más calor y más luz infrarroja. Los objetos frı́os irradian menos calor y luz
infrarroja, apareciendo menos brillantes en el infrarrojo.

3.1 Filtro para fotografı́a Infraroja


La fotografı́a infrarroja o técnica fotográfica infrarroja, es aquella que nos
permite fotografiar uno de los espectros lumı́nicos comprendidos entre 700 y
1.200 nanómetros, no visibles para el ojo humano. Sus aplicaciones pueden
ser artı́sticas o cientı́ficas. Su uso más extendido es entre los astrónomos.
Casi un 90 % de la materia que compone el universo, no puede apreciarse en
el espectro lumı́nico que captan nuestros ojos. Muchas zonas del espacio, no
irradian este tipo de ondas. También es posible encontrar zonas como grandes
regiones de polvo cósmico que solo dejan pasar la radiación infrarroja. Gra-
cias a telescopios como el IRTS, se pueden conocer zonas del universo, que
de otra manera hubiera sido imposible.

Modelos y precios en: www.fotoboom.com

4 Descripcion general
Los dispositivos dotados de sensores ópticos como las cámaras de video más
utilizados actualmente en aplicaciones tecnológicas son los dispositivos CCD
y los CMOS, los dispositivos CMOS (Complementary Metal Oxide Semicon-
ductor) son utilizados en algunas cámaras digitales y en numerosas Webcam.
En la actualidad los CCD (Charge-Coupled Device) son mucho más pop-
ulares en aplicaciones profesionales y en cámaras digitales. Sin embargo
la tecnologı́a ha avanzado bastante tanto que ha puesto a ambos tipos de
cámaras casi al mismo nivel de rendimiento. La capacidad de resolución o
detalle de la imagen depende del número de células fotoeléctricas en el caso
de las cámaras con dispositivos el CCD. Este número se expresa en pı́xeles.
A mayor número de pı́xeles, mayor resolución. En todos los CCD el ruido
electrónico aumenta fuertemente con la temperatura y suele doblarse cada
6 u 8 Â◦ C. En aplicaciones astronómicas de la fotografı́a CCD es necesario
refrigerar los detectores para poder utilizarlos durante largos tiempos de ex-
posición.

4
5 Podemos ir deduciendo
• Los sensores CCD, como se mencionó anteriormente, son de alta cali-
dad, bajo nivel de ruido en imágenes y los sensores CMOS, tradicional-
mente, son más susceptibles al ruido.

• El sensor CMOS tradicionalmente consume poca energı́a. La aplicación


de un sensor CMOS en el proyecto implica una baja potencia en el
sensor.

• Los procesos usando CCD consume mucha energı́a tanto como 100 veces
más energÃa que un sensor CMOS equivalente.

• Los Chips CMOS tienden a ser muy baratos en comparación con los
sensores CCD debido a su fabricación basada en silicio.

• Los sensores CCD se han producido en masa por un perı́odo más largo
de tiempo, por lo que son más maduros. Ellos tienden a tener mayor
calidad y más pı́xeles.

• Basados en estas diferencias podemos ver que los CCD’s tienden a


ser usados en cámaras con focos de alta calidad de imágenes con un
montón de pı́xeles una excelente sensibilidad mientras que los CMOS
poseen una relativa baja calidad, baja resolución y sensibilidad pero
por el contrario son mucho mas baratos y poseen una duración de la
baterı́a mucho mayor.

6 La Cámara CMOS
• La cámara a incluir en el proyecto se trata entonces de un dispositivo
CMOS, el cual debe poseer unas dimensiones pequeñas para poder
cumplir con los requerimientos del proyecto.

• Las CMOS cámaras o tambien conocidos como cámaras de pixel activo,


son una tecnologı́a relativamente nueva.

• En comparación con las cámaras CCD, tiene un bajo uso de la energı́a,


opera a una menor tensión, y puede ser inducido a integrar varias fun-
ciones en el sensor de imagen de si mismo. Por lo tanto, es más fácil
de integrar en los diferentes proyectos.

5
• Por otra parte, la camara CMOS no tiene la misma capacidad de tra-
bajo adecuada en ambientes frı́os como la cámara CCD.

• La cámara CCD tienen una mejor relacion señal-ruido (SNR) que el


CMOS, es decir, la capacidad de los chips para dar correcta tensión de
salida (datos) y no entregar mucho ruido.

6.1 Requerimientos
6.1.1 Imagen
Deben ser nitidas, deben entregar la mayor información posible y que no haga
unconjugado de imágenes, requerimiento mı́nimo para trabajar a distancia.

6.1.2 Blindaje
El C.M.O.S. sensor se requieren blindaje para evitar los efectos de la ra-
diación, aunque según lo indicado, sólo se tratarı́a de una delgada hoja.
Para más detalles, véase el cuadro 1 sobre radiación en el medio ambiente.
Una hoja de aluminio de 1mm de espesor deberı́a ser más que suficiente para
proporcionar una protección adecuada para el satélite.

6.1.3 Caracterı́sticas
Masa < 50g
Potencia consumida en modo activo < 500mW
Potencia consumida en modo hibernación < 10mW
Tamaño de la cámara < 40x40x20
Tamaño de la Imagen Color VGA (640x480)

7 Opciones
7.1 Sensor CMOS Monivision
• Dimensiones: 27mm2 .

• Lente óptica: 3.6mm.

• Abertura angular: 92◦.

6
• Apertura del agujero del alfiler ṕtico: 50◦.

• Diámetro del agujero del alfiler óptico: 1.6 mm.

• Pixels efectivos: 628 x 582 / 356 KB.

• Min iluminaciń: 4lux@f1.2.

• Obturador electrónico: 1 / 50 1 / 15.000.

• Salida de vı́deo (equivalente thevenin): 1VP-p, 75Ω.

• Fuente de alimentación: 12 VCC.

• Consumo: 50mA.

• Consumo de energı́a: 600 mW.

• Masa (pre-empaquetados): 24 g.

• Costo: £ 39.99 =$ 61.51.

7.2 Sensor Kodak 1310


• Pixel size: 6.0µm x 6.0µm.

• Resolution: 1280 x 1024 active.

• Sensor Size: 7.68mm x 6.14mm (1/2“).

• ISO: 180.

• Saturation Signal: 40,000 electrons.

• Scan Modes: Progressive Scan.

• Shutter Modes: Continuous and Single Frame Rolling Shutter Cap-


ture:.

• Maximum Readout Rate: 20 MSPS.

• Frame Rate: 0-15 frames per second.

7
• System Dynamic Range:
56dB (1-10 MHz)
48 dB (11-15 MHz)
44 dB (16-20 MHz).

• Response Non-Linearity: < 2%, 0-90% Vsat.

• Programmable Gain Range:


Global 7.5x, 0.02x steps
White Balance 2.7x, 0.02x steps.

• ADC: 10-bit, RSD ADC (DNL+/-0.5 LSB, INL+/-1.0 LSB).

• Power Dissipation:
< 250mW (dynamic)
25mW (standby).

• Voltage: 3.3 V.

7.3 Sensor CMOS OV7620


• Imagen: Single chip 1/3 inch OV7620 CMOS sensor.

• Array Size: 660x480 pixels.

• Pixel size: 7.6mm x 7.6 mm.

• Progressive Scanning / interlace Effective image area: 4.86mm x 3.64mm.

• Gamma Correction: 128 curve settings.

• S/N Ratio: > 48dB.

• Min Illumination: 2.5lux @F1.4.

• Operation Voltage: 5+/-0.5 Vdc.

• Operation Power:
120mW Active
10 mW Standby.

• Weight: 14g including lens.

8
• Lens: f6mm, F1.8.

• Small size : 40mm x 28 mm.

References
[1] CubeSat University of Leicester CubeSat Project.

[2] Maplin: the Electronics Specialist.

[3] Proveedor: Omnivision.