1. Teoría de la Imagen Digital.

Conceptos básicos

1

Aplicaciones Informáticas en Arquitectura Apuntes (I)

Teoría de la Imagen Digital. Conceptos básicos

(Esta monografía es una revisión actualizada, en septiembre de 2008 del capítulo 6 del libro Aplicaciones Informáticas en Arquitectura, Barcelona, Ediciones UPC, 1999, de Javier Monedero)

ETSAB. Curso 2008-2009 Javier Monedero

2

Aplicaciones Informáticas. Curso 2008/2009

Indice 1 Nociones fundamentales sobre teoría de la imagen y de las señales .................................... 4
Noción general de imagen ................................................................................................................................ 4 Noción informática de imagen .......................................................................................................................... 4 La imagen como señal ..................................................................................................................................... 5 Muestreo y cuantificación ................................................................................................................................. 7 Rastreo (rastering) .......................................................................................................................................... 7 Procesamiento y análisis................................................................................................................................... 9

2 Parámetros de control de la calidad de una imagen ............................................................... 11

Canales y bits .................................................................................................................................................. 11 Resolución ...................................................................................................................................................... 12 Número de grises ........................................................................................................................................... 13 Escalas de grises y rango dinámico ................................................................................................................ 14 Número de colores ......................................................................................................................................... 16 Rango dinámico, escalas de tonos y formatos HDR (High Dynamic Range) ............................................... 17

3 Perturbaciones características y métodos de corrección ...................................................... 19
Contorneado ................................................................................................................................................... 20

Pixelación ....................................................................................................................................................... 19 Ruido .............................................................................................................................................................. 21 Aliasing y antialiasing ...................................................................................................................................... 22

4 Medios de digitalización ............................................................................................................ 24

Medios de obtención de una imagen digital ................................................................................................... 25 Escáners ......................................................................................................................................................... 25 Cámaras digitales ........................................................................................................................................... 29 Otros medios ................................................................................................................................................... 31

5 Almacenamiento ......................................................................................................................... 32

Volumen y equipamiento requerido ................................................................................................................ 32 Formatos ........................................................................................................................................................ 32 Compresión .................................................................................................................................................... 34 Conversión ..................................................................................................................................................... 36

6 Edición de imágenes .................................................................................................................. 37

Operaciones geométricas .............................................................................................................................. 37 Operaciones sobre los valores ........................................................................................................................ 38 Filtros. Métodos de fusión .............................................................................................................................. 42

7 Presentación e impresión .......................................................................................................... 44

Los parámetros de control y los tipos de salida ............................................................................................. 44 Presentación en pantalla ................................................................................................................................. 45 Impresión sobre papel ..................................................................................................................................... 45 Semitonos, “lineatura” y dithering ................................................................................................................. 47 Color ............................................................................................................................................................... 49 Dispositivos .................................................................................................................................................... 51

1. Teoría de la Imagen Digital. Conceptos básicos 

En este documento se presentan los conceptos fundamentales, las técnicas y los métodos básicos de edición de imágenes, de modo que sirvan de base para aplicaciones que tienen especial incidencia en el diseño arquitectónico. El tratamiento de imágenes ha conocido un desarrollo espectacular en los últimos años y constituye uno de los sectores de investigación más activos en los países desarrollados. Recordaremos brevemente el contexto en que esto se ha llevado a cabo. Una de las primeras aplicaciones precursoras del tratamiento de imágenes consistió en la mejora de fotografías de periódico enviadas por un cable submarino entre Londres y Nueva York, por medio del sistema Bartlane, inventado en 1921. A través del cable se transmitían impulsos eléctricos codificados en cinco niveles de brillo. Con posterioridad, en 1929, se ampliaron estos niveles a 15 tonos, gracias a los cuales una especie de máquina de escribir imprimía la fotografía al otro lado del cable al cabo de tres horas. En estas primeras aplicaciones ya estaban implicados algunas de las ideas básicas sobre teoría de la información que revisaremos más adelante y que fueron sistematizadas por Wiener, Von Neumann, Turing y Shannon, entre otros, entre 1935 y 1950. Aunque las mejoras de los métodos para la transmisión de imágenes continuaron durante los 35 años siguientes, no fue hasta la aparición de los primeros ordenadores digitales que el procesamiento de imágenes se consolidó como disciplina científica. La utilización de las técnicas computacionales puestas en práctica en misiones espaciales, realizadas a partir de 1964 por el JPL (Jet Propulsion Laboratory) en Pasadena, California, se considera el inicio de lo que ahora se denomina procesamiento digital de imágenes. Los primeros trabajos fueron realizados a partir de la imágenes de la Luna, transmitidas por la sonda Ranger 7,

que fueron procesadas por un computador para corregir diversos tipos de distorsión inherentes a la cámara utilizada. Aquellas técnicas sirvieron como base a los métodos utilizados para la mejora y restauración de imágenes de los programas Surveyor, Mariner y Apollo. A partir de 1967 estas experiencias se aplicaron al campo de la salud pública con programas de investigación realizados por la Escuela de Medicina de UCLA, de las cuales se hizo eco el National Institute of Health que subvencionó al JPL en tres líneas de investigación, las imágenes en microscopía óptica, electrónica y de rayos X, para el estudio de la arteriosclerosis, el cáncer cervical, y otras patologías. El procesamiento de imágenes es la base de otras potentes área de investigación, el análisis de imágenes y la visión por computador, de las que se han derivado indirectamente muchas herramientas de uso corriente. Estas se originaron principalmente en las investigaciones del MIT, en Harvard y de la Universidad de Stanford, en California a finales de los 1960 y principios de los 1970 en el campo de la robótica. En Japón se desarrollaron otros proyectos similares entre los que se puede citar el PIPS (PatternInformation Procesing System) hacia 1970. En 1976, en Estados Unidos, el ARPA (Advanced Reasearch Project Agency) financió otra serie de proyectos, que permitieron avances considerables. En este mismo contexto y por estas mismas fechas hay que mencionar las notables contribuciones teóricas de David Marr, en la década de los setenta y la gran cantidad de contribuciones posteriores que han ampliado espectacularmente nuestro conocimiento del modo en que el cerebro y determinadas áreas de cortex visual intervienen en la percepción de las imágenes. Por lo que respecta a Europa, los primeros precedentes del procesamiento y el análisis de imágenes se pueden remontar a los siglos XVIII y XIX, y a autores como Crofton,

4

Aplicaciones Informáticas. Curso 2008/2009

Euler o Minkowsky, que desarrollaron muchas herramientas matemáticas utilizadas actualmente en el tratamiento de imágenes. De 1848 son los primeros trabajos de estereología en el campo de la geología, que pueden relacionarse con contribuciones recientes, tales como la geometría fractal de Mandelbrot o la morfología matemática de G. Matheron y J. Serra. De todo este conjunto de investigaciones han surgido aplicaciones en muy diversas áreas, tales como la geografía o la meteorología, a partir del procesamiento de fotografías tomadas por satélites, en arqueología, en donde ha sido posible recuperar pinturas borradas mediante técnicas de análisis, en física, con aplicaciones al campo de las altas energías, en visión por computador, utilizada en todo tipo de sistemas de fabricación y control de productos, en el reconocimiento facial, utilizado en sistemas de seguridad, en aplicaciones médicas de todo tipo… En arquitectura las aplicaciones principales se han dado en fotogrametría y cartografía y en la aplicación de técnicas de manipulación digital al desarrollo y presentación de proyectos de arquitectura y urbanismo.

1 Nociones fundamentales sobre teoría de la imagen y de las señales
Los apartados que siguen resumen las principales nociones teóricas de las que se derivan las aplicaciones principales.

tiende a confundirse, por un lado, con la cosa misma, como sería en el caso de un objeto que sólo tuviera dos dimensiones, y, por otro lado, con un símbolo de la cosa, como sería en el caso de la planta de una vivienda, entendida como representación de su espacio interior. Además de las imágenes físicas visibles hay también imágenes físicas invisibles, o imágenes que tienen las mismas características que las visibles pero quedan fuera del rango al que los seres humanos son sensibles, por ejemplo las imágenes infrarrojas o ultravioletas, que pueden ser visualizadas por medio de filtros especiales. También cabe hablar de imágenes abstractas, tal como las imágenes matemáticas que son conceptos y, en consecuencia, invisibles, pero que admiten representaciones de diverso tipo. Y también hay que puntualizar que las imágenes físicas visibles pueden ser permanentes, como un poster o un documento impreso, o bien transistorias, tales como las generadas en un monitor. La distinción entre imagen, en su acepción general, e imagen en el sentido técnico que se desarrollará en lo que sigue, es más que una precisión semántica y debe tenerse en cuenta en las aplicaciones a las que está introducción va dirigida.

Noción informática de imagen
En términos informáticos, una imagen es, como veremos a continuación, un caso particular de señal, una función que especifica una determinada distribución de intensidades lumínicas. Más concretamente, una imagen es entendida, desde este punto de vista, como la serie de valores atribuidos a una función que asigna a todos los puntos de un dominio un valor de intensidad determinado. Aunque la función es lineal y su dominio es el de todos los puntos ordenados a que se refiere, resulta más sencillo considerar el dominio como bidimensional (luego

Noción general de imagen
En términos generales, se entiende por “imagen” la apariencia visible de una forma. Esta definición se extiende corrientemente hasta aceptar que una imagen es, así, la “representación” de una forma o de una entidad determinada. La palabra “imagen”

1. Teoría de la Imagen Digital. Conceptos básicos 

veremos cómo la proyección de la señal de este dominio sobre un campo rectangular, mediante un proceso conocido como rastreo o barrido, incluye valores de “salto de línea” para producir la ilusión de que la señal se proyecta instantáneamente sobre un dominio bidimensional). Así, en el caso de una imagen monocromática este valor vendría dado por una función simple de dos variables f(x,y), en donde x,y denotan coordenadas espaciales y f un valor correspondiente en cada punto que es proporcional a la intensidad de iluminación en ese punto o “nivel de gris”, en el caso de una imagen acromática. Las coordenadas x, y están referidas a un ámbito espacial determinado, por ejemplo, por un extremo superior, x0y0 , y un extremo inferior, xmaxymax. En el caso de una imagen cromática esta valor vendría dado por tres funciones simples de dos variables, fR(x,y), fG(x,y), fB(x,y), que expresarían la intensidad de iluminación de un punto x,y, en el mismo ámbito, para los tres componentes cromáticos primarios rojo (R), verde (G) y azul (B). La figura 1.1 ilustra esta definición. La imagen que se muestra tiene un tamaño de 1.650 puntos en sentido horizontal y 1160 en sentido vertical. Esto se representa en un sistema de coordenadas, el sistema propio del dispositivo de salida, con el origen

0,0 en la parte superior izquierda y el final, correspondiente a las coordenadas 1650, 1160 en la parte inferior derecha. El punto marcado tiene las coordenadas 1200, 500. Vamos a suponer, para simplificar detalles técnicos que la función asociada asigna a este punto el valor 68 sobre un rango de 100 valores posibles, esto es, f(x,y) = 68. Este valor se traduce a la intensidad con que los cañones de un monitor de rayos catódicos enviará electrones hacia la pantalla, con el resultado de que los diminutos puntos de fósforo serán estimulados en una proporción adecuada para producir este nivel relativo de iluminación. El valor digital se traduce a un impulso analógico a lo largo de una curva continua, tal como la que se muestra en la figura 1.2, que recoge todos los valores correspondientes al marco activo en ese momento sobre la pantalla.

La imagen como señal
En términos corrientes, se entiende por “señal” una marca que porta un objeto y que proporciona cierta información convenida. En términos informáticos, una señal es una función asociada a un fenómeno físico cuya variación determinada en un dominio dado porta información codificada. Las imágenes, tal como las hemos definido en el apartado anterior, son 2D. Las señales son 1D.

Figura 1.1 La imagen como función de valores (tomado de Monet: “La débâcle”, 1880, Lille, Musée des Beaux-Arts)

se utiliza para representar las amplitudes que corresponden a los valores máximos y mínimos que alcanza la función/señal. el propio de los sistemas de comunicación: un dominio lineal. El eje horizontal. de hecho. que traducen fenómenos acústicos o mecánicos. temporal. en conformidad con la teoría de la información que especifica que. en principio. de abscisas. como hemos visto. a lo largo de la coordenada x. lo que se representa es su frecuencia. esto es. en el caso de un dispositivo informático de salida. Las señales pueden ser continuas o discretas. en una información más eficaz. Es obvio que esto implica una perdida de información y la teoría de señales trata. será distinta para todos los puntos de esta línea. Esta reducción. a lo largo del tiempo. la función es bidimensional y el término “señal” tiende a confundirse con el término “imagen” que. denominadas así porque son un reflejo directo del fenómeno que las ha originado.2. Las señales digitales. incluso. Pero una imagen. todo mensaje se reduce a un forma temporal f (t). en buena medida. el recorrido de una imagen monocromática a lo largo de una línea horizontal. en una imagen. son discretas. es decir. El dominio característico de una señal es. Si proseguimos. son continuas. Estas intensidades pueden representarse en un diagrama que nos mostraría la intensidad o la “profundidad” de la señal en cada uno de los puntos de la imagen. una señal puede representarse en un sistema de coordenadas cartesiano. de tal modo que resulte en una ganancia. el dominio es espacial. en principio. es una función asociada a una distribución de intensidades de luz en un determinado dominio espacial. Esto resultará en una distribución de intensidades que. grafiados sobre el eje de ordenadas. si se repite cíclicamente en un determinado dominio. nos irá presentando los valores de la función para cada uno de estos puntos. grafiado sobre el eje de abscisas. a números enteros. para optimizar esta pérdida. denominadas así porque pueden ser traducidas a dígitos.6 Aplicaciones Informáticas. de los sistemas y de las técnicas utilizados para controlar esta perdida de información o. tal como una impresora o un monitor. todos los puntos de todas las líneas que componen un marco (frame). se reduce a una señal lineal que recorre un canal de determinadas características. Fragmento de imagen y señal asociada . Como toda función. Si la señal es periódica. uno a uno. viene dada por el hecho de que la salida real se basa en un mecanismo que recorre secuencialmente. en un canal. entendida como función de intensidades lumínicas. se utiliza para representar el dominio de la señal. Figura 1. La informatización de una señal supone un paso reiterado de lo analógico a digital y viceversa. comenzando por el primero y terminando por el último. y basado principalmente en fenómenos eléctricos. una de las dos dimensiones. de ordenadas. Las señales analógicas. En el caso de sistemas visuales. El eje vertical. Curso 2008/2009 El ámbito en que se mueve una señal se denomina su dominio.

La amplitud corresponde. Rastreo (rastering) Las imágenes utilizadas en informática están generadas por una señal que barre sistemáticamente todo el dominio espacial mediante líneas horizontales de exploración (horizontal scan lines) que van recorriendo verticalmente el ámbito propio de la imagen que se pretende captar o reconstruir. pero la mayoría de los dispositivos de salida se basan Figura 1. entendida como registro de las diversas configuraciones que adopta la señal. en este caso. esto es. en informática. La variedad estadística de las configuraciones adoptadas por una señal determinada se presenta así mediante su espectro. La señal se analiza en función de dos características fundamentales: la amplitud. esto es. El ejemplo más habitual es un monitor. no presenta periodicidad aparente. como relación encontrada entre la gama de frecuencias y la gama de amplitudes. la traducción a un código binario.. establecidos por Fourier. La teoría de señales permite obtener resultados notables mediante una modificación del marco de referencia y tomando en consideración no el dominio espacial (spatial domain) sino el dominio de frecuencias (frequency domain). El análisis espectral se utiliza como base de los diversos métodos de corrección de las perturbaciones a las que nos referiremos más adelante. Muestreo y cuantificación . El análisis de estas diversas configuraciones se remite a unos principios fundamentales. Esto implica contar con algún modo de asimilar una señal que. a una señal que puede ser tratada como una señal cíclica caracterizada por una amplitud dada como función de una frecuencia. entendida como el registro del rango de energías que conlleva el fenómeno físico asociado y la forma.1. en principio es singular. de una señal continua se denomina muestreo (sampling) y los valores seleccionados se denominan muestras (samples). no acotado en un determinado rango de valores discretos. La teoría de señales establece ciertas condiciones que deben cumplir los procesos de muestreo y cuantificación para que la reconstrucción permita obtener una imagen idéntica a la original. Este análisis lleva a una forma distinta de representación de las señales. tienen un valor real. Teoría de la Imagen Digital. El proceso de discretización de este valor real se denomina cuantificación (quantification) y es el segundo paso en el proceso de digitalización de una señal. más abstracta pero más reveladora. Las muestras seleccionadas siguen siendo continuas. en donde se relacionan amplitudes y frecuencias en un segundo sistema de coordenadas cartesianas que se denomina el espectro de la señal. es imposible en numerosos casos y surgen perturbaciones que deben ser tratadas de diversos modos. en general. a un valor que es proporcional a la intensidad luminosa en cada uno de los pixels (contracción de “picture element”) que constituyen la imagen. El tercero y último paso es la codificación de los resultados obtenidos lo que supone. periódicos y armónicos. Esto. a principios del siglo pasado. y que permiten analizar las diversas configuraciones de una señal en una serie de componentes simples. como se verá. discretos. Conceptos básicos  Muestreo y cuantificación El proceso de seleccionar un conjunto de valores finitos.

de 16/9 (1. La figura 1. cuyo dominio completo constituye un marco (frame). procesarse o enviarse a otros sistemas pero. El proceso de rasterización sirve tanto para los dispositivos de entrada como para los de salida. La señal de barrido lleva incorporada una señal de “intervalo de blanqueo horizontal” (horizontal blanking interval) que indica al haz de rayos que debe cesar de emitir electrones y situarse en la siguiente línea. y activando en diferentes grados los diminutos puntos que darán lugar a una imagen equivalente a la original. Esto es parte de una codificación lineal que se traduce en movimientos espaciales. Esta señal es llevada a un conversor A/D (analógico/digital). Los monitores más recientes de cristal líquido tienen formatos cercanos a 16/9 aunque en algunos casos la relación es 16/10 (1. En ambos casos se ha seguido una evolución similar por razones parecidas.. Barrido de la pantalla de un monitor por rastreo con saltos intercalados .333.8 Aplicaciones Informáticas. temporal.). Curso 2008/2009 en el mismo sistema.777. de hecho. la señal electrónica sigue siendo una señal lineal. convertida de nuevo en señal analógica. En sí misma. Una línea. la conversión de la señal bidimensional en unidimensional.. La imagen digitalizada puede almacenarse.4 muestra un esquema en el que se representa una señal analógica a lo largo de una línea de rastreo. Al final de cada línea hay una interrupción de la señal que corresponde a un salto al comienzo de la siguiente línea. como ya hemos indicado. definida por un programa de CAD como una entidad con un principio y un final.. La televisión de alta definición utiliza una relación de aspecto más alargada. La mayoría de los monitores utilizaban hasta hace poco una misma relación de aspecto (aspect ratio) de proporción 4/3 (1.6) o 15/9 (1. Pero tal Figura 1. 2) la modulación de la señal digital para dirigir un haz de electrones que se proyecta sobre la pantalla de un monitor.4.. Esta señal se produce al final de cada línea hasta llegar a la última línea en donde incorpora una señal de “intervalo de blanqueo vertical” que indica al haz de rayos que debe volver a situarse en la primera línea. En el caso de un monitor de rayos catódicos podía indicarse al dispositivo que enviara un flujo de electrones a lo largo del recorrido especificado por este par de coordenadas. y con un gasto de memoria adaptado a la información requerida por la entidad. en última instancia deberá ser sometida a un proceso inverso. Más adelante se describirán los medios y métodos principales de captación. Esto era sin duda una ventaja. Los primeros monitores no eran de rastreo sino vectoriales.).666. El proceso de barrido supone. Una cámara de vídeo o un escáner de sobremesa operan según un mismo principio que se resume en: 1) la presentación de la imagen que se quiere captar a un sistema óptico que conduce la imagen a unos sensores capaces de convertir la energía lumínica a señales eléctricas. tenía unas coordenadas propias que se traducían a las coordenadas propias del dispositivo.). Este procedimiento se utiliza tanto para generar la imagen como para reproducirla. El marco debe tener una proporción normalizada para permitir la utilización de diferentes programas y tipos de información con un mismo dispositivo... lo que se traducía en una línea perfecta. sin escalones.

Problemas similares se daban con los plotters de plumillas que funcionaban según el mismo principio. Debido a la necesidad de refrescar la pantalla. Por procesamiento se entiende genéricamente el conjunto de técnicas y métodos encaminados a mejorar una imagen. la arqueología. sino un enjambre de líneas.1. El procesamiento de imágenes. si se quieren representar líneas o bordes inclinados con precisión no hay otra opción que incrementar el número de puntos. Ambos grupos se dirigen a una gran variedad de aplicaciones. con el fin de facilitar su posterior interpretación. Cuando el número de líneas era muy grande. Estas son las razones principales por las que las pantallas de rastreo sustituyeron a las vectoriales hace ya muchos años y los plotters electrostáticos a los de plumillas hace relativamente pocos años. preciso. el procesamiento de fotografías en mal estado para facilitar el reconocimiento de personas. Pero tiene la ventaja de que se cuenta con un único método. Conceptos básicos 9 ventaja empezaba a dejar de serlo cuando lo que se trazaba en pantalla era. con cierta independencia de su contenido. lo que permite unificar los procedimientos y sacar el máximo partido de la tecnología disponible. unas líneas comenzaban a borrarse mientras otras no habían acabado de dibujarse. Por análisis de imágenes se alude convencionalmente al conjunto de técnicas y métodos encaminados a facilitar la extracción automatizada de la información contenida en ellas. Teoría de la Imagen Digital. y diversos sectores industriales interesados en automatizar tareas realizadas hasta ahora por seres humanos. La utilización de robots dotados de capacidad de reconocimiento de formas que puedan llevar a cabo tareas peligrosas o difíciles en el sector de la construcción es otra de las áreas en las que se está investigando con considerable intensidad en los últimos años. la geografía. así como otras que comentaremos a lo largo del curso. cuya finalidad es mejorar la información de modo que sea comprensible por observadores humanos. Procesamiento y análisis La literatura especializada distingue dos áreas principales de aplicación. La utilización de técnicas de procesamiento de imágenes en cartografía es una de las áreas más directamente relacionadas con la arquitectura en la que se han producido avances notables. como ocurre en el caso de la cartografía para generar ortofotoplanos. La medicina. y el procesamiento y análisis de imágenes. cuya finalidad es hacer que los objetos representados por tales imágenes sean reconocidos automáticamente por computadores especializados. son algunas de las áreas pioneras en aplicaciones en este campo. el continuo ir y venir del dispositivo trazador podía provocar desajustes y el tiempo de trazado se incrementaba considerablemente. la astronomía. En todos estos casos las técnicas van dirigidas a librar a la imagen de ruido provocado por diversas interferencias o a corregir deformaciones de los aparatos ópticos con que se han captado las imagenes o a corregir deformaciones secundarias de los propios objetos o de la superficie observada. Un sistema de rastreo tiene dos inconvenientes iniciales importantes. La finalidad principal sería llegar a hacer eficaz la visión por computador. cada punto debe contar con una especificación. el procesamiento de imágenes tomadas desde aviones o desde satélites para identificar relieves del terreno o edificios significativos. En segundo lugar. lo que obliga a aumentar aún más la memoria. Ejemplos característicos son: el tratamiento de radiografías para realzar zonas de interés. para cualquier caso. En primer lugar que todo el área a imprimir o visualizar debe quedar representada en memoria. esto . Tanto da si lo que se representa es una simple línea o una escena compleja. no unas pocas.

en los casos más corrientes. por diversos procedimientos. El proceso implica la detección. fronteras y regiones. La segmentación depende por lo general del contexto de la aplicación que dicta las propiedades visuales de los elementos de interés cuya detección se busca. conseguir que una máquina dotada de sensores pueda reconocer fragmentos más o menos grandes del espacio y los objetos que le rodean y ajustar su conducta de acuerdo con esta información. el uso de robots utilizados en procesos de fabricación asistida por computador para reconocer formas características. comunicación y presentación de la imagen. Esto requiere un conjunto de dispositivos. De nuevo. Ejemplos ya consolidados que pueden citares son: el uso de robots en cadenas de producción que pueden reconocer si un producto tiene defectos y debe ser retirado de la cadena. Bajo este término se engloban los procesos destinados a separar una imagen en sus partes constituyentes. etc. Si lo que se busca es diferenciar figuras de fondos. Si lo que se busca es identificar propiedades materiales.). la segmentación en bordes resultará más adecuada. Curso 2008/2009 es. El resultado de la segmentación es una imagen en la que. A partir de la descripción de la imagen es posible comparar los datos obtenidos con los datos contenidos en una base de datos adecuada a la aplicación y asignar etiquetas identificadoras a los distintos elementos. Por “interpretación” se alude al paso final de asignar un significado determinado a un . Durante esta fase se llevan a cabo una serie de acciones que tienen por finalidad facilitar el trabajo posterior. acciones tales como eliminar ruidos parásitos o calibrar adecuadamente los rangos monocromáticos y cromáticos. como puede ser el caso de edificios sobre un terreno. de un rango limitado de objetos. El método más general se basa en la detección de discontinuidades y el problema más general deriva del hecho de que las discontinuidades resultan de bordes significativos. identificar bordes continuos. el contraste o la definición de las diferentes áreas. e) Reconocimiento e interpretación. c) Segmentación. líneas y bordes. con lo que entramos en el dominio del análisis. Se necesitarán por añadidura medios de almacenamiento y medios básicos de manipulación. La representación es la base de la descripción que consiste fundamentalmente en una selección de características (feature selection) que se realzan y se procesan para obtener datos adicionales dados generalmente en forma numérica o mediante especificaciones acerca de la topología de la imagen (si contiene agujeros. tales como cámaras fotográficas tradicionales. el que una u otra representación resulte más adecuada dependerá del contexto. Los pasos característicos en el procesamiento y análisis de imágenes son los siguientes: a) Adquisición de la imagen. se habrá diferenciado entre pixels correspondientes a bordes y pixels correspondientes a regiones. cámaras de vídeo o escáners. si hay regiones conectadas de determinado modo. y manipularlas adecuadamente.10 Aplicaciones Informáticas. A partir de aquí se busca. La segmentación de una imagen supone en un primer estadio la detección de puntos. Otros ejemplos más elementales pero que estarían en esta misma línea son los programas de reconocimiento óptico de caracteres y patrones. Y puede ser que se necesiten ambas cosas. cámaras digitales. texturas características. b) Preprocesamiento. d) Representación y descripción. capaces de grabar la información y digitalizarla para su procesamiento posterior. la identificación y la comprensión de patrones que son relevantes en un contexto o en una aplicación determinada. será preferible identificar regiones. Este proceso de asignación se denomina “reconocimiento”.

Si utilizamos un canal de 1 byte (8 bits) tendremos a nuestra disposición 256 posibilidades (pues 28=256). Pero en edición de imágenes se utilizan múltiples canales. para modificar de diferentes modos los valores originales de una imagen. como veremos. para codificar el número de grises necesario para poder reproducir con fidelidad degradados continuos sin que aparezcan franjas. siglas de Look Up Table) para almacenar los valores RGB de los colores indexados. Antes de describir estos parámetros convendrá revisar las nociones básicas de matemáticas e informática en que se basan estos términos. Canales y bits Un bit (acrónimo de Binary dIgiT). Las imágenes en “Color Real” (True Color) utilizan tres canales de 8 bits para cada uno de los colores primarios en mezcla aditiva. En Edición de imágenes. Mb (1024 Kb). un cuarto canal. Estos parámetros se especifican en bits y se agrupan en canales. como GIF. Gigabyte. tal como ocurre con formatos muy populares. Un “canal” es un cauce o un conducto por el que circula algún tipo de líquido. sobre todo en Internet. Pero a menudo nos encontraremos con. Gb (1024 Mb) y Terabyte. Las unidades superiores más familiares son el byte (8 bits). Y en informática se utiliza para designar una agrupación de bits que almacenan una información concreta. Kb (1024 bits).1. conviene considerar una imagen como una colección de canales que aportan . Tb (1024 Gb). Un canal alfa almacena información acerca de la transparencia. los canales superpuestos se utilizan extensamente. Esto quiere decir que estas imágenes tendrán por consiguiente 24 bits por pixel (3 canales de 1 byte). Y valores intermedios significan una disminución mayor o menor de estos valores. Esta última fase implica por lo general contar con una base de datos adecuada. Estos formatos utilizan un sistema de índices ligados a una tabla (una LUT. Su primer uso sistemático se debe a Claude Shannon y aparece en una obra fundamental para la Teoría de la Información. un canal “alfa”. publicada por Claude Shannon y Warren Weaver en 1948. 2 Parámetros de control de la calidad de una imagen La calidad de una imagen se mide fundamentalmente a partir de dos tipos principales de parámetros: los relativos a la extensión y los relativos a la intensión o profundidad. 0 (negro) significa transparencia total y por consiguiente se anula el valor de los canales que le preceden. En este sentido. Podemos comparar el proceso con el de reconocer letras y palabras que forman frases con sentido. entendida como capacidad de distinguir diferencias de intensidad y de color en un mismo punto. A Mathematical Theory of Communication. En un canal de este tipo. es la unidad básica de Información y representa los dos posibles estados en que puede estar un canal de comunicación o un sistema de almacenamiento de información. Conceptos básicos 11 conjunto de objetos etiquetados. al menos. Esta es una cifra muy adecuada para múltiples aplicaciones. Pero también podemos tener un único canal para representar una selección de colores. entre ellas. Pero en radio y televisión el término se utiliza para especificar una determinada banda de frecuencias. Podemos tener un único canal para representar 256 niveles de gris. Rojo. 255 (blanco) significa transparencia nula y por consiguiente se mantiene el valor de los canales que le preceden. Megabyte. Teoría de la Imagen Digital. Verde y Azul (RGB por sus siglas en inglés). Kilobyte.

Por “resolución propia” de una imagen. Esto quiere decir que si tenemos una imagen de. a lo largo y a lo ancho. Y.0025 cm/px o más. yuxtaposiciones de pequeños cuadrados de diferente tono). metros. a la inversa.25 cm/ px o menos. Esto no depende sólo del número de . El origen del término se basaba en la capacidad de un dispositivo para discriminar detalles o. Por “resolución gráfica” de una imagen entendemos la misma relación anterior. por ejemplo. Si sólo queremos distinguir los rasgos nos bastará con unos 0. equivaldría a una imagen con una anchura de 4000 pixels pues a×3/4a=R de donde a = raìz de 4/3R. la cara de una persona y hacemos una ampliación acercándonos a sus ojos podremos distinguir. para un formato de imagen de 3/4. y la unidad con que medimos las cosas (milímetros. 12 megapixels. su iris (que mide aproximadamente 1 cm de diámetro) según la resolución de la imagen. entendemos la cantidad de detalle que incorpora una imagen. en este caso. referidas no a “la realidad” sino al tamaño del papel o del dispositivo sobre el que se va a imprimir o proyectar. se presta a malentendidos.12 Aplicaciones Informáticas. líneas escalonadas discontinuas) y las superficies con degradados suaves aparezcan igualmente como superficies continuas (en lugar de cómo lo que realmente son. Esto depende de las dimensiones de la imagen en pixels. una fotografía área puede tener una utilidad.1 m/px (100/1000) o de 10 cm/px. Pero si queremos hacer un diagnóstico de posibles enfermedades por medio del iris necesitaremos seguramente 0. el volumen global de un edificio. una resolución R de. Esto puede ser suficiente si sólo nos interesa. Dado que las imágenes digitales están compuestas de puntos discontinuos que se perciben como un continuo a una determinada distancia. Curso 2008/2009 información específica. Así. es decir la relación entre los pixels de una imagen y las unidades de medida corrientes pero. De modo similar. etc. Si la imagen abarca un área de 100 metros de ancho y tiene 1000 pixels de ancho. una imagen de 1600×1200 pixels tendría una resolución de 1. acerca de la imagen. Resolución El término “resolución”. su resolución será de 0. en arquitectura y urbanismo. la capacidad para distinguir (“resolver”) dos puntos muy próximos que pueden aparecer como un punto único. por ejemplo.). o no. Y depende de la relación de la unidad con que medimos las imágenes. Naturalmente el que la resolución sea “suficiente” dependerá también en este caso de para qué queremos utilizar la imagen. fundamental en teoría de imágenes. este parámetro tiene una importancia básica. Para intentar evitar estos malentendidos hablaremos de “resolución propia de una imagen” o resolución “en sentido estricto” y de “resolución gráfica” que es un término relativo pues implica tanto el tamaño “real” de la imagen como el tamaño en que va a ser impresa o presentada y que carece de sentido si se ignora este último dato. se utilizaba y se utiliza en astronomía para refererirse a la capacidad de un telescopio para distinguir dos estrellas que. que dependerá de su resolución.000 pixels o 1. centímetros. Y este tamaño deberá ser tal que las líneas inclinadas aparezcan como líneas continuas (en lugar de cómo lo que realmente son. Concretamente. La resolución propia sólo tiene sentido si conocemos el contexto en que se va a utilizar la imagen. para un telescopio “de menor resolución” eran una sóla estrella.920. de diversos tipos. como ocurre con frecuencia (de ahí los malentedidos).92 MP. el pixel. Pero claramente insuficiente si queremos saber de que tipo son sus ventanas. pongamos por caso. más exactamente. Y se expresa corrientemente en MegaPixels (MP).

El número de grises de esta escala es superior al que un observador humano puede percibir pero se relaciona con un fenómeno que permite establecer. como número máximo de niveles de gris que se detectan. Por razones a los que volveremos más adelante. 4 u 8. son indestinguibles como tales puntos a partir de unos 50 cm de distancia. como mínimo número de grises que un sistema reproductor debería ser capaz de generar para evitar efectos de contorneado tales como los descritos.5% de la luminacia global percibida. la resolución gráfica de las impresoras de alta gama es bastante mayor. equivalentes a una resolución de unos 28 ppc (puntos por centímetro) o 72 dpi (dots per inch) que son precisamente las características de un monitor más o menos corriente. El fenómeno puede ser analizado con instrumentos de precisión y muestra que el ojo exagera el cambio de intensidad real que se da cuando hay un cambio relativamente abrupto en un fondo continuo. Teoría de la Imagen Digital. La capacidad de discriminación de este efecto se sitúa aproximadamente. sino el número de grises necesario para que una banda continua aparezca como tal sin que se produzcan efectos de “contorneado”. ocurre lo contrario: la luminosidad del fondo hace más visibles los defectos de las líneas más impresas. En general. de unos 0. por lo que abordaremos el primer caso en este apartado y el segundo caso en el siguiente. Si la imagen se imprime como puntos negros sobre un fondo blanco. Los datos experimentales nos dicen que se requieren al menos 120 ppc (300 dpi) para que las líneas inclinadas y las superficies se vean continuas. no el número de grises que un observador medio es capaz de percibir conscientemente en una escena. Se escoge este último valor por las razones dadas pero también por razones técnicas. por consiguiente. El parámetro bpp (bits per pixel) representa la cantidad de información con la que contamos y permite saber el número de valores que nos proporcionará una imagen y que será igual a 2n. Entendemos por imagen acromática aquella compuesta por una escala tonal de grises cuyo rango varía de 2. Esto permite establecer la cifra de unos 200. virtualmente. 16 (24) y 256 (28). Esto se relaciona con un fenómeno visual detectado por Ernest Mach en 1865 y que se conoce como “bandas de Mach”. en torno al 0. Conceptos básicos 1 pixels de la imagen sino también de las características del medio de salida. la irradiación de los puntos hace que los defectos queden disimulados y que se necesiten muchos menos puntos para obtener un resultado satisfactorio. tal como un dibujo en blanco y negro (1 bpp) hasta 256 (8 bpp). aunque 160 ppc (400 dpi) suele ser más que suficiente para la mayoría de las aplicaciones prácticas que interesan en arquitectura. si el valor en bpp es 2.25 mm de diámetro. el número de grises que podremos tener será respectivamente 4 (22). Una trama de puntos luminosos. pues resulta más conveniente empaquetar la información en paquetes de 8 bits. Número de grises La calidad de una imagen depende. como segundo factor principal. Estos valores son diferentes si se trata de una imagen acromática o cromática. Como trabajamos con bits hay que escoger entre 128 (7 bpp) que sería suficiente para la gran mayoría de los casos y 256 (8 bpp). según diversos experimentos. del número de valores de intensidad que es capaz de representar. se toma este último valor como el apropiado para una imagen que presente una escala completa de grises en la que no se aprecien discontinuidades. . donde n es el valor en bpp. Así. en el caso particular de los degradados continuos y. en condiciones óptimas.1. Si la imagen se proyecta sobre una pantalla de televisión o un monitor.

Un EV = 1 corresponde a f/1 y ½ seg o bien a f/1. Si construimos una curva que relacione las intensidades emitidas con las intensidades percibidas. 50. sea reduciendo el tiempo de obturación (dejaremos a un lado la sensibilidad para simplificar) se unifica mediante lo que se denomina EV (Exposure Value. a los que han llegado otros investigadores. al problema de la adaptación.8. Así un EV=0 corresponde a f/1 y 1 seg.1 muestra la curva adoptada por la CIE (Comission International de l’Eclairage) y. la finura de la discriminación era proporcional a la magnitud. La cantidad de luz que entra en una cámara con cualquiera de estos controles. La figura 2. Diversos investigadores han intentado trazar la distribución de esta curva a partir de observaciones experimentales. 400. 1/2. cada miembro es el doble del anterior: 25. Esto es debido a que la variación de la emisión es proporcional a la superficie de emisión. 4. esta curva tendrá una forma que será aproximadamente igual a la de la función logarítmica. las cosas resultarán bastante más complicadas debido. sea aumentando la apertura del diafragma.4.82… = 8): f/ 1. Esto quiere decir que la relación entre intensidades emitidas o reflejadas e intensidades percibidas viene dada por una curva como la de la figura adjunta. Curso 2008/2009 Escalas de grises y rango dinámico Si queremos distribuir adecuadamente los valores de gris de modo que los intervalos se perciban como regulares. por ejemplo. 1. por arriba y por abajo. 8.14 Aplicaciones Informáticas. 1/30. En 1834 el físico alemán Ernst Weber. junto a ella. Las observaciones de Weber fueron desarolladas y precisadas por Gustave Fechner que publicó en 1860 su obra Elemente der Psychophysik (Elementos de psicofísica) que incluía el primer método sistemático para medir la percepción del brillo y la formulación de lo que ahora se conoce como la ley Weber-Fechner: “para que la intensidad de una sensación aumente según una progresión aritmética. En esta figura puede apreciarse que un gis percibido como “gris medio” no refleja el 50% de la luz que recibe como creían algunos investigadores del siglo XIX o como se podría creer a primera vista. 1/60. 2. hizo la observación de que los juicios acerca de la intensidad de una fuente de luz eran siempre juicios relativos y que. etc. sino el 18% aproximadamente. 5. de ahí su nombre.6. 16… La serie de tiempos de obturación sigue una progresión similar (los números expresan segundos): … 4. 2. Valor de Exposición) que expresa diferentes combinaciones de apertura y velocidad. El segundo factor que complica la construcción y la utilización de escalas de grises es el fenómeno de la adaptación. valores extremos.4 y 1 seg. 100.82…×2. 1/15/. 2. 1. 1/4. la intensidad del estímulo debe aumentar según una progresión geométrica”. Y es la misma razón por la que. en primer lugar a que la escala de intensidades es una escala aproximadamente logarítmica y. Dicho de otro modo: cualquier persona aprecia un cambio en la intensidad de iluminación si en lugar de una vela se utilizan dos velas pero este cambio es inapreciable si se añade una vela a cincuenta velas. 1/125 Y la serie de sensibilidades sigue una progresión similar (en la serie ASA. 1/8.). 2. 11. etc. para que en una cámara se capte el doble o la mitad de la luz hay que abrir el diafragma según una serie de pasos que siguen una progresión geométrica de razón raíz de 2 (los números están simplificados pero 2×2 = 4. a quien se considera fundador de la psicología experimental. por otra parte. en segundo lugar. No . 200.

1. Y que por brillo (brightness) se entiende un atributo caracteristico de la percepción visual que consiste en que un área determinada nos aparece como emisora de una cantidad mayor o menor de luz. Y si pasamos bruscamente de uno a otro escenario durante unos instantes no veremos nada. Esta precisión no es trivial pues los voltajes que se aplican a un monitor de rayos catódicos controlan la intensidad pero de un Figura 2. Conceptos básicos 1 percibimos lo mismo en una escena a plena luz del día que en un interior iluminado por una vela. Para que esto no resulte equívoco precisemos que. por intensidad se entiende corrientemente una medida relativa de energía radiante: la cantidad de energía transferida por unidad de área (expresada corrientemente por unidades tales como watios por metro cuadrado). por tanto. que se distribuye según una escala logarítmica que se corresponde aproximadamente con la percepción humana. 1944) e inferiores (3. Tiene la ventaja de que permite representar números muy grandes o muy pequeños. No es. es decir que 200 watios/m2 de intensidad es el doble que 100 watios/m2. con independencia de que esto sea así realmente o de las causas de que esto sea así. Los sentidos de un ser humano abarcan un rango dinámico muy amplio si se tienen en cuenta los diferentes niveles de adaptación. 1920) corresponden a mediciones de otros investigadores. Ahora bien el rango dinámico (la relación entre la intensidad máxima y mínima) de estas escenas es completamente diferente. Y es una medición lineal. Sin embargo. aunque el factor de contraste (la relación entre el brillo máximo y mínimo de un imagen) no varíe substancialmente. Teoría de la Imagen Digital. El oido humano abarca un rango de hasta 100 dB que iría desde la percepción de leves roces en una habitación insonorizada hasta la asistencia a un concierto de heavy metal con los altavoces a plena potencia.1. en relación con un nivel de referencia determinado (implicado o directo). para la percepción auditiva (una cinta magnética tiene un rango dinámico de unos 55 dB y un disco de vinilo de unos 65 dB). 1982 modo no lineal y la identificación entre voltajes e intensidades puede inducir a confusión. aproximadamente. una cantidad que se pueda medir de un modo objetivo aunque si es posible relacionarla con mediciones objetivas. Recordemos que el decibel es una unidad de medida que se emplea para expresar cómodamente la magnitud de una cantidad física. el rango dinámico está en torno a los 30 dB una cifra que vale también. Y pueden pasar de veinte minutos a media hora hasta que nuestro sistema visual se haya adaptado a las nuevas condiciones. La vista humana abarca un rango de unos 90 dB que iría desde la percepción de un objeto pequeño en una noche sin luna y el mismo objeto a pleno sol. tanto auditiva como visual y que permite simplificar los cálculos mediante adiciones y substracciones en lugar de multiplicaciones . en cualquiera de los dos casos se requiere más de 20 minutos de tiempo de adaptación y en un nivel de adaptación determinado. Los trazos superiores (1. Relación (curva 2) entre V (luminosidad percibida) e Y (luminancia) según la CIE (196). generalmente energía o intensidad. Adaptado de Wyszecki y Stiles.

01 (un contraste de 1%).000. rojo.000 / 1 2. alrededor de 9 bits por pixel. por ejemplo. Número de colores En el caso de las imágenes cromáticas los parámetros que se deben considerar son los 256 niveles de gris a través de tres canales RGB (Red.5 7. con este factor de progresión de 1. Pero también podemos razonar a la inversa. decidir que sólo vamos a utilizar 8 bits lo que nos da 256 intensidades lo que está comprobado que da resultados suficientemente buenos como para que los degradados continuos se vean realmente continuos aunque es posible que en condiciones especialmente buenas se aprecien franjas en las zonas obscuras. Resumiendo: el control de los valores implica fenómenos complejos. nada triviales. sol Ojo adaptado Cámara analógica Monitor plasma Cámara digital Monitor LCD gama alta Monitor CRT gama alta Cámara digital Fotografía impresa Monitores corrientes contraste de referencia suficientemente bueno. La televisión digital de buena calidad tiene un factor de contraste de 50:1. su expresión en decibeles se cálcula mediante la fórmula: LdB = 10 log10 (P1 / P0) Así si. verde y azul. La tabla adjunta muestra ejemplos de rango dinámico expresados en dB y de otros modos.000 / 1 100.01. Las condiciones habituales de trabajo en una oficina hacen que el factor de contraste pueda llegar a ser tan bajo como 5:1. Curso 2008/2009 y divisiones. Se desarrolló por los ingenieros de los Bell Telephone Laboratories (de ahí el nombre) y se le dio el nombre actual hacia 1923. lo que nos dará LdB = 10 log10 (1000 / 1) = 10×3 = 30. Green. Si LdB representa la proporción entre dos potencias P1 y P0. Blue).000 / 1 1. Para una codificación no lineal. la visión humana tiene un factor de contraste de 100:1 que. esto quiere decir que seremos capaces de diferenciar entre dos zonas si su relación de intensidades es de 1. Dado un nivel de adaptación determinado. Si asumimos 100:1 como un factor de Situación Exterior/Interior Exterior.5 7a8 Rango dinámico 1. Una fotografía en color tiene un factor de contraste de 80:1 aproximadamente. necesitaríamos 460 codificaciones.000 / 1 1000 / 1 500 / 1 400 / 1 200 / 1 100 / 1 Rango dinámico de diferentes escenarios . Los técnicos de TV asumen que la habitación en que el televisor se va a utilizar tiene un factor de contraste de 30:1.200 / 1 1.16 Aplicaciones Informáticas. que deben tenerse muy en cuenta para controlar la calidad de una imagen al utilizar los procedimientos de edición de imágenes que introduciremos más adelante. en circunstancias óptimas puede llegar a ser de 200:1. dB 90 50 40 33 30 30 30 27 26 23 20 Pasos EV 17 a 18 14 a 17 11 10 10 10 9 8.000 / 1 10. queremos expresar en dB un rango dinámico de 1000:1 todo lo que tendremos que hacer es substituir estos valores en la fórmula anterior.

solamente una cifra muy inferior al 5% puede ser efectivamente distinguida por una persona normal. 8 bpp × 3 canales). Por último. Una escena que no contenga degradados y que se reproduzca con 8 bpp (3. Saturation. Si se envía la imagen a imprimir hay que traducir estos valores al código CMYK (Cyan. Cuando se trabaja con imágenes muchos prefieren utilizar un tercer código que es intuitivamente más fácil de comprender. 3 y 2 bpp por canal) esto es. llevadas a cabo con espectrofotómetros. ésta es una limitación que hay que tener muy presente cuando se lleva a imprimir una imagen que se ha trabajado en un monitor. Magenta. amarillo y negro. son diferentes en un monitor o en una impresora de color. Esto se puede solucionar hasta cierto punto Tanto la etiqueta “color real”.7 millones de colores. para captar el “color real” de una imagen habría que utilizar un número de muestras superior a los convencionales 3 colores primarios. Black). toman muestra cromáticas . por añadidura. deben tomarse con reserva.048. el HLS (Hue. si queremos simular una escena real puede resultar completamente desproporcionado pues el rango dinámico de la escena tiene realmente una distribución más compleja. magenta. Yellow. Si cada uno de los ejes que representan los colores primarios Red (rojo). rangos que. Este rango es el propio de lo que se denomina “color real” (true color) y proporciona una representación libre de las imperfecciones que mencionabamos en el apartado anterior. daría del orden de 40 muestras requeridas para una reproducción verdaderamente fiel. tiene u na escala ponderada en 256 intervalos. Green (verde) y Blue (azul). las posibles combinaciones que se pueden obtener se darán en un rango dado por el producto 256 × 256 × 256 o lo que es lo mismo 224 (24 bpps. De los 16. Ver la figura 7. será prácticamente indistinguible de la misma escena reproducida con 24 bpp. escalas de tonos y formatos HDR (High Dynamic Range) Las complicaciones que hemos apuntado para imágenes monocromáticas se repiten. Es decir unos 16. En primer lugar.536 1. Lightness) pues está basado en variables perceptivas. los dispositivos utilizados en informática tienen rangos limitados que les impiden reproducir muchos colores que se encuentran en escenarios reales. para un ancho del espectro visible que podemos situar entre los 400 y 800 nm aproximadamente.216 cada 5 o 10 nanómetros lo que. Teoría de la Imagen Digital. Si trabajamos con imágenes cromáticas y pretendemos. por ejemplo.4 al final de este documento. con tan sólo 256 colores totales. Las mediciones más exactas. No todas las placas gráficas proporcionan la misma cantidad de colores.777.7 millones de colores requeridos por razones técnicas. cían. aumentadas. los 256 colores por canal son necesarios para evitar la aparición de bandas de Mach pero esto no implica que haya una mayor cantidad de colores realmente percibidos.1. En segundo lugar.576 16. Es posible encontrarse por diversas causas con alguna de estas combinaciones u otras intermedias. el resultado. para imágenes cromáticas. basado en los tres colores primarios utilizados en mezcla sustractiva. Rango dinámico. Conceptos básicos 1 Estos son los tres colores primarios utilizados en mezcla aditiva. utilizar una fuente de luz con 256 niveles para cada canal de color primario. bpp: 1 2 4 8 16 20 24 colores: 1 4 16 256 65.7 millones de colores. como la cifra de 16.

También se han fabricado monitores especiales (el fabricado por BrightSide Technologies alcanza factores de 200. En 1997 y 1998.18 Aplicaciones Informáticas. los detalles de las zonas en sombra se fundirán en una zona obscura homogénea. por ejemplo. Las tarjetas gráficas mejores que se comercializan en 2006 . 1998) que marcarían el inicio de una nueva fase y la popularización de estos métodos. como decíamos. las zonas obscuras se aplastan en torno a unos pocos valores bajos. Curso 2008/2009 mediante una redistribución de las escalas de intensidades. si la exposición es correcta para las zonas luminosas. El método desarrollado por Debevec y Malik. Pero las primeras contribuciones efectivas se deben a Greg Ward que ha hecho numerosas aportaciones a métodos de simulación visual y que presentó en 1985 el programa Radiance que utilizaba unidades fotométricas reales para los cálculos de iluminación y que codificaba la información obtenida mediante valores abiertos en lugar de números enteros en un rango limitado de 0 a 255 (8 bits) como es corriente en un mapa de bits estándar. Paul Debevec presentó dos ponencias en SIGGRAPH (Debevec 1997. Pero un método más efectivo es la utilización de imágenes grabadas en formato HDR (High Dynamic Range). Por esta razón muchos investigadores han desarrollado métodos para convertir imágenes HDR en imágenes LDR sin perder excesivo detalle. sobreexpuestos. Esto no es posible si se utiliza cualquier método de captación de imágenes convencional pues en estos casos es preciso ajustar la exposición a la luminosidad media: como sabe cualquier aficionado a la fotografía si. Las primeras ideas en que se basa este formato se remontan a los 1930 y los 1940 y a las fotografías tomadas por Charles Wickoff de explosiones nucleares. DirectX ha desarrollado GPUs que soportan el software Shader Model que permite la representación de imágenes HDRI.000/1) aunque en condiciones corrientes este factor (medido en una habitación completamente obscura) es bastante menor. entre otros. Y si. se saca una fotografía al pleno día con luz brillante y se ajusta la exposición para que las zonas iluminadas queden bien expuestas. se saca una fotografía de un interior y se ajusta la exposición para que los objetos del interior queden bien expuestos. Uno de los problemas que aparecen a continuación es como mostrar estas imágenes en dispositivos que no son HDR (High Dynamic Range) sino LDR (Low Dynamic Range): la mayoría de los monitores tienen un factor de contraste de 500/1 (los de plasma llegan a 10. a la inversa. “Rango Dinámico Elevado”. Estas tomas se combinan de tal modo que la imagen resultante muestra detalles tanto en las zonas brillantes como en las obscuras. La idea principal era superar la limitación inherente a las imágenes digitales corrientes que comprimen el rango de intensidades que puede captar el ojo humano debido a que una determinada exposición queda restringida a un rango relativamente estrecho. fundidos en una zona clara homogénea. Por otro lado. En una fotografía corriente. Una imagen obtenida por medio de métodos que permiten grabarla en formato HDR es una imagen que almacena suficiente contraste y definición tanto en las zonas claras como en las obscuras. Y viceversa.000/1). Porgramas de rendering como 3D Studio Max o Maya utilizan recursos tales como la modificación del “control de exposición” que hacen precisamente esto: reproyectar una escala lineal sobre una escala logarítmica. los objetos que aparezcan a través de una ventana aparecerán quemados. cuando la industria había desarrollado técnicas diversas que permitían sacar mayor partido de la idea de Ward. se basa en obtener varias imágenes del mismo motivo pero con diferentes exposiciones. La primera ponencia de Debevec era un resumen de su tesis doctoral “Recovering high dynamic range radiance maps from photographs”.

con una resolución de 1024 × 768. los bordes de colores. con la resolución media de los monitores que es de unos 72 dpi (para una distancia de observación de 50 cm). Cuando el adaptador gráfico es incapaz de gestionar esta resolución reduce la imagen a un submúltiplo de la máxima resolución agrupando puntos para formar pixels mayores. no puede superar esta cifra. En este último caso.1 muestra un esquema que correspondería a una imagen determinada (izquierda) de la que se han suprimido la mitad de las muestras (centro) lo que produciría un efecto de pixelación. sobre un mismo monitor. lo que permite almacenar un rango dinámico mucho mayor que puede ser procesado por programas que puedan leer estos formatos para llegar a distribuciones más exactas de la iluminación de una escena. En el caso de un monitor. El número de pixels de una imagen depende. Pérdida de calidad de la imagen por insuficiente muestreo (a) o cuantificación (b) . en donde los pixels de la imagen 3 Perturbaciones características y métodos de corrección Las perturbaciones más características de las señales analógicas son el ruido. En los siguientes apartados nos referiremos a las perturbaciones principales que se pueden dar en las imágenes digitales. Casi todas estas alteraciones tienen su origen en fallos del dispositivo que impiden una grabación adecuada. el diámetro de los puntos terminales (dots) debe ser tal que no puedan distinguirse a cierta distancia. El ruido es una perturbación característica de las señales analógicas pero que se da también en las señales digitales y puede ser inducida ex profeso para conseguir determinados efectos. Conceptos básicos 19 también soportan este estándar. en última instancia. las pérdidas o alteraciones de tono. que es el ejemplo más familiar. o la mitad de los valores (derecha) lo que produciría un efecto de contorneado. las manchas. Una misma imagen puede ser mostrada. según lo visto más arriba. Para un monitor corriente esta distancia es de.1. para una resolución de 127 dpi. las franjas. Teoría de la Imagen Digital. Esto es posible porque el formato HDR no utiliza 8 bpp (bits por pixel) sino 16 bpp.1. Pixelación Tanto la pixelación como el contorneado son dos perturbaciones características de las señales digitales que se producen por insuficiencia de la resolución en el primer caso y por insuficiencia del rango de intensidades en el segundo. 40-50 cm lo que se corresponde. aproximadamente. la pixelación y el aliasing. las interferencias. Por añadidura este métodos se ha utilizado para generar imágenes que se utilizan como “mapas de irradiación”. del número de puntos físicos que tenga el dispositivo reproductor y obviamente. 800 × 600 o 640 × 480. a la distancia normalizada de observación de 25 cm. intensidad o saturación. La figura 3. Figura . Un mapa de este tipo se puede utilizar para simular la iluminación de un espacio real por medio de los valores de radiancia almacenadas en el mapa lo que permite obtener gradaciones no uniformes equivalentes a las de un espacio real y esto puede permitir generar escenas con un grado de realismo notable y mediante procedimientos relativamente sencillos. Las perturbaciones más características de las señales digitales son el contorneado.

Figura . Si no se alcanza esta cifra. Contorneado El contorneado (contouring) es otra perturbación característica de las imagenes digitales producida por un insuficiente rango de intensidades. de Peter Eisenman).. d) 20 dpi (la fotografía corresponde a las Oficinas Centrales Nunotani.20 Aplicaciones Informáticas. 1991-92. Es por esta razón que se requieren 256 niveles de gris. Efecto de pixelación por reducción de la resolución: a) 600 dpi. Esto puede apreciarse en un monitor si se modifica la configuración de pantalla para que trabaje en un rango menor y se abre un archivo en el que aparezcan degradados continuos. lo que equivale a 32 niveles de grises. Curso 2008/2009 mostrada corresponden a células formadas por agrupaciones de varios dots se puede apreciar claramente en pantalla el efecto de pixelación (pixellation). en el caso de imágenes con degradados finos y continuos. paredes blancas iluminadas con una luz tenue. es insuficiente. basados tanto en la capacidad de discriminación como en el control del ruido. como ya hemos dicho.3 muestra una serie de ejemplos correspondientes a varias resoluciones de una misma imagen. El número de grises necesario para mostrar una imagen con suficiente fidelidad estaría situado. y en función de diversos estudios. etc. para mostrar degradados continuos: aparecen franjas claramente visibles (bandas de Mach) que muestran la insuficiencia del rango utilizado para superar la hipersensibilidad de nuestro sistema receptor a los cambios relativamente bruscos de un degradado continuo. b) 10 dpi. en principio. en los 5 bpp. cielos sin nubes. Se comprobará cómo este degradado queda fragmentado por leves franjas que rompen su continuidad. o la cifra anterior en el caso de imágenes sin degradados notables. aparecen franjas visibles en la imagen que falsean la calidad de la reproducción. que es suficiente para reproducir la escala de grises de una imagen con buena calidad. Otro tanto ocurre si se imprime una imagen a una resolución insuficiente. Sin embargo esta cifra. . La figura 3. c) 60 dpi. Tokio.

Esto puede ser debido a diversas causas. La distinción es más esquiva de lo que puede parecer pues las señales “con ruido” no son intrínsecamente diferentes a las señales “sin ruido”. El ruido de fondo. en una señal. En general todos los sistemas físicos reales incorporan cierto grado de ruido a la imagen. La información que se gana por un lado se pierde por otro. Desde un punto de vista más atento a las aplicaciones prácticas se pueden distinguir dos grandes grupos que se corresponden con dos tipos de distribuición probabilística. Y tanto es así que uno de los métodos de corrección de imágenes por medio de filtros es introducir cierto grado de ruido para igualar y corregir rasgos excesivamente acusados que no se desean mantener. tanto si ésta se ha generado internamente como si se ha captado por algún dispositivo.4. El ruido determinado o no aleatorio se Figura 3. Ruido En el caso de señales analógicas se denomina ruido a una señal no deseada que aparece en un sistema de transmisión. b) 4 bpp. para expresar pérdidas y ganancias en cualquier sistema de comunicación.1.4 muestra una serie de ejemplos correspondientes a un rango de valores variables para una misma imagen. El ruido no puede evitarse sino disminuyendo las frecuencias esto es. c) 3 bpp. especialmente en aquellos basados en distribución de señales. Ya hemos visto que aunque el término y las unidades se asocian habitualmente a señales auditivas. Efecto de contorneado por reducción del muestreo en la imagen anterior: a) 8 bpp. . Teoría de la Imagen Digital. en general. Conceptos básicos 21 La figura 3. La medición del ruido se expresa en decibelios (dB) referidos a números S/N (signal to noise ratio). es debido a la agitación de electrones presentes en el canal antes del paso de los electrones propios de la señal. En general se consideran como “errores de medición” superpuestos a la imagen. la capacidad del canal. d) 2 bpp. se utilizan.

Muchos programas de tratamiento de imágenes llevan incorporados filtros especiales para eliminar ciertos ruidos característicos. que este espacio tridimensional de resolución prácticamente infinita se proyecte en un espacio bidimensional de resolución finita. Esto quiere decir que las coordenadas espaciales. El efecto más familiar de esta reducción es que. Curso 2008/2009 genera por un sistema concreto y tiene siempre un aspecto similar: franjas o bandas o nubes de puntos de determinadas características de tamaño y orientación. Un ejemplo corriente es el de una imagen captada de un libro en la que resultan claramente visibles las tramas propias de la impresión en cuatricromía. incluso. la resolución es. La figura 3. La distribución más utilizada en este tipo de filtros suele ser la gaussiana o variantes de la misma. También puede utilizarse de modo constructivo. con alteraciones variables en torno a un valor medio y con correlación nula entre puntos adyacentes. Pero se incluye en este apartado por ser una muestra fácilmente comprensible de todo un grupo de fenómenos que reciben tratamientos similares y que responden en general a una falta de correspondencia entre los canales de entrada y los de salida. utilizan funciones matemáticas de diversos tipos que introducen ruido en una imagen para generar efectos de textura más o menos controlados. Modificación de la imagen anterior por adición de Ruido . una línea diagonal muestre un escalonamiento perceptible. sirve para simular un efecto de textura rugosa. que pueden corresponder a números de varios dígitos con varios decimales. En muchos programas de tratamiento de imágenes es posible aplicar a este tipo de imágenes un filtro de “destramado” que elimina limpiamente las huellas de la trama. Esto es. Aliasing y antialiasing Cuando se trabaja en CAD. tanto en 2D como en 3D. en términos cercanos a números reales. a efectos prácticos. Para eliminar este tipo de ruido no suele haber otra opción que probar diferentes filtros que pueden reducir el nivel general de deterioro de la imagen en combinación con retoques locales. se trabaja en un espacio donde las especificaciones dimensionales se dan con considerable precisión. El ruido indeterminado o aleatorio se genera por causas diversas que no es posible identificar o corregir pues su distribución es aleatoria y cambia con el tiempo. deberán ajustarse a coordenadas de pantalla que no admiten más de. Figura . en todo momento. que la línea ya ha dejado de ser tal línea para convertirse en una yuxtaposición de segmentos. Este es un fenómeno que entra dentro del mencionado en el apartado anterior. pongamos por caso.22 Aplicaciones Informáticas. la pixelización y que ya hemos mencionado en capítulos anteriores. infinita. 1024 × 768 pixels.5 muestra la misma imagen de las figuras anteriores en la que se ha aplicado cierto grado de ruido por medio de filtros especiales a uno de los elementos lo que. En muchos casos es posible identificar su patrón de recurrencia. la visualización del proceso exige. Muchas texturas generadas por procedimientos algorítmicos. por ejemplo. es decir. lo que facilita su filtrado y eliminación. Ahora bien. en este caso.. Puede introducirse deliberadamente ruido en una imagen o en un sector de una imagen para ocultar defectos o. para generar efectos de textura.

pueden quedar enmascaradas. determinados puntos pueden desaparecer aleatoriamente o bien en que. alternativamente. O el de las televisiones parapadeantes que aparecen al fondo de los despachos de redacción en las secuencias informativas: al contemplar una pantalla que se enciende y se apaga a gran velocidad a través de otra pantalla que también se enciende y se apaga. Se denomina antialiasing al conjunto de técnicas que se utilizan para prevenir o disimular los defectos comprendidos genéricamente bajo la denominación de aliasing. en el momento de la reconstrucción. determinadas frecuencias características de la imagen. muestreo por área sin ponderar (b). Un efecto familiar es el de las ruedas que parece que van hacia atrás en las películas del Oeste.6 Muestreo por punto indicadas en la bibiografía general de la asignatura referentes a técnicas de tratamiento de imágenes tales como las de Foley (1990. Conceptos básicos 2 En sentido estricto. debido a que alguno de los componentes de la señal original estaba comprendido en frecuencias superiores a un determinado límite (denominado límite de Nyquist) y ha sido reconstruido en frecuencias más bajas. la mayoría de las técnicas principales de antialiasing se aplican en programas 3D y estos apuntes están dirigidos a técnicas propias de imágenes 2D. Otro tanto ocurre si se quiere obtener una imagen fotografiando una pantalla a una velocidad superior al medio o un cuarto de segundo de exposición: aparecerán franjas horizontales o “alias” que echarán a perder la imagen. el término aliasing debería reservarse para la aparición de fenómenos extraños que alteren notablemente el aspecto de la imagen original suprimiendo información relevante o alterando la existente hasta volverla equívoca.1. Glassner (1995) o Watt (1993. por ejemplo. lo que se traduce. se producen interferencias. . que pueden no ser relevantes desde un punto de vista probabilístico pero que lo son desde el punto de vista de su significado. pueden ir cayendo. por pérdida o modificación. ponderado con solapamiento (d). Otras manifestaciones típicas son temporales. Es un área de estudio de considerable complejidad por lo que nos limitaremos a mencionar algunos puntos principales. la geometría característica de un pavimento ajedrezado puede distorsionarse bruscamente en los confines de la imagen debido a que diminutas líneas. ponderado (c). El lector interesado puede encontrar información adicional en las obras Figura . Muestreo múltiple (a). demasiado pequeñas o demasiado juntas. Estos fenómenos se originan. Figura . Por otra parte. Teoría de la Imagen Digital. dicho de un modo menos técnico en que. dentro o fuera del área muestreada lo que ocasiona que desaparezcan o que se salgan de la alineación que les corresponde. 1996). En casos singulares. 2001).

Un filtrado previo de la imagen por un filtro de pasa-bajas (low band filtering) puede eliminar estas distorsiones. Las frecuencias bajas corresponden a zonas en las que los valores de luminancia de la imagen varían con suavidad.3 (más adelante) que muestra lo que ocurre cuando se intenta reducir la escala de un patrón regular. se utilizan sistemas de filtrado que se basan en hacer una lectura más precisa del área problemática para luego traducir estos valores a intensidades que tengan en cuenta los valores adyacentes o internos. las grandes cantidades de memoria requeridas para mantener resoluciones equivalentes en calidad a las de las señales analógicas. La solución para estos defectos es la utilización de filtros de diversos tipos. utilizados para realizar cálculos matemáticos complejos con cantidades discretas. a finalidades diferentes. 4 Medios de digitalización En términos generales ya se ha dicho que una señal analógica es una señal que se asemeja. Pero una señal analógica. Un programa de modelado 3D no parte de una imagen previa sino de unas ideas y de unos datos a partir de los cuales se construyen una serie de objetos virtuales que dan lugar a una imagen proyectada sobre la pantalla del ordenador o impresa con un dispositivo adecuado o grabada en un . Las señales analógicas se relacionan con la radio y la televisión que buscaron desde un comienzo reproducir el sonido y la imagen por medio de curvas que fueran variando de perfil de un modo continuo. mediante una correspondencia continua. históricamente. con procedimientos diferentes que están asociados. va desapareciendo a medida que se incrementan las capacidades medias de los ordenadores corrientes. discontinuos. Las ventajas de una señal analógica estriban en su capacidad intrínseca para reproducir con fidelidad el original. En términos generales puede decirse que todo parece estar a favor de la digitalización. La cuestión clave es saber qué grado de digitalización soporta una señal en un medio determinado. En programas de modelado 3D. en donde se utilizan dimensiones geométricas más precisas que deben en última instancia proyectarse o imprimirse en una imagen con una resolución limitada. como sería de esperar. es más probable que se produzcan alteraciones. Las figuras 3. por esta misma razón. siempre incorpora algo más de lo que interesa y que aparece como “ruido” o “distorsión” de la señal. la tecnología electrónica. en consecuencia. han ido dirigidas a combinar estas dos ventajas en un único sistema. mientras que una señal digital es una codificación de dicha imagen en elementos discretos. Las frecuencias altas corresponden a zonas en las que estos valores varían bruscamente y donde.7 muestran esquemas que ilustran el tipo de medición que se lleva a cabo en estos casos.6 y 3. Curso 2008/2009 La figura 6. obedece a un fenómeno similar. Una señal digital sólo reconoce un nivel preestablecido. Las ventajas de una señal digital están en su exactitud y en la ausencia de errores o señales secundarias que interfieran con la imagen o el sonido. El principal inconveniente. al fenómeno que la ha producido.24 Aplicaciones Informáticas. Las señales digitales se relacionan con los primeros computadores. El mecanismo más corriente es utilizar filtros de corrección de las frecuencias. Dado que los filtros se utilizan tanto para corregir errores de digitalización como para modificar a consciencia partes de la imagen volveremos a abordar el tema de un modo más general al final de este documento. La obtención de una imagen digital puede llevarse a cabo por medios internos y por medios externos. Las señales analógicas y digitales utilizan una misma base. Las investigaciones.

en segundo lugar con un dispositivo digitalizador que convierta la anterior señal eléctrica en digital. Es el método utilizado en los escáners de tambor que se describen más adelante. como es el caso de los escáners de sobremesa. Conceptos básicos 2 disco magnético u óptico para su utilización posterior. denominadas fotositos (photosites). Teoría de la Imagen Digital. Son dispositivos relativamente lentos pero que pueden alcanzar precisiones muy altas. Aunque no debe perderse de vista que la imágenes creadas en un ordenador tiene las mismas características que las imágenes captadas del mundo real lo que nos interesa aquí es es conocer la tecnología con que se cuenta para grabar imágenes reales y qué es lo que se puede esperar de esta tecnología. cámaras tipo vidicon y matrices de estado sólido. preferentemente transparente. rastrea la imagen enviando puntos microscópicos a un fotodetector que codifica su nivel de gris. que por lo general se fija alrededor de un tambor giratorio. Todos los escáners se basan en un mismo proceso que. Un CCD consiste básicamente en un hilera de fotositos. proporcional a la intensidad de la señal luminosa. descrito . generalmente emitido por láser. Y. Un rayo de electrones rastrea la superficie y genera un diferencial de potencial que da lugar a una señal proporcional al patrón luminoso. ciertos mecanismos de transferencia y un amplificador que envía una señal eléctrica a un dispositivo de registro. La cámara tipo vidicon se utilizó por primera vez en los 1950 para televisión y fue el primer tipo de cámara cuyo funcionamiento se basó en principios de fotoconductividad. era más pequeña y manejable y sustituyó en poco tiempo a otro tipo de cámaras. así obtenida. Pero en términos generales puede decirse que. Un rayo de luz. o bien en forma de área o matriz (area sensors) como en las cámaras de TV. ordenadas en filas y columnas. En la actualidad las más corrientes son las últimas En los dispositivos que utilizan microdensitómetros se requiere que la imagen esté dada por medio de una película. de modo similar al caso anterior. un dispositivo físico sensible a unas determinadas bandas de energía electromagnética del espectro visible o invisible. Este proceso varía según la naturaleza de los objetos que se quieran reproducir. (dispositivos de carga acoplada). Los dispositivos que utilizan matrices de estado sólido están basados en mínusculas células de silicon. Charge-Coupled Devices.1. Estos sensores se suelen disponer bien en forma alineada y sometidos a un desplazamiento horizontal (line scan sensors). hasta hace poco se utilizaban principalmente tres tipos de tecnologías: microdensitómetros. el cual produce una señal eléctrica proporcional al nivel de energía recibida. Ambas tecnologías están basadas en lo que se conoce como CCDS. tiene las mismas características que una imagen de un objeto real captada por un aparato adecuado. Una imagen. Esta señal se codifica en cantidades discretas junto con la posición correspondiente en la imagen. Medios de obtención de una imagen digital Para obtener una imagen digital debe contarse en primer lugar con un sistema adecuado para su captación. La imagen enfocada sobre la superficie del tubo genera un patrón de conductividad variable a la luz que reproduce el patrón de intensidades luminosas de la imagen. Escáners Un escáner puede definirse genéricamente como un instrumento óptico capaz de captar imágenes mediante un sensor que traduzca impulsos lumínicos a impulsos electrónicos y estos a información digital.

1 ilustra este proceso básico. posteriormente para la Radio Corporation of America. en el caso de un original transparente. Los escáners incorporan un mecanismo que permite desplazar el sensor sobre la imagen original o que permite a la imagen original moverse bajo el sensor. Otros modelos emiten tres diferentes haces de luz. Los primeros escáners estaban destinados a la grabación de clichés tipográficos por lo que cualquier comparación con los actuales puede resultar equívoca. El escáner de sobremesa (flatbed). El primero fue desarrollado inicialmente para la Interchemical Corporation y. Cuanto mayor sea la cantidad de éstos que pueda ser dispuesta sobre el cabezal de lectura. La profundidad de lectura depende por añadidura de la capacidad del convertidor analógico digital para dividir la señal analógica en particiones discretas. hasta llegar al CCD que registra la señal. un sistema de filtros de colores y un CCD capaz de registrar la luz que recibe en forma de voltaje eléctrico. Hasta la década de los setenta no se pudieron desarrollar la mayoría de los dispositivos actuales entre los cuales juega un papel fundamental la exploración por medio de rayos láser. La luz se refleja. Con todo. La figura 4.1. en el caso de un original opaco. la luz reflejada se hace pasar por una serie de espejos y prismas y tres filtros de color. con muchas reservas. Una fuente de luz ilumina de modo regular la superficie que se pretende capturar. mayor será el número de puntos que puedan ser captados. una fuente de luz ilumina el objeto. o atraviesa la imagen. el manual y el de tambor. en lugar de utilizar filtros. el sistema de registro óptico y conversión en señal electrónica de la señal óptica era similar. La mayoría de los escáners pertenecen a cinco tipos básicos.26 Aplicaciones Informáticas. La figura 4. La resolución depende directamente de la densidad de CCD.2 muestra un esquema de los tipos principales. En cada pasada. un juego de espejos o prismas. Los primeros escáners que se construyeron fueron los inventados por Hardy y Wurzburg y por Murray y Morse (patente de 1941). Según los tipos de escáner puede registrarse toda la información en una sola pasada o en tres pasadas. Un convertidor A/D convierte los impulsos eléctricos en números. En el caso de un escáner de sobremesa. Curso 2008/2009 del modo más simple posible. Los escáners de tipo plano o de sobremesa (flatbed) funcionan de modo semejante a una Figura 4. el de cabezal superior (overhead escáner). el cabezal óptico incorpora la fuente de luz. El dispositivo fundamental queda incorporado en lo que se denomina el cabezal óptico. consiste básicamente en lo siguiente. una para cada color primario. Funcionamiento básico de un escáner plano . el escáner tipo fax o de alimentación automática de hojas sueltas (sheetfed o page feed scanner). Puede considerarse. y se hace llegar a un sensor capaz de captar la imagen y convertir los datos analógicos en datos digitales. Puede considerarse como el antecesor de los actuales drum scanners. El segundo fue desarrollado inicialmente para la Eastman Kodak Company y subsecuentemente para la Time Incorporated y su filial Printing Development Incorporated (PDI) que dio su nombre a este primer escáner. como el antecesor de los actuales flatbed scanners en la medida en que tambien efectuaba lecturas sobre un original dispuesto sobre un plano horizontal por medio de un aparato de registro que iba recorriendo línea por línea este original y transmitiendo la señal codificada a otro dispositivo.

Tipos de escáners. utilizando la iluminación ambiental para iluminar la muestra lo que implica una considerable pérdida de precisión. En ellos el sensor está dispuesto por encima de una plano que admite la colocación de cualquier objetos voluminoso. Escáner de tambor. Obviamente las limitaciones por lo que respecta al tipo de originales son mayores que en el tipo anterior. que ha sido previamente seleccionada utilizando el software propio del aparato. Se utilizan como proyectores de cuerpos opacos en conferencias y también para obtener vistas digitalizadas de un objeto. Actualmente no se comercializan de modo autónomo sino incorporados a dispositivos multiuso que combinan las funciones de escáner. con las obvias ventajas e inconvenientes Figuras 4. Pueden incorporar adaptadores para captar trasparencias o diapositivas. Se coloca el original sobre un cristal y el dispositivo CCD al que nos hemos referido anteriormente. Teoría de la Imagen Digital. Escáner de cabezal elevado. iluminando alternativa o simultáneamente con luces de color de gran intensidad la zona que se quiere digitalizar. Son escáners particularmente útiles cuando se quiere escanear varias hojas en sucesión. de alimentación hoja a hoja (sheetfed o page feed) lo que se desplaza es el original. se desplaza por debajo del mismo. . En los escáner tipo fax. De izquierda a derecha y de arriba abajo: Escáner plano.2. Conceptos básicos 2 fotocopiadora. Los escáners de mano (handyscan) funcionan igual que los de tipo sheetfed pero sin mecanismo de motorización ya que es la mano la que impulsa el sensor sobre el papel. ya que sólo se pueden leer imágenes contenidas en una hoja de grueso corriente. impresora y fax. como ocurre cuando se utiliza un sistema OCR para digitalizar textos.1. Un tercer tipo son los escáners de cabezal alto (overhead). Esquema de funcionamiento de un escáner de tambor.

0 es un límite práctico que no puede alcanzarse por limitaciones físicas. Los valores que siguen están referidos exclusivamente a resoluciones ópticas. Cuanto mayor sea la densidad menor será el brillo. Otro aspecto importante que se debe tener en cuenta es que. si este es menor. Es importante tener presente cuál es el rango dinámico de las cosas que se vayan a escanear pues. La densidad se mide sobre una escala logarítmica de base 10 lo que significa que un rango de densidades de 2. inicialmente. Una limitación importante es que los originales no pueden ser rígidos.0 equivale a un rango de intensidades de 100:1 y uno de 3. Los escáners captan la densidad de una imagen. es una advertencia para recordar que el rango dinámico de densidades no . por su “número de bits”.2 El asterisco *. por lo que se utilizan a través de algún tipo de empresa de servicios y para trabajos profesionales de edición o casos especiales.2 que ofrecen calidades semejantes a un precio algo inferior. Las posibilidades de los tipos descritos varían según el modelo o fabricante. La siguiente tabla muestra los rangos dinámicos de densidades de soportes corrientes de imágenes: Impresas en libros o revistas Fotografías Negativos de buena calidad * Diapositivas * 1. Así.0 2. obviamente. El rango 4. por razones técnicas.9. Si se va a digitalizar una imagen con bastante detalle en las zonas de sombras deberán buscarse alternativas de digitalización o bien.7 a 1. incluidos libros voluminosos y que son fácilmente transportables.2 y un Dmax de 3. Este número de bits está relacionado directamente con el rango dinámico de un escáner pero no significa exactamente lo mismo.1 su rango dinámico será Dmax-Dim = 2. y están especialmente indicados para trabajos de gran tamaño ya que existen modelos con capacidad de hasta un DinA0. Su coste es muy superior al de cualquiera de los anteriores. Las versiones actuales son inalámbricas y bastante más caras que los viejos escáners manuales que han desaparecido del mercado Los escáners de tambor (drum scaners) son los más precisos ya que en ellos la fuente de luz y el sensor se desplazan muy lentamente en sentido paralelo a un cilindro sobre el que se ha colocado el original que gira a gran velocidad. obtenida por software. semejantes al modelo que se muestra en la figura 4. cada vez más de 42 o 48 bits.9 a 2. los problemas son de otro orden.8 3. La mayoría de los escanners modernos (2008) son de 36 bits aunque hay algunos de sólo 30 bits y muchas.8 1. tienen limitaciones importantes al leer los tonos oscuros. en que están basados la gran mayoría de los escáners de sobremesa. En el trabajo profesional de retoque de imágenes prácticamente sólo se utilizan los escáners de sobremesa y los escáners de tambor. Los valores mínimos y máximos se denominan respectivamente Dmin y Dmax y el rango dinámico de un escáner es la diferencia entre estos dos valores. si un escaner tiene una Dmin de 0. La densidad de una imagen puede medirse con densitómetros ópticos cuyo rango va de 0 (blanco puro) a 4 (negro puro). Sus mayores ventajas son que permiten digitalizar todo tipo de objetos. Curso 2008/2009 que esto implica. intentar aclarar la imagen para recuperar el detalle. los CCD. Hay que diferenciar muy claramente entre lo que es la resolución óptica del dispositivo sensor y lo que es la resolución por interpolación. Los escáners modernos se clasifican.28 Aplicaciones Informáticas. como ocurre en la mayoría de los casos.0 a uno de 1000:1. si el software del escáner lo permite. En los últimos años han aparecido escáners de pseudotambor.

desde el punto de vista fotográfico es del orden de 5 a 6 f-stops mientras que el de un negativo puede ser de 9 o 10 f-stops.1.8 coincide con el rango dinámico del dispositivo. utiliza una lente. un dispositivo capaz de transformar señales luminosas en señales eléctricas que. es decir 4096.4 3. que son las más delicadas. En esta figura puede apreciarse claramente como. Un escaner de 30 bits utilizará 10 bits. La columna de la derecha representa la capacidad máxima en términos de la traducción de valores máximos. Los vendedores de escáners presentan a menudo esta cifra como equivalente al rango dinámico del escáner lo cual es completamente equívoco pues representa un límite teórico no una capacidad real.0 3.2 4. en los que la imagen está invertida y el ruido se desplaza a las zonas más claras en donde es menos apreciable. Esto quiere decir que contará con más casillas para guardar matices. lo hace sobre un CCD. lo que quiere decir que aceptará 256 intensidades para representar el color escaneado. Esta información se graba en un chip o en una tarjeta removible . un dispositivo capaz de transformar señales analógicas en digitales. a densidades. a su vez pasa esta información a un AD.6 4. un mecanismo de apertura y un sistema de enfoque. a diferencia de lo que ocurre con los negativos. Cámaras digitales Una cámara digital puede considerarse como una combinación entre una cámara fotográfica tradicional y un escáner. escáners de tambor. como el segundo. principalmente en las áreas obscuras. como los PMT (Photo Multiplier tubes. en bits. es decir que aceptará 1024 intensidades. Pero. Como la primera. Conceptos básicos 29 Tipo de escáner (máximo bits) 24 (8×3) 30 (10×3) 36 (12×3) 42 (14×3) 48 (16×3) Valores posibles (2num bits) por canal 256 1024 4096 16384 65536 Densidad máxima (log10 de valor máximo) 2. el hecho de que cuente con más casillas no quiere decir que las guarde. La tabla adjunta muestra los rangos dinámicos de escaners Los bits representan capacidades. muy caros) pueden proporcionar. La figura adjunta muestra una muestra de una curva de densidad [adaptada de información Kodak 1995] algo anticuada pues los escáners modernos dan rendimientos algo mejores. cambios amplios de intensidad (recorridos horizontales) afectan muy poco a los cambios de densidad (recorridos verticales) mientras que todo lo contrario ocurre en el extremo derecho en donde cambios muy pequeños de intensidad requieren grandes cambios de densidad que sólo los escáners más potentes. Un escaner de 24 bits utiliza 8 bits para cada color primario. Un escaner de 36 bits utilizará 12 bits. pero que servirá para ilustrar las ideas principales. en el extremo izquierdo. El rango dinámico de una diapositiva. Sin embargo la diapositiva tiene una curva característica más inclinada (un factor gamma mayor) y en los extremos la densidad es mayor. Ahora bien. igual que si tenemos muchas maletas para llenarlas de billetes no quiere decir que seamos millonarios pues las maletas pueden estar vacías. Teoría de la Imagen Digital. en lugar de enfocar la imagen sobre una emulsión sensible a la luz.

del orden de 5 veces más resolución que las obtenidas por este sistema. El tipo alto. cuatro tipos principales de cámaras digitales. esto es. simplificando. La mayoría de las cámaras de coste bajo no superaban los 1024 × 768 puntos (en 2000). lo que limitaba su aplicación a vídeo o tomas en las que no interesase la calidad como factor prioritario. con una resolución de 3 a 5 MP. con un coste más elevado. podemos decir que para imprimir en un Din A3 con márgenes (18×13. con una resolución superior. con un software interno más complejo que permite . Curvas de densidad de diferentes tipos de escáner (adaptado de Kodak. Sin embargo. Puede decirse que hay. factores algo mayores y.30 Aplicaciones Informáticas.5 MP y para imprimir en un Din A4 con márgenes (18×24 cm) unos 6 MP. Curso 2008/2009 Figura 4. etc. Hasta hace poco la principal limitación de los modelos actuales era la resolución y la calidad de la imagen. con una óptica algo más elaborada que incorpora un factor de zoom de unos 3x por lo menos y con controles manuales más sofisticados. una resolución superior que puede ser del orden de los 8 a 10 MP. principalmente. El tipo básico. en 2008. 199) y. de aquí. la evolución ha sido extraordinariamente rápida y los modelos de coste medio/alto ya alcanzan. resoluciones de más de 8 o 10 megapixels.000 líneas. El tipo medio. Una diapositiva de 35 mm tiene del orden de 4.5) se necesitan unos 3. de 5 a 7 MP. El tiempo de exposición es algo mayor que el requerido en las cámaras tradicionales aunque esto ha mejorado bastante en los modelos más recientes. El número de tomas depende de la memoria y de la resolución. Ver el apartado “Impresión” para la correspondencia entre resolución y tamaños de impresión. menos de 1 MP. fundirla con otras imagenes. en 2008. Pero.3. puede llevarse directamente a un laboratorio para que revelen la imagen o puede cargarse directamente en un PC para modificarla. con una distancia focal fija o un factor de zoom modesto y con controles básicamente automáticos. incorporarla a animaciones.

lo que es un modo relativamente eficaz de digitalizar dibujos o datos basados en líneas. las imágenes más adecuadas para el caso de que se trate. Por último. lo que permite llevar a cabo este mismo operaciones con similar precisión y bastante más comodidad. mucho más cara que las anteriores y con dos diferencias fundamentales: un sistema óptico que permite visualizar exactamente lo que se grabará mediante un sistema de prismas similar al de las cámaras reflex analógicas y la posibilidad de utilizar lentes de diferentes tipos. con un programa de edición de imágenes. Hay varios tipos. si no hay una buena razón en contra.1. Sobre la superficie de la tableta se hace discurrir un digitalizador: un lápiz electrónico o un ratón de características especiales que pueden incorporar un pequeño visor de aumento. Esto supone una importante ventaja y un grave inconveniente. Y una cámara con un ultra zoom de 12x implica una óptica de 35 a 420 mm (35×12=420). La primera recomendación es que sea de la mejor calidad posible (Leica o Zeiss son. buenas referencias). Además de la resolución. como las tarjetas tipo xD. La digitalización de imágenes puede también hacerse a partir de imágenes tomadas con una cámara de vídeo. Pero lo habitual es utilizar como referencia la gama de aumentos. con toda la tranquilidad requerida. hacer este aumento a posteriori. Las razones por la que su uso ha retrocedido son el abaratamiento de los escáners y la gran variedad de herramientas con que cuentan los programas de CAD actuales para leer imágenes. Todo esto permite que cualquier punto marcado sobre la tableta quede registrado en el ordenador con ayuda de los botones con que cuenta el digitalizador. la cámara digitals reflex (D-SLR. La ventaja es que puede sacarse gran partido de la agilidad y de la riqueza de alternativas que proporciona el vídeo. utilizadas con las cámaras Fuji y Olympus o las MS (Memory Stick) de Sony pero los tipos más generales. Teoría de la Imagen Digital. Una cámara digital con una óptica de 35 a 105 mm se especifica como una cámara con una óptica de 3x pues 35×3 = 105. Puede filmarse toda una secuencia en directo y entresacar a posteriori. el Zoom Digital todo lo que hace es aumentar un porción central del sensor con lo que la resolución disminuye. Una tableta digitalizadora consiste en un tablero por el que discurren internamente una serie de cables. El inconveniente es que la resolución y la calidad de la imagen quedan limitadas por la resolución propia del vídeo que es de 625 líneas. Otros medios Un último método de digitalización que debe mencionarse aunque su uso ha retrocedido bastante son las tabletas digitalizadoras. . en 2008 a los 16 Gb. En segundo lugar hay que recordar que el Zoom Óptico implica una variedad real de aumentos que corren a cargo de la lente con lo que la imagen final tendrá la misma resolución para uno u otro valor. algunos dependientes de modelos comerciantes concretos. La red de cables que discurre por el interior de la tableta permite detectar la posición del digitalizador. Por el contrario. por ejemplo. Conceptos básicos 1 escoger entre una variedad considerable de controles automáticos y manuales. Digital Single Lens Reflex). Las distancias focales de las cámaras digitales se especifican en relación con la distancia focal de una cámara de cine de 35 mm. Será preferible. debe escogerse con cuidado el sistema óptico. La tableta se calibra de modo que su superficie se corresponda con la de una superficie equivalente especificada sobre el monitor. como las CF (Compact Flash) sirven para todo tipo de cámaras con valores de almacenamiento que llegan. El sistema de almacenamiento se basa en tarjetas removibles.

Y. Para evitar problemas es recomendable la utilización de conversores especializados o de un software Volumen y equipamiento requerido Una imagen a toda página. para mejorar sus prestaciones. La mayoría de los programas de retoque o edición de imágenes incorporan conversores que automáticamente trasladan la imagen de un formato a otro. Otros han surgido mediatizados por los entornos operativos. como los subsidiarios del Windows.. BMP o de sus primeras aplicaciones como el Paintbrush. ni qué método de conversión emplean. que se necesita una memoria principal (memoria RAM) muy superior a lo corriente para otro tipo de aplicaciones. en tercer lugar. en segundo lugar. En segundo lugar. de este tipo de información. sin previo aviso. La generalización de las grabadoras de CD y DVD ha simplificado este problema y la opción más recomendable y más utilizada es grabar la información en un CD o DVD en fases intermedias o una vez que se ha terminado el trabajo. Esto supone. Curso 2008/2009 5 Almacenamiento El trabajo con imágenes implica manejar un volumen de información mucho mayor que el que se da con otro tipo de programas. y utiliza parámetros propios para la codificación o gestión de la información. este es el caso de los ficheros tipo EPS o PostScript Encapsulado. GIF o JPEG. Formatos El tratamiento de imágenes está lejos de ser un campo donde sea fluido el intercambio de información. no obstante poco a poco algunos se han ido convirtiendo en formatos de transferencia generalizados. Algunos han sido concebidos para optimizar la impresión. Dentro de esta categoría y en el ámbito de los ordenadores PC los formatos más extendido son probablemente el TIF. parámetros sobre los que generalmente no se da una información clara por parte de los programas que los usan. tanto temporal como final. pero en muchos casos no avisan de qué información se dejan por el camino. Esto puede dar una idea de hasta qué punto es importante la gestión y el almacenamiento. Otro tanto se puede decir del entorno Apple. Esto. requeriría 275 Mb. Y. WMF. Esto implica varias cosas. grabada a una resolución alta. El excesivo tamaño de los ficheros que se suelen utilizar o la especificidad de sus aplicaciones ha generado varias docenas de tipos de codificación. con la posible pérdida de datos que eso puede implicar. que habrá que tener presente los muy diversos modos en que esta información está empaquetada puesto que no existen normativas universales y hay un número considerable de tipos de archivos que usan técnicas diversas para optimizar este volumen de información. Para el almacenamiento intermedio o a corto plazo se suelen usar los dispositivos periféricos propios del ordenador. en primer lugar. etc. un monitor de buen tamaño que permita contemplar una parte suficiente de la imagen. En primer lugar. Cada formato de almacenamiento de datos presenta unas peculiaridades que lo diferencia de los demás. de 18 por 24 cm. que es necesario plantearse el modo en que se va a manejar este volumen de información. ni si se utilizan algoritmos que comprimen la información para luego expandirla. unido a que con frecuencia son revisados por sus creadores. PCX. . muchos de ellos especialmente adaptados a determinadas plataformas de trabajo.32 Aplicaciones Informáticas. hace que se generen frecuentes conflictos en el intercambio de los datos. TGA. un procesador lo suficientemente rápido como para mover los datos a velocidad suficiente como para que se pueda trabajar con comodidad.

una relación. Es el formato más utilizado en edición profesional. basado en EPS y que. Sirve tanto para dibujos. Conceptos básicos  de probada eficacia y calidad.5 a 1. La imagen se separa en cinco componentes. o sea que podemos almacenar de 10 a 30 archivos . 8 y 24 bpp y utiliza el método de comprensión RLE para alcanzar proporciones máximas de 1. Graba imágenes en modo 2. BMP (Bit Map). sobre todo las que presentan degradados suaves de diferentes matices. Es un formato utilizado corrientemente en Microsoft Windows. Teoría de la Imagen Digital. con capacidad de trabajar en gráficos. no tiene resultado visibles pero en otros. Es el formato más popular para almacenar e intercambiar información debido a que reduce el volumen en cantidades que van del 10% al 3% del original. si se imprime a media o alta resolución.tga. en orden alfabético. lo que es un modo de hacerse una idea más cabal de cómo está organizado un mapa de bits. con 8 bpp (256 colores) y comprensión por LZW (ver el siguiente apartado). JPG (Join Photographic Experts Group). PICT. DCS (Desktop Color Separation). EPS (Encapsulated Postcript). Un formato muy popular antes de la aparición de JPG porque generaba imágenes de poco tamaño aptas para ser enviadas por red. Formato utilizado por Adobe Acrobat. al igual que este. Se sigue utilizando corrientemente en páginas Web y en hipertextos. con escasa información adicional. En algunos formatos esta información puede visualizarse. Graba mapas de bits en modo paleta. Es una variante de EPS que consta de cinco archivos y que se utiliza en AutoEdición por Quark Express. en la época heroica de los primeros ordenadores personales. como para textos. 4. en algunos casos.tif o . Dentro de un formato tipo. Permite incorporar los hipervínculos y tablas propias del lenguaje HTML. sobre todo para información que vaya a salir exclusivamente por pantalla. junto con una breve descripción de los mismos. puede deteriorar apreciablemente algunas zonas de la imagen. A partir de la versión 5 soporta color real (24 bpp). como para imágenes. que es quien lo propuso inicialmente. de los principales formatos que pueden encontrarse al trabajar con imágenes. y de una serie de instrucciones que definen el tamaño de la imagen y la organización de la información que sigue a esta cabecera. Pueden considerarse más estables que TIF aunque ocupan aún más espacio en disco. Formato desarrollado por ZSoft Corp. PCX. sirve tanto para texto como para vectores como para mapas de bits. la información se almacena siempre precedida de una cabecera que lo identifica. para su PC Paint Brush. relacionado directamente con el trabajo en vídeo y que se ha incorporado a algunos programas actuales que funcionan sobre PCs. Se utiliza principalmente para transferencia de información entre programas o para capturas de pantalla. los cuatro colores de impresión más uno más de identificación e información adicional. y Page Maker. Esto se consigue a costa de una comprensión bastante agresiva que. IFF (Amiga Interchange Format). Era el formato usado por los ordenadores Commodore. Se da a continuación. Es cada vez menos utilizado.jpg en el espacio de uno en formato . Es el formato utilizado por los programas que funcionan bajo Macintosh . con información vectorial. Introducido por Adobe.1. GIF (Graphics Interchange Format). que obviamente no puede ser exhaustiva. Como su nombre indica son mapas de bits “en crudo”. Utiliza un formato independiente del sistema de color utilizado por cualquier dispositivo lo que facilita los intercambios. PDF (Portable Document File). Formato de baja resolución introducido por Compuserve para minimizar los tiempos de transferencia por las líneas telefónicas.

lo que facilita considerable-mente su uso por diferentes tipos de programas. se precisa con frecuencia recurrir a métodos de compresión de la información. RAW (literalmente “crudo”). Puede grabar mapas de bits en 16. aunque algunos programas. Lo que separa a los datos de la información es el eje de una reflexión que interesa a muy diversos tipos de profesionales. Scitex Continuous Tone es un formato profesional que graba la información. por lo que sabemos. TGA (Targa). hay mucha materia de relleno que puede tirarse a la basura. Puede grabar en formato normal o comprimido. Es uno de los formatos más antiguos y más fiables. Hay otros formatos. PXR (Pixar). el único formato (en 2001) que permite incorporar canales Alfa a archivos VRML. PNG. como ocurre cuando se cocina. desde hace muchos años. 24 y 32 bpp y es compatible con la gran mayoría de programas. incorporan salida en este formato. como el PSD de PhotShop o el CDR CorelDraw o el AI de Adobe Illustrator. La comprensión se realiza con un algoritmo estándar. por lo general en modo CMYK. Puede grabar en 16 o 32 en modo rgb o en 2. 8 en modo blanco y negro. TIFF (Tagged Image File Format). Pero este material hay que cocinarlo y. Formato que se limita prácticamente a grabar el valor asociado a cada punto de una imagen. si bien la norma no escrita es intercambiar información en formatos “no nativos” tales como los que se han relacionado. sea éste uno de los sectores en que más activamente se ha investigado. Es el. de Indianápolis que también producía tarjetas gráficas de alta calidad. por ejemplo. que son formatos nativos (propios de una aplicación comercial) aunque pueden encontrarse en otras aplicaciones. Estos temas giran en torno a dos conceptos que pueden parecer similares pero no lo son. Es un formato específico para ordenadores tipo Pixar utilizados sólo en la gama alta del trabajo con imágenes para animación y simulaciones de gran volumen y calidad. La razón es que hay temas de gran importancia teórica que están involucrados en lo que aparentemente no es sino una cuestión meramente técnica. el LZW (ver el siguiente apartado) que realiza comprensión sin pérdidas y con el que en principio no se deberían encontrar problemas de descompresión. Compresión Debido al enorme tamaño que llegan a alcanzar los ficheros de imágenes. Lo que parece una cuestión meramente práctica se revela pronto como una gran cuestión de gran calado lo que explica el hecho de que. Alternativa al formato GIF para incorporar imágenes a páginas Web que preserva toda la información de color y comprime sin pérdidas. La comprensión se basa fundamentalmente en detectar las repeticiones o las tendencias que aparezcan en la codificación de la imagen y en sustituirlas por codificaciones más compactas que indiquen. como Photoshop. Esto que “se tira a la basura” porque no interesa para mantener lo esencial de la información es lo que se conoce . el número de veces que aparece un determinado valor en una fila en lugar de guardar todas y cada una de sus posiciones. Curso 2008/2009 para transferir información entre aplicaciones. con destino a impresión y utiliza un sistema patentado de semitonos que minimiza los efectos de Moiré y otras inconsistencias que pueden aparecer durante la impresión en otros formatos. Fue introducido por la empresa TrueVision Inc. 4. Es el formato más utilizado para imprimir e intercambiar información. Los datos son el material con el que se elabora la información.34 Aplicaciones Informáticas. SCT (Scitex CT).

Pero no es menos cierto que en determinados contextos la redundancia es un estorbo. yuxtapuestos. En todos estos casos puede hablarse también de dos categorías principales de comprensión: con pérdida y sin pérdida.1 Un ejemplo simple de redundancia geométrica que facilita la compresión . Si los dos son iguales. revelada por el histograma. podríamos decir que la retórica puede ser. En la teoría relativa a los métodos de comprensión se utilizan tres tipos de redundancia que merece la pena mencionar. una característica esencial del modo en que se comunican los humanos. Pero si se tiene en cuenta el modo en que están repartidos geométricamente estos valores se econtrarán métodos eficaces de resumir la información. La comprensión puede definirse como una operación que elimina la redundancia. Es evidente que una imagen que presente. tal como se comprueba a diario. En informática. introducir datos adicionales que proporcionen la cantidad necesaria de información como para que el ojo no eche en falta los grados necesarios de transición entre zonas continuas de diferente luminosidad. el conjunto comprimido. a propósito de la teoría de la información de Shannon hasta que punto no debe despreciarse la redundancia. Ya hemos comentado en el primer capítulo. Teoría de la Imagen Digital. Un factor de comprensión tal como 5:1 indicaría que el primer conjunto de datos tiene 5 unidades de información por cada unidad del segundo. en donde n1 y n2 son dos conjuntos de datos que representan la misma información. se aprecian transiciones bruscas de luminosidad en degradados cuando en otras condiciones no se verían como grises distintos. Se define por la fórmula RD=1-1/CR. permite encontrar métodos más eficaces de representar los valores de la imagen por medio de fórmulas más compactas que resuman esta distribución. manteniendo la proporción global de comprensión. que se define a su vez por la fórmula CR=n1/n2. lo que indicaría que el primer conjunto de datos no contiene datos redundantes. sin embargo. La distribución de valores. un concepto abstracto sino una cantidad concreta.1. Las bandas de Mach son un efecto característico. donde RD es la redundancia relativa de los datos y CR el factor de comprensión. Esto limita la efectividad de muchos sistemas de comprensión de imágenes. puede tener la misma distribución general de valores que otra imagen desordenada. una pesada carga con que nos bombardean desde televisores y periódicos. una serie de cuadrados grises de iguales tonos. “el arte de persuadir” o bien. el concepto de redundancia no es. Conceptos básicos  como datos redundantes. tal como la definió Aristóteles. La redundancia espacial también denominada redundancia geométrica o redundancia entre pixels. por ejemplo. Algunos de los que se han mencionado en el apartado anterior son formatos que utilizan programas asociados que efectúan compresión Figura . En tercer lugar hay sistemas que se basan en lo que se puede denominar redundancia visual. Pero determinados programas de comprensión pueden captar estos puntos claves de transición y. permite condensar la información basándose no en los valores de los puntos de una imagen sino en el modo en que están distribuidos. Similarmente. CR es igual a 1 y RD es igual a 0. La redundancia de código puede analizarse con facilidad a partir de un histograma de la imagen. tal como los que se mostraran más adelante. El ojo es más sensible a determinadas diferencias bruscas de luminosidad en la medida en que reflejan cambios significativos.

por ejemplo. idealmente. con diversos grados de potencia que permiten procesar imágenes obtenidas. que es como se denomina este proceso. casi siempre inevitable. más potentes. no tiene modo de decidir si una mancha o una irregularidad en el trazado debe descartarse o debe convertirse en una entidad de la misma categoría que otras líneas que representan pilares. En imágenes con abundante textura y contempladas en pantalla no se aprecian diferencias entre ficheros originales y comprimidos con valores de hasta un 3% del original. con una aproximación lo suficientemente buena como para que el trabajo. El programa no encuentra grandes dificultades para decidir qué es información relevante y qué no lo es. datos que no aparecerán al recomponer la imagen. Tanto AutoCad como Microstation. un plano complejo y en mal estado confundirá al programa que. en una nueva capa. puede vectorizarse con relativa facilidad. más efectivo el llevar la imagen directamente al programa y dibujar nuevas líneas. a partir de sus últimas versiones. permiten encontrar formulaciones que se aproximen de modo datos de una imagen. incorporarlo al dibujo y mantenerlo estable. siguiendo las de la imagen como si estuvieramos calcando el plano a través de un papel transparente. en principio. permiten abrir un mapa de bits. en imágenes con degradados suaves y que vayan a ser impresas a resolución media. probablemente. Curso 2008/2009 sin pérdida. Hay que recordar sin embargo que. De esta manera se consiguen relaciones de comprensión mucho más mayores aunque a costa de perder pequeños detalles. En estos casos es. a base de digitalizar planos tradicionales. pues es una operación que se está llevando a cabo siempre que obtengamos una salida de un fichero vectorial por un monitor o una impresora raster. es una aplicación específica del procesamiento y análisis de imágenes que tiene una importancia clara en las aplicaciones arquitectónicas. lo que facilita considerablemente esta labor de calco. Por otro lado. El referente obvio son los programas denominados genéricamente OCR (Optical Character Recognition) que permiten escanear un texto impreso y convertirlo en un fichero de texto digital. Conversión Otra cuestión de gran interés teórico y práctico es la conversión de ficheros vectoriales a mapas de bits y viceversa. También son de este mismo tipo programas utilizados externamente por muchos usuarios para comprimir ficheros de todo tipo como los PKZIP.36 Aplicaciones Informáticas. no sea excesivo y resulte menor que el que daría volver a dibujarlo todo desde el principio. Un plano limpio y con abundantes líneas rectas o curvas bien definidas. La efectividad del proceso es muy variable y depende de los casos. Lo segundo es muy complicado pues se necesita. las diferencias pueden ser notables. En estos casos hablamos de compresión con pérdida. un programa “inteligente” capaz de reconocer qué puntos de la imagen “son” líneas que deben ser separadas del fondo. WinZip o ARJ. de revisión del resultado para borrar elementos que el programa ha tomado por líneas de dibujo y no eran sino ruido de fondo. Otros métodos. es . Se han producido varios trabajos de investigación de interés sobre la posibilidad de desarrollar métodos más inteligentes de vectorización. Lo primero es trivial. La vectorización. Sin embargo hay ciertos rasgos que es factible detectar con garantía de éxito y existen varios programas. Ejemplos de programas que efectúan comprensión de este tipo son LZW o REL. muros o ventanas. El sistema más eficaz y más popular de todos ellos es el JPEG que ya hemos mencionado en el apartado anterior y que alcanza porcentajes de comprensión verdaderamente sorprendentes. acércandose y alejándose.

Teoría de la Imagen Digital. También es posible deformarlas. tan sólo se cuenta con vectorizadores más o menos eficaces que no alcanzan a realizar lecturas “inteligentes” de los planos arquitectónicos. sea mediante transformaciones matemáticas de diversos tipos. que se cierra sobre sí misma. Las operaciones que se describen en lo que sigue pueden llevarse a cabo sobre la totalidad de la imagen o sobre partes de la misma. Operaciones geométricas Las operaciones geométricas con imágenes se reducen básicamente a la manipulación de matrices que almacenan la posición geométrica de los pixels. es posible seleccionar puntos de la imagen basándose exclusivamente en sus valores. Es posible seleccionar puntos en el plano de la imagen por medio de especificaciones geométricas. Tampoco habría excesiva dificultad para reconocer que una línea continua. esto es. 6 Edición de imágenes Las operaciones con imágenes se pueden clasificar en tres grandes grupos. total o parcialmente. Estas matrices pueden ser sometidas a todas las operaciones geométricas clásicas. debe representar algún tipo de muro. las que pueden considerarse en cierto sentido como mixtas. lo cual significa que es posible trasladar. trazando sobre partes de la imagen rectángulos. Todas estas operaciones básicas son posibles gracias a la velocidad de cálculo que proporcionan los ordenadores actuales pero hubieran sido impensables hasta hace pocos años en un ordenador casero. Al margen de esta limitación. círculos o formas libres que encierren los puntos que queremos transformar. por el momento. Parece lógico intentar abordar en primer lugar este tipo de casos antes de plantearse otros más complejos. sea de modo libre. Y. Para este segundo caso se cuenta habitualmente con diversas herramientas y modos de selección que se pueden clasificar con arreglo a los mismos principios utilizados en el párrafo anterior para describir los tipos de operaciones. operaciones que se denominan corrientemente “geométricas”. Y. Las que no modifican los valores de los diferentes puntos que constituyen la imagen pero alteran el modo en que esta información se distribuye en el plano de la imagen. de nuevo. En el caso de los planos arquitectónicos esto es relativamente posible y. los elementos forman parte de un repertorio iconográfico limitado que se puede mantener como referencia de comparación. convertir las imágenes de las letras en sus correspondientes caracteres codificados. varía considerablemente según los casos. sea mediante transformaciones perspectivas. O bien. en segundo lugar. por último.1. Aún así. Hay investigaciones en curso que parecen prometedoras a corto plazo pero el hecho es que. de gran tamaño. En el caso de un texto estos es posible puesto que hay un número limitado de letras y un número limitado de familias de tipos con los que se representan estas letras. en la medida en que modifican los valores de un determinado . Conceptos básicos  decir. girar. En el caso de arquitecturas vulgares o muy estandarizadas. por consiguiente. por último es posible seleccionar puntos de la imagen en función de sus valores y de su relación espacial. hay que advertir que se requieren ciertos mínimos para poder manipular imágenes de suficiente resolución y. sector del plano de la imagen. Las que modifican estos valores de varios modos y a las que podemos denominar genéricamente “de transformaciones puntual de valores” aunque la diversidad de técnicas es enorme y los términos con que se alude a ellas en la literatura especializada muy precisos. invertir y cambiar de escala la totalidad o partes determinadas de una imagen.

Las más corrientes son las que se enumeran a continuación. En el caso de una rotación (figura 6. tal como se muestra. . Una operación puntual transforma los pixels de la imagen aplicando la misma función sobre cada uno de ellos. la luminancia de salida. Un diagrama que representa en el eje de abscisas la luminancia de entrada o luminancia del punto. La obtención de un negativo es una operación técnicamente trivial que se reduce a invertir la dirección del diagrama de grises.1) el ajuste no representa ningún problema pues la desviación es igual para todos los pixels.3 que representa sucesivas redistribuciones de las muestras con las que el programa intenta responder a una petición imposible de cumplir. Las operaciones puntuales se basan en el valor de cada pixel. en el eje de ordenadas. Ejemplos de estas operaciones puntuales son las modificaciones de contraste y brillo en las que. que están disponibles en cualquier programa sencillo de tratamiento de imágenes no ofrece mayor dificultad. el diagrama muestra una recta a 45º. Se denominan operaciones puntuales (point processing) o también filtrado en el dominio espacial pixel a pixel a las operaciones más sencillas de todas las que se realizan en el tratamiento de imágenes y que afectan a la información contenida en pixels individuales. en la figura 6. también podemos realizar operaciones sobre el ámbito de profundidades. al aumentar el brillo en una imagen monocromática. Operaciones sobre los valores Al igual que es posible realizar operaciones sobre el ámbito espacial. Si no se ha realizado ninguna operación. Curso 2008/2009 el manejo de estas herramientas. En el caso de una traslación (figura 6. Hay más de una solución que no comentaremos dado que se trata de un proceso complejo y no visible para el usuario. imagen o sector de imagen de que se parte y.2) es preciso recurrir a interpolaciones que asignen un valor al pixel en función de sus vecinos más próximos.38 Aplicaciones Informáticas. En el caso de un cambio de escala el proceso puede llevar a perder información sustancial. Las modificaciones introducidas sobre estos valores iniciales se pueden manipular por medio de lo que se denomina un mapa de grises (gray map) o más exactamente. Es preciso tener en cuenta sin embargo esta limitación que se traduce en problemas tan concretos como que nos resultará imposible rotar una imagen con la misma facilidad con que lo hacemos en un programa de CAD2D. cualquier operación geométrica que utilice factores tales que la transformada no coincida con la trama primitiva necesitará contar con algún medio de decidir cómo asignar el valor teórico de cálculo al valor real de los pixels de la imagen. Hay toda una serie de operaciones elementales que se pueden realizar de este modo. lo que equivale a decir que los valores de entrada coinciden exactamente con los valores de salida. sobre los valores que definen las intensidades de las imágenes. se suma una cantidad determinada a cada pixel. sobre la extensión. Estas operaciones implican un problema técnico que conviene tener presente. un mapa de transición de luminancias. El modo más sencillo de llevar a cabo una modificación del conjunto de valores representados por un mapa de este tipo es modificar esta recta. en un caso extremo. la luminancia que se obtendrá con posterioridad a la operación que se ha especificado con la ayuda de este mapa. Es necesario tener esto en cuenta en determinados casos en los que puede producirse modificaciones importantes del contenido de una imagen al llevar a cabo una operación de transformación geométrica. tramas regulares de puntos yuxtapuestos. Al estar constituidos los mapas de bits por matrices enteras.

Ver figuras 6. Traslación de un bloque de pixels Figura 6.5 a muestra un ejemplo de esta operación. . Para la extensión del contraste de una imagen. El clipping es una operación similar con la diferencia de hay dos valores en lugar de uno y se preserva una zona central en la que siguen habiendo grises. de manera que entre unos valores dados.1. manteniendo la línea a 45º pero en dirección contraria.5 b). (figura 6.2. se vuelva más horizontal.5 (c. modificando la pendiente en el diagrama de escala de grises. e).1. Conceptos básicos 9 Figura 6. Cambio de escala de un bloque de pixels El operador modifica el mapa de modo que donde antes había un 0 o “negro” el resultado de la función imagen pase a ser 255 o “blanco”. con lo que sus gradientes serán más largos.. La figura 6. f muestra ambos recursos combinados por medio de una característica curva en “S” que aumenta el contraste por los dos extremos. haciendo más pronunciada la pendiente en aquellas zonas que se quieren fundir. La umbralización (thresholding) es similar al clipping pero afecta sólo a uno de los extremos de la imagen. por debajo del valor inferior sólo habrá negros y por encima del valor inferior sólo habrá blancos. La binarización es otra técnica muy sencilla que permite reducir una imagen en gama de grises a una imagen en blanco y negro sin más que sustituir la recta a 45º del diagrama de grises por una recta vertical en un determinado punto del diagrama. todos los grises situados a la izquierda pasan a ser negros y todos los situados a la derecha pasan a ser blancos. Figura 6. La figura 6. la recta que refleja la función de los nivel de grises de entrada y de salida del proceso. Para la compresión del contraste o comprensión del rango dinámico se sigue un proceso inverso. se igualan todos los valores superiores o inferiores a uno dado y se mantiene la gama de grises en el resto. d. Teoría de la Imagen Digital. Rotación de un bloque de pixels. se puede ampliar el rango dinámico de las mismas. es decir para la mejora del contraste en aquellas zonas de una imagen que han sido registradas con poca iluminación.

1988-1994) . Alvaro Siza Vieira.40 Aplicaciones Informáticas. Curso 2008/2009 Figura 6.4. Variación de contraste y luminosidad de una imagen por modificación del mapa de grises (imagen del Centro Gallego de Arte Contemporáneo de Santiago de Compostela.

que las imagenes correspondientes son imágenes: a) muy oscuras. Es posible. c) poco contrastadas. inscripción gráfica) es una representación gráfica de la distribución de las frecuencias de ocurrencia de un determinado suceso y se utiliza en un gran número de aplicaciones estadísticas. un histograma es una gráfica en la que en el eje de abcisas representa los diferentes niveles de grises de la imagen y el de las ordenadas el número de pixels que tienen ese valor particular. por ejemplo.7 y 6. tejido y γραµµα. b) muy luminosas. a cualquiera que cuente con un mínimo de experiencia en el uso de estas técnicas. que es una imagen con abundantes valores medios y escasos valores extremos. una operación Figura 6. A partir de esta información es posible realizar diversas operaciones por modificación directa del histograma. puede ser adecuada. e) clipping. muestra con precisión lo que puede apreciarse intuitivament. . f) umbralización y modificación del contraste con una curvatura en “s”.6. Teoría de la Imagen Digital. con lo que la imagen adquirirá más o menos contraste. o bien. Conceptos básicos 41 Otra herramienta importante es el histograma. esto es. porque permite conocer de un modo directo. por ejemplo. Los histogramas de las figuras 6. en primer lugar. Otra operación característica es la ecualizalización que consiste en redistribuir los valores de una imagen. El histograma es una herramienta valiosa. d) muy contrastadas. etc. c). la misma figura de las dos ilustraciones anteriores.1. lo que contribuye a una impresión que en este caso. El histograma de la figura 6.8 revelan. aclarar u oscurecer una imagen o una selección de una imagen desplazando todos sus pixels a la derecha o a la izquierda de la gráfica. b) binarización.. reducir o ampliar el número de posibles niveles de gris. Un histograma (del griego ιστοσ. d) umbralización. intuitivo. las características globales de una imagen. Variaciones básicas del mapa de grises de la imagen anterior: a) negativo. En procesamiento de imágenes. dadas las características arquitectónicas del ejemplo. El cálculo de un histograma se reduce a computar cuántos pixels hay para cada nivel de gris.

tiene 4 vecinos diagonales (denotados como “Nd”). Métodos de fusión Denominaremos operaciones locales a las Figura 6. Además de estos. Sobre esta base se desarrollan muy diversos tipos de filtros que sirven para innumerables aplicaciones y que cuentan con una gran cantidad de estudios técnicos.9) tiene una considerable importancia para delimitar las fronteras entre elementos de una misma imagen. La unión de todos ellos (“N4+Nd”) forma lo que se llama los “vecinos de p” (denotados por N8). Esto requiere la introducción de un serie de conceptos previos. sobre todo. contorno y conectividad de un pixel.42 Aplicaciones Informáticas. El tipo de conectividad (figura 6. personal. Los filtros de suavizado o alisado (smoothing filters) se utilizan para desenfocar una imagen en un preproceso que busca eliminar pequeños detalles para que en una operación inversa posterior la imagen clarifique su información. Los N4 forman un contorno de orden 4 y los N8 un contorno de orden 8 o simplemente contorno. Un pixel tiene 4 vecinos horizontales y verticales. Según qué premisas se adopten el sistema puede simplificar en mayor o menor grado el muestreo. Se denomina vecindario de un pixel a los pixels que le rodean. Los histogramas también se utilizan para operaciones más sofisticadas que permiten separar partes de una imagen en función de sus valores de gris. uno por encima y otro por debajo (que se denotan técnicamente como “N4”). los más . otro a su derecha. uno a su izquierda. Curso 2008/2009 que se utiliza frecuentemente para mejorar el contraste. Estas operaciones que se denominan operaciones de segmentación y a las que ya hemos aludido anteriormente. La ecualización permite mejorar el contraste al redistribuir los valores generales. Si una imagen presenta un histograma en el que los grises se acumulan en. Los filtros espaciales más habituales son los que siguen. Para ello habrá que ver si los dos pixel base tienen algún vecino común y de qué tipo. pero. Dentro de este tipo. si sus niveles de gris respectivos satisfacen determinados criterios. Pero hay que tener en cuenta que es una operación automática y resultará poco satisfactoria si lo que se busca es una mejora exigente. Las técnicas pasan por la utilización de convoluciones y transformadas de Fourier en la detección de los contornos de las zonas a seleccionar de manera automática. se basan en la determinación automática de umbrales a partir de los cuales se encuentran los valores que se quiere detectar. por ejemplo. Histogramas de la imagen anterior operaciones que afectan a la información contenida en el entorno de pixels individuales. los principales de los cuales son los de vecindad. si usamos un modelo espectral o por la edición de los histogramas. Filtros. de la calidad de una imagen. si usamos un modelo matricial. la zona central esto indica una ausencia de blancos y negros y de valores cercanos a éstos.6.

Teoría de la Imagen Digital.. Quien esté interesado en el tema puede comenzar por experimentar con los que están incluidos en programas de retoque digital de imágenes. Pruébese. tres por tres elementos. más o menos grande. dividiendo el resultado de esta operación por 9. por ejemplo. Los más habituales son los filtros de paso alto (basic highpass spatialfilteting) en los que una matriz como la antes citada configura una máscara. en muchos casos. por razones de espacio. para destacar los valores más luminosos de una imagen o aquellos detalles que se ven borrosos. y por revisar la bibliografía sobre este tema para comprender mejor qué es lo que ocurre al aplicar alguno de los filtros más sofisticados lo que. no resulta fácil desde un punto de vista meramente intuitivo. en Photoshop. Hay un número enorme de filtros de diversos tipos que no tienen cabida en este apartado. Histograma de una imagen de bajo contraste y de otra de alto contraste . cuyos valores son 1.1. restando.8. lo que puede convenir en determinados casos por diferentes razones tales como suavizar contornos o eliminar defectos de retoque. Al operar este filtro sobre una zona de la imagen y dividir los resultados por nueve se obtiene la eliminación de aquellos valores que no llegan al mínimo valor fijado 1. ya que los demás son números menores de cero y en consecuencia son descartados y quedan sólo valores positivos. como Photoshop. este valor promedio sustituye al existente antes del filtrado. Conceptos básicos 43 importantes son los de paso bajo (lowpass spatial flltering) que son filtros constituidos por una matriz de. la suma de cuyos elementos es cero y cuyo valor central es 8 rodeado de -l. Los filtros de endurecido o agudizado (sharpening filters) se utilizan. El efecto de un fitro de este tipo es que la imagen se emborrona ligeramente. los cuales se suman a cada uno de los pixeles de la zona de la imagen a filtrar. Los más corrientes son los que aclaran u obscurecen partes de la imagen de diversos modos. de métodos de fusión. Histograma de una imagen demasiado obscura y de otra demasiado clara Figura 6. a la inversa de los anteriores. Dado que resulta relativamente fácil aplicar operaciones matemáticas a las imágenes. por ejemplo. multiplicando o dividiendo de diversos modos los valores. para obtener todo tipo de resultados. Los métodos de fusión combinan canales (capas) superpuestos sumando. la diferencia entre pintar con un pincel en modo “Sobreexponer” Figura 6. todos los programas de edición de imágenes incluyen una variedad.

como decimos. que puedan ser consultadas o presentadas independientemente de los complejos dispositivos que requiere un sistema informático de generación de imágenes.. Para muchas aplicaciones es preciso contar con copias permanentes sobre algún tipo de soporte.44 Aplicaciones Informáticas. Los parámetros de control y los tipos de salida Hay tres factores principales que se deben considerar y que no son sino los mismos que ya hemos visto en apartados anteriores. por otro. “nivel de detalle”. preferentemente papel. etc. La resolución es un parámetro que nos permite calibrar la calidad de la imagen en relación con la capacidad de discriminación visual de un sujeto medio. Curso 2008/2009 o “Trama” sobre otro color. describen una imagen en relación con esta capacidad de discriminación. la saturación o la luminosidad. La base teórica es. El control de los parámetros que inciden sobre estas características. Pero el sentido práctico de estas herramientas sólo se puede adquirir mediante la experimentación personal. Las características de la imagen impresa sobre papel son bastante diferentes de las que aparecen sobre el monitor. con tecnologías específicas que se han desarrollado en los últimos años. la facilidad para aplicar algoritmos matemáticos a los canales de una imagen. así como el análisis de la relación calidad-coste. La reproducción correcta de los valores es un Figura 6. En otros son una vía de experimentación. por un extremo. con los medios tradicionales de pintura e impresión y.9 Conectividad de orden 4 y orden 8 de un pixel . Ambos extremos deben ser tomados en consideración para asegurar un control suficiente sobre las imágenes impresas a partir de archivos informáticos. Otros combinan los valores de modos inesperados. la reproducción correcta de la gama de intensidades de gris y la reproducción correcta del color. Términos tales como “desenfocado”. en los dos casos el color original se aclarará pero con diferentes matices. Estos son: la resolución. Otros permiten modificar de modo exclusivo el tono. 7 Presentación e impresión Las imágenes que aparecen sobre la pantalla del monitor desaparecen en cuanto las apagamos. considerados desde el punto de vista de los dispositivos de salida. constituyen un capítulo complejo que se relaciona. En algunos casos estos métodos proporcionan herramientas extraordinariamente eficaces para corregir o modificar partes de una imagen. “grano”.

Términos tales como “equilibrado” o “contrastado” aluden a este segundo aspecto que a menudo está estrechamente relacionado con el anterior. resulta satisfactoria. La resolución puede adaptarse a un mínimo muy inferior al necesario para imprimir sobre papel. En cualquiera de estos casos bastará con una resolución del unos 72 dpi lo que. una misma letra puede aparecer con grosores ligeramente diferente según la posición en que haya ido a caer. el tamaño de salida. puntos por pulgada) para una distancia de observación de unos 50 cm. con puntos de igual intensidad. Y. el control de color y otros factores adicionales. Dado que las condiciones de observación se adaptan a la distancia. habrá que tener en cuenta. en la mayoría de los casos . de cristal líquido o plasma. Teoría de la Imagen Digital. como ya hemos dicho.1. Se ahorrará papel y se reducirá la tala de árboles. y a que los puntos tienen diferente intensidad. Conceptos básicos 45 parámetro que nos permite calibrar la riqueza de matices de una imagen. con ellos las dificultades de control a través de todos los pasos que llevan a una imagen final. La calidad del resultado se verá favorecida en la gran mayoría de los casos por la mayor luminosidad. del orden de 28 ppc (puntos por centímetro) equivalentes a 72 dpi (dots per inch. Poco más hay que decir sobre esta vía. implicará una anchura total en pixels de unos 1600 pixels como máximo. emitida por un sofisticado cañón colgado del techo a 30 metros de distancia. Las principales razones por las que se sigue utilizando papel es por el conservadurismo de muchos usuarios (incluyendo profesores de escuelas de arquitectura) y su desprecio por el esfuerzo de los demás y el despilfarro de recursos. los puntos de impresión no coinciden siempre con los puntos correspondientes de la imagen. impresa sobre papel. lo que se traduce en irregularidades en el trazo. debido a que los puntos son luminosos e irradian. por el contrario. que está en torno a los 72 dpi. Para que una serie de puntos discontinuos aparezcan como continuos necesitamos. No hay necesidad de conversión del sistema cromático con lo que los inevitables desajustes se reducen. se necesita la misma resolución para una imagen que vaya a ser contemplada en un portátil minúsculo a 30 cm de distancia de la pantalla que en una gran sala de conferencias. debido a varios factores. en primer lugar. en negro sobre blanco (con lo que la irradiación funciona en sentido inverso). la vista humana detecta fallos de alineación aunque no los vea propiamente. Cuando la misma imagen se imprime. Un segundo factor es psicofísico. Todo son ventajas. en segundo lugar. la resolución necesaria para conseguir resultados similares puede ser más de 5 veces mayor. la calidad que proporciona esta resolución resulta insuficiente: aunque no se distinguen puntos discontinuos se aprecian subjetivamente faltas de regularidad. Impresión sobre papel En el caso de impresión sobre papel. Sin embargo. Por esta razón la resolución con la que trabajan la mayoría de los monitores. Esto no se aprecia en un monitor. En el caso de imágenes en color los términos descriptivos se multiplican y. El transporte y el almacenamiento son mucho más sencillos y se ahorrará espacio y molestias. Uno de estos factores deriva del modo de impresión de la mayoría de los dispositivos: al utilizar matrices de puntos para almacenar la imagen. fundiéndose con sus vecinos. Se consideran los 120 ppc Presentación en pantalla Las imágenes digitales son particularmente aptas para ser presentadas en una pantalla de cualquiera de los tres tipos más corrientes: tubo de rayos catódicos.

92 17.96 275. tres o hasta seis veces superiores por las razones que se verán a continuación.62 34. luego.000 bytes = 292. En el siguiente apartado ampliaremos esta explicación.47 4.46 Aplicaciones Informáticas. a base de crear puntos yuxtapuestos de diferente tamaño o de diferente distribución. Si se va a trabajar con imágenes de este tamaño merecerá la pena hacer una estimación del tamaño en Mb para prevenir problemas de memoria y almacenamiento. Curso 2008/2009 (300 dpi) como un límite inferior para impresión de textos con calidad equivalente a la de un libro corriente y los 240 ppc (600 dpi) como un límite adecuado para una calidad realmente comparable a la de las buenas impresoras tradicionales.92 551. Las mejores impresoras tienen modelos que alcanzan valores dos. Esta técnica se denomina convencionalmente de semitono (halftoning). Para calcular la resolución necesaria para imprimir sobre papel hay que comenzar por el final y. Todo lo que quedará por hacer es un cálculo simple que nos dará el tamaño de la imagen con que tendremos que trabajar. con una resolución de 160 ppc (400 dpi) necesitaremos partir de una resolución de 12. para el ejemplo anterior tendríamos: 12.000 (50×160). es suficiente con una resolución de 160 ppc (400 dpi). 3 canales RGB de 8 bytes cada uno. entre otras cosas.800 (80×160) × 8. decidir cual será el tamaño que queremos obtener para.96 8.400.000 pixels 102. Una resolución de 600 dpi puede ser insuficiente para imprimir imágenes con una amplia gama de grises y degradados continuos. sin embargo.200.79 34. En el caso de una imagen monocroma este valor es corrientemente de 8 bpp. para imprimir una imagen a un tamaño de 80×50 cm (Din A1 con márgenes).24 68. Para simular la variación de intensidad se recurre a una técnica mediante la cual se logra un efecto óptico similar al de utilizar diferentes intesidades.800×8. En la mayoría de los casos.62 34. Esto quiere decir. el resultado sería: cm 6×9 9 × 12 12 × 18 18 × 24 24 × 36 dpi 300 600 1200 300 600 1200 300 600 1200 300 600 1200 300 600 1200 mb 2. Para calcular este tamaño basta multiplicar el número total de pixels por la cantidad de información por pixel en bits. decidir que resolución gráfica consideramos adecuada.47 137.000 = 102. que no se aprecian a simple vista. en primer lugar.47 137.000 pixels×3 = 307.66 Volúmenes de información para diferentes tamaños y resoluciones .9 Mb Si hubieramos partido de una imagen de 1024 × 768 suficiente para mostrar el resultado en pantalla.15 8. que para controlar los detalles de la imagen en el monitor será necesario trabajar con la imagen muy ampliada y desplazándose por sus diferentes partes para analizar los detalles. Así. Por ejemplo. Y si se trata de una imagen que incorpora un canal adicional (un canal alfa) el valor es 32 bpp. y en una imagen en color real 24 bpp o bien.24 68. Esto es debido a que una impresora no puede variar la densidad de la tinta para conseguir diferentes niveles de gris tal como ocurre en fotografía o en pintura. Es decir.400. una resolución de 102 MP.31 17.

Cada zona correspondiente de la imagen original. el semitono tradicional. no imprimen grises sino que los simulan. resolución de trama o “frecuencia de pantalla” (screen frequency) y se mide en lpc (líneas por centímetro) o lpi (lines per inch). La tabla adjunta muestra una relación de las frecuencias características que se utilizan en todas las imprentas. se consigue fotografiando el original a través de unas planchas de vidrio recorridas por líneas negras en vertical y horizontal. Semitonos. tal como se hace en las técnicas tradicionales de impresión y mediante la variación de la distribución de los puntos. en contra de lo que parece que sería de esperar. que tradicionalmente se obtenían haciendo incisiones verticales y horizontales sobre el vidrio que se rellenaban de betún. como calidad gruesa mediana fina lpc 20 -30 40 . Hay dos modos principales de obtener semitonos: mediante variación del tamaño de los puntos. Con papeles satinados se puede llegar sin problemas a los 60 lpc (150 lpi) y con papeles de alta calidad hasta 80 lpc (200 lpi). se obtendrían resultados no homogéneos debido a que los puntos resultarían demasiado pequeños para las condiciones de impresión y se perderían. del que se muestra un ejemplo en las figura . se denomina lineatura. las áreas obscuras tenderían a confundirse y. Si se pretendiera imprimir un periódico.150 180 . disminuiría la calidad de la imprensión. La mayoría de los periódicos se imprimen a unos 35 lpc (85 lpi).60 70 . de calidad relativamente buena.200 Frecuencias características utilizadas en impresión tradicional . “lineatura” y dithering Para comprender porque se necesita más resolución para imprimir cierto tipo de imágenes. relativamente tosco. Para esto se requiere crear “semitonos”.2. Utilizando técnicas especiales. con un proceso adecuado para 35 lpc a resoluciones superiores. en proporción directa con su luminosidad.25 Mb La tabla adjunta muestra los volumenes de almacenamiento requeridos para diferentes tamaños y resoluciones en formatos no comprimidos. hay que tener en cuenta. por efecto de la difracción. puntos que simulan la mayor o menor intensidad de una zona de la imagen. que las impresoras. en general. Conceptos básicos 47 1024 × 760 = 786 432 pixels 786 432 pixels × 3 = 2359296 bytes = 2. se convierte en un punto más o menos grande. La calidad “gruesa” se utiliza en folletos.75 100 . en general. El primer método. impresos sobre papel brillante con una alta calidad de reproducción.80 lpi 50 . desde 40 lpc. a 60 lpc. Los valores por encima de los 70 u 80 lpc (180 a 200 lpi) corresponden a libros o revistas de arte.1 y . boletines o periódicos de baja calidad. proporciona una impresión sobre el negativo que. Estas líneas. así fotografiada. El número de líneas con que se graban estas planchas de vidrio. Teoría de la Imagen Digital. de modo que se obtengan mínusculas áreas de diferente densidad tal como se hace por medios informáticos. que se colocaban delante del negativo y dan una medida directa de la calidad de la reproducción. La calidad “media” en libros de calidad variable. crean una matriz de pequeños huecos cuadrados que permiten el paso de la luz y que actúan como diminutos objetivos fotográficos.1. Estos valores están directamente relacionados con la calidad del papel y el proceso de impresión.

que permitan obtener diferentes intensidades por combinación de los puntos que los forman. En blanco y negro se utilizan valores algo más altos que en color. una cifra insuficiente para conseguir imágenes que reproduzcan adecuadamente una amplia gama de grises. Cuanto mayor sea el número de puntos asociados para formar una célula. utilizan resoluciones superiores a los 2.48 Aplicaciones Informáticas. La figura 7.000 dpi. romboidales. Por esta razón es necesario utilizar técnicas de semitono digital (digital halftoning) y agrupar puntos para obtener células.000 y 3.1 Imagen obtenida de un periódico corriente (semitonos con una lineatura de 0 lpc) Figura . Figura . Esta es la razón por lo que los más potentes modelos de impresora. Curso 2008/2009 el offset seco. esta técnica no puede utilizarse en las impresoras corrientes que sólo admiten dos niveles de grises y puntos idénticos. generados a partir de matrices de diferentes tamaños.2 Ampliación de la imagen anterior en la que se aprecian los puntos de diferente tamaño . es decir. El número de grises será n × n + 1. por ejemplo. El patrón de base del halftoning puede variar de forma y así existen patrones lineales. pueden alcanzarse los 120 lpc (300 lpi). por consiguiente. Esto se consigue a costa de la resolución. La obtención de semitonos por medio de células basadas en combinaciones de puntos tiene el inconveniente de que determinadas distribuciones dan lugar a efectos geométricos que configuran patrones visibles denominados efectos “de moirée”. Para evitar efectos extraños se adoptan determinadas configuraciones geométricas en las células equivalentes de cada nivel de gris. una célula o spot de 4 × 4 puntos proporcionará 17 niveles de gris. Pero.3 muestra los valores principales de un conjunto de 17 niveles obtenidos por agrupaciones aleatorias de puntos sobre células de 4 × 4. estaremos imprimiendo líneas con una resolución efectiva de 75 dpi. donde n es el número de elementos de la célula. Así. en general.. Esta técnica de reorganización en patrones que producen diferentes efectos se denomina dithering. pixels de mayor tamaño. En cualquier caso. etc. como la Linotronic. Si tenemos una impresora que imprime a 300 dpi y utilizamos células de 4 × 4 para imprimir imágenes grises la resolución real será un cuarto de la nominal. mayor será el número de combinaciones posibles de puntos blancos y negros que se vean como diferentes grises a una distancia adecuada y. y una célula de 8 × 8 proporcionará 65 niveles de grises lo que puede ser más que suficiente para muchas aplicaciones. mayor será el número de grises aparentes que se pueden crear. pocas imprentas trabajan bien por encima de los 50 o 60 lpc.

Teoría de la Imagen Digital.400 dpi (256 niveles requieren células de 16 × 16. Si.7 millones de colores) ya las hemos visto: si se trabaja con una escena en al que vayan a aparecer degradados. El problema está en que. según esta regla. en el primer caso. no se conoce el tipo de spot utilizado por las impresoras corrientes. abandonamos el terreno de los números con significado claro para entrar en el de las estimaciones con significado brumoso. ir más allá de los 400 dpi (200 lpi × 2). entre otras cosas. a la inversa. por lo general. Los sistemas de codificación digital se basan en la mezcla aditiva. poco más del 5% de estos colores son percibidos como distintos.7 millones de colores. que quienes tengan Figura . queremos trabajar con una impresora capaz de generar “lineaturas” de 150 lpi y ser capaz de interpretar 256 niveles de gris quiere decir que necesitaremos una impresora con una resolución efectiva de 2. Si. Recordemos en primer lugar que estos 16. en general. Color Por lo que respecta al color los problemas son bastantes más complejos y los presentaremos muy brevemente en lo que sigue. y que está basada más en resultados prácticos que en cálculos teóricos es que para obtener “buenos resultados” la resolución de la imagen debería ser de 300 dpi. Trabajar en lo que se denomina “color real” supone utilizar 24 bits por pixel.7 millones (24 bpp) lo que reduce considerablemente el volumen de memoria necesario.7 millones de colores” de que se puede disponer en cualquier ordenador actual no se corresponden con el rango real de diferencias cromáticas percibidas. Suponiendo que conociéramos la frecuencia de nuestra impresora ¿cómo relacionar este valor con el de la resolución adecuada de la imagen? Una regla aceptada corrientemente por los profesionales. Pero esta regla también depende del dispositivo de salida. Conceptos básicos 49 ¿Qué resolución utilizar si queremos obtener una resolución equivalente a alguna de las que hemos dado más arriba con referencia a la impresión tradicional? Si supieramos. cielos azules o paredes lisas iluminadas con luces más o menos rasantes. Simulación de semitonos por células que agrupan diferentes densidades de puntos . En escenas en las que no hay degradados y todas las superficies tienen bastante textura y. 8 bits por cada uno de los tres canales RGB. en que aparecen degradados. es preciso trabajar con color real para evitar que aparezcan franjas que rompan la continuidad de este degradado.1. la salida va a ser por pantalla en donde los puntos son mayores y hay un proceso de irradiación que hace imperceptibles los defectos en los degradados la regla también es es utilizar color indexado o un sistema de comprensión potente como los formatos jpg a que ya nos hemos referido antes. Las razones técnicas por lo que se necesita trabajar con “color real” (true color. Esto supone 256×256×256 o 16. 24 bpp o 16. que una impresora a 300 dpi utiliza spots de 4 × 4 esto querría decir que la resolución efectiva de una imagen sería de 75 dpi (300/4). para imágenes cuyo destino es acabar siendo impresas por medios tradicionales. los fabricantes no suelen proporcionar este dato. a la que seguirían otras similares. 16 × 150 = 2400). Esto quiere decir. por ejemplo. es innecesario. en modelos simples en las que no se necesite un alto grado de realismo sería suficiente trabajar con lo que se denomina “color indexado” que utiliza paletas de 256 colores (8 bpp) en lugar de 16. Observése que. Y con esta observación.

verdes.4 muestra varios diagramas superpuestos. Hay varias versiones de esta especificación. yellow. Como se puede apreciar en la figura este rango es muy inferior al rango de colores que podemos realmente apreciar. representa el rango de colores que es capaz de percibir una persona “normal”. verde y azul. x. Las principales son las correspondientes a la normativa de 1931 que especifica los colores en base a dos coordenadas imaginarias. observada a gran distancia (o reducida a un par de puntos) se convierte en gris mientras que observada de cerca se satura. y el sistema HLS (o HBS o HVS). los situados arriba de todo. en determinadas circunstancias. Si se yuxtaponen amarillo con azul. Curso 2008/2009 experiencia en pintura o fotografía deberán olvidarse de que los colores primarios son el amarillo.50 Aplicaciones Informáticas. La figura 7. Los valores situados en el vértice inferior derecho de esta especie de suela de zapato que forma el diagrama de la CIE representan rojos puros. magenta con verde o cyan con rojo el resultado será una combinación que tiene la curiosa propiedad de que. más eficaces. black) si bien hay otros. etiquetado con la letra “a”. una persona menor de unos 35 años y sin ninguno de los defectos en la percepción de los colores que afectan aproximadamente a un 6% o un 8% de la población (mayoritariamente masculina). Por lo que respecta al control del color en la impresión sobre papel. verde y azul asociados a los cañones electrónicos que activan los fósforos de la pantalla. que permite especificar un color de acuerdo con varia-bles perceptivas. representa el diagrama de la CIE que. Estos sistemas deben ser puestos en correspondencia con sistemas propios de mezcla substractiva por medio de mecanismos de conversión intersistema y de conversión analógica. El principal sistema dirigido a dispositivos de salida es el sistema CYMK (cian. El mayor de todos. Ambas tríadas son. L y las correspondientes a la normativa de CIE Lab de 1964 que especifica los colores en relación con dos parámetros que indican el porcentaje relativo de rojo-verde o amarillo-azul. se realzan mutuamente. por otra parte. hasta cierto punto.y y a un porcentaje de Luminancia. en primer lugar hay que subrayar el hecho de que no es posible conseguir una reproducción sobre papel que replique fielmente los colores que aparecen en un monitor. siglas de tono (hue). luminosidad. los situados en el vértice inferior izquierdo del diagrama representan azules puros. puede ser necesaria una especificación más exacta. esto es. y pensar de acuerdo con otros primarios más genuinos: el rojo. magenta. El diagrama etiquetado como “b” representa los colores que es capaz de reproducir un monitor. a partir de tres canales rojo. y que ayudan a prevenir. las desagradables sorpresas con que se encuentra quien pasa a recoger de la imprenta la imagen que había ido trabajando cuidadosamente en su monitor. complementarias entre sí. en la punta de la suela. ambos colores se muestran en todo su esplendor. basados en el dispositivo específico de impresión que se va a utilizar. magenta y cyan. teóricamente. Una profundización en el uso del color debería considerar que los sistemas de codificación son muy diversos y que. con amarillos anaranjados hacia la derecha y amarillos verdosos hacia la izquierda. El diagrama etiquetado como “c” representa los colores que es capaz de reproducir una impresora de color. brightness o value) y saturación (saturation). brillo o valor acromático (lightness. el sistema RGB que se corresponde con el propio sistema de generación del color en un monitor. El referente principal es el diagrama cromático de la CIE por el que se rigen internamente todas las especificaciones técnicas de dispositivos. Hay dos sistemas principales utilizados corrientemente para la codificación del color. Este rango es aún más .

1. Y. Utilizan cuatro colores (cyan. como una gran impresora por lo que. Pero que también son distintos entre sí pues dependen en gran medida del dispositivo concreto que estemos utilizando. en función de un monitor determinado y una impresora determinada para reducir al mínimo el impacto de estas inconsistencias. con suficiente variedad de colores saturados de todas las gamas. Pruébese a imprimir una imagen. Teoría de la Imagen Digital. Pero incluso puede aparecer como distinta en el mismo monitor si no se ha cuidado de calibrar este monitor adecuadamente en función de una determinada iluminación ambiental. Rercordaremos brevemente lo dicho ahí insistiendo en otros aspectos y con referencias especiales a la imprensión en color. a partir de ahí. Dispositivos Ya se han comentado las diferencias principales en el capítulo sobre recursos básicos. la especificación de un color se da en función de tres colores primarios que son distintos en mezcla aditiva y en mezcla sustractiva. No hay ni que decir que algo similar ocurre con las impresoras. Lo siguiente. Lo primero que se necesita para intentar controlar los colores es ser consciente de que este problema es. armarse de paciencia y anotar el tipo de corrección que es necesario hacer en cada canal. valdrá lo dicho para alguno de los tipos de impresoras que se mencionan en lo que sigue. en diferentes impresoras. la ligera dispersión de las tintas favorece la mezcla. al igual que los plotters electroestáticos cuentan con un dispositivo que coloca una carga negativa Figura 7. muy lenta.4 Rangos cromáticos de un monitor y una impresora de color en comparación con el rango de colores perceptibles . amarillo y negro) en lugar de uno solo y. saber que el único medio de alcanzar cierto control es trabajar con un monitor perfectamente regulado. en condiciones ambientales idénticas e imprimir siempre con una misma impresora con la que se hayan hecho suficientes pruebas para saber cómo responde a las diferentes gamas del espectro cromático. Los verdes pueden hacerse amarillentos o azulados. La impresión a color es. En segundo lugar. La velocidad del papel debe estar también cuidadosamente calibrada pues aunque el secado es muy rápido ligeras diferencias en la velocidad se traducen en zonas emborronadas. los azules verdes o violetas. por esta razón. magenta. por ahora. Una misma imagen. presentada en monitores de diferentes marcas. es decir. los rojos anaranjados o carmines y los tonos neutros desequilibrarse en todas las direcciones posibles. por lo que respecta a su funcionamiento técnico. c) Las impresoras electrostáticas. b) Las impresoras de chorro de tinta (ink jet printers) rocían el papel con minúsculas gotas de densidad cuidadosamente calibrada que atraviesan una matriz de puntos perforados sobre una plancha metálica. según su tipo. hay colores que un monitor puede generar pero una impresora de color no y viceversa. mostrará diferencias apreciables. con un poco de suerte. irresoluble. coincide con el de un monitor tan sólo en su zona central pero hay una marcada discrepancia en los extremos. Conceptos básicos 1 restringido que el de un monitor y. a) Un plotter de color puede considerarse. lo que es peor.

Muchas de estas técnicas comienzan a resultar obsoletas debido a la creciente difusión de la presentación de resultados por medios directos a través de monitores. En cualquier caso. El principo es el mismo en impresión a color con la diferencia de que el rastreo se repite cuatro veces. a igualdad de resolución la calidad es bastante superior a la de las impresoras de chorro de tinta. Estas puntas calefactoras se calientan selectivamente en función de la información recibida que. El toner está cargado negativamente y se adhiere a las partes que han permanecido cargadas. control de la resolución o el color. como antes. También pueden utilizar los cuatro colores de la cuatricromía sustractiva. Transfieren pigmentos desde un papel recubierto con cera de color al papel de imprimir.. una cámara con la película abierta hacia el interior del tubo. . amarillo y negro. Las áreas alcanzadas por el rayo láser pierden su carga. verde y azul. Un rayo láser rastrea un tambor cargado postivamente y recubierto de una capa de selenio. el toner. se corresponde de un modo directo con la matriz de puntos que configuran estas puntas. a una resolución que puede alcanzar las 4. en teoría.Apesar de lo sofisticado del proceso.en los puntos del papel que van a ser impresos. Esto. Debido al tipo de tecnología. Se utilizan principalmente en impresión a color y el papel de transferencia es un rollo continuo en el que se alternan 4 franjas de cyan. etc. hacen que la calidad que se alcance sea casi fotográfica. se adhiere a estas partes. Las enormes ventajas que esto presenta. unido a una resolución suficiente. claramente superior a la de las anteriores. f) Las impresoras de transferencia de colorante por sublimación térmica (thermal sublimation dye transfer) son relativamente similares a la anterior en su funcionamiento general. la impresión puede durar menos de 1 minuto debido a que las puntas calefactoas se calientan y enfrían con gran rapidez. La imagen se envía desde la CPU a través de un puerto paralelo.000 líneas en las filmadoras de mejor calidad. d) Las impresoras láser funcionan en base a un principio similar pero más sofisticado. ya las hemos subrayado al comienzo. Son algo más lentas pero proporcionan la máxima calidad para imprensión a color sobre papel. g) Otro método de obtención de copias permanentes es por medio de una filmadora. hay una diferencia realmente importante y es que esta técnica de transferencia permite alcanzar más de 200 intensidades de gris por cada uno de los 4 canales. La velocidad también es mayor.000 líneas y hasta las 8. magenta. e) Las impresoras de transferencia térmica (thermal transfer printers) se basan en diminutas puntas calefactoras que se agrupan en densidades del orden de unas 200 por pulgada. sobre todo en la medida en que permite obviar todos los problemas técnicos de conversión. hay una transición del estado gaseoso al sólido sin pasar por el líquido algo que parece discutible que ocurra exactamente así. que está siempre por encima de los 200 dpi y a que se produce un cierto efecto de fusión entre las tintas. de longitud igual al tamaño del papel de imprimir. igual que se enviaría a un monitor. Se denomina filmadora a un dispositivo que consiste en un tubo de rayos catódicos en cuyo extremo se sitúa. cargado. o proyectores conectados al ordenador. El rayo de electrones va recorriendo muy lentamente la película (puede tardar alrededor de 3 minutos en filmar una imagen de 4 Mb) efectuando una pasada por cada uno de los tres canales rojo. en lugar de una pantalla recubierta de fósforo. El término “sublimación” se refiere a que. Y el precio también.

Sign up to vote on this title
UsefulNot useful