You are on page 1of 219

FÍSICA Y ÓPTICA

1.4.- Magnitudes y parámetros característicos de la luz

Quizás no exista otro proceso físico que requiera ser caracterizado con una diversidad tan amplia
de magnitudes y parámetros que la luz.

Éstas, a manera de glosario, y con una serie de comentarios de referencia, se detallan a


continuación.

Atendiendo a la propagación y a las características del medio en el cual se propaga:

• Velocidad de Propagación: rapidez con la que se propaga la energía de la luz. En el vacío


es aproximadamente 3.108 m/s, una constante universal, en otros medios la velocidad
dependerá de las propiedades eléctricas y magnéticas del mismo, aunque siempre menor
que la velocidad de la luz.
• Índice de Refracción: magnitud adimensional característica de los medios materiales;
relación entre la velocidad de la luz en el vacío y la velocidad que adquiere la luz en ellos,
y en el caso del vacío el índice de refracción será igual a la unidad:

• Recorrido o Marcha Óptica: coincide con el valor de la distancia s que la luz recorrería
en el vacío en el mismo tiempo que en determinado medio (de índice re fracción n)
recorrería cierta distancia geométrica , [m].

Atendiendo al carácter ondulatorio de la luz, y según la Teoría Ondulatoria


Electromagnética:

• Vector Intensidad de Campo Eléctrico: una de las magnitudes vectoriales que oscilan
durante el proceso ondulatorio, E [V/m].
• Vector Inducción Magnética: otra de las magnitudes vectoriales que oscilan durante el
proceso ondulatorio, B [T].
• Período: tiempo empleado por la onda en una oscilación, T [s].
Fig. 1.4.1: Onda plana ilustrando B(t) y E(t) y señalando el período.
• Frecuencia: número de oscilaciones en la unidad de tiempo, [Hz].
• Longitud de Onda: distancia que avanza la onda en un período, [m].

Fig. 1.4.2: Onda plana ilustrando B(x) y E(x) y señalando la longitud de onda.

El caso más sencillo de una onda lo es el caso en la que la misma está caracterizada por una sola
frecuencia. Aquellas ondas compuestas por una sola frecuencia ó longitud de onda poseen, en todo
instante de tiempo, un perfil de intensidades que corresponde a una onda armónica monocromática
u onda "pura".
Fig. 1.4.3: Perfil de amplitudes que caracteriza a una onda armónica de una sola frecuencia.

Este caso es una idealización. Ni la fuente luminosa de mayor monocromaticidad, como lo es la


fuente luminosa basada en efecto láser, podrá exhibir un perfil de intensidades de esta forma.

La fuentes luminosas reales están compuestas en última instancia por un conjunto de ondas
armónicas dispuestas en cierto diapasón de frecuencias.

Fig. 1.4.4: Perfil de amplitudes de una onda "no pura" o formada por un conjunto de componentes de diferentes
frecuencias.

En el caso de que el diapasón de frecuencia, es decir, el mayor intervalo de frecuencia


característico de la onda, sea muy estrecho, se le denomina onda cuasi-monocromática.Tanto en
este caso como en aquellas de "menor pureza", es necesario tener en cuenta otros parámetros.

Atendiendo a su composición espectral:

• Ancho de Banda: rango de frecuencias , o de longitudes de onda , en que se


disponen las componentes de la radiación desde el punto de vista espectral. También se
puede agregar que el ancho de banda espectral es la zona de frecuencias donde se
encuentran concentradas las componentes espectrales de mayor intensidad.
Se pueden referir aquellas magnitudes generales que caracterizan energéticamente a la luz. Aún
cuando en este campo de interés se ha erigido la Radiometría y Fotometría (la primera relacionada
con magnitudes objetivas y la segunda con magnitudes perceptuales, o sea, subjetivas), y que
podría constituir un capítulo aparte de un libro de texto, solamente se referirán aquellas que serán
utilizadas en los capítulos siguientes.

Atendiendo a sus características energéticas:

• Energía: medida común al movimiento electromagnético, capacidad de realización de


trabajo, E[J].
• Tiempo de Exposición: tiempo durante el cual está depositándose la energía, texp[s].
• Potencia o Flujo de Radiación: rapidez con la cual se realiza el trabajo o se entrega la
energía por parte de la luz, P[W].
• Densidad de Energía: energía por unidad de área que deposita la luz, D.E. [J/cm2].
• Densidad de Potencia o Densidad Superficial del Flujo de Radiación: es la cantidad de
energía que se transmite en la unidad de tiempo y por unidad de área, o sea, potencia por
unidad de área, D.P. [W/cm2]. Esta magnitud también se interpreta usualmente como la
Intensidad de la onda.

1.5.- Fuentes luminosas y propiedades de la luz

El estudio de la luz ha estado determinado por el desarrollo científico-técnico, el cual ha permitido


la construcción de variados tipos de fuentes luminosas. A su vez, el desarrollo de nuevas fuentes
luminosas ha permitido la creación de nuevas aplicaciones.

Pudiera pensarse que es el "color" lo que solamente propicia esta diversidad de fuentes
luminosas.
Figura 1.5.1: Espectro electromagnético

Dentro del espectro electromagnético, aún cuando la luz ocupa un estrecho intervalo de
frecuencias (longitudes de onda), existe una variedad amplia de características de ellas y cuyas
especificidades van más allá de estos parámetros.

Es necesario describir las denominadas propiedades de la luz.

Un haz láser puede vaporizar tejido biológico a altas intensidades, y puede desencadenar positivos
efectos biológicos, sin incrementar la temperatura prácticamente, a bajas intensidades. En este
caso decide la intensidad de la onda incidente.

Es de destacar las diferencias tan acusadas entre los rayos X ó los rayos con la luz visible
cuando se trata de su interacción con los seres vivos. Esta última es inofensiva, aún con altas
intensidades, y los primeros son ionizantes aún con bajas intensidades. Aquí decide
fundamentalmente la frecuencia de la radiación.
La propiedades de la radiación electromagnética

Las propiedades esenciales de la luz son:

• Monocromaticidad
• Divergencia o Direccionalidad
• Polarización
• Coherencia

Para tratar adecuadamente estas propiedades, es necesario profundizar en el tratamiento teórico de


las mismas. Estas herramientas se irán adquiriendo a medida que, en las diferentes partes de este
libro, se estudien los fenómenos correspondientes a través de los cuales estas propiedades se
manifiestan.

No obstante a ello, procede caracterizarlas de manera cualitativa, y con el auxilio de las fuentes
asociadas a cada una de ella.

- Monocromaticidad:

Cada fuente luminosa tiene su espectro correspondiente. El espectro no es más que el conjunto
de frecuencias de que se compone la luz de dicha fuente.

Por lo general, las fuentes luminosas no emiten ondas de un mismo "color". Otras emiten luz
blanca que sería la unión de todos los colores. Pero esta explicación no es convincente si se trata
de diferenciar la "luz blanca" proveniente del sol o la "luz blanca" proveniente de una lámpara
incandescente. Es que la "mezcla" de los colores no se realiza en igual proporción. A continuación
se detallan las diferencias utilizando el llamado perfil de intensidades para cada longitud de onda.

a) Luz del sol que emite casi uniformemente la radiación b) Luz proveniente de una lámpara fluorescente, conocida
en todo el espectro visible. como "luz fría" y que contrasta con el espectro de la
lámpara incandescente disminuyendo sensiblemente en la
zona roja e infrarroja.
c) La lámpara incandescente posee una gran emitancia d) Perfil de emitancia espectral de una lámpara de descarga
espectral en la zona roja e incluso la infrarroja, de ahí el gaseosa que, como la de hidrógeno atómico, mercurio, y
calentamiento que produce. otros ejemplos, son policromáticas de espectros de rayas.
Fig 1.5.2: Perfil de intensidades de diferentes fuentes luminosas: a) sol, b) lámpara fluorescente, c) lámpara
incandescente, d) lámpara de descarga .

Las radiaciones que poseen una sola componente de longitudes de onda o de frecuencia, poseen
un perfil de intensidades muy estrecho, centrado en una sola longitud de onda, y se dicen
monocromáticas. Este estado es difícil de lograr, salvo en fuentes luminosas como el láser.

Hay fuentes luminosas de espectro continuo ejemplos: el sol, lámpara incandescentes, lámpara de
"luz fría" o tubo Geiger. No obstante a que el espectro asociado es continuo y correspondiente a la
denominada luz blanca (luz de todas las componentes visibles), todas las componentes de
longitudes de onda no están igualmente representadas en las radiaciones emitidas por estas
fuentes. A esta diferenciación se le denomina composición espectral.

Las fuentes de espectro discreto como por ejemplo las lámparas de descarga de gases atómicos
como la de H, He, Na, Hg etc... cuyas rayas espectrales se disponen en solamente algunas
porciones, por lo general, estrechas, poseen, alrededor de la frecuencia para la cual es máxima la
intensidad luminosa correspondiente, un cierto ancho de banda.

Es de destacar el perfil de intensidades del caso de la fuente del láser. Es la que posee el menor
ancho de banda, o sea, de todas las mostradas es la de mayor monocromaticidad.

Por todo lo anterior, la Monocromaticidad es una propiedad asociada a la composición espectral.


La monocromaticidad es algo relativo y por ello poseerá gradaciones en dependencia de los
anchos de banda asociados a cada haz luminoso.

Una manera muy cotidiana de obtener luz con cierto grado de monocromaticidad es utilizando
filtros de colores.
(a) (b)

(c) (d)
Figura 1.5.3: Efecto de los diferentes filtros de colores en la foto de una mariposa. Las fotos (a), (b), y (c)
corresponden a imágenes de la mariposa pero obtenidas a través de filtros rojo, verde y azul respectivamente. La foto
(d) se obtiene sin auxilia de ningún filtro de color.

- Divergencia:

Toda fuente convencional emite radiación en cierto


ancho angular. Las fuentes convencionales son
radiadores con una divergencia angular considerable.
El sol, una lámpara incandescente o una de descarga
emiten distribuyendo su potencia en el área
Figura 1.5.4: Esquema explicativo de la relación
entre la divergencia y el ángulo sólido. subtendida por un ángulo sólido máximo.

Aún cuando existan recursos para concentrar la radiación o sea disminuir la divergencia, las
posibilidades prácticas tienen un límite.

- Coherencia:

Los radiadores elementales emiten de forma aleatoria. Aún cuando sea el átomo la unidad
emisora, basta que la misma se excite para que de forma espontánea se des-excite y no exista una
relación de fase entre los trenes de onda emitidos.
Los trenes de onda no están correlacionados entre sí. Esta correlación entre los trenes de onda,
algo tan aparentemente sutil y que se origina en lo microscópico del emisor luminoso, posee una
importancia enorme. Pero esta importancia no se manifiesta a simple vista.

Al tipo de radiación no organizada se le denomina no coherente o incoherente.

Aún cuando existen métodos para lograr aumentar la coherencia, como colocar aperturas de
diámetro pequeño, no se eleva considerablemente el grado de coherencia de la radiación a
partir de una fuente convencional.

Solamente el láser constituye una fuente con alto grado de coherencia. Esta es una fuente de luz
no convencional.

- Polarización:

Esta característica esta relacionada con el grado de organización de los vectores campo eléctrico o
campo magnético en sus oscilaciones. Esto se logra para fuentes convencionales con la utilización,
por ejemplo, de polarizadores y láminas birrefringentes pero de forma natural ninguna fuente
convencional emite radiación polarizada. Existe cierta relación entre la polarización y la
coherencia.

En la Tabla se detallan las fuentes luminosas que han sido desarrolladas por el hombre y los
mecanismos físicos de generación que utilizan.

Tabla I: Mecanismos y principales propiedades de la radiación emitida por las diferentes fuentes
luminosas.

MECANISMO
FUENTE FÍSICO DE PROPIEDADES
EMISIÓN
LUZ BLANCA, AMPLIO ESPECTRO DE
SOL FUSIÓN NUCLEAR
FRECUENCIAS
LLAMA COMBUSTIÓN LUZ BLANCA, ALTO CONTENIDO DE INFRARROJO
LÁMPARA DE ARCO LUZ BLANCA, ALTO CONSUMO, EMITE
ARCO ELÉCTRICO
ELÉCTRICO INFRARROJO Y ULTRAVIOLETA
LÁMPARA INCANDESCENTE EFECTO JOULE LUZ BLANCA, ALTO CONTENIDO DE INFRARROJO
LUZ CON EMISIÓN ESPECTRAL SELECTIVA, A
EMISIÓN DIFERENTES LONGITUDES DE ONDA EN
LÁMPARA DE DESCARGA
ESPONTÁNEA DEPENDENCIA DEL GAS, CON RELATIVA
INTENSIDAD Y BAJO CONSUMO.
DIODO DE
EMISIÓN CONSIDERABLE GRADO DE MONOCROMATICIDAD,
SEMICONDUCTOR
ESPONTÁNEA BAJO CONSUMO
ELECTROLUMINISCENTE .
ALTA MONOCROMATICIDAD, ALTO GRADO DE
EMISIÓN
LÁSER COHERENCIA, GRAN DIRECCIONALIDAD, ALTAS
ESTIMULADA
INTENSIDADES

Características de la luz proveniente de fuentes convencionales

Las fuentes luminosas convencionales no emiten radiaciones puras en cuanto a colores. Sus
espectros luminosos son continuos o discretos. Sin embargo, desde el punto de vista radiotécnico,
es bastante fácil lograr una onda de una sola frecuencia.

La fuente más natural de existencia es el Sol. La luz del Sol es un buen ejemplo de radiación de
espectro continuo.

También la lámpara incandescente o de Edison produce, debido a la combustión , radiación de


espectro continuo. La lámpara luminiscente o lámpara de “luz fría” emite radiación de espectro
continuo. Entre ambos tipos de lámparas existen diferencias importantes.

La radiación emitida por la lámpara incandescente, formada por un filamento de tungsteno al rojo
vivo, está más “cargada” o desplazada hacia las frecuencias bajas correspondientes a los colores
naranja, rojo e incluso una buena parte de infrarrojo. La presencia de éste le confiere la posibilidad
de emitir energía calorífica.

La lámpara luminiscente o de “luz fría” sin embargo, está más “cargada” hacia la zona de la altas
frecuencias siendo muy pocas o, mejor dicho, de poca importancia las componentes espectrales
más “cálidas” siendo más importantes las componentes de mayor frecuencia, azules y violetas.

Otras lámparas como los diodos semiconductores, denominadas LED (light emitting diode) emiten
radiación de espectros discretos, como los provenientes de lámparas de descarga, pero con una
sola longitud de onda pero, poseen para cada pico de intensidad un ancho de banda muy estrecho,
aunque no tanto como el correspondiente al láser. Al no ser pura, por tanto, tampoco tendrá alto
grado de coherencia ni de polarización.
Pero existen otras diferencias más allá de la composición espectral pero que están enmascaradas
en detalles de la manifestación de los fenómenos que serán estudiados a lo largo de este libro,
como los fenómenos de interferencia y de polarización fundamentalmente.

Quizás sea más sencillo, en este momento, explicar la importancia de ellas a través de la
contraposición de aquellas fuentes de radiación electromagnética en la zona radiotécnica y
aquellas generadas por vía óptica.

Es conocido que para recepcionar una OEM en el rango radiotécnico se utilizan osciladores
catódicos, osciladores de Hertz, los circuitos Thomsom, y éstas son recepcionadas por antenas
auxiliadas por un circuito LC. En el caso de las ondas luminosas, es imposible diseñar un circuito
LC, en específico un capacitor con valores de capacitancia factibles...por eso son detectadas con
otros tipos de detectores, ente las cuales están nuestro sistema visual, las placas fotográficas, por
ejemplo.

La interferencia entre ondas electromagnéticas en el rango de la radiodifusión e un fenómeno


indeseable, y la interferencia de la luz podría ser utilizada para realizar mediciones de longitud,
entre otras, con una altísima precisión, no superada por ninguna otra técnica.

Fig. 1.5.5: Esquema del espectro electromagnético atendiendo, en orden decreciente, a la longitud de onda, la frecuencia,
la clasificación, el modelo de generación, proceso físico base y ejemplos de equipos conocidos en la vida cotidiana.

En el caso de las fuentes de radiación luminosa, de manera convencional, las características son:

• se irradia en todas direcciones


• no es monocromática
• no es coherente
• no se encuentra polarizada

Características de la luz proveniente de fuentes láser

Se destaca una nueva fuente de luz: el LASER (acrónimo de la frase en inglés: Light
Amplification by Stimulated Emission of Radiation) que revolucionaría la Óptica y sus
aplicaciones, y que se desarrolló tecnológicamente en la década del 60 del siglo XX no obstante a
que desde inicios del mismo ya estaba teóricamente argumentado por Einstein.

Ya a mediados del siglo XX, con el necesario desarrollo tecnológico se logra construir, por
Maiman, el primer equipo láser en 1960, el cual fue un láser de Rubí por lo que le confieren un
Certificado de Invención al año siguiente.

Se considera que el Láser es una de los grandes éxitos tecnológicos del siglo XX, otorgándosele
en 1964 el Premio Nóbel a Basov, Projorov y Townes.

La luz proveniente de un láser:

• posee una gran direccionalidad


• tiene una alta monocromaticidad
• es más pura espectralmente
• posee una mayor coherencia
• permite concentrar una alta cantidad de energía en un área pequeña

Existen actualmente una amplia variedad de equipos láser y una amplia variedad de aplicaciones.

Existen diferentes maneras de clasificarlos. Una de ellas es atendiendo a su medio activo, o sea, a
la sustancia emisora de la luz.

El primer láser que fue construido en 1960, fue el láser de Rubí, un láser de estado sólido que
emitía en el rango visible del espectro electromagnético, en este caso en el rojo. El láser de
Neodimio-YAG que emite en el infrarrojo posee una longitud de onda de 1064 nm pero puede
emitir, bajo ciertas condiciones de excitación, luz visible de 532 nm. Los láseres de Alexandrita
emiten en el infrarrojo cercano, entre 750 nm y 780 nm y el de Holmio lo hace ya en longitudes de
onda mayores, de 2100 nm.
Los láseres líquido como los de Rodamina, de interés en ciertas investigaciones, emiten el rango
visible desde 570 nm hasta el rojo de 650 nm.

Se destacan los láseres de tipo gaseoso como el de CO2 cuya longitud de onda es de 10,6 nm, o
sea, en el rango infrarrojo del espectro electromagnético.

Otros láseres gaseosos como el de Argón emiten en el rango visible, en este caso azul de 488 nm,
y el Excímer en el ultravioleta con longitudes de onda que van desde 193 nm hasta 351 nm. El de
Krypton que emite en el rojo y el más conocido de todos es el que utiliza como medio activo
(sustancia emisora) una mezcla gaseosa de Helio y Neón, utilizado en las experiencias
demostrativas de este libro de texto.

Dentro de las fuentes no convencionales, o fuentes láser, existen no obstante toda una diversidad
de situaciones. Por ejemplo:

Láser de He-Ne. Es un láser atómico. Puede generar en variadas longitudes de onda siendo las
más empleadas 632,8 nm, 1,15 mm y 3,39 mm. Las transiciones inducidas ocurren entre los
niveles del Neón. El Helio se añade para hacer más efectivo el proceso de bombeo. El tubo del
láser es de vidrio de alta calidad, cuarzo o cerámica. En láseres pequeños se emplea un cátodo y
un ánodo pero ya en aquellos más grandes se utilizan dos ánodos y un cátodo o dos cátodos y un
ánodo. Los cátodos pueden ser fríos o calientes. Emiten de forma óptima bajo determinadas
condiciones: diámetro del tubo~1,5 mm, relación entre presiones He-Ne 1:10 y 1:5 y poseen muy
alta coherencia.

En 1962 se desarrolló un diodo semiconductor que emitía luz coherente, pero la tecnología no fue
desarrollada completamente hasta la década del 70. Se iniciaba la investigación y desarrollo de la
tecnología láser semiconductor utilizándose el Arseniuro de Galio. Inicialmente se obtuvieron
dispositivos que emitían en el infrarrojo en longitudes de onda de 940 nm, 904 nm, 830 nm hasta
obtener uniones semiconductoras emisoras en el visible. Actualmente el mercado ofrece láseres de
diodo semiconductor (LD: laser diode ) que emiten desde el rojo hasta el azul con potencias muy
variadas. Aún cuando sean diferentes los resultados de sus descargas luminosas, las características
más generales de este tipo de láser son:

Láser de semiconductor: En los semiconductores, los niveles energéticos se agrupan en bandas.


Los electrones que participan en la conducción se agrupan en la banda del mismo nombre. En
estos láseres la inversión de población se logra cuando producto del bombeo los electrones han
abandonado la banda de valencia, donde quedaron sus lugares vacíos (huecos) y han pasado a la
banda de conducción. El sistema de bombeo es por inyección de corriente. Es en realidad una
unión p-n con características especiales pues los espejos de resonador son las dos caras paralelas
del propio diodo que son perpendiculares a la unión y se hallan pulidas. Se caracterizan por su alta
eficiencia, poca monocromaticidad, poca coherencia y gran divergencia. Existen muchos láseres
semiconductores. Casi todos trabajan en régimen de impulsos a temperatura ambiente; en algunos
denominados de doble heterojuntura como los de GaAs y GaAsAl se ha alcanzado el régimen de
trabajo continuo a temperatura ambiente.

En la actualidad existe una amplia diversidad de equipamiento láser para las diferentes
aplicaciones tecnológicas, médicas e incluso artísticas.

¿Qué es la Luz?

No solamente el interés de la iluminación determinó el desarrollo tecnológico de las fuentes


luminosas.

La luz como proceso físico posee una naturaleza compleja y el interés por conocer su naturaleza
fue motivo de polémica y debate científico durante siglos.

Desde la concepción mecanicista primaria de la Teoría Corpuscular de Newton, hasta el


antecedente mecánico de la Teoría Ondulatoria de la Luz, finaliza el siglo XIX con la
comprobación teórica de la Teoría Ondulatoria Electromagnética de Maxwell. La luz es por tanto
una onda electromagnética.

A inicios del Siglo XX se revela nuevamente el carácter corpuscular de la Luz, a partir de la

Hipótesis de Planck, que une, en la expresión magnitudes ondulatorias como la frecuencia


y magnitudes corpusculares como la energía cuantificada del fotón. La luz es por tanto un
conjunto de fotones.

La luz se encuentra bajo una concepción dualista de su naturaleza. Incluso esta dualidad converge
en la descripción que de ella se realiza.

La descripción profunda de sus características permitirían diferenciar un tipo de radiación de otra,


por ejemplo una haz de luz infraroja de una haz de luz azul, o un haz de rayos X, no solamente por
la visibilidad o no que posea el sistema visual para detectarla.
Y es que a propósito de su naturaleza ondulatoria electromagnética, no solamente el "color" es
importante. Por ejemplo:

¿cuál sería la diferencia entre un haz de microondas y la luz emitida por una lámpara
incandescente?

¿cuál sería la diferencia entre un haz de luz roja proveniente de una lámpara de Neón y un haz de
luz roja proveniente de un puntero láser?

Existe una diversidad de características de las ondas que sustentan la diversidad del espectro.
Estas características responden a las denominadas propiedades de la radiación.

Características, propiedades, y mecanismos de generación de la luz.

Las cualidades específicas de la radiación luminosa dependerán de la fuente en cuestión.

Las propiedades varían en diferentes gradaciones y se pueden cuantificar de manera rigurosa a


través de ciertas magnitudes como son:

• Perfil espectral de la radiación, longitudes de onda, intensidad y ancho espectral del


espectro asociado a la misma, pueden caracterizar la composición espectral.
• Potencia emitida y perfil de intensidades de la onda luminosa emitida por la fuente.
• Grado de coherencia,(tanto espacial como temporal), así como longitud de coherencia y
tiempo de coherencia.
• Grado de polarización y estado de polarización.

No obstante a que la caracterización puede realizarse a través de magnitudes correspondientes, es


importante de manera inicial, reconocer como a través de los fenómenos, procesos o simplemente
hechos físicos se manifiestan las diferentes propiedades de las fuentes luminosas.

Si de clasificar fuentes de radiación electromagnética se trata, primeramente sería importante


referirse a su mecanismo de generación. Las cualidades de la onda emitida depende en primera
instancia del mecanismo de generación de la misma.

Si bien existen diferencias entre las ondas electromagnéticas de la zona radiotécnica del espectro y
la zona visible, existe una diversidad mayor dentro de esta última. A continuación, en la Tabla,
se intentará resumir algunas de las características más importantes:
VÍAS DE GENERACIÓN DE LA RADIACIÓN ELECTROMAGNÉTICA
VÍA ÓPTICA
CARACTERÍSTICAS DE VÍA
LA RADIACIÓN RADIOTÉCNICA EMISIÓN EMISIÓN
TÉRMICA MOLECULAR
ESPONTÁNEA ESTIMULADA
varias
fija, a seleccionar variable,
frecuencias,
en el equipo variable, en un discretos valores, variables, por
FRECUENCIA discretos valores,
generador por el continuo cierto ancho de bandas
ancho de banda
operador banda
muy estrecho
no
monocromática monocromática
espectro discreto espectro de
MONOCROMATICIDAD bastante amplio monocromática
policromática bandas continuas
aproximada diapasón de
frecuencias
emisión continua
CONTINUIDAD DE LA
aproximadamente no continua discontinua discontinua discontinua
EMISIÓN
fase fija
LONGITUD DE LOS medianamente
muy largos cortos cortos cortos
TRENES DE ONDA largos
cierto grado de alto grado de
COHERENCIA incoherentes incoherentes incoherentes
coherencia coherencia
polarizada, a
ESTADOS DE alto grado de
decisión del no polarizada no polarizada no polarizada
POLARIZACIÓN polarización
diseñador

En la Tabla se detallan las fuentes luminosas que han sido desarrolladas por el hombre y los
mecanismos físicos de generación que utilizan.

Casi todos los tipos de fuentes son conocidas a partir de la experiencia cotidiana y de los sistemas
de iluminación domésticos. La cotidianidad del contexto tecnológico actual del Hombre lleva a
éste a conocer en la tecnología informática al láser. Esta fuente de luz: el LASER (acrónimo de la
frase en inglés: Light Amplification by Stimulated Emission of Radiation), revolucionaría la Óptica
y sus aplicaciones, a partir de la construcción del primero de ellos por Maiman en 1960.

Pero incluso en esta especialísima fuente luminosa, en todas ellas hay un factor común de
funcionamiento independientemente del mecanismo físico: "se lleva al sistema físico a un estado
de alto contenido energético para posteriormente regresar a estados de menor energía y entregar
así el resto de la energía en forma de radiación".

Ese proceso en todos los casos, se realiza debido a la tendencia que tiene todo sistema físico a
estados de mínima energía lo cual se alcanza de forma continuada y natural para cada uno de los
componentes de dicho sistema.
Los diferentes mecanismos de generación, aún cuando cumplan la condición general anterior,
utilizan diferentes vías de excitación y de emisión. Solamente una explicación a nivel
microscópico y que por tanto escapa del enfoque clásico podría explicar las diferentes propiedades
de la radiación.

Es por ello que es imprescindible, para caracterizar las diferentes propiedades de la luz, aludir a
los diferentes mecanismos de generación, y por lo tanto a los aspectos cuánticos de la misma.
Estos temas serán tratados, parcialmente, en el Capítulo de Óptica Cuántica, aunque el tratamiento
riguroso de todos los temas se encuentran fuera del alcance de una asignatura de Física General, y
por tanto, fuera del alcance de este libro.

1.6.- Superposición de ondas.

Este epígrafe presentará el punto de partida para el tratamiento de los fenómenos de la propagación, es decir, de
aquellos fenómenos que serán tratados en el Capítulo III: Óptica Ondulatoria.

Por la importancia que tiene, y dado que los orígenes que este tema tiene en la denominada Ecuación de Onda,
en este capítulo se trata el basamento teórico del tratamiento que recibirán los fenómenos de interferencia y
difracción así como la propagación de una onda polarizada en los medios anisótropos en los cuales es posible
lograr nuevamente un proceso de interferencia, pero de diferentes características.

Y es que una de las propiedades más importantes de la Ecuación de Ondas es el Principio de Superposición.

En forma general éste puede ser enunciado:

• "La suma algebraica de las amplitudes que representan diferentes perturbaciones, también representa
una perturbación."

Puede ser también enfocado como un principio de descomposición:

• "Cualquier solución general de la Ecuación de Ondas puede ser descompuesta en una suma de
soluciones elementales."

En todos ellos se utiliza, de alguna manera, la combinación de dos o más ondas. En dependencia de las
características de las ondas coincidentes, se darán las diferentes situaciones físicas. Más rigurosamente a esta
coincidencia se le denomina superposición.

Si y son ambas soluciones de la ecuación diferencial de onda:

entonces puede escribirse:

así como:

Si se suman ambas expresiones, se obtiene:

ÓPTICA GEOMÉTRICA
Los primeros estudios acerca de los fenómenos luminosos identificaron precisamente este hecho, uno de los
más evidentes de la vida cotidiana. Se sustentó un concepto que, proveniente del conocimiento común, se
incorporó al conocimiento científico: el concepto de rayo luminoso.

La propagación rectilínea de la luz fue utilizada para fundamentar el funcionamiento de la cámara oscura y
la formación de las imágenes en la superficie de los lagos y estanques.
2-1. Óptica Geométrica y Óptica Ondulatoria.

El concepto de rayo luminoso posee una relación muy directa con la concepción ondulatoria de la
luz.
Cuando se trata la onda luminosa, al tener un carácter electromagnético, se expresan en el orden
matemático, dos ecuaciones ondulatorias vectoriales que, en el espacio libre - es decir, en el vacío,
ausencia de sustancia, de cargas y de corrientes eléctricas, adoptan la forma:

2.1.1

Aquí se ha representado con la letra c la velocidad de la luz en el vacío.

Siendo y la permeabilidad magnética y la permitividad eléctrica respectivamente. Estas


ecuaciones ondulatorias conducen cada una a tres ecuaciones escalares, pues en primera instancia
tanto el vector intensidad del campo eléctrico (E) como el vector inducción magnética (B)
dependerán de las coordenadas en tres dimensiones.

Los vectores asociados al campo eléctrico (E) y al campo magnético (B) se relacionan entre sí a
través del sistema de Ecuaciones de Maxwell, que en el espacio libre, o sea, en el vacío (ausencia
de sustancias, de cargas y de corrientes eléctricas) se expresan de la siguiente manera:

2.1.2

La solución de estas ecuaciones constituyen las denominadas ondas vectoriales. Trabajar con
ellas entraña cierta dificultad en la operatoria, pues el trabajo con rotacionales y con el potencial
vectorial magnético ( ) sería algo que no puede ser esquivado en cierto tipo de problemas
técnicos donde la alternación matemática de los vectores campo eléctrico- campo magnético es
indispensable en el tratamiento del problema, como ocurre en el caso de las antenas.

Sin embargo, en una gran mayoría de los problemas de interés técnico los fenómenos
electromagnéticos pueden tratarse estudiando aisladamente lo que le sucede a una sola
componente. Se tendrán en estos casos las ondas electromagnéticas más sencillas que existen y
que se conocen como ondas escalares, pues puede reducirse el vector campo eléctrico como si
fuera un escalar.

En general puede representarse la Ecuación de Onda en términos de una función que


cumple la Ecuación de Onda:

2.1.3

Siendo , el denominado vector de onda.

La expresión de la onda escalar sería del tipo:

2.1.4

que representa una perturbación según el eje de las x, en sentido positivo, y con velocidad c.

Se denomina frente de onda al lugar geométrico de puntos que poseen igual fase.

Un caso particular de onda será aquella armónica, para la cual la dependencia es del tipo:

2.1.5

Ésta sería la expresión de una onda esférica que podrá propagarse en un medio que posee en
todas direcciones las mismas propiedades electromagnéticas, es decir la permitividad eléctrica y la
permeabilidad magnética. El medio con estas características se denomina isótropo desde el punto
de vista eléctrico y magnético. En el caso de la onda de tipo esférica será un frente de onda
esférico.

Otra solución sería el caso particular de la onda armónica plana, en este caso que se propaga
según el eje de las x y en sentido positivo, donde la amplitud es una constante:

2.1.6

En este caso el frente de onda será el de una onda armónica plana.

¿Cómo se propaga el frente de onda?


La velocidad de propagación de la onda luminosa determina la velocidad de la superficie del
frente de onda, y no solo eso sino que son iguales. El rayo no es más que la trayectoria normal
que, en cada punto del frente de onda, puede trazarse. El rayo luminoso avanzará también a esa
misma velocidad de propagación.

Tanto el frente de onda como el rayo son representaciones del proceso continuo de propagación
de la energía electromagnética a través del espacio.

Fig. 2.1.1: Relación geométrica entre el frente de onda y el rayo luminoso para a) frente de onda plano y b) frente de
onda esférico.

Para el caso de un frente de onda esférico y para el caso de un frente de onda plano los rayos
luminosos serán ó rectas paralelas ó rectas radiales tal y como muestra la Figura 2.1.1.

Existen fenómenos en que la onda electromagnética pierde hasta su carácter ondulatorio. Son los
fenómenos electromagnéticos más simples en los cuales solamente interesa la dirección de
propagación de la onda en el espacio físico en cuestión, como lo son los conocidos fenómenos de
la reflexión y la refracción. Es en este caso cuando basta el tratamiento que hace la Óptica
Geométrica, por lo que es suficiente la descripción de los fenómenos a través de la descripción
geométrica de los rayos.

Así como la frecuencia de la onda electromagnética sea mayor, esto es, mientras menor sea la
longitud de onda, más exacta es la descripción por rayos. Esto caracteriza la simplicidad posible
en el tratamiento de los fenómenos de la Óptica Geométrica.

La Óptica Geométrica abarca todo el proceso de formación de imágenes en espejos planos y


esféricos, así como en lentes y sistemas de lentes. Se puede encontrar la explicación del
funcionamiento de diversos dispositivos como el prisma y la lupa, así como de un conjunto de
instrumentos formadores de imágenes como lo son los conocidos microscopios y telescopios.

2.2.- Tratamiento escalar de las ondas electromagnéticas.

Aún cuando ya se ha anunciado el tratamiento de que será objeto cada proceso de formación de
imágenes, es necesario profundizar acerca de los fundamentos matemáticos de esta formulación
geométrica. Para ello es indispensable volver a la formulación ondulatoria.

Las soluciones que satisfacen la Ecuación de Onda serían ondas armónicas (sinusoidales ó
cosinusoidales):

2.2.1

Es posible suponer que la función de onda pueda expresarse como:

2.2.2

Esta componente satisface también:

2.2.3

En el vacío la velocidad es y para cualquier otro medio .

En función de la frecuencia angular y definiendo el índice de refracción:

2.2.4

Es interesante hacer notar que:

2.2.5

Entonces la ecuación de onda de la expresión de la onda armónica f también puede ponerse como:

2.2.6
En el caso de una onda plana, en la que las superficies de igual fase sean planos geométricos, la
parte espacial de la onda puede escribirse como:

2.2.7

donde es un vector unitario en la dirección de propagación de la onda y el radiovector.

El producto de ellos, de dimensiones de longitud, sintetiza un concepto de extraordinaria utilidad


en Óptica: el camino ó recorrido óptico.

Supóngase que en cierto medio de índice de


refracción n, y en cierto intervalo de tiempo la luz

recorre una distancia . Como ,

entonces la distancia recorrida . Pero

no sería más que la distancia geométrica que


en ese mismo intervalo de tiempo la luz
recorrería en al vacío, o sea: . Por lo tanto:

El camino ó recorrido óptico es una magnitud que


resulta ser función lineal de las coordenadas. Su
Fig. 2.2.1: Esquema ilustrativo de la interpretación
interpretación física constituye un tema de física del camino o recorrido óptico.

obligado interés.

2.3.- Rayo y frente de onda.

En el caso de la Ecuación de Onda expresada, en el epígrafe 2.2, como:

2.3.1

En el caso de una onda plana, en la que las superficies de igual fase sean planos geométricos, la
parte espacial de la onda puede escribirse como:

2.3.2
donde es un vector unitario en la dirección de propagación de la onda y el radiovector. El

producto de ellos, de dimensiones de longitud, sintetiza un concepto de extraordinaria utilidad en


Óptica: el camino ó recorrido óptico. Esta magnitud resulta ser función lineal de las
coordenadas. La solución de la ecuación de onda puede expresarse entonces:

2.3.3

Al derivar esta solución una primera y una segunda vez:

Al sustituir estas anteriores expresiones en la ecuación de onda, se obtiene:

2.3.4

Para longitudes de onda pequeñas, los términos cuadráticos no pueden ser grandes, luego el
paréntesis que multiplica a k2 debe ser muy pequeño, por lo que:

2.3.5

Luego entonces, si L(x,y,z) satisface la ecuación anterior, entonces será una

solución de la ecuación de onda para valores grandes de k, o sea, valores pequeños de longitudes
de onda. La ecuación diferencial de segundo grado y primer orden para la función f(x,y,z) pasa a
ser una ecuación de primer orden y segundo grado para L.

2.3.6

Esta ecuación recibe el nombre de Ecuación Fundamental de la Óptica Geométrica, aunque


también es conocida como la Ecuación de la Eikonal.
Si L es solución de dicha ecuación, los valores de L(x,y,z)=constantes son superficies de igual
fase. Estas superficies no son más que las diferentes posiciones del frente de onda que se propaga
en el espacio.

Perpendiculares a esta superficie se constituyen los denominados rayos, en dirección de aquél


vector perpendicular a la superficie del frente de la onda para la cual se cumple la condición de
L(x,y,z)=constante, que será a su vez proporcional al gradiente de L.

2.3.7

Este vector unitario puede expresarse como , siendo (s) el vector posición del punto P
sobre el rayo. Entonces, sustituyendo en la ecuación 2.3.7, se obtiene:

2.3.8

Esta última ecuación constituye la Ecuación del Rayo.

En las Figuras 2.3.1 y 2.3.2 se ilustran


gráficamente las relaciones entre el frente de
onda y el rayo luminoso. Los rayos luminosos
se definen como las trayectorias ortogonales a
los frentes de onda geométricos para los que la
Fig. 2.3.1: Posición de un frente de onda hipotético en el función recorrido ó camino óptico L es
instante t y en otro posterior . constante.

Como el vector S es unitario, y teniendo en


cuenta que el índice de refracción depende en
general del medio en el cual se está
propagando, y que puede no ser homogéneo ni
Fig. 2.3.2: Relación entre el radio vector de posición
isótropo.
y el vector desplazamiento del frente de onda .
2.3.9

A partir de aquí puede realizarse el tratamiento de rayos de la Óptica Geométrica.

Cuando se trabaja con el concepto de rayo luminoso, se asume que esta aproximación es válida.
Entonces podría cuestionarse bajo cuáles circunstancias puede hacerse esta aproximación.

Pero, ¿cuán buena es la Óptica Geométrica como aproximación?

La respuesta a esta pregunta dependerá de las condiciones bajo las cuales se obtuvo la ecuación
fundamental. Es menester tener en cuenta dos situaciones que limitan la validez de la
aproximación de la Óptica Geométrica:

• Toda propagación óptica de rayos conduce a sombras y lugares iluminados. En los límites

de la sombra hay una variación de la amplitud u(x,y,z), entonces el gradiente será una
magnitud elevada en valor, entonces la aproximación no será válida y se estaría en
presencia de fenómenos de difracción.
• En las fuentes o sumideros luminosos, esto es, donde los rayos divergen (focos puntuales)

o convergen, se tendrá que será una magnitud considerable, luego en


las inmediaciones de estos puntos no tendrá validez la Óptica Geométrica.

Además, si k resulta pequeño, por ejemplo, en Radiotecnia, la aproximación realizada no es válida


y estaremos en presencia en estos casos de la Óptica Física u Óptica Ondulatoria

Por otro lado, y desde el punto de vista energético, la aproximación de la Óptica Geométrica ¿qué ventajas trae
al interpretar el concepto de Intensidad luminosa?

De la Teoría Ondulatoria-Electomagnética de Maxwell, se concibe que la energía, la potencia y la intensidad


poseen un enfoque electromagnético de base. O sea, la energía es portada por el campo electromagnético en sus
dos aspectos: el eléctrico y el magnético. Las densidades volumétricas de energía son, en el caso del espacio
libre o vacío, magnitudes promedio igualmente probables:

2.3.10

El promedio del Vector de Poynting se considera en la dirección normal del frente de onda, o sea, la dirección
del rayo luminoso. La magnitud de este vector sería el producto del promedio energético de la ecuación 2.3.10

con la velocidad de propagación de la onda , que no es más que la dirección del Vector de Poynting, o

también la dirección del vector unitario

2.3.11

La Intensidad luminosa, en estos términos, se define como el valor promedio absoluto en el tiempo del Vector
de Poynting:

2.3.12

La Ecuación de Continuidad para el Vector de Poynting relaciona:

2.3.13

Fig. 2.3.3: Porción volumétrica generada por la propagación del frente de onda luminoso.

En cierta porción volumétrica del frente de onda que se propaga (Ver Figura 2.3.3), se cumple que dada la

conservatividad del campo electromagnético, . Entonces . Y por Teorema de la


Divergencia , entonces siendo la normal externa a la superficie que encierra al volumen.
El frente de onda se encuentra contenido en el cono subtendido por el ángulo sólido representado, situación que
lleva a considerar que . Conociendo que las áreas dependen del inverso del cuadrado del radio

correspondiente, puede considerarse que la Intensidad luminosa dependerá:

2.4.- Reflexión y Refracción de la luz.

Estos dos fenómenos básicos de la Óptica Geométrica, pueden sintetizarse en :

Las tres leyes básicas que fueron inferidas al


estudiar estos fenómenos fueron:

1. Los rayos incidente, reflejado y


transmitido, todos descansan en un
mismo plano, el cual se denomina
plano de incidencia.
2. Ley de la Reflexión: El ángulo de
incidencia es igual al ángulo de

Figura 2.4.1: Esquema que representa la disposición reflexión, es decir:


geométrica del rayo incidente y el rayo reflejado en la
superficie de separación entre dos medios.
2.4.1
3. Ley de la Refracción: Las direcciones de los rayos incidente y transmitido (refractado) están
relacionados por la Ley de Snell:

2.4.2
Si n1 2, , y el rayo transmitido (refractado) se acerca a la dirección normal a la
<n

superficie, y por el contrario, si n1 el rayo transmitido (refractado) se aleja de la normal.


>n2

Reflexión Total: En este último caso, es de interés una experiencia que demuestra que existe

cierto ángulo crítico de incidencia para el cual, , no se produce rayo refractado y la


si
luz se refleja totalmente.

2.4.3

Otro hecho interesante: Si el observador se encuentra


sumergido en el agua, y mira hacia arriba, observa todo el
cielo iluminado reducido a una mancha luminosa circular.
¿Cómo explicar esta observación?

Para un haz de luz en forma de cono con ángulo de

abertura pasa desde una sustancia menos densa (como


el aire) hacia una más densa (como el agua de mar). La
abertura angular del haz transmitido será menor. Si el
ángulo de incidencia es cercano a π , es decir el cono de
luz en el medio menos denso es de aproximadamente 2π ,
en el medio más denso le corresponderá un haz de
Fig. 2.4.2: Esquema ilustrativo de la
abertura . Aplicando la Ley de la Refracción se refracción de un cono de luz hacia un medio
de mayor densidad óptica.
puede obtener:

2.4.4

En el caso del ejemplo, el aire posee un índice de refracción igual a 1, el agua de mar 1,33 por lo

que el ángulo límite sería .

Otras aplicaciones del fenómeno de Reflexión Total se encuentran en el principio de


funcionamiento de algunos prismas.
Fig. 2.4.4: Explicación del funcionamiento del
prisma inversor.
Fig. 2.4.3: Esquema de rayos del Prisma de Reflexión Total.

El Prisma de Reflexión Total permite


desviar un haz perpendicularmente a
la dirección incidente.

El prisma inversor permite


intercambiar la posición de dos haces
luminosos.

El prisma de Porro logra un efecto


similar al de un espejo plano: invertir
de sentido el haz luminoso.
Fig. 2.4.5: Explicación del funcionamiento del prisma de
Porro.

2.5.- Ecuaciones de Fresnel

No solamente fue de interés estudiar el curso de los rayos luminosos, es decir, el cambio de
dirección. También fue de interés determinar de cuáles factores dependía la intensidad de los
haces involucrados en los procesos de reflexión y de refracción.

Augustin Jean Fresnel, ya hace casi aproximadamente doscientos años, obtuvo un conjunto de
expresiones que permiten calcular la cantidad de luz reflejada y transmitida en una interfaz.
(a) (b)
Figura 2.5.1: Esquema explicativo de las diferentes componentes de la luz para el caso de: (a) Haz incidente con el
vector E perpendicular al plano de incidencia. (b) Haz incidente con el vector B perpendicular al plano de incidencia

En la Figura 2.5.1 se ilustran dos situaciones físicas que pueden tratarse según la Teoría
Ondulatoria Electromagnética de la luz.

A partir de las Ecuaciones de Maxwell, se obtienen ciertas condiciones que deben cumplir las
diferentes componentes de los vectores y , cuando la onda incide en la superficie de
separación de dos medios de índices de refracción ni y nt . Se considerará que no existen
distribuciones de carga en la frontera ni distribuciones de corriente eléctrica.

Se supondrá además, una onda plana incidente, es decir una onda cuyos vectores característicos
- y por tanto - se encuentran siempre en un plano. Como quiera que, en virtud del Principio de
Superposición, cualquier componente de la luz, ya sea incidente como reflejada y transmitida,
puede descomponerse a su vez en componentes paralelas al plano de incidencia y al plano

perpendicular a éste, bastaría analizar la relación entre los vectores , y


.

Se cumplen por tanto las siguientes condiciones:

Componentes tangenciales:

• La componentes tangenciales de son continuas.

• En presencia de densidad de corriente superficial , la componente tangencial de B


cambia abruptamente. Si no hubiera corriente superficial entonces también las
componentes tangenciales de serían continuas.

Componentes normales:
• En presencia de una densidad de carga superficial, las componentes normales de
cambiarán abruptamente.En caso contrario, estas componentes serán continuas.
• Las componentes normales de son continuas.

La mayor parte de las situaciones físicas de interés en Óptica Geométrica, constituyen los casos en
que los dos medios ópticos entre los cuales ocurre la reflexión y la refracción son dieléctricos, por
lo tanto no existirán en la superficie ni densidades de carga eléctrica ni corrientes eléctricas.

Por lo tanto, ya sean las componentes tangenciales como las normales de y de serán
continuas.

Como basta con detallar el comportamiento del vector E, solamente será necesario encontrar las

condiciones de contorno para , o sea las componentes de la onda incidente, reflejada y

transmitida (refractada).

Las expresiones de los coeficientes de amplitud de la onda reflejada y de la onda transmitida serán

rxx , txx así como y .

Para las componentes paralelas:

rxx=

Ecuaciones de
txx=
Fresnel
Y para las componentes perpendiculares:
Puede definirse también la Reflectancia como la razón entre el flujo ó potencia reflejado y el flujo
ó potencia incidente. La Tramitancia, igualmente la relación entre el flujo ó potencia transmitido
respecto al flujo ó potencia incidente:

Aplicaciones de las Ecuaciones de Fresnel:

Ejemplo 2.5.1: Reescriba las expresiones de los coeficientes de reflexión en función de y

solamente es decir, obtener la dependencia explícita de y sobre y .

Ejemplo 2.5.2: Derive las expresiones de los coeficientes de amplitud bajo la condición de
incidencia normal.

Ejemplo 2.5.3: Supóngase que la luz linealmente polarizada incide en una superficie tal que

el plano de oscilación forma un ángulo con el plano de incidencia. Si la reflectancia de las

componentes paralelas y perpendiculares al plano de incidencia son


respectivamente. Escribir la expresión de la reflectancia total.

Ejemplo 2.5.4: Escribir las expresiones para la reflectancia y la tramitancia para la


incidencia cercana a la normal.
Ejemplo 2.5.5: Fundamente
teóricamente el fenómeno de la Reflexión
Total Interna.

Fig. 2.5.2: Caso límite de Reflexión Total para el caso de la


incidencia de la luz desde un medio más denso hacia uno menos
denso.
Ejemplo 2.5.6: Fundamente la posibilidad de
obtener luz polarizada mediante la reflexión
en una superficie a partir de luz no polarizada
incidente en ella.

Fig. 2.5.2: Caso de la reflexión de la luz para una


condición en la cual el haz reflejado solamente posea
componentes perpendiculares al plano de incidencia

2.6.- Principio de Fermat


Hace ya más de 2000 años que Hero de
Alejandría, tras una detallada observación,
aseveró que un rayo luminoso que parte de
un punto S, se refleja en un espejo y
cuando llega a cierto punto P lo hace por
la menor trayectoria posible en el espacio.
Esta aseveración para el caso de la
reflexión en un medio homogéneo también
lo será para el caso de la refracción de la
luz.

En las Figuras 2.6.1 y 2.6.2 se ilustran las


Fig. 2.6.1: Esquema que muestra el rayo incidente y reflejado
conocidas trayectorias de los rayos
en una superficie reflectante.
luminosos después de incidir en la frontera
de dos medios homogéneos.

La menor distancia entre los puntos S y P,


para ambas situaciones físicas, es la línea
recta que los une, y a su vez la trayectoria
que sigue la luz.

En 1657, Fermat generalizó la observación


de Hero de Alejandría como sigue: Un rayo
de luz, en su recorrido desde un punto a otro
del espacio seguirá una trayectoria tal que el
tiempo empleado en ello constituye un
mínimo. Como quiera que esta idea así
expresada no constituye una verdad absoluta,
Fig. 2.6.2: Esquema que muestra el rayo incidente y requiere no obstante de algunas
transmitido durante la refracción de la luz por un medio.
modificaciones.

Supongamos un rayo luminoso que, en su recorrido desde S hasta P atraviesa segmentos con
distancias s1, s2, ......sm en medios de índices n1, n2,.......nm, respectivamente. El tiempo total
empleado en ello será:
2.6.1

La última sumatoria no es más que el recorrido ó marcha óptica. El Principio de Fermat puede
entonces ser reenunciado como: Un rayo luminoso recorrerá una trayectoria que corresponde al
menor recorrido ó marcha óptica.

Para expresar de manera más general y moderna el contenido del Principio de Fermat, se acude al
concepto de valor estacionario de una función. La función f(x) se dice que posee un valor
estacionario en x=x0 si su derivada df/dx se anula en x=x0. Un valor estacionario puede
corresponder a un mínimo, a un máximo ó a un punto de inflexión con la tangente horizontal. En
cualquier caso, f(x) varía lentamente en el entorno del valor estacionario f(x0) de tal manera que

para .

Puede expresarse el Principio de Fermat de la siguiente manera: Un rayo de luz para ir de un


punto a otro, y en dependencia del medio involucrado, recorrerá la trayectoria que corresponde
a un valor estacionario del recorrido ó marcha óptica.

Entonces, si a la función recorrido ó marcha óptica se le denomina L, entonces la condición a


cumplir por ella será, para el caso de medios no homogéneos:

2.6.2

El recorrido de la luz será aquél que hace la derivada de esta función igual a cero.

En el Epígrafe 2.3 se analizaba la Aproximación de la Óptica Geométrica, y en este caso sería


interesante recordar que la Ecuación de la Eikonal (Ecuación 2.3.8):

De esta ecuación se desprende también el Principio de Fermat ó Principio de Acción Mínima ó del
mínimo camino óptico.

La integral en cuestión tiene un valor mínimo a lo largo de un rayo. Esto es, el valor de esta
integral, es un mínimo tomado a lo largo de la curva que revela la propagación de los rayos en un
medio con cierta variación del índice de refracción. En ciertos problemas de propagación de ondas
en la atmósfera se utiliza este principio.

Aplicaciones del Principio de Fermat

Ley de la Reflexión

En la Figura 2.6.1 nótese que el rayo que parte de S incide en B y se refleja hasta llegar a P. Se
asume el medio homogéneo de índice de refracción n. La función recorrido ó marcha óptica no es
más que:

La función recorrido ó marcha óptica es función de x, y la luz solamente seguirá la trayectoria que
haga que su derivada sea nula, es decir:

entonces:

Pero esta expresión es equivalente a:

Por lo tanto se llega a que:

2.6.3

Ley de Snell

Se presentará la Ley de Snell, a partir del Principio de Fermat de dos maneras:


1. Aplicación matemática del Principio de Fermat:

La Figura 2.6.2 representa igualmente un esquema geométrico relativo al fenómeno de refracción


de la luz en la interfaz entre dos medios de diferentes índices de refracción. En este caso la
función recorrido ó marcha óptica L(x) será:

Entonces la condición:

conduce a la siguiente ecuación:

que conduce a:

2.6.4

2. Aplicación cualitativa del Principio de Fermat:

Fig. 2.6.3: Esquema que muestra dos trayectorias cercanas del rayo luminoso en el caso de la refracción de la luz.
La Figura 2.6.3 ilustra dos trayectorias cercanas, para el caso de la refracción de la luz entre dos
medios de índice ni y nt. La trayectorias ópticas a lo largo de estas dos rutas serán cercanamente

iguales. Asumiendo que y son pequeños, entonces y .

Si las trayectorias ópticas y son aproximadamente iguales, es necesario

que . Esto significa que es aproximadamente

igual a . Si se considera a y , como correspondientes segmentos de frentes de onda

planos, entonces y . Esta aproximación es buena, así como es

lo suficientemente pequeño. Finalmente se tiene:

O lo que es lo mismo, la conocida expresión de la Ley de Snell:

El Principio de Fermat resulta de gran utilidad para el análisis de diferentes situaciones físicas
durante la propagación de la luz.

2.7.- Teoría de los sistemas ópticos

Como se ha visto en los anteriores epígrafes, al despreciar , o mejor, considerar , las leyes
ópticas pueden ser formuladas en lenguaje de la Geometría y la energía puede considerarse como
transportada la lo largo de ciertas curvas denominadas rayos luminosos. Estos rayos luminosos
son ortogonales al frente de onda.

El trabajo con rayos luminosos que se propagan en línea recta y la aplicación consecuente de las
Leyes de la Reflexión y Refracción, permiten encontrar las imágenes formadas en los diferentes
sistemas ópticos.
Los sistemas ópticos no son más que un conjunto de superficie refringentes y/o reflectantes que
se disponen unos a continuación de los otros con el objetivo de alterar el frente de onda de la luz
que las atraviesa para lograr determinados propósitos.

Es muy frecuente encontrar sistemas ópticos en instrumentos y equipamiento variado. Una de las
funciones principales de los sistemas ópticos es la de formar imágenes. Es este propósito el que
de manera especial ocupará el interés de este epígrafe.

Los sistemas ópticos pueden ser simples:

• Lentes ópticas: dispositivo formado por la limitación física de un medio refringente a partir
de dos superficies refringentes.
• Espejos: dispositivo simple que ofrece solamente una frontera reflectante a un frente de
onda ó haz luminoso.

O también sistemas ópticos más complejos como instrumentos ópticos de uso frecuente como la
lupa, el microscopio, el telescopio, e incluso sistema de lentes simples para formar una lente
compuesta como la lente de una cámara fotográfica.

Describir un sistema óptico no es más que poder caracterizar las diferentes situaciones que se
presentan en la formación de imágenes. Para ello es indispensable poseer la ecuación del sistema
óptico en cuestión, es decir, la expresión que relaciona magnitudes importantes en esta
descripción: el aumento, el tipo de imagen, la distancia objeto, la distancia imagen, tamaño del
objeto y tamaño de la imagen. Claro que cada sistema óptico posee otras magnitudes
características propias, como puede ser el radio de curvatura de un espejo esférico, o la distancia
focal de una lente.

Para encontrar la ecuación del sistema óptico, basta con aplicar las leyes generales de la Óptica
Geométrica: La Ley de la Reflexión, la Ley de la Refracción (Ley de Snell) ó el Principio de
Fermat, en cada caso particular. A continuación se resuelven cada uno de los casos básicos
interesantes.

2.7.1.- Superficies refringentes asféricas.

La situación, de manera sintética, puede ilustrarse en el esquema del la Figura 2.7.1.


Los rayos luminosos parten del punto
S (fuente) y podrán, de acuerdo con
su inclinación respecto al eje del
sistema, recorrer diferentes
trayectorias. Se podría decir que una
onda esférica que emerge, de manera
Fig. 2.7.1: Modificación del frente de onda bajo la acción de un divergente, desde S y llegará de
hipotético sistema óptico.
manera convergente al punto P.

Se supone que una de estas trayectorias


corresponde a un mínimo de la función recorrido
ó marcha óptica L. Razonando según el Principio
de Fermat, la luz transitará por una de las
trayectorias y no por otras. Pero es necesario
tomar otras rutas porque la luz emerge de S en
diferentes direcciones por lo que la trayectoria
extremo (o mínima ó máxima) no puede ser
alcanzada de manera única por una de ellas. En
Fig. 2.7.2: Esquema que ilustra la modificación del
otras palabras, todos los rayos que partan desde frente de onda que pasa a través de una superficie curva
que separa dos medios transparentes.
S, a través del sistema, poseerán idénticos valores
del recorrido ó marcha óptica.

En la Figura 2.7.2 se representa la misma situación anterior pero considerando que el dispositivo
óptico que modifica el frente de onda que diverge y que parte de S a convergente tendiendo a P, es
una superficie curva que separa dos medios transparentes de diferentes índice de refracción.

La Figura 2.7.3 muestra la trayectoria de dos


rayos luminosos. El Principio de Fermat
plantea que el recorrido ó marcha óptica L a lo
largo de cada rayo desde S hasta P será un
valor estacionario. De las diferentes opciones
de trayectorias entre el punto S y el punto P,
ninguna constituirá un máximo ó un mínimo,
Fig. 2.7.3: Trayectorias de dos rayos luminosos SAP y sino que serán iguales, por lo que entonces se
SVP durante el proceso de refracción en la superficie
esférica. cumplirá la siguiente condición
independientemente de la posición de A:

2.7.1

A y a si se les denomina distancia objeto y distancia imagen respectivamente. La ecuación


s
0

determina una curva llamada Ovoide Cartesiano.

Ejemplo 2.7.1 -1: Escribir la expresión del Ovoide Cartesiano cuyas distancias objeto e
imagen son 8 cm y 10 cm respectivamente. Suponga que el medio refringente es de vidrio
(ng=1,5) y que ésta se encuentra rodeada de aire (na=1,0). Dibujar el esquema de la
interfase.

Ejemplo 2.7.1-2: Se representa una fuente puntual embebida en un medio refringente de


índice de refracción n1. Los rayos que emergen de ella inciden en una interfase de separación
con otro medio de índice de refracción n2.

(a) Analizar cualitativamente la forma geométrica de


esta interfase de tal manera que el frente de onda
emergente sea un frente de onda plano en el caso en
que n1>n2.

(b) Demostrar que la interfase deseada en este caso es


Figura Ejemplo 2.7.1-2a: Esquema realmente un elipsoide en revolución de excentricidad
representativo de una interfaz refringente que
modifica el frente de onda esférico en un frente
n21=n2 / n1.
de onda plano.

SOLUCIONES

a) Analizar cualitativamente la forma geométrica de esta interfase de tal manera que el


frente de onda emergente sea un frente de onda plano en el caso en que n1>n2.
Figura Ejemplo 2.7.1-2a: Esquema representativo de una interfaz refringente que modifica el frente de onda esférico
en un frente de onda plano.

Para "enderezar" ó aplanar el frente de onda esférico que incide en la superficie de separación de
los dos medios, se requiere que aquella porción del mismo que se encuentre más alejada del eje
aventaje al resto. Para el caso de que n1>n2 , significaría que la interfase presentara la parte
convexa a la derecha, o sea, los rayos más alejados requerirán recorrer una mayor distancia en el
medio de menor índice de refracción y compensar el camino óptico recorrido por aquellos más
cercanos al eje.

Sería interesante reflexionar las características de convexidad de la superficie refringente de


separación para el caso en que n1 <n2 .

(b) Demostrar que la interfase deseada en este caso es realmente un elipsoide en revolución
de excentricidad n21=n2 / n1.

Aplicando el Principio de Fermat:

Dividiendo por n1:


2.7.2.- Superficies refringentes esféricas.

De gran interés práctico es el estudio de las superficies esféricas por cuanto constituyen parte de
las lentes.

En la sección anterior (2.7.1) se estudió el caso en el cual un cono de rayos que corresponde a un
frente de onda esférico divergente desde S convergerá en P si la superficie tallada fuera un Ovoide
Cartesiano.

Aún cuando la superficie de la


interfaz fuera esférica de radio R
puede ser demostrado utilizando
el Principio de Fermat, que un
cono estrecho de rayos incidentes

Fig. 2.7.2 a: Esquema ilustrativo de una superficie esférica refringente y las


llegarán al punto P.
trayectorias de los rayos luminosos.

Se considera el caso en que A es cercano a V, esto es, se consideran rayos muy cercanos al eje del
sistema óptico lo cual se denomina la aproximación paraxial. Bastaría aplicar la Ley de Snell y se
obtiene:

2.7.2

Existen dos situaciones límites de especial interés:

• Caso en que la imagen se localiza en el infinito. Se conoce como distancia focal objeto

aquella distancia a la cual habría que colocar el objeto para que su imagen se
encuentre en el infinito. O sea, que los rayos emergentes correspondan a un frente de onda
plano.

Una sustitución directa en la


ecuación proporciona la expresión:

2.7.3

Fig. 2.7.3 a: Esquema que ilustra el concepto de distancia focal


objeto en una superficie refringente.

• Caso en que el objeto se coloca, hipotéticamente, en el infinito. Se conoce como distancia

focal imagen a la distancia a la cual aparecería la imagen suponiendo un objeto


muy alejado, o lo que es lo mismo, que la luz incidente sea de rayos paralelos, un frente de
onda plano.

De la misma manera, al sustituir en la


ecuación de la superficie refringente, se
obtiene que:

2.7.4
Fig. 2.7.4: Esquema que ilustra el concepto de distancia focal
imagen en una superficie refringente.

Para poder aplicar la ecuación de las superficies refringentes, es necesario aún declarar ciertas
convenciones de signos que permitirían interpretar adecuadamente los resultados de su aplicación.

• Un objeto se denominará objeto real, cuando la luz diverge de él (Figura 2.7.5a) y objeto
virtual cuando la luz converge detrás de él (Figura 2.7.5b).

(a) (b)
Fig. 2.7.5: Esquema que ilustra la construcción gráfica de rayos para los casos de: (a) objeto real (b) objeto virtual.
• Una imagen se denominará imagen real, cuando la luz converge detrás de ella (Figura
2.7.6.a) y que se forma por el corte físico de los rayos, y será una imagen virtual (Figura
2.7.6.b) en el caso en que la luz diverge a partir de ella, es decir, la luz parece venir de ella.

(a) (b)
Fig. 2.7.6: Esquema que ilustra la construcción gráfica de rayos para los casos de: (a) objeto real (b) objeto virtual.
• Las distancias objeto, imagen, tamaño objeto y tamaño imagen, así como el radio de

curvatura de la superficie, estarán sujetas a cierto convenio de signos. Éste puede ser
concebido a voluntad, pero deberá ocurrir que una vez adoptado, debe respetarse.
Solamente así podrán obtenerse buenos resultados.

En la Tabla 2.7.1 se detalla el convenio propuesto.

Tabla 2.7.1: Tabla explicativa del convenio de signos adoptado.

+ A la izquierda de V
+ A la derecha de V
R + Cuando C está a la derecha de V
+ Por encima del eje
+ A la izquierda de Fo
+ A la derecha de Fi

Muy útil resulta definir la Potencia Óptica F de la superficie refringente como:

2.7.5

La Potencia Óptica se da, si la distancia focal se encuentra en metros, en Dioptrías

2.7.3.- Ecuación de las lentes delgadas.

Una lente es un sistema de superficies refractantes que consiste en dos o más interfaces en las que
al menos una de ellas es curva. Los medios ópticos que se encuentran entre una y otra de las
interfaces serán considerados homogéneos, es decir, que poseen un índice de refracción idéntico
en todo el medio.

Una lente óptica se considera formada, si fuera compuesta, por varias lentes simples. Dentro de
estas últimas, y con bastante buena aproximación para las aplicaciones más comunes, juegan un
importante rol las llamadas lentes delgadas.

En las lentes delgadas, tanto simples


como compuestas, el espesor no juega
un papel significativo y puede ser
despreciado. La Figura 2.7.7 ilustra la
nomenclatura asociada a una lente
esférica simple.

La primera superficie esférica


refractante forma una imagen que
constituirá un objeto para la segunda

Fig. 2.7.7: Esquema representativo de una lente delgada. superficie refractante. Por ello se
aplicaría consecutivamente la
ecuación de las superficies
refractantes.

Si consideramos la disposición de los siguientes medios: primeramente aire n1=1 y vidrio n2=n y
posteriormente la separación entre el vidrio n2=n y el aire n3 =1. En este caso la imagen de la
primera fase de construcción del proceso, será el objeto para la segunda fase.

La ecuación de la primera fase:

Y para la segunda:
Se considerará el caso de la lente delgada, es decir, de espesor despreciable, es decir, que

. Esto significa que: , entonces se obtiene:

2.7.6

Los focos pueden ser caracterizados para la condición: , se obtiene para el foco imagen

y que sería la misma expresión que se obtiene al considerar , en la que para el foco objeto

se obtiene .

En otras palabras: , distancia focal de la lente delgada que estaría expresada en


función de los radios de curvatura de ambas lentes.

2.7.7

Entonces, la expresión de trabajo queda expresada de la siguiente manera:

2.7.8

Las lentes pueden ser convergentes ó divergentes. La lentes convergentes se distinguen por ser
más gruesas en el centro que en los extremos, lo contrario que las divergentes.

La Figura 2.7.8 resume los hechos más significativos que las diferencian entre sí.
Fig. 2.7.8: Esquema comparativo de las funciones de las lentes convergentes para diferentes condiciones de
incidencia. Se incluye la situación no frecuente en que el índice de refracción de la lente sea inferior que la del medio
que la rodea.

Se define como Potencia Óptica de una lente a la suma algebraica de las potencias de las

superficies que la forman. Por lo tanto, para una lente delgada puede demostrarse que .

Descripción del proceso de formación de imágenes en lentes delgadas.

Aún cuando el tratamiento realizado en todos los epígrafes anteriores consideran la incidencia de
un haz axial (o cercano al eje) de rayos luminosos, es necesario precisar que, para cualquier haz de
rayos paralelos incidentes en una lente, los rayos emergentes deberán cortarse también en el foco,
o mejor, en una superficie plana que pasa por este punto focal. La superficie plana representada
en el caso de una lente convergente, es denominada plano focal posterior. El eje cortará a esta
superficie en el punto Fi .
La Figura 2.7.9 ilustra
este concepto. En ella se
representa el corte de tres
parejas de haces
paralelos, incluyendo
aquel ya conocido cuya
intersección ocurrirá en
el eje. Existirá
igualmente un plano
Fig. 2.7.9: Concepto de plano focal posterior. focal anterior que pasa
por el punto focal Fo.

De la misma manera se puede describir la formación de imágenes en una lente delgada utilizando
los términos de plano objeto y plano imagen. Pero para ello es necesario obtener gráficamente al
menos dos puntos de la imagen. Es por ello que se utilizan los rayos notables (central, paralelo y
focal).

(a)

(b)
Fig. 2.7.10: Rayos notables 1,2,y 3 utilizados en la formación gráfica de la imagen. Rayo 1: rayo central que no se
desvía de su trayectoria. Rayo 2: rayo que incide paralelo al eje y que emergerá en dirección del foco imagen. Rayo 3:
rayo que incide en dirección del foco objeto y que emergerá paralelo.
(a):Caso de una lente convergente. (b): Caso de una lente divergente.
La Figura 2.7.10 detalla claramente la posibilidad de utilización de estos rayos para obtener
gráficamente la posición de la imagen.

El ejemplo utilizado es el de un objeto que se coloca delante de una lente convergente y de una

lente divergente, para la cual la distancia objeto es mayor que la distancia focal . La
imágenes resultantes diferirán en sus características. La obtenida en el caso de le lente
convergente, mediante el corte físico de los rayos, se denomina imagen real. En el caso de la lente
divergente, la imagen se forma por la prolongación de los rayos por lo que en realidad no se forma
en un plano, sino que parece estar formada ó lo que es lo mismo, es como si los rayos emergentes
"partieran" de los que se considerará una imagen virtual.

Otra ecuación de trabajo útil para las lentes delgadas:

Fig. 2.7.11: Esquema definitivo adoptado que ilustra todas las magnitudes características de interés en el caso de una
lente delgada.

La Figura 2.7.11 representa la situación de la Figura 2.7.10 para el caso de la lente convergente.
La única diferencia es que el objeto se ha colocado en el semiplano superior, y que se han tenido
en cuenta las distancias xo y xi para las cuales se puede demostrar que se cumple:

2.7.9

Se detalla que, para la construcción gráfica de la imagen, es preferible precisar el plano central de
la lente que corta al eje en el punto O. Los rayos emergentes se dibujarán suponiendo que no
existe desviación de ellos dentro de la lente de espesor despreciable.

Aumento de una lente:


El tamaño de la imagen (yi) es de importancia evidente y se define el aumento lateral ó transversal
(MT) como:

2.7.10

De la construcción geométrica se puede inferir que, por triángulos semejantes se obtiene que:

2.7.11

O también:

2.7.12

Resolver un sistema óptico de una lente delgada, significa resolver la Ecuación de las Lentes
Delgadas (Ecuación 2.7.8) pero observando con absoluta rigurosidad el Convenio de Signos. Las
Tablas 2.7.2, 2.7.3 y 2.7.4 resumen el significado físico de los signos de varias de las magnitudes
características del sistema óptico. Utilizar el Convenio de Signos al interpretar ls datos de un
problema dado, e interpretar según dicho Convenio de Signos los resultados obtenidos, garantiza
el éxito de cualesquiera de las situaciones que puedan aparecer.

Tabla 2.7.2: La significación física de los signos de las lentes delgadas y los parámetros de las interfaces esféricas.

Signo
Magnitud
+ -
so objeto real objeto virtual
si imagen real imagen virtual
f lente convergente lente divergente
yo objeto derecho objeto invertido
yi imagen derecha imagen invertida
MT imagen derecha imagen invertida

Tabla 2.7.3: Características de la imagen en lentes delgadas para objetos reales (lentes convexas o convergentes).

OBJETO IMAGEN
Ubicación Tipo Ubicación Orientación Tamaño relativo
∞ > so > 2f real f < si < 2f invertida disminuida
so = 2f real si = 2f invertida idéntico tamaño
f < so < 2f real ∞ > si > 2f invertida aumentada
so >= f ± ∞
so < f virtual derecha aumentada

Tabla 2.7.4: Características de la imagen en lentes delgadas para objetos reales (lentes cóncavas o divergentes).

OBJETO IMAGEN
Ubicación Tipo Ubicación Orientación Tamaño relativo
cualquiera virtual derecha disminuida

2.7.4.- Espejos planos, asféricos y esféricos.

Espejo plano:

El espejo plano es el dispositivo más


sencillo de describir. La fuente puntual
emite rayos divergentes que inciden en
la superficie del espejo y que
continuarán divergiendo. El ojo ó una
cámara fotográfica pueden recoger y
enfocar dichos rayos para formar la
imagen de S que será d tipo virtual.
Ésta descansa detrás del espejo y no
puede ser proyectada. Los rayos
Fig. 2.7.12: Formación de la imagen en el caso de un espejo plano.
parecen venir de esa imagen virtual.

Los triángulos rectos ASB y APB poseen común el lado AB. Como por lo que ,o

sea, la imagen virtual se formará simétricamente detrás del espejo y por lo tanto el aumento será
unitario. Una imagen derecha, de igual tamaño y virtual se formará del otro lado del espejo.
Los espejos curvos se categorizan en
asféricos y esféricos.

Espejos asféricos:

El espejo parabólico reflejará la onda


incidente plana en una onda esférica
perfecta lo cual justifica los usos a los
que se destina este espejo como
colector de energía luminosa.

Los rayos luminosos en todos los casos


simulan converger hacia los puntos
axiales en el caso de los cóncavos, y
divergir de estos puntos axiales en el
caso de los convexos. A estos puntos
Fig. 2.7.13: Rayos notables de seis tipos de espejos asféricos. axiales notables se les denomina focos.

Espejos esféricos:

El espejo esférico y el parabólico guardan una relación


geométrica para el caso en que el radio del primero es
igual al doble de la distancia focal de la parábola. La
Figura 2.7.14 ilustra esta situación.

En la aproximación paraxial será válida la siguiente


expresión:

2.7.13

La ecuación es idéntica a la Ecuación de las Lentes


siempre que se observe el cumplimiento de la Fig. 2.7.14: Relación entre espejos esféricos y
parabólicos.
Convención de Signos que se detalla en las Tablas
siguientes:
Tabla 2.7.5: Convención de signos para las superfices reflectantes esféricas.

so, f + a la izquierda de V
si + a la izquierda de V
cuando C está a la derecha de
R +
V
yo, yi + sobre el eje óptico

Tabla 2.7.6: La significación física de los signos de las lentes delgadas y los parámetros de los espejos esféricos.

Signo
Magnitud
+ -
so objeto real objeto virtual
si imagen real imagen virtual
f espejo cóncavo espejo convexo
yo objeto derecho objeto invertido
yi imagen derecha imagen invertida
MT imagen derecha imagen invertida
R espejo convexo espejo cóncavo

2.8.- Dispersión de la luz

Descomposición de la luz en el prisma.


El funcionamiento del prisma se basa en el fenómeno de Dispersión de la luz, fenómeno en el cual
se encuentran respuestas a tantas preguntas relacionadas con el color del cielo, con los colores que
se aprecian durante los atardeceres y los amaneceres.

Al penetrar en diferentes medios transparentes la luz resulta refractada producto de la variación de


su velocidad con respecto al vacío, definiéndose el índice de refracción de una sustancia mediante
la relación:

c: velocidad de la luz en el vacío

v: velocidad de la luz en el medio en cuestión.

Aunque existen muchas excepciones, los materiales con mayor densidad de masa tienen mayor
índice de refracción que los materiales menos densos.

Puede comprobarse además de la dependencia con la sustancia, el índice de refracción dependerá


además de la frecuencia o la longitud de onda de la luz, es decir que:

A este fenómeno se le denomina dispersión de la luz, y la magnitud que determina la rapidez de


variación del índice de refracción con la longitud de onda:

Las investigaciones en la parte visible del espectro y para sustancias transparentes han demostrado
que el valor absoluto de n en diferentes sustancias. Pero se conoce que, la variación de n con la
longitud de onda , será siempre aproximadamente de la misma forma. Para los casos citados n y

decrecen cuando se incrementa. A este comportamiento se le denomina dispersión

normal, con el objetivo de distinguirla de la dispersión anómala, que consiste en el decrecimiento


de n con .
Se ha demostrado que el fenómeno de la dispersión anómala está estrictamente relacionado con la
absorción de la luz por la sustancia. Por ello, todas las sustancias presentan dispersión normal para
longitudes de onda lejanas o sus bandas de absorción y dispersión anómala en la región de
correspondiente a una banda de absorción.

La teoría electromagnética de Maxwell plantea que:

: constante dieléctrica del medio

: permeabilidad magnética.

y para casi todas las dieléctricas transparentes ocurre que:

De donde se observa que la velocidad de la luz en un medio determinado está directamente


relacionado con las constantes eléctricas que caracterizan la sustancia en cuestión.

Pero para poder realizar una descripción del fenómeno de la dispersión, las ecuaciones de
Maxwell necesitan ser complementadas por cierto modelo del medio. Esto lo logra la
interpretación molecular de la teoría electrónica, que permite explicar la influencia de la
frecuencia de la onda electromagnética sobre y por consiguiente sobre n.

En la figura se puede observar la dispersión de la luz en


una solución de cianina en la zona de una banda de
absorción.

Puede notarse como en la zona que va de A a B el índice


de refracción disminuye al disminuir , o sea, tiene
carácter anómalo. Fuera de la banda de absorción la
marcha del índice de refracción corresponde a la
dispersión normal.

En general, para los cuerpos transparentes, la dispersión es normal en toda la extensión del
espectro visible (se manifiesta un aumento lento de n con ), mientras que al acercarse a la zona
infrarroja o ultravioleta del espectro, el índice de refracción comienza a variar rápidamente, lo
cual es la indicación de la proximidad de las bandas de absorción que están situadas en estas zonas
del espectro.

Cauchy halló que la dispersión normal puede ser descrita en general por la expresión:

donde A y B son constantes características del medio que pueden ser determinadas
experimentalmente, midiendo n para dos valores diferentes de .

La fórmula de Cauchy es bastante precisa para una sustancia transparente en la región visible del
espectro, pero a medida que nos acercamos a la zona infrarroja, donde el medio absorbe
fuertemente la luz, el índice de refracción decrece mucho más rápidamente que lo indicado por la
fórmula de Cauchy.

Las mediciones en la zona de R a T se dificultan pues en este rango de longitudes de onda se


produce una fuerte absorción de la luz por el medio, pero luego se facilitan nuevamente hasta las
proximidades de una nueva banda de absorción.

Un estudio detallado muestra que los tramos IR y UV, correspondientes a las bandas de
absorción, están conectados por una curva continua, como la mostrada en línea discontinua..

Para obtener una fórmula que describa satisfactoriamente el fenómeno de la dispersión es


necesario tener en cuenta el mecanismo mediante el cual la luz es absorbida por el medio.
Pasemos a este análisis.

Cuando una onda incidente (primaria), interacciona con los electrones e iones que componen la
sustancia, se generan ondas secundarias cuya amplitud y fase dependen de las oscilaciones
forzadas que bajo la acción de la onda incidente ejecutan estas partículas.

Así cada partícula cargada que toma parte en este fenómeno, puede ser concebida como un

oscilador armónico con frecuencia propia ; de manera que al incidir la luz las partículas
ejecutan oscilaciones forzadas, cuya amplitud se incrementa a medida que la frecuencia de la onda

incidente se acerca a la frecuencia de resonancia . Teniendo en cuenta este razonamiento, y las


diferentes fuerzas que actúan sobre un electrón sometido a tales oscilaciones, puede resolverse la
ecuación de movimiento y obtenerse la expresión:

N: número de átomos en la unidad de volumen.

m, e: masa y carga del electrón

(solución para el problema simplificado donde las fuerzas de resistencia son despreciadas).

Esta expresión da la siguiente representación gráfica:

Para el índice n es mayor que la unidad y aumenta al


crecer (dispersión normal);

Para tenemos que , lo cual es una


consecuencia de despreciar la resistencia al movimiento, la
cual condiciona el amortiguamiento, que tiene lugar en la
realidad.

Para n es menor que la unidad y crece también


(dispersión normal)

Es decir que la expresión permite describir de forma bastante acertada el fenómeno.

Aquí es necesario tener en cuenta que las ondas primarias incidentes y las ondas secundarias
resultado de las oscilaciones forzadas, se superponen, dando una onda resultante con amplitud y
fase diferentes de la onda incidente. Esta es la razón por la cual la velocidad de fase de la onda
resultante será diferente a la velocidad de la luz en el vacío, o sea que la dispersión de la luz por
las partículas del medio afecta el índice de refracción, pues la amplitud y frecuencia de la luz
dispersada (ondas secundarias) depende de la frecuencia del haz incidente, lo que origina la
dependencia entre n y ; es decir el fenómeno de la dispersión

Capítulo 3- ÓPTICA ONDULATORIA


Introducción.

La Óptica Ondulatoria trata de los fenómenos que ocurren durante la propagación de la luz, y que
son explicados con satisfactorios resultados por la Teoría Ondulatoria Electromagnética.

Las franjas que ocurren en una pompa de jabón, o las que aparecen en los útiles interferogramas
que pueden brindar información de las tensiones que ocurren en una pieza mecánica responden al
fenómeno de la interferencia.

Los motivos de los colores que aparecen a través de nuestras pestañas cuando entornamos los ojos
en un soleado día de verano, o las causas que determinan que las lentes de calidad permitan una
mayor nitidez y resolución de los más pequeños detalles de los objetos que son visualizados a
través de ellas están en la difracción que experimentan los rayos luminosos.

Es la polarización el fenómeno responsable de la brillantez considerable del cielo

La polarización, sin embargo es mucho más que un fenómeno que ocurre en algunas situaciones
físicas. La polarización es una propiedad de todas las ondas transversales. Los fenómenos que
permiten la obtención de radiación luminosa polarizada, como la reflexión bajo el ángulo de
Brewster o el dicroismo que presentan algunos materiales anisótropos.

El título de este epígrafe preside el inicio de un análisis más profundo de tres anunciadas
propiedades que poseen una extraordinaria importancia en la Ciencia de la Luz y en las
aplicaciones que de ella se derivan.

Los fenómenos de Interferencia, Difracción y Polarización poseen una estrecha relación con la
composición espectral y con la coherencia de la radiación luminosa

Alrededor de estas tres centrales propiedades de la luz se teje toda una trama de conceptos y
teorías, se tiende la base gnoseológica de diversos fenómenos, se diferencian las diversas fuentes
luminosas y se suscitan aún debates.

Aún cuando pudiera encontrarse una descripción y un tratamiento un tanto independiente de cada
una de ellas, y aún cundo muchos autores prefieren presentarlas de manera separada, en esta
oportunidad se irán realizando reflexiones que analizan las relaciones entre ellas, y profundizando
el tratamiento de las mismas.
Polarización. Introducción.

La presentación de este tema obedece a una concepción pedagógica que pretende presentar el
tema de la Polarización de la luz, a través de una serie de demostraciones de laboratorio, algunas
de ellas a través de Experiencias Demostrativas, así como de la referencia de una serie de hechos
físicos de la vida profesional y cotidiana.

Esta concepción pedagógica se deriva de las diferencias significativas que caracterizan la


manifestación de la Polarización en dependencia de las características de la radiación
electromagnética utilizada: ondas radiotécnicas, radiación luminosa no-coherente, y radiación
luminosa coherente.

La Polarización es una propiedad y a la vez un fenómeno físico que se manifiesta de diferente


manera. En la explicación de éstos se revelan ciertas leyes, y es la base de funcionamiento de
diversos dispositivos así como de diferentes aplicaciones técnicas.

A través del cuadro que se presentará a continuación se puede:

• acceder, si se sigue el ordenamiento sugerido, a los diferentes epígrafes concatenados en


un orden lógico, o,
• acceder directamente a cada uno de las temáticas sin que sea imprescindible haber
estudiado el aspecto precedente.

¿Fenómeno o propiedad de la luz? Estados de polarización.

Más que un fenómeno, la polarización de la luz es una propiedad de la radiación que depende
muy directamente de las características de los procesos de generación de las mismas y de los
procesos que tienen lugar durante la propagación.

La polarización tiene que ver con el ordenamiento de las oscilaciones que componen las ondas,
en este caso, transversales. En el caso de la luz, como onda electromagnética que es, la
polarización o no de la radiación dependerá del ordenamiento o no de las oscilaciones del vector
eléctrico.

Polarización de la luz.

Introducción:
A diferencia de los fenómenos de interferencia y difracción, que ocurren dado el cumplimiento de
ciertas condiciones durante el proceso de propagación de cualquier tipo de ondas, el a veces
tratado fenómeno de polarización exige de un enfoque específico diferenciándose de los dos
primeros.

Más que un fenómeno, la polarización de las ondas es una propiedad de la radiación que depende
muy directamente de las características de los procesos de generación de ellas.

En primer lugar, es conveniente precisar: ¿qué tipos de ondas van a ser consideradas?

Aquellas que permiten hablar de posible ordenamiento de las oscilaciones que presupone
el movimiento ondulatorio: las ondas transversales. Éstas se caracterizan porque las
oscilaciones son perpendiculares a la dirección de propagación. Entre éstas se encuentran
las ondas electromagnéticas.

En segundo lugar, ¿son ordenadas las oscilaciones de las ondas electromagnéticas (OEM)
generadas por cualquier tipo de emisor?.

Para responder esta pregunta es necesario referirse al espectro electromagnético que se


representa en la Figura 3.1.1, a las ondas componentes de este espectro tan amplio y
diverso, y atender a las causas de la generación de las mismas.

Fig. 3.1.1: Esquema del espectro electromagnético que resalta una serie de datos interesantes de ellas y que destaca, entre
otros aspectos, los diferentes mecanismos de generación.
En toda la extensión del espectro electromagnético, existe una diversidad de situaciones en cuanto
a las características de la emisión.

Una de las propiedades de la radiación se refiere al ordenamiento de las oscilaciones que


componen la OEM. No todas las radiaciones son ordenadas o polarizadas. Abundan mucho más
aquellas que no lo son.

De acuerdo a esta característica del ordenamiento de las oscilaciones de las ondas


electromagnéticas, pueden identificarse dos diferencias fundamentales en cuanto a las
características de la emisión o generación:

• GENERACIÓN POR VÍA RADIOTÉCNICA: generación asociada a las oscilaciones


de dipolos eléctricos macroscópicos, como las antenas utilizadas en las
Telecomunicaciones.
• GENERACIÓN POR VÍA ÓPTICA: generación asociada a las oscilaciones o
vibraciones atómicas y moleculares, a nivel microscópico

Las OEM que clasifican en la primera, en general y para ciertas condiciones de diseño, son
ordenadas en sus oscilaciones, esto es, son ordenadas. Todo depende del diseño del emisor y la
antena. Casi siempre pueden modificarse en dependencia de la decisión del hombre y, claro está,
de los recursos materiales a su disposición.

Fig. 3.1.2: OEM generada por vía radiotécnica. La radiación se emite con la frecuencia de la corriente que alimenta el
conductor. Esta es la conocida antena dipolar.

Un ejemplo frecuente es la denominada antena dipolar.


Según el modelo de la carga puntual, para garantizar las condiciones de antena dipolar debe
cumplirse:

i. Debe trabajarse en una zona lejana de la antena, es decir, en condiciones de despreciar los
campos de "zona cercana".
ii. La antena debe ser pequeña comparada con la longitud de onda.

Si se cumplen estas condiciones se puede tomar solo una carga equivalente para representar el
movimiento de todos los electrones de la antena.

Para casos en que la antena tenga una longitud de varias longitudes de onda, los electrones de
diferentes lugares contribuyen con diferentes fases; entonces se toma más de una carga
equivalente y se tiene lo que se conoce como radiación multipolar.

Pero es posible, en el caso de las ondas generadas por vía radiotécnica, lograr condiciones técnicas
que permitan obtener una radiación polarizada.

Las OEM generadas por vía óptica, en general escapan de cierta manera de la decisión del
investigador. Se generan a nivel del átomo o la molécula. Aún escogiendo con gran cuidado el
sistema atómico, no puede esquivarse la esencia estadística del problema. Se podría pensar en una
cantidad enorme de osciladores microscópicos dipolares. ¿Estarían organizados todos los vectores
eléctricos y magnéticos de todos los emisores entre sí? Imposible. Se desarrolla una complicada
superposición de las diferentes emisiones. Es por ello que, de manera natural, la luz que emerge de
las diferentes fuentes, no está organizada, o lo que es lo mismo no está polarizada.

Solamente en el caso de los láseres, y en aquellos en los que se dota al generador óptico-cuántico
de dispositivos o accesorios específicos, es que se puede lograr una radiación ordenada en el
sentido en que se está hablando en este epígrafe. En este caso se refiere al uso de las Ventanas de
Brewster en el láser de He-Ne.

El resto de las formas de emisión de OEM por vía óptica no logran un ordenamiento de las
oscilaciones correspondiente de la radiación emitida. Es por ello que hay una amplia diversidad de
situaciones que obliga a precisar cuáles son las características de la radiación que será utilizada en
determinada aplicación técnica.
En tercer lugar, si se tiene una OEM no polarizada, ¿será posible lograr un ordenamiento de dicha
OEM?.

Para ello es necesario describir las diferentes posibilidades de ordenamiento de los


vectores eléctrico y magnético y posteriormente estudiar los métodos posibles para lograr
este ordenamiento.

Ya después, incluso se podría formular la siguiente pregunta: ¿será posible modificar este
ordenamiento en otro?

Encontrar las respuestas a estas preguntas constituye el objetivo de este epígrafe del Capítulo 3 de
Óptica Ondulatoria.

Descripción matemática de una onda linealmente polarizada.

¿Cómo se describen los diferentes ordenamientos de las oscilaciones? Una variante sería la
descripción de las oscilaciones a partir de sus componentes.

En la Tabla se resume la descripción de cada estado de polarización, los cuales serán

posteriormente argumentados desde el punto de vista matemático.

Se puede descomponer en
Luz analizada
Dos ondas

Linealmente
o
Polarizada L.P.
Dos Ondas
Circularmente Linealmente
Polarizada C.P. Polarizadas L.P. en
planos mutuamente
perpendiculares
Elípticamente
Polarizada E.P.
diferentes a
las anteriores

El modelo de la antena dipolar constituye un generador de onda linealmente polarizada (L.P.).


Tanto los vectores intensidad de campo eléctrico como el campo magnético, en sus oscilaciones,
describen una línea recta.
La expresión matemática de una onda L.P. que se propaga según el eje podría ser, por ejemplo:

Por supuesto que ambas componentes poseen igual frecuencia e igual fase.

En lo adelante, para referirse a una onda bastará representar la parte eléctrica de ella.

Descripción de los estados de polarización de la luz: superposición de dos ondas de igual


frecuencia, linealmente polarizadas y ortogonales.

En este epígrafe se tratará de la superposición de dos ondas luminosas con planos de polarización
ortogonales y que poseen la misma frecuencia.

El campo eléctrico de la onda resultante no tendrá que oscilar en un plano fijo, sino que éste puede
rotar en el tiempo. La amplitudes y fase relativa de las ondas que interactúan e interfieren
determinará el estado de polarización de la perturbación resultante.

Por comparación, la superposición de ondas coplanares se encuentra en el dominio de la teoría de


la interferencia.

Considérese dos ondas armónicas dadas por:

Estas ondas se moverán en la dirección z positiva y poseerán una diferencia de fase relativa .

El plano de vibración de corresponde al plano xz, mientras reside en el plano yz.

La expresión de la onda resultante será:


Y sus características en cuento a su estado de polarización dependerá de la diferencia de fase, que
como la frecuencia, la longitud de onda, y el espacio recorrido serán iguales para ambas, entonces
todo dependerá de la relación entre las amplitudes y de la diferencia de fase: .

Polarización plana:

• Sea el caso específico en que , o sea, que las componentes están en fase,
entonces la onda resultante será:

La amplitud es constante y será la onda resultante que será de tipo plana o

linealmente polarizada (L.P.).

• También ocurrirá algo similar si la diferencia de fase , caso en el cual la


onda resultante:

Nuevamente la amplitud resultante será constante y la onda será de tipo plano-polarizada o


linealmente polarizada (L.P.).

Polarización circular:

• Supóngase ahora dos estados ortogonales de ondas plano polarizadas o linealmente polarizadas poseen

una diferencia de fase relativa para , es decir, valores

semienteros de . Si sus amplitudes escalares son iguales, es decir, , las dos


perturbaciones se pueden expresar de la siguiente manera:
La resultante será la suma que quedará como:

La amplitud de la onda resultante será constante, pero la dirección de la onda resultante dependerá de z
y de t. El vector intensidad de campo eléctrico rotará en el sentido positivo o sentido de las manecillas
del reloj según una vista que se dispone mirando hacia la fuente, y se desplazándose según el sentido que
determina la velocidad de propagación, o sea, el extremo del vector describirá una helicoide y se dirá
3.1.1.- Emisión de la radiación y polarización.

Existe una íntima relación entre las características de una onda electromagnética y la fuente que la
originó. Basta detenerse en el espectro electromagnético para, ya de inicio, comprender la amplia
diversidad de situaciones.
Fig. 3.1.1.1: Esquema del espectro electromagnético que resalta una serie de datos interesantes de ellas y que destaca,
entre otros aspectos, los diferentes mecanismos de generación.

Son completamente diferentes los mecanismos de emisión, también diferentes las maneras en que
se manifiestan en su propagación, y por supuesto diferentes las vías para su detección. Y por lo
tanto también son diferentes las maneras en que se manifiestan sus propiedades.

Independientemente de estas diferencias, existe algo común: su carácter transversal.

Como ondas electromagnética que es, los vectores intensidad de campo eléctrico y el vector
inducción magnética oscilarán perpendiculares entre sí y perpendiculares a su vez, a la dirección
de propagación. La periodicidad en el espacio es la longitud de onda.

En su comportamiento temporal, estas magnitudes características de la onda electromagnética, los


vectores eléctrico y magnético, constituirán oscilaciones de igual período y por tanto de igual
frecuencia.

(a) (b)
Fig. 3.1.1.2: Relación entre los vectores eléctrico y magnético para el caso de una onda electromagnética plana.
(a) dependencia espacial en la cual se señala la longitud de onda, (b) dependencia temporal señalando el período.

Pero pueden identificarse dos diferencias fundamentales en cuanto a las características de la


emisión o generación de estas ondas de carácter transversal:

GENERACIÓN POR VÍA RADIOTÉCNICA: generación asociada a las oscilaciones de


dipolos eléctricos macroscópicos, como las antenas utilizadas en las Telecomunicaciones.

Estas ondas se emiten con la frecuencia del generador que alimenta a la antena que puede
mantenerse fija a voluntad del diseñador, por lo que podrá ser con una buena aproximación:
monocromática. Durante el tiempo en que es excitado el emisor de la antena, y que puede ser lo
suficientemente extenso como para considerar que el tren de ondas emitido mantendrá todos sus
parámetros constantes, incluso la fase inicial, permite considerar coherente dicho tren de ondas. Y
por otro lado, el mantenimiento del ordenamiento de las oscilaciones eléctricas y magnéticas de la
onda emitida, que dependerá también del diseño de la antena, permitirá considerar ordenada la
onda emitida.

Se dice entonces que la onda luminosa está polarizada, por cuanto una onda polarizada, en el
caso de las ondas electromagnéticas, es una onda en la cual las oscilaciones del campo eléctrico (y
por ende, las del campo magnético) son ordenadas, es decir, el extremo del vector eléctrico
describe una ley de movimiento fija. Esta ley puede ser una elipse y todos los casos particulares
que de ella se derivan.

Fig. 3.1.1.2: OEM generada por vía radiotécnica. La radiación se emite con la frecuencia de la corriente que alimenta
el conductor. Este ejemplo corresponde con el modelo de la antena dipolar.

El ordenamiento de las oscilaciones puede representarse por un trazo que recuerde la trayectoria
que sigue el extremo del vector intensidad de campo eléctrico . Este ordenamiento podrá ser
lineal, circular ó elíptico.

Las OEM generadas por vía radiotécnica poseen una tendencia natural al ordenamiento, lo cual
no quiere decir que todas lo sean. Esta problemática va más allá del proceso inicial de la
generación para depender, en última instancia, de los detalles de diseño mecánico y electrónico.
Todo dependerá del diseño del emisor y la antena.

La antena de tipo más sencilla es la denominada antena dipolar.


Para casos en que la antena tenga una longitud de varias longitudes de onda, los electrones de
diferentes lugares contribuyen con diferentes fases; entonces se toma más de una carga
equivalente y se tiene lo que se conoce como radiación multipolar.

Pero es posible, en el caso de las ondas generadas por vía radiotécnica, lograr condiciones técnicas
que permitan obtener una radiación ordenada en sus oscilaciones o polarizada.

GENERACIÓN POR VÍA ÓPTICA: generación asociada a las oscilaciones o vibraciones


atómicas y moleculares, a nivel microscópico. Los átomos que constituyen la fuente de luz
ordinaria emiten pulsos de radiación de duración muy corta. Aunque cada pulso procedente de un
único átomo ó molécula constituye un tren de ondas que pudiera pensarse que es prácticamente
monocromático, es decir, con una única frecuencia, la problemática es más compleja.

Cada haz luminoso trae consigo asociado cierto "ancho de banda" que está relacionado tanto al
proceso natural de la transición electrónica inherente a la misma, pero también está asociada a la
estructura electrónica del átomo. Pero cada átomo podrá tener asociado un espectro característico,
es decir, un conjunto de frecuencias respectivas a las diferentes transiciones probables y que son
atributos de cada átomo y solo de él. Esta situación lleva a la policromaticidad.

Ahora bien, cada fuente luminosa está formada por un sistema de osciladores y no por uno de
ellos. Los osciladores atómicos se integran en un gas, por ejemplo. El proceso de integración de
diferentes átomos para formar una molécula presupone diferentes trenes de onda cada uno con
características muy propias y no idénticas entre sí. Esto implica que, aún cuando las frecuencias
emitidas por lo átomos que forman el sistema sean las mismas, la fase y el estado de polarización
de ellas no serían idénticas.

Dicho de otra manera, aunque la fase inicial de cada tren de ondas sea fija durante el proceso de
emisión de una pequeña onda componente, el vector eléctrico correspondiente a las pequeñas
ondas individuales no gira en torno a la dirección de propagación de ellas, sino que mantiene una
misma dirección de oscilación, cuando hay un número elevado de átomos emitiendo toda esta
situación cambia radicalmente. Debido a la corta duración del proceso de emisión de los trenes de
luz, y el carácter estadístico de todo este proceso a nivel atómico y/o molecular, se tendrán un
conjunto de oscilaciones posee implicaciones la consecuencia los ángulos están distribuidos de
forma aleatoria, las propiedades del haz de luz son las mismas en todas direcciones, y se dice que
la luz está no polarizada en general. La corta extensión del tren de ondas presupone en su
esencia el alejamiento de la condición de polarización, sino de la monocromaticidad y la
coherencia, por lo que las ondas además serán no monocromáticas e incoherentes en general.

Será más difícil, entonces, encontrar luz monocromática, coherente y polarizada, que
radioondas monocromáticas, coherentes y polarizadas.

3.1.2.- Efecto polarizador de la rejilla metálica con microondas.

Será analizada la situación de una radiación de microonda que incide en una rejilla metálica tal y
como se ilustra en la Figura 3.2.1.

La OEM incidente será no polarizada.

La rejilla de alambre metálico interrumpe la propagación de la onda


electromagnética. Como es de esperar, existirán componentes en
todas direcciones y que pueden descomponerse en dos: una paralela
Fig. 3.1.2.1: Situación a la rejilla y otra perpendicular a ella. Se podrá analizar el efecto de
experimental en la que incide una
OEM (microonda) no polarizada la rejilla metálica sobre cada una de estas componentes.
en una rejilla metálica.

Componentes paralelas al alambrado:

El campo eléctrico de la radiación incidente impone el movimiento de los electrones a lo largo del
alambre. Dicho alambre actuará como una carga resistiva. Los electrones de conducción alcanzan
una velocidad final en un tiempo que es corto comparado con el período de las microondas
(frecuencia de 1000 MHz).

El campo eléctrico realizará trabajo sobre los electrones,


y éstos a su vez transferirán algo de su energía a la red
cristalina del metal al cual pertenecen mediante choques.
Éstos también irradian.

Las radiaciones que se generan en el sentido opuesto a la


onda incidente, interferirán destructivamente con la
radiación incidente y la cancelará prácticamente a cero.
Fig. 3.1.2.2: Esquema explicativo de la
Así el alambrado paralelo anulará la componente polarización en la rejilla para microondas. Las
componentes perpendiculares al alambrado son
"absorbidas". No existe onda transmitida.
paralela al alambrado.
Componentes perpendiculares al alambrado:

Los electrones no pueden moverse libremente a lo largo de la menor dimensión del alambre, pues
no pueden abandonar el alambre. En lugar de alcanzar una velocidad final estacionaria (como lo
hacen en la otra situación), los electrones construyen rápidamente una carga superficial a lo largo
de los bordes del alambre.

Cuando el campo debido a la carga superficial es


suficiente para cancelar el campo incidente (dentro
del alambre), los electrones dejarán de moverse.
Esto sucede en un intervalo de tiempo muy corto,
en comparación con el período de las microondas.
Los electrones estarán siempre en una especie de
equilibrio estático, sin velocidad ni aceleración.
Éstos ni absorben, ni irradian. En consecuencia, la
Fig. 3.1.2.3: Esquema explicativo de la polarización
componente perpendicular al alambrado, no se en la rejilla para microondas. Solamente se transmiten
las componentes perpendiculares al enrejado.
afecta.

En conclusión, al incidir el haz de microonda no polarizado en la rejilla metálica, el haz emergente


estará polarizado linealmente o plano polarizado con el vector eléctrico perpendicular al
alambrado.

La rejilla metálica se convierte en un dispositivo que


"polariza" el haz de microonda, o sea, la organiza
desde el punto de vista de las oscilaciones que
componen la onda.

La rejilla se denomina polarizador.

Fig. 3.1.2.4: Efecto polarizador de la rejilla


metálica.
El polarizador, en este caso rejilla polarizadora, no es más que un dispositivo que ordena la
onda incidente no ordenada. El polarizador se identifica con el dispositivo "que polariza". Por lo
tanto, en esencia, la rejilla polarizadora y el polarizador son dos maneras de nombrar lo mismo.

Es más, se utiliza también el término filtro polarizador para identificar este tipo de dispositivo.

3.1.3.- Polarización en microondas. Rejillas polarizadoras. Ley de Malus.

La rejilla polarizadora no es más que un dispositivo polarizador.

A la salida de una rejilla polarizadora, independientemente del estado de ordenamiento de las


oscilaciones del vector intensidad de campo eléctrico ó vector eléctrico de la onda incidente, a
la salida la OEM está plano polarizada o linealmente polarizada (L.P.).

La dirección perpendicular al alambrado se


denomina eje óptico de la rejilla y suele
representarse por un segmento rectilíneo
como indica la figura que presenta la
situación a analizar:

Sobre la rejilla incide la onda con el vector


eléctrico que forma un ángulo con el eje
óptico. Entonces sobre la rejilla la onda
incidente podrá descomponerse en dos: una

componente del vector eléctrico y otra Fig. 3.1.3.1: Onda L.P de microonda incidente en una rejilla
polarizadora. El vector E a la salida será una componente del
vector eléctrico de la onda incidente Eo.
al eje óptico de la rejilla, coincidiendo
esta última con el plano del vector eléctrico
de la onda L.P. a la salida de la lámina.

Como:

3.1.3.1
Solamente las componentes paralelas al eje óptico podrán atravesar la rejilla. A la salida de la
lámina puede calcularse la fracción de la intensidad luminosa, elevando al cuadrado la expresión
de la componente resultante pues la componente perpendicular no aporta pues es "absorbida".

3.1.3.2

Si la intensidad incidente es , se puede identificar la intensidad I a la salida como una magnitud


proporcional al cuadrado de la amplitud.

3.1.3.3

Esta expresión es conocida como la Ley de Malus y es aplicable solamente en el caso en que la
onda incidente sea plano polarizada o linealmente polarizada.

A la salida del sistema, los valores de la intensidad de la onda estarán representados en la figuras
que a continuación se muestran.

Fig. 3.1.3.2a: Variación de la intensidad de la microoonda a la salida de la rejilla polarizadora si incidiera una onda
L.P. en coordenadas rectangulares.
Fig. 3.1.3.2b: Variación de la intensidad de la microoonda a la salida de la rejilla polarizadora si incidiera una onda
L.P. en coordenadas polares.

3.1.4. Dicroísmo y Ley de Malus.

Se disponen de dos polarizadores tal y como se


muestra en el esquema:

Se rota un dispositivo (polarizador) sobre el


otro y se analizan la variaciones de la
intensidad luminosa a la salida del sistema. Los
resultados experimentales se comprueban en el Fig. 3.1.4.1: Esquema de un sistema formado por dos
láminas polarizadoras (material Polaroide) al cual incide
video que a continuación se ofrece.
luz .

Ley de Malus

Para la luz, estos dispositivos polarizadores funcionan similarmente a las rejillas de alambre en el
caso de las microondas. A la salida de un polarizador, por analogía con el epígrafe 3.1.3, existirá
luz plano polarizada o linealmente polarizada.

Se comprueba la existencia de una posición para la cual no existe prácticamente luz transmitida,
es en esta posición que se dice que "los polarizadores están cruzados".

Y existe otra situación límite para la cual es máxima la intensidad luminosa transmitida.

Cada polarizador posee una dirección preferencial llamada eje óptico del polarizador, dirección
preferencial para la cual emergerán solamente aquellas ondas cuyo vector intensidad de campo
eléctrico y que sean paralelas a dicho eje.
Fig. 3.1.4.2: Vista a través de dos polarizadores superpuestos en tres situaciones: (a) Los dos ejes ópticos paralelos
entre sí, (b) los dos ejes ópticos perpendiculares y, (c) Los dos ejes ópticos forman cierto ángulo.
Por tanto, si a la salida de uno de los polarizadores emerge luz linealmente polarizada, con su
plano de oscilación del vector eléctrico paralelo a dicho eje, la situación que se identifica en el
último polarizador, llamado analizador, es la de la Ley de Malus, similar al caso de la rejilla
polarizadora y la microonda.

Fig. 3.1.4.3: Esquema de un sistema formado por dos láminas polarizadoras (material Polaroide) al cual incide luz.

La situación a resolver es la siguiente:

¿Cuál sería la fracción de la intensidad de la luz incidente que emergería del analizador o segundo
polarizador, si la luz incidente fuera de intensidad Io?

Para responder a esta pregunta será necesario tener en cuenta que, cualquier situación de luz
polarizada puede ser analizada partiendo de la Ley de Malus.

Es conocida la relación entre la intensidad y la amplitud de las ondas, es decir, se conoce que la
intensidad de una onda es proporcional al cuadrado de su amplitud. Por lo tanto, bastaría conocer
cuál componente del vector eléctrico de la onda incidente emergerá de polarizador, para estimar la
fracción correspondiente de energía por unidad de tiempo y de área, que es en definitiva la
intensidad luminosa.
Luz incidente linealmente polarizada (L.P.)

Sobre el analizador incide la onda con el vector


eléctrico que forma un ángulo con el eje óptico.
Entonces sobre dicho analizador la onda incidente
podrá descomponerse en dos: una componente del

vector eléctrico y otra al eje óptico del


analizador, coincidiendo esta última con el plano del
Fig. 3.1.4.4: Luz L.P incidiendo a un polarizador. vector eléctrico de la onda L.P. a la salida de la lámina.

Como:

3.1.4.1

3.1.4.2

Solamente las componentes paralelas al eje óptico podrán atravesar el analizador. A la salida de la
lámina puede calcularse la fracción de la intensidad luminosa, elevando al cuadrado la expresión
de la componente resultante pues la componente perpendicular no aporta pues es "absorbida".

3.1.4.3

Si la intensidad incidente es , se puede identificar la intensidad I a la salida como una magnitud


proporcional al cuadrado de la amplitud.

Esta expresión, conocida como la Ley de Malus, es aplicable solamente en el caso en que la onda
incidente sea plano polarizada o linealmente polarizada.

A la salida del analizador, si la luz incidente fuera L.P., los valores de la intensidad de la onda
estarán representados en las figuras que a continuación se muestran.
Fig. 3.1.4.5a: Variación de la intensidad de la luz a la salida del polarizador si incidiera una onda L.P. en coordenadas
rectangulares.

Fig. 3.1.4.5b: Variación de la intensidad de la luz a la salida del polarizador si incidiera una onda L.P. en coordenadas
polares.

Las sustancias que constituyen este tipo de dispositivo se denominan polarizadores y presentan el
fenómeno de dicroísmo.

En 1938, Edwin Land inventó el Polaroide. Este consiste en un elemento de material plástico que
se comporta de manera parecida a como lo hace la rejilla de alambre para las microondas. Durante
el proceso de fabricación del Polaroide, se obtienen largas cadenas de hidrocarburos alineadas en
una dirección. Posteriormente se sumerge esta lámina plástica en una solución que contiene yodo,
el cual actúa sobre las cadenas de hidrocarburos y produce electrones de conducción que pueden
moverse a lo largo de las cadenas pero no perpendiculares a ella. En esta dirección perpendicular a
las cadenas es que se identifica el eje óptico.

Un polarizador sólo transmite una componente de la vibración, aquella paralela al eje óptico, ya
sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o
absorbiéndola.
El analizador no es más que un polarizador que diagnostica, analiza la luz incidente atendiendo a
su estado de polarización.

Si se cruzan un polarizador y un analizador situados consecutivamente, de forma que el


analizador esté orientado para permitir la transmisión de las vibraciones situadas en un plano
perpendicular a las que transmite el polarizador, se bloqueará toda la luz procedente del
polarizador.

La aplicación de la Ley de Malus, aún cuando solamente es posible al caso en el cual la luz
incidente sea L.P., puede ser aplicada con cuidado y por separado a las componentes L.P.
concebidas en este modelo para explicar los diferentes estados de polarización.

Ahora bien, ¿cómo podrá utilizarse un analizador para estudiar la luz de otros tipos u estados de
polarización? Este tema será tratado en el epígrafe 3.1.9.

3.1.5.- Luz no polarizada.

Existe una diferencia fundamental entre la luz polarizada y la luz no polarizada o luz natural .
y ésta se encuentra en el ordenamiento de las oscilaciones que forman la onda. Si la polarizada es
luz ordenada en sus oscilaciones, y este ordenamiento pudiera ser casi perfecto, la luz no
polarizada será luz completamente desorganizada en lo que respecta a sus oscilaciones, será
aleatoria por completo.

Toda la luz existente en la naturaleza, la proveniente del sol, y de todas y cada una de la fuentes
luminosas creadas por el hombre, emiten luz no polarizada.

Sería de esperar que en la situación física siguiente, no se aprecien cambios apreciables en la


cantidad de luz transmitida por el analizador.

Polarizador y luz no polarizada

¿Cuál es la explicación de este comportamiento de la luz no polarizada o natural?

Interesante es poder encontrar la comprensión de lo aleatorio a partir de la descripción del


opuesto: del caso ordenado, lo cual se pretende explicar a continuación:
Luz polarizada: Un haz de luz polarizada, independientemente del estado de polarización que
presente, podrá interpretarse como dos ondas linealmente polarizadas (L.P.) perpendiculares entre
sí y con cierto defasaje entre ellas. Este defasaje deberá ser fijo, constante a lo largo del tiempo de
emisión. En dependencia del valor del defasaje, así se definiría el estado de polarización de la
onda resultante (linealmente polarizada (L.P), circularmente polarizada (C.P.) y elípticamente
polarizada (E.P.). De cierta manera, como se verá más adelante, la constancia de la fase - y por
tanto de la diferencia de fase - de cada componente que la forma, determina la requerida
coherencia de las componentes teóricamente consideradas.

Luz no polarizada: La luz no polarizada sería la situación opuesta a la anterior. Siguiendo el


mismo razonamiento, la luz no polarizada podría concebirse como aquella formada por la suma
vectorial de componentes linealmente polarizadas (L.P.) transversales en cualesquiera dos
direcciones perpendiculares y que ellas no guarden relación de fase determinada y constante entre
ellas. O sea, estas componentes pueden ser consideradas como incoherentes, lo cual será analizado
con más detalle posteriormente.

Es posible interpretar la luz no polarizada en dos sentidos:

a. Cuando dos perturbaciones son incoherentes, la diferencia de fase entre ellas cambia
constantemente de una forma aleatoria. Para cada instante las dos componentes de luz no
polarizada corresponde a cierta polarización elíptica.
b. También puede ser considerada como luz polarizada elípticamente en la cual la forma y la
orientación de la elipse está constantemente cambiando y que incluye los casos especiales
de luz linealmente polarizada (L.P) y circularmente polarizada (C.P.).

Ambas interpretaciones son equivalentes.

Cuando la luz no polarizada se separa en componentes, no


importa que diferencia de fase se considere entre ellas. Ya
estas componentes, aleatorias intrínsecamente y que no
guardan relación de fase fija entre ellas, mucho menos la
guardarán posteriormente durante el proceso de absorción
por parte de la sustancia dicroica.

Fig. 3.1.5.1: Esquema que ilustra el La aleatoriedad es tal que, puede aceptarse la suposición de
experimento realizado y los detalles
que la luz no polarizada o luz natural, como también se
explicativos.

conoce, no posee dirección alguna privilegiada de oscilación

Es igualmente probable, por tanto, el aporte neto que las diferentes y aleatorias componentes que
se suman tanto en la dirección paralela al eje óptico como en la dirección perpendicular al mismo.

Si la luz incidente es no polarizada, el polarizador absorbe aproximadamente la mitad de la luz,


pues desde el punto de vista estadístico, es igualmente probable el aporte de las componentes que
tributan a la dirección paralela al eje óptico de polarizador como las que aportan a la dirección
perpendicular a dicho eje y que en definitiva son absorbidas.

Por todo lo anterior, es posible llegar, a las siguientes conclusiones:

• Cuando incide luz no polarizada o luz natural a un analizador, la intensidad luminosa a la


salida del mismo, será aproximadamente la mitad de la intensidad luminosa incidente.
• Al rotar el analizador, el valor de la intensidad luminosa se mantiene constante.

Los llamados analizadores son físicamente idénticos a los polarizadores

3.1.6.- Polarización y ventanas de Brewster.

El afán del hombre por lograr lo que de manera natural no se le ofrece, ha dictado pautas en el
desarrollo científico técnico. Así ha ocurrido con el desarrollo tecnológico asociado al diseño y
construcción de las fuentes luminosas.

Al inicio, en los diseños constructivos de las fuentes luminosas primó aquél relacionado con lograr
luz de diferentes características espectrales y energéticas: longitudes de onda e intensidad
luminosa. Son muy variadas las fuentes y muy variadas las propiedades de la radiación luminosa
emitida.

Puede comprobarse que la luz de una vela, las lámparas incandescencia, las lámparas
fluorescentes, así como lámparas de descarga, e incluso las fuentes coherentes como el láser,
emiten radiaciones luminosas que no se encuentran totalmente polarizadas.

Los detalles constructivos de las fuentes luminosas y de los accesorios que se les añaden, permiten
hoy día mostrar toda una diversidad de posibilidades en cuanto a propiedades.
A continuación se exponen las características de un equipo láser de Helio-Neón que exhibe la
propiedad de una altísimo grado de polarización.

Láser con Ventana de Brewster y analizador

La luz de este equipo láser de He-Ne está


polarizada linealmente (L.P:). ¿Qué accesorio
se ha incluido en su diseño?

La luz emitida emerge con un alto grado de


polarización cuyo responsable es la
denominada Ventana de Brewster.

Fig. 3.1.6.1: Foto del interior del láser de He-Ne.

La Ventana de Brewster no es más que


una lámina de cierto material
transparente y de cierto índice de
refracción colocada en el extremo del
tubo de vidrio relleno de una mezcla de
Fig. 3.1.6.2: Esquema de un láser de He-Ne con ventana de
Helio y Neón. Brewster.

Este tubo que almacena la mezcla gaseosa, constituye el medio activo, que a su vez se encuentra
dentro de un diseño de cierta disposición geométrica que, con ayuda de dos espejos de alta
reflectancia, permiten la resonancia y la amplificación de la luz coherente emitida a nivel del
sistema cuántico.

Un haz de luz incidente en una superficie se divide en un haz reflejado y un haz de luz refractada.
Al parecer, y de alguna manera, la luz refractada es "filtrada" de una de las dos componentes en
que ella puede ser descompuesta para su análisis.

Esta situación puede ser corroborada también para el caso del haz de luz reflejado.

Ley de Brewster
Para cierta superficie, el ángulo para el cual
ocurre esta polarización en la reflexión y esta
cuasi-polarización en la transmisión no es el
mismo. Este fenómeno que se ha mostrado se
llama Polarización por reflexión, y será tema de
análisis en futuros epígrafes.

¿De qué dependerá este fenómeno que ocurre


en la reflexión de la luz en la superficie?
Fig. 3.1.6.3: Esquema ilustrativo de la polarización por
reflexión y transmisión.

3.1.7.- Onda parcialmente polarizada.

En realidad el concepto de onda totalmente polarizada es una idealización.

Una fuente de luz ordinaria consiste en un gran número de emisores atómicos aleatoriamente dispuestos.
Cada átomo o emisor emitirá un tren de ondas de corta duración, y que coincide con el tiempo de vida de
un átomo en estado excitado cuando la emisión es espontánea, es decir, de solamente 10-8 segundos. La
superposición de estas ondas, aún cuando posean una misma frecuencia, generará una onda resultante cuyo
estado de polarización cambia cada 10-8 segundo de manera y que es imposible de predecir debido a la
extrema aleatorización de las oscilaciones emergentes. Esta onda, denominada no-polarizada también es
una situación extrema, por lo que también es una idealización.

En realidad, en los casos prácticos, la luz no es ni totalmente polarizada ni no polarizada, sino una mezcla
de los dos tipos. Así, dos estados ortogonales L.P. representarían la onda que poseerá amplitudes diferentes
ó una fase variable no de manera aleatoria. Este caso se dice que la onda está parcialmente polarizada.

Una medición del grado de polarización V sería el factor adimensional que relaciona la intensidad de la
parte polarizada y la no polarizada de la siguiente manera:

Como sería la intensidad total, entonces, Vp no sería más que la fracción de la componente

polarizada.
Ley de Brewster

La luz reflejada en la superficie, y en ciertas condiciones de incidencia que dependen del material
y de su grado de pulimentación, será en general parcialmente polarizada.

Un analizador colocado en el haz reflejado permitirá apreciar dos posiciones diferentes: una de
máxima transmisibilidad y otra de mínima, giradas entre sí 90 grados.

(a)

(b)
Fig. 3.1.7.1: Resultado de la medición de la intensidad de luz transmitida por el analizador durante el proceso de
diagnóstico (a) en coordenadas rectangulares (b) en coordenadas polares

Igual resultado se obtendría si se observara la luz proveniente de las nubes a través de un


polarizador que hace función de analizador y que tratara de investigar el estado de polarización de
la luz reflejada.
Una observación interesante:

Compare esta figura (Figura 3.1.7.1.a) y b)) y la que se obtiene en el caso del análisis que realiza
un polarizador pero en el caso de la luz elípticamente polarizada (Figura 3.1.4.9 a) y b)).

3.1.8 Polarización por Reflexión. Ley de Brewster.

Ley de Brewster

Se puede inferir que la luz reflejada está parcialmente polarizada. El analizador elimina parte de esta luz,
aquella cuya contribución a la intensidad luminosa es mayor. Es por ello que la intensidad transmitida por
el analizador, para diferentes posiciones, variará.

El ángulo para el cual esto ocurre dependerá del


tipo de material y del grado de planitud de la
superficie.

Las bases de funcionamiento de esta aplicación se


encuentra detalladamente explicado en el Ejemplo 6
del epígrafe 2.5.5

Fundamentada teóricamente, se muestran


aplicaciones de interés práctico.

Fig. 3.1.8.1: Caso de la reflexión de la luz para una


condición en la cual el haz reflejado solamente posea
componentes perpendiculares al plano de incidencia.

En algunos láseres como el de He-Ne, se utiliza


una lámina cortada en ángulo y que es colocada
en los extremos del medio activo. La luz que
emerge después de la amplificación, si son
utilizadas estas láminas, será linealmente
Fig. 3.1.8.2: Partes componentes de un láser de Helio Neón. Se
polarizada (L.P.). destacan las ventanas de Brewster que permiten la salida de un
haz de luz linealmente polarizado.
El láser utilizado en esta demostración es el que se muestra a continuación.

Fig. 3.1.8.3: Láser de Helio Neón apagado. Se destacan las Fig. 3.1.8.4: Láser de Helio Neón encendido. Se destacan
partes internas que lo constituyen . las partes internas que lo constituyen .

Al colocar a la salida del láser un analizador, se obtiene el siguiente resultado, por demás, esperado.

3.1.9. Efecto del filtro polarizador sobre la luz.

Los filtros polarizadores o simplemente polarizadores son sustancias que presentan el fenómeno
de dicroísmo.

La acción de "polarizar" u "ordenar" la luz incidente, independientemente de su estado de


polarización, les permite aplicaciones importantes.

Ley de Malus

Cada polarizador posee una dirección preferencial llamada eje óptico, paralela a la cual
emergerán solamente aquellas ondas cuyo vector intensidad de campo eléctrico sean paralelas a
dicho eje.

Fig. 3.1.9.1: Vista a través de dos polarizadores superpuestos en tres situaciones: (a) Los dos ejes ópticos paralelos
entre sí, (b) los dos ejes ópticos perpendiculares y, (c) los dos ejes ópticos forman cierto ángulo.
Por tanto, si a la salida de uno de los polarizadores emerge luz linealmente polarizada, con su
plano de oscilación del vector eléctrico paralelo a dicho eje, la situación que se identifica en el
último polarizador, también llamado analizador, es la de la Ley de Malus, similar al caso de la
rejilla polarizadora y la microonda.

Fig. 3.1.9.2: Esquema de un sistema formado por dos láminas polarizadoras (material Polaroide) al cual incide luz.

Capítulo 4- ÓPTICA CUÁNTICA

Dos grandes teorías marcaron la Física del pasado siglo XX: la Teoría de la Relatividad y la
Teoría Cuántica. Ambas, de cierta manera, ligadas a la luz. Emergía una nueva concepción
acerca del espacio-tiempo por un lado, y por el otro nacía una nueva manera de describir los
procesos físicos incorporando la dualidad.

Desde la lejana época de Newton hasta la reciente época de Maxwell, ningún nuevo hecho ó
fenómeno descubierto había puesto en duda el sistema de conocimientos adoptado en la Física.

Conocidas eran dos formas de existencia de la materia: la sustancia y la radiación.

La primera, la sustancia, asociada a los cuerpos y para las cuales los corpúsculos que la
constituían se subordinaban a las Leyes de Newton que al ser aplicadas, permitían predecir con
absoluta seguridad el estado del sistema por la posición y la velocidad.

Con los recientes aportes que hicieran Maxwell y Hertz, la comunidad científica veía finalizar un
siglo identificado por muchos como el Siglo de las Ondas. La radiación, se aceptaba, consistía en
ondas electromagnéticas asociadas en cada punto del espacio a los campos eléctrico y magnético
en una interesante imbricación denominada campo electromagnético.
Desde la época de Newton no había existido motivo alguno de discrepancia con los nuevos hechos
descubiertos y con la experiencia de los hombres de ciencia en el campo de la Física.

Pero con el nacimiento del Siglo XX vinieron aparejados un conjunto de fenómenos que no
encontraron explicación en la Física que más tarde se denominó Física Clásica.

Tres problemas fundamentales de la Física de finales del siglo XIX ilustran el dilema de la Física
Clásica y su salida dentro de ese marco de una nueva concepción de los fenómenos físicos, que
está asociada a una constante universal: la Constante de Planck. El papel fundamental de esta
importante constante que tomó el nombre de un genial físico alemán: Max Planck, se ven
evidenciado en el tratamiento de tres problemas que constituyen:

1. La Radiación Térmica ó Radiación del Cuerpo Negro.

2. El Efecto Fotoeléctrico Externo.

3. La Estructura Atómica.

Hoy día se sabe que el tratamiento riguroso de estos tres problemas están relacionados con
procesos de interacción microscópica y las vibraciones de partículas cargadas a nivel de átomos y
moléculas. La leyes que describen estos procesos de interacción de las partículas cargadas y la
radiación rebasan el marco de la Electrodinámica Clásica y poseen un carácter cuántico.

Por ser el curso de Óptica un curso parte de la Física General, se estudiarán estos fenómenos
cuánticos sin tratar los mecanismos internos lo cual será tema de la Mecánica Cuántica y la
Electrodinámica Cuántica.

Conocidas eran dos formas de existencia de la materia: la sustancia y la radiación.

La primera, la sustancia, asociada a los cuerpos y para las cuales los corpúsculos que la
constituían se subordinaban a las Leyes de Newton que al ser aplicadas, permitían predecir con
absoluta seguridad el estado del sistema por la posición y la velocidad.

Con los recientes aportes que hicieran Maxwell y Hertz, la comunidad científica veía finalizar un
siglo identificado por muchos como el Siglo de las Ondas. La radiación, se aceptaba, consistía en
ondas electromagnéticas asociadas en cada punto del espacio a los campos eléctrico y magnético
en una interesante imbricación denominada campo electromagnético.
Desde la época de Newton no había existido motivo alguno de discrepancia con los nuevos hechos
descubiertos y con la experiencia de los hombres de ciencia en el campo de la Física.

Pero con el nacimiento del Siglo XX vinieron aparejados un conjunto de fenómenos que no
encontraron explicación en la Física que más tarde se denominó Física Clásica.

Tres problemas fundamentales de la Física de finales del siglo XIX ilustran el dilema de la Física
Clásica y su salida dentro de ese marco de una nueva concepción de los fenómenos físicos, que
está asociada a una constante universal: la Constante de Planck. El papel fundamental de esta
importante constante que tomó el nombre de un genial físico alemán: Max Planck, se ven
evidenciado en el tratamiento de tres problemas que constituyen:

1. La Radiación Térmica ó Radiación del Cuerpo Negro.

2. El Efecto Fotoeléctrico Externo.

3. La Estructura Atómica.

Hoy día se sabe que el tratamiento riguroso de estos tres problemas están relacionados con
procesos de interacción microscópica y las vibraciones de partículas cargadas a nivel de átomos y
moléculas. La leyes que describen estos procesos de interacción de las partículas cargadas y la
radiación rebasan el marco de la Electrodinámica Clásica y poseen un carácter cuántico.

Por ser el curso de Óptica un curso parte de la Física General, se estudiarán estos fenómenos
cuánticos sin tratar los mecanismos internos lo cual será tema de la Mecánica Cuántica y la
Electrodinámica Cuántica

4.1.- Radiación Térmica

La energía radiante luminosa es de naturaleza electromagnética y se emite a cuenta de otros tipos


de energía. Así se conocen la Luminiscencia, la Quimioluminiscencia, la Electroluminiscencia, la
Cátodoluminiscencia, la Fotoluminiscencia y la Radiación de Calor ó Radiación Térmica
provocada por la energía interna de los cuerpos calentados.

Este último proceso ocurren durante la acción que los produce, cesando inmediatamente después
de eliminar los motivos de la misma. La energía que se transforma en el caso de este tipo de
fenómeno es la energía cinética de las partículas, es decir, la energía térmica asociada a átomos ó
moléculas. Es a nivel microscópico el proceso de emisión.

Toda radiación va acompañada de una pérdida de energía del cuerpo que la produce. Si un cuerpo
recibe de otro circundante una cantidad de energía capaz de compensar exactamente la pérdida de
energía que él experimenta por su propia radiación, se dice que este proceso de radiación se
realiza equilibradamente. En estas condiciones el estado del cuerpo radiante puede determinarse
por una temperatura T.

El equilibrio térmico es un equilibrio de tipo dinámico, pues aún cuando dos cuerpos calentados y
separados entre sí lleguen a una mismo valor de temperatura, podrán seguir emitiendo radiación
electromagnética pues estos cuerpos a la vez de emitir, también absorben energía de esta misma
naturaleza.

Durante el proceso de Radiación Térmica se sucede un proceso transitorio que alcanzará


finalmente el conocido Equilibrio Térmico. Al alcanzarse este equilibrio, la radiación presenta las
siguientes características:

• Las características de la radiación no dependerán ni de la forma ni del material del


radiador.
• Será homogénea en el interior del radiador, isotrópica una vez emitida y no estará
polarizada

4.1.1.- Magnitudes fotométricas.

En el estudio de la Radiación Térmica, es importante considerar las siguientes definiciones.

Emitancia de Radiación ó Emitancia Energética (Re): magnitud numéricamente igual al flujo


radiante dE emitido por unidad de superficie del cuerpo luminoso, y referido a todas las longitudes
de onda que emite el cuerpo.

4.1.1.1

Es interesante definir además:


Emitancia de radiación espectral ó poder emisivo espectral ( ): referida a un intervalo de

longitudes de onda próximo a la longitud de onda dada. Ésta será una función de distribución
para Re .

Entonces para el flujo radiante dE referido al intervalo de longitudes de onda ( , ), emitido


por el área dS de la superficie del cuerpo, se tiene:

4.1.1.2

Le emitancia de radiación total referida a todas las longitudes de onda viene expresada por:

4.1.1.3

En el equilibrio, solamente dependerá de y de T, ya que no hay dependencia ni del material ni


de la forma de la cavidad del emisor.

Los cuerpos también absorben la luz. Supongamos que sobre un cuerpo incide un flujo radiante

diferencial correspondiente a un pequeño intervalo de longitudes de onda . Parte de este

flujo se difunde y se refleja en el cuerpo y otra es absorbida. Sea el flujo absorbido.

Será muy importante en este estudio definir:

Absortividad ó Poder Absorbente ( ) : magnitud que se define por la relación entre el flujo
radiante diferencial absorbido y el incidente.

4.1.1.4

Todos los cuerpos no absorben por igual los flujos de las diferentes longitudes de onda. Los
materiales poseen cierta selectividad.

Otra magnitud interesante es:

Intensidad de la Radiación: Cantidad de energía que atraviesa en la unidad de tiempo el área


unitaria dS perpendicular a la dirección de propagación.
4.1.1.5

Considerando a la radiación propagándose en el vacío, la onda recorrerá: ds = cdt . En un


volumen diferencial dV=cdtdS , entonces:

4.1.1.4

O sea, que la Intensidad de la Radiación será igual a la Emitancia de Radiación ó Emitancia


Energética (Re).

4.1.2.- Ley de Kirchoff. Modelo del cuerpo negro.

Experimentalmente se obtiene que tanto la energía que absorbe un cuerpo como la que emite es
directamente proporcional a la intensidad que incide y que se emite respectivamente. La
proporcionalidad depende del material del cual está constituido dicho cuerpo emisor ó receptor así
como del estado en que se encuentre.

La experiencia demuestra que entre el poder emisivo espectral y el poder absorbente existe cierta
relación.

Ley de Kirchoff:

Kirchoff demostró que si los cuerpos A1, A2, A3....... se caracterizan por sus respectivas relaciones:

4.1.2.1

La Ley de Kirchoff plantea que:

"La relación de un cuerpo no depende de su naturaleza, sino que es igual para todos los

cuerpos y función exclusiva de la longitud de onda y la temperatura".

Para el estudio de la Radiación Térmica, ha sido de gran utilidad la adopción de un modelo para el
cual se realice un estudio de referencia: el modelo del cuerpo negro ó radiador ideal.
Modelo del cuerpo negro:

Éste se define como:

"Cuerpo negro: aquél cuerpo ideal para el cual el poder absorbente es igual a la unidad, o sea,
es un absorbedor ideal que absorbe todo el flujo que incide".

Es una idealización que puede imaginarse como una cavidad cerrada en cuyas paredes se practica
un orificio muy pequeño de tal manera que si incidiera un rayo de luz en ella, éste experimentará
sucesivas reflexiones internas en las paredes de la cavidad. En cada reflexión una parte de la
energía será absorbida y la otra reflejada. Así, después de muchas reflexiones solamente una
porción muy pequeña de la radiación incidente a la cavidad podrá salir del orificio. Prácticamente
toda la energía fue absorbida por la cavidad.

Según la Ley de Kirchoff, para éste se cumple por lo que:

4.1.2.2

Por tanto, todos los cuerpos negros a la misma temperatura poseerán la misma distribución de
energía radiante entre las longitudes de onda; la emitancia de radiación de todos lo cuerpos negros
experimenta la misma variación al cambiar la temperatura.

En la Naturaleza no existen cuerpos cuyas cualidades coincidan con las del cuerpo negro, por

ejemplo, los cuerpos cubiertos con una capa de negro de humo ó negro de platino tienen un
sólo en un intervalo limitado de longitudes de onda. Artificialmente un cuerpo negro puede ser un
recipiente casi cerrado con un orificio pequeño. Todo rayo de luz que entre en dicho recipiente
sólo podrá salir después de múltiples reflexiones.
Por la Ley de Kirchoff, la emitancia de radiación de

una superficie para la que , es


aproximadamente igual a la de un cuerpo negro.
Entonces si las paredes de un recipiente se
encuentran a cierta temperatura T, la radiación que
sale por el orificio será con bastante buena
aproximación igual a la radiación de un cuerpo
negro a la misma temperatura.

En la Figura 4.1.1 se muestra una curva


Fig. 4.1.1: Gráfica de la emitancia espectral con
respecto a la longitud de onda para un cuerpo negro experimental de la emitancia de radiación de un
y para un cuerpo gris (real).
cuerpo negro y el de un cuerpo gris para el cual

.
Experimentalmente se conoce que la curva de
distribución de la emitancia de radiación de un
cuerpo negro, para las diferentes longitudes de
onda, cambia de manera que el área bajo la
curva aumenta si la temperatura aumenta. A la
vez, el máximo de esta curva se desplaza hacia
la longitudes de onda más cortas. En la Figura
4.1.2 se ilustra este efecto.

A bajas temperaturas el cuerpo emite


principalmente radiación infrarroja, pero a
medida que la temperatura aumenta, el máximo
se desplaza hacia las longitudes de onda más
cortas y la luz que emite el cuerpo va siendo
más blanca. Un ejemplo de ello es el acero
Fig. 4.1.2: Efecto de la temperatura en la curva de
fundido. emitancia espectral para el cuerpo negro.

Desde el punto de vista de la Termodinámica no es posible encontrar la forma de esta función ,


pero sí pueden establecerse una serie de leyes generales que debe cumplir la Radiación Térmica.
La Ley de Boltzman y la Ley de Wien, que sintetizan los anteriores resultados experimentales
constituyen estas leyes generales.

4.1.3.- Ley de Stefan-Boltzman y Ley de Wien

Las leyes que a continuación se obtienen forman parte de los resultados experimentales que
constituyen las bases de los estudios sobre la emisión de radiación de los cuerpos.

Independientemente de la teoría que se asuma para tratar de explicar la Radiación Térmica, es


indispensable que dicha teoría sustente el cumplimiento tanto de la Ley de Stefan-Boltzman como
de la Ley de Wien. A continuación se detallan ambas.

Ley de Stefan-Boltzman

Deducida teóricamente por Boltzman, esta ley trata de la variación de la intensidad total de la
radiación del cuerpo negro con la temperatura.

Boltzman aplica las leyes del Ciclo de Carnot a una máquina en la cual la radiación hace el papel
de la sustancia de trabajo.

Figura 4.1.3: Esquema de la situación termodinámica de la Radiación Térmica según razonamientos termodinámicos
clásicos.

La máquina de referencia está formada por diferentes partes: un cilindro, un pistón y una base
aisladas térmicamente, además perfectamente reflectores excepto la base que posee un orificio que
puede ser cubierto por una placa reflectora. El pistón se mueve sin fricción. A través del orificio
esta máquina puede poner en contacto dos cavidades B1 y B2 que encierran radiación a temperatura
T1=constante y T2=constante respectivamente.

El análisis del ciclo será referido a cada una de las cuatro fases en las que se puede descomponer
el Ciclo de Carnot.

a)FASE A: expansión isotérmica.

Debido a la radiación , una conocida relación de la Termodinámica. Ya que la expansión

es isotérmica, la energía U se mantiene constante al igual que P1 y para que esto ocurra debe entrar
radiación por el orificio O desde la cavidad B1 a T1=constante. En esta fase se pueden obtener los
siguientes resultados:

Trabajo realizado:

4.1.3.1

Energía que entra producto de la variación de volumen:

4.1.3.2

Energía Total que entró durante el proceso:

4.1.3.3

b) FASE B: expansión adiabática

Se cierra el orificio O con una lámina perfectamente reflectora y se realiza una expansión
adiabática llegando a C. Como no hay intercambio de energía con el medio, el trabajo realizado se
hace a costa de la energía interna. Como el incremento de temperatura de supone tan pequeño
como se desee, entonces:

4.1.3.4
c) FASE C: compresión isotérmica

Se cierra el orificio O y se realiza una compresión hasta los valores iniciales. El trabajo neto en el
ciclo podrá identificarse con el área bajo la curva y considerando que , éste coincide con

, o sea:

4.1.35

La eficiencia del Ciclo de Carnot:

4.1.3.6

Entonces puede escribirse:

4.1.3.7

Y como

Entonces:

4.1.3.8

Siendo , la Constante de Boltzman.

También puede obtenerse:

4.1.3.9

Ley de Desplazamiento de Wien:

Esta otra ley también se obtiene a partir de razonamientos termodinámicos, y establece la

situación de los máximos de las curvas de distribución, o sea, donde es máxima. Esta ley puede
obtenerse si se calcula en el Ciclo de Carnot anterior, el trabajo que se realiza en la expansión
adiabática, así como varía la longitud de onda de la radiación con la longitud recorrida por el
pistón.
4.1.310
4.1.3.11

4.1.3.12

4.1.3.13

4.1.3.14

Combinando la Ley de Stefan-Boltzman y esta última expresión se obtiene que . La


longitud de onda varía con la longitud de onda recorrida por el pistón según , por lo que puede
obtenerse la proporcionalidad que qued expresada en la denominada Ley de Desplazamiento de
Wien:

4.1.3.15

Siendo c una constante de valor: 0,2886 cm.K.

4.1.4.- Teoría clásica de la Radiación Térmica. Fórmula de Rayleigh-Jeans.

Para la deducción de esta teoría., se partió de la aplicación de un conocido resultado de la


Mecánica Estadística: el Principio de Equipartición de la Energía. También se aplican resultados
de la Electrodinámica Clásica.

Así, a cada modo de vibración electromagnética le correspondería una energía igual a kT. Estos
modos de vibración pueden ser calculados a partir de las Ecuaciones de Maxwell del
Electromagnetismo tomadas para el vacío.

Expresando las relaciones entre los vectores y en el vacío:


Para hallar los modos de vibración estacionarios , supondremos las paredes de la cavidad con una
conductibilidad eléctrica infinita, perfectamente reflectoras y que no absorben energía. Entonces
las componentes paralelas de a las paredes de la cavidad tienen que ser 0, para evitar corrientes
infinitas en las mismas.

Por conveniencia se considera la cavidad como una caja rectangular. Es fácil verificar por
sustitución que las siguientes ecuaciones definen una solución de las Ecuaciones de Maxwell que
satisfacen las condiciones de contorno.

4.1.4.1

4.1.4.2

Donde A+B+C=0, y c la velocidad de la luz. Si a, b y d son las dimensiones de la caja reflectora,

entonces: Además:
.

4.1.4.3

Esta solución representa dos modos independientes de vibración superpuestos, ambos


corresponden a la frecuencia de ondas viajeras . Los dos modos corresponden a los dos
planos independientes de polarización de ondas viajeras.

Es necesario encontrar cuántos modos tienen frecuencias en cualquier intervalo dado de


frecuencias. Cada conjunto de sea representado por un punto en un espacio

tridimensional, las coordenadas de los puntos son: .


Estos puntos descansarán en las esquinas de las celdas rectangulares cuyos bordes tienen longitud

, existiendo infinidad de celdas y por cada una de ellas habrán ocho puntos en las

esquinas. Entonces como el volumen de cada celda será .

Los puntos que representan frecuencias menores que un valor dado se pueden determinar

considerando que ellos descansan dentro de un octante positivo de la esfera de radio

representada por la ecuación:

4.1.4.4

El número de puntos incluidos será igual al volumen del octante multiplicado por la densidad de
puntos la cual es abd multiplicado por 2 ya que existen dos modos de vibración en cada
frecuencia. De esta manera el número de modos de vibración de los campos por unidad de
volumen será:

4.1.4.5

De acuerdo con los principios clásicos de la equipartición de la energía, el promedio de cada modo
de vibración será kT. La energía radiante por unidad de volumen en el intervalo de longitudes de

onda , que será justamente , permite escribir:

rλ = 8π kTλ -4
4.1.4.6

Esta es la expresión conocida como Fórmula de Rayleigh-Jeans.

Entonces el poder emisivo espectral para el cuerpo negro será según las teorías clásicas:
8π kTλ -
4.1.4.7
4

Esta fórmula concuerda con los resultados experimentales solamente para la zona de las altas
longitudes de onda. Para longitudes de onda pequeñas esta teoría resulta un fracaso. La curva
experimental posee un máximo y después tiende a cero, mientras esta ecuación para tiende
a infinito. A esta situación se le dio el nombre de Catástrofe del Ultravioleta, ya que en los
experimentos realizados es precisamente en la zona del ultravioleta donde los datos
experimentales se apartan ampliamente de los valores calculados por Rayleigh-Jeans.

Si se expresara en función de las frecuencias, como :

4.1.4.8

También puede obtenerse, a partir de la Teoría de Rayleigh-Jeans, que al integrar en todo el rango
de frecuencias la emitancia espectral, la integral se indefine. No sería posible entonces el
equilibrio térmico. Este resultado: la Catástrofe del Ultravioleta fue deducido por Erenfest.

La aplicación de dos teorías reconocidas: la Mecánica Estadística Clásica y la Electrodinámica


Clásica, no permitió una correcta explicación del fenómenos de la Radiación Térmica.

4.1.5- Fórmula de Radiación de Planck


La fórmula correcta del cuerpo negro fue encontrada por Max Planck en 1901 introduciendo una
hipótesis radical en contra de la lógica de la época.

Primeramente Planck propone la solución de manera empírica y posteriormente lo demuestra


teóricamente.

Planck encuentra una fórmula en función de la longitud de onda y de la temperatura que


corresponde con la curva experimental, al precio de renunciar a ciertos presupuestos de la Física
anterior. Expuso su teoría el 14 de diciembre de 1900 y nacía así una Nueva Física que
conmocionaría los conocidos cimientos de una ciencia que hacía más de dos siglos se había
estructurado con firmeza, para incorporar un enfoque nuevo en el conocimiento de los procesos
del micromundo.
A partir de entonces, este nuevo enfoque marcaría con éxito todo el desarrollo de la Física y
también de otras Ciencias, y permitiría un desarrollo tecnológico sin precedentes en el siglo XX.

En 1918 fue reconocido Max Planck con el Premio Nóbel por el descubrimiento de los cuantos de
energía.

¿Cómo razonó Planck?

Los experimentos de Hertz sobre las ondas electromagnéticas parecían proporcionar una
confirmación a la teoría electromagnética de la luz. Esto convenció a Planck que la clave del
espectro del cuerpo negro pudiera ser encontrado en las leyes que gobiernan la absorción y la
emisión de radiación por osciladores eléctricos.

La cavidad isotérmica tomada como punto de partida, puede interpretarse como una cavidad
compuesta por osciladores de todas las frecuencias, tal y como un oscilador hertziano, y que la
emisión y la absorción de la radiación por las paredes es causada por estos osciladores. Planck
llega a la conclusión de que los osciladores solamente son afectados por la radiación de la misma
frecuencia que la que propiamente posee. Entonces, en el estado de equilibrio se podría definir
una relación entre la emitancia de radiación a cierta frecuencia y la energía promedio de los
osciladores a esta frecuencia. Entonces, razonaba Planck, el problema del cuerpo negro se
reduciría al problema de la energía promedio de un oscilador a la temperatura dada.

Siguiendo el razonamiento de Planck, si se asumía que la energía promedio de los osciladores era
kT como asumía la Termodinámica, se llegaba a la expresión de Rayleigh-Jeans, pero por otro
camino. Como esta fórmula fallaba, Planck decidió seguir otro camino: tratar de llegar a una
fórmula que correspondiera con los resultados experimentales.

El problema de la energía de los osciladores en equilibrio térmico:

Sea un oscilador lineal de masa m que oscila con movimiento armónico simple. Suponiendo que x

sea el desplazamiento, y su momento lineal .

La energía total del oscilador:


4.1.5.1

y la frecuencia de la oscilación según las teorías conocidas:

4.1.5.2

Para una gran cantidad de osciladores, el hecho de considerarlos agrupados lleva a la


consideración de que esté esta energía relacionada con la temperatura.

Según la Mecánica Clásica Estadística: el número dN de los osciladores que poseen sus valores de
las coordenadas x y p dentro de dx y dp estará dado por:

4.1.5.3

En la expresión anterior, C es una constante de proporcionalidad tal que la integral de dN es igual


a N por normalización. La situación es similar al método utilizado en la Fórmula de Maxwell al
calcular la distribución de velocidades de las moléculas en un gas.

EL término diferencial dxdp merece atención


aparte. Considerando los osciladores libres de
fuerzas perturbadoras, x y p cambian de manera
que la energía permanece constante. Las curvas
dadas en un espacio x-p llamado espacio de fase,
poseerán un valor fijo de energía E. Las curvas
deben ser elipses tal y como muestra la Figura
Fig. 4.1.4: Espacio de fases del oscilador armónico
simple. 4.1.4.

Tomando dos elipses separadas un intervalo de energía dE, se tiene encuentra un anillo elíptico en
el que se presupone el término que sería constante. Por lo tanto, en estado de equilibrio
térmico, el número de osciladores representados por los puntos en el anillo será:

4.1.5.4
La integral no es más que el área del anillo elíptico y su valor se expresa en función de

estas coordenadas: . Los valores que toman estas coordenadas son los valores máximos
durante la vibración de un oscilador de energía E. En esta expresión de la Energía del oscilador,
para valores nulos de cada una de las coordenadas, se puede calcular la otra.

O sea si: sea si: , y , y para , por lo que

sustituyendo en la expresión del área :

4.1.5.5

Y poniendo en función de la frecuencias de los osciladores , se obtiene:

4.1.5.6

Por lo tanto, puede escribirse la expresión del número de osciladores como:

4.1.5.7
donde:

La energía promedio de los osciladores puede ser


hallada sumando sus energías individuales y
dividiéndolas por N. Para hacer esto,
consideramos una suma discreta. Si el plano x-p
se divide en anillos de igual área h y son
enumeradas desde 1,2,3,4,.... del centro hacia
fuera como ilustra la Figura 4.1.5.
Fig. 4.1.5: Partición del espacio de fases de la Figura
4.1.4.
El área total será , entonces teniendo en cuenta que , se obtiene la expresión de la

Energía:

4.1.5.8

El número de osciladores Nn sobre el n-ésimo anillo puede ser descrito por la siguiente expresión,

en la cual se ha considerado . Entonces:

4.1.5.9
La energía total E de los osciladores será entonces, aproximadamente:

4.1.5.10

Aplicando la expresión para el binomio:

4.1.5.11
De manera similar, se encuentra que:

4.1.5.12

Entonces es posible encontrar para la energía promedio de cada oscilador la siguiente expresión:

4.1.5.13

En esta expresión, si se analiza el caso límite de , se obtendrá y se llegaría a la


expresión de la Teoría de Rayleigh-Jeans.

Planck no supuso que , sino que supuso que h era de un valor finito. En la primera
formulación de su teoría, Planck asume que los osciladores asociados con un anillo dado, todos
poseen la energía propia asociada a ese anillo. De acuerdo con esta hipótesis, la energía de un
oscilador no puede variar continuamente, sino que toma valores discretos.

Al asumir valores discretos para la energía de un oscilador, se está completamente apartado de las
ideas clásicas. De acuerdo con todo esto, si la energía de un gran número de osciladores fuera

medida, se encontraría osciladores con energía de valores fraccionarios del producto . Por lo
tanto, la decisión de Planck presupone que la energía de los osciladores ha de cambiar rápida y
discontinuamente. Esto contradice las concepciones energéticas de la Física anterior.

Hasta el momento, en Mecánica, Termodinámica, Electromagnetismo, etc..., los sistemas físicos


intercambiaba la energía de manera continua. El calor, por ejemplo, se intercambiaba de manera
continua, y así infinidad de sistema según lo que se dio a llamar como la Física Clásica.

Si los osciladores solamente pueden variar u energía de manera discontinua, entonces los procesos
de absorción y emisión de la radiación deberán ser procesos discontinuos. De acuerdo con la
nueva teoría, la emisión solamente se produce cuando el oscilador "salta" de un estado a otro
estado menos energético y la absorción cuando el oscilador "salta" de un estado a otro más
energético. Esta hipótesis encontró grandes dificultades.

El mismo Planck reconsideró en varias oportunidades estos presupuestos teóricos que traerían
consecuencias tan drásticas en el pensamiento. Aún quedaban muchas incógnitas...el hecho de que
una porción discreta de energía radiante emitida por un oscilador, después se disperse en el
espacio según se esparce el frente de onda, era tan incomprensible como imaginarse que la energía
pueda ser reunida posteriormente para producir un salto cuántico en la absorción...En la primera
versión de la Teoría de Planck, la absorción era imposible, es por ello que para él la emisión se
hacía de manera discreta y la absorción de manera continua.

La experiencia posterior demostró que Planck se había equivocado y que tanto la absorción como
la emisión ocurrían de manera discreta. El efecto fotoeléctrico y el efecto Compton, poco después,
constituyeron prueba de ello.

Principales aportes de Planck:

No obstante a lo señalado anteriormente, los aportes de Planck fueron suficientes para modificar el
desarrollo ulterior de la Física.

Las ideas fundamentales de su teoría, los presupuestos fundamentales que supone y que pasaron a
la Historia como Hipótesis de Planck, pueden resumirse en las dos ideas s siguientes:

Hipótesis de Planck:

1. Un oscilador, o cualquier sistema físico similar, posee un conjunto de valores posibles de


energía (llamados niveles), de tal manera que las energías intermedias entre esos niveles nunca
podrán ocurrir.
2. La emisión y la absorción de la radiación están asociados con transiciones o saltos entre dos de
estos niveles; la energía perdida o ganada por el oscilador es emitida o absorbida
respectivamente como un cuanto de energía radiante hν siendo ν la frecuencia de la
radiación.
Las ideas de Planck significan una modificación empírica de ideas clásicas, realizada esta
modificación para brindar una deducción teórica de acuerdo con los experimentos.

¿Cómo la Teoría de Planck resuelve la Catástrofe del Ultravioleta?

Planck deduce la expresión para la radiancia espectral teniendo en cuenta la expresión obtenida
para los modos de vibración o grados de libertad para el campo dentro de la cavidad tratada como
si ellos fueran osciladores.

La expresión 4.1.4.5 del epígrafe anterior: , son los modos de oscilación o grados de

libertad por unidad de volumen en el intervalo de longitudes entre y . Podría efectuarse

el producto de esta expresión por la energía promedio de cada oscilador <E> y se obtendría la

siguiente igualdad:

4.1.5.13

Entonces, en función de las longitudes de onda:

4.1.5.14
Esta expresión es la conocida Fórmula de
Planck de la Radiación Térmica ó del
Cuerpo Negro.

Como muestran las gráficas en la Figura


4.1.6 existe una correspondencia entre la
Teoría de Planck y los resultados
experimentales.

Es por ello que puede decirse que el


problema de la Radiación Térmica o del
Cuerpo Negro tiene solución con la
Fig. 4.1.6: Comparación entre la curva experimental del cuerpo Teoría de Planck, o lo que es lo mismo,
negro y la Fórmula de Planck
con la Teoría Cuántica de la Luz.
A partir de la Fórmula de Planck no es difícil obtener las comprobadas expresiones de la Ley de
Desplazamiento de Wien y la Ecuación de Stefan-Boltzman. Por lo tanto, si de esta teoría
desarrollada por Planck fue posible, además de explicar la Catástrofe del Ultravioleta, puede
constituir la base teórica de dos leyes fenomenológicas como Ley de Desplazamiento de Wien y la
Ecuación de Stefan-Boltzman, es ya una prieba irrfutable de su validez.

Algunos comentarios importantes.

Sobre el significado físico de la Constante de Planck: Si importante es la solución al problema


de la Radiación Térmica o del Cuerpo Negro, igualmente importante es la trascendencia del
pensamiento de Max Planck en toda la Física ulterior. Se inicia con la Teoría de Planck la futura
Física Cuántica y el tema de la cuantificación comienza a crear todo un nuevo contexto.

Se incorporó al listado de las Constantes Universales una nueva constante, aquella que fue
introducida al asociar en el espacio x-p de fases, los osciladores con idéntica energía. El valor de
esta constante denominada Constante de Planck, en homenaje al autor de esta importante
hipótesis, comienza a aparecer en la solución de incontables problemas no solo de la Física sino de
otras Ciencias.

Independientemente que el valor de la Constante de Planck puede obtenerse a partir de los

resultados experimentales , también puede obtenerse a partir de las leyes de


Wien y de Stefan-Boltzman.
La constante h posee unidades de una magnitud física llamada acción y que se define como:

4.1.5.15

Es una variable angular de acción, donde son las coordenadas y momentos generalizados

respectivamente. Las
.

Sobre el valor de la Constante de Planck:

En el tratamiento cuántico del cuerpo negro, la emitancia espectral en función de la longitud de


onda:

Y equivalentemente en función de la frecuencia:

4.1.5.16

Se puede identificar que es la expresión general, aquella que de manera ilustrativa permite
comprender los puntos de unión de ambas teorías:

4.1.5.17

O sea, que es el valor de el que determina a fin de cuentas la posición científica al resolver el
problema teórico:

• si se toma que el valor promedio de la energía de los osciladores en al caso límite de

es , se obtiene la expresión de Rayleigh-Jeans, que supone la variación de

energía en forma continua. En efecto, , por lo que:


• y si se toma se llega a la fórmula de Planck:

Ahora bien, al tratar de graficar y comparar estas expresiones , es útil realizar los siguientes
análisis:

Para corroborar la Ley de Desplazamiento de Wien, se introduce la función x:

4.1.5.18

La longitud de onda corresponderá con un máximo para la condición:

que al resolver numéricamente proporciona el valor . Esta solución se obtiene al

expresarse la emitancia espectral como , que al derivar lleva a la siguiente ecuación:

Entonces al volver a la expresión de emitancia espectral:

4.1.5.19

Las mediciones aportan valores para la constante de Stefan-Boltzman que es deducida de la Teoría

Cinética Molecular y por lo tanto puede obtenerse el valor: .

Tomando: , , pueden obtenerse tres curvas que representan: la fórmula que

Wien que éste había propuesto en 1896 de manera empírica, la solución limitada a las bajas

frecuencias obtenida por Rayleigh-Jeans, y la exitosa Fórmula de Planck y que se presentan en la

Figura 4.1.7 por la conveniente expresión siguiente:


4.1.5.20

La Radiación Térmica en equilibrio, en conclusión,


no dependerá ni de la forma ni del material que
forma las paredes de la cavidad. Será una radiación
homogénea, isotrópica y no polarizada.
Fig. 4.1.7: Comparación entre la Fórmula de Planck,
la empírica expresión de Wien y la incompleta
Expresión de Rayleigh-Jeans.

4.1.6.- La zona infrarroja del espectro electromagnético.

Del espectro electromagnético, la zona infrarroja constituye una zona de gran interés desde el
punto de vista tecnológico.

La zona visible está comprendida entre 0,38 µ m (violeta) y 0,76 µ m (rojo). Aquí en los 0,76
µ m comienza la zona infrarroja siendo el límite superior hasta unas centenas de µ m y en
dependencia de los principios de detección es este límite variable entre 400 µ m, 100 µ m y hasta
20 µ m.

El infrarrojo es la radiación más vulgar, la que se encuentra en abundancia en los espectros de


emisión de casi todas las fuentes luminosas, incluso las menos calientes. Esta radiación interviene
en todo equilibrio térmico pues es uno de los procesos de intercambio de calor, además de la
conducción y la convección.

Las radiaciones infrarrojas que tienen relación con las aplicaciones térmicas corresponde con una
zona relativamente reducida , sin embargo las aplicaciones térmicas es una de las más
importantes.

Existen variadas fuentes de radiación infrarroja:

• El Sol, fuente de vida, es una fuente que radia su energía en forma de luz y más que nada
en infrarrojo.
• Las lámparas incandescentes transforman en infrarrojo la mayor parte de la energía que se
les suministra.
• Los hornos, las estufas y los radiadores en general son fuentes de infrarrojo por excelencia.
• Los seres vivos realizan como base de su existencia un conjunto de procesos metabólicos
durante los cuales se disipa energía en forma de radiación, fundamentalmente de
infrarrojo.

El infrarrojo posee una serie de aplicaciones en la Ciencia y la Tecnología:

• La Espectroscopía Infrarroja es una técnica experimental que ha proporcionado datos


importantes acerca de la estructura y composición de las sustancias. Los espectros de los
gases atómicos poseen su emisión en la parte visible del espectro y poseen líneas bastante
bien definidas, ya en espectros de las moléculas se localizan en la zona infrarroja del
espectro y se disponen en bandas de energía. A medida que crece la complejidad de la
estructura atómica, crece la importancia de esta zona no visible del espectro
electromagnético y la necesidad de desarrollar técnicas que permitan una mayor calidad
del estudio del espectro.
• La Fotografía Infrarroja como rama importante de la Fotografía Científica. Para ello ha
sido necesario el desarrollo de emulsiones fotográficas sensibles a esta zona del espectro
electromagnético que pone de manifiesto un aspecto nuevo de los objetos fotografiados.
De importancia se encuentra la aplicación al Reconocimiento Multiespectral, en la cual lo
mismo desde aviones como desde naves cósmicas se fotografía la Tierra. En esta técnica se
superponen imágenes en diferentes zonas del espectro visible (desde el violeta hasta el
rojo) con imágenes infrarrojas y se extraen datos muy importantes de las zonas
fotografiadas.
(a) (b)
Fig. 4.1.8: Fotos aéreas de una zona del litoral norte de La Habana, proporcionadas por una cámara multiespectral
para: (a) un canal rojo, y (b) un canal infrarrojo.
• La detección de diferencias de temperaturas por diferencias de emisión de infrarrojo con

detectores ultrasensibles permiten descubrir la presencias de objetivos incluso pequeños y


con diferencias de temperaturas con la temperatura ambiente de diferencias de hasta de 10
C.

Fig. 4.1.9: La fotografía infrarroja


permite conocer el perfil de
temperatura durante diferentes
procesos. Se muestran fotos
infrarrojas de diferentes objetos
durante los ensayos de calidad.

(a) neumáticos (b) motor de una motocicleta


• Existen lentes y telescopios que operan como convertidores de imágenes, como por
ejemplo las miras infrarrojas de anteojos de uso militar.
• Los sensores utilizados en los sistemas de comunicación remoto para el
encendido/apagado de televisores, grabadoras, etc.

4.2.- Efecto fotoeléctrico externo.

Posterior a la solución del problema de la Radiación Térmica ó Radiación de Cuerpo Negro,


fueron diversos los problemas que pudieron ser resueltos a partir de la Teoría Cuántica de la Luz.

Aún cuando Planck introdujo su hipótesis (Hipótesis de Planck) para el caso de la emisión de la
radiación, también fue un aporte considerar que durante la absorción también ella es aplicable.
El valor del cuanto de energía luminosa, esto es, el cuanto de energía electromagnética, como
característica de los osciladores, no dependerá de la temperatura (característica macroscópica)
sino que dependerá solamente de las frecuencias propias de éstos.

Interpretando en toda su amplitud esta idea, Albert Einstein fue el primero en ampliarla en la
explicación del efecto fotoeléctrico externo, y realiza una extensión de la misma en su convicción
de que es la luz era también un conjunto de cuantos de energía.

La idea de los cuantos de energía constituyó el punto de partida al razonamiento de Louis de


Broglie sobre la dualidad de la materia, en específico, el comportamiento dual de las
micropartículas, primer resultado teórico que dio paso a la Mecánica Cuántica.

El efecto fotoeléctrico es utilizado hoy día como base de funcionamiento de un variado


equipamiento. Sensores y celdas solares utilizan este principio aún en el caso de los
semiconductores en el denominado efecto fotoeléctrico interno, el más utilizado.

4.2.1.- Resultados experimentales del efecto fotoeléctrico externo.

En 1887 fue Hertz el primero en observar los efectos de la incidencia de un haz de luz sobre dos
superficies metálicas, en este caso dos esferas de zinc entre las cuales ocurrían descargas
eléctricas. Estas descargas se producían con mayor facilidad si una de ellas se iluminaba con un
haz de luz ultravioleta.

En 1888, Hallwachs encuentra que si se ilumina con un haz de luz ultravioleta una superficie
pulida de plata, ésta pierde su carga si está inicialmente cargada negativamente, pero la retiene si
ésta fuera positiva. Después comprobó que, para una placa neutra, ésta se convierte en positiva
debido a la radiación. Por lo tanto se asoció la expulsión de carga negativa al proceso de
incidencia de la luz en una placa neutra.

En 1890 Stolietov demostró que pasará una corriente continua entre la placa y la rejilla si la
primera se hace negativa. Se observó una corriente fotoeléctrica que fluye bajo condicione de
vacío. Se concluyó que la fotocorriente era debido al movimiento de portadores negativos.

En 1900 Lenard realiza un experimento sobre el efecto fotoeléctrico que provocaba una corriente
eléctrica entre una amalgama de sodio y un alambre de Platino. Se comprobó la naturaleza
negativa de los portadores de carga precisando que éstos eran electrones.
El estudio diferenciado de este fenómeno con respecto a la longitud de onda de la luz fue realizado
según el esquema de Hughes en 1912.

(a) (b)

Fig. 4.2.1: Experimento de Hughes del efecto


fotoeléctrico realizado en 1912.

(a) esquema experimental

(b) característica voltampérica del material iluminado


con luz monocromática.

(c) dependencia lineal del voltaje de corte respecto a


(c) la frecuencia de la luz incidente.

Fue irradiada la superficie metálica M con luz monocromática y medida la corriente que llegaba al
colector C como función del voltaje aplicado entre M y la rejilla C. Para voltajes positivos la
corriente es cercanamente constante pero para voltajes negativos la corriente cae y corta la curva
en cierto valor de voltaje.

Hughes demostró que este voltaje era una


función lineal de la frecuencia de la luz
incidente y Millikan en 1916 que la pendiente

de la curva era igual a

Este resultado corroboró el análisis de Einstein


que desde 1905 planteó desde el punto de vista Fig. 4.2.2: Esquema actual del experimento del fotoefecto
teórico y que en un próximo epígrafe será externo.

estudiado detalladamente.
Para completar el análisis del efecto fotoeléctrico, se analizarán los resultados que se utilizan en el
arreglo experimental similar al utilizado por Hughes y se completará el mismo. El clásico
experimento del efecto fotoeléctrico se ilustra en el esquema de la Figura 4.2.2. Un bulbo al vacío
posee dos electrodos que consisten en dos placas metálicas y a las cuales se aplica una diferencia
de potencial en dos regímenes de polaridad: en directa y en inversa. En ambas situaciones un
voltímetro y un amperímetro registran los valores de las magnitudes diferencia de potencial entre
los electrodos e intensidad de la corriente eléctrica.

Cuando se aplica una diferencia de potencial entre las placas no se observa circulación alguna de
corriente eléctrica, aunque la diferencia de potencial se incremente considerablemente y se
invierta o no su sentido.

• Sólo basta que se ilumine la placa K con una luz adecuada para que el amperímetro
detecte el paso de una corriente eléctrica de manera instantánea. Los estudios
realizados permitieron asegurar que esta corriente era originada por un conjunto de
electrones que emergían del electrodo K (cátodo) y llegaban al electrodo A (ánodo) y que
eran arrancados del electrodo K y llamados fotoelectrones. Mediciones precisas permiten
asegurar que el tiempo que transcurre desde el comienzo de la incidencia de la radiación
luminosa hasta la aparición de la corriente fotoelétrica no es mayor que 10-9 s.

• La intensidad de corriente eléctrica que


surge entre los electrodos K y A, cuando la
composición espectral (frecuencia) y la
potencia de radiación (intensidad)
permanecen constantes, depende de la
diferencia de potencial V=V1-V2 que existe
entre los electrodos. La característica volt-

Fig. 4.2.3: Característica voltampérica bajo la


ampérica , o curva i-V para el caso en que la
incidencia de una haz que provoque fotoefecto externo. lámina se ilumine con luz monocromática,
se muestra en la Figura 4.2.3.
• Al aumentar la diferencia de potencial acelerador, la corriente eléctrica llega a la
saturación. Ésta corriente llega a la saturación isat cuando todos los electrones arrancados a
la lámina K por la luz, llegan al electrodo A
• Existe un valor de diferencia de potencial retardador para el cual cesa la corriente eléctrica
i. Éste es el denominado Potencial de Corte Vc.

Si la intensidad del haz luminoso aumenta sin


variar su frecuencia, se obtienen curvas como la
representada en la Figura 4.2.4:

• La corriente de saturación isat es


directamente proporcional a la potencia del flujo
luminoso que incide sobre la lámina.

• El valor del potencial de corte es el Fig. 4.2.4: Característica voltampérica de una fotocelda
para diferentes valores de intensidad luminosa del haz
mismo si no varía la frecuencia del haz que mantienen la misma frecuencia.

incidente.

Ahora se hace incidir radiaciones luminosas de frecuencias variables. El valor del voltaje de corte
varía con la frecuencia según indica la gráfica de la Figura 4.2.5.

• La relación entre voltaje de corte y frecuencia


es lineal.

• Existirá un valor umbral de frecuencia por


debajo de la cual deja de ocurrir el efecto
fotoeléctrico externo. A este valor se llama
frecuencia de corte. La longitud de onda
Fig. 4.2.5: Variación del voltaje de corte con la correspondiente se denominará, de manera
frecuencia de la radiación incidente.
similar, longitud de onda de corte.

• Se comprueba que para diferentes materiales del cátodo, y diferentes grados de rugosidad
de esta superficie, serán diferentes las frecuencias umbrales ó frecuencias de corte.

4.2.2.- Contradicciones entre el experimento y la Teoría Ondulatoria Electromagnética de la


luz.
Hasta el momento en que Einstein estudia el problema del efecto fotoeléctrico, la Teoría
Ondulatoria Electromagnética que recientemente había proporcionado Maxwell, permitía explicar
toda una serie de fenómenos de la propagación.

Aún cuando el aporte de Planck había sido dado a conocer al mundo científico, no se había
comprendido con amplitud lo que encerraba para el futuro la Hipótesis de Planck.

Es por ello que resulta instructivo analizar en detalle dónde radican las contradicciones que
demuestran lo improcedente de la teoría ondulatoria para explicar el efecto fotoeléctrico.

Según los postulados de la Teoría Ondulatoria Electromagnética de Maxwell se podrían aportar


los siguientes razonamientos relativos al experimento del efecto fotoeléctrico:

Sólo basta que se ilumine la placa K con una luz adecuada para que el amperímetro detecte
el paso de una corriente eléctrica de manera instantánea.

• El tiempo necesario para que un átomo pueda acumular la energía que hace falta para que
se desprenda un electrón puede ser bastante grande cuando la iluminación de la onda es
pequeña. El átomo estaría extrayendo energía de la onda hasta que acumule la energía
suficiente como para poder expulsar el electrón. Entonces al inicio, y durante bastante
tiempo, no aparecerán fotoelectrones y por tanto no aparecerá fotocorriente. Después, un
enorme número de átomos emitirán fotoelectrones al mismo tiempo.

En realidad esto no ocurre así. La emisión de fotoelectrones es casi instantánea, es como si


la energía requerida para que ocurra fotoefecto llegara de golpe, instantáneamente al átomo y
éste la absorbiera para poder salir de esta estructura atómica.

El valor del potencial de corte es el mismo si no varía la frecuencia del haz incidente.

• Una onda luminosa al incidir sobre un cuerpo deberá provocar en los electrones de dicho
cuerpo, oscilaciones forzadas de amplitud proporcional a las amplitudes de las propias
ondas luminosas. Si las fuerza que sujetan a los electrones dentro del cuerpo no fueran lo
suficientemente intensas, los electrones podrán escaparse al exterior con una velocidad que
dependerá de la amplitud de la onda incidente. Se conoce que la amplitud de las ondas
luminosas, es decir, las amplitudes de los vectores intensidad de campo eléctrico e
inducción magnética, determinan la potencia del flujo luminoso, es decir, la intensidad de
la luz. Por lo tanto al aumentar la intensidad de la luz incidente, independientemente de
que el valor de la frecuencia de la luz no cambie, según la Teoría Ondulatoria
Electromagnética de Maxwell la velocidad de los electrones desprendidos debería
aumentar; y con la velocidad de los fotoelectrones debería consecuentemente aumentar el
valor del voltaje de corte.

En realidad esto no ocurre. Al aumentar la potencia de la luz incidente, lo que aumenta es la


cantidad de electrones que se desprenden; la velocidad de los electrones depende
exclusivamente de la frecuencia de la luz, siendo esta dependencia lineal.

Existirá un valor umbral de frecuencia por debajo de la cual deja de ocurrir el efecto
fotoeléctrico externo.

• Al aumentar la intensidad de la luz incidente, según la Teoría Ondulatoria


Electromagnética de Maxwell, siempre será posible lograr arrancar electrones de la
superficie. Todo dependerá Siempre será posible arrancar electrones de la superficie de
cualquier sustancia. El átomo estaría extrayendo energía de la onda hasta que acumule la
energía suficiente como para poder expulsar el electrón. Con un tiempo suficiente, toda
superficie, por más sujetos que tengan los electrones, siempre.

Esto en realidad no ocurre así. Solamente ocurrirá fotoefecto para valores mayores que
cierta frecuencia umbral que dependerá de la sustancia que constituye a la superficie metálica
iluminada

4.2.3.- Teoría Cuántica de la luz en el efecto fotoeléctrico.

Los tres resultados referidos en el epígrafe anterior, y que constituyen contradicciones con la
Teoría Ondulatoria Electromagnética de Maxwell, pueden ser explicados en base a la Teoría
Cuántica de la Luz, iniciada por Planck y completada por Einstein.

A Einstein se debe la explicación de este fenómeno del efecto fotoeléctrico.

Según Einstein, la luz viaja por el espacio en paquetes concentrados de energía llamados fotones.
La energía de un solo fotón se expresa mediante la expresión utilizada por Planck en su Hipótesis:
Al incidir los fotones en la superficie del metal, se produce una interacción fotón-electrón de la
red cristalina. Los electrones en el metal se encuentran en un pozo de potencial como muestra la
Figura 4.2.6.

Fig. 4.2.6: Pozo de potencial de los electrones para el caso del efecto fotoeléctrico externo.

. Los electrones más superficiales justamente podrían salir de este pozo para el caso de
Si
una frecuencia de la luz incidente justa para la cual la energía del fotón coincida con la función
trabajo de extracción.

Si , caso en que la energía del fotón exceda el requerimiento energético del trabajo de
extracción, la energía excedente quedará como energía de los fotoelectrones.

Los electrones más ligados a la estructura electrónica de la red cristalina, o sea, aquellos más
profundo en el pozo de potencial, requerirán mayor energía para salir del metal. Es por ello que les
restará una energía cinética menor. Entonces los fotoelectrones emitidos estarán en un rango de
energía cinética amplio .

Aplicando el Principio de Conservación de la Energía a la interacción fotón-electrón, deberá


cumplirse para los más veloces:

La energía potencial justa para la anulación de la fotocorriente sería igual a la energía cinética de
los fotoelectrones emitidos:
Entonces:

Como puede comprobarse, pueden ser explicados los tres resultados experimentales
fundamentales que constituyeron contradicciones con la Teoría Ondulatoria Electromagnética.

• Solamente ocurrirá fotoefecto para valores mayores que cierta frecuencia umbral
que dependerá de la sustancia que constituye a la superficie metálica iluminada.

La explicación es simplemente de carácter energético. O sea, basta que el fotón incidente


posea energía superior a la función trabajo de extracción, para que sea posible la emisión
del fotoelectrón más lento, aquél de energía cinética nula.

• La emisión de fotoelectrones es casi instantánea, es como si la energía requerida para


que ocurra fotoefecto llegara de golpe, instantáneamente al átomo y éste la
absorbiera para poder salir de esta estructura atómica.

Los fotones incidentes interaccionan uno a uno con los electrones de la red. La emisión de
los fotoelectrones, de ser posible energéticamente el efecto fotoeléctrico, se realiza
instantáneamente, abruptamente.

• Al aumentar la potencia de la luz incidente, lo que aumenta es la cantidad de


electrones que se desprenden; la velocidad de los electrones depende exclusivamente
de la frecuencia de la luz, siendo esta dependencia lineal.

Aquí es necesario razonar como queda la expresión de la Intensidad del haz de fotones. Si

la energía de cada cuanto es , la energía de un haz de cuantos de energía

radiante sería: siendo N el número de cuantos. Entonces la intensidad luminosa

podría expresarse en función del total de fotones por unidad de área: , es decir el

número de cuantos por unidad de área, por lo que:


4.2.1.

Esta explicación le valió a Einstein el Premio Nóbel en 1921.

4.3.- Luz y estructura atómica.

La mayoría de los objetos se ven gracias a la luz que reflejan.

Las fuentes luminosas emiten luz de características muy diversas que estarán en fuerte
dependencia con los mecanismos internos de generación luminosa.

Todas las propiedades de la radiación luminosa como la coherencia, la monocromaticidad, el


estado de polarización y la direccionalidad, están relacionadas de manera estrecha con la
naturaleza de la fuente que la produce.

Es el mecanismo de emisión decisivo en las propiedades de los trenes de onda y/o fotones
emitidos por una fuente luminosa. Existen algunas fuentes de radiación naturales y otras
artificiales que han sido construidas por el hombre. Los mecanismos de emisión son variados y
todos asociados a procesos a nivel microscópico.

En los epígrafes anteriores se estudió un mecanismo de emisión, el de Radiación Térmica. De ese


estudio nació la Física Cuántica, y con ella la necesidad de incorporar una nueva visión del mundo
físico.

No es posible encontrar explicación sobre los motivos de las diferentes propiedades de la


radiación sin acudir a este enfoque cuántico, por cuanto es a nivel microscópico que se genera la
radiación luminosa.

MECANISMO
FUENTE FÍSICO DE PROPIEDADES
EMISIÓN

SOL FUSIÓN NUCLEAR LUZ BLANCA, INCOHERENTE, AMPLIO ESPECTRO


DE FRECUENCIAS
LUZ BLANCA, INCOHERENTE, ALTO CONTENIDO
LLAMA COMBUSTIÓN
DE INFRARROJO
LÁMPARA DE ARCO LUZ BLANCA, INCOHERENTE, ALTO CONSUMO,
ARCO ELÉCTRICO
ELÉCTRICO EMITE INFRARROJO Y ULTRAVIOLETA
LUZ BLANCA, INCOHERENTE, ALTO CONTENIDO
LÁMPARA INCANDESCENTE EFECTO JOULE
DE INFRARROJO
LÁMPARA FLUORESCENTE LUMINISCENCIA VARIADA COMPOSICIÓN ESPECTRAL,
INCOHERENTE, MUY BAJO CONTENIDO DE
INFRARROJO
LUZ CON EMISIÓN ESPECTRAL SELECTIVA, A
EMISIÓN
LÁMPARA DE DESCARGA DIFERENTES LONGITUDES DE ONDA EN
ESPONTÁNEA
DEPENDENCIA DEL GAS
DIODO DE
EMISIÓN CIERTO GRADO DE MONOCROMATICIDAD, CON
SEMICONDUCTOR
ESPONTÁNEA CIERTA DIRECCIONALIDAD
ELECTROLUMINISCENTE .
EMISIÓN ALTA MONOCROMATICIDAD, ALTO GRADO DE
LÁSER
ESTIMULADA COHERENCIA, GRAN DIRECCIONALIDAD
Tabla 4.3.1: Caracterización de los diferentes tipos de fuentes luminosas.

En base a los procesos de Radiación Térmica pueden explicarse los principios de funcionamiento
de algunos tipos de fuentes luminosas, como las fuentes incandescentes.

Para explicar las fuentes de descarga por emisión espontánea y el láser, sin embargo, es necesario
acudir a la estructura atómica y estudiar la relación de esta estructura con sus espectros.

4.3.1.- Antecedentes históricos del estudio de los espectros atómicos

El desarrollo de instrumentos ópticos permitió, desde finales del siglo XIX, estudiar la
composición espectral de la radiación emitida por la fuentes luminosas naturales y aquellas que el
hombre construía en su afán de extender a la noche las posibilidades de iluminación del día.

Los espectroscopios y espectrómetros permitieron conocer las componentes del espectro


electromagnético que cada tipo de fuente luminosa emitía, al menos, en la zona visible del
espectro si era observado directamente por el hombre con su sensor óptico por excelencia: el ojo.

Desde la época de Newton era conocido el espectro de la luz blanca. Este espectro era conocido
como un espectro continuo. La luz solar, la luz proveniente de la luz de una vela, o la luz
proveniente de las lámparas de combustión que fueron las primeras construidas por el hombre,
proporcionaban espectros de características similares.

Se conocía incluso que los cuerpos sólidos calentados emitían un espectro continuo. Como se
ilustra a continuación, el espectro continuo es un conjunto continuo de rayas espectrales
características de determinado tipo de radiación luminosa.
(a) sol (b) lámpara fluorescente

(c) lámpara incandescente (d) luz boreal


Fig. 4.3.1: Espectros continuos correspondientes a diferentes fuentes de luz blanca.

A finales del siglo XIX ya se había construido, además de la


de combustión, la lámpara incandescente basada en el Efecto
Joule. El paso de una corriente eléctrica por un filamento
permitía obtener una radiación luminosa de color blanco
amarillento que se hacía acompañar con una alta disipación de
calor.

El espectro asociado a la luz incandescente, como se le llamó


posteriormente, también poseía un carácter continuo.

La patente correspondiente le fue reconocida a Tomás Alba


Edison.

Además de la radiación correspondiente a una ancha banda


que cubría casi toda la zona visible del espectro
Fig. 4.3.2: Boceto de diseño de la
lámpara incandescente de Edison. electromagnético, este tipo de emisión contenía evidentemente
una amplia contribución de la zona infrarroja del espectro
electromagnético.

El desarrollo de los fotodetectores permitió la construcción de dispositivos que podían medir


diferentes magnitudes fotométricas y energéticas, incluso en las zonas no visibles del espectro
electromagnético. Este equipamiento de medición permitió, unido al desarrollo de la
Espectroscopía, el conocimiento detallado del "peso" relativo energético por intervalos de
longitud de onda ó como se le llamó posteriormente: la emitancia espectral.

Aún cuando todos los espectros de las fuentes de combustión, de arco, y de incandescencia son
espectros continuos, éstos se diferencias en el diferente perfil de la emitancia espectral, o sea, la
emitancia para diferentes longitudes de onda.

El aspecto de la luz emitida por todas estas fuentes luminosas acuñó la denominación de la luz que
contiene todas las longitudes del espectro visible: "luz blanca".

No fue hasta inicios del siglo XX que se desarrolló un tipo de fuente luminosa que se diferenciaba
de las fuentes anteriores, en que el haz luminoso emitido por ella se identificaba por un color
dominante.El principio de funcionamiento de estas lámparas era la aplicación de una descarga
eléctrica a través de dos electrodos colocados dentro de un ámpula de vidrio a presión muy baja.

A inicios del siglo XX se construyó la lámpara gaseosa de Neón. La apariencia de esta lámpara se
conocía por su color rojizo. Ésta lámpara de Neón que emitía luz rojiza, y la lámpara de Minin que
emitía luz azulada, impulsaron el desarrollo de la Fototerapia en Occidente con muy buenos
resultados.

De cierta manera se colocaba el gas de determinada sustancia dentro del ámpula ó se propiciaba la
producción del vapor de un sólido.

El estudio energético y fotométrico de la radiación emitida por estas lámparas de descarga,


permitió descubrir los espectros de bandas, como el del hidrógeno. Así ocurría con los gases
moleculares apareciendo bandas continuas separadas entre sí por zonas de no emisión.

Fig. 4.3.3: Espectro del hidrógeno molecular (H2). Se muestra una banda extensa en la zona violeta y azul del espectro ,
un espacio oscuro y a continuación un conjunto de rayas en la zona de bajas frecuencias del espectro visible.

Fig. 4.3.4: Espectro de rayas correspondiente al gas hidrógeno ionizado, es decir, hidrógeno atómico. A pesar de ser
hidrógeno, existen marcadas diferencias que permiten adelantar la relación del espectro con la estructura atómica.

Esta situación se repite en los gases monoatómicos. Éstos tienen asociadas las rayas espectrales
correspondientes a diferentes transiciones electrónicas en el diagrama de niveles de energía
asociado al elemento en cuestión. Cada transición constituye una raya espectral. Al conjunto de
rayas espectrales correspondiente se le denomina: espectro discreto.

Fig. 4.3.5: Espectros discretos de diferentes sustancias obtenidos en lámparas de descarga eléctrica. En todos los casos se
destacan las líneas más intensas del espectro correspondiente. (a) Sodio , (b) Neón y (c) Mercurio.

El elemento atómico más simple es el hidrógeno, de ahí que fuera desde el inicio el más estudiado.
El espectro del hidrógeno fue la inspiración de muchos en el ansia de explicar los motivos
estructurales atómicos de este tipo de radiación policromática.

Como la posición de las líneas espectrales se caracteriza por la longitud de onda ó la frecuencia,
fue un objetivo para poder describir los espectros de las sustancias, poder determinar las
longitudes de onda respectivas. Como aún no se conocía con aceptable exactitud el valor de la
velocidad de la luz, se prefirió utilizar la longitud de onda.

Cuando más, en 1890 Rydberg, uno de los iniciadores de la Espectroscopía, introdujo el concepto

de numero de onda: .

La Espectroscopía, como rama de la Óptica, surgió con el objetivo de estudiar los diferentes
espectros. En este estudio se pretendía obtener las expresiones analíticas de los diferentes términos
espectrales. Uno de los resultados más importantes fue establecido en 1908 por Ritz y se
denominó principio de combinación de Ritz. Establece que los números de onda de los
diferentes componentes del espectro de cierta sustancia puede ser expresado por medio de
combinaciones de un número menor de magnitudes, denominadas términos espectrales. El
principio de Ritz establece:

4.3.1

Los valores de T son positivos y con el aumento de n, T disminuye. Si se fija el valor de n1 , los

valores de n2 comenzarían a partir de n1 + 1 . Al conjunto de líneas obtenidas se le denomina serie


espectral. Claro que para diferentes valores finales de n2, existirán diferentes conjuntos de
valores posibles de combinaciones. Por lo tanto, para cada caso podrían existir diferentes series
que conformarían todas el espectro del átomo en cuestión.

No obstante se verificó experimentalmente que no todas las rayas espectrales predichas por el
principio de combinación de Ritz se encuentran. Esto permite justificar un concepto que
posteriormente tuvo otra explicación, y que se refiere a l existencia de determinadas limitaciones
en la combinación de los elementos espectrales que constituyen las llamadas reglas de selección.

El estudio espectroscópico del hidrógeno atómico permitió a Balmer, ya desde 1885, formular la
siguiente expresión analítica para los términos Tn en el caso del hidrógeno y para los números
enteros n=1, 2, 3,...:

4.3.2

Aquí se introduce una constante universal llamada Constante de Rydberg en honor a este famoso
espectroscopista. Válida para los isótopos de hidrógeno R=109677.576 cm-1 , toma otros valores
muy parecidos para el caso de los monoelectrónico.

Diferentes espectroscopistas descubrieron cada una de las series espectrales del hidrógeno que se
detallan a continuación:

Año del Nombre de


Número de onda Espectro
descubrimiento la serie

1916 Lyman ; n=2,3,4,... ultravioleta

1885 Balmer ; n=3,4,5,... visible y ultravioleta cercano

1908 Pashen ; n=4,5,6,... infrarrojo

1922 Brackett ; n=5,6,7,... infrarrojo

1924 Pfund ; n=6,7,8,... infrarrojo

Tabla 4.3.2: Series espectrales del hidrógeno atómico.


Es interesante señalar que la Serie de Paschen fue predicha por Ritz unos meses antes de ser
descubierta en 1908.

Pueden encontrarse los extremos de las diferentes series que corresponderán a la y a la

de cada serie espectral del hidrógeno, o sea a la transición menor ( ) y a la mayor

transición que parte del valor de . En este limite las líneas se acercan y sus intensidades

disminuyen sensiblemente.

Todo este análisis que intentaba encontrar una relación combinatoria entre los valores de las
longitudes de onda o entre los números de onda, no deja de ser solamente un aspecto interesante
del problema. Indudablemente no existía detrás un basamento teórico sino un intento descriptivo
de los espectros. Aún estos no eran interpretados en términos de la cuantización de la energía y
esto no fue posible hasta que Planck y Einstein propusieron el concepto de fotón.

Conocida la Hipótesis de Planck y el aporte de Einstein a la Teoría Cuántica de la Luz, permite


pensar en que los átomos y las moléculas, por ser lo que interesa en este momento, son sistemas
emisores o absorbedores de la radiación y se encuentran en ciertos estados caracterizados por
energía discretos. De la misma manera, la energía emitida o absorbida corresponderá a las
transiciones entre dichos estados discretos.

No obstante a lo anterior, era necesaria una teoría sobre la estructura atómica que explicara de
manera precisa el carácter discreto de los espectros.

Niels Bohr en 1913 introdujo la discretización en el átomo, similar a como Planck y Einstein
hicieron en relación a los procesos de emisión y absorción de la luz.

Con insuficiencias e incompletitudes, el modelo de Bohr permitió describir el espectro del


hidrógeno y avanzar en la concepción mecanocuántica de las transiciones energéticas.

4.3.2.- Estados estacionarios y Postulados de Bohr.

Cuando una onda electromagnética interacciona con un sistema de cargas como un átomo, una
molécula o un núcleo, los campos eléctrico y magnético de la onda perturban el movimiento de las
cargas. En el lenguaje de la Física Clásica, se puede decir que la onda impone una oscilación
forzada sobre el movimiento natural de las cargas. Resulta, por tanto, que ocurre una absorción de
energía por parte del sistema de cargas. El oscilador clásico responderá con mayor facilidad
cuando la frecuencia de las oscilaciones forzadas sea la misma que la frecuencia natural y se
suscita una situación conocida como resonancia. En condiciones de resonancia, el oscilador
absorbe la energía con rapidez máxima.

Salvo esta anterior selectividad, no existe preferencia alguna con las frecuencias. Pero se conoce
experimentalmente que existe una estrecha relación entre la naturaleza del sistema y los
requerimientos energéticos para que ocurra la interacción.

Las diferentes características y propiedades de las fuentes luminosas, entendidas como su espectro
asociado a cada una de ellas, demostraban desde un inicio la necesidad de una explicación
satisfactoria.

Siguiendo el razonamiento en función de la resonancia, puede avanzarse en esta explicación y


llegar a el basamento conceptual de una teoría cuasiclásica y cuasicuántica que marcó un hito
importante en el desarrollo posterior de la Física: la Teoría de Bohr.

Se encuentra experimentalmente que cualquier conjunto de cargas- átomos, moléculas y núcleos

en general- posee un conjunto de frecuencias resonantes para las cuales la absorción


de radiación electromagnética es apreciable, ocurriendo para otras frecuencias una absorción casi

despreciable. A las frecuencias se les denomina espectro de absorción de la


sustancia. Si el sistema inicialmente se encuentra en un estado estable de mínima energía llamado
estado básico. Entonces, cuando el sistema absorbe la radiación electromagnética, éste pasa hacia
otro estado de mayor contenido energético llamado estado excitado. Para el caso del
razonamiento clásico que se está realizando, el estado excitado corresponderá a un estado de
mayor amplitud de las oscilaciones.

Si el sistema de cargas se encuentra en un estado excitado, éste puede liberar su exceso de energía
en forma de radiación electromagnética. Las frecuencias observadas en la radiación emitida
constituyen el llamado espectro de emisión del sistema de cargas.

La experiencia muestra que las frecuencias observadas en el espectro de absorción del


sistema de cargas son también observadas en el espectro de emisión del sistema. Por ejemplo,
los átomos de sodio muestran una absorción preferencial de luz en la frecuencia 5,9 . 1014HZ o
longitud de onda igual a 5,89.10-7m. Estos valores precisos de frecuencia y longitud de onda de la
luz amarilla emitida por una lámpara de vapor de sodio.

Pero indudablemente, se requiere una explicación convincente acerca de la discontinuidad de los


espectros. Este problema fue tratado y explicado por Niels Bohr en 1913. Para ello propuso una
teoría que introducía ideas muy novedosas y que se apartaban de los presupuestos de la Física
Clásica.

Un espectro de rayas ó un espectro discontinuo está asociado a ciertas frecuencias de radiación

luminosa. El hecho de que solamente ciertas frecuencias se observen en la emisión,


pueden ser explicadas si se supone que la energía de un átomo pueda tener solamente ciertos

valores

Cada valor de energía posible caracteriza un nivel de energía. Es posible entonces suponer que
las únicas frecuencias posibles como resultado de la emisión son aquellas correspondientes a las

transiciones entre ciertos dos niveles y que aquella frecuencia de la radiación emitida

esté asociada al salto energético, o sea, a la diferencia .

Para el proceso de absorción ocurriría algo similar, la única diferencia sería que el tipo de energía
absorbida puede ser de diferente naturaleza y no solamente energía radiante electromagnética.

O sea, los procesos de emisión y de absorción están asociados a transiciones energéticas.

Bohr utilizó el concepto de fotón y extendió la suposición de Planck E=hν a la energía emitida
durante el proceso de generación de la luz, asociando dos estados energéticos atómicos, de

energías .

Si el átomo no absorbe o emite energía, éste permanecerá en estado estacionario.

En estas ideas se basó la teoría propuesta por Bohr. A manera de dos postulados se expresan de
manera sintética.

Postulados de Bohr:

1. La energía de un sistema de cargas como un átomo, una molécula, ó sistema similar, puede
encontrarse solamente en aquellos caracterizados por determinados valores de energía y no en
todos los estados que admite la Mecánica Clásica. En estos estados cuánticos discretos

, el átomo no irradia energía, es decir, constituyen estados estacionarios.


2. En el tránsito de un estado estacionario de mayor energía a uno de energía , la energía

del átomo variará en la magnitud . Si este cambio corresponde a la emisión de un


fotón, su energía viene dada por la expresión:

4.3.3

Los esquemas ó diagrama de niveles de energía constituyen una manera de representar los
procesos de emisión y absorción.

Fig. 4.3.6: Esquema ilustrativo de los procesos de absorción y emisión espontánea.

La absorción de energía electromagnética, o de cualquier otra energía, resulta de la transición de


un átomo (ó molécula o núcleo) desde un estado estacionario hasta otro de mayor energía. La
emisión ocurrirá según un proceso inverso.

De interés resultan las siguientes reflexiones:

• El concepto de estados estacionarios fue introducido por Bohr como idea ad hoc Este
postulado se supuso de manera especial, sin justificación teórica alguna. El éxito del
mismo fue tal que se realizaron algunos experimentos para demostrar esta idea.
• Los estados estacionarios no implican solamente la existencia de espectro energético. En
muchas circunstancias, todos los valores de la energía en una porción o banda energética
son alcanzados por lo que sería de esperar un espectro energético continuo.
De gran importancia resulta la comprensión de la siguiente situación:

Para el caso de un protón y un electrón en reposo y separados entre sí una distancia muy
grande. Todos los estados estacionarios de energía negativa, que corresponderían a estados
ligados en los cuales el electrón se mueve alrededor del protón para formar un átomo de
hidrógeno, estarían cuantizados y la energía de estos estados podrían alcanzar solamente

ciertos valores:

Los estados de energía positiva no estarían cuantizados, y su


valor de energía podría ser cualquiera. Los estados no ligados y
corresponden a la situación hipotética en que el electrón es
lanzado contra el protón, desde una distancia muy larga y con
cierta energía inicial de tipo cinética. Este electrón, después de
pasar cerca del protón se desvía desde su dirección original del
movimiento. La energía del sistema en este caso estaría
determinada por la energía cinética del electrón.

Las transiciones pueden ocurrir entre dos estados del espectro


Figura 4.3.7: Origen de los energético discreto, tales como ab y cd ó entre el estado a del
espectros continuos y discretos
en un sistema de estados espectro continuo tal y como sería ef ó entre dos estados
estacionarios discretos.
continuos como sería gh.

• A partir de los Postulados de Bohr se pueden explicar las relaciones combinatorias de los
espectroscopistas. Por ejemplo, sustituyendo en la expresión del segundo postulado se
obtiene el Principio de Combinación de Ritz:

4.3.4

• El postulado segundo de Bohr también explica por qué se observan en la emisión todas las
series espectrales del hidrógeno, y en la absorción solamente puede verse la serie de
Lyman. Al excitarse el átomo, éste alcanza estados energéticos superiores. Posteriormente
el átomo emitirá energía pasando a niveles inferiores hasta llegar a los niveles de mínima
energía. La absorción de la serie de Lyman, como en estado inicial el átomo s encuentra en
su estado de menor energía, es decir n=1, él no puede emitir partiendo de n=1. La serie de
Lyman se observa al realizarse transiciones a niveles de energía superiores a 2 en
dependencia del valor energético de los estímulos. Las otras series que corresponden a
niveles superiores se encuentran mezcladas con las series espectrales de emisión.

Hasta el momento, los Postulados de Bohr permiten explicar la discretización del espectro de
hidrógeno, al menos como sistema conceptual. Faltaría corroborar los resultados experimentales
en base a las expresiones y valores obtenidos por el análisis relacional combinatorio analizado en
el epígrafe anterior

4.3.3.- Teoría de Bohr del átomo de hidrógeno.

Espectro del Hidrógeno:

A finales del siglo XIX y posterior a todo el trabajo experimental desarrollado en relación a la
caracterización de los espectros discretos de la radiación emitida cuando se producían descargas
eléctricas en los gases, se había logrado encontrar un conjunto de expresiones para el átomo más
simple de todos: el átomo de Hidrógeno.

Todo este trabajo experimental fue de índole espectroscópico y no fue sorprendente encontrar que
de todos los átomos estudiados, el espectro más sencillo era precisamente el de hidrógeno.

Fig. 4.3.3.1: Espectro del hidrógeno atómico.

Fueron encontradas la líneas espectrales de la zona visible que ya habían sido estudiadas por
Balmer, y otros conjuntos de rayas espectrales que pueden resumirse en la siguiente expresión
obtenida empíricamente que tomó el nombre de Fórmula de Rydberg:

(4.3.3.1)

donde se le denomina también Constante de Rydberg.

En esta expresión se sintetizan todas las series que se obtienen con los valores correspondientes de
los llamados números cuánticos inicial y final:

Nombre de la Valor nf Fórmula asociada Espectro


serie

Lyman 1 ; ni=2,3,4,... ultravioleta

Balmer 2 ; ni=3,4,5,... visible y ultravioleta cercano

Pashen 3 ; ni=4,5,6,... infrarrojo

Brackett 4 ; ni=5,6,7,... infrarrojo lejano

Pfund 5 ; ni=6,7,8,... infrarrojo lejano

Teoría de Bohr para el átomo de Hidrógeno:

En 1913, Niels Bohr desarrolló la Teoría del átomo de Hidrógeno para el cual la Fórmula de
Rydberg había sido derivada.

Bohr continuó basándose en la concepción planetaria donde la ligera carga negativa (electrón) gira
alrededor del pesado núcleo positivo.

La fuerza que mantiene el movimiento del electrón en la órbita responde a una fuera de tipo
eléctrica:

(4.3.3.2)

donde .

Para el Hidrógeno Z=1. Si esta expresión de la fuerza se iguala a la expresión de la fuerza


centrípeta, considerando válida la Segunda Ley de Newton, se obtiene una expresión para la
velocidad:

(4.3.3.3)
donde m es la masa del electrón y su energía total, que sería su energía cinética y su energía
potencial estaría dada por:

(4.3.3.4)

Ahora, como el electrón se mueve en su órbita con cierto momentum lineal, se podría asociar
cierta longitud de onda. Aplicando el Primer Postulado de Bohr de la cuantización del momentum
angular, pueden derivarse las siguientes expresiones:

(4.3.3.5)

por lo que se obtiene una interesante relación:

(4.3.3.6)

conocida posteriormente como la Relación de Broglie.

Es posible obtener, en base a las anteriores expresiones, los resultados que permiten describir las
relaciones entre el radio, la energía y la velocidad de las respectivas órbitas de los electrones en el
átomo:

(4.3.3.7)

Las anteriores expresiones están referidas a los valores correspondientes a la primera órbita para la
cual n=1.

(4.3.3.8)
Las anteriores magnitudes no dependen más que de constantes universales por lo que sus valores
numéricos serán constantes. Sustituyendo éstas:

(4.3.3.9)

Estos valores corresponden con la conocida primera órbita de Bohr.

Emisión y Radiación en la Teoría de Bohr:

Bohr postuló, modificando los presupuestos de la Electrodinámica Clásica, que el átomo emitirá
radiación, solamente cuando el electrón, inicialmente en un estado de energía Ei más energético,
cambia a otro valor correspondiente a un estado de menor energía Ef. En esta transición se emite
un fotón cuya energía, aplicando el Segundo Postulado de Bohr:

o lo cual es equivalente:

de la cual puede obtenerse:

(4.3.3.10)

Al evaluar el término:

no es más que la Constante de Rydberg ya referida anteriormente.

Es conveniente diferenciar este valor: tomado bajo la suposición de que el


núcleo es infinitamente pesado comparado con el electrón, de aquel para el cual la teoría
considera la masa del núcleo como finita (M), por lo que en el átomo puede tomarse el radio como
la distancia entre el centro de masa y la órbita en cuestión, por lo que se puede definir la masa
reducida:
(4.3.3.11)

(4.3.3.12)

Para el hidrógeno: , y puede modificarse la Constante de Rydberg y se obtiene:

en muy buena aproximación con la obtenida mediante la realización de mediciones

experimentales y que es de .

Una última reflexión:

Partiendo de la expresión de Balmer:

y de la expresión que justifica el Principio Combinatorio de Ritz, partiendo del Segundo


Postulado de Bohr y que relaciona el mismo con la energía de los estados estacionarios:

se obtiene:

Útil es escribir la expresión anterior como:


4.4.- Efecto Compton

Este efecto descubierto simultánea e independientemente por Compton y Debye es una


confirmación definitiva del concepto de fotón, como paquete concentrado de energía propuesto
por Einstein al explicar el efecto fotoeléctrico.

Compton dirigió un haz de rayos X de longitud de onda λ bien precisa a un bloque de grafito, y
midió para diversos ángulos de dispersión, la intensidad de los rayos X dispersados en función de
sus longitudes de onda. La Figura 4.4.1 ilustra un esquema de su experimento.

Fig. 4.4.1: Esquema del experimento realizado por Compton sobre la dispersión de los rayos X.

Al medir la longitud de onda de la radiación dispersada se corrobora un corrimiento del valor de la


longitud de onda de la radiación dispersada que aumentará así como varía el ángulo bajo el cual se
observan los rayos X dispersados.
La secuencia de la Figura
4.4.2 muestra la dependencia
anteriormente referida.

La presencia de una onda


dispersada de longitud de
onda no se puede entender
si los rayos X se consideran
como una onda
electromagnética. Y es que
considerar su naturaleza
ondulatoria, obliga a admitir
que los electrones del bloque
dispersador oscilen a la
misma frecuencia y la misma
longitud de onda del haz
incidente.

Compton y Debye pudieron


explicar los resultados
experimentales suponiendo
que los rayos X incidentes
eran un chorro de fotones de
energía y que éstos
experimentaban choques con
los electrones libres del
bloque dispersador. Los
fotones "de rechazo" que
Fig. 4.4.2: Resultados experimentales del experimento de Compton.
salen del bloque constituyen,
de acuerdo con esta
interpretación, la radiación
dispersada.

Como el fotón incidente transmite parte de su energía al electrón con el que interacciona por
choque, el fotón dispersado deberá poseer una energía inferior y por consiguiente deberá
poseer una frecuencia menor que el incidente, lo cual equivale a una longitud de onda menor.
Cualitativamente, al menos, la concepción corpuscular de la luz permite explicar el denominado
efecto Compton.

Fig. 4.4.3: Esquema del efecto Compton. (a) antes del choque (b) después del choque.

El electrón está inicialmente en reposo y prácticamente libre, esto es, no ligado a los átomos del
dispersador.

TEMAS AVANZADOS DE ÓPTICA

6.1.- Óptica de Fourier y sus aplicaciones.

El interés del hombre por lograr imágenes cada vez mejores, con mayor resolución y mayor calidad en
general, hizo que naciera la Holografía y el Procesamiento de Imágenes.

El Procesamiento de Imágenes se puede hacer digitalmente lo cual se denomina Procesamiento Digital y


constituye un campo del saber identificado en Informática y en cualquier campo donde se trabaje con
imágenes como lo es la Microscopía, Interferometría, por nombrar algunos.

También el procesamiento de las imágenes se puede hacer ópticamente lo cual se identifica con el llamado
Procesamiento Óptico de la Información. Algunas de las bases de este campo de la Óptica se encuentran en
la denominada Óptica de Fourier y la posibilidad que posee una lente, bajo ciertas condiciones, de realizar
una Transformada de Fourier.
En este epígrafe se realizará una sencilla presentación del tema y se mostrarán algunos resultados
experimentales de interés.

6.1.1.- La Transformada de Fourier:

En el dominio bidimensional, se expresa la Transformada de Fourier:

Y por supuesto la Transformada Inversa:

En el epígrafe 3.3. se encontró que para el caso de la Difracción de Fraunhofer, el campo difractado posee la
6.1.2.- Efecto transformador-Fourier de la lente convergente.

Muchas operaciones ópticas pueden ser descritas mediante la Transformada de Fourier.

Una lente, por ejemplo, es un elemento transformador Fourier de las distribuciones espaciales.
Entre la distribución óptica de entrada (frente de onda) y la distribución óptica de salida, existe
una operación Transformada de Fourier.
Cualquier elemento de enfoque, en la aproximación de la Óptica Geométrica, hace que el haz
luminoso converja a un punto. Si la curvatura se describe como siendo r la distancia al foco.

De la geometría de la superficie, siendo d la distancia de enfoque, y el radio del punto

sobre la superficie, se infiere que y para d mayor que x e y se puede hacer la

aproximación .

Como existe el interés solamente en la fase relativa, considerando que entonces la

fase de la onda justamente a la salida será .

De la misma manera, puede irse aplicando esta concepción de análisis para definir planos claves
de las lentes como lo son los planos focales y las distancias específicas objeto e imagen para cada
caso específico.

Sea la distancia focal para los valores de distancia objeto y distancia imagen,

entonces el efecto de fase de la lente se podrá escribir como:

Cada superficie refringente, esférica, parabólica, elíptica introducirá un corrimiento específico en


la fase que, de manera general puede escribirse como:

siendo la función espesor de la lente y el máximo espesor.

Tomando como plano de entrada a del centro de la lente - plano - y el plano

de salida a distancia del centro de la lente y en un plano , se puede encontrar que la

distribución óptica detrás de la lente será:


transformando esta última expresión y planteándose la nueva transformación para el plano de
salida:

que describe la Transformada de Fourier de .

Una lente convergente realizará una Transformada de Fourier , de manera casi instantánea (a la
velocidad de la luz). Ninguna otra vía podrá superar tal rapidez.

6.1.3.- El Método de Fourier

El empleo de métodos óptico-coherentes que utilizan de alguna manera la transformada de


Fourier, poseen una serie de ventajas desde el punto de vista de su implementación práctica, ya
que resulta posible realizar la transformada ópticamente, y analizar el espectro digita1mente.

El espectro energético o espectro de Wiener S(u,v) de una imagen f(x,y):

6.1.3.1

no caracteriza unívocamente la imagen puesto que se pierde la información de fase en la


transformada:

Sin embargo, la distribución radial de S(u,v), es una medida de lo grueso o fino de la textura, y la
distribución angular una medida de su direccionalidad /2, 3/.
Una textura gruesa tendrá valores grandes de S(u,v) en las inmediaciones de su origen mientras
que una textura fina dará una función S(u,v) más distribuida en un área mayor. Una textura con
líneas o bordes en una cierta dirección tendrá valores elevados de S(u,v) concentrados alrededor
de la dirección mientras que una textura no direccional originará una distribución S(u,v) no

direccional. De aquí que las funciones:

caracterizarán lo fino o grueso de las texturas, y la presencia de bordes

6.1.4.- Algunas experiencias.

Se realizaron experimentos con fotos multiespectrales en seis canales ( 0,50-0,55-0,62-0,72-0,80-


0,84 ) y a diferentes alturas.

Se muestran solamente las imágenes correspondientes al canal rojo y al infrarrojo


de . La región fotografiada como ejemplo es una zona de la costa occidental de la
Ciudad de La Habana.

(a) (b)
Fig. 6.1.1: Imágenes tomadas por una cámara aerofotográfica de una misma zona natural de una zona periférica de la
Ciudad de La Habana con filtros diferentes. (a) utilizando un filtro rojo (b) utilizando un filtro
infrarrojo

Aparentemente para un observador común, la foto del canal rojo posee una calidad mayor que la
del canal infrarrojo. Sin embargo, desde el punto de vista profesional, la imagen infrarroja puede
brindar una información de otros aspectos "no visibles" desde el punto de vista perceptual directo.
En este rango se encuentran otros aspectos de interés del trabajo profesional con imágenes.

Se prepararon las transparencias en film de 35 mm de diferentes zonas de la imagen fotografiada y


se colocaron en el plano P.

Teniendo en cuenta el papel Fourier-transformador de la lente L , se muestra la instalación


experimental utilizada para la obtención del espectro energético, que se obtendrá en el plano P' y
que está dado por la expresión 6.1.1.1 correspondiente ya argumentada anteriormente:

Fig. 6.1.2: Esquema de la instalación experimental.

En el en el plano de salida del sistema experimenta, se registran fotográficamente los espectros


energéticos de Fourier en film NP-15. Desde el punto de vista cualitativo pueden apreciarse las
características estructurales de los espectros atendiendo a las diferentes regiones texturales
escogidas, tal y como era de esperar según lo predicho teóricamente al describir el Método de
Fourier.

A continuación, y a través de diferentes composiciones de fotos, se muestran los espectros


energéticos de las imágenes correspondientes a al canal rojo y al canal infrarrojo
para cada región natural.
Fig. 6.1.3: Espectros energéticos de Fourier para (A) parcela de mangos (B) dos parcelas de mangos. Nótese la
superposición en (B) de dos espectros similares al registrado en (A).

Una rotación de la estructura en el plano imagen redundará en una rotación del espectro
energético.
Fig. 6.1.4: Espectros energéticos de (A) una zona urbana y (B) un canal de un puerto pequeño. Son evidentes las
diferencias entre ambas estructuras.

Una zona urbana, con sus calles responde a una estructura con suficiente información en dos
direcciones, pero un sistema de canales posee información fundamentalmente en una dirección.
Los patrones de Fourier respectivos serán los siguientes:

Fig. 6.1.5: Espectros energéticos de dos zonas boscosas correspondientes a: (A) pinos, (B) caoba africana.

En el caso de estructuras parecidas, por ejemplo, dos regiones boscosas de caoba africana y de
pinos, proporcionan, sobretodo por el canal infrarrojo información diferente.

6.1.5.- Análisis digital de los espectros de Fourier


Los espectros correspondientes fueron discretizados en un digitalizador de imágenes, con una
resolución de 256x256 pixels y 64 tonos de grises, e introducidos posteriormente en la memoria
de una computadora. Las expresiones 6.1.1.3 y 6.1.1.4 se calcularon para diversos valores de r y
, obteniéndose los gráficos correspondientes. Sólo se muestra el resultado correspondiente a una
zona y en el caso del canal rojo en la Figura 6.6. Esta figura se explica por los rasgos cualitativos
que tiene la textura de la imagen original.

Fig. 6.1.6: Foto y espectro de un sembrado de caoba africana con alta direccionalidad.

Un comentario final:

Como puede comprobarse, el método descrito no requiere de potentes medios de computación ya


que al caracterizarse la textura por el espectro energético y poder determinarse éste por vía
analógica óptico-coherente, no se necesita de una gran capacidad de memoria ni de alta velocidad
de cálculo.

El método resulta aplicable en la ejecución dc tareas de teledetección con fines agrícolas,


oceanológicas, geográficas, etc..., o en general en la investigación de las características de
regiones de un paisaje dado

6.2.- El láser.

"Pienso que el descubrimiento de láser


no ha sido apreciado aún por nosotros,
los contemporáneos de este descubrimiento, en toda su magnitud.
Al láser le espera un gran futuro.
Es difícil imaginarse dónde y cómo será empleado,
pero creo que el láser es toda una época técnica"
Louis de Broglie

6.2.1.- Introducción
El láser es un producto del siglo XX. ¿Efecto, proceso, equipo? A todos se le denomina LASER:
acrónimo de la frase en inglés: Light Amplification by Stimulated Emission of Radiation . Esta
nueva fuente luminosa revolucionaría la Óptica y sus aplicaciones.

6.2.2.- Antecedentes históricos del láser.

Los antecedentes del primer equipo láser se pueden asociar a los siguientes hechos significativos:

• 1917 - Einstein prevee el mecanismo teórico


• 1939 - Fabrikant- transición inducida para generar OEM
• 1951- Fabrikant y col.- amplificador cuántico
• 1964- CERTIFICADO DE INVENCIÓN A FABRIKANT
• 1955- Basov, Projorov-construcción del primer AOC
• 1955 - Gordon, Zaiger, Townes-construcción del primer MASER
• 1958- Schawlow, Townes - principio de acción del LASER
• 1960- Maiman -construcción del primer láser ( de Rubí)
• 1961 - CERTIFICADO DE INVENCIÓN A MAIMAN
• 1964- PREMIO NÓBEL A BASOV,PROJOROV Y TOWNES

Aunque se desarrolló tecnológicamente en la década del 60 del siglo XX, desde el punto de vista
teórico ya estaba argumentado por Einstein desde inicios de ese siglo. Pero en esa época no
existían las condiciones técnicas para construirlo.

Ya a mediados del siglo XX, con el requerido desarrollo tecnológico: se logra construir, por
Maiman, el primer equipo láser en 1960: un láser de Rubí. Le confieren a Maiman un Certificado
de Invención al año siguiente, 1961.

Se considera que el Láser es una de los grandes éxitos tecnológicos del siglo XX, otorgándosele
en 1964 el Premio Nóbel a Basov,Projorov y Townes.

6.2.3.- Propiedades de la radiación láser.

La luz proveniente de un láser:

• posee una gran direccionalidad


• tiene una alta monocromaticidad
• es más pura espectralmente
• posee una mayor coherencia
• permite concentrar una alta cantidad de energía en un área pequeña

6.2.4.- Partes componentes de un equipo láser.

Todo equipo láser esta formado por tres bloques componentes para su operación.

Medio activo: material cuya estructura de niveles de energía permite ser selectivamente poblado
de forma conveniente para generar radiación estimulada y a la vez sea capaz de amplificar la luz
que pasa a través de él.

Fuente de bombeo: Sistema que realiza el proceso de bombeo y que tiene la función de producir
y mantener la inversión de población entre parejas de niveles energéticos.

Cavidad resonante: Cavidad electromagnética que contiene al medio activo y que sirve para
almacenar la radiación que mantenga la coherencia del campo electromagnético

Estas tres partes componentes se conforman de diferente manera con diseños muy propios,
existiendo una gran variedad de variantes. Por ejemplo:

Si el medio activo:

• es sólido, éste constituye en forma de barra con sección transversal circular o rectangular y
en sus extremos se colocan un par de espejos con alta calidad;
• si es un gas, este está contenido en un tubo de descarga con sección transversal circular o
rectangular y en sus extremos se colocan un par de espejos con alta calidad;
• si es un gas, este está contenido en un tubo de descarga con ventanas en sus dos extremos
planos y paralelos entre sí.

La fuente de bombeo varía de acuerdo al tipo de láser; en el caso de los sólidos es usualmente
una lámpara de xenón o de arco, mientras que el semiconductor el mecanismo de bombeo se logra
energizando eléctricamente.
La cavidad está provista de dos espejos
diseñados y alineados cuidadosamente.
Éstos espejos poseen; uno de ellos un alta
reflectividad y el otro algo menor en
dependencia de la potencia de salida del
láser.

A continuación se muestra un esquema


con las partes de un láser, Fig. 6.2.4.1: Diagrama esquemático de un láser con sus bloques
componentes
independientemente del tipo específico:

6.2.5.- Principio de funcionamiento del láser.

Ideas teóricas básicas:

Cada átomo, de acuerdo a la teoría cuántica, puede poseer energías solamente en ciertos estados
discretos o niveles de energía. Normalmente los átomos de cualquier material están en su estado
de menor energía o estado básico. Y también normalmente el número de electrones en estados
excitados es mucho menor que la cantidad de electrones en es estado básico.

Un átomo en el estado básico puede saltar a niveles superiores, es decir, a estados excitados de
energía a partir de un estímulo externo. Por ejemplo, una fuente potente (lámpara "flash") que
ilumine dicho material.

En este proceso, denominado absorción, el átomo absorbe de la luz incidente un fotón ( )


y alcanza cierto estado excitado.
Después de estar en dicho nivel excitado cierto tiempo de
corta duración llamado tiempo de vida ( ), el átomo
retorna a su nivel inicial de menor energía con la emisión
espontánea de un fotón; este proceso se llama emisión
espontánea.

Existe otro proceso que, mientras el átomo aún se encuentra


en estado excitado, si éste interacciona con un fotón que
proyecte entre el exterior posea precisamente la energía
necesaria para la emisión espontánea, el átomo excitado es
estimulado y realiza una transición radiactiva con el resultado
de proporcionar otro fotón aumentando así la emisión; ambos

Fig. 6.2.5.1: Comparativa de transiciones fotones son liberados desde el mismo estado excitado con la
entre dos estados energéticos. misma fase y frecuencia que el fotón inductor. A este proceso
se le denomina emisión estimulada.

Pero no bastaba con entender todo esto para lograr en la práctica esta emisión estimulada.

Problemática científico-técnica de la generación:

Hay que identificar primero en qué sistema atómico, o molecular, o de estado sólido,
pudieran darse las condiciones, desde el punto de vista físico (en este caso mecano-
cuántico) para este tipo de emisión tan especial, porque en todos los sistemas atómico la
tendencia de emisión sería la de tipo natural: la espontánea. Hace falta un conocimiento
más profundo de todo este problema estructural de la sustancia, y de los requerimientos a
cumplir para lograr los presupuestos tan diferentes de la emisión estimulada.

Vale aclarar que, desde 1917 ya Einstein había proyectado teóricamente la posibilidad de
lograr este tipo especial de transición, pero que no fue hasta 1960 en que se logró en la
práctica una fuente capaz de emitir de manera estable este tipo de radiación. No existía, en
1917, ni las condiciones técnica ni las condiciones teóricas para construir un equipo como
éste. Se necesitaría el desarrollo de la Mecánica Cuántica, la Técnica de Vacío, la Física de
las Capas Delgadas, el Cultivo artificial de cristales y la Física de los Semiconductores.
Por ello se explica que no fue hasta 1960 en que el hombre construyera la primera fuente
de luz láser.
Cuándo ciertas condiciones favorables son creadas para la emisión estimulada, cada vez más y
más átomos del material son forzados a producir estos fotones por lo que se inicia un proceso de
avalancha liberándose una considerable cantidad de energía. Estos resultados conllevan a una
rápida emisión energía radiante que se desplaza coherentemente en una dirección fija y precisa.
Este proceso es denominado amplificación por emisión estimulada.

En un sistema láser ordinario, la barra láser se mantiene entre los espejos reflectantes con una
lámpara (flash de xenón) suministrando energía para el bombillo; la energía guardada es disparada
en cortos pulsos de cortos intervalos de milisegundos.

Para incrementar la potencia láser se emplea una técnica conocida como "Q-switching" por
interposición de un "shutter" entre el extremo de la barra y el espejo parcialmente reflector. El
"shutter" permite que se dispara la radiación láser para un tiempo predeterminado. Después de que
cierta energía suficiente se almacena en el nivel de energía, el "shutter" se abrirá en intervalos
muy cortos del orden de los nanosegundos (10-9s) o incluso menos y toda la energía almacena en
forma de un pulso gigante, será emitida.

En esta forma es posible obtener salidas del equipo láser con picos de potencia del orden de giga
watts (GW) con pulsos de duración de nanosegundos (ns).

En base a toda esta concepción se logra la emisión de ondas luminosas de:

• alta coherencia,

• alta monocromaticidad,

• pequeña divergencia, y ,

• alta potencia.

Problemática científico-técnica de la amplificación:

Además del proceso de generación de la luz coherente, es de extraordinaria importancia el proceso


de amplificación de la luz, el cual permite obtener potencias luminosas de considerable magnitud.
La operación básica se basa en la reflexión consecutiva, de un ciclo caracterizado por el pase de
la luz a través del medio activo después de su correspondiente reflexión en los espejos. Se utilizan
espejos de alta reflectividad para garantizar las mínimas pérdidas energéticas pues las originadas
durante el pase de la luz por el medio están determinadas por las propiedades de éste y no pueden
ser modificadas. Debido a estos dos motivos, y en correspondencia con la atenuación
correspondiente a cada uno, puede considerarse que la atenuación es proporcional al producto

La luz cubre una distancia de 2L siendo L la longitud del medio activo.

Como, según la Ley de Burger, la densidad de flujo luminoso para un trayecto


2L:

La ecuación anterior puede escribirse como:

siendo:

El efecto láser (o umbral láser) comienza cuando la energía adquirida por el flujo luminoso en el
medio activo por ciclo excede las pérdidas de energía incluyendo la energía de la radiación láser
que parte del sistema. En este umbral la densidad de flujo en el sistema no es tan como el cambio

de densidad de población de los niveles, por lo tanto podemos asumir que siendo el
factor de ganancia en ausencia de flujo luminoso.

En condiciones estacionarias, se debe mantener la condición

Problemática científico-técnica del resonador. Factor Q:

Como el láser es un resonador óptico, se utiliza la terminología de esta especialidad para ello. Las
pérdidas de energía por período de oscilación se caracteriza por la relación entre la energía
almacenada en el sistema y las pérdidas por ciclo.
Se puede demostrar, para el caso de un resonador láser:

Y m no es más que el número de medios longitudes de onda en el resonador

Entonces la condición:

Esto quiere decir que la condición necesaria para el funcionamiento es que la amplificación sobre
una media longitud de onda sea igual o mayor que el recíproco del factor Q. A menor Q, mayor
umbral para el efecto láser. Se alcanza primero esta condición para que los rayos paraxiales, esto
es, los más cercanos al eje. Es precisamente por esta razón, por supuesto además de la disposición
de los espejos que limitan la cavidad resonante, que se logra un haz luminoso con tal alta
direccionalidad.

6.2.6.- Procesos involucrados en la generación y amplificación. Transiciones espontáneas e


inducidas.

Cuando una onda electromagnética interactúa con un sistema de cargas como un átomo, o un
núcleo, los campos magnéticos y eléctricos de la onda perturban el movimiento de este sistema.

No fue hasta el surgimiento de la Física Cuántica que tuvo una explicación satisfactoria este
problema y con él el del hecho del espectro discreto de los átomos y la existencia de estados
estacionarios, entre los cuales pueden explicarse los procesos de absorción y emisión de
radiación.
Un sistema en estado excitado puede retornar a un estado de
menor energía espontáneamente o puede llegar a el de
forma inducida o estimulada "saltando" al estado inferior
con la emisión de radiación.

Se muestra un esquema de dos niveles de energía y

ocupados por y átomos en dichos estados


respectivamente.
Fig. 6.2.6.1: Transiciones posibles entre
dos niveles energéticos: absorción, emisión Los fotones correspondientes a las transiciones entre estos
espontánea y emisión inducida.
dos niveles tendrán energía .

Sean:

la probabilidad, en la unidad de tiempo de las transiciones espontáneas.

la probabilidad, en la unidad de tiempo; de las transiciones inducidas de emisión de


forma unitaria.

la probabilidad, en la unidad de tiempo, de las transiciones inducidas de absorción de


forma unitaria.

En los casos de las transiciones inducidas, el número de ellas será proporcional a la densidad de
energía pues dependerá de la presencia de la radiación de frecuencia .

En la unidad de tiempo, la probabilidad de emisión de a será

Por tanto, conocidas estas probabilidades, pueden resumirse las expresiones del número de átomos
involucrados en estos procesos, simplemente multiplicando la expresión de la probabilidad por la
cantidad de átomo en el estado inicial de la transición correspondiente.

El número de átomos que saltan de a será:

El número de átomos que saltan de a será:


De forma neta, el cambio en , por unidad de tiempo, es igual a la rapidez de la ganancia por
absorción menos la velocidad de pérdida por emisión:

Para E1 al igual:

O sea:

Supóngase que no se desea analizar el caso


en que el sistema alcance el equilibrio,
situación que por demás llevaría a lo
representado a continuación:

Aún cuando la probabilidad de transición


inducida puede ser menor que la
probabilidad de transición espontánea, la
absorción se empareja con la emisión Fig. 6.2.6.2: Principio básico de operación de máseres y láseres.

debido a que en el equilibrio.

Para el caso en equilibrio térmico:

En equilibrio térmico puede aplicarse la Estadística Clásica de Maxwell-Boltzman, bien conocida


de la Termodinámica.
Entonces:

Y al comparar este último resultado con la célebre Ecuación de Planck, se obtiene: y

. Estos fueron los resultados que obtuvo Einstein en 1917.

6.2.7.- Inversión de la población.

En el caso general en el cual la radiación interactúa con la sustancia sin necesariamente ocurrir el
equilibrio, la relación entre rapidez de emisión y la rapidez de absorción será:

Como se puede considerar, al igual, y que sea constante, entonces la

relación entre la rapidez de emisión y la rapidez de absorción será aproximadamente .

En equilibrio térmico, , es decir, la emisión es menor que la absorción.

Pero, si se invirtiera la población, esto es entonces la rapidez de emisión es mayor que

la de absorción. En otras palabras, pasa a través del sistema y la radiación emergente posee
más fotones de frecuencia que la incidente, resultado una amplificación de la radiación a dicha

frecuencia. Esto es cierto solamente si . Para mantener la amplificación es necesario


continuamente lograr el aumento o restablecimiento de la población en el nivel E2 trayéndolos
mediante otras vías. Estos dispositivos se denominan máseres ó láseres dependiendo de la región
del espectro en el cual actúan.

No es posible mantener toda esta situación explicada con un sistema de dos niveles siendo
necesario, al menos, la existencia de un tercer nivel de energía tal y como se muestra a
continuación:

El proceso de energización hasta el nivel de

energía se le llama bombeo; el cual puede


hacerse de forma óptica suministrándole
energía, ya sea continuamente o en pulsos con
el objetivo de excitar al sistema a los niveles de
Fig. 6.2.6.3: Diagrama ejemplo de un sistema de tres
más altas energías. niveles en el caso de la emisión láser.

Así como el sistema retorna al estado básico, algunos átomos excitados alcanzan el estado meta
estable y éste puede fácilmente lograr una acumulación de población alta debido a que el tiempo
de vida en dicho estado es muy superior que en otros niveles.

Lograda entonces la inversión de población, es decir que el número de átomo ( ) en el nivel

de superior energía ( ), sea mayor que el número de átomos ( ) en el estado básico ( ) se

cumple uno de los requerimientos exigidos.

6.2.8.- Amplificación Óptica.

Aplicando la Ley de Conservación en las transiciones inducidas, puede escribirse que:

pues

Utilizando la notación:
El producto de la velocidad de la luz en el medio, para la frecuencia y el de la densidad de
energía no es más que la densidad de flujo de energía.

entonces:

Si la luz se propaga en la dirección del eje z:

y comparando esta últimas dos ecuaciones:

cuya solución es, para :

Esta expresión es conocida como la Ley de Burger.

Es interesante analizar que en estado de equilibrio termodinámico, como , pero ,


entonces y las densidad de flujo decrece cuando la luz pasa a través del medio. Como el
caso en cuestión no ocurre esta situación o sea, , el haz que atraviesa el medio no solamente
es absorbido, sino que además es amplificado. El medio actuará, en consecuencia, como un
amplificador de flujo luminoso.
El coeficiente no es fijo, puede variar y así variar la densidad de flujo del haz luminoso, lo cual
ocurre hasta que se logre la saturación.

6.3.- Holografía

Los temas de Óptica resultaban ya clásicos a inicios del siglo pasado, cuando ocurren dos
acontecimientos importantes para el posterior desarrollo de este campo del saber.

Un acontecimiento fue de tipo teórico: el nacimiento de la Óptica Cuántica, y el otro, un


acontecimiento tecnológico que marcaría, al decir de Louis de Broglie "toda una época técnica":
la construcción del primer láser. Después de estos hechos, la Óptica no fue la misma.

Los temas de la Interferencia y la Difracción de la luz, la Fotografía, etc. parecían ya agotados.


Pero la aparición de las fuentes luminosas coherentes de gran potencia (LASER), propició una
reactivación del interés en estos fenómenos, se realizaron nuevas aplicaciones de la luz que
superaban, en algunos casos, los ensayos anteriores. Así ocurrió con la Holografía, uno de los
temas más fascinantes de la Óptica y que aún hoy día- después de 50 años de su reconocimiento,
posee actualidad.

6.3.1.- Antecedentes históricos de la Holografía

Un Premio Nóbel otorgado en al año 1971 reconoció el trabajo de Dennis Gabor, físico húngaro, y
quien desde 1948 había logrado un resultado derivado de sus investigaciones en Microscopía
Electrónica.

¿Qué tiene que ver la Microscopía Electrónica con la Óptica? En principio...nada...pues la imagen
en el microscopio electrónico no está formada por luz ...

El interés de Gabor por mejorar la calidad de las recientes imágenes de


un nuevo microscopio que utilizaba electrones, y que por aquellos años
estaba en pleno desarrollo, hizo que desarrollara un posible método de
procesamiento de imágenes con ayuda de una lámpara de mercurio. La
calidad del proceso de mejoramiento no era satisfactoria, así que fue
desestimada. Esto ocurría en 1948.

Pasaron los años, década del 60, y el trabajo realizado por Dennis
Dennis Gabor (1900-1979)
Gabor fue repetido pero esta vez con la novedosa fuente de luz

En esta oportunidad no fue el proceso de mejoramiento de la imagen lo que causó el interés de la


comunidad científica, sino un proceso que en el diapasón óptico del espectro electromagnético aún
no se había podido lograr.

6.3.2.- Problema que trata la Holografía.

En una señal electromagnética hay contenida en su parte espacial

una señal de gran interés, una señal que no puede ser tratada como la señal temporal, lo cual
tradicionalmente constituye tarea de la Radiotécnica y las Telecomunicaciones. En estas últimas
se puede introducir una información temporal, modulando, por ejemplo en el tiempo, la señal
electromagnética tanto en amplitud, frecuencia, fase, etc.

Las señales ópticas, por su carácter y utilidad a través de sensores de imágenes, constituyen otro
tipo de problema.

La información que recibe nuestro aparato visual - imágenes - resulta una información producto
de la modulación en intensidad de señales incoherentes. Toda la información en la fase espacial de
las señales se pierde.

En Radiotécnica mediante técnicas de mezclado es común la detección tanto de amplitudes como


de fases en forma directa. Sin embargo, a las longitudes de onda ópticas tan pequeñas, el mezclado
es difícil como técnica para determinar amplitudes y fases.

Sin embargo resulta ventajoso también en Óptica determinado procedimiento que permita registrar
la amplitud y la fase de las señales ópticas. En esto precisamente consiste la Holografía, un
procedimiento indirecto en dos etapas que permite el registro de la información contenida en la
amplitud y fase de señales coherentes ópticas, radiotécnicas e incluso acústicas.

En fin de cuentas, el proceso de la Holografía consiste en lograr grabar, registrar en un film


fotográfico "toda " la información contenida en el objeto de manera óptica, y volverla a
reconstruir posteriormente. Es como almacenar y extraer posteriormente tanto la información de
amplitud como la información de fase que en rango óptico se traduce en la profundidad de los
detalles y relieves que posee un objeto tridimensional.

6.3.3.- El proceso de construcción y reconstrucción de un holograma.

Supóngase una transparencia fotográfica que contiene una cierta información susceptible de
representarse matemáticamente por una cierta función de transmitancia .

Si dicha transparencia se ilumina mediante una señal coherente proveniente de un láser, al pasar
por la transparencia, la señal se modula especialmente recogiendo la información que tanto de
amplitud como fase existe en la transparencia.

Dado que la transparencia es equivalente a una cierta abertura, la señal modulada se difracta de
determinada manera y en el plano de registro del holograma existirá una cierta distribución de
amplitudes complejas que se denomina señal objeto ya que atraviesa éste.

Simultáneamente con esta señal, al plano de registro del holograma llega otra señal, en este caso
esférica, proveniente de una derivación que del mismo láser se ha realizado mediante espejos. Esta
señal se denomina señal de referencia y producto de que es coherente con la señal objeto
interferirá con ésta.
Fig. 6.3.1: Esquema ilustrativo del proceso de construcción de un holograma.

Estos procesos de construcción de hologramas, requieren de tiempos muy cortos de exposición,


condición que se exige para todo proceso de formación de un patrón de interferencia. Una mesa
ant-vibratoria se diseña para estos fines.

Mesa holográfica

Se denomina la distribución de amplitudes complejas de la señal de referencia sobre el


holograma. Si en el plano de registro se coloca un film fotográfico, cuya transmitancia después de
relevado, responde a las intensidades, esto es, al cuadrado de las amplitudes complejas de la onda
sumaria que se obtiene producto de la interferencia, esto es, de la suma de amplitudes complejas
de la señal objeto y la referencia.:

La transmitancia del film fotográfico será entonces:

En el caso que se analiza - en el cual suponemos que la distancia al plano de registro es grande,
la distribución de intensidades en el plano de registro podemos representarla como:
Y la transmitancia será una función de:

La función de transmitancia donde son las coordenadas de un plano del


holograma contiene la información completa de la señal objeto, tanto de amplitud como de fase.
Esta información está grabada por un método interferencial, y a partir de la onda difractada en el
objeto.

Si el objeto es un objeto tridimensional, y se ilumina con un haz de luz coherente - como es el


caso de un láser - el patrón de intensidades registrado, de ahora en adelante holograma, poseerá
información de fase. La fase varía en dependencia de la distancia de un punto del objeto al
holograma, por lo que en el holograma será posible almacenar la información acerca de la tercera
dimensión.

En dependencia de la estructura del campo difractado de la señal objeto en el plano de registro del
holograma, así será el tipo de holograma construido.

Ahora bien, ¿cómo se recupera la información del objeto, esto es, cómo se reconstruye la imagen
del objeto?

La estructura interferencial del holograma en la cual está grabada la información del objeto actúa
como una red de difracción. Si se ilumina el holograma con una señal electromagnética análoga a
la de referencia, tendremos que la onda luminosa de reconstrucción a la salida de la transparencia
del holograma constará de cuatro términos, ya que de cuatro términos consta la función de la
transmitancia que actuará de moduladora.

Sea la onda de reconstrucción inmediatamente después de la transparencia.


Fig. 6.3.2: Esquema que ilustra el proceso de reconstrucción de la imagen.

Analicemos los cuatro términos que se forman:

• Habrá un término proporcional a si la referencia era una señal puntual, esto es,
una onda esférica que partía de un punto señal puntual, esto es, una onda esférica que
partía de un punto, entonces en la reconstrucción dará origen a un punto.
• Los términos y contienen información del objeto. Como el holograma se
comporta análogamente a una red de difracción, estos términos darán origen a dos
imágenes del objeto, conjugadas una de otra y con la misma información.

El término , es producto de la interferencia de la señal objeto consigo mismo. Durante la


reconstrucción dará origen a una mancha en las inmediaciones del punto central, denominado
término de autocorrelación y que puede provocar un ruido en las imágenes reconstruidas.
Fig. 6.3.3: Identificación de las imágenes que aparecen durante el proceso de reconstrucción en el caso de un
Holograma de Fourier.

6.3.4.- El holograma de Fourier.

En el epígrafe anterior se comenzó a explicar el proceso de construcción y reconstrucción del


holograma de manera muy general.

Al particularizar los detalles del proceso de registro y por ende, las características de la imagen
reconstruida, se pueden diferenciar diferentes tipos de hologramas.

Al igual que las señales temporales de la Radiotecnia, las señales de la Óptica, que son espaciales,
se relacionan con su espectro. El espectro de las señales radiotécnicas, temporales, son las
frecuencias. Por tanto, para las señales ópticas, que son espaciales y bidimensionales, le
corresponderán las llamadas frecuencias espaciales.

Las frecuencias espaciales no son más que la cantidad de líneas por milímetro producto de la
interferencia en las direcciones en el plano de registro del holograma.

A mayor frecuencia temporal en Radiotecnia, mayor es su capacidad de transmitir información,


por lo que en Óptica, a mayor frecuencia espacial, tanto mayor será la capacidad de almacenar la
información visual del objeto.

El Holograma de Fourier, uno de los más simples de construir, es aquel que cumple:

• Caso en que la transmitancia del objeto y la transmitancia del holograma


estén relacionadas por una Transformada de Fourier.
• Se coloca delante del objeto, y en el momento de registrar el holograma, un difusor (vidrio
mate, esmerilado) que como dispersa la luz en todas las direcciones, cada pequeña región
del holograma contiene información de todo el objeto. Entonces, cono solo un pedazo del
holograma se podrá reconstruir todo el objeto. Esta propiedad se denomina redundancia.

La habilidad de la Holografía para realizar un procesamiento óptico de imágenes y señales en


tiempo real, es una ventaja de estos hologramas de Fourier. A la velocidad de la luz, los
hologramas de Fourier realizan la Transformada de Fourier.

Ópticamente, y no solamente a través de la Holografía, se pueden realizar otras transformadas


integrales como las de Fresnel, Hilbert, Hankel, etc. Digitalmente es aún lento el proceso de su
cálculo. Estas transformadas integrales se utilizan para procesar las mismas:

• Mejorar una imagen desenfocada,


• Fotos aéreas afectadas por la neblina,
• Análisis en tiempo real de señales inmersa en un fondo de ruido,

El holograma, como cualquier otra imagen, puede transmitirse por canales de comunicación como
la televisión, el facsímil, lo cual permite la transmisión de señales codificadas y altamente
resistente a los ruidos.

Para realizar estos procedimientos se construyen los llamados filtros holográficos. Éstos pueden
ser construidos en el laboratorio o ser generados en computadoras mediante la holografía digital .

Un tipo de holograma son los hologramas de volumen. Éstos, además de ser interesantes por el
tipo de objeto que puede procesar, poseen aplicaciones de interés artístico, museológico.

6.4.- Terapias basadas en luz.


“Iluminando el plano de la existencia, allí donde termina nuestro espacio-tiempo, la luz parece
ser el hilo conductor de la evolución y la vida. Producto de un patrón de cambio de fotones sobre
la pantalla delos cuerpos, la misma materia viva pareciera esculpida por la luz"
Dr. Jorge Ivan Carvajal Posada
6.4.1.- Introducción.

Uno de los temas más fascinantes y útiles relacionados con la luz y sus aplicaciones ha sido, y
sigue siendo en la actualidad, aquel relacionado con los procesos de interacción de la misma con
los seres vivos, que en el caso del hombre, condicionan un conjunto de aplicaciones tanto con
fines de diagnóstico como terapéutico.

Las terapias luminosas o terapias ópticas poseen orígenes muy antiguos, tanto en el mundo
occidental donde el uso de la luz del sol en la antigua Grecia dio origen a la denominada
Helioterapia, como en el oriental en el que la luz y sus colores fueron asociados, desde tiempos
mucho más remotos, a los chakras dentro de la antigua Medicina Ayurvédica en la India, o a las
causas exógenas de las enfermedades y a los tipos de energía en el caso de la Medicina China
como lo ilustra la Cromoterapia.

La luz, en el ámbito médico occidental, es identificada como un medio físico terapéutico, o sea, un
procedimiento técnico - especializado que propicia, en su interacción con el organismo humano,
un conjunto de efectos positivos de carácter clínico.

Si bien la conocida Fototerapia se desarrolló en Europa a fines del siglo XIX y principios del siglo
XX, ésta quedó olvidada y silenciada durante décadas, no fue hasta mediados del siglo XX que
recobró la atención de la comunidad médica cuando un impactante acontecimiento tecnológico le
imprimió novedad científica a la Fototerapia: el LASER.

En los últimos años, ante el nuevo paradigma de la Medicina, cobran interés antiguos procederes
médicos. Se habla mucho hoy en día de la Cromoterapia o Colorterapia, se difunde la
Visualización de Colores, y con el desarrollo tecnológico se siguen produciendo fuentes luminosas
de variadas características que son utilizadas en equipamiento electromédico con fines
terapéuticos tanto para el diagnóstico como para la terapia.

No obstante a que tanto en el ámbito occidental de la Medicina Alopática, como en el de la Nueva


Medicina: Medicina Bioenergética o Medicina Holística, el tema de la luz sigue siendo un tema
de actualidad, aún sus mecanismos de acción no están bien establecidos.

Los efectos de la luz sobre los seres vivos y su utilidad en el mejoramiento de la calidad de vida
del hombre así como el interés que se confiere al conocimiento interdisciplinario sobre estos
efectos permiten avizorar nuevos resultados en este apenas iniciado Tercer Milenio.
Esta epígrafe pretende integrar, según la experiencia de los autores, el state- of- the- art de las
terapias que utilizan la luz como estímulo energético y/o informacional. Se abordan los
antecedentes históricos, las tendencias actuales y las perspectivas de las terapias ópticas o
luminosas tanto en el orden biomédico como tecnológico.

6.4.2.- Historia y actualidad del uso terapéutico de la luz

En la actualidad son utilizadas diversos tipos de fuentes luminosas en la denominada Fototerapia.


Comenzando con el SOL y terminando con el LASER, son diversas sus propiedades, sus efectos,
así como las formas de aplicación y las concepciones metodológicas de los tratamientos aplicados.

La luz puede aplicarse sobre la lesión o región anatómica afectada, directamente sobre la piel,
puede ser apreciada por el sistema visual, puede ser recibida a través de la iluminación indirecta
en el local, y puede ser visualizada también.

Las propiedades de la luz emitida por las diversas fuentes utilizadas también varían en un amplio
diapasón de cualidades.

Aún cuando el término Fototerapia designa todo proceder que utiliza la luz como estímulo, existe
una variedad muy amplia de posibilidades de empleo.

Mundo Oriental. En el Oriente, las antiguas civilizaciones utilizaban el ente luz, no solamente
con fines curativos, sino que además constituía ésta un elemento indispensable en sus filosofías.
De ahí la riqueza de su concepción.

En la Medicina Tradicional China la luz y sus colores no solamente se utilizan con fines
terapéuticos sino que también se asocian a las bases del pensamiento filosófico que la soporta. A
través de los trigramas, los colores se corresponden a los órganos y también a los tipos de energía.
Es también el Feng Shui un arte en el que el color adquiere una dimensión relevante.

La Medicina Ayurvédica de la India sostiene que los centros de energía o chakras son asociados a
siete diferentes colores y vibraciones. Estos colores también son asociados a través de la
meditación.

Los colores no influyen de forma igual sobre todos los sujetos. Existen efectos físicos,
psicológicos y fisiológicos diferenciados.
Mundo Occidental. En Occidente las primeras evidencias se remontan a la Antigua Grecia,
donde los baños de sol eran indicados a algunos pacientes. Este tipo de tratamiento
se conoce como Helioterapia. En el caso de ser combinado con la aplicación de los
baños de mar, se denomina Talasoterapia. Estos tratamientos son naturales.

Pero no fue hasta la segunda mitad del siglo XIX que en Occidente se comenzaron a realizar
investigaciones sistemáticas sobre la acción biológica y terapéutica de la luz sobre el organismo:
Fue Alemania el escenario científico en el que se obtuvieron importantes resultados.

Entre los resultados más significativos con luz blanca se encuentran:

• Moleshott, en 1854, reportó que el desprendimiento de CO 2 producto del metabolismo de


los gases en la rana ocurre más intensamente en la luz que en la oscuridad mediante la
simple irradiación de la epidermis.

• Pluger y Braun, en 1881, publican trabajos acerca de las diferencias entre la respuesta
dada por animales dotados de la visión y aquellos ciegos siendo los resultados más
evidentes en el caso de los primeros. También se dan a conocer resultados acerca del
mantenimiento de la actividad fisiológica de la luz aún cuando ésta se aplique directamente
al tejido muscular aislados y no sobre los órganos de la visión.

Los primeros trabajos utilizando franjas de la parte visible del espectro electromagnético
evidenciaron diferentes grados de desprendimiento de CO2 para diversas longitudes de onda:

• Backlard, 1858: la luz verde constribuye en mayor grado que la roja.


• Selmi-Platsotini, 1870: la mayor cantidad de CO2 se desprendió bajo la acción de la luz
amarilla.
• Condratiev, 1881: al desarrollo de los animales favorece más la luz roja, y el efecto
decrece en el orden: roja-naranja-verde-blanca-azul-violeta.
• Daich, 1881: los rayos azul-violeta aumentan los procesos de metabolismo de los gases.y
los rojos los deprimen.

A fines de siglo XIX se reconocía que en relación al metabolismo de las proteínas en animales, la
luz roja deprimió el proceso de oxidación en los tejidos y la azul los activó de forma significativa.

Ya a inicios del siglo XX se reportaron otra serie de resultados:


• influencia de la luz visible sobre la capacidad de reacción de la corteza del encéfalo,
• influencia de la luz sobre las reacciones inmunes del organismo,
• efectos positivos sobre el sistema de circulación sanguínea,
• aumento de la capacidad de los tejidos para la regeneración,
• positiva influencia en la proliferación de las células y sobre la actividad de las enzimas de
oxidación-reducción.

Hasta el momento no existe una opinión precisa sobre la efectividad relativa de la irradiación
monocromática de diversas longitudes de onda. Como se ve los resultados que se reportan son un
tanto contradictorios

Sobre los organismos vivos se pueden resumir algunos resultados que contrastan:

• la luz de diversa composición espectral sobre la superficie del cuerpo de ratas actúa de forma diferente:
la azul y la roja aumentan el desprendimiento de CO2 y la verde no influye.
• sobre células animales, según la actividad estimulante se ordenan: azul-verde-roja,
• la actividad biosintética de las células es estimulada por luz azul; la roja, infrarroja, verde y blanca
resultaron no efectivas.

Durante este período también se acumularon otra serie de resultados muy importantes:

• aumento de la capacidad de reacción de la corteza del encéfalo


• reacciones inmunes
• incremento de circulación sanguínea
• incremento de la capacidad de regeneración de tejidos
• incrementa la proliferación celular
• aumento de la actividad de las enzimas de oxidación-reducción

Desde el punto de vista terapéutico ya desde finales del siglo pasado se habían establecido algunos métodos de
tratamiento. Estos métodos estuvieron muy ligados a la aparición de nuevas fuentes artificiales de luz como la
lámpara de arco eléctrico, creada en 1808, y la lámpara incandescente desarrollada por Edison en 1879. Estas
lámparas fueron, posterior al Sol, las primeras a ser utilizadas en la Fototerapia.

En el siglo XX fueron desarrollándose otras fuentes luminosas como las lámparas gaseosas de descarga. De
este tipo es la lámpara utilizada por Finzer que trató con éxito la viruela con luz roja demostrando una
inhibición de la supuración y con luz ultravioleta y azul obtuvo una efectiva influencia sobre el lupus.

En la luz ultravioleta se identificó una evidente acción estimulante que aumenta la producción y efectividad de
los factores humorales y celulares de la inmunidad y un aumento de la resistencia al resfriado. Se le confirió
gran importancia a las dosis, la longitud de onda y el régimen de acción de estas lámparas. Fue muy lento sin
embargo el desarrollo de esta dirección de la Fototerapia.

A la luz roja se le reconoció su efecto analgésico y anti-inflamatorio y se demostró su positivo efecto al


aumentar la dilatación vascular. También se le reconoció su acción estimulante.

A principios de siglo se reportaron métodos de tratamiento con luz roja para la viruela, sarampión, erisipela,
escarlatina y algunas dermatosis. Las lámparas utilizadas fueron las propias incandescentes con filtros de luz y
también se introdujo la utilización de la lámpara de neón.

6.4.3.- utilizada
Con la lámpara de Minin, Indicaciones, equipamiento
desde 1891, y dosimetría
y que emite luz azul, se refieren los buenos resultados de

En el rango de la potencia baja, y con fines terapéuticos el LÁSER se utiliza en:

• Dermatología • Otorrinolaringología
• Ginecología • Rehabilitación
• Medicina Estética y Cirugía Plástica • Reumatología
• Neurología • Sistema Vascular Periférico
• Odontología • Urología

En el ámbito de la Fisioterapia, el láser


terapéutico o láser de baja potencia debe poseer
las características que recoge la Norma
Metodológica de una institución reconocida
internacionalmente que agrupa especialistas de
la Medicina Física y Rehabilitación: “The
Fig. 6.4.1: Equipo electromédico láser de baja potencia, Chartered Society of Physiotherapy”- Safety of
de Helio Neón, de la serie LASERMED , de fabricación
cubana. Electrotherapy Equipment Working Group,
donde se plantea que:

...las fuentes luminosas: monocromáticas, de pequeña divergencia, no ionizantes, emitidas en el


rango entre el rojo y e infrarrojo-cercano del espectro electromagnético para longitudes de onda
entre 630 nm y 1300 nm, que trabajan en regímenes de radiación continuo o pulsátil; para el

pulsátil la frecuencia de pulsos puede ser fija o vaiable, entre 2 Hz y 300 Hz; las potencias de
salida oscilan entre 1mW a 100 mW, aunque para el pulsátil puede alcanzar valores de potencia
pico de hasta decenas de Watt...

En cuanto al equipamiento, las ofertas comerciales sobrepasan con creces el número de trabajos
científicos que las fundamenten.

En la Tabla II se muestran las características de algunos equipos conocidos en la región. Un


análisis detallado de los parámetros técnicos permite inferir lo siguiente:

• Las longitudes de onda corresponden a criterios tecnológicos pues no se fabrican diodos


láser en todo el espectro electromagnético. Por otro lado la aparición del GaAs primero y
del GaAsAl después determinó un salto en las ofertas del mercado.
• En el caso del régimen pulsátil, la frecuencia de pulsos va desde valores inexplicables
(300 Hz) hasta cifras que hacen inferir de inmediato la utilización de divisores binarios o
decádicos; en otros casos, se adoptan valores importados de otros procederes terapéuticos
como atractivo : las frecuencias de Nogier.
• Para los tiempos de exposición parece que el fabricante aprovecha las ventajas técnicas de
determinados circuitos , por ejemplo los microcontroladores, y logran precisiones de hasta
un segundo.
La tendencia es a un incremento a ciegas de las posibilidades, parámetros variables y regulables
así como en aquellos dispositivos y accesorios que posibilitan incluso la adopción de un sistema
de barrido en la forma de aplicar la radiación.

Sin un fundamento científico de todas estas posibilidades, es de suponer que todo este alarde
tecnológico está divorciado de las necesidades reales de la Medicina lo cual conduce al
encarecimiento del equipamiento y condiciona su aplicación a los recursos financieros de la
entidad o el país que pretenda incluir esta tecnología en su programa de salud.

Tiempo de
Longitud de Onda Potencia Media Frecuencia de
Marca País exposición (s*,min)
(nm) (mW) Pulsos (Hz)

780 5 0 -
OMNIPROBE USA
810 20 0 -
ENDOLASER 780 0,1-30 0/300 1*-100
HOL
476 830 0,1-100 0/300 1*-100

780 0-2 0
ENDOLASER 1-2-5-10-20-40-80-
HOL 750 Y 160-292-584-1168- -
465 2336-73-146
830 0-10
10/20/40 (x10/
904 5/10 1-99
PROMETHEUS BUL x100)
632,8 9 0 10/20/30/40/50
LASERMED 101
CUBA 632,8 0-2 0 0-10

LASERMED 401
CUBA 904 0,06-7 Nogier 0-2

830 7,5 1-5000


ENRAF NONIUS
HOL 632,8 15 0 -
CAÑON
1060 5 1-500

Tabla II : Características técnicas de algunos equipos láser de baja potencia con fines terapéuticos.

Dosimetría.
Clasificación de los láseres en dependencia del régimen de trabajo
Régimen continuo :

- potencia constante

- potencia media
Régimen pulsátil:

- potencia pico

- - potencia media

- frecuencia de pulsos

- duración de un pulso

Conocidos la potencia y la energía, se puede pasar al cálculo de la Densidad de Potencia (D.P.) y

la Densidad de Energía (D.E.), dividiendo las mismas por el área irradiada.

Parámetros dosimétricos a tener en cuenta en el diseño de un tratamiento luminoso:

• Densidad de potencia
• Densidad de energía
• Tiempo de exposición
• Total de puntos a irradiar
• Número de sesiones de tratamiento

6.4.4.- Efectos biológicos de la luz.

Resumir de forma apretada la argumentación de los efectos de la luz sobre los seres vivos es una
tarea ambiciosa.
En el caso de los seres humanos, los efectos son mucho más complicados que en el caso de la
materia inorgánica. Ha prevalecido el enfoque químico o bioquímico de la interacción que
encuentra su máxima expresión en la denominada Teoría Fotoquímica.

Los fenómenos que ocurren posterior a la irradiación del ser humano con luz son diversos y aún
no se encentran completamente estudiados. Estas acciones tienen lugar no solo a nivel del sistema
visual sino a través de la piel y de todo el sistema como un todo.

6.4.4.1.- Mecanismos físico-químicos más conocidos al incidir luz en medios biológicos.

Desde el punto de vista óptico, al incidir un haz de luz en la superficie de separación entre dos
medios, ocurren dos fenómenos: el de la reflexión y el de la refracción. La energía luminosa
asociada a cada uno se reparte entre ambos haces.

El haz reflejado se mantiene dentro del medio del cual provino el haz, y el refractado se
desarrollará en el seno del medio al cual incidió la luz estando sujeto a dos fenómenos
denominados difusión y absorción. Estos procesos de difusión y absorción determinan que existan
límites en el poder de penetración del haz transmitido en el medio. La fracción del has transmitido
dependerá de características propias del medio en cuestión.

A continuación se enumeran algunos resultados conocidos y reportados por una extensa


bibliografía.

Leyes de la Reflexión y la Refracción: Para el caso de medios inorgánicos, son conocidas las
Leyes de la Reflexión y de la Refracción que dan información acerca del cambio ocurrido en la
trayectoria rectilínea de la luz para el caso del haz reflejado y el haz refractado:

• El ángulo subtendido por el haz incidente y la normal a la superficie - ángulo de


incidencia- será igual al ángulo de refracción (que forma el haz reflejado con la normal en
el punto de incidencia):

• El haz refractado se desvía en dependencia de un coeficiente adimensional denominado


índice de refracción que se define en función de la relación entre la velocidad de la luz (v)
en el medio en cuestión en relación a la velocidad de la luz en el vacío ( c) : n = v / c. La
conocida Ley de Snell plantea:

También son de relevancia e importancia algunos resultados acerca de cómo re distribuye la


energía incidente durante el proceso de reflexión y refracción. La intensidad luminosa I representa
la energía luminosa por unidad de área y unidad de tiempo, es decir la potencia luminosa por
unidad de área.

• La fracción de dependerá del ángulo de incidencia .

• A mayor , mayor .

• La fracción = 0,93-0,96, para piel desengrasada.


• Parte de la luz refractada se dispersa, otra se absorbe y el resto se transmite y penetra en el
tejido.

Ley de Lambert- Beer: Esta Ley establece la relación entre la intensidad de luz transmitida
después de los proceso de absorción y dispersión o difusión de la luz dentro del medio.

• Para un medio homogéneo, la decrece según una exponencial con el espesor:

y en dependencia del coeficiente de atenuación (que depende de los coeficientes de


absorción y difusión):

• Tanto la dispersión como la absorción dependen de la longitud de onda , proceso en el


cual intervienen los cromóforos y pigmentos.

Ley de Grotthus-Draper: Enunciada primeramente para la luz ultravioleta, la Ley de Grotthus-


Draper es válida para todas las zonas del espectro luminoso. Ésta establece regularidades respecto
al poder absorbente que desde el punto de vista químico poseen los sistemas moleculares.
• Solo puede haber acción fotoquímica en los sistemas que poseen poder absorbente para
alguna radiación.
• La relación entre fotones absorbidos y moléculas transformadas es una función del
producto de la intensidad del haz absorbido y el tiempo de exposición (definido por la Ley
de Bunsen-Roscoe).
• La absorción es una condición necesaria pero no suficiente.
• Cada sistema químico posee su espectro de absorción.

Inducción Fotobiológica: Este fenómeno se identifica como el responsable de determinadas


respuestas químicas de algunos sistemas biológicos de diferentes jerarquías: agregados
moleculares, células, tejidos, órganos.

• A partir de cierto , después de iniciada la acción fotoquímica, ésta se incrementa hasta


alcanzar un régimen constante.

6.4.4.2.- Mecanismos que permiten lograr la acción selectiva y localizada de la luz sobre los
tejidos.

Las propiedades ópticas de los sistemas biológicos determinan ciertos resultados:

• Dependencia de la absorción por los tejidos con la frecuencia de la luz


• Entrega de la energía en forma pulsada
• Capacidad de hacer converger y diverger los haces luminosos.

En dependencia de la absorción por los tejidos con la frecuencia de la luz: Se puede actuar
selectivamente sobre un tejido si éste absorbe más fuertemente, en comparación con los tejidos
que le rodean, la radiación de cierta longitud de onda.

Entrega de la energía en forma pulsada:

• Al ser irradiado el tejido, parte de la energía se emplea en los procesos locales y otra parte
se difunde en forma de calor hacia los tejidos colindantes.
• La cantidad de energía calorífica transferida depende de la conductividad térmica del
tejido y del tiempo que dure la exposición.
• Cuanto más pequeña la duración del pulso, para una misma cantidad de energía
depositada, menor será la fracción de energía que se difundirá a los tejidos aledaños. Esto
implica que la acción del láser será más localizada.
Capacidad de hacer converger y diverger los haces luminosos:

Variando el área de irradiación sobre un tejido se puede lograr converger la luz en los más
profundos (iluminación y exposición bajas) sin perturbar los más superficiales (iluminación y
exposición altas).

6.4.4.3.- Sustancias que determinan las propiedades ópticas de los tejidos

Agua: Principal constituyente de los tejidos biológicos(70% al 90%) que influye en sus
propiedades ópticas y termofísicas. Absorbe mejor en la zona infra-roja del espectro para
. Las radiaciones de los láseres de Erbio en YAG (2,94 ) y CO2 (10,6 ) son
mucho mejor absorbidas por el agua que la proveniente de los de Neodimio en YAG (1,06 ).
Argón (0,488 y 0,515 ), Fluoruro de Argón (o,193 ) y otros...

Proteínas y DNA: Dominan la absorción en la zona del espectro desde hasta

Melanina: Cromóforo que absorbe fuertemente la radiación azul y violeta, absorbiendo poco en la
zona del rojo y del infrarrojo.

Hemoglobina: Absorbe fuertemente también en la zona del azul y el violeta. En el amarillo la


hemoglobina absorbe la radiación óptica más fuertemente que la melanina. Esto permite la
irradiación selectiva de los vasos sanguíneos. Con pulsos luminosos de esa longitud de onda,
provocando la fototermólisis. La duración de los pulsos se escoge para que el calor quede
confinado a la zona de los vasos y afecte la piel lo menos posible. Así se disminuyen los queloides
y cicatrices.

6.4.4.4.- Ejemplos típicos de la interacción fotoquímica y fotobiológica suave

Fotoquimioterapia

La irradiación provoca la activación de medicamentos, la activación de una cadena de reacciones:

• naturales ( ejemplo: terapia de la hiperbilirrubinemia con luz ultravioleta) o,


• artificiales o de sustancias fotosensibles (ejemplo: terapia fotodinámica en Oncología)

Fotobioestimulación
• Irradiación que permite el mejoramiento de los parámetros fisiológicos (ejemplo:
Laserterapia)

Fig. 6.4.2: Resultados de un tratamiento luminoso en puntos de acupuntura en la Hipertensión Arterial Esencial. La
curva ilustra la tendencia en la disminución de parámetros estadísticos como la varianza de la variabilidad de la tensión
arterial media durante el tratamiento.

6.4.5.- El caso láser: su interacción con los tejidos biológicos:

La absorción selectiva de los cromóforos y la monocromaticidad del LÁSER, su gran


direccionalidad y coherencia que permite elevadas densidades de potencia provocan en los tejidos
diversas reacciones, conocidas como macroefectos.

• Electromecánico
• Fotoablativo
• Térmico
• Vaporizante
• Coagulante
• Citotóxico
• No térmico

Los tres primeros efectos son de naturaleza térmica, siendo estas las más conocidas para las cuales
existen modelos muy bien fundamentados.

Los no térmicos no son muy conocidos y son los de interés cuando se trata del LÁSER de baja
potencia.

Los efectos físicos presentes en los fenómenos anteriormente expuestos son:

• Efectos físicos
• Mecánicos
• Térmicos
• Electromagnéticos
• Cuánticos

En el LÁSER de baja potencia no tienen interés los dos primeros pues se ha comprobado que no
existe un aumento de temperatura resultante cuando se utilizan radiaciones de baja potencia.

Para explicar a interacción LÁSER de baja potencia con el tejido tuvo éxito durante un tiempo la
Teoría Fotoquímica.

Surgió la denominada Medicina Bioenergética y actualmente son de interés algunas


investigaciones en el sentido de aplicar sus métodos al problema de la interacción del LÁSER con
el organismo.

6.4.6.- Diferentes teorías para diferentes efectos.

Teoría Fotoquímica.

La Teoría Fotoquímica es la que ha aportado un éxito mayor en la comprensión de los procesos de


interacción de la luz con lo seres vivos. No obstante no explica muchas interrogantes actuales.

Esta teoría tiene sus antecedentes en trabajos publicados en las décadas del 20 y 30 que pusieron
de manifiesto:
• los distintos componentes del espectro luminoso por separado actúan de un modo
totalmente distinto al de la luz blanca, la luz blanca recibida diariamente puede actuar
fuertemente sobre células que hayan sido cultivadas en la oscuridad
• que distintas bandas del espectro pueden ser antagonistas
• que la luz blanca ejerce sobre las células no cultivadas en la oscuridad, la misma influencia
que en ausencia de ella.

La Teoría Fotoquímica plantea que la monocromaticidad de la luz incidente seleccionada


determinará el pigmento específico que hará de fotorreceptor de los fotones aportados y que estos
actúan como catalizadores de una primera reacción química.

• Konev- Vototousky, 1976 proponen un esquema del efecto fotobiológico del organismo.
• Karu - 1985 observó algunas irregularidades y propuso un esquema general de la
influencia de la luz sobre la célula.
• que la foto-respuesta se hace evidente con pequeñas dosis y en breve tiempo.
• la radiación breve desencadena un efecto estable de estimulación del crecimiento durante
algunas generaciones de células (existencia de "memoria larga").
• en los distintos espectros de acción se observa un punto más elevado en la zona roja con
un máximo para = 620 nm.
• los mecanismos de acción y los fotoreceptores primarios no necesariamente han de ser
idénticos para todos los casos.
• hasta ahora se manifiesta gran complejidad para establecer el fotoreceptor primario.
• Hasta el momento se destaca -según Karu- la importancia del AMPc cíclico intracelular
cuya concentración cambia variando el estado redox de la membrana y con ello los niveles
de concentración de los ácidos nucleicos y los sistemas de transporte a través de dicha
membrana, estimulándose la síntesis del DNA. Otros autores encontraron el efecto

inhibidor pero también la relación del AMPc cíclico y los cationes de Ca+.

Por lo tanto se demostró el papel regulador del AMPc cíclico por cuanto si en una primera fase la

función del AMPc es la de extraer Ca+, en la segunda penetran más inducidos por otros factores,
se disminuye la acción inhibidora y se acelera el ciclo celular.

Lo anteriormente expuesto se repite en otros casos. La teoría fotoquímica, ya en esta década, ha


dejado de ser preponderante.
Existe en los seres vivos una función fotorreguladora a partir de ciertos fotorreceptores selectivos
a ciertas longitudes de onda:

• pigmentos fotocromáticos fotorreversibles, sensibles a la luz, que llevan a las células


información del medio : clorofila, rodopsina, bacteriorodopsina, fitocromos,...
• Fotorreceptores no especializados que actúan sin luz, pero que en presencia de ella varían
el metabolismo de la célula: flavoproteínas, porfirinas(catalasas, citocromoxidasas),
hemoproteínas, proteínas con cobre (tirosinasa, superoxidodismutasa, ceruloplasmina),...

La aparición del LÁSER en la década del 60 hizo que se atribuyera su influencia tan destacada
sobre el organismo a propiedades como la coherencia... sin embargo estudios posteriores de
Fotobiología celular arrojaron que, en primer lugar, la monocromaticidad es la primera
responsable de sus efectos y en segundo lugar la densidad de potencia.

Desde el punto de vista físico sigue sin resolver el problema de la interacción de la luz con los
organismos vivos.

En los últimos años, con el desarrollo del electrodiagnóstico, se le ha reconocido importancia a los
aspectos bioenergéticos del organismo.

En este sentido es imprescindible consultar la abra del Dr. Jorge Juan Carvajal Posada, eminente
médico colombiano que ha estructurado la denominada Sintergética, modelo terapéutico
integrativo en gestación

6.4.7.- Otros efectos inferidos durante el tratamiento láser

Efectos bioquímicos y bioeléctricos del láser de baja potencia


Fig. 6.4.3: La radiación proveniente de este equipo electromédico láser de baja potencia provoca diferentes efectos
clínicos reconocidos: anti-inflamatorio, analgésico, normalizador y reparador de tejidos.

• incremento en las -endorfinas


• alteraciones en el contenido de prostaglandinas
• variaciones en los niveles del AMPc
• incrementos sustanciales en la síntesis del ATP mitocondrial
• cambios en la velocidad de síntesis del DNA y RNA
• liberación de sustancias como la acetilcolina e histamina
• incremento en la actividad de los fibroblastos y en la formación de colágeno
• mayor proliferación celular
• mayores concentraciones de succinato de deshidrogenasa y del lactato deshidrogenasa en
los tejidos irradiados
• alteración en la actividad de diversas enzimas
• variaciones en algunos parámetros inmunitarios
• cambios histológicos citoplasmáticos
• normalización de los niveles de fibrinógeno

Efectos indirectos del láser de baja potencia:

1. Estímulo a la microcirculación
• estímulo a la vasodilatación
• mayor aporte de nutrientes
• mayor oxigenación
• acción sobre la histamina
• se favorece el efecto anti-inflamatorio
2. Estímulo a la actividad neural
3. Aumento de los potenciales de acción nerviosa
4. Efectos sobre el trofismo local
• regeneración del tejido de granulación
• regeneración de fibras nerviosas
• regeneración del tejido óseo
• activación del bulbo piloso
• neoformación de vasos
5. Incremento en la síntesis del atp, rna y dna
• incremento del índice mitótico
• formación de proteínas
• estímulo a la microcirculación

Beneficios del empleo del láser de baja potencia como recurso terapéutico.

Los reconocidos efectos clínicos se resumen en el efecto anti-inflamatorio, en el efecto


analgésico, en el efecto regenerador de tejido y en el efecto normalizador de la actividad
funcional del organismo.

Fig. 6.4.4: Secuencia de ultrasonogramas que ilustran las potencialidades de la laserterapia en lesiones musculares.
La foto de la izquierda muestra un desgarro músculo-tendinoso y en la derecha el estudio evolutivo a solo cinco días
de la lesión.

• mejora los procesos inflamatorios pues produce un efecto celular directo, favorece la
reabsorción del edema intersticial y es selectivo, local,
• mejora la cicatrización de heridas, reabsorción de hematomas y re-estructuración de la
fibrosis,
• inhibe la transmisión del estímulo doloroso interfiriendo el mensaje eléctrico a nivel local,
• reduce en un 50% el tiempo de convalescencia en lesiones que, sobretodo conllevan a
degradación tisular,
• potencializa la acción de diversos medicamentos,
• sustituye medicamentos, sobretodo analgésicos, anti-inflamatorios e incluso esteroides.

6.4.8.- Contraindicaciones y Precauciones del tratamiento láser.

Contraindicaciones:

• los ojos- (la absoluta )


• el feto
• tejido neoplásico
• regiones con hemorragias

Precauciones

• pacientes con reflejos obstruidos


• regiones donde la sensibilidad al dolor o al calor se encuentre disminuida llegando a tener
alguna importancia clínica
• las gónadas.....¡?
• epífisis de crecimiento en niños
• tejido infectado....¡?
• ganglio simpático, nervio vago, y región cardíaca del tórax en pacientes con el corazón
afectado

Principales riesgos de la radiación láser:

riesgos para el ojo

• los láseres que emiten en las zonas visible e infrarrojo cercano constituyen un riesgo
especial para el ojo.
• entre 400 nm a 1400 nm el mayor riesgo es sobre la retina.
• la córnea, el humor acuoso, el cristalino y el humor vítreo son transparentes para este
intervalo de longitudes de onda, y tienden a producir una concentración sobre la radiación
sin atenuarla significativamente.
• los pigmentos de los bastoncillos y conos solamente absorberán el 5% de la radiación
incidente.
• la mayor parte de la luz es absorbida por la melanina contenida en el epitelio pigmentado.
• el pigmento macular absorbe fuertemente entre 400 nm y 500 nm , produciendo un
calentamiento local y la quemadura del epitelio pigmentado, bastones y bastoncillos
adyacentes.
• para <400 nm y >1400 nm el mayor riesgo consiste en un daño del cristalino o la
córnea.

riesgos para la piel

• la piel soporta un mayor grado de exposición a la energía del haz láser que el ojo.
• el efecto biológico de irradiar la piel con láseres que funcionan en la región espectral de
400 nm a 700 nm, con potencias altas, puede variar desde un eritema benigno a una
ampolla severa.
• para densidades de potencia en tejidos de alta absorción altas prevalece la carbonización.

exposición máxima permisible (emp)

• según la norma UNE EN 60825.


• EMP: nivel de radiación láser al que, en circunstancias normales, puede exponerse a las
personas sin que sufran efectos adversos.
• su determinación se basa en experimentos y son menores que los niveles peligrosos
conocidos.
• proporcionan una referencia para poder evaluar el riesgo de que un haz láser en
determinado régimen de radiación pueda producir daño.

Clasificación de los láseres según su peligrosidad

LEA: se definen a partir de los valores más pequeños de EMP en cada clase

• clase 1: láseres intrínsecamente seguros o que son seguros según su diseño.


• clase 2: láseres de poca potencia, entre 400 nm y 700 nm, tanto continuos como de pulsos,
no son intrínsecamente seguros.
• clase 3a: láseres con potencia de salida menor que 5 mw para emisión continua o cinco
veces el límite de la clase 2 para pulsados y no más, entre 400 nm y 700 nm, de 25 w/m2;
en otro rango su nivel de salida cinco veces menor que el lea del de clase 1; no debe
mirarse de manera directa a el haz.
• clase 3b: láseres con potencia de salida menor que 0,5 w y exposición menor que 105
j/cm2, muy peligrosos si se miran directamente pero por reflexión difusa y haz
desenfocado puede ser utilizada sin peligra.
• clase 4: sobrepasan los límites del lea de la clase 3b, las reflexiones difusas son peligrosas;
pueden causar lesiones cutáneas e incluso incendios.

Medidas de seguridad:

técnicas, administrativas y personales


• información de seguridad ( letreros, señalizaciones, señales luminosas y sonoras, manuales
de explotación y de servicio, folletos a compradores,...)
• uso del interruptor de enclavamiento remoto (en láseres de clase 4 y algunos de clase 3b)
• control por llave (para láseres de clase 4 y algunos 3b, casi todos lo poseen)
• protección contra haces directos (seguridad del local en relación a espejos, colocación de
compresas de algodón estéril mojadas en agua o en solución salina, extremo cuidado con el
instrumental, cuidado con fibras ópticas en cirugía endoscópica, el equipo debe tener
medidor de potencia incorporado, incorpora el haz auxiliar,...)
• uso de gafas de protección
• protección contra choques e incendios eléctricos (correcto aterramiento, mantenimiento
preventivo, reparación de fuentes con sumo cuidado, empleo de alfombras y esteras
dieléctricas,...)
• prevención de accidentes por inflamación de sustancias combustibles( gases anestésicos,
oxígeno en sistema respiratorio, metano en tubo gastrointestinal,...)
• prevención de la acción de sustancias nocivas(cuidado con las sustancias despedidas
durante el proceso de interacción,...)
• contaminación biológica (limpieza y esterilización del equipamiento y accesorios,...)

Normas de seguridad

Para el operador

• solamente operar equipos certificados


• jamas mirar directamente el haz
• todo médico, operador, etc... relacionado con la orientación y aplicación del tratamiento
láser deberá pasar un adiestramiento

Para el paciente

• la exposición de la piel no debe exceder 0,5 w/cm 2 a 700 nm y 1 w/cm 2 a 1060 nm


• debe llevarse, para cada paciente, los parámetros físicos y dosimétricos del tratamiento así
como la solución del mismo en dependencia de los indicadores evaluativos en cada caso

Para el local de terapia

• tierra física
• climatización
• no deben existir espejos ni superficies metálicas pulidas que reflejen los haces luminosos

La onda luminosa, M. F. Gran

Lejos de nuestro ánimo la intención de empequeñecer la propia grandeza de las cosas levantando
un canto más de infinita vulgaridad, de forma rastrera y cansina, a lo que por si solo es expresión
máximo, perspicuidad nunca igualada, arquetipo de claridad. Lejos también, la pretensión de dejar
impresa, ni en corta ni larga palabra, la relación definitiva, acabada, conclusa, de lo que cualquier
agente natural puede ser; quede este dogmatismo para quien piense que ya comprendió y sabe,
porque se le ha quedado escondido en otras dimensiones, lo que en recorridos superficiales de que
sólo es capaz, no pudo avizorar.

Ciencia, que para el profano es vértice firme e inamovible, atalaya de ilimitados horizontes de que
todo se otea según la sabiduría que pregona la grita del sabio de salón, es, en oposición y contraste
a todo esto, temeroso y callado tanteo, cambio constante, voltario movimiento que quiere ser de
trayectoria que vence todas las gravedades, para fijarse por cima de todos los niveles en una
cúspide seguramento inaccesible. Ciencia: nombre de que se usa y abusa por cualquier aventurero
trashumante para nominar su actividad, nombre de múltiple connotación, que en su acepción
elevada y radical no encierra ni bien ni mal, sino un esquema de constante cambio en su ideal de
constituir una representación de cómo las cosas Podrían ser; estructura cambiante de esencial
volubilidad que desprecia unas veces para rehabilitar después.

Y de las ciencias, ésta que vive de contactos materiales, de íntima y entera saturación de
materialidad, que palpa el Universo con los tentáculos de la mente y deja correr por el caz de los
fenómenos la inervación de la matemática qué enlaza y concreta, y guarda del enlace la forma
estricta, concentrada y fecunda en predicciones. Esta, que es expresión de la naturaleza, inanimada
tal vez, pero con vida, sostén de toda posible filosofía que es como la animación fecunda de esta
vida fatal y desesperadamente matemática; ésta que ansía penetrar la esencia de los agentes
naturales, para convertirlos en elementos de una función general de cuya discusión lógica resulte
una discriminación en que cada elemento diferenciado sea una realidad objetiva, o, al menos, un
esquema tangente a esta realidad.
Tal la física, uno de cuyos tópicos más interesantes trataré de esbozar en esta exposición,
esforzándome, no tanto en distraer vuestro espíritu, como en fijar algunas ideas que con su fama
de complejidad disuelven en la timidez muchas apetencias.

Teoría de la emisión.---

Las primeras ideas sobre la naturaleza de la luz son de una vaguedad que cuadra muy bien con el
temperamento de los filósofos de la época en que se iniciaron, y baste decir, para solidificar este
aserto, que muchos de ellos, entre los cuales pueden citarse algunos de la edad moderna,
afirmaban que la luz era una creación del órgano de la visión; sostenían, en efecto, que el ojo
emitía los rayos luminosos, actuando como una especie de linterna, como un proyector, y que
estos rayos, a manera de filamentos tentaculares, recorrían los objetos llevando al cerebro la
impresión correspondiente.

Contra esto hace notar Aristóteles, en .réspice contundente, que de ser cierta semejante propiedad
del órgano de la visión, éste regularía la claridad y las tinieblas haciendo posible la visión en la
obscuridad. Sin embargo, pese a tan poderosa razón, muchos pensadores persistieron en la idea
primitiva más o menos modificada a un extremo tal que el mismo Descartes considera a veces
como indudable esta rara e insostenible teoría de los rayos vivientes.

Protágoras parece haber sido el primero en esbozar una teoría análoga a la de la emisión,
explicando la visión como el resultado del golpeteo producido por una afluencia de partículas mal
definidas, pero probablemente materiales, provenientes de los cuerpos cuyas imágenes vemos.
Esta hipótesis se reproduce en Gassendi para quien los cuerpos visibles emiten, ya átomos de una
sustancia particular, ya átomos de su propia materia, que son capaces de atravesar los medios del
ojo para producir por su choque en la retina la sensación visual. El ilustre rival de Descartes es
atomista en todas sus explicaciones y para él los átomos constituyen la base fundamental del
posible esclarecimiento de todo acontecimiento en el dominio de la realidad. Descartes, a su vez,
da las bases de una teoría de la luz, considerándola como una perturbación en un medio material
comprendido entre el foco y el observador. En ella explica los colores por los movimientos
particulares de los elementos que forman el medio, pero vuelve a veces a las hipótesis pretéritas
sin que se precise en él un criterio definido.

Todas las tentativas anteriores a Newton están formadas por hipótesis apropiadas a la explicación
defectuosa de algunos fenómenos aislados; implican consecuencias absurdas de evidencia
inmediata, y carecen todas. de la unidad y facilidad de adaptación a casos enteramente diversos
que debe ser la característica de una hipótesis bien escogida. Con esta mentalidad; quizás la
cúspide de las que han dejado sus frutos en la ciencia, cuyo nombre no puede ser pronunciado sin
emoción, aparece una hipótesis que si bien puede considerarse como una variante de las de
Protágoras y Gassendi, merece, por el extraordinario auge con que se mantuvo por un período
superior a un siglo, que le dediquemos algunas palabras.

La emisión.---

Veamos cómo se, exponen rápidamente los fundamentos de, la teoría de la emisión. Los cuerpos
luminosos, centros de transformación de energía según las nuevas orientaciones, están. dejando
escapar constantemente un número enorme de partículas de naturaleza desconocida, un flujo
corpuscular con ciertos atributos materiales al que algunos daban el nombre de lumínico,
considerado como análogo al calórico, especie de fluido que simultáneamente emiten los cuerpos
luminosos y los que no gozan de esta propiedad cuando la temperatura se eleva.

Demostrada ya en aquella época la propagación de la luz con velocidad finita, admite Newton que
estas partículas materiales, estos corpúsculos de lumínico, se mueven en línea recta con la
velocidad ya conocida de aquel agente, distribuyéndose en todas direcciones a partir del foco
luminoso. Veamos cómo, auxiliado de nuevas hipótesis, explica los fenómenos fundamentales con
relativa facilidad.

Consideremos, a la manera de Newton,


un rayo luminoso IM que incide sobre
una superficie pulimentada AB (Fig.1) y
definamos este rayo con una sucesión de
partículas cuyo, lugar geométrico es una
línea recta, o supongamos, si nos parece,
que varios rayos como el definido forman
un haz paralelo incidente de dirección
Fig. 1. IM.
Supongamos, además, la región de incidencia enormemente amplificada, de tal modo que lo que
presenta a primera vista el aspecto de un punto, adquiera la configuración propia de las cosas
netamente discernibles. Esto supuesto, la región MN en que va a tener lugar el cambio de
dirección del rayo presentará, la apariencia exagerada de la figura. Consideremos un punto M del
rayo, infinitamente próximo a la superficie: este punto, que llega moviéndose con una velocidad
V, al encontrar la superficie chocará con ella, y si es elástico, deberá moverse después del
encuentro según las leyes de la reflexión del choque que son las mismas que las correspondientes
de la luz.

¿Por qué no admitir esta hipótesis que, indudablemente, es la más simple? En primer lugar, porque
nos exponemos a no poder explicar más fenómeno que el de la reflexión; en segundo lugar, por no
prejuzgar sobre la naturaleza de las partículas que han de ser base de la explicación de otros
muchos fenómenos, y porque no sabemos, dado su grado de pequeñez, si es propio o no aplicarles
las leyes del choque de los cuerpos de dimensiones corrientes.

Admitamos, dice Newton, y he aquí otra nueva hipótesis, como facultad intrínseca a la región
superficial de todo cuerpo, como acción exterior característica de toda superficie, el supuesto de
que, desde el momento en que la partícula se encuentra infinitamente próxima a ella, aparezca una
fuerza repulsiva que tienda a distanciarla de la misma.

Ahora bien, admitida la existencia de tal fuerza, ésta tiende, en virtud de lo dicho, a separar la
partícula de la superficie, y, supuesta constante, hace que se mueva describiendo una parábola
MON, comprendida entre la superficie reflectora y la línea de puntos que limita la región dentro
de la cual se manifiesta la fuerza hipotética de repulsión.

Este movimiento parabólico se produce exactamente de la misma manera y por análoga razón que
lo adquiere un proyectil lanzado en el vacío con una velocidad inicial dirigida oblicuamente con
respecto a la vertical.
En el caso del corpúsculo de lumínico, la
velocidad de la luz es la que se imprime al
proyectil y la repulsión de la superficie se
comporta como la acción gravitatoria.

Aceptado esto, es evidente que, por razón de


simetría, el rayo reflejado NR estará dispuesto,
con respecto a la normal trazada a la superficie
desde el vértice de la curva, de la misma manera
que el incidente; es decir, que una de las leyes de
la reflexión queda satisfecha. Por otra parte,
como la normal y los dos rayos están contenidos
en el plano de la figura, queda también Fig. 2.

satisfecha la otra ley.


En el caso de la refracción (Fig. 2) es preciso sustituir la fuerza repulsiva por otra atractiva, cuya
acción perdura mientras la partícula se mueve en la región limitada por dos planos infinitamente
próximos a la superficie, paralelos a ella, de un lado y de otro de la misma. De este modo el
corpúsculo describe la curva MN, que también, por razones idénticas a las expuestas más arriba,
es un arco de parábola cuyo vértice está en 0.

Claro está que tanto en uno como en otro caso, al cesar en N la acción repulsiva o atractiva de la
superficie, las partículas deberán seguir moviéndose, en virtud de la inercia, con movimiento
rectilíneo y uniforme, de igual velocidad que el incidente en la. reflexión, y con velocidad alterada
por la naturaleza del segundo medio en la refracción.

En este segundo caso demuestra Newton, que las velocidades de la luz en uno y otros medios, son
inversamente proporciona1es a los senos de los ángulos de incidencia y de refracción de modo
que su conclusión es

relación constante cuyo significado todos conocemos, pues representa el índice de la refracción
del segundo medio con respecto al primero. En ella está contenida la segunda ley del fenómeno.
V1 y V2 representan las velocidades de los corpúsculos en el primero y segundo medios
respectivamente.

De esta relación se desprende inmediatamente que si el ángulo en el segundo medio es menor que
en el primero la vlocidad de la luz en aquél es mayor que en éste; es decir, que la luz marcha más
aprisa donde el ángulo es menor y más despacio donde es mayor.

Esta última conclusión de la teoría expuesta, que es preciso tener muy presente, fue la que más
contribuyó a definir la quiebra que había de desraizarla, a pesar de que, a primera vista, parece
explicar muy rápida y diáfanamente los fenómenos fundamentales de la óptica

La primera dificultad que se manifiesta, a poco que se medite sobre los razonamientos expuestos,
es el hecho de que, en todos los casos, si bien con diversa intensidad, los dos fenómenos son
concomitantes, y no es fácil comprender cómo unos elementos del lumínico son atraídos por la
región ópticamente activa, infinitamente próxima a la superficie de separación de los medios,
mientras que los otros son repelidos.

En vista dé ello se hace indispensable imaginar en estas partículas cualidades selectivas. Nos
inclinamos a suponerlas con la facultad inherente, periódica o no, de optar por la reflexión o la
refracción en un momento determinado, de donde resultaría que de los diferentes corpúsculos que
dispuestos en serie forman el rayo, unos se comportarían como los de nuestro primer esquema y
otros como los del segundo, alternándose según una ley cualquiera o arbitrariamente, en el
momento de estar próximos al contacto con la superficie de discontinuidad óptica. En suponer la
existencia de tal facultad en los corpúsculos, es decir, en admitir que pueden comportarse de
diferente manera hasta en las mismas circunstancias, consistió la nueva hipótesis de Newton que
dió el nombre de fits a esta propiedad, a este atributo de los elementos del lumínico: de este .modo
cada uno de ellos tiene en un momento determinado fits de fácil reflexión o refracción, es decir,
proclividad, tendencia, idoneidad, en determinado caso, para la reflexión o refracción.

Pero ¿de qué modo adquieren los corpúsculos el estado propiciatorio a uno u otro fenómeno? ¿Por
una facultad misteriosa, inherente a su propia naturaleza? Esta propuesta resulta, evidentemente,
inaceptable, so pena de dar a la materia inerte facultades directivas incomprensibles. Entonces ¿se
debe esto a que la superficie en que incide el rayo actúa de una manera sobre unos y de otra
totalmente opuesta sobre los otros? Es evidente que caben muchas hipótesis suplementarias, que,
en conjunto, valen menos que aceptar el fenómeno per se, sin discusión. Pero, no siendo posible la
explicación de las leyes familiarísimas que son el fundamento de la óptica geométrica, de muy
poco nos habría de servir una teoría sobre la naturaleza de la luz.

Primera aparición del éter.---

A pesar de estas dificultades, el gran investigador no flaquea, sino que persiste en su objetivo
persiste en su objetivo, y agrega a las anteriores una nueva hipótesis, atribuyendo funciones
especiales al éter, un éter imprecisó, el éter sutil e imponderable de que tanto hemos oído hablar
sin escuchar en nuestras primeras lecciones de física, el único imponderable del siglo dieciocho
que se ha mantenido en los predios de la ciencia; trasgo de rara estirpe que todo lo penetra y cuya
elasticidad mecánica corre parejas con su flexibilidad para ciertos razonamientos que tienen
mucho de filosófica martingala.

En el nuevo supuesto este medio actuará como un regulador del comportamiento de los
corpúsculos, admitiendo que, moviéndose éstos en aquél, que llena todos los espacios, le hacen
adquirir un movimiento de carácter periódico, que, reaccionando sobre ellos, les impele a actuar
en determinado sentido, con lo que se pretende regularizar la volubilidad de actitud de los
corpúsculos, introduciendo a la vez un factor de periodicidad.

Pensando con Boscovich, contemporáneo de Newton, los fits son una consecuencia de la
movilidad de las partículas de lumínico, que, dotadas de cierta polaridad, se comportarán de
diversa manera según presenten a la superficie una región u otra, esto es: las citadas partículas
poseen a manera de imanes, una determinada asimetría, debida, posiblemente, a una forma
geométrica característica.

Para explicar la luz diversamente coloreada, supone Newton que cada color está formado por
partículas. idénticas entre sí, pero diferentes de las que forman otro color. De acuerdo con esto, y
siguiendo una pendiente más o menos dirigida hacia la hipótesis, la luz violeta está formada por
los elementos más pequeños y más refrangibles, continuando en serie los correspondientes a los
demás colores, creciendo en tamaño y perdiendo facultad de refrangibilidad. De modo que, con el
aumento de volumen, disminuye la atracción que determinado medio ejerce sobre ellos. Cada uno
de estos colores debe ser, pues, puro, simple; indescomponible, y cuando se superponen todos, dan
como resultante la luz blanca, la más compleja de todas.
Tal es la luz según la visión del pensador que tan vigorosa y tristemente influyera, en lo que a este
dominio se refiere; en el espíritu de los pensadores de un largo período en que se consideraban
como profesión de fe las concepciones de aquel creador casi divino.

La onda fresneliana.---

Alborea siquiera pálidamente con Grimaldi, la idea de considerar la luz como el resultado
de una perturbación mecánica particular de un medio ignoto, y, pese a sus contradicciones
frecuentes, no se resigna a dar calor a la teoría de la emisión con su imaginado efluvio de
partículas materiales, y logra, con su hipótesis mal definida, dar una. explicación de la ley de la
refracción que no dista mucho de la que se da en los cursos elementales hoy día.

Huyghens toma como arma esta hipótesis en la época de Newton, y a pesar de su hermoso Traité
de la lumiére, verdadero foco de luz en que se demuestran admirablemente; no sólo las leyes
fundamentales, sino también los fenómenos de doble refracción de reciente aparición en aquella
época, rebeldes a toda explicación por la teoría newtoniana, no pudo contener el torrente del éxito
de la concepción de Newton. Ciertamente, el prestigio de está era tal, que mantenía ahogado todo
progreso, y la misma obra vigorosa y genial de Huyghens quedó por mucho tiempo postergada,
aparentemente vencida y anulada por los ataques del propio Newton, y sus partidarios.

Con esta nueva base entramos ya en una primera aproximación de la concepción de la onda
luminosa, con tal acierto, que no se diferencian gran cosa las exposiciones que se hacen
actualmente en los cursos corrientes, de la forma que hace 250 anos le dio Huyghens.

Para hacer comprender esta concepción, que con modificaciones más o menos profundas es la que
nos va a servir de base para mostrar en qué consiste la onda luminosa tal como habitualmente se
expone en las obras corrientes, intentemos, en primer lugar, un resumen de cómo es el éter, o,
mejor todavía, de cómo hay que suponer constituido este medio, cómo apremia condicionario,
para que su plasticidad se adapte a los moldes que le vamos a imponer.

Del estudio de las propiedades elásticas de los diferentes cuerpos, resulta que toda deformación en
un punto de uno de ellos, que, supone el cambio de posición de unos de estos puntos por lo menos,
con la pugnacidad de los inmediatos, y, por ende, con un gasto de lo que llamamos energía por
cuenta del agente perturbador, da lugar a que, con diferente vigor en los distintos cuerpos, el punto
o sistema. de puntos separado de su posición primitiva, tienda a recobrarla y a devolver, por
consiguiente, la energía gastada; tal sucede en multitud de fenómenos perfectamente conocidos,
tales como la vibración de una lámina o el retorno a la posición de equilibrio de un péndulo
previamente separado de la misma.

Cuando el medio posee estas cualidades decimos que es elástico, y tanto más elástico, cuando con
mayor vigor se manifieste la tendencia de sus elementos a recuperar la primitiva posición,
respecto de los otros puntos del mismo.

Ahora bien, cuando una perturbación de esta clase se inicia en un punto que está rodeado de otros
del medio elástico de que forma parte, estos otros experimentan alteraciones que se manifiestan
por cambios en sus posiciones de equilibrio, de tal modo, que lo que fue perturbación solamente
en una pequeña región determinada, aparece como tal, al cabo de cierto tiempo, en otros puntos
más o menos lejanos. En una palabra, las perturbaciones producidas en un punto del medio,
pueden propagarse a las diferentes porciones del mismo. Siendo esto así, cabe preguntarse de qué
manera se produce esta propagación, y pensamos enseguida que pueden existir, y existen en
realidad, una infinidad de formas de propagación, sin que haya razón que las haga suponer
necesariamente simples, pues el problema mecánico que plantean es, en el fondo, el de la
constitución última de los cuerpos.

Todo parece indicar que aproximadamente al menos, en la mayoría de los casos la propagación se
reduce a dos tipos; uno de estos tipos es el llamado longitudinal, que se caracteriza porque los
diferentes puntos del medio oscilan en trayectorias que coinciden con la línea de propagación, y el
otro, llamado transversal, en que las oscilaciones se producen perpendicularmente a dicha línea.
En esta traslación de la perturbación inicial, la energía que se proporcionó al medio se distribuye
en los diferentes puntos del mismo, de modo que a cierta distancia los efectos son insensibles, y
aun en el mismo centro de perturbación, al cabo de cierto tiempo, las manifestaciones son
imperceptibles.

En realidad, los medios materiales, tal como se presentan en la naturaleza, muestran, en último
análisis, propiedades que varían de manera extraordinariamente compleja, y si identificáramos el
éter con cualquiera de ellos, resultaría, si no imposible, complicadamente operosa la creación de
una onda capaz de permitir la explicación medianamente fiel de los fenómenos luminosos.
Veamos como se elabora; a partir de la realidad, la constitución de este medio.

La experiencia enseña que si hemos de considerar el éter como asiento de las perturbaciones
llamadas antes caloríficas, luminosas y eléctricas designadas hoy en conjunto con el nombre de
energía radiante, o de radiaciones energéticas, este medio debe poseer cualidades bastante
extrañas si se le compara con los, diferentes medios materiales. En efecto, las citadas experiencias
prueban, en primer lugar, que la propagación de los movimientos ondulatorios capaces de producir
los fenómenos de energía radiante, debe ser de carácter transversal, es decir, repitiendo lo dicho
más arriba, que los diferentes puntos del medio han de estar animados de movimientos vibratorios
cuyas trayectorias son normales a la línea de propagación en ningún caso ha sido posible
identificar radiación alguna de este género con una perturbación de propagación longitudinal. Pero
dada la enorme velocidad con que se propagan las perturbaciones objeto de nuestro estudio, nos
parece lo más natural atribuir al éter cualidades análogas a las de un fluido. Ahora bien, llevado a
cabo el estudio experimental y analítico de cualquiera de ellos, encontramos que solamente
permiten a través de su masa la propagación de perturbaciones de carácter longitudinal; por tanto,
el éter no puede ser asimilado a ninguno de los fluidos conocidos. Si hacemos el estudio más
complejo, pero posible, del comportamiento de un sólido cualquiera, veríamos que en todos
aparecen los dos tipos de propagación, siendo el mecanismo de esta generación cinemática muy
simple y comprensible. En efecto, al separar en el medio una partícula A, de su posición de
equilibrio hasta B, y dejarla libre, aparecerían dos ondas: una de propagación transversal que daría
el rayo AM; perpendicular a AB, y otra de propagación longitudinal que daría un rayo en la
dirección AB. Pero hemos dicho ya que en el éter no se manifiestan perturbaciones de
propagación longitudinal, luego, no podemos identificarlo con ninguno de los cuerpos conocidos.

Pero como la propagación de una onda longitudinal a lo largo de una dirección, supone una
sucesión de dilataciones y condensaciones según esta dirección, precisa admitir por esta razón que
el éter es incompresible, o bien, que su compresibilidad es extraordinariamente pequeña. Además,
como es cualidad privativa de los medios dotados de rigidez relativamente grande el ser camino
propicio a las ondas transversales, el éter debe presentar una rigidez análoga a la de los cuerpos
sólidos. Por mal que esta necesidad se avenga con los prejuicios que la visión superficial de las
cosas nos ha sembrado en el espíritu.

En segundo lugar, mediciones múltiplemente repetidas han dado para la velocidad de propagación
de las ondas de energía radiante un valor próximo de 300 000 kilómetros por segundo, velocidad
realmente fantástica, y como ésta ha satisfacer a la relación

c=
reiteradamente demostrada y comprobada, resulta, que habiendo de ser o muy grande el valor e,
que representa el coeficiente de elasticidad del medio debe ser un número elevado, mientras que d,
que simboliza la densidad de aquél, es forzosamente muy pequeño.

Lord Kelvin admite que para satisfacer las condiciones impuestas, el éter debe ser
extraordinariamente sutil, de modo que su densidad con respecto al agua sería de orden de 5.10-18,
de donde resultaría para el módulo de elasticidad del mismo: e =4500. Concluye este físico que
el éter es extraordinariamente incompresible y que la velocidad de propagación de la perturbación
longitudinal es prácticamente nula.

Pese a todo lo dicho, aparece un grave escollo en la definición de la naturaleza del éter; en efecto,
si éste ha de ser el vehículo del rayo luminoso, debe llenar todos los espacios, tanto
interplanetarios como intratómicos, así como los que median entre los diferentes cuerpos, so pena
de no poder explicar la marcha de la luz a su través. El Universo es, pues, como una esponja entre
cuyos corpúsculos materiales se embebe el éter sutilísimo y elástico y en él a su vez se embebe la
materia. Supuesto este medio en reposo absoluto, constituyendo, por así decirlo, algo inherente al
espacio mismo, al espacio llamado absoluto de la mecánica newtoniana, los diferentes cuerpos en
movimiento, y, en particular, los astros, deben resbalar a través del mismo arrastrando o no parte
de él. Por sutil que lo imaginemos entonces, por pequeña que sea la viscosidad que le
atribuyamos, con relación a sí mismo o a la superficie de los cuerpos en su contacto, se originaría
siempre un retraso en el movimiento de los astros, como consecuencia de la pérdida de energía en
el frotamiento. Pero nada indica la existencia de semejante aceleración negativa en la marcha de
los cuerpos celestes, y sólo queda aceptar la idea de Stokes admitiendo, ya que el éter no posee
una constitución molecular semejante a la de los cuerpos conocidos, ya que esta constitución es de
tal naturaleza, que los cuerpos pueden resbalar en el como lo harían en un vacío quintaesenciado.

De todo esto se deduce que nuestros conocimientos sobre el éter en sí son bien pobres, al extremo
de que algunos niegan su existencia a trueque de aceptar las acciones a distancia que tanto han
repelido siempre todos los pensadores.

Consideremos, pues, el éter, como un medio real o ficticio, en el cual pueden solamente obtenerse
movimientos vibratorios de propagación transversal de tal manera, que nos permita crear una onda
luminosa con cuyo auxilio nos sea posible explicar todos los fenómenos que deben su origen a la
energía radiante. Vale tanto como decir con algunos autores: el éter es; simplemente, un sujeto
para el verbo vibrar.
Sentada la naturaleza del medio, ¿cómo se puede suponer constituida la radiación en sí? Para
Huyghens esta radiación se manifiesta en forma de una onda de propagación longitudinal, pero tal
hipótesis queda destruida ante la imposibilidad de explicar por ella los conocidos fenómenos de
polarización.

Para Young y Fresnel, a quienes se debe la aceptación y


mayor auge de la teoría ondulatoria, expuesta por ellos
en forma de apariencia tan definitiva que domina un
siglo en el campo de la ciencia, la perturbación que
caracteriza este agente es de propagación transversal.
Según ellos, un punto de este medio; una molécula si sé
quiere, separada de su posición de equilibrio, adquiere
un movimiento vibratorio, efectuando en general
vibraciones en diferentes azimutes con respecto a la
primera; de modo que si la primera vibración se
produce, por ejemplo, (Fig.3) según AB, la segunda se
produciría según A'B', la tercera según A"B", y así

Fig. 3.
sucesivamente cuando del éter libre se trata; o mejor
todavía, cuando este medio conserva las cualidades de
isotropía.
Consideremos una vibración completa de uno de los puntos del medio. Poseyendo éste una rigidez
apropiada, y visto el fenómeno en un plano perpendicular al del papel de la Figura 1, si
suponemos que AB, (Fig. 4) es la trayectoria de una de las vibraciones de la molécula de que
hablamos antes, el movimiento vibratorio de ésta se trasmitirá a la inmediata y de ellas a las
siguientes, con cierto retraso en cada una, de modo que si el movimiento de la primera es de los
llamados armónicos, al cabo de una oscilación completa del primer punto; las partículas que se
hallaban alineadas según OQ, se encuentran en el espacio en los diferentes puntos. de una
sinusoide OCDE, habiendo efectuado la primera, O, una oscilación completa, y empezando la
última, Q, a moverse en ese instante.
Fig. 4.
Esto quiere decir que en un tiempo igual a un período, el movimiento vibratorio se ha propagado
la distancia OQ, que es constante en un medio isótropo, a la que se ha dado el nombre de longitud
de onda de la radiación correspondiente y cuya invarianza en un mismo medio afirma la
experiencia

Onda natural.---

Puede aventurarse, a nuestro entender, una forma de. la onda, distinta a la que exponen los
diferentes autores, particularmente dócil a la explicación de los fenómenos y que no tiene el
inconveniente de aparecer siempre rectilíneamente polarizada. Admitamos, para conseguirlo, que
el punto situado en A, (fig. 5) efectúa una oscilación completa primero, en el plano del papel y en
la dirección 1, dando lugar a la distribución sinusoidal 1' que se propaga a lo largo del medio
situada siempre en el mismo plano.

Fig. 5.
La segunda vibración se producirá, por ejemplo, en la dirección 2, originando la onda 2' cuyo
plano forma con el de la 1' el mismo ángu1o que las direcciones 1 y 2. Asimismo, si la tercera
oscilación se produce en la dirección 3, genera la onda 3', situada en un plano que formará con el
de la 1' el mismo ángulo que las direcciones 1 y 3.

Este fenómeno se produce indefinidamente, de tal manera, que el rayo está formado por el
conjunto de las diferentes ondas 1', 2', 3', distribuidas en el espacio en planos diferentes en
general, que pasan todos por la dirección de propagación AB. Tal nos parece la onda natural
fresneliana que se puede llamar rectilínea, ya que todos los puntos del éter describen trayectorias
de esta naturaleza, perpendiculares a la dirección de propagación.

De acuerdo con esto, una molécula cualquiera del rayo tal como la M, (fig. 1) efectuará una
primera vibración completa AB, contenida en el plano del papel de la figura 3, por ejemplo;
después, otra A'B', situada en un plano distinto que formaría cierto ángulo con el primero; otra
según A" B" y así sucesivamente mientras el rayo luminoso o en general, la radiación está
avanzando a lo largo de AB.

Polarización.---

Podemos ahora concebir un medio material cuyas moléculas estén distribuidas según un orden tal,
que a su través sólo sea posible la propagación cuando las vibraciones se efectúen todas en un
mismo plano, o como quiere la naturaleza, paralelamente a dos planos fijos perpendiculares entre
sí: tal sucede con todas las sustancias cristalizadas en todos los sistemas cristalinos excepto el
regular, para una infinidad de direcciones en los mismos, no coincidentes con una o dos
particulares.

Consideremos, por ejemplo, un cristal de espato de Islandia, cuerpo que, cristaliza en romboedros.
El paso de la luz por el mismo, salvo en una dirección privilegiada, da lugar a la aparición de dos
rayos emergentes para uno solo incidente, rayos que se diferencian de este último en ciertas
particularidades que permiten atribuirle una determinada polaridad. Como se comprende, sería
impropio de este lugar hacer el estudio experimental o analítico que ha permitido llegar al
conocimiento de la estructura de estos rayos, e indicaremos solamente cómo están constituidos.

Todo parece indicar que nuestro éter, nuestro sujeto del verbo vibrar está de tal modo espaciado
entre las moléculas de espato y de las sustancias dotadas de propiedades análogas que, sea por la
manera de estar acomodado entre ellas, sea porque éstas le imprimen parte de sus propios
movimientos, deja pasar solamente las perturbaciones de propagación transversal que se verifican
en dos planos perpendiculares determinados, de modo que si un rayo luminoso se propaga según
una cierta dirección, y encuentra en un punto al cristal, de tal manera que al llegar allí el punto del
éter situado en él vibra según cierta recta, esta vibración se descompone en otras dos situadas en
dos planos perpendiculares, dando lugar a dos ondas que se propagan en éstos, de modo que en
cada una de ellos, las moléculas del de cada rayo vibran en el plano correspondiente llamado
plano de vibración. Estas ondas particulares se llaman ondas polarizadas, y los rayos que emergen
del cristal salen con idéntica polaridad que poseían dentro. Si consideramos, pues, como rayo, el
conjunto de fenómenos que se producen a lo largo de la línea de propagación, según la teoría
ondulatoria, para que la propagación rectilínea sea posible, el éter en los medios isótropos debe
estar constituido de modo que su elasticidad posea un carácter solenoidal, filar, de modo que sus
diferentes puntos formen collares rectilíneos a lo largo de los cuales tiende a propagarle siempre
toda perturbación armónica.

Un haz de luz natural se podría concebir (Fig. 6), como


resultante de un gran número de rayos, cada uno de los
cuales estuviese polarizado en una dirección diferente.
El efecto es evidentemente el mismo que en el caso
expuesto más arriba y la dualidad es irresoluble dada la
imposibilidad de aislar el rayo.
Fig. 6.
Onda elíptica.---

Pero el rayo de luz puede presentarse todavía en otro aspecto. Existen medios tales, que al ser
atravesados por una radiación, dan lugar a la formación de un rayo, (Fig. 7) en que cada uno de los
puntos del éter describe una elipse E, cuyo centro está en la línea de propagación OA. El
movimiento de cada punto presenta diferentes fases en las elipses sucesivas, de modo que el lugar
geométrico de todos los puntos en un instante dado está representado por la curva BMCDF de la
figura. Se dice en este caso que el rayo está polarizado elípticamente. En particular, puede suceder
que los diversos puntos describan círculos en lugar de elipses y entonces se tiene el rayo
polarizado circularmente. Se concibe la posibilidad de imaginar un rayo en que cada punto
describa periódicamente una curva de naturaleza tan complicada como nos plazca. La teoría de los
movimientos vibratorios nos enseña, que para lograrlo, bastaría suponer la molécula inicial
animada de dos o más movimientos periódicos de períodos convenientemente escogidos.

Fig. 7.
Con estos y algún otro supuesto sobre la naturaleza de la onda se explican con relativa facilidad la
mayoría de los fenómenos característicos de la energía radiante, y, en particular, las leyes de la
reflexión y de la refracción, gracias a la introducción de la noción de superficie de onda de
Huyghens-Fresnel. De esta teoría de los fenómenos fundamentales se llega a la conclusión de que
la relación entre los senos de los ángulos de incidencia y de refracción, es igual a la relación entre
las velocidades de propagación en el primero y segundo medios, consecuencia que está en abierta
y completa contradicción con la conclusión a que llegó Newton con su teoría de los corpúsculos, y
de conformidad con las experiencias de Foucault y Fizeau, que sirvieron de experimentum crucis
para decidir definitivamente entre ambas teorías.

Para esta teoría, que en el camino infinitamente variable de la ciencia contemporánea se sostiene
bastante bien todavía, las radiaciones visibles, las invisibles actínicas y caloríficas, y otras de que
hablaremos después, están constituidas por ondas de esta naturaleza que pueden presentarse
polarizadas o no. La diferencia entre estas radiaciones y aun entre las diversas de un mismo tipo,
está, cuando se propagan en un mismo medio, solamente en la longitud de onda, magnitud
susceptible de una rigurosa medición. De este modo, y para fijar las ideas, entre las radiaciones
visibles existe una infinidad de longitudes de onda, cada una de las cuales corresponde a un color
perfectamente definido cuando la propagación se produce en un medio determinado. Las
longitudes de onda de todos los colores visibles varían desde ocho diezmilésimas de milímetro
para el rojo extremo hasta cuatro diezmilésimas de la misma unidad para el violado extremo. Una
verdadera octava del color que instila en nosotros una gran proporción de la belleza de la
naturaleza, en esa misteriosa y variable sensación, que se reduce para el físico, de igual modo que
todas las sonoridades, a una longitud de onda, o mejor aún, a un período de vibración, a un simple
número.

Onda electromagnética.---

Salvo ciertas cuestiones, principalmente las relativas a la radiación del cuerpo negro, si bien
muchas veces gracias al empleo de nuevas hipótesis, con esta imagen, del rayo de energía radiante
se explica un número enorme de fenómenos y se ha podido predecir otros en número casi parejo.
Pero la predicción magnífica de Maxwell, y las experiencias y generalizaciones admirables de
Herz, hicieron manifiesta y casi palpable la onda electromagnética que se llama actualmente
herziana, y que podría llamarse con igual derecho maxwelliana, trasminando nuevas relaciones y
esperanzas que son hoy una plenitud de realidades. Para comprender lo que va a seguir,
recordemos unas nociones muy elementales que, de no ser conocidas, serán rápidamente
asimiladas por aquellos que no hayan dedicado algún tiempo a esta clase de estudios.

Campos.---

La noción de carga eléctrica se adquiere por las acciones de los cuerpos electrizados entre sí y
sobre los otros cuerpos, sin que nos sea posible penetrar su naturaleza íntima. Para adquirirla,
frotemos dos cuerpos en condiciones apropiadas, y veremos como cada uno de ellos adquirirá
propiedades nuevas que no son asimilables a las comúnmente conocidas. Los cuerpos en tal estado
atraerán las partículas materiales ligeras hasta que en el momento del contacto serán de nuevo
repelidas, de tal manera que la brizna o fragmento de papel puesto en contacto con uno de ellos es
repelido por él y atraído por el otro, y recíprocamente.

Expresamos esto diciendo que los dos cuerpos poseen electricidad y que existen dos especies de
esta electricidad susceptibles de producir efectos opuestos. Llega así a nosotros la noción de carga
eléctrica, que en una atrevida, pero utilísima abstracción, podemos suponer separada de todo
cuerpo material para comodidad y amplitud del razonamiento. De estas dos especies de
electricidad, una se considera como positiva y la otra como negativa, y son las únicas que existen
en la naturaleza.

Multitud de experiencias y consideraciones en cuyo detalle no podemos entrar, han probado que la
electricidad está formada de corpúsculos elementales a la manera como la materia está formada de
átomos, y que estos corpúsculos son unas veces positivos y otras negativos, siendo estos últimos
los que han recibido le nombre de electrones, cuya naturaleza íntima escapa a nuestras ambiciones
de conocimiento, pero que parecen estar constituidos por la menor cantidad da electricidad
negativa que puede existir, y carecen, según todas las probabilidades, de soporte material. A estos
corresponden cargas positivas de igual valor absoluto que algunos llaman electrones positivos,
pero que más generalmente se designan con el nombre de protones, y parecen estar constituidos
por una carga positiva inseparable de una masa material que es el mínima minimorun de la
materia. Según esto, una carga eléctrica estará formada por un agrupamiento de corpúsculos de
esta naturaleza, y ejercerá sus acciones en todos los puntos del espacio circundante, constituyendo
lo que llamamos el campo eléctrico de dicha carga.
Todos conocemos asimismo los imanes y su polaridad, y la acción a distancia de los mismos,
pudiendo hablar, en una abstracción análoga a la expuesta, de masas o polos magnéticos aislados,
cuyas acciones se manifiestan en todo un dominio que constituye un campo magnético.

Prestemos un poco de atención a los simples conceptos que vamos explicar, que son eje, núcleo y
punto de partida de la posible compresión de nuestra onda electromagnética. El éter es el asiento
de campos eléctricos y magnéticos creados por masas de esta naturaleza a distancias cualesquiera.
Así, una masa eléctrica unidad, situada en un campo eléctrico, estará sometida a la acción de un
vector E, cuyo valor representa la intensidad del campo en este punto, definido de tal modo, que la
fuerza que actúa sobre una masa cualquiera m, colocada en el mismo punto se obtiene por la
relación

F=mE.

Análogamente, si cierta región del espacio es el dominio de un campo magnético, una masa
magnética unitaria estará sometida a la acción de un vector H, que es la intensidad del campo
magnético en este punto, definida de modo que la fuerza a que se hallaría sometida una masa
magnética cualquiera, m, situada en el mismo punto, se obtendría por

F=mH.

Es fácil imaginar un estado de variación de las cargas creadoras del campo en virtud de la cual
éste adquiere a su vez un estado especial de variación; en estas circunstancias, el campo poseerá
en cada uno de sus puntos valores diferentes en 1os instantes sucesivos, de modo que, en un punto
cualquiera A, tuviese en un instante determinado el valor E, que fuese decreciendo o
continuamente y adquiriendo valores E1, E2.... .0, cambiando después de sentido y adquiriendo
valores que serían negativos, hasta un máximo de este signo para volver después a cero, pudiendo
concebirse las variaciones de tal modo, que los valores del campo siguieran la misma ley de
variación que las elongaciones de las partículas en el movimiento vibratorio armónico.
Consideremos, para ilustrar lo dicho, una carga eléctrica en cualquier región del espacio animada
de un movimiento del tipo pendular; una masa unidad situada en sus proximidades, recibe las
acciones de ésta que varían con la distancia según una ley conocidísima, y el vector campo
correspondiente, experimentará variaciones concomitantes: ved con qué facilidad hemos creado
un campo eléctrico variable.
Imaginemos ahora dos masas, una magnética y otra eléctrica, juntas o separadas; en todos los
puntos del campo se ejercerán acciones sobre las masas eléctricas o magnéticas situadas en ellos,
puesto que ambas masas dan lugar a la coexistencia de dos campos que no son incompatibles.
Imaginemos ahora que las dos masas creadoras del campo se comportan de tal modo que por
variaciones de valor o de posición dan lugar a determinadas alteraciones de su acción exterior;
resultará entonces que todas las masas situadas en el campo recibirán acciones también variables,
de tal manera que para un observador atento al comportamiento de dos de ellas, una eléctrica y
otra magnética, colocadas en un cierto punto, las alteraciones de las masas generadoras del campo
se manifestarán por una perturbación perfectamente definida y cognoscible: henos ya en presencia
de un campo electromagnético variable.

La producción de un estado particular de medio de esta naturaleza, data de la época en que el


hombre logró producir la primera descarga eléctrica, y estaban muy lejos de su mente los efectos
que fenómeno tan insignificante en aspecto podría originar.

Consideremos lo que los físicos llaman un explosor, formado simplemente por dos conductores
casi siempre terminados por dos esferas metálicas, separadas por una capa de aire de pequeño
espesor; establezcamos por un procedimiento cualquiera una diferencia de potencial entre ellos, y
regulemos su distancia hasta que salte la chispa. Cuando ésta aparece, tenemos el fenómeno de la
descarga eléctrica entre los dos conductores, y la primera inquisición de la mente va dirigida a
investigar en qué consiste esta descarga disruptiva que produce calor y luz y ese ruido seco
característico. Un estudio atento le permite llegar, por razones de analogía, a la conclusión de que
la descarga se reduce al paso de la corriente a través del dieléctrico que constituye el medio
interpuesto, es decir, al movimiento de las masas eléctricas de uno a otro conductor venciendo las
dificultades que el medio le opone y dando lugar a la aparición de parte de la energía que
gastamos en establecer la diferencia de potencial; en aquellas formas diversas: hemos llevado el
fardo a la cumbre, y en su caída, puede levantar un peso igual al propio.

Está descarga eléctrica se manifiesta en el medio exterior en forma bien singular y disímil de la
energía que le dio origen, y no conociendo su naturaleza íntima, limitémonos a representar por la
imagen Faraday-Maxwelliana los efectos que produce en el exterior.

La carga eléctrica en movimiento al pasar de A a B constituye una verdadera corriente eléctrica, y


esta corriente, éste salto de la carga, produce en el espacio una variación del campo eléctrico que
ella hubiese creado, de haberla considerado estáticamente. Condicionemos el medio de modo que
nos permita explicar la existencia y el mecanismo de la propagación de una perturbación que nos
permita razonar acertadamente sobre los fenómenos que caracterizan la energía radiante.

Si consideramos dos cargas A y B, de signos contrarios para fijar las ideas, éstas hacen aparecer
un campo eléctrico en toda la región circundante del espacio, lo cual quiere decir simplemente,
como ya hemos visto, que si se dispone una carga eléctrica cualquiera en un punto de este
dominio, ésta se encuentra sometida a una acción particular que tiene grandes analogías con una
fuerza; ahora bien, si las dos primeras cargas permanecen invariables en magnitud y posición, y
colocamos la tercera carga que nos va a servir para conocer de la existencia del campo, en
condiciones apropiadas de libertad, encontraríamos que, de poder moverse, lo haría siempre
describiendo una línea fija y determinada para cada posición: una línea según la cual se ejerce la
acción de la fuerza eléctrica 'en cada uno de sus puntos, y a la que designaremos con el nombre de
línea de fuerza cuya propiedad característica es la de ser tangente en cada uno de Sus puntos a la
dirección de la fuerza eléctrica en ellos. La teoría y la experiencia enseñan que en todo campo
eléctrico pasa una línea de fuerza por cada uno de sus puntos y sólo una, y razones que no son de
este lugar nos darían para, la distribución de las mismas una apariencia análoga a la que se ve en
la figura (Fig. 8). Todas empiezan en una carga positiva y terminan en una negativa, y aunque en
la figura solamente representamos un número limitado de ellas es preciso imaginarse todas las
regiones intermedias colmadas de tales elementos ficticios.

Las dos cargas A, B representan en el caso de la descarga las dos


bolas del explosor, de modo que allí el aspecto del campo
eléctrico producido por la diferencia de potencial cuando todavía
no se ha iniciado la descarga a través del dieléctrico, es
prácticamente idéntico al representado ahora. Pero, si por un
procedimiento cualquiera iniciamos una variación de las cargas
generadoras, del campo, esta alteración dará lugar a una
modificación de la distribución de las líneas de fuerza, y con ella,
a una perturbación de la acción sobre toda carga situada en el
medio en que se encuentra. Fig. 8.
Se ve, pues, que las líneas de fuerza eléctrica constituyen como una inervación que las cargas
crean en toda la región que las circunda.

Veamos ahora cómo, en el caso de la descarga nos encontramos con otro factor de gran
trascendencia, que va a complicar la estructura muy simple del campo eléctrico con la
superposición de otro campo, si bien semejante en la forma, de comportamiento muy distinto en el
fondo. Constituye una noción elemental muy conocida el hecho de que una corriente eléctrica crea
un campo magnético en todos los puntos que la circundan; esto quiere decir, que si en las
cercanías de un conductor por el cual pasa una corriente colocamos un polo de un imán, este polo
quedará, sometido a la acción de una fuerza que no coincide con la que se ejercía sobre la carga
eléctrica colocada en el mismo punto, sino que es perpendicular a la dirección de aquella y de otra
naturaleza muy diversa.

Según esto, y volviendo a nuestra descarga eléctrica entre los


dos polos del explosor, mientras la descarga no se produzca, la
distribución de las líneas de fuerza será la de la figura, pero al
pasar la descarga van a aparecer líneas de fuerza de un campo
magnético concebidas de idéntica manera que los del campo
eléctrico, pero de forma circular, situadas en planos
perpendiculares a la dirección del conductor. En este caso más
complejo el aspecto será el de la figura (Fig. 9), en que los dos
sistemas de líneas de fuerza son perpendiculares entre sí,
sistema en inquietud constante como consecuencia de las
variaciones que caracterizan la descarga que atraviesa la región
Fig. 9.
AB.
Se comprende ahora que, si en uno de los puntos de este doble campo, introducimos dos cargas,
de una y otra especie, ambas estarán sometidas a la acción de dos fuerzas perpendiculares que, en
los diferentes instantes de tiempo tendrán valores y, posiblemente, direcciones variables: estamos
en presencia de un campo electromagnético variable engendrado por una descarga.

Onda electromagnética polarizada.---

Limitémonos ahora a exponer cómo se puede concebir un caso particular de la onda


electromagnética, que da una idea de otros casos más complejos.

Sentado lo anterior, si consideramos la serie de puntos de una línea recta situada en el medio
perturbado CD, en cada uno de ellos se cortarán dos líneas de fuerza, una eléctrica y otra
magnética, de tal modo, que los valores de ambos campos serán, por ejemplo, los representados en
la figura por E, H y E', H'. Si admitimos que las perturbaciones son periódicas y de carácter
sinusoidal, para lo cual basta condicionar apropiadamente la descarga, resultará que, a lo largo de
la línea recta escogida arbitrariamente la distribución de los vectores eléctrico y magnético es la
indicada, y se ve que el lugar geométrico de sus extremidades en un instante dado, define una
curva de las llamadas sinusoides que ya encontramos al describir la onda fresneliana.

Estas dos ondas representadas aparte (Fig. 10) están contenidas en dos planos perpendiculares, P1
P2 y son concordantes en fase, es decir que a los máximos y mínimos de una de ellas corresponden
también los valores extremos de la otra, tal es la estructura de la onda electromagnética más
simple que se puede concebir, y debe tenerse presente que ésta avanza constantemente con una
velocidad de 300 000 km por segundo, de modo que todo pasa como si los diferentes puntos de la
misma avanzaran en la dirección CD. (1)

Fig. 10.
Múltiples razones de semejanza en el comportamiento y de concurrencia en la aparición nos
fuerzan a afirmar la identidad de naturaleza entre la onda electromagnética y la luminosa, así
como las que constituyen las radiaciones caloríferas, los rayos de Rongen, y toda forma de energía
radiante. ¿Cuáles son, pues, las variantes que hacen presentar tan diversos aspectos a una misma
manifestación? La respuesta es casi del dominio popular por su carácter elemental; la diferencia
es. solamente una cuestión de extensión; depende de la longitud de onda; vale decir, de la
distancia que separa dos puntos inmediatos en igualdad de condiciones de perturbación cuando el
medio en que se propaga la perturbación es fijo. De acuerdo con esto, es sabido que existe una
doble infinidad de aspectos de la energía radiante de las cuales una sola es conocida y abraza una
serie de regiones en el espectro teórico ilimitado. Las que corresponden a longitudes de onda muy
larga -que puede ser de varios kilómetros hasta algunos microns-, son ondas electromagnéticas
propiamente dichas, llamadas comúnmente herzianas, que tan populares se han hecho hoy con sus
aplicaciones a la radiocomunicación; las que siguen en longitud hasta unas 8 décimas de micron,
son radiaciones caloríferas; las comprendidas entre este valor y unas 4 décimas de micron, son las
radiaciones visibles que forman la deslumbradora octava del color, cada una de cuyas unidades es
una longitud de onda bien definida. Después, la región ultravioleta, la luz negra que la retina es
incapaz de percibir pero que impresiona las placas fotográficas, y entre las más cortas, salvando
lagunas ignotas, los rayos X, invisibles, pero capaces de hacer brillar intensamente determinadas
sustancias, aún a través de los cuerpos opacos, poder de penetración que es la admiración de los
espectadores profanos.

Pero si esta unificación fecunda es cierta, es preciso explicar de qué manera puede la materia, en
determinadas circunstancias, producir una radiación, es decir, emitir ondas electromagnéticas. Si
la forma normal de generación es la expuesta al explicar este tipo de perturbación, preciso es
asentar, siquiera sea hipotéticamente, un tipo o un sistema de tipos de osciladores en cada
elemento de los cuerpos de la naturaleza ya que todos ellos son capaces de emitir radiaciones,
según afirman todos los datos experimentales.

Pero todos los cuerpos están constituidos por agrupaciones de átomos y éstos deben ser,
naturalmente, los centros emisores. Pero para ello, el átomo debe estar necesariamente en
condiciones de generar esta emisión, y así llegamos a la convicción de que el problema de la
investigación de las condiciones emisoras trae aparejado el más trascendental y abrumador de la
estructura íntima del átomo, y se traslumbra ya que ésta debe ser bastante menos simplista de lo
que la suponían hipótesis pretéritas. Todas estas cuestiones han dado lugar a que se recrudecieran
las apetencias de conocimiento en este sector de las ciencias naturales, dando lugar a los vigorosos
movimientos científicos del último medio siglo que han conmovido la ciencia en lo más profundo
de sus reconditeces, llegándose a veces a rotundas afirmaciones de insólita apariencia, que
alternan de lo paradójico al aparente absurdo.

El átomo.---

La inquieta historia del desarrollo de la constitución del átomo, no puede constituir un modesto
aparte de esta exposición, por el hecho sencillo de que no cabe en él y nos limitaremos a tomar
como definitivo el modelo más generalizado, para dar una idea de cómo las cosas pudieran ser.
Dejaremos a un lado de todo intento esos recientísimos trabajos sobre la nueva mecánica
ondulatoria con sus electrones tremolantes debidos a de Broglie, Schrodinger, Heisemberg, Landé
y tantos otros. Aquel modelo es el designado con el nombre de átomo de Bohr, y han concurrido a
su formación, enlace por enlace, trayectoria por trayectoria, los más conspicuos hombres de
ciencia.
Procedamos como gran principio podría haber actuado en el origen de la cosmogonía, para llegar
al estado presente de las cosas.

El Universo es un inmenso caos de puntos en que un hálito misterioso, el éter, si queréis, se ha


concentrado constituyendo corpúsculos cuya característica es una carga eléctrica positiva y una
masa material cuyo origen es desconocido. En otras regiones del espacio aparecen otros cor-
púsculos, generados de tal manera que aparecen prácticamente desprovistos de masa material,
pero cargados con una masa eléctrica negativa de igual valor absoluto que la positiva de los
protones: éstos últimos son los electrones que constituyen con los protones la ínfima cantidad de
electricidad que se puede obtener en la naturaleza y que son hoy los elementos fundamentales de
toda explicación que intente penetrar siquiera ligeramente la profundidad de las cosas.

Hemos empezado por el misterio y, pese al rigor ponderado de la ciencia, sigue el misterio. Sin
que sepamos la causa, duda en que se mientan todas las religiones, todos estos corpúsculos se
orientan, se agrupan, forman una multitud de complejos, y aparecen, en número limitado, todos
los átomos de la naturaleza. Observemos algunos, y para ello supongámonos dotados de una
ilimitada aunque inexistente agudeza visual.

He aquí el grupo más sencillo que encontrarnos en ésta


polvareda: está constituido (Fig. 11) por un corpúsculo
P, de los de carga positiva que hemos llamado protón, y
vemos que próximo a él hay uno de los corpúsculos
negativos E, que hemos designado con el nombre de
electrones, girando alrededor del primero. Y pensamos
en seguida: ¿Cómo siendo dos cargas de nombre
contrario, cuya propiedad radical es atraerse, no se
reúnen y forman un grupo absolutamente neutro, dada
su equivalencia? Fig. 11.
Pero como hemos estudiado mecánica, sabemos que si bien entre ambos corpúsculos existe una
fuerza atractiva que actúa según EP, el movimiento del electrón E hace aparecer la reacción
centrífuga igual y directamente opuesta a la acción atractiva, y gracias a la cual el sistema binario
se mantiene en equilibrio. No podemos detallar: estamos en presencia del átomo del más ligero de
los elementos, el hidrógeno. Un atento estudio del mismo nos permitiría ver, aceptadas las casi
últimas conclusiones de la ciencia actual, que la trayectoria lejos de ser un circulo o una elipse, es
lo que actualmente se llama una elipse relativista, o un movimiento de roseta, que es el de un
móvil que describiera una elipse (Fig. 12), cuyo eje mayor cambiara constantemente de
orientación, girando alrededor de uno de sus focos en que se encuentra el protón nuclear.

Es el caso del movimiento de un planeta cuyo


perihelio se desplaza; como ocurre con el caso de
Mercurio, que le hace constituir el más grave
escollo de la teoría newtoniana de la gravitación,
y cuya explicación se considera como una gran
victoria del relativismo.

Siguiendo nuestra observación en este caos que


ya se va ordenando, y a partir siempre del puesto
de una agudeza visual indefinida, encontraríamos
Fig. 12. un gran número de estructuras análogas y muchas
más complejas que la observada.

Seguiría al anterior en grado de complejidad el átomo de


helio (Fig. 13) en cuyo núcleo N, veríamos cuatro protones, dos de
los cuales tendrían sus cargas saturadas por dos electrones que se
llaman nucleares, por el hecho de que el núcleo del átomo se
considera formado por este grupo senario, y notaríamos que
alrededor de este núcleo complejo giran dos electrones
describiendo una misma órbita.
Fig. 13.
En el caso del litio (Fig. 14), observaríamos siete
protones de los cuales cuatro saturan sus cargas
con igual número de electrones, mientras que las
acciones de los otros tres, son equilibradas por el
movimiento de otros tres electrones en dos
órbitas, de las cuales, la más próximas al núcleo
son el asiento de dos electrones, la más alejada, la
Fig. 14. del tercero.
La figura 15 representa el caso del aluminio
esquemáticamente. Hay en el núcleo N, 27
protones y 14 electrones, mientras que en los
niveles K, L, M hay distribuidos 13 electrones
como indica la figura.

Recorriendo de este modo todos los átomos de la


naturaleza, encontraríamos seguramente un
número limitado de ellos que se diferenciarán, ya
por la distribución de electrones y protones, ya
por el número de estos corpúsculos.

En el estado de nuestros conocimientos, todo


parece indicar que el número de átomos, y por
Fig. 15.
tanto, el número de cuerpos simples de la
naturaleza propiamente diferentes, es limitado, y
aunque próximo a cien, no alcanza este número.

De la soldadura de átomos iguales o diferentes resultan todos los cuerpos simples y compuestos
de la naturaleza, y de todo lo dicho se infiere que son todos ellos simples agrupamientos de este
polvo cósmico. Por otra parte, como las distancias entre los elementos del átomo son
extraordinariamente pequeñas, la acción eléctrica exterior del mismo es nula, de modo que
funciona como si protones y electrones estuviesen soldados en el núcleo.

Sentado esto, cabe pensar si en un átomo determinado -tomemos el de hidrógeno para fijar las
ideas- los grupos de electrones en una órbita o nivel cualquiera permanecen invariablemente en
ella, o si estos corpúsculos, mediante una acción exterior, están facultados para pasar de una órbita
de equilibrio a otra más alejada o más próxima del núcleo.

Además, suponiendo que los saltos no se produzcan, es preciso inquirir si en el constante


movimiento de los electrones en cada órbita, voltejeo de una carga que constituye como ya hemos
dicho una corriente eléctrica, no da lugar como enseña la electrodinámica, a un desprendimiento
constante de energía que debe producirse a expensas de las propias reservas del complejo atómico,
y de ser así se desprende qué las órbitas deben reducirse constantemente y con ellas las
propiedades implicadas en su forma y extensión: vale tanto como decir que el átomo de todo
cuerpo se destruye por el hecho dc una emisión constante de energía espontáneamente disipada.
Las afirmaciones de la teoría -cuyo soporte son las valientes postulaciones de Niels Bohr-
comprobadas por la experiencia, aseguran en primer lugar que en las evoluciones de los electrones
en sus órbitas no hay variación de energía, y en segundo lugar que tales cambios son, no ya
posibles, sino necesarios para la explicación adecuada de los fenómenos de intercambio entre la
energía radiante y la materia. En efecto, un átomo cualquiera puede absorber o desprender energía,
y no se conciben tales actividades si no se postula la posibilidad del cambio de posición de los
electrones con relación al núcleo. En el átomo de hidrógeno, por ejemplo, el electrón solitario está
unido al núcleo por una acción eléctrica equilibrada en todo momento por la fuerza centrífuga
ficticia que se engendra en su movimiento curvilíneo: tal el equilibrio del sistema Luna-Tierra. Si
el electrón se acerca al núcleo por virtud de una acción cualquiera, su cantidad de energía
disminuye, exactamente de la misma manera que decrece la de un cuerpo cuya altura con respecto
a la tierra se reduce. Y de la misma manera que en este caso, al producirse el choque que anula el
movimiento de caída, se desprende energía en formas diversas, cuando el electrón salta de una
órbita a otra más próxima del núcleo, estamos en presencia de una carga eléctrica en movimiento
que engendrará, como en el caso de la descarga en el explosor de que hablamos antes, una onda
electromagnética. En su salto, el corpúsculo pequeñísimo ha impreso un latigazo al éter que se va
a manifestar en forma de una perturbación de carácter electromagnético. Cada salto hace
estremecer el medio circundante por un instante, y lanza al espacio una perturbación limitada de
dimensiones finitas, un corpúsculo de energía, un fotón, un quantum de luz.