You are on page 1of 570

Unidad Académica de Ingeniería Eléctrica

Programa de Ingeniería en Comunicaciones y


Electrónica
Historia y Desarrollo de la Ciencia y la Tecnología
“Recolección de trabajos finales”
Maestro: Manuel Haro Macías
Índice
La aviación……………………………………………………………………2
Celulares…………………………………………………………………….24
Comunicación……………………………………………………………….40
Comunicación satelital……………………………………………………..56
Exploración del espacio…………………………………………………….77
El fax…………………………………………………………………………..96
Fibra Óptica………………………………………………………………….112
Grandescientíficos………………………………………………………….185
Internet…………………………………………………………………….....246
Lenguajes de programación……………………………………………….287
Luz neón……………………………………………………………………..309
Medios de transporte………………………………………………………..326
Métodos científicos del siglo XX…………………………………………...344
Motor eléctrico………………………………………………………………..361
Nikola Tesla…………………………………………………………………..370
Proceso de producción de máquinas……………………………………...390
Petróleo……………………………………………………………………….403
Robótica……………………………………………………………………….420
Ropa deportiva………………………………………………………………..449
Sistemas fotovoltaicos……………………………………………………….467
Telescopio…………………………………………………………………….503
Televisión……………………………………………………………………..525
Referencias…………………………………………………………………...556

2
LA AVIACIÓN EN GENERAL
Se entiende por aviación el desplazamiento a través del aire de aparatos
mecánicos más pesados que éste, concretamente aviones y helicópteros. Los
dirigibles y los globos aerostáticos no se incluyen en este concepto, por tratarse de
ingenios que se mantienen suspendidos en el aire por sus propios medios. Por
otra parte, se entiende por aviación también la industria y las organizaciones
relacionadas con los aviones y helicópteros.
En base al uso de los aviones y helicópteros, la aviación se divide habitualmente
en tres grandes grupos:

Aviación general
Aviación comercial
Aviación militar
La aviación general comprende una larga lista de usos, como la aviación
deportiva, de negocios, de vigilancia, de rescate, de extinción de fuegos, para la
agricultura y otros.
La aviación comercial consiste en las compañías aéreas, ya sean éstas grandes o
pequeñas, en las compañías dedicadas al transporte aéreo de mercancías, así
como en las empresas de aero-taxi.
La aviación general y la aviación comercial se agrupan a su vez bajo el término de
aviación civil, en contrapartida con la aviación militar.
Finalmente, la aviación militar comprende todo lo que está relacionado con los
vuelos de ataque y de defensa, de reconocimiento y vigilancia, de transporte, de
rescate, y otros similares.

Comienzos de la aviación

El primer vuelo con éxito fue precedido de siglos de sueños, estudio,


especulación y experimentación. Existían viejas leyendas con numerosas
referencias a la posibilidad de movimiento a través del aire. Ciertos sabios
antiguos creían que para volar sería necesario imitar el movimiento de las alas
de los pájaros o el empleo de un medio como el humo u otro más ligero que el
aire. Hacia el siglo V de nuestra era se diseñó el primer aparato volador: la
cometa o papalote.

3
En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la
conclusión de que el aire podría soportar un ingenio de la misma manera que
el agua soporta un barco.
A comienzos del siglo XVI Leonardo da Vinci analizó el vuelo de los pájaros y
anticipó varios diseños que después resultaron realizables. Entre sus
importantes contribuciones al desarrollo de la aviación se encuentra el tornillo
aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de ingenios más
pesados que el aire: el ornitóptero, máquina con alas como las de un pájaro
que se podían mover mecánicamente; el helicóptero diseñado para elevarse
mediante el giro de un rotor situado en el eje vertical y el planeador en el que
el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas
diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza
muscular del hombre podría permitir el vuelo de sus diseños. La experiencia
demostró que eso no era posible. Fue una figura muy importante porque aplicó
por primera vez técnicas científicas para desarrollar sus ideas.

La aviación en el siglo XIX

El desarrollo práctico de la aviación siguió varios caminos durante el siglo XIX. El


ingeniero aeronáutico e inventor británico sir George Cayley, teórico futurista,
comprobó sus ideas experimentando con cometas y planeadores capaces de
transportar un ser humano. Diseñó un aparato en forma de helicóptero pero
propulsado por una hélice en el eje horizontal. Sus méritos le llevaron a ser
conocido por sus compatriotas como el padre de la aviación. El científico británico
Francis Herbert Wenham utilizó en sus estudios el túnel aerodinámico, sirviéndose
del flujo del viento forzado en su interior para analizar el uso y comportamiento de
varias alas colocadas una encima de otra. Fue además miembro fundador de la
Real Sociedad Aeronáutica de Gran Bretaña. Otros personajes interesantes del
mundo aeronáutico de la época fueron el inventor británico John Stringfellow y
William Samuel Henson, quienes colaboraron al principio de la década de 1840,
para fabricar el prototipo de un avión que pudiera transportar pasajeros. El aparato
desarrollado por Stringfellow en 1848 iba propulsado por un motor de vapor y
arrastrado por un cable y consiguió despegar aunque no pudo elevarse. El
inventor francés Alphonse Penaud fabricó un modelo que se lanzaba con la mano
e iba propulsado por bandas de goma retorcidas previamente y consiguió en el
año 1871 que volase unos 35 metros. Otro inventor francés, Victor Tatin, diseñó
un ingenio propulsado por aire comprimido y equipado con un rudimentario tren de
aterrizaje de cuatro ruedas. Lo sujetó a un poste central y las dos hélices
consiguieron elevar el aparato en vuelos cortos y de baja altura.
El inventor británico nacido en Australia, Lawrence Hargrave, desarrolló un modelo
de alas rígidas que iba impulsado por paletas batientes movidas por un motor de
aire comprimido. Voló 95 metros en 1891. El astrónomo estadounidense Samuel
Pierpont Langley fabricó en 1896 un monoplano en tándem impulsado por un
motor de vapor cuyas alas tenían una envergadura de 4,6 metros. El aeroplano

4
hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un
minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía
lentamente para posarse en las aguas del río Potomac.
Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con
experimentos basados en paletas o alas movidas por los músculos humanos, pero
nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el
belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J.
Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más
éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron
al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un
planeador con las alas batientes, el estadounidense John Joseph Montgomery y el
renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con
cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en
planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de
su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S.
Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador,
tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave
Chanute consiguió en 1896 pequeños logros con sus planeadores de alas
múltiples, pero su contribución más notable a la aviación fue su libro sobre los
avances aeronáuticos Progress in Flying Machines (1894).
Los numerosos experimentos realizados con cometas durante esta época,
consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y
estabilidad del vuelo. El inventor estadounidense James Means publicó sus
resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave
inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló
entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar
a un ser humano en un pequeño alojamiento.
Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos
de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo
volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó
Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor
de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y
realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán
Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de
tamaño real.
Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos
necesarios para el éxito de los hermanos Wright, pero los mayores avances se
debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En
1903 aún no se habían conseguido la estabilidad y el control necesarios para un
vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de
los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían
que la aviación evolucionase con rapidez.

5
PRIMERA GUERRA MUNDIAL

Cuando estalló la Primera Guerra Mundial ambos bandos todavía consideraban


que el avión sólo era adecuado para reconocimientos, al igual que el globo
cautivo: un invento alemán que para 1914 ya era conocido y utilizado por ambos
bandos, y que se construía en dos partes: la frontal llena de gas y la posterior de
aire, a los lados unos alerones extendidos ayudaban a mantener alzado el
extremo posterior, mientras que otra "salchicha hinchada" (el timón) curvada
alrededor de la parte inferior del globo ayudaba a estabilizarlo. No obstante, a
menudo habían movimientos masivos de tropas no observados por los
exploradores aéreos (entre ellas las ofensivas alemanas a Rusia en la primavera
de 1915, en Verdún en febrero de 1916 y su última ofensiva en el Frente del
Oeste en marzo de 1918). Pero las tropas aliadas también aprendieron pronto a
desparramarse y ponerse a cubierto al oír el ruido de los motores de un avión, y
los partes negativos de los pilotos alemanes que no habían detectado fuerzas
enemigas a menudo despistaban seriamente a los estados mayores; esta
amplitud de visión hacía al avión particularmente útil donde la guerra era de
movimientos. También se empleó ampliamente a los aviones para controlar la
navegación, aunque su eficacia quedara restringida por su limitada capacidad de
combustible y, por lo tanto, su autonomía igualmente limitada. Por eso el Royal
Flying Corps (RFC), fundado en 1912, tenía alas navales y terrestres y no era un
comando independiente. La aviación inglesa y la rusa, al comienzo de la lucha,
prácticamente podían considerarse como inexistentes, y algo muy semejante
acontecía a la de los belgas y austríacos. Pero pronto, en Rusia, el diseñador Igor
Sikorski había producido algunos de los biplanos cuatrimotores más afortunados
que surcaban el aire. Su desarrollo como aviones militares, sin embargo, se veía
obstaculizado por la falta de motores y repuestos. Así en agosto de 1914 había
pocos aviones listos para la acción. En el Frente de Oeste, los alemanes tenían
unos 180 y unos 20 hidroaviones útiles. El servicio aéreo de marina británica
contaba con 39 aviones, de poco valor militar, mientras que la RFC tenía sólo 48
aviones en Francia en agosto. Los franceses podían presentar 136 aviones de los
más diversos tipos. La fuerza conjunta británica y francesa era, pues, de unos 185
aviones frente a los 180 alemanes. Alemania y Francia estaban al principio mejor
equipadas que Gran Bretaña, que durante los primeros meses tuvo que depender
de las fábricas francesas para sus aviones y repuestos. Pero el desarrollo de la
observación aérea fue rápido, tanto en técnicas como en refinamiento. Las
comunicaciones entre aire y tierra se hicieron al principio mediante luces de
colores diversos, más tarde mediante telegrafía sin hilos. También se aplicó la
fotografía, ya en septiembre de 1914. Hacía tiempo que se empleaba la fotografía
de posiciones y movimientos enemigos, pero daba visiones distorsionadas,
puesto que el vulnerable globo no se podía colocar directamente sobre su
objetivo.

6
A medida que avanzaba la guerra el reconocimiento se hizo más profesional y
amplio. Los primeros informes de los pilotos sobre concentraciones y movimientos
enemigos se ampliaron mediante avances técnicos en la fotografía. A menudo se
enviaba aviones de artillería para ayudar a los cañones a precisar el alcance de
los blancos enemigos, escuadrillas de largo alcance bombardeaban y
fotografiaban las concentraciones y fortificaciones enemigas en retaguardia.
Debido a que la Primera Guerra Mundial fue en gran medida una guerra de
artillería masiva, esta cooperación con la artillería era de gran importancia. El
globo cautivo, lleno de gas, era de gran valor a ese respecto, pero también eran
vulnerables a los aviones enemigos, pues estaban anclados al suelo y los dos
observadores de la barquilla inferior estaban desarmados. Las armas habituales
eran pistolas y fusiles, aunque algunos pilotos ingeniosos llevaban consigo un
ladrillo o piedra pesada con la esperanza de tirarla a través del frágil fuselaje de
algún avión enemigo.
En mayo de 1915, los alemanes consiguieron la supremacía aérea, absoluta
aunque temporal, con un nuevo artefacto, el llamado engranaje interruptor. Hasta
entonces, aunque muchos aviones llevaban ametralladora, al piloto le había
resultado imposible disparar hacia delante -la dirección mas obvia y letal- por
miedo de destruir su propia hélice. Se diseñaron numerosos expedientes
mecánicos para superar este problema, entonces el holandés Anthony Fokker,
que diseñó dos de los aviones alemanes más exitosos –el Fokker y el Albatros-
desarrolló el sincronizador o engranaje interruptor, que permitía disparar a través
de la hélice, dejando de disparar temporalmente la ametralladora cuando había
una hoja justo delante de la boca. Los alemanes fabricaron grandes cantidades de
engranaje interruptor, hacia 1915, con un excelente resultado, ya que los cazas
Fokker derribaron muchos aviones británicos y franceses con pocas pérdidas
propias. El "azote Fokker" obligó a los aliados a replantear su estrategia en el aire.
Pronto ellos también tuvieron engranajes interruptores, pero mientras tanto habían
desarrollado un método de patrullas ofensivas por el cual los cazas estaban
adscritos a escuadrillas específicas con el objeto de destruir a los contrarios
detrás de las líneas enemigas, para dejar sin enemigos potenciales los aviones de
reconocimiento. Su dominio no duró mucho, pues los alemanes no sólo

7
produjeron monoplanos más elaborados, sino también el sistema de "circo". Cada
una de esas escuadrillas estaba dirigida por un "as" hábil, el más famoso de los
cuales era Manfred von Richthofen, el "Barón Rojo", quien elegía personalmente a
los pilotos de su escuadrilla.
Los alemanes trataron de desmoralizar el frente doméstico británico mediante
ataques aéreos contra Londres y la costa oriental, pero los aliados tenían dentro
de su radio de acción un blanco importante más significativo: el corazón industrial
de Alemania, el Ruhr y el Sarre, donde se fabricaba la mayor parte de la
munición. Sin embrago, como observó Basil Liddell Hart: "La inmensa oportunidad
de invalidar el suministro de municiones a los ejércitos alemanes se sacrificó en
favor de combates aéreos sobre el frente de trincheras". No obstante, aunque
tardíamente, los aliados habían llegado a comprender el potencial mortal del arma
aérea. Ahora, por primera vez, se podía emplear a los aviones como fuerza
separada, autónoma. Así, cuando el frente aliado fue destrozado por la última
ofensiva alemana, en marzo de 1918, todas las escuadrillas británicas y francesas
que estuvieran libres se combinaron para atacar conjunta y coordinadamente a
los alemanes en avance. La fuerza aérea tuvo incluso un papel más importante
cuando, en otoño, el ataque final alemán se vio destruido por los contraataques
masivos aliados. El daño material fue limitado, pero la producción industrial
alemana efectivamente sufrió, y el efecto que tuvo sobre la población civil ya
cansada de la guerra redujo más aún la moral. Esta nueva concepción de la
guerra (derrotar al enemigo no mediante un ataque frontal sino destruyendo su
corazón industrial) se aplicaría con efectos terribles en conflictos futuros.

SEGUNDA GUERRA MUNDIAL

Durante los años treinta las compañías aeronáuticas francesas pusieron en vuelo
150 modelos diferentes de aviones militares, muchos de ellos se destacaron por
su feo aspecto, pero a partir de 1935 los diseñadores galos fueron creando cada
vez diseños más competitivos. El único caza disponible por la Armée de l´Air (la
fuerza aérea francesa) en gran número durante 1939 fue el M.S.406, que cuando
se enfrentó al Bf 109E resultó un fracaso por su poca velocidad. Dejando a un
lado los magníficos prototipos de ingenieros tales como Vernisse y Galtier en el
Arsenal de l´Aéronautique, que no llegaron a los escuadrones, se consideró que
el mejor caza francés de la Segunda Guerra Mundial fue el Dewoitine 520. L
´Armée de l´Air de 1939 estaba en condiciones desastrosas. Poseía sólo 1300
aparatos, casi todos tenían cinco o hasta diez años de edad. Los únicos
bombarderos franceses modernos y eficaces eran los bimotores Lioré y Oliver
LeO 451 y Potez 633. Del primer tipo sólo cinco ejemplares estaban preparados el
día que Francia entró en guerra, el 3 de septiembre de 1939. Los motores de que
se disponía no eran lo suficientemente potentes para hacer que los cazas
franceses demostraran ser adecuados cuando llegaba la prueba final. Se
consideró que el mejor caza francés de la Segunda Guerra Mundial fue el

8
Dewoitine 520, pequeño y ligero, lo suficientemente ágil para ser eficaz.

Alemania

En 1939 la aviación alemana (Luftwaffe) era la más potente y moderna fuerza


aérea del mundo. Disponía en el mismo año de 4800 aparatos de guerra. La
producción mensual alemana era de 1100 aviones, casi el doble de la industria
británica. Los fundamentales cazas en servicio eran dos: el Messerschmitt 109,
monomotor de brillantísimo rendimiento, el más logrado de los aparatos
alemanes, y el Messerschmitt 110, después bimotor, un caza pesado
específicamente adaptado para la caza nocturna. Con aparatos de tal calidad, y
no sólo gracias a su número, la Alemania de Hitler estaba segura de ganar la
guerra, aunque casi todos terminarían fracasando, porque la táctica y la estrategia
de la guerra aérea cambiarían mucho más de prisa de lo que suponían los altos
jefes de la Luftwaffe. Cuando fue posible, la Alemania nazi tuvo más de un tipo de
avión para cada misión de combate, así como nuevos diseños preparados para
convertirse en la siguiente generación. Si algún caza tuvo un comienzo
desalentador éste fue el Messerschmitt Bf 109 (que realizó su primer vuelo en
mayo de 1935), que sufrió muchas quejas. Pero en vez de desaparecer de la
escena aeronáutica, no sólo fue el caza seleccionado por la Luftwaffe en 1937,
sino que virtualmente fue su único caza entre 1937 y 1942. A finales de 1944 no
sólo estaba entrando en servicio en grandes cantidades el birreactor Me 262, sino
que la Luftwaffe también utilizaba el interceptador Me 163, impulsado por un
motor cohete que le daba una gran velocidad de trepada aunque carecía de
alcance y autonomía. Ambos eran excelentes máquinas en el aire, aunque
sufrieron diversos problemas que restringieron su valor, y llegaron demasiado
tarde para evitar la derrota.
Gran Bretaña
La Royal Air Force, la aviación británica, era todavía débil al comienzo del

9
conflicto, pero el plan de modernización de las escuadrillas (los grupos aéreos)
progresaban a ritmo acelerado. En primer línea estaban los bombarderos de
altura, todos bimotores, menos veloces que sus correspondientes alemanes, pero
bastante más adaptados a los fines estratégicos; aunque, por el momento, eran
pocos. Algunos destacamentos de caza tienen ya adjudicado el inmejorable
Spitfire, uno de los primeros aviones británicos en adoptar la construcción con los
modernos revestimientos resistentes, y dotado de alas elípticas, poco común, que
le permitía descender en picado más rápidamente que cualquier otro avión. Sin
embargo, la importancia del Spitfire residió en su increíble capacidad de
desarrollo, ya que fue capaz de recibir más potencia, más combustible, cañones,
bombas y equipo naval, e incluso llevó barriles de cerveza con destino a las
tropas en las cabezas de playa de Normandía.
Polonia
La aviación polaca disponía de unos centenares de aviones de producción
nacional. Sin embargo, Polonia fue invadida en cuestión de semanas o días por
los ejércitos alemanes y pocos de sus aparatos sobrevivieron. El país dió una
imagen muy pobre. A mediados de los años treinta, su fuerza aérea había sido
una de las más potentes y mejor entrenadas de Europa, y su despliegue de
regimientos de caza equipados con el P.11 hubiera podido hacer frente a
cualquier agresor. Sin embargo, en 1939 esos cazas estaban pasados de moda.
Hubo realmente un sustituto, el PZL P.50 Jastrzab, pero sólo existía un prototipo
cuando los alemanes invadieron Polonia, y fue abatido por la artillería antiaérea al
confundirlo con un avión alemán.
Australia
La Commonwealth de Australia, separada geográficamente de sus enemigos
potenciales, gastó sólo simbólicas cantidades en defensa y no tuvo prácticamente
capacidad de fabricar aviones de combate hasta justo después del inicio de la
Segunda Guerra Mundial. Quizás en parte por la iniciativa del comandante de ala
Lawrence Wackett, quien formó la Tugan Aircraft y posteriormente, en 1936,
registró la Commonwealth Aircraft Corporation, germinó la semilla de una industria
aeronáutica.
Unión Soviética
Tan en secreto trabajaron los soviéticos que el mundo comenzó a conocer sus
aviones a través de las fotografías editadas por los alemanes, durante sus
invasiones. Los dos únicos cazas que se pensaba que existían eran el biplano
Chato y el monoplano Rata, y estos nombres eran los apodos con los que los
bautizaron los pilotos de Franco durante la Guerra Civil española. No fue hasta los
años sesenta cuando los estudiosos del potencial aéreo soviético comenzaron a
reunir las piezas de la impresionante historia de lo que habían conseguido los
burós de diseño (OKB) soviéticos. Los Chato y Rata (en realidad los I-15 e I-16)
habían sido los cazas predominantes en 1941, pero también estaban en
producción aparatos mucho mejores. Los LaGG, MiG y Yak estaban destinados a

10
ser fabricados en cantidades fantásticas a pesar de la necesidad imperiosa del
otoño de 1941 de evacuar la mayoría de las fábricas e instalar nuevas cadenas de
montaje más al este. Gradualmente y con un coste horroroso, el control del
espacio aéreo en el frente del Este fue pasando a manos soviéticas. En los
combates tomaron parte algunos cazas enviados desde EE.UU. y Gran Bretaña, y
también algunos pilotos no soviéticos.
Estados Unidos
Geográficamente alejados de cualquier enemigo potencial, los EE.UU. dedicaron
únicamente sumas modestas a los aviones de combate hasta que las guerras en
China, España y luego Europa forzaron al país a despertarse, a finales de los
años treinta. En esta época, a pesar de tener una industria de primera línea en
capacidad técnica, tecnológica y potencial de producción, la nación no se había
volcado en el diseño de cazas y no tenía nada similar al Bf 109E o al Spitfire. En
noviembre de 1939, cuando la North American Aviation fue requerida por Gran
Bretaña para que construyera el Curtiss P-40 para la RAF, el presidente de la
compañía, "Dutch" Kindelberger, replicó que la NAA podía diseñar un caza mucho
mejor y partiendo de cero. El P-40, aunque mediocre, era algo seguro, mientras
que NAA no tenía experiencia en la construcción de cazas. El NA-73 resultante
tenía un motor Merlin. Llamado Mustang, el avión resultó ser una obra maestra.
Un área donde Estados Unidos demostró su hegemonía fue en la de los aviones
navales. El Grumman F4F mantuvo a solas el poderío sobre los océanos hasta
que en 1943 hicieron su aparición los formidables F6F y F4U. Gracias a sus
potentes motores podían mover sus pesadas células mucho mejor que sus
pequeños y ligeros enemigos.
Italia
En los años treinta Italia se encontraba a la cabeza en la fabricación de motores
avanzados de combustión interna, tenía un instinto especial para el diseño
aeronáutico y sus pilotos acrobáticos eran excelentes. Durante la guerra el
potencial aéreo italiano fue rápidamente considerado por los británicos como un
bienvenido descanso en la dura tarea de combatir contra la Alemania nazi. El
caza italiano más numeroso era el biplano C.R.42, muy agradable de pilotar pero
ampliamente superado por Hurricane y Spitfire. Además de los tipos principales,
Italia produjo también numerosos cazas menores, pero hacia 1943 ya había
perdido tanto la capacidad como el deseo de lucha y casi ninguno de estos
excelentes cazas llegó a ser fabricado en serie.
Japón
Como en el caso de la Unión Soviética, el desarrollo de aviones de caza en Japón
era casi completamente desconocido para los países occidentales en el momento
del ataque a Pearl Harbor, en diciembre de 1941. En lugares tales como Londres
y Washington creían que los japoneses sólo podían hacer copias inferiores de los
aparatos occidentales y que sus fuerzas aéreas y navales estaban equipadas casi

11
por completo con biplanos con tren de aterrizaje fijo. El resultado inevitable fue
que cuando los pilotos aliados se enfrentaron con los cazas japoneses, estos
últimos no representaron solamente una sorpresa grave y desagradable, sino que
en alguna medida fueron considerados como casi invencibles por ambos bandos.
Las máquinas japonesas tenían una célula muy ligera y escasa protección: se
había primado la maniobrabilidad a toda costa.

POSGUERRAS

En el año 1945 la producción de aeroplanos militares en Estados Unidos se


redujo drásticamente, pero los pedidos de aviones civiles se incrementaron
considerablemente. Al finalizar el año, los fabricantes tenían contratos para
construir 40.000 aviones en contraste con la producción máxima de 1941 que
fue de 6.844. De nuevo las líneas aéreas nacionales e internacionales
norteamericanas rompieron las plusmarcas anteriores en todos los tipos de
tráfico y consiguieron sustanciales mejoras con respecto a 1941. Se redujeron
las tarifas tanto de pasaje como de carga y en 1945 volvieron a operar todos
los servicios comerciales internacionales. La experiencia obtenida en la
fabricación de aviones militares durante la guerra fue utilizada en la
construcción de aviones civiles nada más terminar las hostilidades. Las
compañías aéreas dispusieron de aviones más grandes y mas rápidos con
adelantos como las cabinas presurizadas. Se mejoraron los aeropuertos, los
pronósticos meteorológicos y las ayudas a la navegación fueron más eficientes
y aumentó la demanda pública de transporte aéreo de pasaje y carga, que
creció a niveles desconocidos hasta entonces gracias a la repentina
prosperidad de la posguerra.

Los experimentos en el campo del diseño aerodinámico, de los nuevos


metales, nuevas plantas de potencia y avances electrónicos trajeron el
desarrollo de los aviones turborreactores de alta velocidad, diseñados para
vuelos transoceánicos, vuelos supersónicos, aviones cohete experimentales,
aviones de despegue corto o vertical (STOL, VTOL) y cohetes espaciales
(véase Aeroplano; Propulsión a chorro; Exploración del espacio).
En diciembre de 1986 el avión ligero experimental Voyager completó con éxito
el primer vuelo alrededor del mundo sin escalas y sin repostar. Fue diseñado
por Burt Rutan, que lo dotó de líneas muy poco ortodoxas que recuerdan en

12
algunos aspectos a un catamarán. El avión iba provisto de dos motores, el
delantero para despegar maniobrar y aterrizar y el posterior para el vuelo de
crucero. Los materiales eran de plástico ligero por lo que su peso al despegar
era tan solo de 4.420 kilogramos y cargaba 4.500 litros de combustible
distribuidos en 17 depósitos. Una vez consumidos, su peso al aterrizar era de
840 kilogramos. Los pilotos fueron Dick Rutan (hermano de Burt) y Jeanna
Yeager, y volaron 40.254 kilómetros en 9 días, 3 minutos y 44 segundos, a una
velocidad media de 186,3 km/h. Este vuelo estableció una nueva plusmarca de
distancia y tiempo en el aire, duplicando el de distancia que permanecía desde
1962 en 20.169 kilómetros.
Ya en 1889 se efectuaron varias conferencias para resolver los problemas
internacionales originados por la aviación, pero hasta 1947 no se creó el
primer organismo adecuado: la Organización de la Aviación Civil Internacional
(OACI), adscrita a la ONU, con sede en Montreal (Canadá). Otra organización
que surge a partir de la iniciativa de las compañías aéreas es la Asociación
Internacional del Transporte Aéreo (IATA), también con sede en Montreal y
que agrupa a más de 100 empresas de transporte aéreo, por lo general de
líneas regulares, unidas en este organismo para resolver sus problemas
comunes. El gran desarrollo de la aviación a escala mundial ha obligado a
todos los países a establecer leyes y regulaciones que permitan un eficiente y
seguro tráfico aéreo y a firmar convenios y protocolos internacionales como el
de Tokio en 1963 o el de La Haya en 1973. En la actualidad existen en la
mayor parte de las naciones leyes sobre la navegación aérea que junto con
otras medidas han llevado a este medio de transporte a convertirse en uno de
los más seguros y eficientes.

La Aviación Militar

La aviación militar comprende los medios materiales y humanos que conforman la


fuerza aérea de una nación. El concepto de aviación militar implica la utilización de
las aeronaves (aviones y helicópteros) con fines bélicos, ya sea para atacar al
enemigo como para brindar apoyo a las fuerzas propias, dentro de un marco
táctico y estratégico dado.
La aviación militar abarca también todo lo que está relacionado con los vuelos de
ataque y de defensa, de reconocimiento y vigilancia, de transporte, de rescate, y
otros similares, así como los sistemas de control y seguimiento de estos.
El origen del empleo de las aeronaves para fines bélicos se remonta a la
mitología, cuando Belerofonte mata a la Quimera montando su caballo alado
Pegaso. Si bien aquí no hay presencia de vehículos aéreos creados por el
hombre, se vislumbra ya el concepto del combate desde el aire como ventaja
táctica.

13
Estrictamente, la primera vez que se utilizan aeronaves para realizar operaciones
militares (aunque no de combate) fue en 1794, durante la batalla de Fleurus,
cuando el ejército francés emplea globos para observar a las fuerzas austríacas. A
pesar del enorme potencial de estos aparatos para las labores de observación y
reconocimiento en el campo de batalla, tuvieron una difícil historia operacional,
pues el mismo Napoleón los desestimó como instrumentos valiosos para la guerra.

Aviones de ataque

Avión de ataque a tierra estadounidense A-10 Thunderbolt II.

Los aviones de ataque, tal como su nombre lo indica, son aeronaves


específicamente diseñadas para destruir objetivos enemigos en la superficie, tanto
terrestre como marítima. A veces se los denomina "cazas de ataque" o incluso se
los incluye en la simplificación del término "cazas", pero no se debe confundirlos
con los aviones de caza-intercepción o con los cazabombarderos; ya que los
primeros sólo combaten contra otras aeronaves, y los segundos cumplen misiones
mixtas de combate aéreo y ataque a superficie, mientras que los cazas de ataque
tienen como prioridad el ataque al suelo. Sin embargo, conviene señalar que esto
no priva a los aviones de ataque de poder portar y disparar misiles aire-aire como
precaución defensiva en caso de ser interceptados por el enemigo. De hecho, la
mayoría de los aviones de ataque son capaces de derribar otras aeronaves
llegadas el caso, pero en cambio no son capaces de luchar un "dogfight" (un
combate aéreo). Lo cierto es que la categoría de aviones de ataque contiene
aeronaves muy diversas, tanto en su forma y categoría como en sus misiones y
objetivos. Podemos encontrar aviones con motor de pistón, tales como el A-1
Skyarider de apoyo cercano y el IA-58 Pucará de misiones COIN
(contrainsurgencia), así también como el potente F-15E Strike Eagle, que si bien

14
es especialista en misiones de ataque conserva la capacidad de ataque combate
aire-aire del modelo F-15C, por lo qué técnicamente es un cazabombardero,
aunque generalmente es considerado un avión de ataque; además, tenemos los
aviones de ataque puro, cómo el A-10 Thunderbolt y el Su-25 Frogfoot.
Tampoco se debe confundir a los cazas de ataque con los bombarderos, ya que
éstos últimos poseen objetivos y misiones diferentes. Los bombarderos atacan
objetivos relativamente grandes (no necesariamente en tamaño pero sí en
importancia estratégica) y comúnmente vuelan desde bases lejanas y a gran
altura, para evitar radares y defensas anti-aéreas, ya que son relativamente lentos,
grandes y vulnerables; en cambio, los cazas de ataque se ocupan de objetivos
más pequeños, es decir, tácticos, y operan desde el mismo teatro de operaciones
en misiones a baja cota, combatiendo a quemarropa contra las defensas del
enemigo. Por lo tanto, deben estar equipados con un fuerte blindaje tanto en el
fuselaje como en los motores, armas inteligentes que puedan ser colocadas con
precisión al primer disparo, equipos de contramedidas electrónicas para ser
menos vulnerables a las armas enemigas y potentes motores que puedan volar
bajo y lento cuando sea necesario (para identificar y apuntar a los objetivos) y que
sean capaces de soportar el peso extra de armas y combustible.
En conclusión, lo que define a un avión de ataque es que su principal misión
(aunque no sea la única) es el ataque a objetivos en superficie. Se trata de
aparatos capaces de ejecutar misiones imposibles para los demás.
Ejemplos de aviones de ataque:
Contra-insurgencia o contraguerrilla: IA-58 Pucará, OV-10 Bronco.

Aviones de ataque puro: A-1 Skyraider, A-10 Thunderbolt, Su-25 Frogfoot.

15
Aviones especialistas en ataque, pero que conservan capacidades de caza: F-15E
Strike Eagle, Panavia Tornado IDS

Bombarderos

Bombardero estratégico estadounidense B-52 Stratofortress.

Los bombarderos son aviones diseñados para transportar una carga bélica
determinada y lanzarla sobre un objetivo, ya sea en tierra o en el mar, teniendo
muchas veces para ello que adentrarse en espacio aéreo dominado por el
enemigo, que empleará los medios antiaéreos y los aviones caza de su sistema de
defensa para evitar el ataque.
16
Los bombarderos están dotados de bodegas y/o puntos de anclaje externos donde
transportan la carga que puede ser bombas o también misiles crucero, y deben
contar con medios para apuntar el lanzamiento, estos pueden ser ópticos o
electrónicos.
Los bombarderos no se diseñaron para enfrentarse directamente con otras
aeronaves y se clasifican de acuerdo con la capacidad en peso en armas que
pueden transportar. Así, se distinguen bombarderos ligeros, medianos y pesados,
de acuerdo con designaciones muchas veces arbitrarias. Conjugando la capacidad
de transporte con el alcance, se puede además clasificar a los bombarderos como
convencionales o estratégicos, estos últimos cuando suponen una amenaza para
una nación potencialmente enemiga, convirtiéndose en un elemento disuasorio de
primer orden.
Ejemplos de bombarderos son: B-1 Lancer, B-2, B-52, Tu-22M, Tu-160, etc.

Aviones de caza

17
Caza de superioridad aérea estadounidense F-22 Raptor.
Se denominan "caza" o "caza-interceptores" a aquellas aeronaves concebidas,
diseñadas, equipadas, armadas y utilizadas para la búsqueda y destrucción de las
aeronaves del enemigo, así como para la defensa del espacio aéreo propio.
Un avión caza es, en realidad, el último eslabón del sistema de defensa aérea de
un determinado país, el cual comienza en el Estado Mayor de su fuerza aérea y
abarca todos los medios de detección y neutralización de la amenazas que
puedan presentarse en el espacio aéreo propio. De ahí la denominación, ya que
su función es "cazar" a otras aeronaves.
Los aviones caza tienen la función de desplegarse para defender puntos
estratégicos en caso de que el enemigo envíe sus aviones para atacarlos. Por
tanto, es esencial que entre sus características figure poder emplear pistas de
reducidas dimensiones; poseer potencia suficiente para ganar altura en poco
tiempo, así como una gran velocidad final; poseer agilidad y maniobrabilidad para
el combate cercano; contar con medios electrónicos (como el radar) para detectar
y poder atacar al adversario; y, por último, tener la capacidad de portar y disparar
munición para el combate aire-aire.
El avión de caza es el encargado de patrullar el espacio aéreo propio en las
llamadas CAP (Combat Air Patrol, del inglés: Patrulla Aérea de Combate) y del
dogfight, término que en inglés significa literalmente "pelea de perros", y que hace
referencia al combate cerrado entre aviones. Aquí conviene diferenciar entre los
aviones caza-interceptores "livianos" y los "pesados". Los primeros son más
pequeños y livianos, ya que su misión principal consiste en defender el espacio
áereo propio (Mirage III, BAC Lightning, MiG-23, F-102, F-106,etc.), mientras que
los segundos deben adentrarse en el espacio aéreo del enemigo para
arrebatárselo, por eso se los llama también cazas de superioridad aérea (Su-27,
F-22).
Ejemplos de aviones caza-interceptores son: F-102, F-106 Delta Dart, Mirage IIIC
(no confundir con la versión IIIE), BAC Lightning, F-14 (aunque la Armada de los
Estados Unidos lo equipó luego con bombas), F-15, F-22 (actualmente re
designado "F-22A" ya que se le agregó la capacidad de portar bombas), MiG-23,
Su-27, etc.

18
Como se ven, la mayoría de las veces tanto los fabricantes como los gobiernos
clientes de los mismos, terminan optando por los cazabombarderos, debido a su
mayor relación costo-beneficio.

Aeronaves de transporte logístico

Avión de transporte militar español CASA C-295.

Las aeronaves de transporte militar son típicamente aeronaves de carga de ala fija
o giratoria que son usadas para enviar tropas, armamento y otro equipamiento
militar a través de distintos métodos a cualquier lugar de operaciones militares
alrededor de la superficie del planeta, normalmente fuera de las rutas de vuelo
comerciales en espacio aéreo no controlado. Originalmente derivados de
bombarderos, los aviones de transporte militar fueron usados para desplegar
fuerzas aerotransportadas durante la segunda Guerra Mundial y remolcar
planeadores militares. Algunas aeronaves de transporte militar están diseñadas
para desempeñar múltiples misiones como reabastecimiento en vuelo y transporte
táctico, operacional y estratégico sobre pistas no preparadas, o construidas por
ingenieros.

Helicópteros militares

19
Helicóptero de ataque estadounidense AH-64 Apache.
Un helicóptero de ataque es un helicóptero militar específicamente diseñado y
fabricado para portar armamento dedicado a atacar objetivos terrestres, tales
como infantería, vehículos blindados y estructuras del enemigo. El armamento
usado en los helicópteros de ataque pueden incluir cañones automáticos,
ametralladoras, cohetes, y misiles como el AGM-114 Hellfire o el Spike ER.
Muchos helicópteros de ataque también tienen capacidad para llevar misiles aire-
aire, aunque normalmente como medida de autoprotección. Actualmente, los
helicópteros de ataque tienen dos cometidos principales: el primero, proporcionar
apoyo aéreo cercano directo y preciso a las unidades terrestres, y el segundo,
destruir vehículos acorazados y mecanizados del enemigo en el marco de
misiones antitanque. También son utilizados para complementar a helicópteros
más ligeros, como el OH-58 Kiowa, en misiones de reconocimiento armado.

Aeronaves de reconocimiento

20
Aeronaves experimentales

En la actualidad hay muchas clases diferentes de aeronaves: aviones de


propulsión a chorro, aeroplanos con hélices propulsoras, y helicópteros. Todas
estas aeronaves tuvieron que ser probadas para asegurarse de que fueran
seguras.

Aviones de combate polivalentes

21
Cazabombardero polivalente ruso-indio Sujói Su-30MKI.
El cazabombardero es un avión caza que además de poder asumir la función de
defensa aérea, sirve como plataforma de ataque al suelo. En general, se los
denomina simplemente cazas, y descienden de los cazas puros o caza-
interceptores, ya que muchas veces son versiones con capacidad aire-suelo de los
mismos. De hecho, por razones presupuestarias, pocas naciones pueden darse el
lujo de poseer un avión distinto para cada función, optando por aeronaves
ultimación.
El cazabombardero es el principal avión de combate con que cuentan las fuerzas
aéreas de todo el mundo ya que es un sistema de armas muy flexible, pudiéndose
emplear, indistintamente, tanto para tareas de vigilancia del espacio aéreo como
para misiones de ataque a superficie de objetivos tácticos, asumiendo además
tareas anti buque, de guerra electrónica, supresión de defensas, reconocimiento,
etc.
Ejemplos de cazabombarderos son: F-4, F-15E Strike Eagle, F-16, F-18, F-35,
MiG-23B Flogger-F, MiG-29, Su-30, etc.

Aviones supersónicos

22
Los aviones supersónicos vuelan a mayor velocidad que el sonido (MACH 1).
Existen muchos aviones militares supersónicos, pero solo se han fabricado 2
aviones supersónicos de pasajeros (también llamados SST):el ruso Tu-144 y el
Concorde, producido conjuntamente por franceses y británicos. El Tu-144 tenía
una velocidad máxima mayor que el Concorde, pero fue retirado en 1978, después
de solo 6 meses en servicio. El Concorde ha permanecido en servicio desde 1976.
Se caracteriza por muchas innovaciones, que incluyen una proa abatible que se
baja durante el despegue y el aterrizaje para mejorar la visibilidad de la cabina de
mando; y también el bombeo de combustible y entre los tanques de compensación
delanteros y traseros para ayudar a estabilizar el avión. El concorde tiene un
fuselaje estrecho y corta envergadura de alas para reducir la resistencia durante el
vuelo supersónico. Sus ruidosos motores turborreactores con postquemador le
capacitan para transportar 100 pasajeros a una velocidad de crucero de MACH 1
entre 15000/18000 metros de altitud.
Cuando un avión rebasa la velocidad de MACH 1 se produce una onda de choque,
o expansión, que es percibida como un "estampido sónico".

Concorde Mach 1

AVIONES MILITARES MODERNOS

Los aviones militares modernos se encuentran entre los productos más


sofisticados y costosos del siglo 21. Las cazas necesitan más controles operados
por computadora para su maniobrabilidad, sus potentes motores y eficaces armas
aire-aire.
La mayoría de los cazas modernos también disponen de misiles guiados, radar y
sensores pasivos e infrarrojos. Estos perfeccionamientos técnicos capacitan a los
cazas actuales a entrar en combate con adversarios que se encuentran fuera de
su alcance visual. Los bombarderos transportan una enorme carga de armamento
y suficiente combustible para vuelos de largo alcance; el método utilizado para
deshacerse de los tanques de combustible ya vacíos es el de desprender dichos
tanques en pleno vuelo. Unos pocos aviones militares, como el tornado y el F-14

23
TOMCAT, disponen de alas de flecha variables (oscilante). Durante el despegue y
el aterrizaje sus alas están completamente extendidas, pero para vuelos de alta
velocidad y ataques a bajo nivel las alas son pivotadas hacia atrás.
Una reciente innovación técnica es el bombardero "STEALTH" (el furtivo) que está
diseñado para absorber o desviar el radar enemigo y no ser detectado. Los
bombarderos anteriores, como el Tornado, utilizan radares de seguimiento del
terreno para volar tan cerca del suelo que impiden su detección por el radar
enemigo.
Uno de los grandes descubrimientos de la aviación moderna ha sido la
construcción y desarrollo de los helicópteros tanto en el ámbito militar como civil.

LOS AVIONES DEL FUTURO

Gracias al efecto combinado de los nuevos materiales y del uso de la informática,


el avión del futuro imitará cada vez más el vuelo de los pájaros. Utilizará
alas aéreas elásticas que se tensarán como los músculos y se juntarán en
vuelo, al mismo tiempo que su ancho y longitud podrán variar hasta un
50%, toda una revolución en la ingeniería aeroespacial.

24
Celulares
El uso de los teléfonos celulares, ha aumentado de manera notable en los últimos
años. Esta demanda creciente de la comunicación celular ha sido necesariamente
acompañada por la instalación de una red de estaciones base de antenas para poder
recibir y para enviar las señales adecuadas a esas comunicaciones.

En la actualidad se calcula que en todo el mundo existen aproximadamente 200


millones de usuarios, este aumento creciente en el uso de esos servicios públicos
(aunque en su mayoría son prestados por empresas privadas), ha generado al mismo
tiempo la preocupación sobre los potenciales efectos indeseados para la salud. Así, el
hecho de vivir, trabajar, ir a la facultad, ir a la escuela o trabajar en el último piso de un
edificio cuya azotea se encuentra poblada de dispositivos de comunicación, ha generado
preocupación en los usuarios.

Una característica actual es el hecho que los sistemas de comunicaciones inalámbricos


se encuentran ampliamente distribuidos dado su ubicuidad, prestando servicios incluso en
zonas remotas.

TELÉFONO MÓVIL O CELULAR

El teléfono móvil es un dispositivo inalámbrico electrónico que permite tener


acceso a la red de telefonía celular o móvil. Se denomina celular debido a las
antenas repetidoras que conforman la red, cada una de las cuales es una célula, si
bien existen redes telefónicas móviles satelitales. Su principal característica es su
portabilidad, que permite comunicarse desde casi cualquier lugar. Aunque su
principal función es la comunicación de voz, como el teléfono convencional, su
rápido desarrollo ha incorporado otras funciones como son cámara fotográfica,
agenda, acceso a Internet, reproducción de vídeo e incluso GPS y reproductor
mp3.

FUNCIONAMIENTO

La comunicación telefónica es posible gracias a la interconexión entre centrales


móviles y públicas.

Según las bandas o frecuencias en las que opera el móvil, podrá funcionar en
una parte u otra del mundo.

La telefonía móvil consiste en la combinación de una red de estaciones


transmisoras-receptoras de radio (repetidores, estaciones base o BTS) y una serie
de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC
respectivamente), que posibilita la comunicación entre terminales telefónicos
portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija
tradicional.

25
Los teléfonos celulares, por sofisticados que sean y luzcan, no dejan de ser
radio transmisores personales. Siendo un sistema de comunicación telefónica
totalmente inalámbrica, los sonidos se convierten en señales electromagnéticas,
que viajan a través del aire, siendo recibidas y transformadas nuevamente en
mensaje a través de antenas repetidoras o vía satélite.

Para entender mejor cómo funcionan estos sofisticados aparatos puede ayudar
compararlos con una radio de onda corta (OC) o con un walkie-talkie. Un radio OC
es un aparato simple. Este permite que dos personas se comuniquen utilizando la
misma frecuencia, así que sólo una persona puede hablar al tiempo. Un teléfono
celular es un dispositivo dual, esto quiere decir que utiliza una frecuencia para
hablar, y una segunda frecuencia aparte para escuchar. Una radio OC tiene 40
canales. Un teléfono celular puede utilizar 1664 canales. Estos teléfonos también
operan con “células” (o “celdas”) y pueden alternar la célula usada a medida que el
teléfono es desplazado. Las células le dan a los teléfonos un rango mucho mayor
a los dispositivos que lo comparamos. Un walkie-talkie puede transmitir hasta
quizás una milla. Una radio OC, debido a que tiene un poder mucho más alto,
puede transmitir hasta 5 millas. Alguien que utiliza un teléfono celular, puede manejar a
través de toda la ciudad y mantener la conversación todo el tiempo. Las células
son las que dan a los teléfonos celulares un gran rango.
En un radio simple, ambos transmisores utilizan la misma frecuencia. Sólo uno
puede hablar al tiempo.

El teléfono celular estándar de la primera generación estableció un rango de


frecuencias entre los 824 MHz y los 894 para las comunicaciones analógicas. Para
enfrentar la competencia y mantener los precios bajos, este estándar estableció el
concepto de dos portadores en cada mercado, conocidos como portadores A y B.
A cada portador se le da 832 frecuencias de voz, cada una con una amplitud de 30
KHz. Un par de frecuencias (una para enviar y otra para recibir) son usadas para
proveer un canal dual por teléfono. Las frecuencias de transmisión y recepción de
cada canal de voz están separadas por 45 MHz. Cada portador también tiene 21
canales de datos para usar en otras actividades.

La genialidad del teléfono celular reside en que una ciudad puede ser dividida en
pequeñas "células" (o celdas), que permiten extender la frecuencia por toda una
ciudad. Esto es lo que permite que millones de usuarios utilicen el servicio en un
territorio amplio sin tener problemas. He aquí cómo funciona. Se puede dividir un
área (como una ciudad) en células. Cada célula es típicamente de un tamaño de
10 millas cuadradas (unos 26Km2). Las células se imaginan como unos
hexágonos en un campo hexagonal grande, como este:

Sin embargo, el tamaño de las células puede variar mucho dependiendo del
lugar en que se encuentre. Las estaciones de base se separan entre 1 a 3 Km. en
zonas urbanas, aunque pueden llegar a separarse por más de 35Km en zonas
rurales. En zonas muy densamente pobladas o áreas con muchos obstáculos
(como ser edificios altos), las células pueden concentrarse en distancias cada vez

26
menores. Algunas tecnologías, como los PCS (Personal Communication Services),
requieren células muy cercanas unas de otras debido a su alta frecuencia y bajo
poder en el que operan. Los edificios pueden, a su vez, interferir con el envío de
las señales entre las células que se encuentren más lejanas, por lo que algunos
edificios tienen su propia "microcélula." Los subterráneos son típicos escenarios
donde una microcélula se hace necesaria. Microcélulas pueden ser usadas para
incrementar la capacidad general de la red en zonas densamente pobladas como
ser los centros capitalinos.

Debido a que los teléfonos celulares y las estaciones de base utilizan


transmisores de bajo poder, las mismas frecuencias pueden ser reutilizadas en
células no adyacentes.

Cada celda en un sistema análogo utiliza un séptimo de los canales de voz


disponibles. Eso es, una celda, más las seis celdas que la rodean en un arreglo
hexagonal, cada una utilizando un séptimo de los canales disponibles para que
cada celda tenga un grupo único de frecuencias y no haya colisiones entre células
adyacentes.

Esta configuración puede verse en forma gráfica en la siguiente figura:


Puede observarse un grupo de células numerado en la parte superior.
De esta forma, en un sistema analógico, en cualquier celda pueden hablar 59
personas en sus teléfonos celulares al mismo tiempo. Con la transmisión digital, el
número de canales disponibles aumenta. Por ejemplo el sistema digital TDMA
puede acarrear el triple de llamadas en cada celda, alrededor de 168 canales
disponibles simultáneamente.

Cada célula tiene una estación base que consta de una torre y un pequeño
edificio en donde se tiene el equipo de radio. Cada célula utiliza un séptimo de los
416 canales duales de voz. Dejando entonces a cada célula aproximadamente los
59 canales disponibles nombrados anteriormente. Si bien los números pueden
variar dependiendo de la tecnología usada en el lugar, las cantidades sirven para
mostrar cómo funciona esta tecnología; que en caso de tratarse de una generación
más moderna, puede de todas formas extrapolarse directamente.

Los teléfonos celulares poseen unos transmisores de bajo poder dentro de


ellos. Muchos teléfonos celulares tienen 2 fuerzas de señal: 0.6 Watts y 3 Watts
(como comparación, la mayoría de los radios de onda corta transmiten a 5 Watts).
La estación base también transmite a bajo poder. Los transmisores de bajo poder
tienen 2 ventajas:

El consumo de energía del teléfono, que normalmente opera con baterías, es


relativamente bajo. Esto significa que bajo poder requiere baterías pequeñas, y
esto hace posible que existan teléfonos que caben en la mano. A su vez aumenta
en forma considerable el tiempo en que se puede usar el teléfono entre carga y
carga de la batería.

27
Las transmisiones de las estaciones base y de los teléfonos no alcanzan una
distancia más allá de la célula. Es por esto que en la figura de arriba en cada celda
se pueden utilizar las mismas frecuencias sin interferir unas con otras.
Las transmisiones de la base central y de los teléfonos en la misma celda no salen
de ésta. Por lo tanto, cada celda puede reutilizar las mismas 59 frecuencias a
través de la ciudad.

La tecnología celular requiere un gran número de estaciones base para


ciudades de cualquier tamaño. Una ciudad típica grande puede tener cientos de
torres emisoras. Pero debido a que hay tanta gente utilizando teléfonos celulares,
los costos se mantienen bajos para el usuario. Cada portador en cada ciudad tiene
una oficina central llamada MTSO (PSTN en el diagrama siguiente). Esta oficina
maneja todas las conexiones telefónicas y estaciones base de la región.

TÍPICA TORRE DE TRANSMISIÓN DE TELEFONÍA CELULAR

Cuando el usuario desea realizar una llamada, el teléfono celular envía un mensaje
a la torre solicitando una conexión a un número de teléfono específico. Si la torre
dispone de los suficientes recursos para permitir la comunicación, un dispositivo
llamado "switch" conecta la señal del teléfono celular a un canal en la red de telefonía
pública. La llamada en este momento toma un canal inalámbrico así como un
canal en la red de telefonía pública que se mantendrán abiertos hasta que la
llamada se concluya.

Digamos que usted tiene un celular, lo enciende, y alguien trata de llamarle. La


MTSO recibe la llamada, y trata de encontrarlo. Desde los primeros sistemas la
MTSO lo encontraba activando su teléfono (utilizando uno de los canales de
control, ya que su teléfono se encuentra siempre escuchando) en cada célula de la
región hasta que su teléfono respondiera. Entonces la estación base y el teléfono
decidirán cuál de los 59 canales en su teléfono celular usará. Ahora estará conectado
a la estación base y puede empezar a hablar y escuchar.
A medida que usted se mueva en la célula, la estación base notará que la fuerza
de su señal disminuye. Entretanto, la estación base de la célula hacia la que se
está moviendo (que está escuchando la señal) será capaz de notar que la señal se
hace más fuerte. Las dos estaciones base se coordinan a sí mismas a través del
MTSO, y en algún punto su teléfono obtiene una señal que le indica que cambie
de frecuencia. Este cambio hace que su teléfono mude su señal a otra célula.

En sistemas modernos los teléfonos esperan una señal de identificación del


sistema (IDS) del canal de control cuando se encienden. El teléfono también
transmite una propuesta de registro y la red mantiene unos datos acerca de su
ubicación en una base de datos (de esta forma es que la MTSO sabe en qué
célula se encuentra si quiere timbrar su teléfono). A medida que se mueve entre
células, el teléfono detecta los cambios en la señal, los registra y compara para

28
con los de la nueva célula cuando cambia de canal. Si el teléfono no puede hallar
canales para escuchar se sabe que está fuera de rango y muestra un mensaje de
"sin servicio".

Éste es, en forma bastante simplificada, el funcionamiento de la telefonía


celular; abarcando desde el aspecto teórico en la división de las zonas geográficas
en células, hasta el intercambio de ondas electro magnéticas necesario para
establecer una sencilla comunicación entre dos teléfonos celulares. Si bien puede
enfocarse el tema de manera mucho más técnica, deteniéndose más en aspectos
de frecuencia y amplitud de las ondas por ejemplo, preferimos darle un enfoque
más general, dando sí algunos datos técnicos específicos que nos parecieron de
mayor relevancia para el entendimiento general del tema.

HISTORIA DEL TELÉFONO MÓVIL


La telefonía móvil usa ondas de radio para poder ejecutar las operaciones
desde el móvil a la base, ya sea llamar, mandar un mensaje de texto, etc., y esto
es producto de lo que sucedió hace algunas décadas.
La comunicación inalámbrica tiene sus raíces en la invención del radio por
Nikola Tesla en los años 1880, aunque formalmente presentado en 1894 por un
joven italiano llamado Guglielmo Marconi.
El teléfono móvil se remonta a los inicios de la Segunda Guerra Mundial, donde ya se
veía que era necesaria la comunicación a distancia, es por eso que la compañía
Motorola creó un equipo llamado Handie Talkie H12-16, que es un equipo que permite el
contacto con las tropas vía ondas de radio cuya banda de frecuencias en ese
tiempo no superaban los 60 MHz.

Este fue el inicio de una de las tecnologías que más avances tiene, aunque
continúa en la búsqueda de novedades y mejoras.

Durante ese periodo y 1985 se comenzaron a perfeccionar y amoldar las


características de este nuevo sistema revolucionario ya que permitía comunicarse
a distancia. Fue así que en los años 1980 se llegó a crear un equipo que ocupaba
recursos similares a los Handie Talkie pero que iba destinado a personas que por
lo general eran grandes empresarios y debían estar comunicados, es ahí donde se
crea el teléfono móvil y marca un hito en la historia de los componentes
inalámbricos ya que con este equipo podría hablar a cualquier hora y en cualquier
lugar.

Con el tiempo se fue haciendo más accesible al público la telefonía móvil, hasta
el punto de que cualquier persona normal pudiese adquirir un terminal. Y es así
como en los actuales días el teléfono móvil es uno de los objetos más usados.

LOS INICIOS (0G) PIONEROS

29
Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir
de finales de los años 40 en los Estados Unidos. Eran sistemas de radio
analógicos que utilizaban en el primer momento modulación en amplitud (AM) y
posteriormente modulación en frecuencia (FM). Se popularizó el uso de sistemas
FM gracias a su superior calidad de audio y resistencia a las interferencias. El
servicio se daba en las bandas de HF y VHF.

Los primeros equipos eran enormes y pesados, por lo que estaban destinados
casi exclusivamente a su uso a bordo de vehículos. Generalmente se instalaba el
equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el
salpicadero del coche.

Una de las compañías pioneras que se dedicaron a la explotación de este


servicio fue la americana Bell. Su servicio móvil fue llamado Bell System Service

No era un servicio popular porque era extremadamente caro, pero estuvo


operando (con actualizaciones tecnológicas, por supuesto) desde 1946 hasta
1985.

PRIMERA GENERACIÓN (1G): MADURACIÓN DE LA IDEA

En 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile


Telephony 450 MHz). Este sistema seguía utilizando canales de radio analógicos
(frecuencias en torno a 450 MHz) con modulación en frecuencia (FM). Era el
primer sistema del mundo de telefonía móvil tal como se entiende hoy en día.

Los equipos 1G pueden parecer algo aparatosos para los estándares actuales
pero fueron un gran avance para su época, ya que podían ser trasladados y
utilizados por una única persona.

En 1986, Ericsson modernizó el sistema, llevándolo hasta el nivel NMT 900. Esta
nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias
superiores (del orden de 900 MHz). Esto posibilitó dar servicio a un mayor número
de usuarios y avanzar en la portabilidad de los terminales.

Además del sistema NMT, en los 80 se desarrollaron otros sistemas de


telefonía móvil tales como: AMPS (Advanced Mobile Phone System) en EEUU y
TACS (Total Access Comunication System).

El sistema TACS se utilizó en España con el nombre comercial de MoviLine.


Estuvo en servicio hasta su extinción en 2003.

SEGUNDA GENERACIÓN (2G): POPULARIZACIÓN

En la década de 1990 nace la segunda generación, que utiliza sistemas como


GSM, IS-136, iDEN e IS-95. Las frecuencias utilizadas en Europa fueron de 900 y
1800 MHz.

30
El desarrollo de esta generación tiene como piedra angular la digitalización de
las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de
voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la
fabricación del Terminal (con la reducción de costes que ello conlleva). En esta
época nacen varios estándares de comunicaciones móviles: D-AMPS (EEUU),
PDC (Japón), cdmaOne (EEUU y Asia) y GSM.

El estándar que ha universalizado la telefonía móvil ha sido el archiconocido


GSM: Global Sistem for Mobile communications o Groupe Spécial Mobile. Se trata
de un estándar europeo nacido de los siguientes principios:

• Buena calidad de voz (gracias al procesado digital).

• Itinerancia.

• Deseo de implantación internacional.

• Terminales realmente portátiles (de reducido peso y tamaño) a un precio


asequible.

• Compatibilidad con la RDSI (Red Digital de Servicios Integrados).

• Instauración de un mercado competitivo con multitud de operadores y


fabricantes.

Realmente, GSM ha cumplido con todos sus objetivos pero al cabo de un


tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de
voz o datos a baja velocidad (9.6 Kbps) y el mercado empezaba a requerir
servicios multimedia que hacían necesario un aumento de la capacidad de
transferencia de datos del sistema. Es en este momento cuando se empieza a
gestar la idea de 3G, pero como la tecnología CDMA no estaba lo suficientemente
madura en aquel momento se optó por dar un paso intermedio: 2.5G.

GENERACIÓN DE TRANSICIÓN (2.0G)

Dado que la tecnología de 2G fue incrementada a 2.5G, en la cual se incluyen


nuevos servicios como EMS y MMS:

• EMS es el servicio de mensajería mejorado, permite la inclusión de


melodías e iconos dentro del mensaje basándose en los sms; un EMS
equivale a 3 o 4 sms.
• MMS (Sistema de Mensajería Multimedia) Este tipo de mensajes se envían
mediante GPRS y permite la inserción de imágenes, sonidos, videos y
texto. Un MMS se envía en forma de diapositiva, en la cual cada plantilla
solo puede contener un archivo de cada tipo aceptado, es decir, solo puede
contener una imagen, un sonido y un texto en cada plantilla, si se desea

31
agregar más de estos tendría que agregarse otra plantilla. Cabe mencionar
que no es posible enviar un vídeo de más de 15 segundos de duración.

Para poder prestar estos nuevos servicios se hizo necesaria una mayor
velocidad de transferencia de datos, que se hizo realidad con las tecnologías
GPRS y EDGE.

• GPRS (General Packet Radio Service) permite velocidades de datos desde


56kbps hasta 114 kbps.

• EDGE (Enhaced Data rates for GSM Evolution) permite velocidades de


datos hasta 384 Kbps.

TERCERA GENERACIÓN (3G): EL MOMENTO ACTUAL

3G nace de la necesidad de aumentar la capacidad de transmisión de datos


para poder ofrecer servicios como la conexión a Internet desde el móvil, la
videoconferencia, la televisión y la descarga de archivos. En este momento el
desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal
Mobile Telecommunications System).

UMTS utiliza la tecnología CDMA, lo cual le hace alcanzar velocidades realmente


elevadas (de 144 Kbps hasta 7.2 Mbps, según las condiciones del terreno).

UMTS ha sido un éxito total en el campo tecnológico pero no ha triunfado


excesivamente en el aspecto comercial. Se esperaba que fuera un bombazo de
ventas como GSM pero realmente no ha resultado ser así ya que, según parece, la
mayoría de usuarios tiene bastante con la transmisión de voz y la transferencia de
datos por GPRS y EDGE.

CUARTA GENERACIÓN (4G): EL FUTURO

La generación 4 Generación o 4G será la evolución tecnológica que ofrecerá al


usuario de telefonía móvil un mayor ancho de banda que permitirá, entre muchas
otras cosas, la recepción de televisión en Alta Definición.

Hoy en día no hay ningún sistema de este nivel que esté claramente definido,
pero a modo de ejemplo podemos echar un vistazo a los sistemas LTE (Long Term
Evolution).

EVOLUCIÓN Y CONVERGENCIA TECNOLÓGICA

32
La evolución del teléfono móvil ha permitido disminuir su tamaño y peso, desde
el Motorola DynaTAC, el primer teléfono móvil en 1983 que pesaba 780 gramos, a los
actuales más compactos y con mayores prestaciones de servicio. El desarrollo de
baterías más pequeñas y de mayor duración, pantallas más nítidas y de colores, la
incorporación de software más amigable, hacen del teléfono móvil un elemento
muy apreciado en la vida moderna.

El avance de la tecnología ha hecho que estos aparatos incorporen funciones


que no hace mucho parecían futuristas, como juegos, reproducción de música MP3
y otros formatos, correo electrónico, SMS, agenda electrónica PDA, fotografía digital y video
digital, video llamada, navegación por Internet y hasta Televisión digital. Las compañías de
telefonía móvil ya están pensando nuevas aplicaciones para este pequeño aparato
que nos acompaña a todas partes. Algunas de esas ideas son: medio de pago,
localizador e identificador de personas.

CONEXIÓN A INTERNET
Con la aparición de la telefonía móvil digital, fue posible acceder a páginas de
Internet especialmente diseñadas para móviles, conocido como tecnología WAP.

Las primeras conexiones se efectuaban mediante una llamada telefónica a un


número del operador a través de la cual se transmitían los datos de manera similar
a como lo haría un módem de PC.

Posteriormente, nació el GPRS, que permitió acceder a internet a través del


protocolo TCP/IP. Mediante el software adecuado es posible acceder, desde un
terminal móvil, a servicios como FTP, Telnet, mensajería instantánea, correo electrónico,
utilizando los mismos protocolos que un ordenador convencional. La velocidad del
GPRS es de 54 kbit/s en condiciones óptimas, y se tarifa en función de la cantidad
de información transmitida y recibida.

33
Otras tecnologías más recientes que permiten el acceso a Internet son EDGE,
EvDO y HSPA.

Aprovechando la tecnología UMTS, comienzan a aparecer módems para PC que


conectan a Internet utilizando la red de telefonía móvil, consiguiendo velocidades
similares a las de la ADSL. Este sistema aún es caro ya que el sistema de
tarificación no es una verdadera tarifa plana sino que establece limitaciones en cuanto
a datos o velocidad.

Internet móvil en Colombia


En Colombia existen tres operadoras móviles con red propia (Movistar, Comcel y
Tigo)
y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía
móvil en Colombia está creciendo.[]

Internet móvil en España


Actualmente todos los operadores españoles con red propia (Movistar, Orange,
Vodafone y Yoigo) ofrecen conexión a Internet móvil. Algunos de los virtuales, como por
ejemplo Jazztel, Pepephone o Simyo, también ofrecen este servicio.

El operador líder en tráfico de datos móviles en 2007 era Vodafone, [] pero al


tratarse de un servicio muy lucrativo para los operadores, en la actualidad existe
una intensa batalla comercial en este campo,[] que se une a la de cobertura,
apareciendo la tarifa ilimitada de Movistar "Tarifa Plana Internet Plus"[] y el módem USB
prepago de Vodafone. Algunos de los nuevos operadores basan parte de su
estrategia comercial en este servicio, notablemente Yoigo y Simyo.

Por otro lado, es común entre los operadores anunciar supuestas tarifas planas que
después resultan estar limitadas.[] No obstante, Vodafone ofrece desde abril de
2010 una tarifa de internet móvil sin límites de descarga y, sobre todo, sin bajadas
de velocidad (21,6 Mbps).[]

Internet móvil en México


En México existen cuatro operadores móviles con red propia (Telcel, Movistar, Iusacell,
Nextel)y las cuatro ofrecen acceso a transferencia de datos en sus diferentes redes.
Telcel lo ofrece bajo WAP, GPRS (EDGE), 3G y en algunas ciudades 3.5G. Movistar lo
ofrece bajo WAP y GPRS. Iusacell ofrece el servicio bajo 3G mientras que Nextel lo
ofrece bajo WAP sobre iDEN. Iusacell y Telcel cuentan con la cobertura más amplia de
3G en el país, y en algunas plazas están implementando 3.5G, el servicio ilimitado
de Telcel tiene un costo a junio de 2009 de $379.00 pesos o $28 dólares, el servicio
ilimitado de Iusacell tiene un costo a junio de 2009 si es navegación desde el móvil
$250.00 pesos o $18.50 dólares por 30 días de servicio, si es navegación por PC
no tiene un plan ilimitado.

Internet móvil en Venezuela


En Venezuela existen tres operadoras móviles con red propia (Movistar, Movilnet y
Digitel)
y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía
móvil en Venezuela para el primer trimestre del 2008 alcanza la cifra de

34
24.405.387 líneas,[7] según datos oficiales del ente gubernamental competente
(CONATEL).

Datanalisis, empresa especializada en estudios de mercado, asegura en un


estudio de noviembre de 2007[8] que un 42,8% de los usuarios venezolanos se
declara interesado en conectarse a Internet a través del móvil, mientras que un
18% declara usar este servicio, siendo los correos electrónicos (en un 57,1%), la
búsqueda de información (en un 42,5%) y la descarga de tonos (en un 44,7%) las
tres actividades donde los usuarios venezolanos manifiestan mayor interés en
cuanto a Internet móvil.

CARACTERISTICAS TECNOLOGICAS DE LOS NUEVOS CELULARES

BLUETOOTH

Bluetooth es una especificación industrial para Redes Inalámbricas de Área


Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes
dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2,4 GHz. Los
principales objetivos que se pretenden conseguir con esta norma son:

• Facilitar las comunicaciones entre equipos móviles y fijos.


• Eliminar cables y conectores entre éstos.
• Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la
sincronización de datos entre equipos personales.

Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a
sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles,
computadoras portátiles, ordenadores personales, impresoras o cámaras digitales.

CÁMARA DIGITAL

Una cámara digital es una cámara fotográfica que, en vez de capturar y almacenar
fotografías en películas fotográficas como las cámaras fotográficas convencionales, lo hace
digitalmente mediante un dispositivo electrónico, o en cinta magnética usando un formato
analógico como muchas cámaras de video.

Las cámaras digitales compactas modernas generalmente son multifuncionales


y contienen algunos dispositivos capaces de grabar sonido y/o video además de
fotografías. En este caso, al aparato también se lo denomina cámara filmadora digital.
Actualmente se venden más cámaras fotográficas digitales que cámaras con película
[
de 35 mm.

INFRARROJO

35
El infrarrojo es un tipo de luz que no podemos ver con nuestros ojos. Nuestros
ojos pueden solamente ver lo que llamamos luz visible. La luz infrarroja nos brinda
información especial que no podemos obtener de la luz visible.

VIDEOLLAMADA

Videoconferencia es la comunicación simultánea bidireccional de audio y vídeo,


permitiendo mantener reuniones con grupos de personas situadas en lugares
alejados entre sí. Adicionalmente, pueden ofrecerse facilidades telemáticas o de
otro tipo como el intercambio de informaciones gráficas, imágenes fijas,
transmisión de ficheros desde el PC, etc.

El núcleo tecnológico usado en un sistema de videoconferencia es la


compresión digital de los flujos de audio y video en tiempo real. [ ]Su
implementación proporciona importantes beneficios, como el trabajo colaborativo
entre personas geográficamente distantes y una mayor integración entre grupos
de trabajo.

WAP

Wireless Application Protocol o WAP (protocolo de aplicaciones inalámbricas)


es un estándar abierto internacional para aplicaciones que utilizan las
comunicaciones inalámbricas, p.ej. acceso a servicios de Internet desde un teléfono
móvil.

Se trata de la especificación de un entorno de aplicación y de un conjunto de


protocolos de comunicaciones para normalizar el modo en que los dispositivos
inalámbricos, se pueden utilizar para acceder a correo electrónico, grupo de noticias y otros.

El organismo que se encarga de desarrollar el estándar WAP fue originalmente


el WAP Forum, fundado por cuatro empresas del sector de las comunicaciones
móviles, Sony-Ericsson, Nokia, Motorola y Openwave (originalmente Unwired
Planet). Desde 2002 el WAP Forum es parte de la Open Mobile Alliance (OMA),
consorcio que se ocupa de la definición de diversas normas relacionadas con las
comunicaciones móviles, entre ellas las normas WAP.

WIFI

Cuando hablamos de WIFI nos referimos a una de las


tecnologías de comunicación inalámbrica mediante ondas
más utilizada hoy en día. WIFI, también llamada WLAN
(wireless lan, red inalámbrica) o estándar IEEE 802.11.
WIFI no es una abreviatura de Wireless Fidelity,
simplemente es un nombre comercial.

36
En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:

• 802.11b, que emite a 11 Mb/seg, y


• 802.11g, más rápida, a 54 MB/seg.

De hecho, son su velocidad y alcance (unos 100-150 metros en hardware


asequible) lo convierten en una fórmula perfecta para el acceso a internet sin
cables.

Para tener una red inalámbrica en casa sólo necesitaremos un punto de acceso,
que se conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro
aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las
tarjetas PCI (que se insertan directamente en la placa base) las recomendables,
nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles
podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se
venden con tarjeta integrada.
MANOS LIBRES

Habitualmente se conoce como manos libres o kit manos libres a aquellos


dispositivos que se utilizan en los coches para poder hablar por teléfono.

Podemos distinguir dos tipos diferentes de kit manos libres: Aquellos que
requieren instalación y los que no. Los primeros suelen ser más pequeños, y se
conectan directamente a la batería del coche. El sonido sale por los altavoces del
vehículo, por lo que la calidad de sonido es mejor. Por el contrario, los manos
libres sin instalación suelen llevar una batería que es necesario recargar con cierta
frecuencia. Eso sí, estos últimos no necesitan ser instalados por un especialista.

FABRICANTES
Nokia es actualmente el mayor fabricante en el mundo de teléfonos móviles, con
una cuota de mercado global de aproximadamente 39,1% en el segundo trimestre
de 2008. Continúan la lista con un 14,4% Samsung, 10,2% Motorola, 8% LG y 7,5% Sony
Ericsson. Entre otros fabricantes se encuentran Alcatel, Apple Inc., Audiovox (hoy UT Starcom),
Benefon, BenQ-Siemens, Hewlett Packard, High Tech Computer, Fujitsu, HTC, Huawei, Kyocera,Mitsubishi,
NEC Corporation, Neonode, Panasonic (Matsushita Electric), Pantech Curitel, Philips, Research In Motion,
SAGEM, Gtran, Sanyo, Sharp, Sierra Wireless, SK Teletech, Skyzen, TCL Corporation, Toshiba, Verizon,
Zonda Telecom, verykool y Tocs, etc.

CONTAMINACIÓN ELECTROMAGNÉTICA
La contaminación electromagnética, también conocida como electropolución, es la
contaminación producida por las radiaciones del espectro electromagnético

37
generadas por equipos electrónicos u otros elementos producto de la actividad
humana.

Numerosos organismos como la Organización Mundial de la Salud,[] la Comisión Europea,[] la


[] []
Universidad Complutense de Madrid, la Asociación Española contra el Cáncer , el Ministerio de
Sanidad y Consumo de España, o el Consejo Superior de Investigaciones Científicas de
España[] han emitido informes que descartan daños a la salud debido a las
emisiones de radiación electromagnética, incluyendo las de los teléfonos móviles.

Aunque existen algunos estudios contrarios a la opinión de estas


organizaciones como el publicado en 2003 por el TNO (Instituto Holandés de
Investigación Tecnológica), que afirmaba que las radiaciones de la tecnología UMTS
podrían ser peligrosas,[] han sido rebatidos por otros más serios, como una
investigación de la Universidad de Zúrich,[] que utilizó hasta 10 veces la intensidad
utilizada por el estudio del TNO. También hay numerosos estudios que intentan
asociar la presencia de antenas con diversas enfermedades.[]

En resumen, es seguro vivir en un edificio con una antena de telefonía y en los


que lo rodean, ya que aún no se ha podido demostrar con certeza que la
exposición por debajo de los niveles de radiación considerados seguros suponga
un riesgo para la salud.

LA CREACIÓN DE UN NUEVO LENGUAJE


La mayoría de los mensajes que se intercambian por este medio, no se basan
en la voz, sino en la escritura. En lugar de hablar al micrófono, cada vez más usuarios
(sobre todo jóvenes) recurren al teclado para enviarse mensajes de texto. Sin embargo,
dado que hay que introducirlos con los botoncitos del celular, ha surgido un lenguaje
en el que se abrevian las palabras valiéndose de letras y números. A pesar de que
redactar y teclear es considerablemente más incómodo que conversar, cada mes
se envían y reciben 30.000 millones de mensajes en todo el mundo (año 2005).

El lenguaje SMS, consiste en acortar palabras, sustituir algunas de ellas por


simple simbología o evitar ciertas preposiciones y demás. La Principal causa es
que el SMS individual se limita a 160 caracteres, si se sobrepasa ese límite, los
mensajes ya pasan a ser dobles, triples, etc., dependiendo del número de
caracteres final. Por esa razón se procura comprimir el número de caracteres sin
perder el entendimiento del mensaje pudiendo extenderlo bastante más por el
mismo coste.

Según un estudio británico, un 42% de los usuarios de 18 a 24 años los utilizan


para coquetear; un 20%, para concertar citas románticas de forma moderna, y un
13%, para romper una relación.

A algunos analistas sociales les preocupa que estos mensajes, con su jerigonza
y sintáctica, lleven a que la juventud no sepa escribir bien. Sin embargo, otros
ortográfica
opinan que “favorecen el renacer de la comunicación escrita en una nueva generación”.
La portavoz de una editorial que publica un diccionario australiano hizo este

38
comentario al rotativo The Sun-Herald: “No surge a menudo la oportunidad de forjar un
nuevo estilo [de escritura] [...;] los mensajes de texto, unidos a Internet, logran que
los jóvenes escriban bastante más. Necesitan tener un dominio de la expresión
que les permita captar el estilo y defenderse bien con el vocabulario y el registro [...]
correspondientes a este género”.

Algunas personas prefieren enviar mensajes de texto (SMS) en vez de hablar


directamente por cuestiones de economía. De hecho, enviar un mensaje de texto
cuesta menos que hablar directamente.

¿ES NOCIVA LA TELEFONÍA MÓVIL?

¿Las radiaciones que emiten las antenas de telefonía celular son perjudiciales
para la salud? Un informe reciente no pudo constatar los efectos que denuncian
organizaciones como STOP UMTS, de Holanda.

Una investigación reciente de la Universidad de Zurich reveló que las


radiaciones de las antenas de UMTS (Universal Mobile Telecommunications
System) de telefonía móvil no afectan la salud de las personas. Las conclusiones
se recogen del informe: "Exposición de antenas tipo estación base, UMTS,
bienestar y funcionamiento cognitivo" que vino a complementar y a corregir un
estudio anterior holandés. El instituto de investigación TNO señalaba en 2003 que
podría existir una relación entre las emisiones de UMTS y algunos malestares
físicos como mareos, picazón o dolores de cabeza.

El sistema UMTS le sucede al conocido como GSM. Las mejoras técnicas que
incorporó facilitan el acceso a la información en lugares remotos, como en las
regiones rurales. La integración de servicios es uno de sus puntos a favor. Por
ejemplo, la comunicación telefónica, la transmisión de datos informáticos o de
video, son accesibles tanto para el hombre de ciudad como para el de una
comunidad rural.

Con esta tecnología cualquier persona en cualquier parte -donde estén


emplazadas las antenas-, goza de las mismas prestaciones que le ofrecen las
empresas de comunicaciones. Se dice que las telecomunicaciones inalámbricas
podrían alcanzar a 2000 millones de usuarios en el año 2010.

Estas expectativas contrastan con las objeciones de algunas organizaciones,


como la holandesa STOP UMTS, que le achaca a las radiaciones que emanan de
las antenas distribuidas en las ciudades y el campo los problemas físicos que
padecen muchas personas.

Las "replicaciones" del estudio de 2003, revela la investigadora Verónica


Berdiñas, de IT Fundation y miembro del equipo que elaboró el informe de Zurich,
"han señalado que no existe ninguna relación entre la radiación de estas antenas
UMTS -en los niveles que se describen en el estudio- y el bienestar de los sujetos,
ni con las funciones cognitivas".

39
El estudio sometió a prueba a dos grupos de personas, las que se describen a
sí mismas como "sensibles" a los campos radioeléctricos y las que desconocen su
presunta influencia en la salud. Ambos grupos permanecieron expuestos a las
radiaciones a lo largo de tres sesiones de 45 minutos cada una. La intensidad de
la emisión varió de la primera a la última: en la primera, la antena permaneció
apagada; en la segunda, se aplicó el mismo nivel de campo eléctrico que se utilizó
en el estudio holandés de 2003; y en la última, se multiplicó su intensidad por diez.

"En ninguno de los dos grupos hemos podido encontrar una correlación entre lo
que ellos se reportan a sí mismos y el hecho de que la antena estuviera o no
funcionando, explica Berdiñas.

La investigadora no desconoce, sin embargo, que el estudio en cuestión


engloba un período de tiempo corto. Las afecciones, dicen los demandantes, son
consecuencia de años de exposición a las radiaciones de las antenas de UMTS.
Para descartar cualquier duda, los estudios de tipo epidemiológico se abocan en la
actualidad a una serie de análisis a largo plazo.

"De las tecnologías que se han introducido quizás ésta sea la que más sujeta
está a estudios", reconoce el titular del Departamento de Electromagnetismo en la
Universidad Politécnica de Madrid, José María Gil. En efecto, hay "infinidad de
estudios" con animales y con cultivos celulares sobre los que se han basado los
científicos para establecer los niveles de exposición.

Los especialistas consultados coinciden en subrayar que las radiaciones que


emiten estas antenas decrecen en la medida que nos alejamos de ellas, del orden
de los 6 o 7 metros. El pequeño aparato de bolsillo, el inocente teléfono móvil que
usamos con tanto entusiasmo, explica el profesor José María Gil, "nos expone a
niveles bastante más altos que los que nos produce una antena grande, porque la
distancia es mucho más pequeña".

Verónica Verdinas agrega: "Las diferentes tecnologías varían según las


frecuencias. La penetración en un cuerpo depende de la frecuencia que se esté
usando: a mayor frecuencia, menos penetración en los cuerpos. Por ejemplo, la
tecnología UMTS utiliza una frecuencia mayor que la GMS, con lo cual, en
principio, penetraría menos en el cuerpo humano".

En cualquier caso, como admite también la especialista, los estudios no han


concluido. Varias organizaciones en Holanda, como STOP UMTS, subrayan que a
partir de los resultados de la Universidad de Zurich no se pueden sacar
conclusiones. Por el contrario, insiste, muchos otros informes arrojan resultados
negativos.

El ministro de salud holandés, Pieter van Geel, aseguró que no existe ningún
peligro para la salud pública, porque "los investigadores suizos no encontraron
diferencias significativas en el bienestar, entre aquellos que fueron expuestos a las
radiaciones de una antena UMTS y aquellos que estuvieron sujetos a una

40
exposición corta”. Y sugirió que las municipalidades que se oponían a la
instalación de las antenas, podrían, por tanto, levantar la suspensión.

En un artículo que publica la organización STOP UMTS en su página web, se


recoge la respuesta de Niels Kuster, uno de los científicos que participó del estudio
de Zurich. Kuster critica la interpretación del ministro Van Geel: "Esto siempre
sucede así. Nosotros hemos informado claramente sobre las limitaciones de
nuestra investigación. Fue un intento de legitimar la investigación de TNO y ese
intento fracasó. Cualquier otra conclusión no corresponde".

POR OTRO LADO: FLUJO DEL CALCIO

Los estudios realizados que se han dedicado a determinar los efectos


potencialmente adversos tanto en el ámbito biológico como en el caso de la salud
humana en general son muy diversos. Es de notar que la mayoría (sino todos) los
estudios se realizan con animales de laboratorio, cultivos de células o tejidos.

Aunque los campos de radiofrecuencia que no son modulados por ELF


(extrema baja frecuencia) no parecen afectar el flujo del Calcio de los tejidos en
general y del cerebral en particular, la modulación de baja frecuencia de RF en las
intensidades de los límites precisados por las normas de seguridad, sí parecen
alterarlo aunque no se encuentra dilucidado el tema aún.

Por este motivo aunque existe algún indicio, no se puede señalar con certeza
que las exposiciones a los campos de RF de los dispositivos para las
comunicaciones celulares afecten la regulación del calcio de los tejidos nerviosos
o que los efectos de este tipo, tengan alguna consecuencia para la salud. No
obstante, investigaciones en curso podrían probar tales efectos biológicos.

Comunicación

41
Un modelo simple de comunicación con un emisor que transmite un mensaje a
un receptor.
Para otros usos de este término, véase Comunicación (desambiguación).
La comunicación es el proceso mediante el cual se transmite información de una
entidad a otra. Los procesos de comunicación son interacciones mediadas por
signos entre al menos dos agentes que comparten un mismo repertorio designos y
tienen unas reglas semióticas comunes. Tradicionalmente, la comunicación se ha
definido como "el intercambio de sentimientos, opiniones, o cualquier otro tipo de
información mediante habla, escritura u otro tipo de señales". Todas las formas de
comunicación requieren un emisor, un mensaje y un receptor. En el proceso
comunicativo, la información es incluida por el emisoren un paquete y canalizada
hacia el receptor a través del medio. Una vez recibido, el receptor decodifica el
mensaje y proporciona una respuesta.
Origen de la comunicación
El lenguaje y la escritura
Existe un fundamento psicológico que permite al ser humano aprender diferentes
lenguajes. Aparentemente, el hombre comienza a expandirse desde África Oriental
(homo sapiens), cuyo centro del nacimiento humano se cree está en Etiopía. De
acuerdo a su evolución física y cognitiva existen 4 cambios evolutivos que darán
lugar al hombre actual:

 Homo habilis: El primer hombre, se diferencia del Homo Sapiens en que


baja de los árboles, camina sólo con sus piernas. Era habilidoso y de
considerable tamaño craneal.
 Homo erectus: Comienza a fabricar mejores herramientas, muy pulidas.
Descubre el fuego y su uso. Ahora le crece tanto la cabeza como el cuerpo.
 Homo sapiens: Parte de África hacia las diferentes partes del mundo. Éste
se moverá de Asia Central a Europa, más tarde colonizará Australia y
demostrará una avanzada tecnología con la construcción de medios de
navegación y métodos de orientación y localización de rutas. Así llegará al
continente americano.
 Homo habilis: Estará caracterizado por su aumento craneal, sus
desarrolladas articulaciones y, sobre todo, por la aparición del lenguaje.

El lenguaje aparece hace 100.000 años, aunque el Homo Sapiens hubiera surgido
hace 150.000 produciendo un proto-lenguaje. La última fase, el lenguaje, aparece
hace 100.000 años. Cuando se determinó la articulación de sonidos, sólo faltaba
unirlos con signos que los representaran.
Sociedades orales
Hasta el momento de la creación de la escritura, existía la necesidad de almacenar
de alguna forma en la memoria colectiva e individual toda clase de información

42
(historias, nombres, mitos...). Para ello, se crearon mapas lingüísticos (rituales),
entre los que se encuentran:

 Las fórmulas: Introducción oral breve y acompañada de música, a partir de


la cual se engancha una exposición extensa de todo aquello que recuerda. Se
utiliza en el aprendizaje ya que resulta una fórmula fácil y sencilla.
 Los nombres de lugares y personas: Los nombres propios hacen referencia
a nombres de los diferentes canales y lugares, a pesar de ser limitados, son
clave para memorizar qué existe en el sitio mencionado.
 La poesía: Histórica, religiosa, mitológica, etc. suele ser musical, teniendo
ritmos muy definidos.
 Las narraciones: Históricas, personales, introducciones a historias más
grandes pero que contienen mucha información histórica.
 Los repertorios legales o de otra índole: Son las más raras, escasas, ya que
ocupan mucha memoria.

Estas fórmulas se transmiten de boca en boca hasta la aparición de la escritura.


Dentro de este grupo podemos incluir las técnicas de los chamanes que recurrían
a un entrenamiento para memorizar con recursos relacionados con la memoria
auditiva: ritmos, movimientos, sonidos, melodías, etc.
De la comunicación oral a la escritura
Existen en la actualidad, dos grandes teorías que intentan explicar cómo se dio el
paso de una sociedad oral a una sociedad escrita. La primera, denominada Teoría
de la gran línea divisoria, explica cómo las sociedades orales definen una
mentalidad diferente e inferior a las sociedades en las que la escritura es la
principal forma de comunicación. De esta manera creen que con la invención de la
escritura, la humanidad ha dado un gran salto cualitativo muy importante, al
dotarnos de procedimientos que son capaces de aumentar nuestras capacidades
cognitivas. Con la escritura nuestro pensamiento se vuelve más reflexivo, más
abstracto, más complejo y estructurado, y por ello la escritura crea una sociedad
superior. La segunda teoría, conocida como Teoría de la continuidad niega la
superioridad de la escritura frente a la oralidad y defiende la idea de que ambos
tipos de comunicación, oral y escrita, son medios lingüísticos equivalentes. En
esencia, ambos derivados del lenguaje tienen funciones similares, sin embargo se
pueden especializar y por ello no existe una diferencia cognitiva.
Origen de la escritura cuneiforme
La escritura ha sido la acompañante necesaria en un cambio profundo de la
sociedad como es el paso de la sociedad cazadora-recolectora a la sociedad
agricultora-ganadora. La aparición de la escritura está ligada a la aparición de la
división social. Es por ello, que las primeras escrituras aparecieron en los templos,
donde se localizaba la clase sacerdotal. Los sacerdotes se encargaban de
lacontabilidad y la administración de los impuestos, utilizando para ello unas tablillas
de arcilla, donde el número tenía más peso que la letra. Estas tablillas suponen el

43
origen de la escritura cuneiforme y las más antiguas fueron encontradas en el
templo de Uruk. Sin la escritura, los sacerdotes no habrían podido establecer su
situación de privilegio y su papel organizador del pueblo. Con este tipo de escritura
se formalizan las divisiones sociales, por su función sancionadora y normativa.
El origen de la escritura
El origen de la escritura no se dio de forma sincrónica en el tiempo. Estuvo
localizada entre la revolución neolítica y la revolución urbana, donde conocemos 5
civilizaciones en las cuales se desarrolló la escritura:

 Mesopotamia: Hace 5000 años, escritura cuneiforme.


 Egipto: Hace 4500 años. Escritura jeroglífica.
 El valle del río Indo: Hace 4000 años. Escritura jeroglífica.
 Asia': Hace 3000 años. Escritura ideográfica.
 Meso-americanas: Hace 1500 años.

Antes de que la escritura fuera generalizada , en el último periodo del paleolítico, el


hombre ya utilizó formas de comunicación pictográfica, la cual tiene su origen en el
gesto, es decir, en la mímica y no en la palabra. Un ejemplo de estas formas de
comunicación gráfica lo constituyen las manos de Gargas. Estos dibujos eran
símbolos que se utilizaban para cazar y que se repiten en muchas cuevas de
Europa. Otro ejemplo de formas de comunicación anteriores a la escritura, son
las bullae. Denise Schmandt-Besserat estudió la cerámica y encontró unas pequeñas bolas
con incisiones en el exterior y que escondían toda una clase de objetos
ideográficos en su interior. Las bullae funcionaron como un mecanismo de
contabilidad. Se originaron en el inicio del cambio de la sociedad cazadora a la
sociedad agricultora y las más antiguas tienen alrededor de 9000 años.
Nacimiento del alfabeto
Cuando la revolución urbana constituyó las primeras ciudades, las bullae fueron
depurándose, apareciendo una escritura lineal y las escrituras cuneiformes se
extendieron por toda la ribera oriental de la costa mediterránea. Hace
aproximadamente 3500 años, un pueblo de la zona de Siria, los fenicios,
caracterizados por ser navegantes comerciantes, desarrollaron una nueva forma
de escritura sencilla, basada en veintidós signos de carácter alfabético y no
ideográfico, es decir, que representaban sonidos de forma gráfica y eran todos
consonánticos, dando lugar al Alfabeto semítico. 500 años después, el alfabeto sufrió
una escisión en 4 subalfabetos: semítico meridional, cananeo, arameo y el griego
arcaico. Los griegos desarrollaron las 5 vocales actuales para adaptar el nuevo
alfabeto a su lengua, dando origen al primer alfabeto escrito de izquierda a derecha .
Un tiempo después, se extendió por el mediterráneo y fue adoptado por los romanos,
constituyéndose finalmente el latín, antecesor de las lenguas románicas.

44
Teoría de la información

Esta gráfica pertenece al modelo de comunicación desarrollado por Claude


Elwood Shannon y Warren Weaveren 1949 y representa la fuente de la
información, elcodificador que envía el mensaje a través del medio de
comunicación o canal de comunicación, el cual podría ser interrumpido o
distorsionado por el ruido (representado en el rayo que cae) y que llega a
un decodificador y de este alreceptor el cual podría emitir a su vez una respuesta.

Otro esquema simple del proceso de comunicación o transmisión de la


información.
En muchos casos la teoría de la comunicación suele confundirse con la teoría de la
información, la cual corresponde a la teoría matemática de Claude E. Shannonque estudia
la información (canales, comprensión de datos, criptografía y todo lo que se le
relaciona) como magnitud física. Ésta emplea una unidad de medida de la
información a la que denomina el "BIT", es decir, la menor unidad que puede
aprenderse. Esta unidad de medida de la información se sustenta en la
alternativa sí o no en cada determinación que pueda dar elementos para el
conocimiento de los objetos. Así, por ejemplo, la sexualidad de un sujeto puede
darse por un BIT, simplemente, macho o hembra. Para fijar la posición de una
pieza de ajedrez sobre un tablero de 64 casillas se necesitarán al menos 6 BITS o
6 preguntas binarias.

45
Si bien la teoría de la información es útil a la teoría de la comunicación como
aportante matemático y a la comprensión lógica de los procesos, dicha teoría no
corresponde en concreto a la preocupación de la teoría de la comunicación, la cual
analiza la vinculación de los procesos comunicativos individuales a la problemática
social, así como la relación universal existente en torno a la comunicación
mediática y el poder político y se apoya en el uso de lasemiología, que es el estudio
de los signos, en la realidad social y se nutre de la lingüística y otras ciencias.
Puntos de vista de la teoría de la comunicación
Los siguientes son algunos puntos de vista sobre la comunicación y de la teoría de
la comunicación:

 Mecanicista: Este punto de vista entiende la comunicación como un


perfecto transmisor de un mensaje desde un emisor hasta un receptor tal como
se ve en el diagrama anterior.
 Psicológico: Considera a la comunicación como el acto de enviar un
mensaje a un perceptor (llamado así porque considera al receptor como sujeto
de la comunicación) y en el cual las sensaciones y las ideas de ambas partes
influyen considerablemente en el contenido del mensaje.
 Construccionismo social: Este punto de vista, también llamado
"interaccionismo simbólico", considera a la comunicación como el producto de
significados creativos e interrelaciones compartidas.
 Sistemática: Considera a la comunicación como un mensaje que pasa por
un largo y complejo proceso de transformaciones e interpretaciones desde que
ocurre hasta que llega a los perceptores.

La revisión de una teoría en particular a este nivel dará un contexto sobre el tipo
de comunicación tal como es visto dentro de los confines de dicha teoría. Las
teorías pueden ser estudiadas y organizadas además de acuerdo a la ontología,
la epistemología y la axiología que en general son impuestas por el teórico.

 Ontología: Pone la pregunta sobre el qué, exactamente, el teorista examina.


Se debe considerar la verdadera naturaleza de larealidad. La respuesta, por lo
general, cae dentro del campo de uno de los tres fenómenos ontológicos
dependiendo de la lente con la cual el teórico mire el problema: realista,
nominalista o construccionismo.
 La perspectiva realista mira el mundo de manera objetiva en la
creencia de que hay un mundo por fuera de nuestras propias experiencias y
cogniciones.
 La perspectiva nominalista mira al mundo subjetivamente en la idea
de que todo aquello al exterior de las cogniciones del sujeto son
únicamente nombres y etiquetas.
 La perspectiva construccionista monta la barrera entre lo objetivo y lo
subjetivo declarando que la realidad es aquello que creamos juntos.

46
 Epistemología: Pone la pregunta sobre el cómo los teóricos estudian el
fenómeno escogido. En los estudios epistemológicos, el conocimiento objetivo
es aquel que es el resultado de una mirada sistemática de las relaciones
casuales del fenómeno. Este conocimiento es por lo general deducido por
medio de métodos científicos. Los estudiosos por lo general piensan que la
evidencia empírica recogida de manera objetiva está más cerca de reflejar la
verdad en las investigaciones. Teorías de este corte son generalmente creadas
para predecir fenómenos. Teorías subjetivas sostienen que el entendimiento
está basado en conocimientos localizados, típicamente establecidos a través
de la utilización de métodos interpretativos tales como la etnografía y
la entrevista. Las teorías subjetivas se desarrollan por lo general para explicar
o entender fenómenos del mundo social.

Modelos de comunicación

Esquema en un estudio de televisión, 180 grados, nos señala que la realidad es


vista por los medios de comunicación desde diferentes puntos de vista, por lo
general escogidos por el emisor.
En una aproximación muy básica, según el modelo de Shannon y Weaver, los
elementos que deben darse para que se considere el acto de la comunicación son:

 Emisor: Es quien emite el mensaje, puede ser o no una persona.


 Receptor: Es quien recibe la información. Dentro de una concepción
primigenia de la comunicación es conocido como Receptor, pero dicho término
pertenece más al ámbito de la teoría de la información.
 Canal: Es el medio físico por el que se transmite el mensaje, en este caso
Internet hace posible que llegue a usted (receptor) el mensaje (artículo de
Wikipedia).

47
 Código: Es la forma que toma la información que se intercambia entre la
Fuente (el emisor) y el Destino (el receptor) de un lazo informático. Implica la
comprensión o decodificación del paquete de información que se transfiere.
 Mensaje: Es lo que se quiere transmitir.
 Situación o contexto: Es la situación o entorno extralingüístico en el que se
desarrolla el acto comunicativo.

Elementos de la comunicación humana


El objetivo principal de todo sistema es adaptarse a la comunicación, es
intercambiar información entre dos entidades. Un ejemplo particular de
comunicación entre una estación de trabajo y un servidor a través de una red
telefónica pública. Otro posible ejemplo consiste en el intercambio de señales de
voz entre dos teléfonos a través de la misma red anterior. Los elementos claves de
este modelo son:

 Fuente o Emisor (Remitente). Este dispositivo genera los datos a transmitir:


por ejemplo teléfonos o computadores personales.

Fuente Transmisor Sist. de Transmisión o canal Receptor Destino Diagrama


general a bloques Sistema fuente Sistema destino Teoría de las
telecomunicaciones

 Transmisor. Transforma y codifica la información, generando señales


electromagnéticas

susceptibles de ser transmitidas a través de algún sistema de transmisión. Por


ejemplo, un módem convierte las cadenas de bits generadas por un computador
personal y las transforma en señales analógicas que pueden ser transmitidas a
través de la red telefónica.

 Sistema de transmisión. Puede ser desde una sencilla línea de transmisión


hasta una

compleja red que conecte a la fuente con el destino.

 Receptor. Acepta la señal proveniente del sistema de transmisión y la


transforma de tal

manera que pueda ser manejada por el dispositivo destino. Por ejemplo, un
módem captara la señal analógica de la red o línea de transmisión y la convertirá
en una cadena de bits.

 Destino (Destinatario) (“Destinación”). Toma los datos del receptor.

48
Aunque el modelo presentado puede parecer sencillo, en realidad implica una gran
complejidad. Para hacerse una idea de la magnitud de ella a continuación una
breve explicación de algunas de las tareas claves que se deben realizar en un
sistema de comunicaciones.

 Utilización del sistema de transmisión. Se refiere a la necesidad de hacer


un uso eficaz

de los recursos utilizados en la transmisión, los cuales típicamente se suelen


compartir entre una serie de dispositivos de comunicación.

 Implemento de la interfaz. Para que un dispositivo pueda transmitir tendrá


que hacerlo a

través de la interfaz con el medio de transmisión.

 Generación de la señal. Ésta se necesitará una vez que la interfaz está


establecida, Las

características de la señal, tales como, la forma y la intensidad, deben ser tales


que permitan: 1) ser propagadas a través del medio de transmisión y 2) ser
interpretada en el receptor como datos.

 Sincronización. Las señales se deben generar no sólo considerando que


deben cumplir

los requisitos del sistema de transmisión y del receptor, sino que deben permitir
alguna forma de sincronizar el receptor y el emisor. El receptor debe ser capaz de
determinar cuándo comienza y cuándo acaba la señal recibida. Igualmente,
deberá conocer la duración de cada elemento de señal.

 Gestión del intercambio. Esto es que si se necesita intercambiar datos


durante un

período, las dos partes (emisor y receptor) deben cooperar. En los dispositivos
para el procesamiento de datos, se necesitaran ciertas convenciones además del
simple hecho de establecer la conexión. Se deberá establecer si ambos
dispositivos pueden Enlace de comunicación Estación de trabajo Módem Medio de
Módem transmisión Servidor transmitir simultáneamente o si deben hacerlos por
turnos, se deberá decidir la cantidad y el formato de los datos que se transmiten
cada vez, y se debe especificar que hacer en caso de que se den ciertas
contingencias.

 Detección y corrección de errores. Se necesita en circunstancian donde no


se pueden

49
tolerar errores es decir, cuando la señal transmitida se distorsiona de alguna
manera antes de alcanzar su destino.

 Control de flujo. Se utiliza para evitar que la fuente no sature al destino


transmitiendo

datos más rápidamente de lo que el receptor pueda procesar o absorber.

 Direccionamiento y encaminamiento. Se utiliza cuando cierto recurso se


comparte por

más de dos dispositivos, el sistema fuente deberá de alguna manera indicar a


dicho recurso compartido la identidad del destino. El sistema de transmisión
deberá garantizar que ese destino, y sólo ése, reciba los datos.

 Recuperación. Se utiliza cuando en una transacción de una base de datos o


la

transferencia de un fichero, se ve interrumpida por algún fallo, el objetivo será


pues, o bien ser capaz de continuar transmitiendo desde donde se produjo la
interrupción,
Teoría del proceso comunicativo
Los elementos o factores de la comunicación humana son: fuente, emisor o
codificador, código (reglas del signo, símbolo), mensaje primario (bajo un código),
receptor o decodificador, canal, ruido (barreras o interferencias) y la
retroalimentación o realimentación (feed-back, mensaje de retorno o mensaje
secundario).

 Fuente: Es el lugar de donde emana la información, los datos, el contenido


que se enviará, en conclusión: de donde nace el mensaje primario.
 Emisor o codificador: Es el punto (persona, organización) que elige y
selecciona los signos adecuados para transmitir su mensaje; es decir, los
codifica para poder enviarlo de manera entendible -siempre que se maneje el
mismo código entre el emisor y el receptor- al receptor. No existe un iniciador
en el proceso comunicativo, a lo sumo existe una instancia primaria de emisión
verbal -que se confunde con el que "habló primero"- pero la comunicación debe
ser entendida como un proceso dinámico y circular, sin principio ni fin.
Podemos iniciar el acto comunicativo preguntando la hora a alguien, pero
inevitablemente la comunicación comenzó mucho antes, al ver a la persona, al
acercarse prudentemente a la distancia mínima -Proxémica- de dos personas
desconocidas, al mirar a la persona a los ojos o al insinuar que se quiere
hablar. Como se puede ver, la comunicación no se limita al habla o a la
escritura: es un complejo proceso interminable de interacción mutua.
 Receptor o decodificador: Es el punto (persona, organización) al que se
destina el mensaje, realiza un proceso inverso al del emisor ya que en él está

50
el descifrar e interpretar lo que el emisor quiere dar a conocer. Existen dos
tipos de receptor, el pasivo que es el que sólo recibe el mensaje, y el receptor
activo o perceptor ya que es la persona que no sólo recibe el mensaje sino que
lo percibe, lo almacena, e incluso da una respuesta, intercambiando los roles.
En este caso, donde un receptor o perceptor se transforma en emisor al
producir y codificar un nuevo mensaje para ser enviado al ente emisor -ahora
devenido en receptor- es donde se produce el feed-back o retroalimentación; y
es lo que comúnmente sucede en cualquier comunicación interpersonal.
 Código: Es el conjunto de reglas propias de cada sistema de signos y
símbolos de un lenguaje que el emisor utilizará para trasmitir su mensaje, para
combinarlos de manera arbitraria y socialmente convenida ya que debe estar
codificado de una manera adecuada para que el receptor pueda captarlo. Un
ejemplo claro es el código que utilizan los marinos para poder comunicarse;
la gramática de algún idioma; los algoritmos en la informática, todo lo que nos
rodea son signos codificados.
 Mensaje: Es el contenido de la información (contenido enviado): el conjunto
de ideas, sentimientos, acontecimientos expresados por el emisor y que desea
trasmitir al receptor para que sean captados de la manera que desea el emisor.
El mensaje es la información debidamente codificada.
 Canal: Es por donde se transmite la información-comunicación,
estableciendo una conexión entre el emisor y el receptor. Mejor conocido como
el soporte material o espacial por el que circula el mensaje. Ejemplos: el aire,
en el caso de la voz; el hilo telefónico, en el caso de una conversación
telefónica. Cuando la comunicación es interpersonal -entre personas y sin
ningún medio electrónico de por medio, como una conversación cara cara (de
ahí "interpersonal")- se le denomina Canal. Pero cuando la comunicación se
realiza por medio de artefactos o instancias electrónicas o artificiales, se le
denomina Medio. Por ejemplo: Una charla de café, Canal; Una llamada
telefónica o un mensaje de texto, un Medio. Los medios de comunicación
masiva -TV, Radio, Periódicos, Internet, etc.- tienen por canal a un Medio.
 Referente: Realidad que es percibida gracias al mensaje. Comprende todo
aquello que es descrito por el mensaje.
 Situación: Es el tiempo y el lugar en que se realiza el acto comunicativo.
 Interferencia, barrera o ruido: Cualquier perturbación que sufre la señal en
el proceso comunicativo, se puede dar en cualquiera de sus elementos. Son
las distorsiones del sonido en la conversación, o la distorsión de la imagen de
la televisión, la alteración de la escritura en un viaje, la afonía del hablante, la
sordera del oyente, la ortografía defectuosa, la distracción del receptor, el
alumno que no atiende aunque esté en silencio.También suele llamarse ruido
 Retroalimentación o realimentación (mensaje de retorno): Es la condición
necesaria para la interactividad del proceso comunicativo, siempre y cuando se
reciba una respuesta (actitud, conducta) sea deseada o no. Logrando la
interacción entre el emisor y el receptor. Puede ser positiva (cuando fomenta la
comunicación) o negativa (cuando se busca cambiar el tema o terminar la
comunicación). Si no hay realimentación, entonces sólo hay información mas
no comunicación.

51
Funciones de la comunicación

 Informativa: Tiene que ver con la transmisión y recepción de la información.


A través de ella se proporciona al individuo todo el caudal de la experiencia
social e histórica, así como proporciona la formación
de hábitos, habilidades y convicciones. En esta función el emisor influye en el
estado mental interno del receptor aportando nueva información.
 Afectivo - valorativa: El emisor debe otorgarle a su mensaje la carga
afectiva que el mismo demande, no todos los mensajes requieren de la misma
emotividad, por ello es de suma importancia para la estabilidad emocional de
los sujetos y su realización personal. Gracias a esta función,
los individuos pueden establecerse una imagen de sí mismo y de los demás.
 Reguladora: Tiene que ver con la regulación de la conducta de las personas
con respecto a sus semejantes. De la capacidad autorreguladora y del
individuo depende el éxito o fracaso del acto comunicativo Ejemplo: una crítica
permite conocer la valoración que los demás tienen de nosotros mismos, pero
es necesario asimilarse, proceder en dependencia de ella y cambiar la actitud
en lo sucedido.

Hechos sociales como la mentira son una forma de comunicación informativa


(aunque puede tener aspectos reguladores y afectivo-valorativos), en la que el
emisor trata de influir sobre el estado mental del receptor para sacar ventaja.
Otras Funciones de la comunicación dentro de un grupo o equipo:

 Control: La comunicación controla el comportamiento individual. Las


organizaciones, poseen jerarquías de autoridad y guías formales a las que
deben regirse los empleados. Esta función de control además se da en la
comunicación informal.
 Motivación: Lo realiza en el sentido que esclarece a los empleados qué es
lo que debe hacer, si se están desempeñando de forma adecuada y lo que
deben hacer para optimizar su rendimiento. En este sentido, el establecimiento
de metas específicas, la retroalimentación sobre el avance hacia el logro de la
meta y el reforzamiento de un comportamiento deseado, incita la motivación y
necesita definitivamente de la comunicación.
 Expresión emocional: Gran parte de los empleados, observan su trabajo
como un medio para interactuar con los demás, y por el que transmiten
fracasos y de igual manera satisfacciones, es decir sentimientos.
 Cooperación: La comunicación se constituye como una ayuda importante
en la solución de problemas, se le puede denominar facilitador en la toma de
decisiones, en la medida que brinda la información requerida y evalúa las
alternativas que se puedan presentar.

Axiomas de la comunicación
Diversos enfoques de la comunicación humana la conciben como un ritual que los
seres humanos llevan acabo desde que nacen. Los teóricos han determinado

52
cinco axiomas de la comunicación,1 también conocidos como axiomas de Paul
Watzlawick:

1. Es imposible no comunicarse.
2. Toda comunicación tiene un aspecto de contenido y uno de relación,
tales que el segundo califica al primero y es por ende una
metacomunicación.
3. La naturaleza de una relación depende de la puntuación de
secuencias de comunicación entre los comunicantes.
4. Los seres humanos se comunican tanto digital como analógicamente.
El lenguaje digital cuenta con una sintaxis lógica sumamente compleja y
poderosa pero carece de una semántica adecuada en el campo de la
relación, mientras que el lenguaje analógico posee la semántica pero no
una sintaxis adecuada para la definición inequívoca de la naturaleza de las
relaciones.
5. Los intercambios comunicacionales son simétricos o
complementarios según estén basados en la igualdad o la diferencia

Campo teórico
Una disciplina se define cuando forma parte de una estructura teorética. Los estudios
sobre la comunicación suelen presentar teorías de otras ciencias sociales. Esta
variación teorética hace difícil que se llegue a término con un campo totalizado.
Sin embargo, existe un rango de elementos comunes que sirven para dividir las
investigaciones sobre comunicación. Dos tipos de divisiones tienen que ver con
contextos y los campos teóricos asumidos.
Contextos
Para muchos autores y estudiosos la comunicación se divide en lo que
llaman contextos o niveles, pero que en muchas ocasiones representan historias
institucionales. El estudio de la comunicación en los EE.UU., cuando ocurren
dentro de departamentos de psicología, sociología, lingüística, antropología y
escuelas de periodismo, entre muchas otras, generalmente desarrolla escuelas de
laretórica. Mientras muchos de estos se convirtieron en "departamentos de
comunicación", por lo general retienen sus raíces históricas adheriendo la mayoría
de las veces a teorías del discurso de la comunicación en casos pasados y
después de los medios de comunicación social. La gran división entre el discurso
de la comunicación y los medios masivos se vuelve complicado para un número
de pequeñas subáreas de los estudios en comunicación lo que incluye la
comunicación intercultural e internacional, los pequeños grupos de comunicación,
las Tecnologías de la información y la comunicación, las políticas y marcos legales de la
comunicación, lastelecomunicaciones y el trabajo en otros niveles variados. Algunos de
estos departamentos toman una gran perspectiva social y científica, otros tienden
más hacia una perspectiva humanista y todavía otros se impulsan a sí mismos
hacia la producción y la preparación profesional.

53
Estos "niveles" de comunicación ofrecen algunos modos de agrupar las teorías de
la comunicación, pero inevitablemente algunas teorías y conceptos pasan de una
área a otra o encuentran su sitio definitivamente.
Asumidos
Otro modo de dividir los campos de la comunicación enfatiza en los asumidos que
están a la base de teorías particulares, modelos y aproximaciones. Mientras estas
aproximaciones tienden también a tener sus divisiones institucionales básicas, las
teorías dentro de cada una de las siete "tradiciones" de la teoría de la
comunicación que Robert Craig sugiere, tienden a reforzarse unas a otras y retienen
el mismo terreno de asumidos epistemológicos y axiológicos. Estas "siete
tradiciones" consisten en las siguientes:2

1. Retórica: Práctica del arte discursivo.


2. Semiótica: Mediación intersubjetiva a través de signos.
3. Fenomenología: Experiencia de la "otredad" y el diálogo.
4. Cibernética: Proceso de la información.
5. Sociopsicología: Expresión, interacción, e influencia crítica y discurso
reflexivo.
6. Sociocultura: Reproducción del orden social.

Craig encuentra que estas siete tradiciones claramente identificables se definen


una en contra de la otra y a la vez permanecen cohesionadas en aproximaciones
que describen el comportamiento de la comunicación. Como una ayuda
taxonómica, estas etiquetas ayudan a organizar la teoría por sus asumidos y
ayuda a los estudiosos a entender porqué algunas teorías parecen
inconmensurables.
Mientras los teóricos de la comunicación utilizan con frecuencia estos dos tipos de
aproximaciones, parece ser que olvidan o marginan el lugar del lenguaje y las
máquinas de la comunicación como las tecnologías de la comunicación. La idea,
tal como es expuesta porVygotsky, es que la comunicación como herramienta
primaria definida de acuerdo a su herramienta permanece sólo a las afueras de la
teoría de la comunicación. Esto encuentra algunas representaciones en la escuela
de comunicación de Toronto en lo que se conoce como teoría media representada
en la obra de Innis, McLuhan y otros. Parece ser que el modo en el cual individuos y
grupos utilizan las tecnologías de la comunicación, permanece como elemento
central para los investigadores de la comunicación. La idea que rodea esto y en
particular el lugar de la persuasión, es constante a través de las "tradiciones" y
"niveles" de la teoría de la comunicación.
Algunos campos de la comunicación y sus teorías

 Producción del mensaje: Teoría constructivista y teoría de la asamblea.


 Proceso de la información: Teorías de la elaboración de preferencias y
teoría de la inoculación.

54
 Discurso e interacción: Teoría de los actos discursivos y administración
coordinada del significado.
 Desarrollo de las relaciones: Teoría de la reducción de incertezas y teoría
de la penetración social.
 Relaciones en proceso: Teoría de los sistemas de relación y dialéctica
relacional.
 Organizacional: Teoría de la estructura y teoría del control coercitivo.
 Pequeños grupos: Teoría funcional y teoría de la convergencia simbólica.
 Procesos de los medios masivos y sus efectos: Teoría cognitiva social y
teoría de usos y gratificaciones.
 Medios masivos y sociedad: Teoría de la agenda establecida y teoría de la
espiral del silencio.
 Cultura: Teoría de los códigos discursivos y teoría de la conservación del
rostro.3

Escuelas

"This is the enemy" ("Este es el enemigo"), 1941,propaganda estadounidense


antinazi destinada a promover el rechazo contra el sistema nazi. Una Biblia es
atravesada por una mano con el símbolo nazista, todo un juego de significados,
producto del desarrollo de la Escuela de comunicación estadounidense durante
la II Guerra Mundial.
Las escuelas de la teoría de la comunicación pueden dividirse en sentido general
en la escuela europea, la escuela estadounidense y la escuela latinoamericana.
Teóricos de la comunicación

El teórico brasileño Paulo Freire, caricatura de André Koehne .


Especialmente aquellos que han contribuido a la formación de la Escuela
Latinoamericana de Comunicación y a la llamada Teoría Crítica de la
Comunicación Española. Para una lista de los teóricos de la comunicación
asociados a las escuelas europea y estadounidense, visite este enlace.

 Rosa María Alfaro, peruana.


 Luís Ramiro Beltrán, boliviano.
 Manuel Calvelo Ríos, José Manuel Calvelo Ríos es el creador del modelo
teórico de comunicación.
 Juan Díaz Bordenave, paraguayo.
 Paulo Freire, brasileño.

55
 Néstor García Canclini, argentino.
 Daniel Hernández, mexicano.
 Jesús Martín-Barbero, nacido en Ávila, España está nacionalizado
enColombia, semiólogo, antropólogo y filósofo, es uno de los escritores más
prolíferos en el continente.
 Sandra Massoni, argentina.
 Armand Mattelart, belga, nacionalizado en Chile en donde desarrolló sus
investigaciones especialmente.
 Carlos Monsiváis, mexicano.
 Antonio Pasquali, venezolano.
 Daniel Prieto Castillo, argentino.
 Fernando Reyes Matta, chileno.
 Héctor Schmucler, argentino.
 Washington Uranga, argentino.
 Eliseo Verón, semiólogo argentino.
 Enrique Bustamante Ramírez, economista político de la comunicación
español.
 Manuel Martín Serrano, teórico de la comunicación español.
 José María Desantes Guanter, teórico del derecho de la comunicación
español.

Ciencias de la comunicación
La existencia de las denominadas ciencias de la comunicación presupone dar a la
comunicación una entidad autónoma y un campo de investigación propio en el
conjunto del saber. El problema que cabe plantearse es si la comunicación es una
disciplina como tal, o si por el contrario es un ámbito concreto del conocimiento al
que disciplinas ya consolidadas tratan de estudiar, como la psicología, lasociología,
el análisis político, la antropología o la lingüística. Es decir, puede considerarse la
comunicación como un campo de estudios transversal, en el que concurren
diversas ciencias para explicar el fenómeno desde puntos de vista concretos.
Es posible así hablar de una pragmática de la comunicación, que tiene su objeto de
estudio en el proceso de comunicación afectado de manera individual (personas),
grupal (comunidades), social y cultural. Puede ser considerada una disciplina
moderna, producto de la reflexión multidisciplinaria en torno a este fenómeno, su
riqueza y su validez está dada por los diferentes puntos de vista que reúne en
torno a la discusión de una situación particular.
Por otra parte, el desarrollo de estas ciencias ha ido de la mano con el desarrollo
de las tecnologías y de los medios de transmisión de información.
Ciencias sociales
La comunicación es un proceso de interrelación entre dos o más seres vivos o
entidades donde se transmite una información desde un emisor que es capaz de
codificarla en un código definido hasta un receptor, el cual decodifica la

56
información recibida, todo eso en un contexto determinado. El proceso de
comunicación emisor - mensaje - receptor, se torna bivalente cuando el receptor
logra codificar el mensaje, lo interpreta y lo devuelve al emisor originario, quien
ahora se tornará receptor.
La comunicación es de suma importancia para la supervivencia de
especies gregarias, pues la información que ésta extrae de su medio ambiente y su
facultad de transmitir mensajes serán claves para sacar ventaja del modo de vida
gregario.
Etimológicamente, la palabra comunicación deriva del latín "communicare", que
puede traducirse como "poner en común, compartir algo". Se considera
una categoría polisémica en tanto su utilización no es exclusiva de una ciencia social en
particular, teniendo connotaciones propias de la ciencia social de que se trate.
Análisis social de la comunicación
La comunicación como disciplina social que analiza los contenidos, características
y canales a través de los cuales se da la comunicación incluye las siguientes
subdisciplinas:

 Análisis del discurso y pragmática.


 Lengua y literatura.
 Estructura de la información y la comunicación.
 Publicidad
 Teoría de la publicidad y de las Relaciones Públicas.
 Semiótica de la Comunicación y de la publicidad.
 Comunicación audiovisual y mass media.
 Narrativa audiovisual.
 Realización y producción audiovisual.
 Industrias culturales.
 Historia de los medios de comunicación.
 Crítica mediática
 Redacción periodística.
 Comunicación y Cultura
 Política de la comunicación
 Comunicación Organizacional o Corporativa

57
Comunicación Satelital

Este documento tiene como objetivo dar a conoces si es buena o mala la


comunicación satelital y conocer sus ventajas y desventajas, el cual empieza con
una breve descripción de lo que es la tecnología satelital para luego profundizar
con en los beneficios y contrastes.

En los últimos años, la tecnología satelital ha recobrado gran importancia


en el terreno de las comunicaciones. Los satélites artificiales geoestacionarios que
están posicionados sobre el ecuador de la superficie terrestre, son indispensables
para la comunicación en casi todos los puntos de la tierra.

La función de los satélites de comunicación será muy importante, durante


los siguientes 10 años, principalmente en las áreas como: Internet, Educación a
distancia, Radiodifusión (Televisión comercial, Televisión corporativa, Televisión

58
Directa al Hogar, y Televisión por cable), Telefonía (Internacional, rural), y
Telemedicina. Por ejemplo, en el caso del sector educativo, desde hace 5 años
Edusat desarrolla programas de alfabetización a distancia en todo el país,
cubriendo todos los niveles en el cual se ve reflejado los avances.

Prácticamente a partir de los siguientes años, no habrá un punto en la tierra


sin la posibilidad de comunicación. Las barreras físicas que apartaban zonas
enteras de los cinco continentes, como desiertos, montañas, océanos, selvas y
polos glaciares ya no serán un obstáculo para las comunicaciones gracias a la
tecnología satelital.

Los satélites artificiales proporcionarán cobertura a regiones donde la


comunicación por redes terrestres es prácticamente imposible, o sumamente
costosa.

Aunque las transmisiones satelitales también tienen algunas desventajas


como las demoras de propagación, la interferencia de radio y microondas, y el
debilitamiento de las señales debido a fenómenos metereológicos (lluvias
intensas, nieve, y manchas solares), las ventajas son mayores.

Pero asiendo un análisis profundo y minucioso se deja ver que tecnología


satelital es superior en muchos aspectos a comparación de la tecnología terrestre
o de conexión aunque también tiene desventajas la cual no pose la tecnología de
red.

Antecedentes históricos
La primera representación ficticia conocida de un satélite artificial lanzado a
una órbita alrededor de la Tierra aparece en un cuento de Edward Everett Hale, The Brick
Moon (‘la luna de ladrillos’). El cuento, publicado por entregas en Atlantic Monthly, se
inició en 1869.[1] [2] El objeto del título se trataba de una ayuda para la navegación
pero que por accidente fue lanzado con personas en su interior.

La idea reaparece en Los quinientos millones de la Begún (1879) de Julio Verne. En


este libro, sin embargo, se trata de un resultado inintencionado del villano al
construir una pieza de artillería gigante para destruir a sus enemigos, pero le
imprime al proyectil una velocidad superior a la pretendida, lo que lo deja en órbita
como un satélite artificial.

En 1903, el ruso Konstantín Tsiolkovski publicó La exploración del espacio


cósmico por medio de los motores de reacción, que es el primer tratado
académico sobre el uso de cohetes para lanzar naves espaciales. Calculó que la
velocidad orbital requerida para una órbita mínima alrededor de la Tierra es
aproximadamente 8 km/s y que se necesitaría un cohete de múltiples etapas que utilizase
oxígeno líquido e hidrógeno líquido como combustible. Durante su vida, publicó
más de 500 obras relacionadas con el viaje espacial, propulsores de múltiples

59
etapas, estaciones espaciales, escotillas para salir de una nave en el espacio y un
sistema biológico cerrado para proporcionar comida y oxígeno a las colonias
espaciales. También profundizó en las teorías sobre máquinas voladoras más
pesadas que el aire, trabajando de forma independiente en mucho de los cálculos
que realizaban los hermanos Wright en ese momento.

En 1928, Herman Potočnik publicó su único libro, Das Problem der Befahrung
des Weltraums - der Raketen-motor (El problema del viaje espacial - el motor de
cohete), un plan para progresar hacia el espacio y mantener presencia humana
permanente. Potočnik diseñó una estación espacial y calculó su órbita geoestacionaria.
También describió el uso de naves orbitales para observaciones pacíficas y
militares y como se podrían utilizar las condiciones del espacio para realizar
experimentos científicos. El libro describía satélites geoestacionarios y discutía
sobre la comunicación entre ellos y la tierra utilizando la radio pero no sobre la
idea de utilizarlos para comunicación en masa y como estaciones de
telecomunicaciones.

En 1945, el escritor británico de ciencia ficción Arthur C. Clarke concibió la


posibilidad para una serie de satélites de comunicaciones en su artículo en Wireless World[]
Versión facsímil del artículo Extra terrestrial relays por Arthur C. Clarke. Clarke
examinó la logística de un lanzamiento de satélite, las posibles órbitas y otros
aspectos para la creación de una red de satélites, señalando los beneficios de la
comunicación global de alta velocidad. También sugirió que tres satélites
geoestacionarios proporcionarían la cobertura completa del planeta.

Historia de los satélites artificiales


Satélite ERS-2.
Los satélites artificiales nacieron durante la guerra fría, entre los Estados
Unidos y La Union Soviética, que pretendían ambos llegar a la luna y a su vez
lanzar un satélite a la órbita espacial. En mayo de 1946, el Proyecto RAND presentó el
informe Preliminary Design of an Experimental World-Circling Spaceship (Diseño
preliminar de una nave espacial experimental en órbita), en el cual se decía que
«Un vehículo satélite con instrumentación apropiada puede ser una de las
herramientas científicas más poderosas del siglo XX. La realización de una nave
satélite produciría una repercusión comparable con la explosión de la bomba
atómica...».

La era espacial comenzó en 1946, cuando los científicos comenzaron a utilizar


los cohetes capturados V-2 alemanes para realizar mediciones de la atmósfera.[4]
Antes de ese momento, los científicos utilizaban globos que llegaban a los 30 km de
altitud y ondas de radio para estudiar la ionosfera. Desde 1946 a 1952 se utilizó los
cohetes V-2 y Aerobee para la investigación de la parte superior de la atmósfera, lo
que permitía realizar mediciones de la presión, densidad y temperatura hasta una
altitud de 200 km.

60
Estados Unidos había considerado lanzar satélites orbitales desde 1945
bajo la Oficina de Aeronáutica de la Armada. El Proyecto RAND de la Fuerza Aérea
presentó su informe pero no se creía que el satélite fuese una potencial arma
militar, sino más bien una herramienta científica, política y de propaganda. En
1954, el Secretario de Defensa afirmó: «No conozco ningún programa
estadounidense de satélites».

Tras la presión de la Sociedad Americana del Cohete (ARS), la Fundación


Nacional de la Ciencia (NSF) y el Año Geofísico Internacional, el interés militar aumentó y a
comienzos de 1955 la Fuerza Aérea y la Armada estaban trabajando en el Proyecto
Orbiter, que evolucionaría para utilizar un cohete Jupiter-C en el lanzamiento de un
satélite denominado Explorer 1 el 31 de enero de 1958.

El 29 de julio de 1955, la Casa Blanca anunció que los Estados Unidos intentarían
lanzar satélites a partir de la primavera de 1958. Esto se convirtió en el Proyecto
Vanguard. El 31 de julio, los soviéticos anunciaron que tenían intención de lanzar un
satélite en el otoño de 1957.

El hito ruso que cambió al mundo


La Unión Soviética, desde el Cosmódromo de Baikonur, lanzó el primer satélite
artificial de la humanidad, el día 4 de octubre de 1957; marcando con ello un antes y
después de la carrera espacial, logrando que la Unión Sovietica, liderada por Rusia, se
adelantara a Estados Unidos en dicha carrera. Este programa fue llamado Sputnik, el
cual al momento de colocarse exitosamente en órbita, emitió unas señales radiales
en forma de pitidos, demostrando el éxito alcanzado por los científicos soviéticos.
Este programa fue seguido por otros logros rusos, como los programas Sputnik 2 y 3.
Cabe señalar que en el Sputnik 2, la Unión Sovietica logró colocar en órbita el primer
animal en la historia, la perra llamada Laika. Con el Sputnik, la Unión Soviética, sin querer,
provocó una sicosis colectiva en los Estados Unidos, debido al temor provocado en la
población estadounidense ante el gran adelanto tecnológico desarrollado por los
soviéticos.

En 1960 se lanzó el primer satélite de comunicaciones: el Echo I era un


satélite pasivo que no estaba equipado con un sistema bidireccional sino que
funcionaba como un reflector. En 1962 se lanzó el primer satélite de
comunicaciones activos, el Telstar I, creando el primer enlace televisivo
internacional.

La SSN (Red de Vigilancia Espacial) ha estado rastreando los objetos


espaciales desde 1957, tras el lanzamiento del Sputnik I. Desde entonces, la SSN
ha registrado más de 26.000 objetos orbitando sobre la Tierra y mantiene su
rastreo sobre unos 8.000 objetos de fabricación humana. El resto entran de nuevo
en la atmósfera donde se desintegran o si resisten, impactan con la Tierra. Los
objetos pueden pesar desde varias toneladas, como etapas de cohetes, hasta sólo

61
unos kilogramos. Aproximadamente el 7% de los objetos espaciales (unos 560
satélites) están en funcionamiento, mientras que el resto son chatarra espacial.

Se hace mención que una réplica idéntica, desarrollada en Rusia, del famoso
se encuentra en el vestíbulo principal del edificio de las Naciones Unidas, en la
Sputnik
ciudad de Nueva York, como símbolo del desarrollo tecnológico alcanzado por los
humanos.

SATELITES ORBITALES
Los satélites mencionados, hasta el momento, son llamados satélites
orbitales o no síncronos. Los satélites no síncronos giran alrededor de la Tierra en
un patrón elíptico o circular de baja altitud. Si el satélite esta girando en la misma
dirección de la rotación de la Tierra y a una velocidad angular superior que la de la
Tierra, la órbita se llama órbita progrado. Si el satélite esta girando en la dirección
opuesta a la rotación de la Tierra o en la misma dirección, pero a una velocidad
angular menor a la de la Tierra, la órbita se llama órbita retrograda.
Consecuentemente, los satélites no síncronos están alejándose continuamente o
cayendo a Tierra, y no permanecen estacionarios en relación a ningún punto
particular de la Tierra. Por lo tanto los satélites no síncronos se tienen que usar
cuando están disponibles, lo cual puede ser un corto periodo de tiempo, como 15
minutos por órbita. Otra desventaja de los satélites orbitales es la necesidad de
usar un equipo costoso y complicado para rastreo en las estaciones terrestres.
Cada estación terrestre debe localizar el satélite conforme esta disponible en cada
órbita, y después unir su antena al satélite y localizarlo cuando pasa por arriba.
Una gran ventaja de los satélites orbitales es que los motores de propulsión no se
requieren a bordo de los satélites para mantenerlos en sus órbitas respectivas.
SATELITES GEOESTACIONARIOS
Los satélites geoestacionarios o geosíncronos son satélites que giran en un
patrón circular, con una velocidad angular igual a la de la Tierra.
Consecuentemente permanecen en una posición fija con respecto a un punto
específico en la Tierra. Una ventaja obvia es que están disponibles para todas las
estaciones de la Tierra, dentro de su sombra, 100% de las veces. La sombra de
un satélite incluye todas las estaciones de la Tierra que tienen un camino visible a
él y están dentro del patrón de radiación de las antenas del satélite. Una
desventaja obvia es que a bordo, se requieren de dispositivos de propulsión
sofisticados y pesados para mantenerlos fijos en una órbita. El tiempo de órbita de
un satélite geosíncrono es de 24 h. igual que la Tierra.

CLASIFICACIONES ORBITALES, ESPACIAMIENTO Y ASIGNACIONES DE


FRECUENCIA
Hay dos clasificaciones principales para los satélites de comunicaciones:
hiladores (spinners) y satélites estabilizadores de tres ejes. Los satélites espinar,
utilizan el movimiento angular de su cuerpo giratorio para proporcionar una
estabilidad de giro. Con un estabilizador de tres ejes, el cuerpo permanece fijo en

62
relación a la superficie de la Tierra, mientras que el subsistema interno
proporciona una estabilización de giro.
Los satélites geosíncronos deben compartir espacio y espectro de
frecuencia limitados, dentro de un arco específico, en una órbita geoestacionaria,
aproximadamente a 22,300 millas, arriba del Ecuador. La posición en la ranura
depende de la banda de frecuencia de comunicación utilizada. Los satélites
trabajando, casi o en la misma frecuencia, deben estar lo suficientemente
separados en el espacio para evitar interferir uno con otro. Hay un límite realista
del número de estructuras satelitales que pueden estar estacionadas, en un área
específica en el espacio. La separación espacial requerida depende de las
siguientes variables:
• Ancho del haz y radiación del lóbulo lateral de la estación terrena y antenas
del satélite.
• Frecuencia de la portadora de RF.
• Técnica de codificación o de modulación usada.
• Límites aceptables de interferencia.
• Potencia de la portadora de transmisión.

Generalmente, se requieren de 3 a 6º de separación espacial dependiendo de


las variables establecidas anteriormente.
Las frecuencias de la portadora, más comunes, usadas para las
comunicaciones por satélite, son las bandas 6/4 y 14/12 GHz. El primer número es
la frecuencia de subida (ascendente) (estación terrena a transponder) y el
segundo numero es la frecuencia de bajada (descendente) (transponder a
estación terrena). Diferentes frecuencias de subida y de bajada se usan para
prevenir que ocurra repetición. Entre mas alta sea la frecuencia de la portadora,
más pequeño es el diámetro requerido de la antena para una ganancia específica.
La mayoría de los satélites domésticos utilizan la banda 6/4 GHz.
Desafortunadamente, esta banda también se usa extensamente para los sistemas
de microondas terrestres. Se debe tener cuidado cuando se diseña una red
satelital para evitar interferncia de, o interferencia con enlaces de microondas
establecidas.
MODELOS DE ENLACE DEL SISTEMA SATELITAL
Esencialmente, un sistema satelital consiste de tres secciones básicas: una
subida, un transponder satelital y una bajada.

Modelodesubida

El principal componente dentro de la sección de subida satelital, es el


transmisor de estación terrena. Un típico transmisor de la estación terrena consiste
de un modulador de IF, un convertidor de microondas de IF a RF, un amplificador
de alta potencia (HPA) y algún medio para limitar la banda del último espectro de
salida (por ejemplo, un filtro pasa-bandas de salida). El modulador de IF se

63
convierte la IF convierte las señales de banda base de entrada a una frecuencia
intermedia modulada en FM, en PSK o en QAM. El convertidor (mezclador y filtro
pasa-bandas) convierte la IF a una frecuencia de portadora de RF apropiada. El
HPA proporciona una sensibilidad de entrada adecuada y potencia de salida para
propagar la señal al transponder del satélite. Los HPA comúnmente usados son
klystons y tubos de onda progresiva.
Transponder

Un típico transponder satelital consta de un dispositivo para limitar la banda


de entrada (BPF), un amplificador de bajo ruido de entrada (LNA), un traslador de
frecuencias, un amplificador de potencia de bajo nivel y un filtro pasa-bandas de
salida. Este transponder es un repetidor de RF a RF. Otras configuraciones de
transponder son los repetidores de IF, y de banda base, semejantes a los que se
usan en los repetidores de microondas.

Modelodebajada

Un receptor de estación terrena incluye un BPF de entrada, un LNA y un


convertidor de RF a IF. Nuevamente, el BPF limita la potencia del ruido de entrada
al LNA. El LNA es un dispositivo altamente sensible, con poco ruido, tal como un
amplificador de diodo túnel o un amplificador paramétrico. El convertidor de RF a
IF es una combinación de filtro mezclador /pasa-bandas que convierte la señal de
RF recibida a una frecuencia de IF.
Enlacescruzados

Ocasionalmente, hay aplicaciones en donde es necesario comunicarse


entre satélites. Esto se realiza usando enlaces cruzados entre satélites o enlaces
intersatelitales (ISL). Una desventaja de usar un ISL es que el transmisor y
receptor son enviados ambos al espacio. Consecuentemente la potencia de salida
del transmisor y la sensibilidad de entrada del receptor se limitan.
4. Inmarsat y otros sistemas de satélites.
4.1. Introducción.

La primera serie de satélites usados por INMARSAT, comenzando en 1982,


fue posible gracias a la intervención de varias fuentes como COMSAT (Programa
MARISAT), ESA (Programa MARECS) e INTELSAT (Programa ISV-MCP).
MARISAT y MARECS fueron los precursores de los servicios de
demostración y el MCP posibilitó comunicaciones marítimas mediante la
incorporación de un módulo especial para esa función en la serie INTELSAT V-A
(modificación de la serie V), dicho módulo era similar al ofrecido por MARISAT.
4.2. COSPAS-SARSAT.

64
4.2.1. Introducción.
Los satélites de INMARSAT III cuentan con un sistema SAR (Búsqueda y
Rescate) a bordo, el sistema COSPAS-SARSAT es actualmente el máximo
exponente en lo que a búsqueda y rescate vía satélite se refiere.
4.2.2. El sistema.
COSPAS-SARSAT es un sistema internacional de búsqueda y rescate
consistente en una constelación de satélites con cobertura global dispuestos en
órbita polar (entre 800 y 1000 Km de altitud) y en una red de estaciones terrestres
que envían señales de alerta o informaciones de localización a las autoridades
encargadas de las labores de rescate ya sea por tierra, mar o aire.
Nace de la unión SARSAT (Search And Rescue Satellite-Aided Tracking) y su
homólogo soviético COSPAS (acrónimo ruso de Sistema Espacial para la
Búsqueda de Buques en Peligro).
Este programa conjunto está esponsorado por Canadá (pionera en 1982), Francia,
Estados Unidos y el propio COSPAS soviético.
4.2.3. Participantes.
Hay 28 países y organizaciones participantes en el funcionamiento del
sistema, entre ellos están las 4 partes del acuerdo COSPAS-SARSAT (Canadá,
Francia, Rusia y Estados Unidos), 14 proveedores de segmentos terrestres, 8
países usuarios y 2 organizaciones participantes, los países adicionales están en
proceso de integración.
Las organizaciones son the International Maritime Organization (IMO), the
International Civil Aviation Organization (ICAO), the International
Telecommunication Union (ITU), the International Chamber of Shipping (ICS), the
International Radio Maritime Committee (CIRM) and the International Federation of
Air Line Pilots Associations (IFALPA).
4.2.4. Funcionamiento.
Actuando como repetidores de comunicaciones, los satélites COSPAS-
SARSAT reciben señales de alerta emitidas por:
• Radiobalizas marítimas de emergencia e indicadoras de posición (EPIRBs).
• Transmisiones aéreas de localización de emergencia (ELTs).
• Radiobalizas de localización personal (PLBs).

Los satélites retransmiten las señales de alerta a estaciones terrestres


denominadas LUTs(Local User Terminal) donde se procesa y determina la
localización geográfica del accidente, esta información se envía al Centro de
Control de Misiones (MCC) que se encarga de transmitir la posición y otras
informaciones pertinentes al Centro de Coordinación de Rescates más apropiados
(RCC).

65
La velocidad y precisión de estas comunicaciones incrementa
significativamente las posibilidades de supervivencia de las víctimas del accidente
en cuestión.
Hay 14 MCCs operativos situados en 14 paises y 6 MCCs bajo test en 6
paises, respecto a las LUTs cabe destacar la existencia de 29 operativas
distribuidas en 17 países y 4 bajo test en 4 países.
4.2.5. Los satélites.
La configuración del sistema comprende cuatro satélites, dos COSPAS y
dos SARSAT.
Los satélites soviéticos están situados en órbita polar a 1000 Km. de altitud
y están equipados con instrumental SAR (Búsqueda y Rescate) a 121.5 y 406
MHz.
Los Estados Unidos contribuyen con dos satélites meteorológicos NOAA
(National Oceanic and Atmospheric Administration) situados a 850 Km. de altitud
en órbita polar y equipados con instrumental SAR a 121.5 y 406 MHz apoyados
por Canadá y Francia.
Cada satélite da una vuelta completa a la Tierra en 100 minutos
aproximádamente a una velocidad de 7Km por segundo.
Los satélites obtienen imágenes del planeta barriendo zonas con un haz de
4000 Km de ancho.
4.2.6. Resultados.
Desde Septiembre de 1982 hasta Junio de 1995 el sistema COSPAS-
SARSAT contribuyó al rescate de 5541 personas en 1800 sucesos SAR:
• Accidentes aéreos: 1624 personas en 755 sucesos SAR.
• Accidentes marítimos: 3633 personas en 922 sucesos SAR.
• Accidentes terrestres: 284 personas en 123 sucesos SAR.

El sistema de 406 MHz fue utilizado en 500 de estos incidentes (2193 personas
rescatadas), el sistema de 121.5 MHz se utilizó en el resto de los casos.
4.2.7. Nuevos desarrollos.
El concilio COSPAS-SARSAT está considerando el desarrollo del sistema
GEOSAR con satélites de búsqueda y rescate en órbita geoestacionaria que
incrementaría el potencial de los ya existentes en órbita polar.
Se ha desarrollado un D&E (Demostración y Evaluación) de GEOSAR .
4.3. GPS.
Inmarsat pretende crear un sistema de navegación (GNSS, Global
Navigation Satellite System) totalmente independiente del sistema GPS (EE.UU.) y
GLONASS (Rusia), y por tanto, constituiría una alternativa (civil) a ellos.
De hecho, el contratista de Inmarsat, ITT, ha señalado que un sistema
global de navegación civil espacial puede ser desarrollado por menos de un
66
millardo de dólares, una pequeña cantidad comparada con el coste del sistema
GPS (6-10 millardos de dólares).
Los pasos a seguir hasta constituir la GNSS son los siguientes:
1. En los satélites Inmarsat-3 se incluye un transpondedor separado que
gestiona las señales GPS, aumentando la integrabilidad de este sistema. Lo
complementa.

2. Los 12 satélites del proyecto 21 de Inmarsat (Inmarsat-P, ICO) incluirán


antenas separadas, transpondedores y relojes atómicos así como otro
instrumental necesario para proveer una amplia gama de servicios de
navegación, pero no llegará a sustituir al GPS.
3. En un tercer paso, se constituirá la GNSS independiente de GPS.

Veamos el primer paso dado por Inmarsat para establecer una GNSS propia a
partir de los satélites de Inmarsat 3. Concretamente, la tercera generación de
Inmarsat se encarga de la integridad del sistema GPS mediante la técnica GIC
(GPS Integrity Channel) , está basada en una red terrena que monitoriza los
satélites y transmite a los usuarios los resultados, para lo que el uso de satélites
geoestacionarios y los satélites de INMARSAT serán los encargados de llevarla a
cabo.
Los satélites de INMARSAT III operarán a la misma frecuencia que la señal
C/A (código que permite un posicionamiento rápido del receptor pero con precisión
media SPS) del GPS (1575.42 MHz) con una secuencia directa pseudoaleatoria
con modulación de espectro ensanchado de la misa familia de GPS que llevará la
información de integridad además de la de navegación, se comportarán como
repetidores con lo que se simplificarán los circuitos del satélite y la información de
integridad podrá ser actualizada en tiempo real.
Las estaciones terrenas de enlace con el satélite serán las mismas que
proporcionan los servicios de comunicaciones móviles y son operadas por
asociaciones que integran INMARSAT (como Comsat) que será responsable de
los satélites.
Requisitos del repetidor del satélite:
Los requisitos del repetidor del satélite son tres:
• PIRE de 28 dBW en el haz de cobertura global para que la potencia de la
señal recibida sea semejante a la señal de los satélites GPS.
• Ancho de banda nominal del repetidor de 2 MHz para poder transmitir la
señal de espectro ensanchado modulada con código C/A a la frecuencia de
1.023 MHz.
• Estabilidad de las características de retardo de grupo del sistema de modo
que pueda ser calibrado para su uso en navegación.

67
Los satélites INMARSAT III poseen un enlace de banda C a banda L y otro
de banda C a banda C de baja potencia, la comparación de los retardos
producidos en los dos enlaces se usa para compensar el retardo de propagación
ionosférica en el enlace de subida.
Al usar INMARSAT III como repetidor se produce un desplazamiento
Doppler adicional debido al enlace de la estación terrena con el satélite, para que
la señal recibida sea compatible con la señal GPS se debe compensar en tiempo
real el enlace de subida al satélite adelantando la señal de reloj una cantidad igual
al retardo del enlace de subida y se desplaza ligeramente la frecuencia de la
portadora, este método de generar una señal de reloj virtual en el satélite se
denomina Generación de Señal en Bucle Cerrado .

Presentación
Los satélites de radioaficionado son una de las áreas de la radioafición que
en México menos se practica. La creencia a que operar satélites es complejo y
caro no es necesariamente cierta: hay satélites que podemos trabajar sin tener
que estudiar el tema por meses ni contar con equipo sofisticado.
Aunque parezca difícil de creer en la mayoría de nuestros cuartos de radio
existen los equipos necesarios para iniciarse en este campo de la
radioexperimentación.
La presente es una lista de preguntas básicas sobre la operación satelital
con sus correspondientes respuestas. Su nivel es elemental e introductorio y es
muy probable que quién desee operar algún satélite deba de consultar otras
fuentes, mismas que se citan al final del documento. 73s de XE1KK.
1. ¿Que es un satélite?
En su concepción más sencilla, y quizá simplista, los satélites de
radioaficionados son repetidoras voladoras. Su principal diferencia con sus
equivalentes terrestres el que vuelan y el que al volar se mueven.
2. ¿Como funciona un satélite?
Un radioaficionado "A" emite una señal que es recibida por el satélite. El
satélite la amplifica y la retransmite inmediatamente. El radioaficionado "B" la
recibe y le contesta. Así inicia un comunicado por satélite.
3. ¿Como "se mueven" los satélites?
Los actuales satélites con los que podemos experimentar los
radioaficionados tienen dos tipos de órbita: circular y elíptica.
Los satélites con órbitas circulares se mantienen mas o menos a la misma
distancia de la tierra pero su posición respecto a la superficie varia cada momento.
Es la mas común y conocida de las órbitas. Por su parte los satélites de órbitas
elípticas, tiene la característica que pueden permanecen más tiempo viendo un
mismo lugar de la tierra y su órbitas son mucho más largas.

68
4. ¿Que cobertura tiene un satelite de orbita baja?
Al igual que en la repetidoras tradicionales a mayor altitud mayor cobertura.
Los satélites de órbita baja se encuentran entre 400 y 1400 Km. de altura así que
el área que pueden cubrir equivale a toda la República en los más bajos o una
área equivalente a México, sur de Estados Unidos, Centro América, parte del
Caribe y norte de Colombia en los de mayor altura.
Esta área o sombra del satélite permite que cualquier estación que se
encuentre dentro de ella pueda, en principio, contactar otras estaciones que estén
dentro de esa sombra. La duración del satélite en esa posición en muy breve ya
que se mueven a gran velocidad. La sombra mantiene su diámetro pero también
se está moviendo.
5. ¿Cuantas veces pasa un satélite sobre nosotros?
Un satélite de orbita baja pasa por arriba de un determinado punto, entre 4
y 6 veces al día. La duración de cada pase varia dependiendo de la órbita pero en
promedio podemos decir que entre 10 y 18 minutos están disponibles para que los
operemos. Tenemos pues más de una hora diaria para usarlo.
Si consideramos que hay más de 15 satélites de órbita baja nos daremos
cuenta que hay más tiempo de satélites que tiempo para hacer radio.
6. ¿Como funcionan los satélites de órbita elíptica?
Los satélites de órbita elíptica tienen otras características. Su órbita tiene
dos puntos claves: el más cercano se le conoce como perigeo y el más lejano
como apogeo. En su apogeo casi toda una cara de la tierra esta disponible para
comunicar ya que en el caso de algunos satélites como el OSCAR 13 llega a estar
a 38,000 Km. de distancia.
Estos satélites equivalen en cierta manera a 20 metros en HF: hay buen DX
y siempre hay estaciones llamando CQ. A diferencia de los satélites de órbita baja
casi no se nota el efecto dopler, que es el movimiento de frecuencia que se origina
por la velocidad a la que se mueve el satélite. Algo similar como cuando
escuchamos una ambulancia o un auto a gran velocidad: el tono de la sirena o el
motor es distinto antes y después de que pasan frente a nosotros.
7. ¿Como se donde está el satélite?, ¿cuando pasará?
La predicción de las órbitas satelitales se hace por lo general con ayuda de
una computadora personal. No es la única opción pero hoy por hoy es la más fácil.
Hay diversos y entre ellos destacan el InstanTrack y el QuickTrack. El primero mi
favorito y lo vende AMSAT (ver pregunta # 18).
Los programas no solo indican y grafican cuando el satélite pasará sino que
dan otros datos importantes como la elevación o altitud sobre el horizonte y el
azimut o posición respecto a los cuatro puntos cardinales.
8. ¿Cual es la mejor elevación?
La elevación optima, que es de 90 grados, solo se da cuando el satélite
pasa exactamente sobre nosotros. Pero esto no quiere decir que con otras

69
elevaciones no se pueda trabajar, Praticamente cualquier elevación superior a 2 o
3 grados es suficiente si nuestro horizonte lo forman montañas lejanas o montes
cercanos pero no muy altos.
9. ¿Y en base a que información el programa hace estos cálculos?.
Los programas de computadora para seguimiento de satélite se actualizan
con una serie de datos sobre los satélites mejor conocidos como elementos
Keplerianos que por lo general uno consigue fácilmente de los BBSes de packet o
de alguna revista sobre el tema.
Existen dos tipos de formatos: NASA o de dos líneas y AMSAT que es mas fácil
de entender a los humanos y por lo mismo son mas largos. Para efectos de una
computadora da igual cual utilices.
10. ¿Cuantos satélites hay?
A la fecha hay más o menos 20 satélites de radioaficionados disponibles de
una u otra forma. Digo mas o menos ya que de vez en cuando alguno queda
apagado por falla o mantenimiento.
11. ¿Que tipo de actividad encuentro en los satélites?
Hay satélites para todos los gustos. Muchos de los modos de operación que
encontramos en las bandas tradicionales también están disponibles en los
satélites: banda lateral, telegrafía, teletipo, televisión de barrido lento, FM y packet
de diversos tipos.
En los satélites se hace DX tan bueno como en 20 metros, hay plie-ups y
DXpediciones que trabajan en split. Hay diplomas aunque no hay concursos.
Hay espacio para los que les gusta conversar y hacer nuevos amigos. Para
el experimentador y en constructor de equipos y antenas, este es un mundo muy
amplio. En pocas palabras: lo que hoy nos gusta del radio casi seguro lo
encontramos también vía satélite.
12. ¿Como puedo trabajar un satélite?
Dependiendo de las caracteristicas de los satélites será la manera de
trabajarlos. Para efectos didacticos podemos dividirlos en cuatro:
A) Satélites de órbita baja para voz o analógicos.
Son los mas fáciles de trabajar y casi todos nos iniciamos en ellos. El
sistema por el que operan es el de retransmitir entre 50 y 100 kHz de una banda,
en lugar de una sola frecuencia como lo hace un repetidora, a 50 o 100 kHz de
otra banda con todo lo que se encuentre en ella, sea CW o banda lateral. Esto se
conoce como "transponder".
Entre los satélites de este tipo destacan los rusos RS-10/11 y RS-12/13 y el
satélite japonés FUJI OSCAR 20 No se requiere de equipo sofisticado para
trabajarlos, quizá solo de un poco de paciencia
B) Satélites de órbita baja digitales.

70
Son satélites de órbita circular que operan principalmente packet en sus
distintas modalidades. Son el equivalentes a BBSes de packet voladores. A la
fecha hay más de 10 satélites digitales operando.
Los satélites tradicionales de este tipo, conocidos como pacsats, son el UO-
14, AMSAT OSCAR 16, el DOVE OSCAR 17, el Webersat o WO-18 y el satélite
argentino LUSAT o LO-19.
Los satélites UO-22 y KITSAT OSCAR 23 también son BBS voladores pero
trabajan a 9600 bps y tienen entre sus curiosidades cámaras que toman fotos de
la tierra y las retransmiten vía packet.
Una nueva generación de satélites digitales fue lanzada recientemente: el
ITAMSAT-A, KITSAT-B, EYESAT-A y POSAT-1. Algunos ya están disponibles
para todos, otros siguen en pruebas. El UNAMSAT. primer satélite mexinaco de
este tipo muy pronto estará en órbita.
C) Satélites de órbita elíptica.
Son como ya dijimos en donde se llevan a cabo las comunicaciones
intercontinentales y algunos modos como SSTV y RTTY, así como otro tipo de
experimentos propios del mundo de los satélites.
Entre ellos destacan el OSCAR 10, OSCAR 13 y el ARSENE. El primero ya
está cumpliendo su ciclo de vida y el último no funciono. Muy pronto habrá nuevos
satélites de este tipo: la llamada FASE 3-D.
D) Satélites tripulados.
Por último las naves espaciales: el MIR ruso y el Space Shuttle
norteamericano que como ustedes bien saben traen equipos de dos metros y
hacen contacto con radioaficionados en la tierra tanto en voz como en packet. El
MIR es relativamente fácil de trabajar en packet dado que los cosmonautas
permanecen en el espacio por mucho tiempo.
13 ¿Que equipo necesito para trabajar un satélite?
Cual es el equipo necesario para trabajar satélites es siempre una difícil
pregunta. A continuación se presenta una tabla con los equipos MINIMOS
necesarios para que con un poco de paciencia y tenacidad se pueda trabajar
algún satélite.
EQUIPO MINIMO NECESARIO PARA TRABAJAR SATELITES
EQUIPO PARA EL
SATELITE MODO UPLINK DOWNLINK ANTENAS AMP/PREAMP TNC TIPO
----------------------------------------------------------------------------
RS-10/11 A 2m/SSB 10m/SBB omni no/no no Analógico
DO-17 2m/FM omni no/no 1200 AFSK Digital
AO-16 JD 2m/FM 70cms/SSB omni no/no 1200 PSK Digital
KO-23 JD 2m/FM 70cms/SSB omni no/no 9600 FSK Digital

71
AO-13 B 70cms/SSB 2m/SSB yagis si/si no Elíptico
MIR/STS 2m/FM 2m/FM omni no/no 1200 AFSK Tripul
----------------------------------------------------------------------------
14. ¿Que es el "modo" en los satélites?
El término modo de los satélites es uno de los que hacen parecer
complicada esta área de la radioexperimentación. En HF el modo es el tipo de
emisión en el que trabajamos: SSB, FM, CW, etc. En satélite el modo significa las
bandas que estoy utilizando para trabajar al satélite: que banda uso en el uplink,
esto es para transmitir o subir al satélite y el downlink o la banda en la que el
satélite transmite de regreso o baja y en la que nosotros recibimos.
Modo Uplink Downlink
----------------------------------------------------
A 2 metros (145 MHz) 10 metros (29 MHz)
B 70 cm. (435 MHz) 2 metros (145 MHz)
J 2 metros (145 MHz) 70 cm. (435 MHz)
K 15 metros (21.2 MHz) 10 metros (29 MHz)

L 23 cm. (1.2 GHz) 70 cm. (435 MHz)


S 70 cm. (435 MHz) 13 cm. (2.4 GHz)
T 15 metros (21.2 MHz) 2 metros (145 MHz)
Tipos de satélites artificiales
Se pueden clasificar los satélites artificiales utilizando dos de sus
características: su misión y su órbita.

Tipos de satélite (por tipo de misión)

• Armas antisatélite, también denominados como satélites asesinos, son


satélites diseñados para destruir satélites enemigos, otras armas orbitales y
objetivos. Algunos están armados con proyectiles cinéticos, mientras que
otros usan armas de energía o partículas para destruir satélites, misiles
balísticos o MIRV.
• Satélites astronómicos, son satélites utilizados para la observación de
planetas, galaxias y otros objetos astronómicos.
• Biosatélites, diseñados para llevar organismos vivos, generalmente con
propósitos de experimentos científicos.
• Satélites de comunicaciones, son los empleados para realizar
telecomunicación. Suelen utilizar órbitas geosíncronas, órbitas de Molniya u
órbitas bajas terrestres.

72
• Satélites miniaturizados, también denominados como minisatélites,
microsatélites, nanosatélites o picosatélites, son característicos por sus
dimensiones y pesos reducidos.
• Satélites de navegación, utilizan señales para conocer la posición exacta
del receptor en la tierra.
• Satélites de reconocimiento, denominados popularmente como satélites
espías, son satélites de observación o comunicaciones utilizados por
militares u organizaciones de inteligencia. La mayoría de los gobiernos
mantienen la información de sus satélites como secreta.
• Satélites de observación terrestre, son utilizados para la observación del
medio ambiente, meteorología, cartografía sin fines militares.
• Satélites de energía solar, son una propuesta para satélites en órbita
excéntrica que envíen la energía solar recogida hasta antenas en la Tierra
como una fuente de alimentación.
• Estaciones espaciales, son estructuras diseñadas para que los seres
humanos puedan vivir en el espacio exterior. Una estación espacial se
distingue de otras naves espaciales tripuladas en que no dispone de
propulsión o capacidad de aterrizar, utilizando otros vehículos como
transporte hacia y desde la estación.
• Satélites meteorológicos, son satélites utilizados principalmente para
registrar el tiempo atmosférico y el clima de la Tierra.

Es posible clasificarlos por tipos de órbitas satelitales GEO Orbita


Geosestacionaria, esto significa que rota igual que la tierra a una altura de 36,000
km sobre el ecuador, por lo tanto tiene un periodo orbital de 24 horas y muestra un
retardo entre 700 y 800 milisegundo, este tipo de satélites son utilizados para brindar
servicios de voz, datos e Internet a empresas privadas y de gobiernos, esta
enfocada a localidades donde no llegan otro tipo de tecnologías y con el objetivo
de cubrir necesidades de comunicación, es empleado en escuelas publicas y
negocios rurales. MEO Es de órbita mediana rota de 10.000 a 20.000 km y tiene un
periodo orbital de 10 a 14 horas, este es utilizado por empresas celulares con la
llamada tecnología GPS. LEO Son satélites de órbita baja están a una altura de
700 a 1400 km y tienen un periodo orbital de 80 a 150 minutos.

Tipos de satélite (por tipo de órbita)


Clasificación por centro

• Órbita galactocéntrica: órbita alrededor del centro de una galaxia. El Sol


terrestre sigue éste tipo de órbita alrededor del centro galáctico de la Vía
Láctea.
• Órbita heliocéntrica: una órbita alrededor del Sol. En el Sistema Solar, los
planetas, cometas y asteroides siguen esa órbita, además de satélites
artificiales y basura espacial.
• Órbita geocéntrica: una órbita alrededor de la Tierra. Existen
aproximadamente 2.465 satélites artificiales orbitando alrededor de la
Tierra.

73
• Órbita areocéntrica: una órbita alrededor de Marte.

Clasificación por altitud

• Órbita baja terrestre (LEO): una órbita geocéntrica a una altitud de 0 a


2.000 km
• Órbita media terrestre (MEO): una órbita geocéntrica con una altitud entre
2.000 km y hasta el límite de la órbita geosíncrona de 35.786 km. También
se la conoce como órbita circular intermedia.
• Órbita alta terrestre (HEO): una órbita geocéntrica por encima de la órbita
geosíncrona de 35.786 km; también conocida como órbita muy excéntrica u
órbita muy elíptica.

Clasificación por inclinación

• Órbita inclinada: una órbita cuya inclinación orbital no es cero.


o Órbita polar: una órbita que pasa por encima de los polos del
planeta. Por tanto, tiene una inclinación de 90º o aproximada.
o Órbita polar heliosíncrona: una órbita casi polar que pasa por el
ecuador terrestre a la misma hora local en cada pasada.

Clasificación por excentricidad

• Órbita circular: una órbita cuya excentricidad es cero y su trayectoria es un


círculo.
o Órbita de transferencia de Hohmann: una maniobra orbital que
traslada a una nave desde una órbita circular a otra.
• Órbita elíptica: una órbita cuya excentricidad es mayor que cero pero menor
que uno y su trayectoria tiene forma de elipse.
o Órbita de transferencia geosíncrona: una órbita elíptica cuyo perigeo
es la altitud de una órbita baja terrestre y su apogeo es la de una
órbita geosíncrona.
o Órbita de transferencia geoestacionaria: una órbita elíptica cuyo
perigeo es la altitud de una órbita baja terrestre y su apogeo es la de
una órbita geoestacionaria.
o Órbita de Molniya: una órbita muy excéntrica con una inclinación de
63,4º y un período orbital igual a la mitad de un día sideral (unas
doce horas).
o Órbita tundra: una órbita muy excéntrica con una inclinación de 63,4º
y un período orbital igual a un día sideral (unas 24 horas).
• Órbita hiperbólica: una órbita cuya excentricidad es mayor que uno. En
tales órbitas, la nave escapa de la atracción gravitacional y continua su
vuelo indefinidamente.
• Órbita parabólica: una órbita cuya excentricidad es igual a uno. En estas
órbitas, la velocidad es igual a la velocidad de escape.

74
o Órbita de escape: una órbita parabólica de velocidad alta donde el
objeto se aleja del planeta.
o Órbita de captura: una órbita parabólica de velocidad alta donde el
objeto se acerca del planeta.

Clasificación por sincronía

• Órbita síncrona: una órbita donde el satélite tiene un periodo orbital igual al
periodo de rotación del objeto principal y en la misma dirección. Desde el
suelo, un satélite trazaría una analema en el cielo.
• Órbita semisíncrona: una órbita a una altitud de 12.544 km
aproximadamente y un periodo orbital de unas 12 horas.
• Órbita geosíncrona: una órbita a una altitud de 35.768 km. Estos satélites
trazarían una analema en el cielo.
o Órbita geoestacionaria: una órbita geosíncrona con inclinación cero.
Para un observador en el suelo, el satélite parecería un punto fijo en
el cielo.
o Órbita cementerio: una órbita a unos cientos de kilómetros por
encima de la geosíncrona donde se trasladan los satélites cuando
acaba su vida útil.
• Órbita areosíncrona: una órbita síncrona alrededor del planeta Marte con un
periodo orbital igual al día sideral de Marte, 24,6229 horas.
• Órbita areoestacionaria: una órbita areosíncrona circular sobre el plano
ecuatorial a unos 17.000 km de altitud. Similar a la órbita geoestacionaria
pero en Marte.
• Órbita heliosíncrona: una órbita heliocéntrica sobre el Sol donde el periodo
orbital del satélite es igual al periodo de rotación del Sol. Se sitúa a
aproximadamente 0,1628 UA.

Otras órbitas

• Órbita de herradura: una órbita en la que un observador parecer ver que


órbita sobre un planeta pero en realidad coorbita con el planeta. Un ejemplo
es el asteroide (3753) Cruithne.
• Punto de Lagrange: los satélites también pueden orbitar sobre estas
posiciones.

Clasificación de los satélites según su peso


Los satélites artificiales también pueden ser catalogados o agrupados según el
peso o masa de los mismos.

• Grandes satélites: cuyo peso sea mayor a 1000 kg


• Satélites medianos: cuyo peso sea entre 500 y 1000 kg
• Mini satélites: cuyo peso sea entre 100 y 500 kg
• Micro satélites: cuyo peso sea entre 10 y 100 kg
• Nano satélites: cuyo peso sea entre 1 y 10 kg

75
• Pico satélite: cuyo peso sea entre 0,1 y 1 kg
• Femto satélite: cuyo peso sea menor a 100 g

Países con capacidad de lanzamiento


Un total de diez países y el grupo formado por la ESA (Agencia Espacial Europea)
han lanzado satélites a órbita, incluyendo la fabricación del vehículo de
lanzamiento. Existe también otros países que tienen capacidad para diseñar y
construir satélites, pero no han podido lanzarlos de forma autónoma sino con la
ayuda de servicios extranjeros.

Satélites multispot

En menos de una década, hacia el año 2015


aproximadamente, se podrá disponer de satélites multispot de comunicaciones, de
antena multihaz y veinte kilovatios de potencia, capaces de contener mil canales
de TV y dar cobertura a un millón de abonados de móviles e internet. Así lo ha
informado hoy José María Casas, el jefe de la División de Servicios de
Telecomunicaciones de la Agencia Europea del Espacio.
Actualmente más de 200 satélites de telecomunicaciones proporcionan, desde la
órbita geoestacionaria, la infraestructura desde la que se transmiten cerca de
20.000 canales de televisión, se ofrecen decenas de miles de circuitos entre
centrales de telefonía, datos e internet y se proporcionan los enlaces de
contribución de programas o noticias. Otro tipo de satélites de telecomunicaciones
son los dedicados a servicios móviles, los cuales permiten el establecimiento de
enlaces para voz y datos a terminales móviles, en tierra, mar y aire. Y es que las
telecomunicaciones por satélite constituyen la aplicación más desarrollada del
espacio.
Una de las opciones más veloces de acceso a Internet.

La mejor forma de llegar a comunidades retiradas donde no se cuenta con


infraestructura de conectividad es por medio de enlaces satelitales, también para
aquellas redes que requieran una pronta instalación y sobre todo la unificación.
Prestamos servicios de acceso a internet, soporta transacciones, mensajería,
cambio de archivos (unicast), Streaming multicast, multicast de archivos, VPN
(IPSEC), todo esto con el mismo equipo.

76
puede variar entre 64 y 2,048 Kbps (kilo bites por segundo) con
Su velocidad
todas las ventajas de acceso a Internet que ofrecen otros medios de conexión y
aunque representa un costo muy elevado para usos domésticos, es una alternativa
muy rentable para aplicaciones comerciales y de investigación.

La comunicación se realiza a través de ondas electromagnéticas de alta


frecuencia que viajan en el espacio libre y llegan hasta un satélite geoestacionario
(satélite Mexicano en la banda ku), razón por la cual, los sistemas de cómputo
pueden estar ubicados en cualquier parte del mundo, e inclusive estar instalados
en una camioneta, u otro vehículo, que permita su traslado continuo, antenas auto-
orientables (con la ayuda de tablas matemáticas que proporciona el proveedor del
servicio, el equipo automáticamente se auto-orienta y se conecta a un satélite).

Es una buena alternativa no sólo para acceder a Internet desde cualquier


lugar sin importar su ubicación, sino también para compartir información como en
el caso de las escuelas rurales, proyectos de investigación que requieren contar
con una conexión permanente para poder enviar o recibir información, o
conectarse a un mismo servidor, o sistemas móviles utilizados por dependencias
públicas para llevar sus servicios a lugares apartados de las grandes ciudades,
conectándose vía satélite a su servidor.

• Consta de una antena parabólica que puede ser


de 90 a 120 cm de diámetro (con transmisor y
receptor integrados).

77
• Un equipo IDU Indoor unit, que en terminos
sencillos es como una computadora (pero sin
teclado ni mouse) que cuenta con: dos puertos
que están conectados a la antena (uno es para
el canal de recepción y otro para el de
transmisión), un puerto Ethernet 10/100 base T
que se conecta a un hub, que permite la
conexión de varias computadoras y, un módem
especial para enlace satelital.
La conexión de este servicio es principalmente asimétrica, es decir que
utiliza el mayor ancho de banda para la recepción de datos y menor para el envío,
pero también hay del tipo simétrico (mismo ancho de banda para transmisión y
recepción).

Así mismo, lo caracteriza un enlace de tipo bidireccional, es decir, se


recibe y envía a través del satélite, a diferencia de algunas compañías que hace
algunos años ofrecían una conexión híbrida en donde la información se recibía a
través del satélite pero se enviaba por otro medio terrestre, como el teléfono,
dando por resultado que se podían recibir archivos pesados pero no se podían
enviar.

• El satélite retransmite los datos y son recibidos por la antena parabólica,


normalmente colocada en el techo de la casa del usuario.
• Posteriormente, los datos pasan a través de un convertidor (módem
especial) que los envía por medio de una red Ethernet hacia la
computadora.

Este servicio puede conectarse a cualquier equipo de cómputo de modelo


reciente, con buena capacidad en disco duro. A su vez la IDU contiene un puerto
RJ45 que se conecta a un HUB o switch de cualquier red, que permite conectar
más de una computadora.

78
El costo dependerá de los requerimientos del usuario, en cuanto a
velocidad y servicio y va desde los 386 a los 4,367 dólares mensuales, más la
inversión en el equipo.

• No hay retraso (conocido como delay) al conectarse a Internet.


• Este sistema utiliza solamente protocolos e interfaces estándar. Todos sus
componentes, con excepción del módem especializado para satélite, son
productos disponibles comercialmente, y a su vez fáciles de instalar y
mantener.
• Funciona como cualquier estación terrena dedicada para una conexión de
acceso a Internet con servicio digital.
• Soporta enlaces VPN.
• Transmite voz, datos, video y cualquier aplicación IP.

CONCLUCIONES

Con la información dada y haciendo un análisis profundo y detallado de sus


ventajas y desventajas, se puede observa que la tecnología satelital supera por
mucho a la tecnología de conexión terrestre, ya que alcanza horizontes que la
tecnología de cable jamás podrá alcanzar.

A través de ella se obtuvo una rápida aceleración de desarrollo tecnológico


ya que esta tecnología se obtuvo de un guerra de muchos años entre dos grandes
potencias que añoraban esta tecnología, para la destrucción del enemigo la cual
constaba de tener armamento tanto militar, como nuclear en el espacio y así
posicionarse como la mayor potencia en el mundo, pero el resultado no fue de
destrucción si no todo lo contraria fue de beneficio, ya que se descubrí una forma
para comunicarse mas rapidez con eficacia y teniendo un mayor beneficio para la
humanidad. En esta guerra fría o carrera armamentista en la cual la unión
soviética estaba a la vanguardia ya que fueron los primeros en lanzar un satélite
artificial.

79
Exploración del Espacio

“El Espacio, la última frontera…” como dijo el Capitán Kirk. Y resulta que tenía
razón porque el hombre siempre se ha esforzado por explorar lo que reposa más
allá de su horizonte.

Una vez que descubrimos cada rincón de nuestro mundo, pusimos la mira en las
estrellas, pero no fue sino hasta hace 50 años que estuvo disponible la tecnología
para hacer de este sueño una realidad.

La exploración del espacio no se trata simplemente de descubrir si existen


hombrecitos verdes en otros planetas. Podemos aprender de dónde venimos,
cómo empezó la vida en nuestro planeta y qué le pasará a la tierra en el futuro.

Pioneros

80
Después de los primeros viajes exitosos en satélites
pequeños no tripulados, los rusos y los americanos enviaron
perros y primates al espacio para investigar el efecto de la
ausencia de peso en seres vivos.

El primer hombre en el espacio fue el cosmonauta Juri


A.Gagarin (1934-1968) quien dió la vuelta a la tierra a bordo
del Wostok 1, el 12 de Abril de 1961. Estuvo en el espacio Buzz Aldrin da sus
por 1 hora y 48 minutos, logró 327 km. y un perigeo de 180 primeros pasos
km. Aterrizó sano y salvo en Siberia. En los dos años sobre la Luna.
siguientes, se realizaron cinco vuelos más del Wostok.

Los estadounidenses siguieron el ejemplo con su Programa Mercurio. El 5 de


Mayo de 1961, Alan B.Shepard fue el primer estadounidense en llegar al espacio.
La nave fue la Freedom 7. Siguió una trayectoria balística y completó un vuelo
sub-orbital de 15 minutos. El 20 de Febrero de 1962, el primer astronauta
estadounidense, John H.Glenn Jr., orbitó la tierra tres veces.

El Programa Ruso Sojus fue el equivalente del Programa Americano Gemini y


ambos desarrollaron la tecnología necesaria para llegar a la luna. Los vuelos del
Gemini se realizaron de 1965 a 1966.

El Apolo se lanzó el 16 de Julio de 1969. Luego de alcanzar la órbita lunar, Edwin


E. Aldrin y Neil Arsmstrong escalaron hasta una cápsula lunar. Michael Collins
permaneció en la órbita de la luna. El 20 de Julio, la cápsula lunar voló hasta la
superficie de la luna y aterrizó en el borde de Mare Tranquillitatis. Pocas horas
después, el 21 de Julio a las 3.56, Armstrong puso un pie en la luna y dijo las
famosas palabras: “Este es un paso pequeño para el hombre, un salto gigante
para la humanidad”.

Las misiones a la luna planeadas por los Estados Unidos se completaron con el
vuelo del Apolo 17 en Diciembre de 1972. Los astronautas Cernan y Harrison
H.Schmitt estuvieron 22 horas en la luna y manejaron 35 km. en su camioneta
lunar.

Pero este éxito tuvo un precio: 21 astronautas han muerto desde el inicio de los
vuelos espaciales tripulados el 12 de Abril de 1961.

Transbordadores

81
Enterprise – El Prototipo
El transbordador prototipo fue bautizado con ese nombre por la nave Enterprise,
de la popular serie televisiva Viaje a las Estrellas. En 1977, dos pilotos efectuaron
el primero de cuatro vuelos de prueba a 7000 metros. En 1979 el Enterprise fue
unido a un tanque de combustible y a propulsores, en el Centro Espacial
Kennedy. Pero el transbordador nunca llegó a despegar debido a que ya se
habían completado los trabajos en el Columbia y éste hizo su vuelo inaugural el
12 de Abril de 1981.

Columbia – El Transbordador más Viejo


El Columbia (que pesó 71 toneladas y fue modificado y mejorado unas 150 veces)
fue reacondicionado entre el otoño de 1999 y la primavera del 2002 y lanzado de
nuevo el 1 de Marzo del 2002. El 1 de Febrero de 2003, se desintegró durante un
descenso sobre Texas. Explotó a unos 62,000 metros. El desastre fue
probablemente ocasionado por una falla en el escudo termal.

Challenger – El Segundo Transbordador


El segundo transbordador en entrar en operación completó su primer vuelo en
1983. Durante sus diez misiones, el transbordador estuvo en el espacio por 69
días y dió vueltas a la tierra 987 veces.
En una de las misiones, el astronauta Bruce McCandless abandonó el
transbordador sin un cordón de seguridad e hizo una caminata espacial de 30m.
Fue el primero en hacer eso.
El 28 de Enero de 1986, el Challenger explotó 73 segundos antes de despegar y
murieron sus siete tripulantes.

Discovery – El Tercer Transbordador


A pesar de que el Discovery fue construido como el Challenger, permitiéndole
llevar en el compartimiento de carga al cohete auxiliar Centaur, pesó 3 toneladas
menos que el Columbia. Pero nunca se efectuó un lanzamiento con la sección
Centaur. Luego del accidente del Challenger, esto fue puesto en pausa por
considerarse muy riesgoso.

Atlantis – El Cuarto Transbordador


La nave espacial Atlantis tenía vacía, un peso de 68 toneladas, totalizando 77
toneladas con los motores internos. Llevó a misiones tales como el Explorador
Planetario Galileo en 1989 y liberó en el espacio el observatorio de Rayos

82
Gamma Arthur Holley Compton en 1991.

Endeavour - El Transbordador más Nuevo


Los niños de escuela estuvieron particularmente activos en la búsqueda de un
nombre para este nuevo transbordador. Ganó Endeavour.
La primera misión del Endeavour fue en Mayo de 1992. La misión implicaba una
espectacular operación de rescate de un satélite de comunicaciones que había
salido de control. De manera sorprendente, el Endeavour puede permanecer en el
espacio hasta por 28 días.

Propulsores

Los propulsores son los enormes cohetes que impulsan a la nave espacial o
vehículo de carga hacia la órbita.

Existen dos tipos de sistemas de despegue: el Vehículo de Propulsión


Prescindible (ELV), desarrollado a partir de misiles balísticos en los 50, el cual
sólo puede ser utilizado una vez. Los tanques de combustible y los cohetes son
desechados después del lanzamiento en un proceso llamado “nivelación”, lo que
significa que la nave espacial no usa energía transportando piezas que no
necesita.

Todos los satélites y las sondas utilizan Vehículos de Propulsión Prescindible


(ELV). La única nave que usa Vehículos de Propulsión Reutilizable (RLV) es el
transbordador espacial de Estados Unidos. Éste último desecha sus tanques de
combustible al despegar, conservando sus cohetes, los cuales, después de ser
reparados pueden ser utilizados nuevamente.

83
Los Estados Unidos en el Espacio
La Administración Nacional de Espacio y Aeronáutica (NASA) es la agencia
espacial más grande y conocida del mundo.

Actualmente tiene una “Visión para la Exploración del Espacio” que planea incluir
una serie de misiones, tripuladas y con robots. Esto incluirá una misión a la luna
con robots a más tardar el 2008, lo que sentará las bases para la futura
exploración de Marte.

En Noviembre del 2004 la nave espacial Swift despegó de Cabo Cañaveral. Es el


primer observatorio de ondas múltiples diseñado para estudiar la ciencia
explosiva de los rayos Gamma. Deep Impact se lanzará en Diciembre del 2004 y
viajará 133 millones de kilómetros para encontrarse con el cometa Temple1.
Disparará una gigantesca “bala” de cobre en el interior del cometa a 45,000 km/h
y el impacto podrá observarse desde la tierra. La idea es que nos pueda brindar
una inmersión en la constitución de un cometa y las implicaciones que tendría si
uno llegara a estrellarse contra nuestro planeta.

Galileo y el primer telescopio


En 1609 en el campanario de San Marcos en Venecia. Galileo Galilei pone a
prueba el primer telescopio, un modesto cilindro de tres centimetros de diametro,
dos lentes y y cincuenta aumentos explorando el firmamento y dando comienzo a
la astronomia moderna; pocos meses mas tarde el dispositivo le permite observar
por primera vez los satelites mayores de Jupiter y mas tarde los anillos de Saturno.

Urano, sorprendente logro de Herschel

 En 1781 se descubre Urano, el séptimo planeta del sistema solar


por orden de distancia creciente a partir del Sol, su descubridor es el
astrónomo alemán Friedrich Wilhelm Herschel. El hallazgo del nuevo
planeta, el primero en los ultimos 5.000 años en sumarse a los ya
conocidos duplica el diametro del sistema solar reconocido hasta
entonces.
 En 1787 el mismo Herschel descubre dos satelites, Titania y
Oberon, girando a su alrededor. La inclinacion de sus orbitas indica
sorprendente que el eje de rotacion de Urano esta proximo al plano de
su revolucion orbital, La razon de esta singular carateristica ajena a los
demas planetas continuara siendo un enigma.

Neptuno, el octavo planeta


En 1847 el astrónomo Johann Gottfried Galle, ubica la posición de
Neptuno, el octavo l 8vo. planeta desde el Observatorio de Berlin, a

84
partir de los cálculos realizados por J. Leverrier e independientemente
por J. C. Adams.

 En 1964 comienza la exploracion robotica de Marte, cuando ha pasado menos


de una década desde el lanzamiento del primer satelite artificial. ampliar

Pioneer 10 : primer acercamiento a Jupiter


A partir de 1972 da comienzo una ambiciosa exploración de los planetas
exteriores, con el lanzamiento de la sonda Pioneer 10 de los EE.UU. La sonda se
lanza con destino a Júpiter en un viaje programado de 21 meses y un recorrido de
casi 1.000 millones de kilómetros. Transcurridos unos 180 días desde el
lanzamiento la nave entra al anillo de asteroides existente entre Marte y Jupiter sin
sufrir daños. La fase del encuentro con Júpiter requirió dos meses y la máxima
aproximación tuvo lugar el 3 de diciembre de 1973.
La Pioneer 10 al pasar junto al mayor de todos los planetas transmite unas 300
fotografiías de resolución media de Jupiter y de sus satélites. A continuación el
campo gravitatorio del planeta lo situa de acuerdo a lo planeado en una nueva
trayectoria con rumbo a mas alla de la órbita de Plutón la que atravesará en 1987
convirtiéndose en el primer ingenio artificial humano en abandonar el sistema solar.

Fuente. Exploración del Espacio - Las sondas a los planetas Ediciones


Quarto/Orbis 1985

Misiones Voyaguer I y II
En 1977 son lanzadas las naves espaciales Voyaguer I y II, por EE.UU. para
explorar nuestro sistema solar, sus trayectorias finales las llevarán luego a un viaje
sin fin por el universo, serán los primeros ingenios humanos en hacerlo.
 Durante este mismo año mediante el telescopio Kuiper se descubren los
primeros nueve anillos del planeta Urano, los que serán fotografiados y medidos
durante las visitas de las naves Voyager.

Exploración de Venus
En 1989 EE.UU. lanza la sonda espacial Magallanes con destino a Venus; en 1994
concretará el mapeo completo del planeta por radar.

Nuevo planetoide entre Neptuno y Plutón


En octubre de 2000 astrónomos estadounidenses y venezolanos utilizando el
telescopio del Observatorio CIDA de Mérida, Venezuela reportaron el hallazgo de
un nuevo cuerpo celeste entre las órbitas de Neptuno y Plutón de 650 kilómetros
de diámetro aproximadamente. Se especula que el planetoide siempre estuvo alli
desde los orígenes del sistema solar esperando ser descubierto. El caso
representa otra evidencia mas de las sorpresas que puede depararnos todavia el

85
futuro respecto a descubrimientos dentro de nuestro sistema solar y en sus
vecindades.

Quaoar: nuevo planeta mas allá de Plutón


En octubre de 2002 se anuncia oficialmente el hallazgo de un
nuevo planeta cerca del cinturon de asteroides de Kuiper a
6.000 millones de kilometros de la Tierra y mas alla de Pluton,
confirmandose que las evidencias de su existencia databan
de 1982 aun cuando entonces no se habia logrado
identificarlo como tal. Su período orbital se calcula en 288
años. No obstante debido a su tamaño (1280 kilómetros de
diametro) que subsisten polemicas acerca de la procedencia
de otorgarle el caracter de un verdadero planeta, criticas que
por otra parte tambien se han reactualizado respecto a
Plutón.

El importante descubrimiento esta lejos de colmar las expectativas de quienes


esperan en algún momento detectar un planeta masivo y desconocido en una
órbita aun mas lejana el que ademas de explicar algunas perturbaciones orbitales
de los planetas exteriores podría dar credito finalmente a la relación de distancias
propuesta por la secuencia de Titus-Bode. Quoaoar ( 2002 LM60) es el nombre
provisorio con que se ha bautizado al planeta a la espera del nombre que vote la
Unión Astronómica Internacional
Fuente. En base a información de BBC World Service

Plutón: el 9no. planeta de baja, tras polémica redefinición planetaria - Agosto de


2006.
En Praga, la Unión Astronómica Internacional (IAU) define el concepto de planeta.
Como resultado de la misma Plutón que desde 1930 ha sido reconocido como el
noveno planeta del sistema solar pierde su condicion de tal siendo relegado a la
categoría de "planeta enano" quedando asi el sistema solar reducido oficialmente a
ocho planetas.

Materia oscura
Primeras evidencias de materia oscura
Desde los años treinta se sabe que las velocidades peculiares de las galaxias
en cúmulos corresponden a una masa total del cúmulo de aproximadamente un
orden de magnitud mayor que el total de toda la materia luminosa observada
dentro de las propias galaxias. ¿Cómo se sabe esto?. Hay una maneras simple de
hacer una estimación de la masa del cúmulo. La única fuerza apreciable entre las
galaxias de un cúmulo es la gravedad. Cuanto mayor sea la masa de un cúmulo,
las galaxias exteriores estarán sometidas a una mayor fuerza graviatoria total y
por tanto a una mayor aceleración, alcanzando mayores velocidades. Por tanto, la
velocidad media de las galaxias de un cúmulo es una medida de su masa – El
lector puede visualizar este hecho utilizando esta simulación java–. Este mismo
argumento nos permite calcular la masa utilizando medidas de las mayores

86
velocidades que se observan en el cúmulo. Éstas no pueden ser mucho mayores
que la velocidad de escape, o en caso contrario las galaxias se habrían alejado del
cúmulo.

Siempre por supuesto, una idea simple en astronomía suele estar acompañada
de dificultades observacionales. En este caso, desde luego que no podemos
observar las galaxias moviéndose realmente. Sólo podemos obtener una
instantánea del cúmulo junto con una medida, a través del desplazamiento
doppler, de las velocidades peculiares de cada galaxia. Pero podría pasar que las
galaxias con velocidades más elevadas estuvieran realmente escapando del
cúmulo, o que no pertenezcan realmente a éste, o que simplemente sean galaxias
de fondo atravesando la franja del cielo donde está el cúmulo.

Evidencias aún más rotundas


También, desde los años sesenta se ha observado una situación similar en las
partes exteriores de las galaxias espirales y al menos en algunas elípticas. Si
imaginamos una galaxia a modo de Sistema Solar, con las estrellas girando en
órbitas cerradas alrededor del centro donde se concentra una gran cantidad de
masa, cabría esperar entonces que las velocidad de las estrellas disminuyeran a
medida que nos alejamos del centro siguiendo una ley kepleriana del tipo del
inverso de la raíz cuadrada de la distancia. La representación de la velocidad de
rotación frente a la distancia se denomina curva de rotación. El lector puede
visualizar diferentes tipos de curvas de rotación según la masa central en esta
aplicación java.

Sin embargo, las observaciones indican otra cosa. La velocidad parece


mantenerse prácticamente constante hasta el límite observacional externo de la
galaxia, como podemos observar en el ejemplo de la curva de rotación de la
derecha correspondiente a la galaxia NGC3198 (fuente: Berkeley). Sólo existen
dos posibles explicaciones a este fenómeno:

1. Existe una cantidad de materia distribuida de manera diferente a la materia


visible
2. Bien las leyes dinámicas o bien la teoría gravitatoria que aplicamos a esas
escalas no son correctas.
Aunque existe al menos una teoría dinámica alternativa (MOND) y alguna teoría
gravitatoria alternativa (Gravedad Conforme por ejemplo), éstas tienen algunos
problemas y de momento nadie ha encontrado ninguna desviación de las
predicciones de la Teoría General de la Relatividad. Por tanto, antes de abandonar

87
sin motivos suficientes una teoría consistente de tal éxito observacional como la
Relatividad General tenemos que probar con la alternativa más simple.

Materia oscura no bariónica


Antes de 1980 se asumía habitualmente que esta "materia oscura" era materia
ordinaria en alguna forma no detectable como gas, estrellas de baja masa y
cadáveres estelares del tipo enana blanca o agujero negro. Sin embargo, los años
ochenta trajeron a escena otra fascinante idea: que la materia oscura está
formada por neutrinos o alguna forma más exótica de partículas aún no
descubierta en los laboratorios de altas energías. ¿Por qué piensan los
cosmólogos en estos tipos de materia exótica?. La razón es que muchas
observaciones convergen a un valor del parámetro de densidad del orden de un
30% de la densidad crítica. Pero la nucleosíntesis primigénea, es decir, el modelo
de formación de los elementos químicos ligeros en los primeros instantes del
universo, indica que la cantidad de materia bariónica (aquella formada por
protones y neutrones) no puede ser muy diferente de un 4 a 5% de la densidad
crítica. El total de materia luminosa visible está por debajo de esta cantidad, lo que
implica que debe haber mucha materia no detectada en forma de objetos
compactos denominados habitualmente MACHOS (del inglés Objetos Compactos
del Halo [Galáctico]). Todo esto nos lleva a que al menos un 85% de la materia
está formada por algún tipo de materia exótica.

Tipos de materia exótica no bariónica

Neutrinos
La primera partícula que se pensó podía formar parte de esta materia oscura fue
el neutrino. El neutrino es una partícula emitida en la desintegración beta donde un
protón (p) reacciona con un antineutrino (n-)convirtiéndose en un neutrón (n) y un
positrón (e+) [reaction#1] ó un protón (p) interacciona con un electrón (e-) para
producir un neutrón (n) y un neutrino (n).

En el Modelo Estándar de la física de partículas, el neutrino es una partícula


que no tiene masa. Sin embargo se pueden hacer modificaciones en la teoría que
permita la existencia de neutrinos masivos de forma que tienen que ser las

88
observaciones o los experimentos los que decidan cuál es el caso. Al ser el
neutrino una partícula sin masa o tremendamente ligera se mueve a la velocidad
de la luz o a velocidades muy cercanas, lo que los convierte en lo que se
denominan partículas relativistas. Actualmente se denomina a cualquier tipo de
partículas relativistas en cosmología materia oscura caliente (del inglés Hot Dark
Matter o abreviado HDM)

La nucleosíntesis primigénea establece que el número de tipos de neutrinos


sólo puede ser tres (hecho que confirman los experimentos del CERN) y que su
número actual tiene que ser del orden de unos 115 neutrinos de cada especie por
centímetro cúbico. Teniendo en cuenta que la densidad crítica es del orden del
peso de 2 ó 3 átomos de hidrógeno por metro cúbico, si los neutrinos tienen que
contribuir con algo así como del orden de la densidad detectada (1/3 de la
densidad crítica aprox.) tendríamos que unos 100 millones de neutrinos tendrían
que pesar algo así como un átomo de hidrógeno. Un átomo de hidrógeno pesa (en
unidades de energía) unos 1000 MeV. Por tanto la masa del neutrino tendría que
ser del orden de unos 10 eV para que pudiera constituir el resto de la masa
oscura.
Pero si los neutrinos constituyen la masa dominante de estructuras como
galaxias podemos hacer una nueva estimación de la masa del neutrino de la
siguiente manera: Las galaxias tienen unas masas dinámicas que podemos
deducir aproximadamente del simple hecho de que las estrellas estén unidas
gravitacionalmente al cuerpo de la galaxia. Se debe cumplir entonces que la
energía de ligadura gravitacional (G m M/r) sea como muy poco del orden de la
energía cinética de las estrellas (1/2 m v2), con objeto de que éstas no escapen de
sus órbitas. Por ejemplo, para nuestra galaxia, con el Sol situado a unos 10 kpc
gira con una velocidad de unos 220 km/s implica una masa mínima de algo más
de 5 ×109 masas solares. Los neutrinos son fermiones (partículas de spin
semientero) y el principio de exclusión de Pauli establece un máximo de densidad
de neutrinos del orden de un millón por centímetro cúbico. Esto establece una
masa mínima para el neutrino de unos 30 eV, lo que es incompatible con el cálculo
anterior que establecía un límite superior de unos 10 eV.

Las medidas del experimento Super-Kamiokande de 1999 indican que la masa


del neutrino es probablemente mucho menor que esta cantidad. La medidas del
CERN ponen un límite superior a la masa del neutrino más pesado de unos 9 eV.
Medidas más recientes estiman la suma de los tres tipos de neutrinos en algún
lugar entre 0.05 y 8.4 eV . Esto implicaría una contribución escasa a la densidad
de materia del universo, situada en algún lugar entre 0.001 y 0.18 de la densidad
crítica.

89
Las observaciones de la supernova 1987A también son compatibles con la
existencia de tres tipos de neutrinos y con un límite superior de la masa del
neutrino electrónico de unos 25 eV.

Pero hay un problema más grave que todo esto. Cuando ponemos tanta masa de
neutrinos en el universo, las grandes estructuras galácticas como los
supercúmulos tienden a formarse primero que las pequeñas estructuras como los
cúmulos de galaxias (que se suele denominar formación de arriba a abajo), lo que
contradice las observaciones que indican una formación relativamente reciente de
las grandes estructuras (más compatible con una formación de estructuras
jerarquizada de abajo a arriba). Además las concentraciones de materia en los
grandes supercúmulos sería considerablemente mayor de lo observado (ver
modelos de formación galáctica para más detalles).
Comparación entre la distribución de galaxias observada (c), y una simulación
numérica de las estructuras galácticas resultantes en un modelo de universo con
neutrinos (b) y un modelo de universo con partículas más masivas y lentas (a)
Materia oscura fría.
Se denomina materia oscura fría (del inglés Cold Dark Matter, abreviada CDM) a
cualquier tipo de partículas relativamente masivas que se mueven a velocidades
mucho menores que la velocidad de la luz. La búsqueda de este tipo de partículas
como parte de la materia oscura tienes dos motivaciones básicas:
1. Su existencia es una característica general de las teorías de gran unificación
que intentan unificar todas las interacciones a excepción de la gravedad.
2. Su inserción en las simulaciones de la formación de las estructuras galácticas
consigue mejorar la semejanza con los observado (ver comparación en la figura
anterior)
Las partículas que podrían formar la materia oscura fría podrían tener masas que
rondan el Gigaelectrónvoltio e interactuarían sólo a través de la interacción débil y
de la gravedad. Por ello se les suele llamar WIMPs (de Weak Interacting Massive
Particles o partículas masivas débilmente interactuantes). Algunos de estos tipos
de partículas han sido propuestas desde la teoría pero nunca observadas hasta la
fecha.

Energía Oscura
Tanto la Relatividad General como la mismísima gravitación Newtoniana
permiten la existencia de un término que puede producir una repulsión gravitatoria
a gran escala, implicando un universo que podría estar incluso acelerando su
expansión. Lo intrigante del caso es que existe evidencia de que ésta podría ser
de hecho la situación, procedente de tres observaciones independientes:

90
1. De la relación desplazamiento al rojo-distancia aplicada al brillo de supernovas
tipo Ia.
2. De las anisotropías de la radiación de fondo cósmico (ver noticia del 10 de
Mayo de 2000)
3. Del estudio estadístico de lentes gravitatorias.
Todos estos estudios indican que esta componente de energía oscura contribuye
con unos 2/3 de la masa del universo, implicando un universo muy cercano o justo
con la densidad crítica, y por tanto de geometría espacial plana (ver noticia del 11
de febrero de 2003)
¿Qué podría constituir esta energía oscura?. Se están explorando actualmente
dos posibilidades:
1. Constante Cosmológica.
2. Quintaesencia
Detección directa de materia oscura
1. Detectando MACHOS (Objetos Compactos del Halo Galáctico)
Cuando un objeto compacto del Halo Galáctico como un planeta gigante, enana
marrón, enana blanca, etc. pasa por delante de una estrella distante (por ejemplo
situada en las Nubes de Magallanes), se produce un fenómeno que denominamos
microlente gravitatoria, similar a las lentes gravitatorias producidas por la
interposición de una galaxia ó un cúmulo de galaxias en nuestra línea de visión a
un cuásar.
El efecto de interposición de un MACHO produce una concentración de la luz de la
estrella distante que se manificesta como un aumento de brillo. Teóricamente, si el
MACHO y la estrella están prácticamente alineados en la línea de visión desde la
Tierra se forma un anillo luminoso alrededor del objeto formado por todos los
rayos de luz que convergen en el observador. Este anillo de denomina de Einstein

El radio del anillo de Einstein RE depende de la masa M del objeto y de las


distancias L a la estrella y l al MACHO (ver figura)

RE = 2/c Raiz [G M L x (1-x)]

Donde c es la velocidad de la luz, G la constante de gravitación universal y

91
x = [distancia la Macho] / [distancia a la estrella] = l / L
El factor de amplificación A viene dado por A = ( u2 + 2 ) / (u (u2+4)½)
con u = [parámetro de impacto] / [radio del anillo de Einstein] = r / RE
y es típicamente del orden de 1 a 1,5 magnitudes para estrellas de la Gran Nube
de Magallanes.
El tiempo que dura el evento está relacionado con la masa del MACHO implicado;
Para estrellas de la Gran Nube de Magallanes es del orden de media hora si el
MACHO interpuesto se trata de un cuerpo de masa planetaria, unas 3 semanas si
se trata de un enana marrón y de 5 a 8 semanas si se tratara de una enana
blanca.

Es importante señalar que el problema de conocer los parámetros que


intervienen en el fenómeno de microlente gravitatoria es un problema mal definido,
porque en principio existen infinitas configuraciones de objetos que podrían llevar
a la misma curva de luz. El problema sólo queda definido cuando hacemos alguna
hipótesis de la posible posición de los objetos. Cuando miramos a estrellas de la
Nube de Magallanes hay dos hipótesis que parecen razonables:

1) Que el fenómeno se produce debido a un objeto del Halo galáctico.


2) Que el el fenómeno se produce a consecuencia de un objeto perteneciente a la
propia Gran Nube de Magallanes.

Existen varios proyectos de observación que buscan eventos de este tipo, entre
ellos el proyecto MACHO, el proyecto EROS, y el proyecto OGLE.

Curvas de luz teóricas para un fenómeno de microlente de una estrella


perteneciente a la Gran Nube de Magallanes producida por un MACHO con una
masa 100 veces menor que la del Sol y una velocidad transversal vr de 200 km/s.
La curva de arriba es para un parámetro de impacto r igual la mitad del radio del
anillo de Einstein y la de abajo para un parámetro de impacto igual al radio del
anillo de Einstein. -Dm representa la variación de magnitud de la estrella durante
el evento.

Las conclusiones básicas que se pueden extraer de las observaciones de estos


tres proyectos son:

92
1. Varios eventos correspondientes a microlentes gravitatorias han sido
observados. La independencia de las curvas con el color demuestran que la
interpretación de microlente gravitatoria de las curvas de luz es perfectamente
factible.

2. El número de eventos observados implica que el halo galáctico no puede estar


formado enteramente de MACHOs de masa subestelar.

3. Parece de nuevo inevitable la existencia de materia no bariónica en nuestra


galaxia.

Uno de los eventos detectados por el proyecto MACHO. Las curvas de luz con
filtro azul (blue) y con filtro rojo (red). Fuente: The MACHO project.

2. Detectando WINPS (Partículas masivas de interacción débil)


Nadie ha detectado todavía una WIMP, pero su existencia está bien motivada
por dos razones básicas

1. Las observaciones de la estructura del universo a gran escala y de las propias


galaxias como la nuestra parecen implicar la existencia de materia no bariónica de
manera inevitable

2. Las teorías de gran unificación predicen la existencia de gran número de


partículas exóticas que interaccionan con el resto de la materia sólo a través de la
interacción débil y de la gravedad con masas del orden de algunos GeV hasta
algunos cientos de GeV.

WINPS podrían haber sido producidas en el universo temprano en reacciones del


tipo

positrón + electrón ® WIMP + anti WIMP

93
e+ + e- ® X + X+

Por supuesto que también se aniquilarían vía la reacción inversa X + X+ ® e+ +


e-

El número de WIMPs que podrían atravesar un detector es bastante grande, del


orden de un millón por cm2 de superficie del detector y por segundo para WIMPs
de 1 GeV, disminuyendo la cantidad proporcionalmente a la masa de la partícula.
La dificultad principal reside en que estas partículas, en caso de existir,
interaccionarían muy débilmente con la materia produciéndose pocos eventos de
baja energía (unos pocos keV). Es exactamente el mismo problema que para la
detección de neutrinos y así uno necesita construir detectores con gran cantidad
de material.

Una nueva era espacial

En el siglo XXI, cuando un enjambre de miles de satélites artificiales puebla la


órbita terrestre, cuando se entrena a astronautas para que soporten un viaje a
Marte y en un momento en el que el turismo cósmico comienza a despegar, la
carrera espacial parece no haber terminado. Más allá de darse por finiquitada, la
Era Espacial se reinventa y toma nuevos rumbos, con nuevos campos de batalla
en el espacio exterior de naturaleza distinta a la competición en la que se
enzarzaron, hace tan sólo medio siglo, soviéticos y estadounidenses.

Por un lado, las agencias espaciales se preparan para regresar a la Luna y


construir asentamientos permanentes en su superficie que permitan al ser humano
dar otro “salto de gigante” hacia el planeta rojo. Tal y como ocurrió cuando
Cristóbal Colón descubrió el Nuevo Mundo, numerosas naciones y corporaciones
ven en las nuevas fronteras una oportunidad de negocio y expansión. Elementos
como el helio-3, ambicionado para investigar fusiones nucleares, se creen
abundantes en la Luna, mientras que magnesio, cobalto y uranio parecen
encontrarse en vastas regiones de Marte. Minar los cielos, sostienen, es el único
modo de hacer rentable la exploración espacial. Surge así un nuevo circuito hacia
el que propagarse, especulando con el tiempo y el espacio.

94
De vuelta a la Luna

“Sólo hemos explorado la Luna 27 días. Si creemos que es suficiente, las futuras
generaciones pensarán que somos estúpidos”.
Michael Griffin, ex-director de la NASA

Desde que los astronautas Gene Cernan y Harrison Schmitt despegaron de la


superficie selenita en 1972, el ser humano no ha vuelto a la Luna. Tras las diez
exitosas misiones del programa Apolo, ni estadounidenses ni rusos intentaron
regresar al satélite con naves tripuladas. La generación que creció creyendo que a
estas alturas las misiones a Marte serían mera rutina, no puede hablar siquiera de
una base humana en la Luna. Sin embargo, el siglo XXI acoge un renovado
interés por retomar los vuelos espaciales y construir un asentamiento permanente
a 384.000 kilómetros de la Tierra.

El regreso a la Luna y la expectación planetaria que suscita han llevado a los


expertos a pedir colaboración entre los países para que no se repita una carrera
espacial a la vieja usanza. El pionero Borís Chertok, uno de los ingenieros
responsables del programa cósmico ruso, considera que “la cooperación resulta
fundamental. Uniendo nuestras fuerzas con los americanos, por ejemplo, podrían
cumplirse los pronósticos de regresar a la Luna en 2020. Sin nosotros, habría que
sumar como mínimo cinco años más para volver al satélite”. De momento, todos
calientan motores.

La NASA prejubila su buque insignia, el famoso transbordador Shuttle y, con la


Estación Espacial Internacional a punto de completarse, construye una nueva flota
de vehículos y cápsulas espaciales que llevarán a sus astronautas de nuevo a la
Luna bajo el programa Constellation. “En 2020 seremos capaces de aterrizar en la
Luna con una tripulación de cuatro astronautas y de realizar allí misiones
permanentes de seis meses”, aseguraba hace poco el director adjunto del
proyecto, Alan Rhodes. Los responsables de la agencia añaden que “esta
transición es una oportunidad para reinventar y revitalizar nuestros vuelos
tripulados”.

Por su parte, los rusos trabajan también en una nueva nave espacial que sustituirá
a la mítica cápsula Soyuz tras 40 años en servicio de reconocida efectividad. Con
capacidad para seis cosmonautas, la prometedora nave podría entrar en servicio
en 2018. A partir de su nuevo diseño, se desarrollará otra cápsula gemela que
orbite alrededor de la Luna con cuatro cosmonautas a bordo, pudiendo

95
permanecer 200 días en el Espacio adosada a una eventual estación espacial. En
contra de lo que se podía prever, Rusia sigue luchando en primera línea por el
Cosmos.

La meta a medio plazo de todas las agencias es asentarse en la Luna con bases
permanentes para luego abordar la exploración de Marte. Y en esta carrera hacia
el satélite, los gigantes asiáticos parecen haber tomado la delantera con el ímpetu
de los primerizos. La Agencia de Exploración Aeroespacial de Japón (JAXA) ha
hecho revivir la época del Apolo con imágenes en alta resolución de la Luna y la
Tierra a lo lejos, suspendida en la negrura del Universo. Gracias a su sonda
Kayuga, los japoneses estudiaron además las diferencias entre las dos caras de la
Luna para intentar comprender cómo se formó y cómo ha evolucionado hasta su
estado actual.

China, unos pasos por delante, tiene planes espaciales bastante ambiciosos. Tras
haber lanzado su primer taikonauta en 2003, poner en órbita lunar la sonda
Chang’e (diosa china de la Luna) y haber efectuado ya un paseo espacial, los
chinos presentan credenciales de peso para adelantarse incluso a los planes de
estadounidenses y rusos. El gobierno de Pekín no oculta que sus objetivos son

96
variados: analizar la existencia de recursos minerales, elevar el prestigio
internacional del país y explotar las posibilidades militares del programa.

Sin embargo, este recuperado interés por la Luna no es gratuito. El hombre se


instalaría en el satélite, entre otras cosas, para extraer helio-3, un isótopo del helio
casi inexistente en la Tierra, un elemento inocuo que podría ser el combustible
ideal para las centrales nucleares del futuro. A los posibles beneficios de su futura
explotación geológica, se suman los que van a obtener las empresas que
construyen las naves y las bases que se piensan instalar en el satélite. Sólo el
proyecto de la NASA va a repartir un pastel de 100.000 millones de dólares, sobre
el que las grandes corporaciones ya se han abalanzado. Además, el asentamiento
en la Luna proporcionaría una base conveniente para las naves que se dirijan en
el futuro hacia Marte, el siguiente “paso lógico” para la exploración humana del
Sistema Solar.

La ambición roja

Marte, nuestro vecino celeste, ha despertado la imaginación del ser humano como
ningún otro planeta. Poco después del amanecer de la Era Espacial, Estados
Unidos y la Unión Soviética pusieron en marcha sondas robóticas para explorarlo.
Las sondas espaciales estadounidenses Mariner y Viking, que tuvieron más éxito

97
que sus malogradas homólogas soviéticas, revelaron un planeta con colosales
volcanes inactivos, profundos cañones y valles, cráteres de impacto, extensas
llanuras, feroces tormentas de polvo, una fina atmósfera de dióxido de carbono y
bajísimas temperaturas.

Los viajes espaciales al planeta rojo descubrieron un mundo extrañamente


familiar: al igual que la Tierra, Marte tiene casquetes polares y nubes en su
atmósfera, patrones climáticos estacionales y otros rasgos reconocibles. Durante
las tres últimas décadas, este cuerpo rocoso, frío y estéril continúa arrojando
nuevas hipótesis sobre su pasado y su presente. Su tierra baldía tiene huellas que
evocan un planeta asolado por volcanes y meteoritos, una atmósfera volátil y
gigantescas inundaciones. La gran incógnita sigue siendo la de si existe agua
líquida en Marte, y por ello se hace necesario profundizar en la historia geológica y
climática del planeta para saber cómo, cuándo y por qué Marte sufrió los cambios
tan drásticos que le llevaron a convertirse en el amenazador -pero aún
prometedor- planeta que observamos hoy.

A pesar de que Rusia orientó su exploración desde un principio hacia Venus, no


ha renunciado del todo a la aventura marciana. Prueba de ello es su alianza
estratégica con la Agencia Espacial Europea (ESA) para enviar una misión
tripulada a Marte en 2030, con escala en la Luna. Ambas instituciones están
colaborando en una serie de misiones simuladas a Marte con las que poner a
prueba la resistencia, tanto física como psicológica, del ser humano durante
prolongados períodos de aislamiento. El experimento final recluirá a una
tripulación de seis personas durante 520 días, tiempo estimado de un viaje de ida
y vuelta al planeta en los que experimentarán todas las vivencias de una misión
real, incluidos el lanzamiento, el viaje al espacio exterior, la llegada a Marte y, tras
un recorrido por la superficie, el largo viaje de regreso a casa.

98
El audaz ingeniero alemán de la NASA, Wernher von Braun, defendió durante toda
su carrera la idea de un viaje tripulado a Marte a gran escala. Previó que el asalto
humano a la ambición roja debía hacerse con una decena de naves y con al
menos 70 astronautas. Von Braun llegó a la conclusión de que nadie sería capaz
saber lo que los seres humanos encontrarían al aterrizar en Marte. “Todo los que
se puede decir con certeza es lo siguiente: el viaje se puede hacer y se hará algún
día”.

99
El Fax
La utilización del FAX, como una herramienta en la comunicación es de gran
importancia, ya que se usa par enviar - recibir imágenes y textos de todo tipo.

Además es de un costo muy bajo y confiable; al fax se le concede valor legal, en


algunos países como España, por lo que es usado en la formalización y
cancelación de contratos, y presenta la ventaja de no ser crackeable.

Se define comunicación como el proceso por el que se transporta información, la cual es


transmitida mediante señales, que viajan por un medio físico.

La transmisión de datos es el movimiento de información codificada de un lugar a otro de


señales que portan dichos datos por medio de sistemas de comunicación eléctrica.
Las telecomunicaciones hacen referencia a la transmisión de datos a distancia. El
teleprocesamiento permite que un sistema de computación utilice algún tipo de
telecomunicación para procesar datos.

Definición
Se denomina fax, por abreviación de facsímil, a un sistema que permite transmitir
a distancia por la línea telefónica escritos o gráficos (telecopia).

Método y aparato de transmisión y recepción de documentos mediante la red


telefónica conmutada que se basa en la conversión a impulsos de las imágenes
«leídas» por el emisor, impulsos que son traducidos en puntos -formando
imágenes- en el receptor.

Historia
La historia del fax inicia poco después de la invención del telégrafo, cuando en la
exposición Universal de Londres (1851) se mostró un sistema capaz de enviar y
recibir imágenes de una máquina a otra; una enviaba la imagen mientras la otra la
recibía y la reproducía. La primera máquina comercial apareció en 1863, y a
comienzos del siglo XX se empezó a utilizar en los periódicos para enviar y recibir
imágializar los faxes de forma masiva, añadiendo multitud de novedades
tecnológicas en el transcurso del siglo XX.

Partes de un fax
Un fax es esencialmente un escaner de imágenes, un módem y una impresora combinados
en un aparato especializado. El escáner convierte el documento original en una
imagen digital; el módem envía la imagen por la línea telefónica; al otro lado, el

100
módem lo recibe y lo envía a la impresora, que hace una copia del documento
original.

Los primeros faxes sólo escaneaban en blanco y negro, pero al mejorar la


tecnología se pasó a la escala de grises; ahora son más modernos y sofisticados.
La llegada de los equipos multifunción incorporó el escáner en color: aunque las
imágenes se siguen enviando en grises, pueden enviarse a un ordenador o
almacenarse en color en un disco duro local.

Los primeros faxes utilizaban impresoras térmicas, que requieren un papel


específico. Eran muy pocas las máquinas que usaban una impresora de agujas, y
aún menos las que usaban una impresora láser. La llegada y, sobre todo, el
abaratamiento de la impresión por chorro de tinta provocó un boom de faxes de
papel normal, que en la mitad de los casos actuaban además como equipos
multifunción (desde actuar sólo como impresora o fax/módem del ordenador
conectado, a poder controlarse cualquiera de sus partes).

Unos pocos ordenadores incorporaron en su propia carcasa todo lo necesario para


actuar además como máquinas fax. Entre ellos destacan el Ericsson portable y el
Canon Navigator.

En el otro extremo se sitúan los ordenadores que, mediante software y sus


periféricos estándar, son capaces de emular un fax, del Grupo 2 al Grupo 4
inclusive. Contra la creencia popular, no es algo privativo de los PC o del sistema
operativo MS Windows. Ya los Amstrad PCW y los MSX eran capaces de actuar de esa forma
en su tiempo, y en el momento de popularización del módem/fax (un tipo de
módem que además de los protocolos de comunicación incorpora el Grupo 2 o
superior de fax), programas para los PC (MS-DOS, OS/2, MS Windows y los diferentes
sabores de Unix), Apple Macintosh, Atari ST, Commodore Amiga y las estaciones de trabajo
de Sun y SGI realizaban esa misma función.

Software emulador de fax


Un ordenador con fax/módem y el software adecuado es capaz de emular el
funcionamiento de una máquina de fax. En sistemas operativos multitarea como
Windows, el programa de recepción de transmisión de fax se hace emulando una
impresora a la que se puede imprimir desde cualquier aplicación. La recepción de
fax siempre requiere de un programa que se ejecute en segundo plano
"escuchando" el módem en espera de una llamada entrante.

Algunas ventajas de usar este sistema son:

101
• Los documentos enviados y/o recibidos pueden almacenarse en el disco
duro.
• Los documentos pueden exportarse a formatos gráficos standar y enviarse
por correo electrónico.
• Ahorro de papel: los documentos recibidos solo se imprimen si es
necesario. Los documentos salientes se imprimen directamente desde un
editor de texto.

Algunos programas emuladores de fax:

• Cheyenne Bitware (DOS y Windows)


• Mighty Fax (Windows)
• Winfax (Windows)
• Hylafax (GNU/Linux y otros Unix)
• [BGFAX] (DOS y Windows)

Grupos de fax
El fax se convirtió en una parte esencial de la micro o hiper empresa, pero la duda
era cuál sería la eficiencia del envío y el problema de enviar entre América y
Europa, y el tiempo que tardaría en llegar a su destino. Para corregir esta
deficiencia el Sector de Normalización de las Telecomunicaciones de la UIT (Unión Internacional de
Telecomunicaciones, ITU en sus siglas en inglés) estableció en 1974 una norma
mundial, mejor conocida como grupo 1 de fax. Desde entonces se han creado 4
normas o grupos :

1. creado en 1974, se basa en la Recomendación UIT-T T.2. Estos faxes


tardan de cuatro a seis minutos en transmitir una página única, con una
resolución vertical de 98 líneas por pulgada, a una velocidad de 2.400 bps.
Este tipo de faxes es ya obsoleto y no se fabrican más.
2. creado en 1976, se basa en las Recomendaciones UIT-T T.30 y T.3. Estos
faxes tardan 3 minutos en transmitir una página única, con una resolución
vertical de 100 líneas por pulgada a una velocidad de 9.600 bps. Aunque ya
obsoleto y no fabricado más, se siguen empleando estos faxes al ser
capaces de comunicarse con los faxes Grupo 3.
3. creado en 1980, se basa en las Recomendaciones UIT-T T.30 y T.4.
Tardan entre 6 y 15 segundos en transmitir una sola página (sin incluir el
tiempo inicial de sincronizado e identificación de las máquinas), a una
velocidad de 14.400 bps. Las resoluciones horizontal y vertical son las del
estándar T.4, con varias combinaciones posibles:


o Horizontal: 100 líneas por pulgada
 Vertical: 100 líneas por pulgada
o Horizontal: 200 o 204 líneas por pulgada

102
 Vertical: 100 o 98 líneas por pulgada (Standard)
 Vertical: 200 o 196 líneas por pulgada (Fine)
 Vertical: 400 o 391 (no 392) líneas por pulgada (Superfine)
o Horizontal: 300 líneas por pulgada
 Vertical: 300 líneas por pulgada
 Horizontal: 400 o 408 líneas por pulgada
 Vertical: 400 o 391 líneas por pulgada

4. creado en 1984, se basa en las Recomendaciones UIT-T T.563, T.503,


T.521, T.6, T.62, T.70, T.72, T.411 a T.417. Ha sido diseñado para operar a
más de 64 kbit/s sobre redes digitales RDSI (Red Digital de Servicios
Integrados, en inglés abreviada como ISDN). Su resolución depende de la
recomendación T.6, que recoge todas las de la T.4 ampliándolas. Es capaz
de recibir faxes provenientes de un fax grupo 3 o 2, aunque la
comunicación debe pasar por un puente entre la red analógica y la digital.
Los teléfonos móviles GSM son también capaces de enviar y recibir faxes.
Inicialmente requerían de una tarjeta PCMCIA o de un puerto IrDA para comunicarse
con el ordenador, pero muchos equipos actuales son capaces de recibir y
visualizar faxes por sí mismos, e incluso de enviar un documento existente como
fax. El operador puede requerir un contrato especial para activar estas
posibilidades en su red.

Para obviar los costes en las comunicaciones a larga distancia, se emplea también
internet para transmitir los datos. Si el receptor no dispone de conexión a internet,
suele ser una máquina conectada a la red telefónica correspondiente (analógica o
RDSI) la que se encargue de transmitir el último tramo.

Utilidad
Inicialmente, el fax se usaba exclusivamente en el periodismo; pero su eficiencia y
el afán de modernización hicieron que se integrase posteriormente a los negocios.
El fax se utiliza para enviar y recibir imágenes de todo tipo. Se le han integrado
luego tecnologías nuevas como un disco duro y un reproductor de semitonos, y
tempranamente se anexó a un teléfono regular. Japón fue el mayor usuario de
esta tecnología, implantando tecnologías de punta a este aparato. El fax ha
logrado ampliarse a todas las tecnologías de comunicaciones actuales, pero
muchos culpan al fax de que la tecnología digital no haya avanzado demasiado
como para empezar a adoptarla. A pesar del éxito del fax, está muy lejos de
formar parte de la denominada "oficina sin papeles".

Aunque en la actualidad el uso del fax disminuye en favor de internet y el correo


electrónico (¿para qué imprimir y enviar por fax un documento, si el fichero de este
puede enviarse como adjunto?), son muchas las compañías que todavía
mantienen servicios de fax. Es ampliamente usado en sanidad (con legiones de
expedientes aún en papel), finanzas y las compañías de seguros (propuestas,

103
partes amistosos de accidentes, facturas, notas a mano de inspectores y peritos...)
entre otras.

Al fax se le concede valor legal. En España, 'Correos' ofrece servicios de fax y además
el servicio burofax, por lo que es usado en la formalización y cancelación de contratos,
y presenta la ventaja de no ser crackeable.

Evolución
El sistema de envío y recepción de fax también ha ido adaptándose a la evolución
y desarrollo de las nuevas tecnologías de la comunicación. Internet, que ha
supuesto una revolución en diferentes ámbitos, desde configurarse como una
fuente de intercambio de conocimiento, ideas e información, hasta convertirse en
un importante canal de venta, también ha hecho evolucionar el sistema de fax, sin
lograr sustituirlo por otros medios de comunicación.

El fax virtual o fax por Internet se basa en el mismo sistema de transmisión de


datos que el fax tradicional, mediante una línea telefónica, pero sustituyendo los
aparatos tradicionales de fax por plataformas Web o de correo electrónico, lo que
supone una menor distorsión en el envío y recepción, y la digitalización de todos
los documentos.

Este tipo de soluciones de fax virtual tienen enormes ventajas con respecto a los
sistemas tradicionales; Primero porque son ecológicas al reducir
considerablemente el consumo de papel o tinta y la necesidad de una máquina
específica, segundo porque son eficientes al permitir la gestión de archivos
electrónicos, tercero porque son móviles al poder gestionar el servicio de fax
desde cualquier lugar donde tengas acceso a tu correo electrónico incluido tu
teléfono móvil y por cuarto porque son económicas ya que reducen los costes del
servicio de fax en un 90% al incluir todo en un pequeño coste mensual, la cuota
del número y el servicio de fax.

Telemática:

Definimos comunicación como el proceso por el que se transporta información, la cual es


transmitida mediante señales, que viajan por un medio físico.
Distinguimos en un extremo el terminal EMISOR y en el otro extremo el RECEPTOR,
Ambos están vinculados por un CANAL de transmisión por donde viaja la información.

El termino TELEMATICA o TELEINFORMATICA conjunción de telecomunicaciones e informática se


refiere a la disciplina que trata la comunicación entre equipos de computación distantes.
La TRANSMISION DE DATOS es el movimiento de información codificada de un lugar a otro
de señales que portan dichos datos por medio de sistemas de comunicación eléctrica.

104
Las TELECOMUNICACIONES hacen referencia a la transmisión de datos a distancia. El
TELEPROCESAMIENTO permite que un sistema de computación utilice algún tipo de
telecomunicación para procesar datos.

Sistema Teleinformático:

Esta constituido por:

• Equipos informáticos (computadoras y terminales), para recibir, procesar,


visualizar y enviar datos.
• RED DE TELECOMUNICACIONES: Soporte para la comunicación, con
medios de transmisión y circuitos apropiados.

Comunicación entre una computadora y otra:

La comunicación se logra mediante la utilización de las redes telefónicas y modems.


El módem puede estar en el gabinete de una PC (interno), o ser externo al mismo. Su
función es permitir conectar un computador a una línea telefónica, para recibir o transmitir
información.
En relación con la línea telefónica, el módem además de recibir/transmitir información,
también se encarga de esperar el tono, discar, colgar, atender llamadas que le hace otro
módem, etc.

Respecto del computador al cual esta conectado, recibe e interpreta comandos de este
(discar, colgar, etc.)
Cuando un módem transmite, debe ajustar su velocidad de transmisión de datos, tipo de
modulación, corrección de errores y de compresión. Ambos modems deben operar con el
mismo estándar de comunicación.
Dos modems pueden intercambiar información en forma "full dúplex". Esto es, mientras el
primero transmite y el segundo recibe, este ultimo también puede transmitir y el primero
recibir. Así se gana tiempo, dado que un módem no debe esperar al otro a que termine,
para poder transmitir, como sucede en "half dúplex".
El módem que llama, o sea que origina la comunicación se designa "originate" o "local", y
el módem que contesta, responde, es el "answer" o "remoto".

Un módem puede contener en su interior dos circuitos generadores de dos frecuencias


(tonos) distintas, para enviar ceros y unos, en correspondencia con los que necesite
enviar por vía telefónica.

Cuando un módem transmite tonos se dice que modula o convierte la señal digital binaria
proveniente de un computador en dichos tonos que representan o portan bits.

105
Del mismo modo que el oído de la persona que en el extremo de la línea puede reconocer la
diferencia de frecuencia entre los tonos del 0 y 1, otro módem en su lugar también detecta
cual de las dos frecuencias esta generando el otro módem, y las convierte en los niveles
de tensión correspondiente al 0 y al 1.
Esta acción del módem de convertir tonos en señales digitales, o sea en detectar los ceros
y unos que cada tono representa, se llama demodulacion.
El tipo de modulación ejemplificada, con una frecuencia para el uno y otra para el cero,
solo permite transmitir hasta 600 bits por segundo.

Denominación de Modem:
La palabra módem deriva de su operación como MOdulador o DEModulador.

Un módem por un lado recibe información digital de un computador y la convierte en


analógica, apropiada para ser enviada por una línea telefónica, por otro lado, de esta
ultima recibe información analógica para que la convierta en digital, para ser enviada al
computador.

Frecuencia "portadora" en la comunicación entre modems:

Los tonos de la figura de arriba, pueden considerarse como pertenecientes a una única
onda que por la línea telefónica viaja de un módem a otro, la cual cambia de frecuencia
según se envíen ceros o unos, denominada PORTADORA (carrier), por "portar" los unos
y los ceros que se transmiten.

Para que dos modems puedan comunicarse, entre otras cosas deben usar la misma
técnica de modulación. Conforme a la Electronic Industries Association (EIA) en cada
extremo de la línea, el computador se designa "equipo terminal de datos" (DTE), y el
módem, equipo para comunicaciones de datos" (DCE).

Registros de los modems:

Un módem presenta un centenar de registros no volátiles, designados S0, S1, S2.....S99.


Estos guardan distintos parámetros que el usuario puede cambiar mediante comandos,
referidos a la fijación de tiempos de respuesta y operación del módem. De esta manera,
un módem conectado esta incivilizado de forma deseada. Los modems tienen registros
para almacenamiento temporario de datos en curso.

Interfaz RS-232C:

A fin de que equipos de computación y modems de distintos fabricantes puedan


interconectarse de manera universal, la norma americana rs-232c (ccitt v.24 internacional)

106
especifica características mecánicas, funcionales y eléctricas que debe cumplir la
interconexión entre un computador y un módem.

Un módem comprende hardware para conectarlo a un port serie de PC. Si es externo se


conecta a través del conocido conector de forma trapezoidal. Este conector posee 25
conductores, siendo que en la PC se usan 9 para la comunicación Pc-modem. Uno de
estos conductores se usa para transmitir de la PC al módem, y el otro cuando el sentido
de los datos es contrario (recepción). Existe un conductor para " tierra" de las señales. Los
restantes cables con señales digitales sirven para funciones de control del módem.

Protocolo de comunicaciones:

En la comunicación modem-modem se debe cumplir otra secuencia de acciones y señales:


1: El módem local realiza una acción semejante a levantar el tubo, y luego disca el
numero telefónico del módem remoto.

2: El módem remoto lleva a cabo una acción equivalente a levantar el tubo y emite un
tono o serie de tonos particulares que indican que ha respondió el llamado, y que se
puede comunicar a una velocidad (bps) y modulación (ambas normalizadas).

3: El módem local responde a la serie de tonos, y negocia con el módem remoto la mayor
velocidad de transmisión posible.

En general, un conjunto de procedimientos a cumplir, para llevar a cabo las etapas de una
comunicación, constituye un protocolo.
Un módem debe ajustarse a dos protocolos:
• El protocolo rs232c
• Protocolo estándar, como los serie V de la ccitt.

Transmisión asincrónica de datos o protocolo "star-stop" :

Los datos que maneja un módem están organizados en bytes separables, al igual que
cuando se almacenan en una memoria principal.
En la transmisión asincrónica los datos se envían como bytes independientes, separados,
pudiendo mediar un tiempo cualquiera t entre un byte y el siguiente. Es el modo de
transmisión corriente vía módem usado en las PC, siendo en general el empleado por su
sencillez para bajas velocidades de transmisión de datos.

Supongamos que se envía X dato de 8 bits, los 8 bits se envían en orden inverso a
indicado. Aparecen los bit de control "start" (siempre 0) que indica comienzo de carácter, y
"stop"(siempre 1) de final de byte enviado. En total son pues 10 bits (rendimiento del
80%). Para poder distinguir un bit del siguiente cada bit debe durar igual tiempo T.
Para tal fin sirve el bit de start, que permite sensar en momentos adecuados (en
sincronismo) el valor de los bits siguientes hasta el "stop".

107
En la transmisión sincrónica se envía un paquete de bytes sin separación entre ellos, ni
bits de start y stop (aunque existen bytes de comienzo y final). Así es factible enviar mas
bytes por segundo.

Bit de paridad:

Supongamos que la PC que transmite envía A=01000001, pero por un ruido en la línea
telefónica mientras el módem transmitía, se recibe 01000010, el código recibido será el de
la letra C, sin que se pueda notar el error. Dado que ASCII básicamente se codifica en 7
bits, se puede usar el bit restante para detectar si se ha producido un solo error por inversión
como el ejemplificado. Entre dos computadores que se comunican, se adopta la
convención de que en cada carácter emitido o recibido debe haber un número par de
unos. El computador que esta enviando, da valor al bit restante citado, de modo que se
cumpla dicha paridad. El computador que recibe debe verificar que cada carácter que le
llega tenga la paridad convenida. Caso contrario pedirá su retransmisión pues implica que
un bit llego errado
La paridad sirve para detectar si uno de los bits recibidos cambio de valor, que es la mayor
probabilidad de errores en transmisión telefónica. Si los bits errados son dos, la paridad par
seguirá, y no hay forma de detectar un carácter mal recibido, pues este método supone solo
un bit errado. Cuando se usa 8 bits sin paridad ("null parity"), con un bit de stop, se indica
8N1, que es la forma usual de comunicación entre dos PC.
Si como en el ejemplo dado, son 7 bits, con paridad par ("even parity") y un bit de stop, se
indica 7E1.

Para el control del envío de archivos de programas existen los protocolos de archivo en los
programas Xmodem, Zmodem y otros.
Estos programas dividen al archivo a enviar en bloques de igual tamaño, que se envían
(byte a byte con paridad nula) con el agregado de un numero que es el resultado de un
calculo polinomial sobre los bits de cada bloque. En el receptor sobre cada bloque
recibido se realiza al mismo calculo. Si se obtiene el mismo número agregado se envía un
simple OK. De no recibirlo, se vuelve a transmitir el bloque.

Velocidad de un modem y baudios:

Hay que diferenciar entre velocidad de señalización y velocidad de transmisión de


información. Esto hace a la diferencia que existe entre baudios y bits por segundo.

La figura 1 ilustra una onda senoidal cuya amplitud puede saltar de valor entre cuatro
niveles distintos. En cada segundo pueden ocurrir 2400 de estos cambios de amplitud,
esta onda presenta una velocidad de señalización de 2400 baudios. Cada uno de estos
saltos de amplitud en dicho segundo, es un baudio. Puesto que se puede cambiar entre
cuatro amplitudes diferentes, se puede convenir que cada una representa dos bits

108
determinados, con lo cual se tiene una velocidad de transmisión de 2400x2= 4800 bits por
segundo.

La detección de cada amplitud (baud) puede hacerse cada 1/2400 de segundo= 0,4
milisegundos. Este tiempo es suficiente para que el módem pueda detectar un baud, e
interpretar los dos bits que codifica.

En pocos años, la velocidad de transmisión por las líneas telefónicas comunes fue
aumentando 100 veces: de 300 a 33.600 bps. Esto se logro, codificando 12 bits por
baudio.

Formas más usuales de modulación:

Una onda que cambia entre dos frecuencias para codificar uno y cero, esta modulada en
frecuencia (FSK= Frecuency-Shift-Keying= Codificación por cambio de frecuencia)
En la figura se ejemplifico una onda portadora con modulación en amplitud, siendo que en
el presente este tipo de variación de la forma de una onda se usa en combinación con
cambios en la fase de la misma. Cada cambio de fase es como si la porción de onda que
sigue a dicho cambio, se adelantara (o atrasara) con relación a lo que debiera ser una
forma senoidal continua, pura. Esta forma de cambiar la señal portadora para representar
combinaciones binarias, se denomina modulación en fase (PSK=Phase-Shift-
Keying=Codificacion por cambio de fase). Resulta ser la más eficaz para transmitir datos
binarios en líneas con ruido, siendo que requiere que el emisor y el receptor sean muy
complejos.

En un módem actual, los cambios en la portadora pueden ser tanto de amplitud como de
fase. La primer técnica conocida como QAM (Quadrature Amplitude Modulation), se
concreto en las normas V.22 bis, para portadora modulada a 600 baudios, y con 4 bits por
cambio (baudio), con lo cual se podía transmitir hasta 600x4= 2400 bps.
Para superar los 600 baudios, la norma V.32 (QAM) elevo la frecuencia de la portadora,
existiendo una sola frecuencia para la transmisión como para la recepción.

Con este método, una portadora se pudo modular a 2400 baudios, y con 4 bits por baudio
se llego a 2400x4= 9600 bps. Con la denominada "codificación entramada" o Trellis-TC,
que permite al módem receptor corregir errores a medida que recibe datos, agregando un
bit extra cada cuatro (norma V.32- TCQAM), se codifican 6 bits por baudio, con lo cual
para 2400 baudios se alcanzaron 2400x6= 14400 bps.

Mediante complejas técnicas se logro que la modulación se adaptara a cada instante al


estado de la línea telefónica. Se agregaron otras técnicas que requieren efectos
compensatorios del mismo tipo en el módem receptor. Se usan cinco velocidades de
señalización, siendo la máxima de 3429 baudios, y la mínima de 2400. Cada velocidad
implica una frecuencia distinta de portadora, por lo que esta técnica supone la transmisión
en un ancho de banda variable según el estado de la línea.

109
Para 3429 baudios, y con 8,4 bits por cambio de la señal se logra el máximo de 28800
bps. Cuando el módem se comunica con otro, sondea unos 15 segundos la línea,
enviando una sucesión de tonos, buscando el mayor ancho de banda utilizable compatible
con la taza de error permitida (1 bit errado por cada millón)

Posteriormente, para 3429 baudios se lograron 9,8 bits por cambio, con lo cual se alcanzo
una velocidad de 33600 bps.

Velocidades de transmisión virtuales mediante compresión de datos y otras


técnicas:

Un módem que transmite 4800 bps, si transmite un carácter en ASCII con 10 bits,
teóricamente seria posible enviar 4800/10= 480 caracteres por segundo. Dado que de
esos 10 bits son 8 de datos y 2 de para control start stop, en realidad se transmiten
480x8= 3840 bps de información.

Si la transmisión es asincrónica, entre caracteres media un tiempo muerto variable, de


donde resulta una velocidad real menor que los 3840 bps antes calculados.

Se empezó a enviar y recibir los caracteres sin los bits de startstop, formando bloques de
caracteres (transmisión sincrónica). Esto supone modems igualmente inteligentes,
operando bajo una misma norma.

Luego se hizo que la longitud de estos bloques este en función del ruido presente en la
línea telefónica.

A mayores velocidades, aumenta el numero de bits errados, por lo cual los modems
empezaron a contener circuitos para detectar y corregir errores.

Cuando el ruido aumenta, se envían bloques con menos caracteres. En caso de


retransmisión, los bloques no son grandes, a fin de que se pierda menos tiempo en esta
tarea.

Un módem que incorpora estas técnicas (V.42 LAPM &MNP 2,3,4), puede negociar con el
módem al que se conecto (si es inteligente), el mejor método de corrección.

Si también cumple con la norma V.42.bis/MNP5, significa que a las mejoras anteriores se
agrega la compresión de datos, con lo cual la velocidad de transmisión se mejora
notablemente (se recibe cuatro veces más rápido).

Un módem que puede transmitir hasta 28800 bps, con compresión de datos se pueden
lograr velocidades de transmisión equivalentes a 28800x4= 115200 bps.

Un módem rápido es mas caro, pero tarda menos tiempo en la transferencia de archivos
(si el módem con el que se conecta es igualmente repudio e inteligente), ahorrando
tiempo y costo de servicio telefónico.

110
Software necesario para operar un modem:

Se los denomina "programas de comunicaciones".

Típicamente puede realizar las siguientes funciones:

• Atender el teléfono y transferir archivos hacia otro computador


• Recibir archivos
• Llevar un directorio de números telefónicos y parámetros de otros
computadores.
• Hacer que una PC emule una terminal de tecladoy pantalla tipo VT100,
ANSI o TTY en comunicaciones con grandes computadoras (mainframes)
• Permitir tipear comandos y que sean visibles en el monitor.
• Manejar buffers para guardar la ultima información que se fue de pantalla
(scrollback)
• Ayudar sobre la operatoria en curso.

Al ser inicializado un programa de este tipo, preguntara por la marca o tipo de módem
conectado. El usuario tiene a su disposición en el modo comando un conjunto de órdenes
para definir los contenidos de los registros S0, S1.... de un módem antes citados. De esta
forma se establece como operara un módem.
Para que se le pueda emitir un comando desde el teclado, un módem debe estar en "modo
comando". Los comandos se tipean precedidos por la sigla AT (ATtention), y modifican los
contenidos binarios de los registros del módem.

Encontramos entre otros:

ATE1; ATV1; ATS0=n; ATB1; ATL2; etc.

Aunque el usuario no ordene comandos, el programa de comunicaciones cuando es


llamado inicializa los registros del módem con valores default, que son datos fijos que
contiene dicho programa.
Una de las formas de llevar al módem al "modo comunicación", es mediante el comando
de discado ATD, que le ordena tomar la línea telefónica, detectar tono, discar y esperar la
portadora del módem con el que se comunica.

Hardware de los modems inteligentes actuales:

Hoy en ida, en un módem podemos encontrar un microcontrolador, encargado de


procesar los comandos que envía el usuario y un microprocesador (el digital signal processor –
DSP), dedicado a la demodulacion de las complejas señales analógicas.
Este hardware permite operar a grandes velocidades y que los modems sean multinorma.

111
Diferencias entre los modems internos y externos:

Un módem interno esta contenido en una plaqueta similar a las que se enchufan en el
interior del gabinete de una PC. Ocupa un zócalo disponible y no necesita usar un port
serie.

El módem externo esta contenido en una caja propia, requiere un cable para conectarse a
la PC, y otro para obtener energía.

Es adaptable a distintas computadoras. No ocupa ningún zócalo, pero debe conectase a


un port serie. Presenta luces indicadoras que dan cuenta de la operación que esta
realizando.

Dentro de esta clasede módem debemos incluir los PCMCIA para notebooks.

Modems de alta velocidad (digitales) actuales:

Las líneas telefónicas para señales analógicas, tienen un ancho de banda comprendido
entre 300 y 3300 baudios Hz. Estas no fueron pensadas para transmitir datos. La
velocidad de 33600 bps de los módem actuales, constituye un techo dificil de superar. Los
3000 Hz citados, limitan la velocidad de transmisión.

Los denominados modems de 56 Kbps pueden transmitir información analógica o digital.


Así permiten recibir datos a 56 Kbps desde Internet, pero solo pueden enviar a 28800 bps.
Para el resto de las aplicaciones que no sean Internet o BBS, el módem funciona a
28800bps. Debe también mencionarse que los citados 56Kbps son un limite que solo se
alcanza en determinado estado optimo de las líneas.

Funcionamiento de un fax corriente:


Para entender la operatoria de un fax modem, primero debemos entender la de un fax
común y corriente.

Dada una hoja con texto, el servicio de fax o facsímil permite obtener una copia de la
misma en un lugar distante, a través de una línea telefónica establecida entre dos
maquinas de fax.
Dos aparatos de fax comunicados telefónicamente son como dos fotocopiadoras tales que
una de ellas lee la hoja a copiar, barriéndola mediante sensores fotoeléctricos, para convertir
la imagen en un conjunto de puntos de valor 0 (blancos) y 1 (negros), que son transmitidos
como señales eléctricas binarias hacia la otra fotocopiadora. El módem se encarga de
convertir las señales binarias digitales en analógicas.
Esta recibe dichas señales y genera una reproducciónde la hoja original usando su sistema
de impresión. Cada maquina de fax contiene un teléfono, un sistema de barrido de
imagen, un sistema de impresión y un módem, amen de un procesadory memoria.
Típicamente las maquinas de fax para establecer una comunicación envían información
de control a 300 baudios, y luego transmiten los datos a 2400, 4800, o 9600 baudios.

112
La resolución se refiere a la densidadde puntos usada para reproducir un fax; puede tenerse
en cada pulgada cuadrada, 98 líneas verticales y 203 horizontales. Estas ultimas se
duplican para una resolución fina.
Algunas maquinas de fax permiten la transmisión diferida, para enviar automáticamente
fax a partir de determinados horarios en que son mas baratas las tarifas telefónicas.

Otra opción es el selector automático de voz/datos que identifica si un llamado es para fax
o si se trata de una persona, en cuyo caso debe sonar la campanilla telefónica.

Modem fax:

Un módem fax supone la existencia de un computador con un módem, y el software de


comunicaciones para recibir y enviar faxes, según los estándares existentes, así como
software para manejar archivos de fax.
Puede ser interno o externo.

Si se necesita enviar un texto o un dibujo que esta solo en papel, o sea que no han sido
originados por un computador, se necesita un escáner para convertir (digitalizar) dicho
escrito o dibujo en un archivo que maneje el computador.
La operatoria para transmitir o recibir con un fax-modem es más compleja que apretar un
simple botón como en la maquina de fax común.

Lectoras de códigos de barras

El lector de códigos de barra esta ampliamente difundido en el comercio y en la industria,


siendo que a un computador se conecta a través de la interfaz port serie.
Posibilita la recolección de datoscon rapidez, muy baja tasa de errores, facilidad y bajo costo,
en comparación con la lectura visual de códigos numéricos seguida de entrada manual por
teclado.

Códigos de barra:

En general los códigos de barra no son descifrables por las personas. Las lectoras son las
encargadas de convertirlos en unos y ceros que irán al computador.
Representan caracteres de información mediante barras negras y blancas dispuestas
verticalmente. El ancho de las barras y espacios puede ser variable, siendo la más ancha
un múltiplo de la mas angosta. En binario las barras significaran unos y los espacios
ceros.

En la figura, el margen (a) equivale a 9 módulos. Le sigue un código de comienzo o start


code (b), que indica que luego viene el código con los dígitos de información. Después
sigue un código de separación (c), otro de final o stop code (d), y por ultimo otra zona
vacía (e).

113
Uno de los códigos de barras mas corrientes es el UPC (Universal Product Code). Cada
codificación representa 12 dígitos que permiten identificar un producto mediante barras
negras y espacios de distintos grosores.
Cada dígito se compone de 7 módulos, separados entre 2 barras y 2 espacios, siendo que
la barra más delgada corresponde a un modulo.

Los dígitos tienen distinto significado según su posición relativa. El primer dígito indica la
categoría del producto y lo que los dígitos siguientes representaran. Si es un 0 implica que
los dígitos siguientes codificaran al fabricante, y a un tipo de producto concreto. Sean los
siguientes 12 dígitos 0 43607 47433 9. El grupo 43607 representa al fabricante X, y 47433
al producto Y.
El dígito extremo derecho sirve para verificación. Primero se suman los dígitos de las
posiciones impares: 0+3+0+4+4+3= 14, y luego de las posiciones pares sin considerar el
9 de verificación: 4+6+7+7+3= 27. Después se suman 14+27= 41; y se resta 41 al múltiplo
de 10 siguiente: 50-41= 9, debiendo ser este resultado igual al dígito extremo derecho.

Emparentado con el UPC, existe el código ISBN, usado en la cubierta de libros y revistas,
también de 12 dígitos.
El código 39 codifica números y letras para usos generales, siendo muy popular. Este
código se usa mucho en la industria y para inventarios.
El código entrelazado 2 de 5 (ITF), puede ser de cualquier longitud, pero con un numero
par de dígitos, siendo que codifica dos dígitos por vez.

Este es uno de los pocos códigos en que los espacios en blanco tienen significado. Es un
código muy compacto, útil para espacios pequeños.

Al presente existen unos 20 códigos de barra.

También existen códigos de barra en 2 dimensiones, que se deben escanear mediante un


escáner o una cámara fotográfica digital. Permiten almacenar en un área muy pequeña
mucha información, como ser 200 caracteres en una pulgada cuadrada. Los datos se
codifican mediante puntos.

Lectoras de códigos de barra:

Existen dos clases de lectoras: De haz fijo y de haz móvil. En ambos casos una fuente
luminosa ilumina la superficie del código. Siendo las barras oscuras y los espacios claros,
estos reflejaran mas luz que las barras. La luz reflejada es detectada por un elemento
fotosensor, produciendo los espacios claros una mayor corriente electrica en el elemento
fotosensor. Para que la lectura progrese debe existir un movimiento relativo del código
respecto a la lectora o a la inversa, o bien debe existir un haz láserque se desplaza para
explorar el código. Esto hace a la diferencia entre las dos clases de lectoras citadas.
La corriente eléctrica que circula por el fotosensor es proporcional a la intensidad del haz
reflejado (que es la magnitud censada), que como el caso del escáner es una señal
analógica. Por lo tanto, deberá convertirse en digital (unos y ceros) para ser procesada.

114
Diferentes tipos de lectoras:

• Lectora manual:

Tienen forma de una lapicera, se debe desplazar de toda la longitud del código, para que
un haz fijo pueda ser reflejado y censado.

• Lectora de ranura fija:

El operador debe desplazar el código a través de una ranura de la lectora. Es de haz fijo.

• Lectora fija con haz láser móvil:

Un rayo láser rojo anaranjado barre en un sentido a otro el código de barras decenas de
veces por segundo. Un rayo láser es dirigido por un espejo móvil, que a su vez dirige el
haz hacia otros espejos. Por la ventana de salida parece como si se generan muchos
haces láser. Esto permite leer un código de barras que este en distintas ubicaciones
espaciales respecto a la ventana citada. Estas lectoras son más exactas que las
anteriores.

Conclusión:

El fax ha logrado ampliarse a todas las tecnologías de comunicaciones actuales,


pero muchos culpan al fax de que la tecnología digital no haya avanzado
demasiado como para empezar a adoptarla. A pesar del éxito del fax, está muy
lejos de formar parte de la denominada "oficina sin papeles.

Aunque en la actualidad el uso del fax disminuye en favor de internet y el correo


electrónico (¿para qué imprimir y enviar por fax un documento, si el fichero de este
puede enviarse como adjunto?), son muchas las compañías que todavía
mantienen servicios de fax. Es ampliamente usado en sanidad (con legiones de
expedientes aún en papel), finanzas y las compañías de seguros (propuestas,
partes amistosos de accidentes, facturas, notas a mano de inspectores y peritos...)
entre otras.

Presenta una de las ventajas mas importantes no es crackeable.

115
Fibra Óptica I
El objetivo de este trabajo es conocer mejor los aspectos de un medio de
transmisión de datos que causo una revolución en las comunicaciones: la fibra
óptica.
Ella es la responsable de la difusión de servicios interactivos, internet, e incluso
operaciones remotas, y en salud.
Aquí se explicará que es, para que sirve, ventajas y desventajas, transmisión por
fibra óptica, conversores, proceso de fabricación, entre otros temas.
La abundancia de información en este tema, nos ha obligado a sintetizar algunos
temas, quizá interesantes de explicar, pero harán muy largo y complicado de
entender la clase.
Se adjuntara un video acerca de la fabricación de las fibras, el cual es costoso y
presenta dificultades.

Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente


compactos: El grosor de una fibra es similar a la de un cabello humano.
Fabricadas a alta temperatura con base en silicio, su proceso de elaboración es
controlado por medio de computadoras, para permitir que el índice de refracción
de su núcleo, que es la guía de la onda luminosa, sea uniforme y evite las
desviaciones, entre sus principales características se puede mencionar que son
compactas, ligeras, con bajas pérdidas de señal, amplia capacidad de transmisión
y un alto grado de confiabilidad debido a que son inmunes a las interferencias
electromagnéticas de radio-frecuencia. Las fibras ópticas no conducen señales
eléctricas por lo tanto son ideales para incorporarse en cables sin ningún
componente conductivo y pueden usarse en condiciones peligrosas de alta
tensión. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún
circuito adicional de protección y no hay problemas debido a los cortos circuitos.
Tienen un gran ancho de banda, que puede ser utilizado para incrementar la
capacidad de transmisión con el fin de reducir el costo por canal; De esta forma es
considerable el ahorro en volumen en relación con los cables de cobre. Con un
cable de seis fibras se puede transportar la señal de más de cinco mil canales o
líneas principales, mientras que se requiere de 10,000 pares de cable de cobre
convencional para brindar servicio a ese mismo número de usuarios, con la
desventaja
que este último medio ocupa un gran espacio en los ductos y requiere de grandes
volúmenes de material, lo que también eleva los costos. Comparado con el
sistema

116
convencional de cables de cobre donde la atenuación de sus señales (decremento
o
reducción de la onda o frecuencia) es de tal magnitud que requieren de
repetidores cada
dos kilómetros para regenerar la transmisión, en el sistema de fibra óptica se
pueden
instalar tramos de hasta 70 km. Sin que halla necesidad de recurrir a repetidores
lo que
también hace más económico y de fácil mantenimiento este material.
Originalmente, la
fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho
de
banda; sin embargo, con el tiempo se ha planteado para un amplio rango de
aplicaciones
además de la telefonía, automatización industrial, computación, sistemas de
televisión por
cable y transmisión de información de imágenes astronómicas de alta resolución
entre
otros.
Concepto de transmisión.

En un sistema de transmisión por fibra óptica existe un transmisor que se encarga


de
transformar las ondas electromagnéticas en energía óptica o en luminosa, por ello
se le
considera el componente activo de este proceso. Una vez que es transmitida la
señal
luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un
tercer
componente al que se le denomina detector óptico o receptor, cuya misión
consiste en
transformar la señal luminosa en energía electromagnética, similar a la señal
original. El
sistema básico de transmisión se compone en este orden, de señal de entrada,
amplificador, fuente de luz, corrector óptico, línea de fibra óptica (primer tramo),
empalme, línea de fibra óptica (segundo tramo), corrector óptico, receptor,
amplificador y
señal de salida.
En resumen, se puede decir que este proceso de comunicación, la fibra óptica
funciona
como medio de transportación de la señal luminosa, generado por el transmisor de
LED'S
(diodos emisores de luz) y láser.
Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la
transmis ión

117
mediante fibra óptica, debido a que su salida se puede controlar rápidamente por
medio
de una corriente de polarización. Además su pequeño tamaño, su luminosidad,
longitud
de onda y el bajo voltaje necesario para manejarlos son características atractivas.
Sistemas de comunicación de fibra óptica.

Los bloques principales de un enlace de comunicaciones de fibra óptica son:


 Transmisor
 Receptor
 Guía de fibra
El transmisor consiste de una interface analógica o digital, un conversor de voltaje
a
corriente, una fuente de luz y un adaptador de fuente de luz a fibra.
La guía de fibra es un vidrio ultra puro o un cable plástico.
El receptor incluye un dispositivo conector, un foto detector, un conversor de
corriente a
voltaje un amplificador de voltaje y una interface analógica o digital.
En un transmisor de fibra óptica la fuente de luz se puede modular por una señal
análoga
o digital. Acoplando impedancias y limitando la amplitud de la señal o en pulsos
digitales.
El conversor de voltaje a corriente sirve como interface eléctrica entre los circuitos
de
entrada y la fuente de luz. La fuente de luz puede ser un diodo emisor de luz LED
o un
diodo de inyección láser ILD, la cantidad de luz emitida es proporcional a la
corriente de
excitación, por lo tanto el conversor voltaje a corriente convierte el voltaje de la
señal de
entrada en una corriente que se usa para dirigir la fuente de luz. La conexión de
esa
fuente a la fibra es una interface mecánica cuya función es acoplar la fuente de luz
al
cable.
La fibra óptica consiste de un núcleo de fibra de vidrio o plástico, una cubierta y
una capa
protectora. El dispositivo de acoplamiento del receptor también es un acoplador
mecánico.
El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de
avalancha).
Ambos convierten la energía de luz en corriente. En consecuencia, se requiere un
conversor corriente a voltaje que transforme los cambios en la corriente del
detector a
cambios de voltaje en la señal de salida.

118
Forma

Un filamento de vidrio sumamente delgado y flexible (de 2 a 125 micrones) capaz


de conducir rayo ópticos (señales en base a la transmisión de luz). Las fibras
ópticas
poseen capacidades de transmisión enormes, del orden de miles de millones de
bits por
segundo. Se utilizan varias clases de vidrios y plásticos para su construcción.
Una fibra es un conductor óptico de forma cilíndrica que consta del núcleo (core),
un
recubrimiento (clading) que tienen propiedades ópticas diferentes de las del núcleo
y la
cubierta exterior (jacket) que absorbe los rayos ópticos y sirve para proteger al
conductor
del medio ambiente así como darle resistencia mecánica.
Además, y a diferencia de los pulsos electrónicos, los impulsos luminosos no son
afectados
por interferencias causadas por la radiación aleatoria del ambiente.
Cuando las compañías telefónicas reemplacen finalmente los cables de cobre de
sus
estaciones centrales e instalaciones domiciliarias con fibras ópticas, estarán
disponibles de
modo interactivo una amplia variedad de servicios de información para el
consumidor,
incluyendo la TV de alta definición.
Cada una de las fibras ópticas, puede transportar miles de conversaciones
simultáneas de
voz digitalizada.

Ventajas de la fibra óptica...

Capacidad de transmisión: La idea de que la velocidad de transmisión depende


principalmente del medio utilizado, se conservo hasta el advenimiento de las fibras
ópticas, ya que ellas pueden transmitir a velocidades mucho más altas de lo que
los
emisores y transmisores actuales lo permiten, por lo tanto, son estos dos
elementos los
que limitan la velocidad de transmisión.
1. Mayor capacidad debido al ancho de banda mayor disponible en frecuencias
ópticas.
2. Inmunidad a transmisiones cruzadas entre cables, causadas por inducción
magnética.
3. Inmunidad a interferencia estática debida a las fuentes de ruido.
4. Resistencia a extremos ambientales. Son menos afectadas por líquidos
corrosivos,
gases y variaciones de temperatura.
5. La seguridad en cuanto a instalación y mantenimiento. Las fibras de vidrio y los

119
plásticos no son conductores de electricidad, se pueden usar cerca de líquidos y
gases volátiles.

Un excelente medio para sus comunicaciones...

En el último kilómetro es donde se presenta con mayor frecuencia problemas y


daños en
las comunicaciones de los clientes, pensando en esto empresas como la ETB
crearon el
proyecto de digitalización de la red de abonado en fibra óptica. La fibra es el
soporte ideal
por todas las ventajas que brinda, tales como:

1. Supresión de ruidos en las transmisiones.


2. Red redundante.
3. Conexión directa desde centrales hasta su empresa.
4. Alta confiabilidad y privacidad en sus comunicaciones telefónicas.
5. Posibilidad de daño casi nula.
6. Tiempos de respuesta mínimos en la reparación de daños.
7. Mayor número y rapidez en la solicitud y entrega de nuevos servicios.
8. Gran ancho de banda
También la fibra óptica es una plataforma para la prestación de otros servicios,
como:
1. Transmisión de datos de Alta Velocidad
2. Enlaces E1 (2Mb/s) para conexión de PABX
La posibilidad en el futuro de conexión de nuevos servicios como multimedia o
sistemas
de televisión por cable.
Desventajas

A pesar de las ventajas antes enumeradas, la fibra óptica presenta una serie de
desventajas frente a otros medios de transmisión, siendo las más relevantes las
siguientes:
 La alta fragilidad de las fibras.
 Necesidad de usar transmisores y receptores más caros
 Los empalmes entre fibras son difíciles de realizar, especialmente en el campo,
lo
que dificulta las reparaciones en caso de ruptura del cable
 No puede transmitir electricidad para alimentar repetidores intermedios
 La necesidad de efectuar, en muchos casos, procesos de conversión
eléctricaóptica
 La fibra óptica convencional no puede transmitir potencias elevadas.1
 No existen memorias ópticas

Cables Ópticos.

120
Para poder utilizar fibras ópticas en forma practica, estas deben ser protegidas
contra
esfuerzos mecánicos, humedad y otros factores que afecten su desempeño. Para
ello se
les proporciona una estructura protectora, formando así, lo que conocemos como
cable
óptico. Dicha estructura de cables ópticos variará dependiendo de sí el cable será
instalado en ductos subterráneos, enterrando directamente, suspendido en postes,
sumergido en agua etc.
El propósito básico de la construcción del cable de fibra óptica es el mismo;
Mantener
estables la transmisión y las propiedades de rigidez mecánica durante el proceso
de
manufactura, instalación y operación. Las propiedades esenciales en el diseño del
cable
son la flexibilidad, identificación de fibras, peso, torsión, vibración, límite de
tensión,
facilidad de pelado, facilidad de cortado, facilidad de alineación del cable y la fibra,
resistencia al fuego, atenuación estable, etc. Los parámetros para formar un cable
especial
son:
1. Esfuerzo máximo permitido en la fibra durante su fabricación, instalación y
servicio; determina la fuerza mínima de ruptura de la fibra y la fuerza requerida
para el miembro de tensión.
2. Fuerza lateral dinámica y estática máxima ejercida sobre la fibra, para
determinar
la configuración del cable y el límite de tolerancia de micro curvaturas.
3. Flexibilidad
4. Rango de temperatura y medio ambiente en donde el cable va a operar,
paralela
elección del tipo de materiales a utilizar tomando en cuenta su coeficiente de
expansión térmica y su cambio de dimensiones en presencia de agua.
Para cumplir estos requerimientos se observan las siguientes recomendaciones:
1. Evitar cargas o esfuerzos mecánicos sobre las fibras.
2. Aislar la fibra de los demás componentes del cable.
3. Mantener las fibras cerca del eje central y proporcionar espacio a las fibras para
su
mantenimiento.
4. Escoger los materiales de los elementos del cable con mínimas diferencias en
sus
coeficientes de expansión térmica.

Parámetros de una fibra óptica...

Existen varios parámetros que caracterizan a una fibra óptica. Se habla de


parámetros

121
estructurales y de transmisión que establecen las condiciones en las que se puede
realizar
la transmisión de información.
Entre los parámetros estructurales se encuentra:
 El perfil de índice de refracción.
 El diámetro del núcleo.
 La apertura numérica.
 Longitud de onda de corte.
En cuanto a los parámetros de transmisión se tiene:
 Atenuación.
 Ancho de banda.
 Inmunidad a las Interferencias:
El uso de medios transparentes para la propagación de ondas electromagnéticas
en forma
de luz hace que la fibra óptica no necesite voltajes ni de corrientes, esto lo
convierte en un
medio de comunicación 100% inmune a todo tipo de interferencias
electromagnéticas a
su alrededor y, por lo tanto, es un medio de comunicación altamente confiable y
seguro.
Este es uno de los principales factores que motivaron su uso militar ya que para
poder
obtener información de ella hay que provocarle un daño, daño que podría
detectarse
fácilmente con equipo especializado. Esto no sucede con el cobre, donde basta
con dejar
el conductor al descubierto.
El hecho de no necesitar corrientes ni voltaje hace que la fibra óptica sea idónea
para
aplicaciones en donde se requiere de una probabilidad nula de provocar chispas,
como el
caso de pozos petroleros y las industrias químicas, en donde existe la necesidad
de
transportar la información a través de medios explosivos.

Micro curvatura...

Fuerzas laterales localizadas a lo largo de la fibra dan origen a lo que se conoce


como
micro curvaturas. El fenómeno puede ser provocado por esfuerzos durante la
manufactura e instalación y también por variaciones dimensionales de los
materiales del
cable debidos a cambios de temperatura. La sensibilidad a las micro curvaturas es
función
de la diferencia del índice de refracción, así como también de los diámetros del
núcleo y

122
del revestimiento. Es evidente que las micro curvaturas incrementan las pérdidas
ópticas.

Curvado...

El curvado de una fibra óptica es causado en la manufactura del cable, así como
también
por dobleces durante la instalación y variación en los materiales del cable debidos
a
cambio de temperatura. Los esfuerzos que provoca la torcedura de las fibras son
básicamente una fuerza transversal y un esfuerzo longitudinal. El es fuerzo
longitudinal no
provoca torcedura cuando trabaja para alargar la fibra, no hay cambio en las
perdidas
ópticas. Sin embargo, cuando trabaja para contraer a la fibra, este esfuerzo
provoca que la
fibra forme bucles y se curve, de tal manera que la perdida óptica se incrementa.
Por lo
tanto, al evaluar los diseños de los cables se debe poner especial atención en:
 La carga transversal trabajando en la fibra durante el cableado, instalación y
utilización.
 El esfuerzo de contracción que ocurre a bajas temperaturas debido al
encogimiento de los elementos del cable.
Dadas las razones anteriores, el eje de la fibra puede curvarse severamente
causando
grandes incrementos en las perdidas ópticas. Para prevenir esta situación se toma
en
cuenta las siguientes consideraciones:
 Mantener un radio de curvatura determinada, seleccionando el radio y la
longitud
del cableado.
 Reducir variaciones técnicas de las fibras protegidas con pequeños coeficientes
de
expansión térmica disponiéndolas alrededor de un elemento con buenas
propiedades térmicas.

Tipos básicos de fibras ópticas

 Multimodales
 Multimodales con índice graduado
 Monomodales

123
Fibra multimodal

En este tipo de fibra viajan varios rayos ópticos reflejándose a diferentes ángulos
como se
muestra en la figura.

Los diferentes rayos ópticos recorren diferentes distancias y se desfasan al viajar


dentro
de la fibra. Por esta razón, la distancia a la que se puede trasmitir esta limitada.

Fibra multimodal con índice graduado

En este tipo de fibra óptica el núcleo esta hecho de varias capas concéntricas de
material
óptico con diferentes índices de refracción. La propagación de los rayos en este
sigue un
patrón similar mostrado en la figura.

124
En estas fibras él numero de rayos ópticos diferentes que viajan es menor y, por lo
tanto,
sufren menos el severo problema de las multimodales.

Fibra monomodal

Esta fibra óptica es la de menor diámetro y solamente permite viajar al rayo óptico
central. No sufre del efecto de las otras dos pero es más difícil de construir y
manipular. Es
también más costosa pero permite distancias de transmisión mayores.
La fibra óptica ha venido a revolucionar la comunicación de datos ya que tiene las
siguientes ventajas:
 Gran ancho de banda (alrededor de 14Hz)
 Muy pequeña y ligera
 Muy baja atenuación
 Inmunidad al ruido electromagnético
Para transmitir señales por fibra óptica se utiliza modulación de amplitud sobre un
rayo
óptico, la ausencia de señal indica un cero y la presencia un uno. La transmisión
de fibra
óptica es unidireccional. Actualmente se utilizan velocidades de transmisión de 50,
100 y
200 Mbps, pero experimentalmente se han transmitido hasta Gbps sobre una
distancia de
110 Kms.

Construcción.

Núcleo, cubierta, tubo protector, búferes, miembros de fuerza, y una o más capas
protectoras. Las principales variantes son:

125
1. Tubo suelto. Cada fibra está envuelta en un tubo protector.

2. Fibra óptica restringida. Rodeando al cable hay un búfer primario y uno


secundario que
proporcionan a la fibra protección de las influencias mecánicas externas que
ocasionarían
rompimiento o atenuación excesiva.

3. Hilos múltiples: Para aumentar la tensión, hay un miembro central de acero y


una
envoltura con cinta de Mylar.

4. Listón: Empleada en los sistemas telefónicos Tiene varios miembros de fuerza


que le
dan resistencia mecánica y dos capas de recubrimiento protector térmico.

126
Conversores Luz- Corriente eléctrica

Este tipo de conversores convierten las señales ópticas que proceden de la fibra
en señales
eléctricas. Se limitan a obtener una corriente a partir de la luz modulada incidente,
esta corriente
es proporcional a la potencia recibida, y por tanto, a la forma de onda de la señal
moduladora.
Se fundamenta en el fenómeno opuesto a la recombinación, es decir, en la
generación de pares
electrón-hueco a partir de los fotones. El tipo más sencillo de detector corresponde
a una unión
semiconductora P-N.
Las condiciones que debe cumplir un fotodetector para su utilización en el campo
de las
comunicaciones, son las siguientes:
 La corriente inversa (en ausencia de luz) debe de ser muy pequeña, para así
poder
detectar señales ópticas muy débiles (alta sensibilidad).
 Rapidez de respuesta (gran ancho de banda).
 El nivel de ruido generado por el propio dispositivo ha de ser mínimo.
Hay dos tipos de detectores los fotodiodos PIN y los de avalancha APD.
 Detectores PIN: Su nombre viene de que se componen de una unión P-N y
entre esa unión
se intercala una nueva zona de material intrínseco (I), la cual mejora la eficacia del
detector.
Se utiliza principalmente en sistemas que permiten una fácil discriminación entre
posibles niveles
de luz y en distancias cortas.
 Detectores APD: El mecanismo de estos detectores consiste en lanzar un
electrón a gran
velocidad (con la energía suficiente), contra un átomo para que sea capaz de
arrancarle
otro electrón.
Estos detectores se pueden clasificar en tres tipos:
 de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90%
trabajando
en primera ventana. Requieren alta tensión de alimentación (200-300V).
 de germanio: aptos para trabajar con longitudes de onda comprendidas entre
1000 y 1300
nm y con un rendimiento del 70%.

127
 de compuestos de los grupos III y V.

Amplificador óptico

En fibra óptica, un amplificador óptico es un dispositivo que amplifica una señal


óptica
directamente, sin la necesidad de convertir la señal al dominio eléctrico, amplificar
en
eléctrico y volver a pasar a óptico.

Amplificadores de fibra dopada

Amplificadores en fibra son amplificadores ópticos que usan fibra dopada,


normalmente
con tierras raras. Estos amplificadores necesitan de un bombeo externo con un
láser de
onda continua a una frecuencia óptica ligeramente superior a la que amplifican.
Típicamente, las longitudes de onda de bombeo son 980 nm o 1480 nm y para
obtener los
mejores resultados en cuanto a ruido se refiere, debe realizarse en la misma
dirección que
la señal.
Un amplificador óptico es capaz de amplificar un conjunto de longitudes de onda
(WDM,
wavelength division multiplexing).
Amplificador de fibra dopada con Erbio (EDFA)

El amplificador de fibra dopada más común es el EDFA (del inglés, Erbium Doped
Fiber
Amplifier) que se basa en el dopaje con Erbio de una fibra óptica.
Algunas características típicas de los EDFAs comerciales son:
 Baja figura de ruido (típicamente entre 3-6 dB)
 Ganancia entre 15-40 dB
 Baja sensibilidad al estado de polarización de la luz de entrada
 Máxima potencia de salida: 14 - 25 dBm
 Ganancia interna: 25 - 50 dB
 Variación de la ganancia: +/- 0,5 dB
 Número de láseres de bombeo: 1 - 6
 Longitud de onda de bombeo: 980 nm o 1480 nm2
 Ruido predominante: ASE (Amplified Spontaneous Emission)

Amplificador óptico de semiconductor (Semiconductor optical amplifier,


SOA)

Los amplificadores ópticos de semiconductor tienen una estructura similar a un


láser

128
Fabry-Perot salvo por la presencia de un anti reflectante en los extremos. El anti
reflectante incluye un antireflection coating y una guía de onda cortada en ángulo
para
evitar que la estructura se comporte como un láser.
El amplificador óptico de semiconductor suele ser de pequeño tamaño y el
bombeo se
implementa de forma eléctrica. Podría ser menos caro que un EDFA y puede ser
integrado
con otros dispositivos (láseres, moduladores...).
Sin embargo, en la actualidad, las prestaciones no son tan buenas como las que
presentan
los EDFAs. Los SOAs presentan mayor factor de ruido, menos ganancia, son
sensibles a la
polarización, son muy no lineales cuando se operan a elevadas velocidades...
Su elevada no-linealidad hacen atractivos los SOAs para aplicaciones de
procesado como
la conmutación toda óptica o la conversión de longitud de onda. También se está
estudiando su uso para implementar puertas lógicas.

Amplificadores Raman

Estos dispositivos se basan en amplificar la señal óptica mediante el efecto


Raman. A
diferencia de los EDFAs y de los SOAs, los amplificadores Raman se basan en un
una
interacción no lineal entre la señal óptica y la señal de bombeo de alta potencia.
De esta
forma, la fibra convencional ya instalada puede ser usada como medio con
ganancia para
la amplificación Raman. Sin embargo, es mejor emplear fibras especialmente
diseñadas
(fibra altamente no lineal) en las que se introducen dopantes y se reduce el núcleo
de la
fibra para incrementar su no linealidad.
La señal de bombeo se puede acoplar a la fibra tanto en la misma dirección en la
que se
transmite la señal (bombeo codireccional) o en el sentido contrario (bombeo
contradireccional). Es más habitual el bombeo contradireccional para evitar la
amplificación de las componentes no lineales.
El máximo de ganancia se consigue 13 THz (unos 100 nm) por debajo de la
longitud de
onda de bombeo.
Para obtener una buena amplificación es necesario usar potencias de bombeo
elevadas
(de hasta 1 W y hasta 1,2 W para amplificación en banda L en fibra monomodo
estándar).

129
Normalmente se emplean más de dos diodos de bombeo. El nivel de ruido que se
obtiene
es bajo especialmente cuando se usa junto con EDFAs .

APLICACIONES.
APLICACIONES DE LA FIBRA ÓPTICA EN LA MEDICINA:

En este campo son evidentes las ventajas que puede aportar el uso de la fibra
óptica como ayuda a las técnicas endoscópicas clásicas y, de hecho, están siendo
sustituidos los sistemas tradicionales por los modernos fibroscopios. Diversos
aparatos como laringoscopios, rectoscopios, broncoscopios, vaginoscopios
gastroscopios y laparoscopios, incluyen ya esta tecnología, la cual nos permite con
gran precisión la exploración de cavidades internas del cuerpo humano.

Los fibroscopios realizados con ayuda de las técnicas opticoelectrónicas cuentan


con un extremo fijo o adaptable para la inserción de agujas, pinzas para toma de
muestras, electrodos de cauterización, tubos para la introducción de anestésicos,
evacuación de líquidos, etc. Una fibra se encarga de transportar la luz al interior
del organismo y la otra lleva la imagen a un monitor.

Para la obtener las imágenes de la región corporal que se explora, el endoscopio


emite una señal luminosa que, tras iluminar la zona observada, esta es recogida
por el haz de fibras ópticas. La imagen se recoge en la lente que maneja el
especialista. No se producen distorsiones de la imagen ya que la alineación de las
fibras se mantiene a lo largo del tubo.

APLICACIONES DE LA FIBRA ÓPTICA EN SENSORES:

Los sistemas eléctricos convencionales son a menudo inadecuados en entornos


de altas tensiones y zonas con campos interferentes, locales de industrias con
emanaciones, La fibra óptica no nos plantea este problema.

Por otra parte, la aplicación de esfuerzos mecánicos, alteraciones térmicas y


campos eléctricos o magnéticos modifica determinadas características de las
fibras, como su índice de refracción o su forma, que a su vez provocan cambios en
la intensidad de la luz guiada, su fase, plano de polarización o frecuencia. La
amplitud de variación de estos agentes externos es, por tanto, medíble por medio
de fibras ópticas y aplicable a los entornos citados. La información requerida será
proporcionada por sensores que incluyen fibras y aprovechan su receptividad a los
estímulos mencionados.

Gracias a la exactitud que nos proporciona este medio, los sensores son un punto
bastante importante en el que se aplica la tecnología de la fibra óptica.

Hay sensores de muchos tipos que incluyen esta tecnología, tales como:

130
• Sensores acústicos,

• Sensores eléctricos y magnéticos

• Sensores de rotación,

• Sensores de aceleración,

• Sensores de presión

• Sensores de temperatura.

Todo esto es continuamente aplicado a instrumentos de la vida cotidiana, tales


como hidrófonos, magnetómetros, giroscopios, acelerómetros, y otros dispositivos.
Estos dispositivos y exhibe numerosas ventajas, la más importante de las cuales
son flexibilidad geométrica, inmunidad interferencia electromagnética y pulsos
electromagnéticos, gran ancho de banda y una gran sensibilidad , como por
ejemplo habilidad para detectar señales de niveles muy bajos y con pequeños
cambios, así como su reducido tamaño.

APLICACIONES MILITARES DE LOS SISTEMAS DE FIBRAS

En contraste con situaciones anteriores, en las que el impulso de las tecnologías


avanzadas venía provocado a veces por necesidades militares previas, en este
caso el estamento militar se ha visto favorecido posteriormente por los desarrollos
conseguidos en la industria civil de las telecomunicaciones, de modo que no le ha
sido preciso realizar grandes inversiones para proyectos específicos.

Los beneficios de esta tecnología para los militares radican fundamentalmente en


la seguridad de este medio de transmisión frente a las comunicaciones por radio y
cables convencionales. De este modo se reduce notablemente la necesidad de la
codificación de mensajes en virtud de la seguridad antidetección inherente a las
fibras.

Otra razón de tanta importancia como la anterior, y que justifica su aplicación


militar, es el poco peso de los cables de fibras, lo que proporciona importantes
ahorros logísticos de material de campaña y personal.

También es muy importante para el empleo de fibras es su inmunidad a las


detecciones de carácter electromagnético, aunque debe advertirse que sí pueden
ser interferidas por modificación de la polarización del haz de luz, no de su
intensidad, No por esto deja de ser interesante esta propiedad, ya que es
imposible seguir electrónicamente un cable de fibras hasta llegar al equipo

131
El comportamiento de los conductores ópticos frente a las radiaciones nucleares
es de alta seguridad, porque éstas no se transmiten hasta los equipos terminales.
Además, en el caso de las actuales fibras monomodo ha mejorado notablemente
su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento
de las fibras multimodo anteriores; la capacidad de transmisión, por otra parte, se
recupera en pocos minutos tras una explosión.

Una aplicación táctica muy interesante es el uso de la fibra para la colocación de


rádares distantes del centro de operaciones; así se pueden disponer con gran
margen de seguridad los radares de detección en cualquier punto de las
operaciones, ya que la seguridad de la fibra frente a los factores ambientales es
extraordinaria.

También en el caso de mísiles de crucero lanzados desde guerra se lleva a cabo


el control de] lanzamiento mediante fibras ópticas. Los mísiles se controlan desde
uno o más centros y las rampas están interconectadas por una red redundante de
cables ópticos. También se puede llevar a cabo el guiado del misil mediante fibras
ópticas.

Factores muy importantes a considerar en el uso de estos sistemas en el campo


militar es el de la sencillez, fiabilidad y duración de los componentes de intemperie,
tales como los conectores.

APLICACIÓN DE LA FIBRA ÓPTICA EN LA ILUMINACIÓN:

Es obvio que, ante todo, lo que la fibra óptica transporta es luz. Al margen de la
información que esta pueda enviar, esta aplicación es bastante importante, ya que,
debido a sus particulares características nombradas anteriormente, nos permite
con suma facilidad iluminar zonas especiales sometidas a toxicidades, riesgos de
incendio,... tales como industrias petrolíferas, explotaciones mineras, industrias de
altos componentes inflamables,...

Otra aplicación en la que la fibra está tomando importancia, es en la señalización


en las carreteras, aumentando considerablemente la visión de estas a los
conductores nocturnos.

En cuanto a ocio, y para mayor seguridad en cuanto a la no necesidad de uso de


la electricidad, la fibra a tomado gran relevancia en lo que a iluminaciones de
fuentes y piscinas se refiere, evitando así el riesgo de electrocutarse como puede
suceder en piscinas que son iluminadas mediante sistemas convencionales.

APLICACIONES DE LA FIBRA ÓPTICA EN LAS TELECOMUNICACIONES

Un sistema de comunicaciones ópticas es una forma de transmitir información


cuyo soporte básico es la luz. La información viaja en forma de luz a lo largo de
dicho sistema. Las ondas de luz, al igual que las de radio, son una forma de

132
radiación electromagnética. Es por ello que pueden usarse, al igual que se usan
las ondas de radio para la transmisión de información. Esta idea surgió hace más
de un siglo, pero no se pudo aplicar ya que no había fuentes de luz ni medios para
transportarla adecuados. Hoy en día , en cambio, ya se sabe que la forma más
eficiente de que la luz viaje desde un punto hasta otro es mediante la fibra óptica.
En un principio fueron los militares los que idearon este sistema debido a las
grandes ventajas que esto le reportaría:

La fibra óptica no permite que nadie pueda acceder a la información transmitida en


el proceso comunicativo sin que el usuario pueda detectarlo.

La información que se transmite viaja a la velocidad de la luz, lo que permite


comunicaciones de todo tipo en tiempo real y con cualquier punto del planeta.

El inmenso ancho de banda (de gigaherzios) nos da la posibilidad de establecer


comunicaciones múltiples tales como videoconferencias, Internet a altas
velocidades, redes de área local (como las redes LAN).

En fibra óptica la atenuación es bajísima, por los que las pérdidas de información
sueles ser inapreciables.

El precio de la fibra, debido a la gran cantidad de materia prima que existe en el


planeta para fabricarla, cada vez es más barato.

A continuación vamos a analizar mas detalladamente aplicaciones de la fibra


óptica en diversos ámbitos de las comunicaciones:

Aplicaciones de la fibra óptica en Internet

El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación de


este medio: La lentitud del trato de la información. La conexión de Internet
mediante fibra a parte de ser mucho mas rápida, no nos plantea un gran problema
que sucede con el método convencional: caerse de la red continuamente. La fibra
también nos resuelve en gran medida los problemas de masificación de
interlocutores, aunque esto todavía no está totalmente resuelto.

Nos permite trabajar con gran rapidez en entornos multimedia, tales como videos,
sonidos, ... Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.

La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps , impensable en el sistema convencional, en el que la mayoría de usuarios
se conecta a 28.000 0 33.600 bps.

Aplicaciones de la fibra óptica en redes

133
La fibra óptica ha ganado gran importancias en el campo de las redes de área
local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.

Las computadoras de una red de área local están separadas por distancias de
hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios.
Una LAN permite la transferencia rápida y eficaz de información en el seno de un
grupo de usuarios y reduce los costes de explotación.

Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones.

Las redes de comunicación públicas están divididas en diferentes niveles;


conforme al funcionamiento, a la capacidad de transmisión, así como al alcance
que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior
de una gran ciudad, se tiene primeramente la red interurbana y red provisional, a
continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad
procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente
las líneas de abonado. Los parámetros dictados por la práctica son el tramo de
transmisión que es posible cubrir y la velocidad binaria específica así como el tipo
de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo.

En las redes de semáforos, en las que la precisión ha de ser casi exacta, para que
no se produzcan accidentes, también toma un papel importante la fibra óptica.

Aplicaciones de la fibra óptica en telefonía

En este campo es en el que más se está extendiendo la fibra óptica. Actualmente,


en todas las modernas ciudades se está introduciendo el sistema de fibra para el
teléfono e Internet. La fibra nos permite una comunicación libre de interferencias,
así como de posibilidad de boicoteo de la línea (tan común en las líneas de cobre)
La escucha es mucho mas nítida, y no hace falta, como en el resto de las
telecomunicaciones por fibra el empleo de amplificadores de señal cada pocos
kilómetros. Debido a todo esto, la fibra está consiguiendo abaratar las tarifas
telefónicas.

Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer


conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. Esto no

134
sería posible en una línea de teléfono convencional debido a lo reducido de su
ancho de banda para transmitir información.

Otras aplicaciones de la fibra óptica en telecomunicaciones:

La fibra óptica permite acceder a una infinidad de servicios referente a las


telecomunicaciones tales como:

Televisión: Recepción de una gran número de canales con distintas opciones de


compra. Paquete básico, canales premium, vídeo bajo demanda, pago por
visión ... una oferta amplísima compuesta por canales informativos, musicales,
espectáculos, deportivos, documentales, infantiles...

Banco en Casa: Realización de cualquier tipo de transacción bancaria, desde


movimientos entre cuentas, contratación de un depósito o la cancelación y cambio
de entidad.

Telecompra: Tendrá acceso directo a anuncios por palabras con opción a compra,
hasta navegar por un centro comercial con la posibilidad de adquirir el objeto que
más desee.

Telemedida: La fibra óptica permite recoger información sobre medidas de


servicios como el agua, el gas o la electricidad que, posteriormente serán enviados
a las empresas correspondientes que nos pasarán la factura de acuerdo con lo
consumido.

Web TV. Será uno de los mejores ejemplos de la interactividad que permite la fibra
óptica. Facilitará el acceso a información sobre restaurantes, comercios, eventos,
espectáculos...

Radio Digital. Canales temáticos para todos los gustos musicales, pero con la
mejor calidad de sonido.

Fibra Óptica II
En mi punto de vista creo que deberíamos de analizar y hablar sobre el tema de la
fibra óptica; como también el uso que se le da, ya que hace más de una década
que se emplea como conductor. Analizándolo mencionaremos la importancia y las
ventajas que existen, sus costos, su accesibilidad y principalmente su historia.

135
En primer lugar existe una gran importancia, pues así nos vamos limitando a usar
cable común (cobre, aluminio, etc.) en las instalaciones como por ejemplo: la
iluminación de un automóvil, la conexión telefónica, y varias cosas que ya se
pueden utilizar hoy en día.
Mantener e instalar una conexión de fibra óptica es una de las ventajas que
existen asimismo sus costos, ya que una instalación de cobre para uso telefónico
nos sale más costosa que si la hiciéramos en fibra óptica; otra ventaja seria que
son muy confiables por su resistencia a las interferencias electromagnéticas que
afectan a las ondas de radio.
Mientras que su accesibilidad y sus aplicaciones en México; existen empresas que
ya mantienen una segura conexión de fibra óptica actualmente, además de
telefonía, automatización industrial, computación, sistemas de televisión por cable,
etc. Se encuentra una línea de cable submarino de fibra óptica que conecta con
las ciudades más importantes de América del norte y América latina junto con
Europa; para el interés de un ingeniero es de suma importancia hacer un breve
análisis de lo que enseguida mencionare.

DESARROLLO
Creo que uno de los puntos mas importantes de la fibra óptica es como la luz que
viaja a través del cable, que seria información codificada en forma digital como
una secuencia de 1 y 0.En el caso de los unos están representados por pulsos de
luz y los ceros por espacios entre cada pulso .Lo importante es que el volumen de
información esto es los ceros y unos que se puede transmitir en la fibra óptica es
miles de veces mayor que el de una línea telefónica, para mi esto es la
superioridad de este nuevo medio de transmisión.
El primer intento de utilizar la luz como soporte para una transmisión fue realizado
por Alexander Graham Bell, en el año 1880. Utilizó un haz de luz para llevar
información, pero se evidenció que la transmisión de las ondas de luz por la
atmósfera de la tierra no es práctica debido a que el vapor de agua, oxigeno y
partículas en el aire absorben y atenúan las señales en las frecuencias de luz.

Se ha buscado entonces la forma de transmitir usando una línea de transmisión de


alta confiabilidad que no reciba perturbaciones desde el exterior, una guía de fibra
llamada Fibra óptica la cual transmite información lumínica.

La fibra óptica puede decirse que fue obtenida en 1951, con una atenuación de
1000 dB/Km. (al incrementar la distancia 3 metros la potencia de luz disminuía ½),
estas perdidas restringía, las transmisiones ópticas a distancias cortas. En 1970, la
compañía de CORNING GLASS de Estados Unidos fabricó un prototipo de fibra
óptica de baja perdida, con 20 dB/Km. Luego se consiguieron fibras de 7 dB/Km.
(1972), 2.5 dB/Km. (1973), 0.47 dB/Km. (1976), 0.2 dB/Km. (1979). Por tanto a
finales de los años 70 y a principios de los 80, el avance tecnológico en la

136
fabricación de cables ópticos y el desarrollo de fuentes de luz y detectores,
abrieron la puerta al desarrollo de sistemas de comunicación de fibra óptica de alta
calidad, alta capacidad y eficiencia. Este desarrollo se vio apoyado por diodos
emisores de luz LEDs, Fotodiodos y LASER (amplificación de luz por emisión
estimulada de radiación).

¿Qué es la fibra óptica?

La Fibra Óptica es una varilla delgada y flexible de vidrio u otro material


transparente con un índice de refracción alto, constituida de material dieléctrico
(material que no tiene conductividad como vidrio o plástico), es capaz de
concentrar, guiar y transmitir la luz con muy pocas pérdidas incluso cuando esté
curvada. Está formada por dos cilindros concéntricos, el interior llamado núcleo (se
construye de elevadísima pureza con el propósito de obtener una mínima
atenuación) y el exterior llamado revestimiento que cubre el contorno (se
construye con requisitos menos rigurosos), ambos tienen diferente índice de
refracción ( n2 del revestimiento es de 0.2 a 0.3 % inferior al del núcleo n1 ).

El diámetro exterior del revestimiento es de 0.1 mm. aproximadamente y el


diámetro del núcleo que transmite la luz es próximo a 10 ó 50 micrómetros.
Adicionalmente incluye una cubierta externa adecuada para cada uso llamado
recubrimiento.

Portadora de información

En poco más de 10 años la fibra óptica se ha convertido en una de las tecnologías


más avanzadas que se utilizan como medio de transmisión de información. Este
novedoso material vino a revolucionar los procesos de las telecomunicaciones en
todos los sentidos, desde lograr una mayor velocidad en la transmisión disminuir

137
casi en su totalidad los ruidos y las interferencias hasta multiplicar las formas de
envío en comunicaciones y recepción por vía telefónica.

Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente


compactos: El grosor de una fibra es similar a la de un cabello humano.
Fabricadas a alta temperatura con base en silicio, su proceso de elaboración es
controlado por medio de computadoras, para permitir que el índice de refracción
de su núcleo, que es la guía de la onda luminosa, sea uniforme y evite las
desviaciones, entre sus principales características se puede mencionar que son
compactas, ligeras, con bajas pérdidas de señal, amplia capacidad de transmisión
y un alto grado de confiabilidad debido a que son inmunes a las interferencias
electromagnéticas de radio-frecuencia. Las fibras ópticas no conducen señales
eléctricas por lo tanto son ideales para incorporarse en cables sin ningún
componente conductivo y pueden usarse en condiciones peligrosas de alta
tensión. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún
circuito adicional de protección y no hay problemas debido a los cortos circuitos
Tienen un gran ancho de banda, que puede ser utilizado para incrementar la
capacidad de transmisión con el fin de reducir el costo por canal; De esta forma es
considerable el ahorro en volumen en relación con los cables de cobre.

Con un cable de seis fibras se puede transportar la señal de más de cinco mil
canales o líneas principales, mientras que se requiere de 10,000 pares de cable de
cobre convencional para brindar servicio a ese mismo número de usuarios, con la
desventaja que este último medio ocupa un gran espacio en los ductos y requiere
de grandes volúmenes de material, lo que también eleva los costos.

Comparado con el sistema convencional de cables de cobre donde la atenuación


de sus señas, (Decremento o reducción de la onda o frecuencia) es de tal
magnitud que requieren de repetidores cada dos kilómetros para regenerar la
transmisión, en el sistema de fibra óptica se pueden instalar tramos de hasta 70
km. Sin que halla necesidad de recurrir a repetidores lo que también hace más
económico y de fácil mantenimiento este material. Originalmente, la fibra óptica fue
propuesta como medio de transmisión debido a su enorme ancho
de banda; sin embargo, con el tiempo se ha planteado para un amplio rango de
aplicaciones además de la telefonía, automatización industrial, computación,
sistemas de televisión por cable y transmisión de información de imágenes
astronómicas de alta resolución entre otros.

Concepto de transmisión

En un sistema de transmisión por fibra óptica existe un transmisor que se encarga


de transformar las ondas electromagnéticas en energía óptica o en luminosa, por
ello se le considera el componente activo de este proceso. Una vez que es

138
transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito
se encuentra un tercer componente al que se le denomina detector óptico o
receptor, cuya misión consiste en transformar la señal luminosa en energía
electromagnética, similar a la señal original. El sistema básico de transmisión se
compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector
óptico, línea de fibra óptica (primer tramo) empalme, línea de fibra óptica (segundo
tramo), corrector óptico, receptor, amplificador y señal de salida.

En resumen, se puede decir que este proceso de comunicación, la fibra óptica


funciona como medio de transportación de la señal luminosa, generado por el
transmisor de LED'S (diodos emisores de luz) y láser.

Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la
transmisión mediante fibra óptica, debido a que su salida se puede controlar
rápidamente por medio de una corriente de polarización. Además su pequeño
tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para
manejarlos son características atractivas.

Textos científicos 1(2005) dice .La capacidad de transmisión es muy elevada,


además pueden propagarse simultáneamente ondas ópticas de varias longitudes
de onda que se traduce en un mayor rendimiento de los sistemas. De hecho 2
fibras ópticas serían capaces de transportar, todas las conversaciones telefónicas
de un país, con equipos de transmisión capaces de manejar tal cantidad de
información (entre 100 MHz/Km a 10 GHz/Km).Esto es la capacidad que tiene este
conductor pero, ¿seria una ventaja para nuestros medios de información? Es
cierto que tiene mucha capacidad pero también es cierto que debemos “repetir” a
cierta distancia la luz debido a la atenuación.
Cada cierta distancia hay que colocar un "repetidor"; esto es, un dispositivo que
recibe los pulsos de luz, los convierte en pulsos eléctricos, los amplifica y los
convierte nuevamente en pulsos luminosos para inyectarlos en el siguiente tramo
de fibra. Mientras que con el sistema de cables de cobre se requieren repetidores
cada dos kilómetros, con el sistema de fibra óptica se pueden instalar tramos de
hasta 70 km. Con suficientes repetidores, este sistema puede transmitir los
mensajes o los datos a cualquier distancia a lo largo y ancho de nuestro planeta.*
Ing. José de la Herrán 2(UNAM).
La capacidad de transmisión de información depende básicamente de tres
características: el diseño geométrico de la fibra, las propiedades de los materiales
empleados (diseño óptico) y el intervalo de longitudes de onda de la fuente de luz
utilizada (cuanto mayor sea éste, menor será la capacidad de transmisión de
información de la fibra).* Ing. José de la Herrán 2(UNAM)
Ventajas
Una de sus ventajas que mencionaré creo que es la más importante, que es un
conductor que no transmite corriente eléctrica, esto se demuestra a continuación.

139
Capacidad de transmisión: La idea de que la velocidad de transmisión depende
principalmente del medio utilizado, se conservo hasta el advenimiento de las fibras
ópticas, ya que ellas pueden transmitir a velocidades mucho más altas de lo que
los emisores y transmisores actuales lo permiten, por lo tanto, son estos dos
elementos los que limitan la velocidad de transmisión.

 Mayor capacidad debido al ancho de banda mayor disponible en frecuencias


ópticas.

 Inmunidad a transmisiones cruzadas entre cables, causadas por inducción


magnética.

 Inmunidad a interferencia estática debida a las fuentes de ruido.

 Resistencia a extremos ambientales. Son menos afectadas por líquidos


corrosivos, gases y variaciones de temperatura.

 La seguridad en cuanto a instalación y mantenimiento. Las fibras de vidrio y los


plásticos no son conductores de electricidad, se pueden usar cerca de líquidos y
gases volátiles.

Existe una menor pérdida de potencia, lo que implica una menor necesidad de
colocar repetidores cada cierta distancia abaratando así los costos del sistema, de
su instalación y mantenimiento. La comunicación se realiza a través de un rayo de
luz, por lo cual no puede sufrir interferencia de tipo electromagnético. De la misma
forma, la señal que viaja en fibra óptica no puede ser detectada. Existe un
aislamiento eléctrico entre el emisor y el receptor al ser la fibra óptica dieléctrica
(no conductora de electricidad).*la fibra óptica 3(2010).

Gran flexibilidad y recursos disponibles

Los cables de fibra óptica se pueden construir totalmente con materiales


dieléctricos, la materia prima utilizada en la fabricación es el dióxido de silicio (Si0
2 ) que es uno de los recursos más abundantes en la superficie terrestre.

140
Aislamiento eléctrico entre terminales

Al no existir componentes metálicos (conductores de electricidad) no se producen


inducciones de corriente en el cable, por tanto pueden ser instalados en lugares
donde existen peligros de cortes eléctricos.

Ausencia de radiación emitida

Las fibras ópticas transmiten luz y no emiten radiaciones electromagnéticas que


puedan interferir con equipos electrónicos, tampoco se ve afectada por
radiaciones emitidas por otros medios, por lo tanto constituyen el medio más
seguro para transmitir información de muy alta calidad sin degradación. *textos
científicos 1(2005).

Costos y mantenimiento

En cuanto a sus costos y mantenimiento hare mención a ello dando como prueba
una pequeña investigación. TOKIO, JAPÓN, el 1997 de ENERO 21 (NOTA) --
Fujitsu Ltd. [TOKYO:6702] ha ganado el contrato para proveer la sección de Asia-
Pacific del cable óptico de la fibra submarina más larga del mundo. Las llamadas
del contrato US$84 millón para que la compañía instale un estiramiento de 4.500
kilómetros (kilómetro) del cable de SEA-ME-WE 3 entre Singapur, Indonesia, y
Australia.

Era parte de una serie de contratos firmados en Singapur recientemente para el


edificio del sistema del cable por un consorcio de compañías internacionales de
las telecomunicaciones. El contrato de Fujitsu fue concedido por el Singapur
telecom, el Indosat, y el Telstra para el consorcio.

El cable se planea para ser terminado antes del de enero 31 de 1999. **time-out**
cuando él introducir servicio, contraer sistema tener mínimo capacidad 20 Gb/s
que poder acomodar aproximado 240.000 simultáneo teléfono circuito, decir
Fujitsu.

Sin embargo si el requerimiento de capacidad de información es bajo la fibra


óptica puede ser de mayor costo.

Actualmente, el coste de construir una planta de fibra óptica es comparable con el


coste de construir una planta de cobre. Además, los costes de mantenimiento de
una planta de fibra óptica son mucho más bajos que los de una planta de cobre.

141
Sin embargo si se requiere una capacidad de información baja, la fibra óptica
puede implicar un mayor coste. A través de la fibra óptica se pueden transmitir
señales a zonas eléctricamente ruidosas con un bajo índice de error y sin
interferencias. La transmisión es prácticamente inalterable debido a los cambios
de temperatura, por lo que se hace necesario simplificar la ecualización y
compensación de las variaciones en dichas propiedades. *RTFO grupo 18 4(2008).

Dimensiones Y Peso

Una de las características más notoria de la fibra óptica es su tamaño, que en la


mayoría de los casos es de revestimiento 125 micras de diámetro, mientras el
núcleo es aun más delgado. La cantidad de información transmitida es enorme, si
se compara peso contra cantidad de datos transmitidos se puede observar por
ejemplo, una comunicación telefónica que se realiza a través de cables tipo TAB,
los cuales tienen un grosor de 8 cm. Transmite 2400 llagadas simultáneas; en
comparación las fibras ópticas alcanzan las 30.720 llamadas simultáneas.

Atenuación

Es el factor que indica con que frecuencia deben colocarse los repetidores de la
señal que se conduce o propaga por el medio, puede variar debido a un gran
número de factores tales como la humedad, las curvaturas que sufre el cable, etc.

Otro de estos factores es el tipo de fibra utilizada, ya que el método de fabricación


determina la atenuación mínima que existe en ella.

142
Distancia Umbral

Conforme la señal avanza por el medio va perdiendo fuerza hasta llegar al punto
en que si desea transmitirse a mayor distancia debe colocarse un repetidor, un
dispositivo que le vuelva a dar potencia para seguir avanzando. Un repetidor de
fibra es aquel que toma una señal de luz, la convierte a señal eléctrica, la regenera
y la coloca en un dispositivo de emisión de luz para que se siga propagando.

Comparadas con el cobre, las fibras ópticas permiten que las distancias entre
repetidores sean más grandes. Por ejemplo, en un enlace para dispositivos RS-
232 (puerto serial) la distancia máxima entre dos nodos es de 15.2 mts.
Transmitiendo a un a velocidad de 19200 Bps. , Una línea de fibra óptica puede
transmitir a esa velocidad hasta una distancia de 2.5 Km. esto significa que la
distancia lograda con la fibra es 164 veces mayor que la de su equivalente el
cobre.

Al igual que en la atenuación, la distancia máxima que puede alcanzarse esta muy
relacionada con el tipo de fibra. En las versiones sencillas se logran distancias
típicas de dos Km entre el transmisor y en receptor, con fibras y equipos mas
sofisticado las distancias pueden ir hasta los 2.5km. Sin repetidor. Aplicaciones de
laboratorio han permitido alcanzar distancias de 111km. a 5 Gbps. sin la necesidad
de los repetidores.

Las señales se pueden transmitir a través de zonas eléctricamente ruidosas con


muy bajo índice de error y sin interferencias eléctricas.

Las características de transmisión son prácticamente inalterables debido a los


cambios de temperatura, siendo innecesarios y/o simplificadas la ecualización y
compensación de las variaciones en tales propiedades. Se mantiene estable entre
-40 y 200 ºC .

Por tanto dependiendo de los requerimientos de comunicación la fibra óptica


puede constituir el mejor sistema.*textos científicos 1(2005).

Aplicaciones
Definitivamente el cable de cobre es más barato que la fibra óptica, sin embargo si
se trata de obtener un mayor ancho de banda y de fidelidad, así como acortar
distancias, y contar con un medio de transmisión amplio y más seguro, realmente
la fibra óptica justifica sus precios por los beneficios que ofrece frente a los del
cable de cobre.

143
Las aplicaciones de la fibra óptica hoy en día son múltiples. Además, esta en un
continuo proceso de expansión, sin conocer exactamente límites sobre ello.
Partiendo de que la fibra óptica transmite luz, todas las aplicaciones que se basan
en la luminosidad (bien sea por falta de esta, por difícil acceso, con fines
decorativos o búsqueda de precisión) tiene cabida este campo.

Si a todo esto sumamos la gran capacidad de transmisión de información de este


medio, (debido a su gran ancho de banda, baja atenuación, a que esta información
viaja a la velocidad de la luz, etc.) dichas aplicaciones se multiplican.

Campos tales como las telecomunicaciones, medicina, arqueología, prácticas


militares, mecánica y vigilancia se benefician de las cualidades de esta
herramienta óptica.

Medicina

En este campo son evidentes las ventajas que puede aportar el uso de la fibra
óptica como ayuda a las técnicas endoscópicas clásicas y, de hecho, están siendo
sustituidos los sistemas tradicionales por los modernos fibroscopios. Diversos
aparatos como laringoscopios, rectoscopios, broncoscopios, vaginoscopios
gastroscopios y laparoscopios, incluyen ya esta tecnología, la cual nos permite
con gran precisión la exploración de cavidades internas del cuerpo humano.

Los fibroscopios realizados con ayuda de las técnicas opticoelectrónicas cuentan


con un extremo fijo o adaptable para la inserción de agujas, pinzas para toma de
muestras, electrodos de cauterización, tubos para la introducción de anestésicos,
evacuación de líquidos, etc.* fibra óptica 5(2002).

Arqueología

144
En este campo, la fibra óptica se usa habitualmente con el fin de poseer un acceso
visual a zonas que son inaccesibles mediante otros sistemas. Como en medicina
también se usa un endoscopio.

Sensores

Los sistemas eléctricos convencionales son a menudo inadecuados en entornos


de altas tensiones y zonas con campos interferentes, locales de industrias con
emanaciones, La fibra óptica no nos plantea este problema.

Gracias a la exactitud que nos proporciona este medio, los sensores son un punto
bastante importante en el que se aplica la tecnología de la fibra óptica.

Hay sensores de muchos tipos que incluyen esta tecnología, tales como:

• Sensores acústicos
• Sensores eléctricos y magnéticos
• Sensores de rotación
• Sensores de aceleración
• Sensores de presión
• Sensores de temperatura.

• Estos dispositivos exhiben numerosas ventajas, la más importante son


flexibilidad geométrica, inmunidad interferencia electromagnética y pulsos
electromagnéticos, gran ancho de banda y una gran sensibilidad , como por
ejemplo habilidad para detectar señales de niveles muy bajos y con
pequeños cambios, así como su reducido tamaño.

Aplicaciones Militares

Los beneficios de esta tecnología para los militares radican fundamentalmente en


la seguridad de este medio de transmisión frente a las comunicaciones por radio y
cables convencionales. De este modo se reduce notablemente la necesidad de la
codificación de mensajes en virtud de la seguridad antidetección inherente a las
fibras.

Otra razón de tanta importancia como la anterior, y que justifica su aplicación


militar, es el poco peso de los cables de fibras, lo que proporciona importantes
ahorros logísticos de material de campaña y personal.

145
El comportamiento de los conductores ópticos frente a las radiaciones nucleares
es de alta seguridad, porque éstas no se transmiten hasta los equipos terminales.
Además, en el caso de las actuales fibras monomodo ha mejorado notablemente
su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento
de las fibras multimodal anteriores; la capacidad de transmisión, por otra parte, se
recupera en pocos minutos tras una explosión.

Una aplicación táctica muy interesante es el uso de la fibra para la colocación de


radares distantes del centro de operaciones; así se pueden disponer con gran
margen de seguridad los radares de detección en cualquier punto de las
operaciones, ya que la seguridad de la fibra frente a los factores ambientales es
extraordinaria.

También en el caso de mísiles de crucero lanzados desde guerra se lleva a cabo


el control de] lanzamiento mediante fibras ópticas. Los mísiles se controlan desde
uno o más centros y las rampas están interconectadas por una red redundante de
cables ópticos. También se puede llevar a cabo el guiado del misil mediante fibras
ópticas.

Factores muy importantes a considerar en el uso de estos sistemas en el campo


militar es el de la sencillez, fiabilidad y duración de los componentes de
intemperie, tales como los conectores.

Iluminación

Es obvio que, ante todo, lo que la fibra óptica transporta es luz. Al margen de la
información que esta pueda enviar, esta aplicación es bastante importante, ya que,
debido a sus particulares características nombradas anteriormente, nos permite
con suma facilidad iluminar zonas especiales sometidas a toxicidades, riesgos de
incendio, etc. tales como industrias petrolíferas, explotaciones mineras, industrias
de altos componentes inflamables y muchas otras.

Otra aplicación en la que la fibra está tomando importancia, es en la señalización


en las carreteras, aumentando considerablemente la visión de estas a los
conductores nocturnos.

146
En cuanto a ocio, y para mayor seguridad en cuanto a la no necesidad de uso de
la electricidad, la fibra a tomado gran relevancia en lo que a iluminaciones de
fuentes y piscinas se refiere, evitando así el riesgo de electrocutarse como puede
suceder en piscinas que son iluminadas mediante sistemas convencionales.

Siguiendo con las aplicaciones de la fibra para iluminación cabe destacar el


factible uso que se le da en museos, ya que puede filtrar los componentes
ultravioletas de la luz, consiguiendo así evitar el deterioro de las pinturas.

Telecomunicaciones

Un sistema de comunicaciones ópticas es una forma de transmitir información


cuyo soporte básico es la luz. La información viaja en forma de luz a lo largo de
dicho sistema. Hoy en día , se sabe que la forma más eficiente de que la luz viaje
desde un punto hasta otro es mediante la fibra óptica.

Internet

147
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación de
este medio: La lentitud del trato de la información. La conexión de Internet
mediante fibra a parte de ser mucho mas rápida, no nos plantea un gran problema
que sucede con el método convencional: caerse de la red continuamente. La fibra
también nos resuelve en gran medida los problemas de masificación de
interlocutores, aunque esto todavía no está totalmente resuelto.

Nos permite trabajar con gran rapidez en entornos multimedia, tales como videos,
sonidos, etc. Por ello las líneas telefónicas no son la única vía hacia el
ciberespacio. Recientemente un servicio permite conectarse a Internet a través de
la fibra óptica.

Redes

La fibra óptica ha ganado gran importancias en el campo de las redes de área


local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.

Las computadoras de una red de área local están separadas por distancias de
hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios.
Una LAN (redes locales de información) permite la transferencia rápida y eficaz de
información en el seno de un grupo de usuarios y reduce los costes de
explotación.

Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones.

Telefonía

En este campo es en el que más se está extendiendo la fibra óptica. Actualmente,


en todas las modernas ciudades se está introduciendo el sistema de fibra para el
teléfono e Internet. La fibra nos permite una comunicación libre de interferencias,
así como de posibilidad de boicoteo de la línea (tan común en las líneas de
cobre) .El sonido es mucho mas nítido, y no hace falta, como en el resto de las
telecomunicaciones por fibra el empleo de amplificadores de señal cada pocos
kilómetros.

148
Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer
conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. Esto no
sería posible en una línea de teléfono convencional debido a lo reducido de su
ancho de banda para transmitir información.

Otras Aplicaciones

La fibra óptica permite acceder a una infinidad de servicios referente a las


telecomunicaciones tales como:

• Televisión: Recepción de una gran número de canales con distintas


opciones de compra. Paquete básico, canales premium, vídeo bajo
demanda, pago por visión... una oferta amplísima compuesta por canales
informativos, musicales, espectáculos, deportivos, documentales,
infantiles...
• Banco en Casa: Realización de cualquier tipo de transacción bancaria,
desde movimientos entre cuentas, contratación de un depósito o la
cancelación y cambio de entidad.
• Telecompra: Tendrá acceso directo a anuncios por palabras con opción a
compra, hasta navegar por un centro comercial con la posibilidad de
adquirir el objeto que más desee.
• Telemedida: La fibra óptica permite recoger información sobre medidas de
servicios como el agua, el gas o la electricidad que, posteriormente serán
enviados a las empresas correspondientes que nos pasarán la factura de
acuerdo con lo consumido.
• Web TV: Será uno de los mejores ejemplos de la interactividad que permite
la fibra óptica. Facilitará el acceso a información sobre restaurantes,
comercios, eventos, espectáculos...
• Radio Digital: Canales temáticos para todos los gustos musicales, pero con
la mejor calidad de sonido.

Transportes

Las especiales características de la fibra óptica han suscitado su interés en


aplicaciones a otros sectores de actividad con exigencias especiales en materia de
comunicaciones; un ejemplo típico es el sector de los transportes ferroviarios y
metropolitanos.

Las instalaciones de telecomunicación de interés en estos sectores pueden


subdividirse en:

• Redes de telecomunicación (telefonía y transmisión de datos).


• Sistemas punto a punto - transmisión de video.
• Instalaciones de control y adquisición de datos.
• Instalaciones de mando y señalización.

149
Pueden encontrarse otras aplicaciones interesantes de la fibra óptica a bordo de
vehículos, especialmente en el sector del automóvil, donde hace años que existen
usos especiales. Esta aplicación en particular, ha encontrado una difusión tan
amplia que en la actualidad cada vehículo tiene en promedio dos metros de haz de
fibras ópticas.

Además, también han adquirido una severa importancia en los transportes aéreos,
debido a su ligereza y a su resistencia a condiciones climáticas adversas.

Conclusiones:

La fibra óptica para mi es un importante medio de conducción de información, ya


que su velocidad y capacidad de transmitirla es muy eficiente, en cuanto a sus
aplicaciones son muchas las que se le da.

Lo mencionaba anteriormente que para darle uso como cable telefónico, va de la


comodidad de cada empresa, mientras que al instalar cable de cobre, realizarlo y
llevarlo a su conectividad les sale costoso; una mejor opción seria la fibra óptica,
pero esto seria para aquellas empresas cuyos ingresos económicos son muchos.

En el caso de fabricas para la construcción de autos se ahorrarían mucho dinero y


bastantes cables de cobre .pues para mantenerlo iluminado solo bastarían con
instalar fibra óptica.

En otro campo como en la medicina me parece que es muy importante que cada
instrumento, aparato que se utiliza se fabrique con fibra óptica, lo que hace que
una cirugía sea más segura y practica.

Y así es de importante hoy en día la fibra óptica sin ella creo que muchas de las
nuevas empresas de telefonía y de televisión por cable no existirían.
Por otra parte el cable de cobre ¿donde quedaría? y las fabricas que lo hacen
¿también dejaría de existir? Creo que no porque todas las plantas de energía
eléctrica necesitan de mucho cable también conexiones a aparatos domésticos,
industriales, etc. Necesitan de electricidad de mucha corriente eléctrica, por eso
tanto el cable común de cobre, aluminio, etc. Es demasiado importante como el
conductor de fibra óptica.

150
Fibra Óptica III
En este pequeña recopilación de información sobre el tema a desarrollar se
hablara sobre la

historia y su evolución de lo que es hoy en día el mejor material que usa el


ser humano para

comunicarse lo más rápido posible la fibra óptica.

Este documento contiene estudiaremos lo práctico que es este tipo de


material; sus ventajas y

desventajas, su fabricación, el impacto que a tenido en la tecnología


además se podrá entender

151
su funcionamiento y de sus variados usos en que se emplea este tipo de
material.

¿Pero que es la fibra óptica?

La fibra óptica es un medio de transmisión empleado habitualmente en redes de


datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por
el que se envían pulsos de luz que representan los datos a transmitir.
Esto es parte de lo que es la fibra óptica; pero investiguemos mas afondo lo que
es y nos puede ofrecer este material.

ANTECEDENTES

El uso de la luz para la codificación de señales no es nuevo, los antiguos griegos


usaban espejos para transmitir información, de modo rudimentario, usando luz
solar. En 1792, Claude Chappe diseñó un sistema de telegrafía óptica, que
mediante el uso de un código y torres y espejos distribuidos a lo largo de los 200
km que separan Lille y París, conseguía transmitir un mensaje en tan sólo 16
minutos.
La gran novedad aportada en nuestra época es el haber conseguido “domar” la
luz,El uso de la luz guiada, de modo que no expanda en todas direcciones, sino en
una muy concreta y predefinida se ha conseguido mediante la fibra óptica;
Además tiene muchas otras ventajas, como bajas pérdidas de señal, tamaño y
peso reducido, inmunidad frente a emisiones electromagnéticas y de
radiofrecuencia y seguridad. Todos estos apartados se describirán a continuación,

152
abriéndonos las puertas al descubrimiento de un nuevo mundo: el mundo de la
información sin límite de ancho de banda.
La posibilidad de controlar un rayo de luz, dirigiéndolo en una trayectoria recta, se
conoce desde hace mucho tiempo. En 1820, Augustin-Jean Fresnel ya conocía las
ecuaciones por las que rige la captura de la luz dentro de una placa de cristal lisa.
Su ampliación a lo que entonces se conocía como cables de vidrio fue obra de D.
Hondros y Peter Debye en 1910. El físico irlandés John Tyndall descubrió que la
luz podía viajar dentro de un material (agua), curvándose por reflexión interna, y
en 1870 presentó sus estudios ante los miembros de la Real Sociedad. A partir de
este principio se llevaron a cabo una serie de estudios, en los que demostraron el
potencial del cristal como medio eficaz de transmisión a larga distancia.

El gran problema, sin embargo, es que las técnicas y los materiales usados no
permitían la trasmisión de luz con buen rendimiento. Las pérdidas eran tan
grandes y no había dispositivos de acoplamiento óptico.
Solamente en 1950 las fibras ópticas comenzaron a interesar a los investigadores,
con muchas aplicaciones prácticas que estaban siendo desarrolladas. En 1952, el
físico Narinder Singh Kapany, apoyándose en los estudios de John Tyndall, realizó
experimentos que condujeron a la invención de la fibra óptica.Uno de los primeros
usos de la fibra óptica fue emplear un haz de fibras para la transmisión de
imágenes, que se usó en el endoscopio médico.
En este invento se usaron unas nuevas fibras forradas con un material de bajo
índice de refracción, en esta misma época, se empezaron a utilizar filamentos
delgados como el pelo que transportaban luz a distancias cortas, el único
problema era que esta luz perdía hasta el 99% de su intensidad al atravesar
distancias de hasta de 9 metros de fibra.
Charles K. Kao, en su tesis doctoral de 1956, estimó que las máximas pérdidas
que debería tener la fibra óptica, para que resultara práctica en enlaces de
comunicaciones, eran de 20 dB/km.
En 1966,los investigadores Charles K. Kao y G. A. Hockham, de los laboratorios
de Standard Telecommunications, en Inglaterra, afirmaron que se podía disponer
de fibras de una transparencia mayor y propusieron el uso de fibras de vidrio y luz,
en lugar de electricidad y conductores metálicos, en la trasmisión de mensajes
telefónicos.

El 22 de abril de 1977, General Telephone and Electronics envió la primera


transmisión telefónica a través de fibra óptica, en 6 Mbit/s, en Long Beach,
California.

153
El amplificador que marcó un antes y un después en el uso de la fibra óptica en
conexiones interurbanas, reduciendo el coste de ellas, fue el amplificador óptico
inventado por David Payne, de la Universidad de Southampton, y por Emmanuel
Desurvire en los Laboratorios Bell. A ambos se les concedió la medalla Benjamin
Franklin en 1988. En 1980, las mejores fibras eran tan transparente que una señal
podía atravesar 240 kilómetros de fibra antes de debilitarse hasta ser indetectable.
Pero las fibras ópticas con este grado de transparencia no se podían fabricar
usando métodos tradicionales. El gran avance se produjo cuando se dieron cuenta
de que el cristal de sílice puro, sin ninguna impureza de metal que absorbiese luz,
solamente se podía fabricar directamente a partir de componentes de vapor,
evitando de esta forma la contaminación que inevitablemnte resultaba del uso
convencional de los crisoles de fundición.
También en 1980, AT&T presentó a la Comisión Federal de Comunicaciones de
los Estados Unidos un proyecto de un sistema de 978 kilómetros que conectaría
las principales ciudades del corredor que iba de Boston a Washington. Cuatro
años después, cuando el sistema comenzó a funcionar, su cable, de menos de 25
centímetros de diámetro, proporcionaba 80.000 canales de voz para
conversaciones telefónicas simultáneas. Para entonces, la longitud total de los
cables de fibra únicamente en los Estados Unidos alcanzaba 400.000 kilómetros.
Pronto, cables similares atravesaron los océanos del mundo. El primer enlace
transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988.
Tres años después, otro cable transatlántico duplicó la capacidad del primero. Los
cables que cruzan el Pacífico también han entrado en funcionamiento. Desde
entonces, se ha empleado fibra óptica en multitud de enlaces transoceánicos o
entre ciudades, y paulatinamente se va extendiendo su uso desde las redes
troncales de las operadoras hacia los usuarios finales.
Hoy en día, debido a sus mínimas pérdidas de señal y a sus óptimas propiedades
de ancho de banda, la fibra óptica puede ser usada a distancias más largas que el
cable de cobre. Además, la fibras por su peso y tamaño reducido, hace que sea
muy útil en entornos donde el cable de cobre sería impracticable.

FABRICACION DE LA FIBRA OPTICA

Una vez obtenida mediante procesos químicos la materia de la fibra óptica, se


pasa a su fabricación. Proceso continuo en el tiempo que básicamente se puede
describir a través de tres etapas; la fabricación de la preforma, el estirado de esta
y por último las pruebas y mediciones. Para la creación de la preforma existen
cuatro procesos que son principalmente utilizados.

Algunos métodos para la fabricación de la preforma:

154
• M.C.V.D Modifield Chemical Vapor Deposition

Fue desarrollado originalmente por Corning Glass y modificado por los


Laboratorios Bell Telephone para su uso industrial. Utiliza un tubo de cuarzo puro
de donde se parte y es depositado en su interior la mezcla de dióxido de silicio y
aditivos de dopado en forma de capas concéntricas. A continuación en el proceso
industrial se instala el tubo en un torno giratorio. El tubo es calentado hasta
alcanzar una temperatura comprendida entre 1.400 °C y 1.600 °C mediante un
quemador de hidrógeno y oxígeno. Al girar el torno el quemador comienza a
desplazarse a lo largo del tubo. Por un extremo del tubo se introducen los aditivos
de dopado, parte fundamental del proceso, ya que de la proporción de estos
aditivos dependerá el perfil final del índice de refracción del núcleo.La deposición
de las sucesivas capas se obtienen de las sucesivas pasadas del quemador,
mientras el torno gira; quedando de esta forma sintezado el núcleo de la fibra
óptica. La operación que resta es el colapso, se logra igualmente con el continuo
desplazamiento del quemador, solo que ahora a una temperatura comprendida
entre 1.700 °C y 1.800 °C. Precisamente es esta temperatura la que garantiza el
ablandamiento del cuarzo, convirtiéndose así el tubo en el cilindro macizo que
constituye la preforma. Las dimensiones de la preforma suelen ser de un metro de
longitud útil y de un centímetro de diámetro exterior.

• V.A.D Vapor Axial Deposition

Su funcionamiento se basa en la técnica desarrollada por la Nippon Telephone


and Telegraph (N.T.T), muy utilizado en Japón por compañías dedicadas a la
fabricación de fibras ópticas.La materia prima que utiliza es la misma que el
método M.C.V.D, su diferencia con este radica, que en este último solamente se
depositaba el núcleo, mientras que en este además del núcleo de la FO se
deposita el revestimiento. Por esta razón debe cuidarse que en la zona de
deposición axial o núcleo, se deposite más dióxido de germanio que en la periferia,
lo que se logran a través de la introducción de los parámetros de diseño en el
software que sirve de apoyo en el proceso de fabricación. A partir de un cilindro de
vidrio auxiliar que sirve de soporte para la preforma, se inicia el proceso de
creación de esta, depositándose ordenadamente los materiales, a partir del
extremo del cilindro quedando así conformada la llamada "preforma porosa"
.Conforme su tasa de crecimiento se va desprendiendo del cilindro auxiliar de
vidrio. El siguiente paso consiste en el colapsado, donde se somete la preforma
porosa a una temperatura comprendida entre los 1.500 °C y 1.700 °C, lográndose
así el reblandamiento del cuarzo. Quedando convertida la preforma porosa hueca
en su interior en el cilindro macizo y transparente, mediante el cual se suele
describir la preforma.

Entre sus ventajas, comparado con el método anterior (M.C.V.D) permite obtener
preformas con mayor diámetro y mayor longitud a la vez que precisa un menor
aporte energético.Como inconveniente se destaca como uno el de mayor

155
cognotación, la sofisticación que requiere en equipo necesarios para su
realización.

• O.V.D Outside Vapor Deposition

Desarrollado por Corning Glass Work.Parte de una varilla de substrato cerámica y


un quemador.En la llama del quemador son introducidos los cloruros vaporosos y
esta caldea la varilla.A continuación se realiza el proceso denominado síntesis de
la preforma, que consiste en el secado de la misma mediante cloro gaseoso y el
correspondiente colapsado de forma análoga a los realizados con el método
V.A.D, quedando así sintetizados el núcleo y revestimiento de la preforma.

Entre las Ventajas, es de citar que las tasas de deposición que se alcanzan son
del orden de 4.3g / min, lo que representa una tasa de fabricación de FO de 5km /
h, habiendo sido eliminadas las pérdidas iniciales en el paso de estirado de la
preforma. También es posible la fabricación de fibras de muy baja atenuación y de
gran calidad mediante la optimización en el proceso de secado, porque los perfiles
así obtenidos son lisos y sin estructura anular reconocible.

• P.C.V.D Plasma Chemical Vapor Deposition

Es desarrollado por Philips, se caracteriza por la obtención de perfiles lisos sin


estructura anular reconocible. Su principio se basa en la oxidación de los cloruros
de silicio y germanio, creando en estos un estado de plasma, seguido del proceso
de deposición interior.

ESTIRADO DE LA PREFORMA

Sea cualquiera que se utilice de las técnicas que permiten la construcción de la


preforma es de común a todas el proceso de estirado de esta. Consiste
básicamente en la existencia de un horno tubular abierto, en cuyo interior se
somete la preforma a una temperatura de 2.000 °C, logrando así el
reblandamiento del cuarzo y quedando fijado el diámetro exterior de la FO. Este
diámetro se ha de mantener constante mientras se aplica una tensión sobre la
preforma, para lograr esto precisamente la constancia y uniformidad en la tensión
de tracción y l ausencia de corrientes de convección en el interior del horno, son
los factores que lo permiten. En este proceso se ha de cuidar que en la atmósfera
interior del horno esté aislada de partículas provenientes del exterior para evitar
que la superficie reblandecida de la FO pueda ser contaminada, o se puedan crear
micro fisuras, con la consecuente e inevitable rotura de la fibra. También es aquí
donde se aplica a la fibra un material sintético, que generalmente es un
polimerizado viscoso, el cual posibilita las elevadas velocidades de estirado,
comprendidas entre 1m / sg y 3m / sg, conformándose así una capa uniforme

156
sobre la fibra totalmente libre de burbujas e impurezas. Posteriormente se pasa al
endurecimiento de la protección antes descrita quedando así la capa definitiva de
polímero elástico. Esto se realiza habitualmente mediante procesos térmicos o a
través de procesos de reacciones químicas mediante el empleo de radiaciones
ultravioletas.

FUNCIONAMIENTO Y CARACTERISTICAS

Características:

La fibra óptica es una guía de ondas dieléctrica que opera a frecuencias ópticas.

Cada filamento consta de un núcleo central de plástico o cristal (óxido de silicio y


germanio) con un alto índice de refracción, rodeado de una capa de un material
similar con un índice de refracción ligeramente menor. Cuando la luz llega a una
superficie que limita con un índice de refracción menor, se refleja en gran parte,
cuanto mayor sea la diferencia de índices y mayor el ángulo de incidencia, se
habla entonces de reflexión interna total.

En el interior de una fibra óptica, la luz se va reflejando contra las paredes en


ángulos muy abiertos, de tal forma que prácticamente avanza por su centro. De
este modo, se pueden guiar las señales luminosas sin pérdidas por largas
distancias.

A lo largo de toda la creación y desarrollo de la fibra óptica, algunas de sus


características han ido cambiando para mejorarla. Las características más
destacables de la fibra óptica en la actualidad son:

• Cobertura más resistente: La cubierta contiene un 25% más material que


las cubiertas convencionales.
• Uso dual (interior y exterior): La resistencia al agua y emisiones ultravioleta,
la cubierta resistente y el funcionamiento ambiental extendido de la fibra
óptica contribuyen a una mayor confiabilidad durante el tiempo de vida de la
fibra.
• Mayor protección en lugares húmedos: Se combate la intrusión de la
humedad en el interior de la fibra con múltiples capas de protección
alrededor de ésta, lo que proporciona a la fibra, una mayor vida útil y
confiabilidad en lugares húmedos.
• Empaquetado de alta densidad: Con el máximo número de fibras en el
menor diámetro posible se consigue una más rápida y más fácil instalación,
donde el cable debe enfrentar dobleces agudos y espacios estrechos. Se
ha llegado a conseguir un cable con 72 fibras de construcción súper densa
cuyo diámetro es un 50% menor al de los cables convencionales.

Ventajas:

157
Fibre Channel, una norma ANSI de gran alcance, económica y prácticamente se
reúne el desafío con las siguientes ventajas:

• Precio de rendimiento Liderazgo - Fibre Channel ofrece soluciones


rentables de almacenamiento y redes.
• Soluciones de Liderazgo - Fibre Channel proporciona conectividad versátil,
con un rendimiento escalable.
• Confiable - Fibre Channel, una forma más fiable de las comunicaciones,
mantener una empresa con la entrega de información segura.
• Gigabit de ancho de banda Ahora - soluciones Gigabit están en su lugar
hoy! En la 4-gig/sec horizonte se perfila como la tecnología SAN dominante
para la próxima generación de discos y sistemas de almacenamiento en
cinta. De cuatro canales de fibra Gigabit es altamente rentable y garantiza
la compatibilidad con versiones anteriores, permitiendo a los usuarios de
preservar existe 2-Gigabit y 1-Gigabit Fibra Canal de las inversiones.
• Topologías múltiples - exclusivo punto a punto, los bucles compartidos, y
escala topologías de conmutación cumplir los requisitos de aplicación.
• Múltiples protocolos - Fibre Channel de entrega de datos. SCSI, TCP / IP,
video o datos en bruto pueden tomar ventaja de alto rendimiento, fiable la
tecnología Fibre Channel.
• Escalable - Desde un punto único de enlaces punto a Gigabit integrada a
las empresas con cientos de servidores, de canal de fibra proporciona un
rendimiento inigualable.
• Congestión de Libre - Fibre Channel de crédito, basado en el control de
flujo proporciona datos tan rápido como el búfer de destino es capaz de
recibirlo.
• Alta eficiencia - Real comportamiento de los precios está directamente
relacionada con la eficiencia de la tecnología. Fibre Channel ha aéreos de
transmisión muy poco. Lo más importante es el protocolo de canal de fibra,
está específicamente diseñado para una operación altamente eficiente
utilizando el hardware.

• Su ancho de banda es muy grande, gracias a técnicas de multiplexación


por división de frecuencias (X-WDM), que permiten enviar hasta 100 haces
de luz (cada uno con una longitud de onda diferente) a una velocidad de 10
Gb/s cada uno por una misma fibra, se llegan a obtener velocidades de
transmisión totales de 1 Tb/s.
• Es inmune totalmente a las interferencias electromagnéticas.
• Es segura. Al permanecer el haz de luz confinado en el núcleo, no es
posible acceder a los datos trasmitidos por métodos no destructivos.
• Es segura, ya que se puede instalar en lugares donde puedan haber
sustancias peligrosas o inflamables, ya que no transmite electricidad.
• Es ligera. El peso de un carrete no es ni la décima parte de uno de cable
coaxial.
• Libre de Corrosión. Son pocos los agentes que atacan al cristal de silicio.

158
• Baja Atenuación. La fibra óptica alcanza atenuaciones del orden de 0.15
dB/Km.

Desventajas:

A pesar de las ventajas antes enumeradas, la fibra óptica presenta una serie de
desventajas frente a otros medios de transmisión, siendo las más relevantes las
siguientes:

• La alta fragilidad de las fibras.


• Necesidad de usar transmisores y receptores más caros.
• Los empalmes entre fibras son difíciles de realizar, especialmente en el
campo, lo que dificulta las reparaciones en caso de ruptura del cable.
• No puede transmitir electricidad para alimentar repetidores intermedios.
• La necesidad de efectuar, en muchos casos, procesos de conversión
eléctrica-óptica.
• La fibra óptica convencional no puede transmitir potencias elevadas.[1]
• No existen memorias ópticas.

Así mismo, el costo de la fibra sólo se justifica cuando su gran capacidad de ancho
de banda y baja atenuación son requeridos. Para bajo ancho de banda puede ser
una solución mucho más costosa que el conductor de cobre.

La fibra óptica no transmite energía eléctrica, esto limita su aplicación donde el


terminal de recepción debe ser energizado desde una línea eléctrica. La energía
debe proveerse por conductores separados.

Las moléculas de hidrógeno pueden difundirse en las fibras de silicio y producir


cambios en la atenuación. El agua corroe la superficie del vidrio y resulta ser el
mecanismo más importante para el envejecimiento de la fibra óptica.

Incipiente normativa internacional sobre algunos aspectos referentes a los


parámetros de los componentes, calidad de la transmisión y pruebas.

Funcionamiento:

Los principios básicos de su funcionamiento se justifican aplicando las leyes de la


óptica geométrica, principalmente, la ley de la refracción (principio de reflexión
interna total) y la ley de Snell.

Su funcionamiento se basa en transmitir por el núcleo de la fibra un haz de luz, tal


que este no atraviese el revestimiento, sino que se refleje y se siga propagando.
Esto se consigue si el índice de refracción del núcleo es mayor al índice de
refracción del revestimiento, y también si el ángulo de incidencia es superior al
ángulo limite.

159
TIPOS DE FIBRA OPTICA

Las diferentes trayectorias que puede seguir un haz de luz en el interior de una
fibra se denominan modos de propagación. Y según el modo de propagación
tendremos dos tipos de fibra óptica: multimodo y monomodo.

Multimodo:

Una fibra multimodo es aquella en la que los haces de luz pueden circular por más
de un modo o camino. Esto supone que no llegan todos a la vez. Una fibra
multimodo puede tener más de mil modos de propagación de luz. Las fibras
multimodo se usan comúnmente en aplicaciones de corta distancia, menores a 1
km; es simple de diseñar y económico.

Su distancia máxima es de 2 km y usan diodos láser de baja intensidad.

El núcleo de una fibra multimodo tiene un índice de refracción superior, pero del
mismo orden de magnitud, que el revestimiento.

Dependiendo el tipo de índice de refracción del núcleo, tenemos dos tipos de fibra
multimodo:

• Índice escalonado: en este tipo de fibra, el núcleo tiene un índice de


refracción constante en toda la sección cilíndrica, tiene alta dispersión
modal.
• Índice gradual: mientras en este tipo, el índice de refracción no es
constante, tiene menor dispersión modal y el núcleo se constituye de
distintos materiales.

Además, según el sistema ISO 11801 para clasificación de fibras multimodo según
su ancho de banda las fibras pueden ser OM1, OM2 u OM3.

• OM1: Fibra 62.5/125 µm, soporta hasta Gigabit Ethernet (1 Gbit/s), usan
LED como emisores
• OM2: Fibra 50/125 µm, soporta hasta Gigabit Ethernet (1 Gbit/s), usan LED
como emisores
• OM3: Fibra 50/125 µm, soporta hasta 10 Gigabit Ethernet(300 m), usan
láser como emisores.

Monomodo:

Una fibra monomodo es una fibra óptica en la que sólo se propaga un modo de
luz. Se logra reduciendo el diámetro del núcleo de la fibra hasta un tamaño (8,3 a
10 micrones) que sólo permite un modo de propagación. Su transmisión es

160
paralela al eje de la fibra. A diferencia de las fibras multimodo, las fibras
monomodo permiten alcanzar grandes distancias (hasta 300 km máximo,
mediante un láser de alta intensidad) y transmitir elevadas tasas de información
(decenas de Gb/s)

Por su diseño:

• Cables de estructura holgada:

Es un cable empleado tanto para exteriores como para interiores que consta de
varios tubos de fibra rodeando un miembro central de refuerzo y provisto de una
cubierta protectora. Cada tubo de fibra, de dos a tres milímetros de diámetro, lleva
varias fibras ópticas que descansan holgadamente en él. Los tubos pueden ser
huecos o estar llenos de un gel hidrófugo que actúa como protector antihumedad
impidiendo que el agua entre en la fibra. El tubo holgado aísla la fibra de las
fuerzas mecánicas exteriores que se ejerzan sobre el cable.

• Cables de estructura ajustada:

Es un cable diseñado para instalaciones en el interior de los edificios, es más


flexible y con un radio de curvatura más pequeño que el que tienen los cables de
estructura holgada.

Contiene varias fibras con protección secundaria que rodean un miembro central
de tracción, todo ello cubierto de una protección exterior. Cada fibra tiene una
protección plástica extrusionada directamente sobre ella, hasta alcanzar un
diámetro de 900 µm rodeando al recubrimiento de 250 µm de la fibra óptica. Esta
protección plástica además de servir como protección adicional frente al entorno,
también provee un soporte físico que serviría para reducir su coste de instalación
al permitir reducir las bandejas de empalmes.

Componentes de la fibra óptica

Dentro de los componentes que se usan en la fibra óptica caben destacar los
siguientes: los conectores, el tipo de emisor del haz de luz, los conversores de luz,
etc

Conectores:

Estos elementos se encargan de conectar las líneas de fibra a un elemento, ya


puede ser un transmisor o un receptor. Los tipos de conectores disponibles son
muy variados, entre los que podemos encontrar se hallan los siguientes:

• FC, que se usa en la transmisión de datos y en las telecomunicaciones.

• FDDI, se usa para redes de fibra óptica.


• LC y MT-Array que se utilizan en transmisiones de alta densidad de datos.

161
• SC y SC-Dúplex se utilizan para la transmisión de datos.
• ST o BFOC se usa en redes de edificios y en sistemas de seguridad.

Emisores del haz de luz:

Estos dispositivos se encargan de emitir el haz de luz que permite la transmisión


de datos, estos emisores pueden ser de dos tipos:

• LEDs. Utilizan una corriente de 50 a 100 mA, su velocidad es lenta, solo se


puede usar en fibras multimodo, pero su uso es fácil y su tiempo de vida es
muy grande, además de ser económicos.
• Lasers. Este tipo de emisor usa una corriente de 5 a 40 mA, son muy
rápidos, se puede usar con los dos tipos de fibra, monomodo y multimodo,
pero por el contrario su uso es difícil, su tiempo de vida es largo pero menor
que el de los LEDs y también son mucho más costosos.

Conversores de luz-corriente eléctrica:

Este tipo de conversores convierten las señales ópticas que proceden de la


fibra en señales eléctricas. Se limitan a obtener una corriente a partir de la
luz modulada incidente, esta corriente es proporcional a la potencia
recibida, y por tanto, a la forma de onda de la señal moduladora.

Se fundamenta en el fenómeno opuesto a la recombinación, es decir, en la


generación de pares electrón-hueco a partir de los fotones. El tipo más sencillo de
detector corresponde a una unión semiconductora P-N.

Hay dos tipos de detectores: los fotodiodos PIN y los de avalancha APD.

• Detectores PIN: Su nombre viene de que se componen de una unión P-N y


entre esa unión se intercala una nueva zona de material intrínseco (I), la
cual mejora la eficacia del detector.

Se utiliza principalmente en sistemas que permiten una fácil discriminación entre


posibles niveles de luz y en distancias cortas.

• Detectores APD: El mecanismo de estos detectores consiste en lanzar un


electrón a gran velocidad (con la energía suficiente), contra un átomo para
que sea capaz de arrancarle otro electrón.

Estos detectores se pueden clasificar en tres tipos:

• de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90%


trabajando en primera ventana. Requieren alta tensión de alimentación
(200-300V).

162
• de germanio: aptos para trabajar con longitudes de onda comprendidas
entre 1000 y 1300 nm y con un rendimiento del 70%.
• de compuestos de los grupos III y V.

Costo y mantenimiento

El costo de los cables de fibra óptica y la tecnología asociada con su


instalación ha caído drásticamente en los últimos años. Hoy en día, el costo
de construcción de una planta de fibra óptica es comparable con una planta
de cobre. Además, los costos de mantenimiento de una planta de fibra
óptica son muy inferiores a los de una planta de cobre. Sin embargo si el
requerimiento de capacidad de información es bajo la fibra óptica puede ser
de mayor costo.

Las señales se pueden transmitir a través de zonas eléctricamente ruidosas


con muy bajo índice de error y sin interferencias eléctricas.

Las características de transmisión son prácticamente inalterables debido a


los cambios de temperatura, siendo innecesarios y/o simplificadas la
ecualización y compensación de las variaciones en tales propiedades. Se
mantiene estable entre -40 y 200 ºC .

Por tanto dependiendo de los requerimientos de comunicación la fibra


óptica puede constituir el mejor sistema.

APLICACIONES DE LA FIBRA ÓPTICA

Internet:

El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del
ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es
describir el mecanismo de acción, las ventajas y sus desventajas.
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un
computador, un módem y algunos programas, sino también una gran dosis de
paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario
puede pasar varios minutos esperando a que se cargue una página o varias horas
tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para
transportar videos, gráficas, textos y todos los demás elementos que viajan de un
lado a otro en la Red.
Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.

163
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps, impensable en el sistema convencional, en el que la mayoría de usuarios
se conecta a 28.000 0 33.600 bps.

Redes:
La fibra óptica se emplea cada vez más en la comunicación, debido a que las
ondas de luz tienen una frecuencia alta y la capacidad de una señal para
transportar información aumenta con la frecuencia. En las redes de
comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan
muchas redes de fibra para comunicación a larga distancia, que proporcionan
conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de
fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar
un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra
óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km
en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente
desarrollados pueden aumentar todavía más esta distancia.
Otra aplicación cada vez más extendida de la fibra óptica son las redes de área
local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.
Red de área local o LAN, conjunto de ordenadores que pueden compartir datos,
aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red
de área local (LAN, Local Area Network) están separadas por distancias de hasta
unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una
LAN permite la transferencia rápida y eficaz de información en el seno de un grupo
de usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones. Las
PBX proporcionan conexiones informáticas continuas para la transferencia de
datos especializados como transmisiones telefónicas, pero no resultan adecuadas
para emitir y recibir los picos de datos de corta duración empleados por la mayoría
de las aplicaciones informáticas.
Las redes de comunicación públicas están divididas en diferentes niveles;
conforme al funcionamiento, a la capacidad de transmisión, así como al alcance

164
que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior
de una gran ciudad, se tiene primeramente la red interurbana y red provisional, a
continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad
procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente
las líneas de abonado. Los parámetros dictados por la práctica son el tramo de
transmisión que es posible cubrir y la velocidad binaria específica así como el tipo
de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo.

Telefonía:
Con motivo de la normalización de interfaces existentes, se dispone de los
sistemas de transmisión por fibra óptica para los niveles de la red de
telecomunicaciones públicas en una amplia aplicación, contrariamente para
sistemas de la red de abonado (línea de abonado), hay ante todo una serie de
consideraciones.
Para la conexión de un teléfono es completamente suficiente con los conductores
de cobre existentes. Precisamente con la implantación de los servicios en banda
ancha como la videoconferencia, la videotelefonía, etc, la fibra óptica se hará
imprescindible para el abonado. Con el BIGFON (red urbana integrada de
telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias
experiencias en este aspecto. Según la estrategia elaborada, los servicios de
banda ancha posteriormente se ampliarán con los servicios de distribución de
radio y de televisión en una red de telecomunicaciones integrada en banda ancha
(IBFN).
Otras aplicaciones
Las fibras ópticas también se emplean en una amplia variedad de sensores, que
van desde termómetros hasta giroscopios. Su potencial de aplicación en este
campo casi no tiene límites, porque la luz transmitida a través de las fibras es
sensible a numerosos cambios ambientales, entre ellos la presión, las ondas de
sonido y la deformación, además del calor y el movimiento. Las fibras pueden
resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un
cable convencional resultara inútil, impreciso o incluso peligroso. También se han
desarrollado fibras que transmiten rayos láser de alta potencia para cortar y
taladrar materiales.
La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares
que serían difíciles de iluminar de otro modo, como la cavidad perforada por la
turbina de un dentista. También pueden emplearse para transmitir imágenes; en
este caso se utilizan haces de varios miles de fibras muy finas, situadas
exactamente una al lado de la otra y ópticamente pulidas en sus extremos. Cada
punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro
extremo, con lo que se reconstruye la imagen, que puede ser observada a través
de una lupa. La transmisión de imágenes se utiliza mucho en instrumentos
médicos para examinar el interior del cuerpo humano y para efectuar cirugía con

165
láser, en sistemas de reproducción mediante facsímil y fotocomposición, en
gráficos de ordenador o computadora y en muchas otras aplicaciones.

IMAGENES

COMPARACIÓN CON OTROS MEDIOS DE COMUNICACIÓN

Fibra
Características Coaxial
Óptica

Longitud de la Bobina (mts) 2000 230

Peso (kgs/km) 190 7900

Diámetro (mm) 14 58

Radio de Curvatura (cms) 14 55

Distancia entre repetidores


40 1.5
(Kms)

Atenuación (dB / km) para un


0.4 40
Sistema de 56 Mbps

166
Un ramo de fibras ópticas.

Cable submarino de fibra óptica.

167
Tipos de fibra óptica.

Núcleo y revestimiento de
la fibra óptica

168
Tipos de
conectores de la fibra óptica.

CONCLUSIÓN

Este nueva generación de transmisores de comunicación esta saliendo ya


muy avanzada aunque ya desde tiempo atrás ya el hombre era capas de
controlar los emisiones de luz para comunicarse pero era demasiado lenta.

169
Con el tiempo esta técnica se ha ido mejorando y entre más pasa el tiempo
esto irá mejorando.

Por lo que la fibra óptica a superado por completo al cable tradicional ya


que este es deficiente, en cambio la fibra óptica es mucho mas efectiva y no
sufre de estática o interferencia como otras mas ventajas que posee este
tipo de material.

Fibra Óptica IV
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un
computador, un módem y algunos programas, sino también una gran dosis de

170
paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario
puede pasar varios minutos esperando a que se cargue una página o varias horas
tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para
transportar vídeos, gráficas, textos y todos los demás elementos que viajan de un
lado a otro en la Red.
Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.

ORIGEN Y EVOLUCION

La Historia de la comunicación por la fibra óptica es relativamente corta. En 1977,


se instaló un sistema de prueba en Inglaterra; dos años después, se producían ya
cantidades importantes de pedidos de este material.
Antes, en 1959, como derivación de los estudios en física enfocados a la óptica,
se descubrió una nueva utilización de la luz, a la que se denominó rayo láser, que
fue aplicado a las telecomunicaciones con el fin de que los mensajes se
transmitieran a velocidades inusitadas y con amplia cobertura.
Sin embargo esta utilización del láser era muy limitada debido a que no existían
los conductos y canales adecuados para hacer viajar las ondaselectromagnéticas
provocadas por la lluvia de fotones originados en la fuente denominada láser.
Fue entonces cuando los científicos y técnicos especializados en óptica dirigieron
sus esfuerzos a la producción de un ducto o canal, conocido hoy como la fibra
óptica. En 1966 surgió la propuesta de utilizar una guía óptica para la
comunicación.
Esta forma de usar la luz como portadora de información se puede explicar de la
siguiente manera: Se trata en realidad de una onda electromagnética de la misma

171
naturaleza que las ondas de radio, con la única diferencia que la longitud de las
ondas es del orden de micrómetros en lugar de metros o centímetros.
El concepto de las comunicaciones por ondas luminosas ha sido conocido por
muchos años. Sin embargo, no fue hasta mediados de los años setenta que se
publicaron los resultados del trabajoteórico. Estos indicaban que era posible
confiar un haz luminoso en una fibra transparente flexible y proveer así un análogo
óptico de la señalización por alambres electrónicamente.
El problema técnico que se había de resolver para el avance de la fibra óptica
residía en las fibras mismas, que absorbían luz que dificultaba el proceso. Para la
comunicación práctica, la fibra óptica debe transmitir señales luminosas
detestables por muchos kilómetros. El vidrio ordinario tiene un haz luminoso de
pocos metros. Se han desarrollado nuevos vidrios muy puros con transparencias
mucho mayores que la del vidrio ordinario. Estos vidrios empezaron a producirse
a principios de los setenta. Este gran avance dio ímpetu a la industria de fibras
ópticas. Se usaron láseres o diodos emisores de luz como fuente luminosa en los
cables de fibras ópticas. Ambos han de ser miniaturizados para componentes de
sistemas fibro-ópticos, lo que ha exigido considerable labor de investigación y
desarrollo. Los láseres generan luz "coherente" intensa que permanece en un
camino sumamente estrecho. Los diodos emiten luz "incoherente" que ni es fuerte
ni concentrada. Lo que se debe usar depende de los requisitos técnicos para
diseñar el circuito de fibras ópticas dado.

QUE ES LA FIBRA OPTICA

Antes de explicar directamente que es la fibra óptica, es conveniente resaltar


ciertos aspectos básicos de óptica. La luz se mueve a la velocidad de la luz en el
vacío, sin embargo, cuando se propaga por cualquier otro medio, la velocidad es
menor. Así, cuando la luz pasa de propagarse por un cierto medio a propagarse
172
por otro determinado medio, su velocidad cambia, sufriendo además efectos de
reflexión (la luz rebota en el cambio de medio, como la luz reflejada en los
cristales) y de refracción (la luz, además de cambiar el modulo de su velocidad,
cambia de direcciónde propagación, por eso vemos una cuchara como doblada
cuando está en un vaso de agua, la dirección de donde nos viene la luz en la parte
que está al aire no es la misma que la que está metida en el agua). Esto se ve de
mejor forma en el dibujo que aparece a nuestra derecha.
Dependiendo de la velocidad con que se propague la luz en un medio o material,
se le asigna un Índice de Refracción "n", un número deducido de dividir la
velocidad de la luz en el vacío entre la velocidad de la luz en dicho medio. Los
efectos de reflexión y refracción que se dan en la frontera entre dos medios
dependen de sus Índices de Refracción. La ley más importante que voy a utilizar
en este artículo es la siguiente para la refracción:
Esta fórmula nos dice que el índice de refracción del primer medio, por el seno del
ángulo con el que incide la luz en el segundo medio, es igual al índice del segundo
medio por el seno del ángulo con el que sale propagada la luz en el segundo
medio. ¿Y esto para que sirve?, lo único que nos interesa aquí de esta ley es que
dados dos medios con índices n y n', si el haz de luz incide con un ángulo mayor
que un cierto ángulo límite (que se determina con la anterior ecuación) el haz
siempre se reflejara en la superficie de separación entre ambos medios. De esta
forma se puede guiar la luz de forma controlada tal y como se ve en el dibujo de
abajo (que representa de forma esquemática como es la fibra óptica).
Como se ve en el dibujo, tenemos un material envolvente con índice n y un
material interior con índice n'. De forma que se consigue guiar la luz por el cable.
La Fibra Óptica consiste por tanto, en un cable de este tipo en el que los
materialesson mucho más económicos que los convencionales de cobre en
telefonía, de hecho son materiales ópticos mucho más ligeros (fibra óptica, lo dice
el nombre), y además los cables son mucho más finos, de modo que pueden ir
muchos más cables en el espacio donde antes solo iba un cable de cobre.

CONCEPTO DE FIBRA OPTICA

Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales


naturales) o plástico(cristales artificiales), del espesor de un pelo (entre 10 y 300

173
micrones). Llevan mensajes en forma de haces de luz que realmente pasan a
través de ellos de un extremo a otro, donde quiera que el filamento vaya
(incluyendo curvas y esquinas) sin interrupción.
Las fibras ópticas pueden ahora usarse como los alambres de cobre
convencionales, tanto en pequeños ambientes autónomos (tales como sistemas
de procesamiento de datosde aviones), como en grandes redes geográficas (como
los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).
El principio en que se basa la transmisión de luz por la fibra es la reflexión interna
total; la luz que viaja por el centro o núcleo de la fibra incide sobre la superficie
externa con un ángulo mayor que el ángulo crítico, de forma que toda la luz se
refleja sin pérdidas hacia el interior de la fibra. Así, la luz puede transmitirse a
larga distancia reflejándose miles de veces. Para evitar pérdidas por dispersión de
luz debida a impurezas de la superficie de la fibra, el núcleo de la fibra óptica está
recubierto por una capa de vidrio con un índice de refracción mucho menor; las
reflexiones se producen en la superficie que separa la fibra de vidrio y el
recubrimiento.
Concluyo pues diciendo que, la Fibra Óptica consiste en una guía de luz con
materiales mucho mejores que lo anterior en varios aspectos. A esto le podemos
añadir que en la fibra óptica la señal no se atenúa tanto como en el cobre, ya que
en las fibras no se pierde información por refracción o dispersión de luz
consiguiéndose así buenos rendimientos, en el cobre, sin embargo, las señales se
ven atenuadas por la resistenciadel material a la propagación de las ondas
electromagnéticas de forma mayor. Además, se pueden emitir a la vez por el cable
varias señales diferentes con distintas frecuencias para distinguirlas, lo que en
telefonía se llama unir o multiplexar diferentes conversaciones eléctricas. También
se puede usar la fibra óptica para transmitir luz directamente y otro tipo de
ventajas en las que no entraré en detalle.

Fabricación de la Fibra Óptica


Las imágenesaquí muestran como se fabrica la fibra monomodo. Cada etapa de
fabricación esta ilustrada por una corta secuencia filmada.

174
La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio
cilíndrico montados concéntricamente. Se calienta el todo para asegurar la
homogeneidad de la barra de vidrio.

Una barra de vidrio de una longitud de 1 m y de un diámetro de 10 cm permite


obtener por estiramiento una fibra monomodo de una longitud de alrededor de 150
km.
¿ De qué están hechas las Fibras Ópticas ?
La mayoría de las fibras ópticas se hacen de arena o sílice, materia prima
abundante en comparación con el cobre. con unos kilogramos de vidrio pueden
fabricarse aproximadamente 43 kilómetros de fibra óptica. Los dos constituyentes
esenciales de las fibras ópticas son el núcleo y el revestimiento. el núcleo es la
parte más interna de la fibra y es la que guía la luz.
Consiste en una o varias hebras delgadas de vidrio o de plástico con diámetro de
50 a 125 micras. el revestimiento es la parte que rodea y protege al núcleo.
El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda
de plástico u otros materiales que lo resguardan contra la humedad, el
aplastamiento, los roedores, y otros riesgos del entorno.
¿ Cómo funciona la Fibra Óptica ?
En un sistema de transmisión por fibra óptica existe un transmisor que se encarga
de transformar las ondas electromagnéticas en energía óptica o en luminosa, por
ello se le considera el componente activo de este proceso. Una vez que es
transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito
se encuentra un tercer componente al que se le denomina detector óptico o
receptor, cuya misión consiste en transformar la señal luminosa en energía
electromagnética, similar a la señal original. El sistema básico de transmisión se
compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector
óptico, línea de fibra óptica (primer tramo ), empalme, línea de fibra óptica
(segundo tramo), corrector óptico, receptor, amplificador y señal de salida.
En resumen, se puede decir que este proceso de comunicación, la fibra óptica
funciona como medio de transportación de la señal luminosa, generado por el
transmisor de LED’S (diodos emisores de luz) y láser.
Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la
transmisión mediante fibra óptica, debido a que su salida se puede controlar
rápidamente por medio de una corriente de polarización. Además su pequeño

175
tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para
manejarlos son características atractivas.
¿Cuáles son los dispositivos implícitos en este proceso?
Los bloques principales de un enlace de comunicaciones de fibra óptica son:
transmisor, receptor y guía de fibra. El transmisor consiste de una interfase
analógica o digital, un conversor de voltaje a corriente, una fuente de luz y un
adaptador de fuente de luz a fibra. La guía de fibra es un vidrio ultra puro o un
cable plástico. El receptor incluye un dispositivo conector detector de fibra a luz,
un foto detector, un conversor de corriente a voltaje un amplificador de voltaje y
una interfase analógica o digital En un transmisor de fibra óptica la fuente de luz
se puede modular por una señal análoga o digital.
Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales. El
conversor de voltaje a corriente sirve como interfase eléctrica entre los circuitos de
entrada y la fuente de luz.
La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección
láser ILD, la cantidad de luz emitida es proporcional a la corriente de excitación,
por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de
entrada en una corriente que se usa para dirigir la fuente de luz. La conexión de
fuente a fibra es una interfase mecánica cuya función es acoplar la fuente de luz al
cable.
La fibra óptica consiste de un núcleo de fibra de vidrio o plástico, una cubierta y
una capa protectora. El dispositivo de acoplamiento del detector de fibra a luz
también es un acoplador mecánico.
El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de
avalancha). Ambos convierten la energía de luz en corriente. En consecuencia, se
requiere un conversor corriente a voltaje que transforme los cambios en la
corriente del detector a cambios de voltaje en la señal de salida.

COMPONENTES Y TIPOS DE FIBRA ÓPTICA

Componentes de la Fibra Óptica

176
El Núcleo: En sílice, cuarzo fundido o plástico - en el cual se propagan las ondas
ópticas. Diámetro: 50 o 62,5 um para la fibra multimodo y 9um para la fibra
monomodo.
La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con
aditivos que confinan las ondas ópticas en el núcleo.
El revestimiento de protección: por lo general esta fabricado en plástico y
asegura la protección mecánica de la fibra.

Tipos de Fibra Óptica:

Fibra Monomodo
Potencialmente, esta es la fibra que ofrece la mayor capacidad de transportede
información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores
flujos se consiguen con esta fibra, pero también es la más compleja de implantar.
El dibujo muestraque sólo pueden ser transmitidos los rayos que tienen una
trayectoria que sigue el eje de la fibra, por lo que se ha ganado el nombre de
"monomodo" (modo de propagación, o camino del haz luminoso, único). Son fibras
que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud
de onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el
núcleo está constituido de un material cuyo índice de refracción es muy diferente
al de la cubierta, entonces se habla de fibras monomodo de índice escalonado.
Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las
fibras monomodo, ya que sus pequeñas dimensiones implican un manejo delicado
y entrañan dificultades de conexión que aún se dominan mal.

Fibra Multimodo de Índice Gradiante Gradual:


Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que
llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de
refracción en el interior del núcleo no es único y decrece cuando se desplaza del
núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el
eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la
dispersión entre los diferentes modos de propagación a través del núcleo de la
fibra.
La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro
del núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar
otros tipos de fibras:
Multimodo de índice escalonado 100/140 mm.
Multimodo de índice de gradiente gradual 50/125 m m.

Fibra Multimodo de índice escalonado:

177
Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con
una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km.
Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas
fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción
es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo
hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su
nombre de índice escalonado.

¿ Qué tipo de conectores usa ?


Con la Fibra Óptica se puede usar Acopladores y Conectores:

Acopladores:

Un acoplador es básicamente la transición mecánica necesaria para poderdar


continuidad al paso de luz del extremo conectorizado de un cable de fibra óptica a
otro. Pueden ser provistos también acopladores de tipo "Híbridos", que permiten
acoplar dos diseños distintos de conector, uno de cada lado, condicionado a la
coincidencia del perfil del pulido.

Conectores:

1.- Se recomienda el conector 568SC pues este mantiene la polaridad. La posición


correspondiente a los dos conectores del 568SC en su adaptador, se denominan
como A y B. Esto ayuda a mantener la polaridad correcta en el sistema de
cableado y permite al adaptador a implementar polaridad inversa acertada de
pares entre los conectores.
2.- Sistemas con conectores BFOC/2.5 y adaptadores (Tipo ST) instalados pueden
seguir siendo utilizados en plataformas actuales y futuras.
Identificación: Conectores y adaptadores Multimodo se representan por el color
marfil Conectores y adaptadores Monomodo se representan por el color azul.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Para la terminación de una fibra óptica es necesario utilizar conectores o
empalmar Pigtails (cables armados con conector) por medio de fusión. Para el
caso de conectorización se encuentran distintos tipos de conectores dependiendo
el uso y l normativa mundial usada y sus características.
ST conector de Fibra para Monomodo o Multimodo con uso habitual en Redes de
Datos y equipos de Networking locales en forma Multimodo.

178
FC conector de Fibra Óptica para Monomodo o Multimodo con uso habitual en
telefonía y CATV en formato Monomodo y Monomodo Angular.-
Para ver el gráfico seleccione la opción "Descargar" del menú superior
SC conector de Fibra óptica para Monomodo y Multimodo con uso habitual en
telefonía en formato monomodo.

CARACTERÍSTICAS DE LA FIBRA ÓPTICA

Características Generales:
Coberturas más resistentes:

La cubierta especial es extruida a alta presión directamente sobre el mismo núcleo


del cable, resultando en que la superficie interna de la cubierta del cable tenga
arista helicoidales que se aseguran con los subcables.
La cubierta contiene 25% más material que las cubiertas convencionales.
Uso Dual (interior y exterior):
La resistencia al agua, hongos y emisiones ultra violeta; la cubierta resistente;
buffer de 900 µm; fibras ópticas probadas bajo 100 kpsi; y funcionamiento
ambiental extendida; contribuyen a una mayor confiabilidad durante el tiempo de
vida.
Mayor protección en lugares húmedos:
En cables de tubo holgado rellenos de gel, el gel dentro de la cubierta se asienta
dejando canales que permitan que el agua migre hacia los puntos de terminación.
El agua puede acumularse en pequeñas piscinas en los vacíos, y cuando la
delicada fibra óptica es expuesta, la vida útil es recortada por los efectos dañinos
del agua en contacto. combaten la intrusión de humedad con múltiples capas de
protección alrededor de la fibra óptica. El resultado es una mayor vida útil, mayor
confiabilidad especialmente ambientes húmedos.
Protección Anti-inflamable:

179
Los nuevos avances en protección anti-inflamable hace que disminuya el riesgo
que suponen las instalaciones antiguas de Fibra Óptica que contenían cubiertas
de material inflamable y relleno de gel que también es inflamable.
Estos materiales no pueden cumplir con los requerimientos de las normasde
instalación, presentan un riesgo adicional, y pueden además crear un reto costoso
y difícil en la restauración después de un incendio. Con los nuevos avances en
este campo y en el diseño de estos cables se eliminan estos riesgos y se cumple
con las normas de instalación.
Empaquetado de alta densidad:
Con el máximo número de fibras en el menor diámetro posible se consigue una
más rápida y más fácil instalación, donde el cable debe enfrentar dobleces agudos
y espacios estrechos. Se ha llegado a conseguir un cable con 72 fibras de
construcción súper densa cuyo diámetro es un 50% menor al de los cables
convencionales.

Características Técnicas:

La fibra es un medio de transmisión de información analógica o digital. Las ondas


electromagnéticas viajan en el espacio a la velocidad de la luz.
Básicamente, la fibra óptica está compuesta por una región cilíndrica, por la cual
se efectúa la propagación, denominada núcleo y de una zona externa al núcleo y
coaxial con él, totalmente necesaria para que se produzca el mecanismo de
propagación, y que se denomina envoltura o revestimiento.
La capacidad de transmisión de información que tiene una fibra óptica depende de
tres características fundamentales:
a) Del diseño geométrico de la fibra.
b) De las propiedades de los materiales empleados en su elaboración. (diseño
óptico)
c) De la anchura espectral de la fuente de luz utilizada. Cuanto mayor sea esta
anchura, menor será la capacidad de transmisión de información de esa fibra.
Presenta dimensiones más reducidas que los medios preexistentes. Un cable de
10 fibras tiene un diámetro aproximado de 8 o 10 mm. y proporciona la misma o
más información que un coaxial de 10 tubos.
El peso del cable de fibras ópticas es muy inferior al de los cables metálicos,
redundando en su facilidad de instalación.
El sílice tiene un amplio margen de funcionamiento en lo referente a temperatura,
pues funde a 600C. La F.O. presenta un funcionamiento uniforme desde -550 C a
+125C sin degradación de sus características.

180
Características Mecánicas:

La F.O. como elemento resistente dispuesto en el interior de un cable formado por


agregación de varias de ellas, no tiene características adecuadas de tracción que
permitan su utilización directa.
Por otra parte, en la mayoría de los casos las instalaciones se encuentran a la
intemperie o en ambientes agresivos que pueden afectar al núcleo.
La investigación sobre componentes optoelectrónicos y fibras ópticas han traído
consigo un sensible aumento de la calidad de funcionamiento de los sistemas. Es
necesario disponer de cubiertas y protecciones de calidad capaces de proteger a
la fibra. Para alcanzar tal objetivohay que tener en cuenta su sensibilidad a la
curvatura y microcurvatura, la resistencia mecánica y las características de
envejecimiento.
Las microcurvaturas y tensiones se determinan por medio de los ensayos de:
Tensión: cuando se estira o contrae el cable se pueden causar fuerzas que
rebasen el porcentaje de elasticidad de la fibra óptica y se rompa o formen
microcurvaturas.
Compresión: es el esfuerzo transversal.
Impacto: se debe principalmente a las protecciones del cable óptico.
Enrollamiento: existe siempre un límite para el ángulo de curvatura pero, la
existencia del forro impide que se sobrepase.
Torsión:es el esfuerzo lateral y de tracción.
Limitaciones Térmicas: estas limitaciones difieren en alto grado según se trate
de fibras realizadas a partir del vidrio o a partir de materiales sintéticos.
Otro objetivo es minimizar las pérdidas adicionales por cableado y las variaciones
de la atenuación con la temperatura. Tales diferencias se deben a diseños
calculados a veces para mejorar otras propiedades, como la resistencia mecánica,
la calidad de empalme, el coeficiente de relleno (número de fibras por mm2) o el
costo de producción.

VENTAJAS Y DESVENTAJAS DE LA FIBRA ÓPTICA

181
VENTAJAS
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps.
Acceso ilimitado y continuo las 24 horas del día, sin congestiones.
Video y sonido en tiempo real.
Fácil de instalar.
Es inmune al ruido y las interferencias, como ocurre cuando un alambre telefónico
pierde parte de su señal a otra.
Las fibras no pierden luz, por lo que la transmisión es también segura y no puede
ser perturbada.
Carencia de señales eléctricas en la fibra, por lo que no pueden dar sacudidas ni
otros peligros. Son convenientes para trabajar en ambientes explosivos.
Presenta dimensiones más reducidas que los medios preexistentes.
El peso del cable de fibras ópticas es muy inferior al de los cables metálicos,
capaz de llevar un gran número de señales.
La materia prima para fabricarla es abundante en la naturaleza.
Compatibilidad con la tecnología digital.

DESVENTAJAS
Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las
cuales ya esté instalada la red de fibra óptica.
El costo es alto en la conexión de fibra óptica, las empresas no cobran por tiempo
de utilización sino por cantidad de información transferida al computador, que se
mide en megabytes.
El costo de instalación es elevado.
Fragilidad de las fibras.
Disponibilidad limitada de conectores.
Dificultad de reparar un cable de fibras roto en el campo.

APLICACIONES

Internet

182
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del
ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es
describir el mecanismo de acción, las ventajas y sus desventajas.
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un
computador, un módem y algunos programas, sino también una gran dosis de
paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario
puede pasar varios minutos esperando a que se cargue una página o varias horas
tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para
transportar videos, gráficas, textos y todos los demás elementos que viajan de un
lado a otro en la Red.
Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps, impensable en el sistema convencional, en el que la mayoría de usuarios
se conecta a 28.000 0 33.600 bps.

Redes
La fibra óptica se emplea cada vez más en la comunicación, debido a que las
ondas de luz tienen una frecuencia alta y la capacidad de una señal para
transportar información aumenta con la frecuencia. En las redes de
comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan
muchas redes de fibra para comunicación a larga distancia, que proporcionan
conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de
fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar
un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra
óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km
en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente
desarrollados pueden aumentar todavía más esta distancia.
Otra aplicación cada vez más extendida de la fibra óptica son las redes de área
local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.
Red de área local o LAN, conjunto de ordenadores que pueden compartir datos,
aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red
de área local (LAN, Local Area Network) están separadas por distancias de hasta
unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una

183
LAN permite la transferencia rápida y eficaz de información en el seno de un grupo
de usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones. Las
PBX proporcionan conexiones informáticas continuas para la transferencia de
datos especializados como transmisiones telefónicas, pero no resultan adecuadas
para emitir y recibir los picos de datos de corta duración empleados por la mayoría
de las aplicaciones informáticas.
Las redes de comunicación públicas están divididas en diferentes niveles;
conforme al funcionamiento, a la capacidad de transmisión, así como al alcance
que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior
de una gran ciudad, se tiene primeramente la red interurbana y red provicional, a
continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad
procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente
las líneas de abonado. Los parámetros dictados por la práctica son el tramo de
transmisión que es posible cubrir y la velocidad binaria específica así como el tipo
de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo.

Telefonía
Con motivo de la normalización de interfaces existentes, se dispone de los
sistemas de transmisión por fibra óptica para los niveles de la red de
telecomunicaciones públicas en una amplia aplicación, contrariamente para
sistemas de la red de abonado (línea de abonado), hay ante todo una serie de
consideraciones.
Para la conexión de un teléfono es completamente suficiente con los conductores
de cobre existentes. Precisamente con la implantación de los servicios en banda
ancha como la videoconferencia, la videotelefonía, etc, la fibra óptica se hará
imprescindible para el abonado. Con el BIGFON (red urbana integrada de
telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias
experiencias en este aspecto. Según la estrategia elaborada, los servicios de
banda ancha posteriormente se ampliarán con los servicios de distribuciónde radio
y de televisión en una red de telecomunicaciones integrada en banda ancha
(IBFN).

Otras aplicaciones
Las fibras ópticas también se emplean en una amplia variedad de sensores, que
van desde termómetros hasta giroscopios. Su potencial de aplicación en este
campo casi no tiene límites, porque la luz transmitida a través de las fibras es

184
sensible a numerosos cambios ambientales, entre ellos la presión, las ondas de
sonido y la deformación, además del calor y el movimiento. Las fibras pueden
resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un
cable convencional resultara inútil, impreciso o incluso peligroso. También se han
desarrollado fibras que transmiten rayos láser de alta potencia para cortar y
taladrar materiales.
La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares
que serían difíciles de iluminar de otro modo, como la cavidad perforada por la
turbina de un dentista. También pueden emplearse para transmitir imágenes; en
este caso se utilizan haces de varios miles de fibras muy finas, situadas
exactamente una al lado de la otra y ópticamente pulidas en sus extremos. Cada
punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro
extremo, con lo que se reconstruye la imagen, que puede ser observada a través
de una lupa. La transmisión de imágenes se utiliza mucho en instrumentos
médicos para examinar el interior del cuerpo humano y para efectuar cirugía con
láser, en sistemas de reproducción mediante facsímil y fotocomposición, en
gráficos de ordenador o computadora y en muchas otras aplicaciones.
SuperCable : es una empresa transnacional de servicios de telecomunicaciones
en voz, video y data que ha ofrecido televisión por cable en Venezuela desde
comienzo de los años 90. Con su tecnología de transmisión de datos en fibra
óptica, comunicaciones digitales y compresión de datos, se encuentra en
capacidad de incursionar en el vasto mercado de las telecomunicaciones.
Son los únicos capaces de brindar tecnología de punta, la cobertura geográfica
más amplia, la mayor eficiencia de la inversión publicitaria, y servicio
personalizado.
La totalidad de la red de SuperCable es de fibra óptica que permite la transmisión
de banda ancha. El sector de Banda ancha de Motorola, empresa líder a nivel
global en soluciones integrales de comunicaciones y soluciones embebidas, es el
socio tecnológico de Supercable en el desarrollo de su sistema de televisión por
cable, el que será transformado en un paquete de servicios interactivos en los
próximos años. El acuerdo incluye la implementación de una plataforma de cable
digital interactivo en Bogotá y en Caracas.
Motorola socio tecnológico de Supercable
El anuncio ha despertado el interés del sector de negocios de la televisión paga en
la región. Supercable inició operaciones en Ecuador, luego se instaló en
Venezuela y el año pasado los accionistas de la empresas tomaron la
determinación de participar a nivel panregional. El primer paso es el lanzamiento
en el mercado colombiano con planes de añadir otro país este año. Instalaron su
casa matrizen el sur de La Florida, en Estados Unidos.
¿De cuánto es la inversión que están haciendo en Colombia?
La primera etapa del proyecto que estamos contemplando, es de 120 millones de
dólares. Nuestros estudios de mercadeo en Bogotá revelaron que hay deficiencias
en casi todas las plataformas de televisión por cable: en calidad de señal y

185
servicios. Necesidades en aspectos de Internet y sus precios. Supercable tomó
esto como una gran oportunidad y por eso partimos en redes avanzadas, fibra
óptica y realización de la convergencia de servicios. Estamos partiendo de cero
para atender a un mercado de gran magnitud y de grandes carencias. ¿Cómo
afrontaran la piratería y los problemas de tarifas?
Supercable está haciendo en Colombia una de las inversionesmás importantes en
televisión de pago y la reacción incluso de sus competidores ha sido muy positiva,
ya que es un paso adelante que el país dará, justamente en uno de sus peores
momentos. Esa es la esperanza de empresarios y ejecutivos de esta industria y,
principalmente, la de los usuarios.

Califican a la fibra óptica de la CFE como


subsidiada
CIUDAD DE MÉXICO (31/MAY/2010).- De adjudicarse el par de hilos de fibra
óptica oscura de la Comisión Federal de Electricidad (CFE), el consorcio formado
por Grupo Televisa, Telefónica y Megacable pagará 97 dólares por cada kilómetro
de la red, precio “realmente subsidiado en comparación al costo que tendría
tender una red equivalente”, dijo Ramiro Tovar Landa, consultor en regulación y
competencia económica.

El también académico del ITAM señaló que era de esperarse que ante la ausencia
de más competidores en este proceso, la adjudicación se hará al precio mínimo,
es decir, 884 millones de pesos, monto que incluye el 3% por licitar las tres rutas
conjuntamente de CFE. “A una paridad de 13 pesos por dólar, da 68 millones de
dólares, y ese es el precio que van a pagar por tener una red troncal nacional de
más de 20 mil kilómetros de fibra. Nada despreciable”.

Esta inversión le dará al consorcio una capacidad similar de transporte para igual
distancia a la de la red de Telmex, dijo el experto.

Tovar Landa mencionó que el hecho de que Televisa y Telefónica sean también
los participantes más importantes en la licitación de espectro, hace que, tanto
estas frecuencias, como la fibra óptica, sean utilizados en forma complementaria.

El espectro les otorgará la cobertura y el ancho de banda necesarias para el

186
transporte interurbano de servicios convergentes (voz, video, internet,
aplicaciones) y la fibra les dará la complementariedad de incorporar el servicio
móvil a la oferta triple play que ofrecen actualmente las empresas Televisa y
Megacable, lo cual hace posible que tales grupos ofrezcan en exclusiva servicios
hasta de cuádruple play.

“No sólo se profundiza la exclusividad de los operadores de cable, sino que en la


operación de ambos tipos de infraestructura se facilita la colusión de agentes que
deberían de ser competidores entre sí, lo que es contrario a la Ley Federal de
Competencia”, afirmó.

Irene Levy, abogada especialista en telecomunicaciones, dijo que esto confirma la


tendencia a la creación de monopolios y duopolios o, en el mejor de los casos,
oligopolios, pero el problema es que no hay visión de Estado en la planeación y
rectoría de las telecom. “La mejor respuesta del gobierno al monopolio de Telmex
ha sido fortalecer a otro monopolio”, señaló.

El costo por kilómetro de red de fibra óptica será de 97 dólares. ESPECIAL

o Las posturas están definidas

El Gobierno ha favorecido otra empresa fuerte para ponerla a competir con


Telmex, asegura especialista

En la madrugada del domingo 11 de octubre el presidente de México Felipe Calderón de


manera unilateral decretó la desaparición de la Compañía de Luz y Fuerza del Centro, la
paraestatal encargada de surtir energía eléctrica al país.

Los argumentos oficiales fueron que la empresa estatal era ineficiente, que manejaba
números rojos, que representaba una carga para el país y que no había otra solución.
También se adujeron problemas técnicos. Sin embargo quien en verdad era el objetivo a
destruir era el Sindicato Mexicano de Electricistas quien siempre se opuso las políticas

187
neoliberales y privatizadoras de los gobiernos en turno.

Al SME, que tiene más de noventa años de vida, se le acusa de corrupto, ineficiente,
parasitario y de haberse colmado de privilegios.
Una enorme campaña de prensa se ha encargado de satanizar a los electricistas y de
azuzar a la opinión pública en contra de ellos. Las viejas afrentas a los usuarios están a
flor de piel y les pasan la factura no solo a Luz y Fuerza sino a todos los trabajadores,
aunque ellos no hayan establecido las tarifas ni sean responsables de muchas de las
corruptelas que se dieron en la paraestatal.

La guerra por la fibra óptica, un dilema nacional


Lo que realmente está detrás de la desaparición de Luz y Fuerza y de su sindicato es una
gigantesca red de fibra óptica; ésta es un tipo especial de cable que puede llevar y traer
una enorme cantidad de datos en video, imagen y audio. La red de fibra óptica cuenta con
treinta cables de los que solo se usan 6 para dar servicio de energía eléctrica. Los 24
restantes son los que se pueden usar para dar el servicio del llamado “triple play” que
consiste en televisión por cable, internet, y telefonía. La red de fibra óptica, es propiedad
de la nación y el Sindicato Mexicano de Electricistas pidió desde hace mucho que se le
diera la concesión para dar el servicio, sin embargo, el presidente Felipe Calderón, según
los representantes del sindicato de electricistas ya tenía en mente otorgarla a una
compañía privada española y para colmo, malbaratarla.

Fibra oscura es la denominación popular que se atribuye a los circuitos de fibra


óptica, que han sido desplegados por algún operador de telecomunicaciones, pero no
están siendo utilizados. La conectividad por la fibra se comercializa en bruto, de
manera que es el propio cliente quien aplica la tecnología de transmisión que más
se adecúa a sus necesidades, mejorando así el rendimiento obtenido puesto que
se evitan conversiones innecesarias de protocolos.

MOTIVACION
Cuando un operador de telecomunicaciones despliega su red de fibra óptica tiene
que hacer una gran inversión para construir las canalizaciones y tender los cables
de fibra óptica. Si en un futuro fuese necesario ampliar la capacidad de una red ya
existente, sería necesario reabrir las zanjas y tender cables adicionales. Dado lo
costoso de esta operación, resulta más atractivo sobredimensionar la red inicial
instalando más cables de fibra óptica de los que son necesarios.

188
Los cables de fibra pueden contener diferentes números de fibras:
8,16,32,64,128,256 etc. Debido al sobredimensionamiento, no todas las fibras se
emplean. Los que quedan sin uso reciben el nombre de fibra oscura.

En último término, algunos de estos cables nunca llegan a ser utilizados, es decir,
nunca se transmite luz a través de ellos. De ahí la denominación de fibra oscura

INTERES COMERCIAL

Existen grandes compañías que disponen de diversas sedes alejadas entre sí por
distancias considerables, y que tienen necesidad de grandes anchos de banda
para intercomunicar dichas sedes. Las operadoras de telecomunicaciones pueden
cubrir estas necesidades concretas alquilando sus circuitos de fibra oscura a estas
compañías.

La fibra oscura es una opción cara de telecomunicaciones, pero existen casos en


los que resulta rentable. Por ejemplo, grandes bancos y organizaciones
gubernamentales usan la fibra oscura para interconectar sus centros de procesos de datos
con los correspondientes centros de respaldo.

VENTAJA

La fibra oscura sirve para que los operadores ahorren ante previsibles ampliaciones de la
capacidad de conexión, ya que no tendrían que abrir zanjas de nuevo. Pero si bien pudo
ser una medida economizadora, se ha convertido en un negocio. El motivo es que sus
dueños pueden vender esa fibra sobrante a otras empresas, con una particularidad: éstas
deben instalar sus propios equipos para operar a través de la fibra y gestionar la
comunicación de datos.

La emplean para conectar sedes de empresas, algo que se puede realizar con mucha
agilidad gracias los grandes anchos de banda que garantiza esta tecnología, o enlazar
con centros de datos para realizar copias de seguridad constantes de toda la información.
También se utilizan para crear redes auxiliares que se ofrecen a los competidores para
evitar colapsos cuando las redes de estos van sobrecargadas.

Es un intercambio denominao "peering", que implica que un operador deja sus redes a
otro que tenga sobrecarga, a cambio de que éste le devuelva el favor cuando se estime
oportuno. Este tipo de negocio reduce la necesidad de realizar nuevas inversiones en
zonas donde un operador todavía no ha llegado o tiene poca estructura de red, y abarata
la extensión a zonas rurales.

La fibra oscura puede ser uno de los factores que haga posible la extensión de Internet
como derecho universal, que prometió el Ministerio de Industria para 2011. Esto supondrá
que todos los ciudadanos tendrán cerca una conexión de banda ancha, de al menos un
megabit por segundo, aunque vivan en zonas rurales de difícil acceso para los
operadores.

GOOGLE LA UTILIZA

189
Google es una de las empresas que más datos transfiere en Internet, tanto para rastrear
sin descanso los millones de sitios web que pueblan la Red como para proporcionar
información a sus usuarios y promover sus diferentes aplicaciones on line. Por este
motivo, se ha dedicado a comprar fibra oscura para interconectar sus centros de datos,
realizar copias de seguridad de los resultados que proporciona su buscador y, de paso,
ahorrar costes.

También utiliza esta red de fibra oscura para enviar con un menor coste la ingente
cantidad de vídeos que se reproducen a diario a través de YouTube, epicentro audiovisual
en Internet, gracias a intercambios de tráfico que realiza con los proveedores de acceso.
En un estudio sobre el tráfico de datos en Internet, se ha constatado que unas decenas de
sitios, como Google (incluido YouTube), Facebook y Microsoft, entre otros, monopolizan
hasta un 30% del intercambio de datos global. Por esta razón, cuanta más infraestructura
de red tengan estos sitios, mayores ahorros de costes conseguirán.

LAS ADMINISTRACIONES

Aparte de empresas privadas, la fibra oscura también interesa a las administraciones


públicas. El Ministerio de Ciencia e Innovación renovará con fibra oscura la RedIRIS, que
interconecta los centros de datos de universidades e institutos de investigación. El nuevo
nombre de la misma, que estará terminada en 2011, será RedIRIS Nova y se estima que
tendrá anchos de banda de 100 gigabits por segundo.

En la actualidad, el Principado de Asturias ya disfruta de la conexión de fibra hasta el


hogar en varios municipios gracias a la red Asturcon, que gestiona el GIT (Gestión de
Infraestructuras de Telecomunicaciones de Asturias), un organismo público que apuesta
por la adopción de la fibra óptica.

El propósito es llevar la fibra a todos los municipios que tengan más de 1.000 habitantes.
Por otra parte, en Cataluña se han unido redes de fibra oscura independientes con el
objetivo de crear redes locales públicas que permitan usos avanzados, desde televisión
por IP hasta los más diversos trámites con las administraciones públicas.

FIBRA PARA USOS AVANZADOS

La fibra, tanto oscura como convencional, tiene tal caudal de ancho de banda, que
aplicaciones como la videoconferencia o la televisión en alta definición se pueden producir
con una calidad inédita para la mayor parte de los usuarios de Internet en España. Se
pasaría de la asimetría actual de las conexiones ADSL, que penalizan la carga de datos, a
una simetría con anchos de banda a años luz de los actuales, como un gigabit por
segundo, que ya se comercializa en Portugal.

190
CONCLUSIONES
Después de efectuada la presente investigación se obtienen las siguientes
conclusiones:
1.- La historia de la comunicación a través de la Fibra Óptica revolucionó el mundo
de la información, con aplicaciones, en todos los órdenes de la vida moderna, lo
que constituyó un adelanto tecnológico altamente efectivo.
2.- El funcionamiento de la Fibra Óptica es un complejo proceso con diversas
operaciones interconectadas que logran que la Fibra Óptica funcione como medio
de transportación de la señal luminosa, generando todo ello por el transmisor
LED’S y láser.
3.- Los dispositivos implícitos en este complejo proceso son: transmisor, receptor y
guía de fibra, los cuales realizan una importante función técnica, integrados como
un todo a la eficaz realización del proceso.
4.- La Fibra Óptica tiene como ventajas indiscutibles, la alta velocidad al navegar
por internet, así como su inmunidad al ruido e interferencia, reducidas
dimensiones y peso, y sobre todo su compatibilidad con la tecnología digital.

191
Grandes Científicos
Leonardo da Vinci.

Nació en 1452 en la villa toscana de Vinci, hijo natural de una campesina, Caterina
(que se casó poco después con un artesano de la región), y de Ser Piero, un rico
notario florentino. Italia era entonces un mosaico de ciudades-estados como
Florencia, pequeñas repúblicas como Venecia y feudos bajo el poder de los
príncipes o el papa. El Imperio romano de Oriente cayó en 1453 ante los turcos y
apenas sobrevivía aún, muy reducido, el Sacro Imperio Romano Germánico; era
una época violenta en la que, sin embargo, el esplendor de las cortes no tenía
límites.

A pesar de que su padre se casó cuatro veces, sólo tuvo hijos (once en total, con
los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos
últimos matrimonios, por lo que Leonardo se crió como hijo único. Su enorme
curiosidad se manifestó tempranamente, dibujando animales mitológicos de su
propia invención, inspirados en una profunda observación del entorno natural en el
que creció. Giorgio Vasari, su primer biógrafo, relata cómo el genio de Leonardo,
siendo aún un niño, creó un escudo de Medusa con dragones que aterrorizó a su
padre cuando se topó con él por sorpresa.

Juventud y descubrimientos técnicos

Era un joven agraciado y vigoroso que había heredado la fuerza física de la estirpe
de su padre; es muy probable que fuera el modelo para la cabeza de San Miguel
en el cuadro de Verrocchio Tobías y el ángel, de finos y bellos rasgos. Por lo
demás, su gran imaginación creativa y la temprana maestría de su pincel, no
tardaron en superar a las de su maestro: en el Bautismo de Cristo, por ejemplo,
donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la
brusquedad del Bautista hecho por Verrocchio.

El joven discípulo utilizaba allí por vez primera una novedosa técnica recién
llegada de los Países Bajos: la pintura al óleo, que permitía una mayor blandura
en el trazo y una más profunda penetración en la tela. Además de los
extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro,
sus grandes obras de este período son un San Jerónimo y el gran panel La
adoración de los Magos (ambos inconclusos), notables por el innovador
dinamismo otorgado por la maestría en los contrastes de rasgos, en la
composición geométrica de la escena y en el extraordinario manejo de la técnica
del claroscuro.

Primer período milanés

En 1482 se presentó ante el poderoso Ludovico Sforza, el hombre fuerte de Milán


por entonces, en cuya corte se quedaría diecisiete años como «pictor et

192
ingenierius ducalis». Aunque su ocupación principal era la de ingeniero militar, sus
proyectos (casi todos irrealizados) abarcaron la hidráulica, la mecánica (con
innovadores sistemas de palancas para multiplicar la fuerza humana), la
arquitectura, además de la pintura y la escultura. Fue su período de pleno
desarrollo; siguiendo las bases matemáticas fijadas por León Bautista Alberti y
Piero della Francesca, Leonardo comenzó sus apuntes para la formulación de una
ciencia de la pintura, al tiempo que se ejercitaba en la ejecución y fabricación de
laúdes.

El regreso a Florencia

A finales de 1499 los franceses entraron en Milán; Ludovico el Moro perdió el


poder. Leonardo abandonó la ciudad acompañado de Pacioli y tras una breve
estancia en casa de su admiradora la marquesa Isabel de Este, en Mantua, llegó a
Venecia. Acosada por los turcos, que ya dominaban la costa dálmata y
amenazaban con tomar el Friuli, la Signoria contrató a Leonardo como ingeniero
militar.

En pocas semanas proyectó una cantidad de artefactos cuya realización concreta


no se haría sino, en muchos casos, hasta los siglos XIX o XX, desde una suerte
de submarino individual, con un tubo de cuero para tomar aire destinado a unos
soldados que, armados con taladro, atacarían las embarcaciones por debajo,
hasta grandes piezas de artillería con proyectiles de acción retardada y barcos con
doble pared para resistir las embestidas. Los costes desorbitados, la falta de
tiempo y, quizá, las excesivas (para los venecianos) pretensiones de Leonardo en
el reparto del botín, hicieron que las geniales ideas no pasaran de bocetos. En
abril de 1500 Da Vinci entró en Florencia, tras veinte años de ausencia.

César Borgia, hijo del papa Alejandro VI, hombre ambicioso y temido, descrito por
el propio Maquiavelo como «modelo insuperable» de intrigador político y déspota,
dominaba Florencia y se preparaba para lanzarse a la conquista de nuevos
territorios. Leonardo, nuevamente como ingeniero militar, recorrió los terrenos del
norte, trazando mapas, calculando distancias precisas, proyectando puentes y
nuevas armas de artillería. Pero poco después el condottiero cayó en desgracia:
sus capitanes se sublevaron, su padre fue envenenado y él mismo cayó
gravemente enfermo. En 1503 Leonardo volvió a la ciudad, que por entonces se
encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el río
Arno por detrás de la ciudad enemiga cercándola y contemplando la construcción
de un canal como vía navegable que comunicase Florencia con el mar: el proyecto
sólo se concretó en los extraordinarios mapas de su autor.

De nuevo en Milán: de 1506 a 1513

El interés de Leonardo por los estudios científicos era cada vez más intenso:
asistía a disecciones de cadáveres, sobre los que confeccionaba dibujos para
describir la estructura y funcionamiento del cuerpo humano. Al mismo tiempo
hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba
193
escribir un tratado), en la convicción de que también el hombre podría volar si
llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este
período se han visto como claros precursores del moderno helicóptero).

Ultimos años: Roma y Francia

El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio, quien
pretendía retomar para sí el monumental proyecto del «gran caballo»,
convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San
Nazaro Magiore; pero tampoco esta vez el monumento ecuestre pasó de los
bocetos, lo que supuso para Leonardo su segunda frustración como escultor. En
1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán;
junto a Melzi y Salai marchó a Roma, donde se albergó en el belvedere de Giulano
de Médicis, hermano del nuevo papa León X.

En el Vaticano vivió una etapa de tranquilidad, con un sueldo digno y sin grandes
obligaciones: dibujó mapas, estudió antiguos monumentos romanos, proyectó una
gran residencia para los Médicis en Florencia y, además, trabó una estrecha
amistad con el gran arquitecto Bramante, hasta la muerte de éste en 1514. Pero
en 1516, muerto su protector Giulano de Médicis, Leonardo dejó Italia
definitivamente, para pasar los tres últimos años de su vida en el palacio de Cloux
como «primer pintor, arquitecto y mecánico del rey».

Leonardo da Vinci, un genio de las máquinas

194
Los descubrimientos de Leonardo no se difundieron en su época debido a
que suponían un avance tan grande que los hacía indescifrables, hasta tal
punto que, de haberse publicado, hubieran revolucionado la ciencia del siglo
XVI.

Esta considerado como uno de los creadores de la hidrodinámica y como el


precursor de la ciencia moderna. Se ocupó del estudio de la mecánica
("paraíso de la ciencia matemática") y realizó investigaciones sobre óptica,
matemáticas, meteorología, geología, astronomía, anatomía y naturalismo
(ahora biología). Sus investigaciones científicas anticiparon muchos de los
avances de la ciencia moderna.

Mecánica

Aceptó las nociones fundamentales de la estática aristotélica y el concepto


medieval del "ímpetu". Estudió el movimiento de los proyectiles, la caída libre
de los cuerpos, el choque y la percusión, tratando nociones tales como la
fuerza y el tiempo, que consideraba infinitos, y el peso, que concebía como
finito.

Dividió el movimiento en cuatro tipos, de acuerdo al método geométrico


que requería su tratamiento, el directo (en línea recta), curvo, circular y
helicoidal.

Una constante en su obra fueron los engranajes. Puede decirse que toda
la mecánica actual, desde la relojería hasta las modernas cajas de
cambios, está basada en los estudios de Leonardo sobre las ruedas
dentadas.

Hidráulica

Se lo considera uno de los inventores de la hidráulica. En Florencia,


proyectó la construcción de un canal navegable que, pasando por distintas
localidades, uniese la ciudad con el mar Tirreno.

195
En los tres años de su residencia en Roma estudió el saneamiento de
los pantanos. Su programa para la canalización de los ríos todavía
posee valor práctico.

Probablemente descubrió el hidrómetro, que él denominaba


higroscopio. El mismo serviría, según lo dice el propio Leonardo, "para
ver cuándo se descompone el tiempo", porque revelaría la mayor
humedad del aire al aumentar el peso del algodón de la balanza.

Biología
Los estudios anatómicos de Leonardo le permitieron llegar a importantes
conclusiones e introducir el concepto de homología, o similitud de diferentes
partes del hombre con la de otros animales, sugiriendo un origen común.
Esto lo dedujo al observar que la disposición de las articulaciones y de los
huesos de las patas de los caballos era similar a la de las piernas humanas.

También estudió el mundo vegetal, observando la disposición regular de las


hojas en las ramas y la circulación de la linfa. Descubrió que el número de
anillos del tronco permite determinar la edad del árbol.

Ciencias del espacio

Como astrónomo, fue precursor del modelo de Copérnico (aceptaba la


inmovilidad del Sol), aunque nunca llegó a asumir completamente el
heliocentrismo.

En uno de sus trabajos sobre Astronomía resolvió el enigma del brillo


de la Tierra (imagen fantasmal de la luna llena que se forma entre los
cuernos de la creciente) que se puede observar cuando hay luna
creciente en el horizonte al ponerse el sol.

Para Leonardo, el brillo de la Tierra era un enigma atractivo. Como


artista, estaba vivamente interesado en la luz y la sombra. Como
matemático e ingeniero, era aficionado a la geometría.

La Luna era un excelente reflector de la luz", creía Leonardo, "ya que


estaba cubierta con mucho agua". En cuanto al "resplandor fantasmal",
explicó, "es debido a la luz del sol rebotando en los océanos de la Tierra
y, a su vez, golpeando la Luna".

Él estaba equivocado sobre dos cosas pero comprendió lo básico


bastante bien:
La primera, la Luna no tiene océanos. Los "mares lunares" están
hechos de antigua lava endurecida, no de agua. La segunda, los
océanos de la Tierra no son el origen principal del brillo terrestre. La
Tierra brilla por que refleja la luz solar, y las nubes reflejan la mayor

196
parte.

En 2005, después del Apolo, la respuesta puede parecer obvia. Cuando


el sol se pone en la Luna, ésta se oscurece - pero no completamente.
Hay todavía una fuente de luz en el cielo: la Tierra. Nuestro propio
planeta ilumina la noche lunar con un brillo 50 veces mayor que una
luna llena, produciendo el resplandor ceniciento.

Visualizar esto en los años 1500 requería una imaginación desbordante.


Nadie había estado nunca en la Luna y mirado "hacia" la Tierra.

La mayoría de la gente ni siquiera sabía que la Tierra orbitaba el Sol.


(La teoría heliocéntrica de Copérnico no fue publicada hasta 1543,
veinticuatro años después de la muerte de Leonardo). Esto demuestra,
una vez más, la genialidad de Leonardo.
Óptica

Estudió los fenómenos de la luz y logró comprender por qué la luz proyecta
las imágenes invertidas en la "cámara oscura".

También investigó los efectos de las lentes esféricas y emitió una teoría de
la visión (asignando equivocadamente ésta al cristalino en vez de a la
retina),

El primero en proponer el uso de lentes de contacto para corregir los


defectos de la visión fue Leonardo da Vinci en 1508. Casi cuatro siglos
después, se fabricaban en Alemania las primeras lentes de contacto con un
cristal que recubría toda la superficie del ojo.

Matemáticas
En el campo de las matemáticas se ocupó de problemas susceptibles de
admitir una solución geométrica obtenida por métodos empíricos.

Esto le condujo, por ej., a desarrollar un sistema para determinar el centro


de gravedad de una pirámide y las transformaciones recíprocas en los
sólidos.

Su tratado De ludo geométrico también quedó inconcluso.

Isaac newton

Biografia

Isaac Newton nació en las primeras horas del 25 de diciembre de 1642 (4 de

197
enero de 1643, según el calendario gregoriano), en la pequeña aldea de
Woolsthorpe, en el Lincolnshire. Su padre, un pequeño terrateniente,
acababa de fallecer a comienzos de octubre, tras haber contraído
matrimonio en abril del mismo año con Hannah Ayscough, procedente de
una familia en otro tiempo acomodada. Cuando el pequeño Isaac acababa
de cumplir tres años, su madre contrajo de nuevo matrimonio con el
reverendo Barnabas Smith, rector de North Witham, lo que tuvo como
consecuencia un hecho que influiría decisivamente en el desarrollo del
carácter de Newton: Hannah se trasladó a la casa de su nuevo marido y su
hijo quedó en Woolsthorpe al cuidado de su abuela materna.

Del odio que ello le hizo concebir a Newton contra su madre y el reverendo
Smith da buena cuenta el que en una lista de «pecados» de los que se
autoinculpó a los diecinueve años, el número trece fuera el haber deseado
incendiarles su casa con ellos dentro. Cuando Newton contaba doce años,
su madre, otra vez viuda, regresó a Woolsthorpe, trayendo consigo una
sustanciosa herencia que le había legado su segundo marido (y de la que
Newton se beneficiaría a la muerte de ella en 1679), además de tres
hermanastros para Isaac, dos niñas y un niño.

La manzana de Newton

Un año más tarde Newton fue inscrito en la King's School de la cercana


población de Grantham. Hay testimonios de que en los años que allí pasó
alojado en la casa del farmacéutico, se desarrolló su poco usual habilidad
mecánica, que ejercitó en la construcción de diversos mecanismos (el más
citado es un reloj de agua) y juguetes (las famosas cometas, a cuya cola
ataba linternas que por las noches asustaban a sus convecinos). También se
produjo un importante cambio en su carácter: su inicial indiferencia por los
estudios, surgida probablemente de la timidez y el retraimiento, se cambió en
feroz espíritu competitivo que le llevó a ser el primero de la clase, a raíz de
una pelea con un compañero de la que salió vencedor.

Fue un muchacho «sobrio, silencioso, meditativo», que prefirió construir


utensilios, para que las niñas jugaran con sus muñecas, a compartir las
diversiones de los demás muchachos, según el testimonio de una de sus
compañeras femeninas infantiles, quien, cuando ya era una anciana, se
atribuyó una relación sentimental adolescente con Newton, la única que se le
conoce con una mujer.

Cumplidos los dieciséis años, su madre lo hizo regresar a casa para que
empezara a ocuparse de los asuntos de la heredad. Sin embargo, el joven
Isaac no se mostró en absoluto interesado por asumir sus responsabilidades
como terrateniente; su madre, aconsejada por el maestro de Newton y por su
propio hermano, accedió a que regresara a la escuela para preparar su

198
ingreso en la universidad.

La óptica

A su regreso definitivo a Cambridge, Newton fue elegido miembro becario del


Trinity College en octubre de 1667, y dos años más tarde sucedió a Barrow
en su cátedra. Durante sus primeros años de docencia no parece que las
actividades lectivas supusieran ninguna carga para él, ya que tanto la
complejidad del tema como el sistema docente tutorial favorecían el
absentismo a las clases. Por esa época, Newton redactó sus primeras
exposiciones sistemáticas del cálculo infinitesimal que no se publicaron hasta
más tarde. En 1664 o 1665 había hallado la famosa fórmula para el
desarrollo de la potencia de un binomio con un exponente cualquiera, entero
o fraccionario, aunque no dio noticia escrita del descubrimiento hasta 1676,
en dos cartas dirigidas a Henry Oldenburg, secretario de la Royal Society; el
teorema lo publicó por vez primera en 1685 John Wallis, el más importante
de los matemáticos ingleses inmediatamente anteriores a Newton,
reconociendo debidamente la prioridad de este último en el hallazgo.

El procedimiento seguido por Newton para establecer la fórmula binomial


tuvo la virtud de hacerle ver el interés de las series infinitas para el cálculo
infinitesimal, legitimando así la intervención de los procesos infinitos en los
razonamientos matemáticos y poniendo fin al rechazo tradicional de los
mismos impuesto por la matemática griega. La primera exposición sustancial
de su método de análisis matemático por medio de series infinitas la escribió
Newton en 1669; Barrow conoció e hizo conocer el texto, y Newton recibió
presiones encaminadas a que permitiera su publicación, pese a lo cual (o
quizá precisamente por ello) el escrito no llegó a imprimirse hasta 1711.

Desde finales de 1664 trabajó intensamente en diferentes problemas


matemáticos. Abordó entonces el teorema del binomio, a partir de los
trabajos de John Wallis, y desarrolló un método propio denominado cálculo
de fluxiones. Poco después regresó a la granja familiar a causa de una
epidemia de peste bubónica.

Retirado con su familia durante los años 1665-1666, conoció un período muy
intenso de descubrimientos, entre los que destaca la ley del inverso del
cuadrado de la gravitación, su desarrollo de las bases de la mecánica
clásica, la formalización del método de fluxiones y la generalización del
teorema del binomio, poniendo además de manifiesto la naturaleza física de
los colores. Sin embargo, guardaría silencio durante mucho tiempo sobre sus
descubrimientos ante el temor a las críticas y el robo de sus ideas. En 1667
reanudó sus estudios en Cambridge.

Leyes del movimiento de newton

199
Las leyes del movimiento tienen un interés especial aquí; tanto el movimiento
orbital como la ley del movimiento de los cohetes se basan en ellas. Newton
planteó que todos los movimientos se atienen a tres leyes principales
formuladas en términos matemáticos y que implican conceptos que es
necesario primero definir con rigor. Un concepto es la fuerza, causa del
movimiento; otro es la masa, la medición de la cantidad de materia puesta en
movimiento; los dos son denominados habitualmente por las letras F y m.
"Las tres leyes del movimiento de Newton" se enuncian abajo en palabras
modernas: como hemos visto todas necesitan un poco de explicación.

1. En ausencia de fuerzas, un objeto ("cuerpo") en descanso seguirá en


descanso, y un cuerpo moviéndose a una velocidad constante en
línea recta, lo continuará haciendo indefinidamente.
2. Cuando se aplica una fuerza a un objeto, se acelera. La aceleración
es en dirección a la fuerza y proporcional a su intensidad y es
inversamente proporcional a la masa que se mueve:

a = k(F/m)
donde k es algún número, dependiendo de las unidades en que se
midan F, m y a. Con unidades correctas (volveremos a ver esto), k = 1
dando
a = F/m
ó en la forma en que se encuentra normalmente en los libros de texto
F=ma
De forma más precisa, deberíamos escribir
F = ma
siendo F y a vectores en la misma dirección (indicados aquí en
negrita, aunque esta convención no se sigue siempre en este sitio
web). No obstante, cuando se sobreentiende una dirección única, se
puede usar la forma simple.

3. "La ley de la reacción" enunciada algunas veces como que "para cada
acción existe una reacción igual y opuesta". En términos más
explícitos: "Las fuerzas son siempre producidas en pares, con
direcciones opuestas y magnitudes iguales. Si el cuerpo nº 1 actúa
con una fuerza F sobre el cuerpo nº 2, entonces el cuerpo nº 2 actúa
sobre el cuerpo nº 1 con una fuerza de igual intensidad y dirección
opuesta."

El teorema del binomio de newton

El teorema del binomio, descubierto hacia 1664-1665, fue comunicado por


primera vez en dos cartas dirigidas en 1676 a Henry Oldenburg (hacia 1615-
1677), secretario de la Royal Society que favorecía los intercambios de
correspondencia entre los científicos de su época. En la primera carta,
fechada el 13 de junio de 1676, en respuesta a una petición de Leibniz que
quería conocer los trabajos de matemáticos ingleses sobre series infinitas,
200
Newton presenta el enunciado de su teorema y un ejemplo que lo ilustra, y
menciona ejemplos conocidos en los cuales se aplica el teorema. Leibniz
responde, en una carta fechada el 17 de agosto del mismo año, que está en
posesión de un método general que le permite obtener diferentes resultados
sobre las cuadraturas, las series, etc., y menciona algunos de sus
resultados. Interesado por las investigaciones de Leibniz, Newton le
responde también con una carta fechada el 24 de octubre en la que explica
en detalle cómo ha descubierto la serie binómica.

Aplicando los métodos de Wallis de interpolación y extrapolación a nuevos


problemas, Newton utilizó los conceptos de exponentes generalizados
mediante los cuales una expresión polinómica se transformaba en una serie
infinita. Así estuvo en condiciones de demostrar que un buen número de
series ya existentes eran casos particulares, bien directamente, bien por
diferenciación o integración.

El descubrimiento de la generalización de la serie binómica es un resultado


importante de por sí; sin embargo, a partir de este descubrimiento Newton
tuvo la intuición de que se podía operar con series infinitas de la misma
manera que con expresiones polinómicas finitas. El análisis mediante las
series infinitas parecía posible, porque ahora resultaban ser una forma
equivalente para expresar las funciones que representaban.

Newton no publicó nunca el teorema del binomio. Lo hizo Wallis por primera
vez en 1685 en su Algebra, atribuyendo a Newton este descubrimiento.

Otras aportación de newton

Newton realizó también contribuciones a otros temas matemáticos, entre los


que podemos mencionar una clasificación de las curvas de tercer grado y
trabajos sobre la teoría de las ecuaciones.

En un pequeño tratado, publicado como apéndice a su Opticks en 1704 y


titulado Enumeratio linearum tertii ordinis, Newton, que compuso esta obra
en 1676, divide las cúbicas en catorce genera que comprenden setenta y
dos especies, de las que faltan seis. Para cada una de estas especies, traza
cuidadosamente un diagrama y el conjunto de estos diagramas presenta
todas las formas posibles (salvo las que son degeneradas) de las curvas de
tercer grado. Subrayemos el uso sistemático de dos ejes y el empleo de
coordenadas negativas.

En una obra publicada por primera vez en 1707, y de la que aparecen


muchas ediciones en el siglo XVIII, Newton expone su visión de la teoría de

201
las ecuaciones. Evidentemente nos referimos a su Aritmetica universalis,
compuesta al parecer entre 1673 y 1683 a partir de los cursos que impartió
en Cambridge. Entre las contribuciones importantes de esta obra,
mencionemos las «identidades de Newton» para la suma de las potencias
de las raíces de una ecuación polinómica, un teorema que generaliza la
regla de los signos de Descartes para la determinación del número de raíces
imaginarias de un polinomio, un teorema sobre la cota superior de las raíces
de una ecuación polinómica, y el descubrimiento de la relación entre las
raíces y el discriminante de una ecuación. Señalemos que las cuestiones
geométricas ocupan una parte importante en esta obra, porque Newton
parece pensar que es muy útil construir geométricamente la ecuación con el
fin de estimar más fácilmente las raíces buscadas.

Thomas Alva Edison

Biografia

(Milan, 1847 - West Orange, 1931) Inventor norteamericano, el más genial de


la era moderna. Su madre logró despertar la inteligencia del joven Edison,
que era alérgico a la monotonía de la escuela. El milagro se produjo tras la
lectura de un libro que ella le proporcionó titulado Escuela de Filosofía
Natural, de Richard Green Parker; tal fue su fascinación que quiso realizar
por sí mismo todos los experimentos y comprobar todas las teorías que
contenía. Ayudado por su madre, instaló en el sótano de su casa un pequeño
laboratorio convencido de que iba a ser inventor.

A los doce años, sin olvidar su pasión por los experimentos, consideró que
estaba en su mano ganar dinero contante y sonante materializando alguna
de sus buenas ocurrencias. Su primera iniciativa fue vender periódicos y
chucherías en el tren que hacía el trayecto de Port Huron a Detroit. Había
estallado la Guerra de Secesión y los viajeros estaban ávidos de noticias.
Edison convenció a los telegrafistas de la línea férrea para que expusieran
en los tablones de anuncios de las estaciones breves titulares sobre el
desarrollo de la contienda, sin olvidar añadir al pie que los detalles completos
aparecían en los periódicos; esos periódicos los vendía el propio Edison en
el tren y no hay que decir que se los quitaban de las manos. Al mismo
tiempo, compraba sin cesar revistas científicas, libros y aparatos, y llegó a
convertir el vagón de equipajes del convoy en un nuevo laboratorio. Aprendió
a telegrafiar y, tras conseguir a bajo precio y de segunda mano una prensa
de imprimir, comenzó a publicar un periódico por su cuenta, el Weekly
Herald.

En los años siguientes, Edison peregrinó por diversas ciudades


desempeñando labores de telegrafista en varias compañías y dedicando su
tiempo libre a investigar. En Boston construyó un aparato para registrar
automáticamente los votos y lo ofreció al Congreso. Los políticos

202
consideraron que el invento era tan perfecto que no cabía otra posibilidad
que rechazarlo. Ese mismo día, Edison tomó dos decisiones. En primer
lugar, se juró que jamás inventaría nada que no fuera, además de novedoso,
práctico y rentable. En segundo lugar, abandonó su carrera de telegrafista.
Acto seguido formó una sociedad y se puso a trabajar.

Perfeccionó el telégrafo automático, inventó un aparato para transmitir las


oscilaciones de los valores bursátiles, colaboró en la construcción de la
primera máquina de escribir y dio aplicación práctica al teléfono mediante la
adopción del micrófono de carbón. Su nombre empezó a ser conocido, sus
inventos ya le reportaban beneficios y Edison pudo comprar maquinaria y
contratar obreros. Para él no contaban las horas. Era muy exigente con su
personal y le gustaba que trabajase a destajo, con lo que los resultados eran
frecuentemente positivos.

A los veintinueve años cuando compró un extenso terreno en la aldea de


Menlo Park, cerca de Nueva York, e hizo construir allí un nuevo taller y una
residencia para su familia. Edison se había casado a finales de 1871 con
Mary Stilwell; la nota más destacada de la boda fue el trabajo que le costó al
padrino hacer que el novio se pusiera unos guantes blancos para la
ceremonia. Ahora debía sostener un hogar y se dedicó, con más ahínco si
cabe, a trabajos productivos.

Su principal virtud era sin duda su extraordinaria capacidad de trabajo.


Cualquier detalle en el curso de sus investigaciones le hacía vislumbrar la
posibilidad de un nuevo hallazgo. Recién instalado en Menlo Park, se hallaba
sin embargo totalmente concentrado en un nuevo aparato para grabar
vibraciones sonoras. La idea ya era antigua e incluso se había logrado
registrar sonidos en un cilindro de cera, pero nadie había logrado
reproducirlos. Edison trabajó día y noche en el proyecto y al fin, en agosto de
1877, entregó a uno de sus técnicos un extraño boceto, diciéndole que
construyese aquel artilugio sin pérdida de tiempo. Al fin, Edison conectó la
máquina. Todos pudieron escuchar una canción que había entonado uno de
los empleados minutos antes. Edison acababa de culminar uno de sus
grandes inventos: el fonógrafo. Pero no todo eran triunfos. Muchas de las
investigaciones iniciadas por Edison terminaron en sonoros fracasos.
Cuando las pruebas no eran satisfactorias, experimentaba con nuevos
materiales, los combinaba de modo diferente y seguía intentándolo.

En abril de 1879, Edison abordó las investigaciones sobre la luz eléctrica. La


competencia era muy enconada y varios laboratorios habían patentado ya
sus lámparas. El problema consistía en encontrar un material capaz de
mantener una bombilla encendida largo tiempo. Después de probar diversos

203
elementos con resultados negativos, Edison encontró por fin el filamento de
bambú carbonizado. Inmediatamente adquirió grandes cantidades de bambú
y, haciendo gala de su pragmatismo, instaló un taller para fabricar él mismo
las bombillas. Luego, para demostrar que el alumbrado eléctrico era más
económico que el de gas, empezó a vender sus lámparas a cuarenta
centavos, aunque a él fabricarlas le costase más de un dólar; su objetivo era
hacer que aumentase la demanda para poder producirlas en grandes
cantidades y rebajar los costes por unidad. En poco tiempo consiguió que
cada bombilla le costase treinta y siete centavos: el negocio empezó a
marchar como la seda.

Su fama se propagó por el mundo a medida que la luz eléctrica se imponía.


Edison, que tras la muerte de su primera esposa había vuelto a casarse,
visitó Europa y fue recibido en olor de multitudes. De regreso en los Estados
Unidos creó diversas empresas y continuó trabajando con el mismo ardor de
siempre. Todos sus inventos eran patentados y explotados de inmediato, y
no tardaban en producir beneficios sustanciosos. Entretanto, el trabajo
parecía mantenerlo en forma. Su única preocupación en materia de salud
consistía en no ganar peso. Era irregular en sus comidas, se acostaba tarde
y se levantaba temprano, nunca hizo deporte de ninguna clase y a menudo
mascaba tabaco. Pero lo más sorprendente de su carácter era su
invulnerabilidad ante el desaliento. Ningún contratiempo era capaz de
desanimarlo.

En los años veinte, sus conciudadanos le señalaron en las encuestas como


el hombre más grande de Estados Unidos. Incluso el Congreso se ocupó de
su fama, calculándose que Edison había añadido un promedio de treinta
millones de dólares al año a la riqueza nacional por un periodo de medio
siglo. Nunca antes se había tasado con tal exactitud algo tan intangible como
el genio. Su popularidad llegó a ser inmensa. En 1927 fue nombrado
miembro de la National Academy of Sciences y al año siguiente el presidente
Coolidge le hizo entrega de una medalla de oro que para él había hecho
grabar el Congreso. Tenía ochenta y cuatro años cuando un ataque de
uremia abatió sus últimas energías.

El inicio de su carrera
Tras salvar de morir a un niño en las vías del tren en Port Huron, el agradecido
padre de la criatura J. U. Mackenzie (telegrafista de la estación) le enseñó
telegrafía. A los dieciséis años obtuvo su primer puesto como telegrafista en
Port Huron cuando J. U. Mackenzie le deja el puesto al unirse este al Cuerpo
Militar de Telegrafistas.

A finales de 1863, Edison con el apoyo de J. U. Mackenzie solicitó empleo


como telegrafista de ferrocarril del Grand Truck, en el Empalme de Stratford
a ciento sesenta kilómetros de la frontera con Canadá. No duró mucho en este
empleo porque no transmitió las señales para detener un tren de carga que,

204
como consecuencia, estuvo a punto de tener una colisión de frente. Huyó a
Sarnia, en la frontera canadiense y tomó la barcaza hacia Port Huron.

A principios de 1864, Edison encontró empleo en el ferrocarril sureño de Lake


Shore & Michigan, en Adrian, cien kilómetros al sur de Detroit; en donde fue
despedido por desobedecer órdenes. Se le mandó despachar un mensaje
importante, y lo hizo sin hacer caso de las protestas del hombre que se
encontraba transmitiendo al otro lado de la línea, el cual era el
superintendente, detalle que Edison desconocía.

La Western Union
Pasó un tiempo en Fort Wayne, y después de dos meses sin conseguir
empleo, se marchó a Indianápolis, donde obtuvo empleo en la Western Union,
empresa con la que vincularía estrechamente su destino.

En febrero de 1865, Edison se trasladó a Cincinnati, donde una vez más, obtuvo
empleo en la Western Union, donde por su habilidad lo graduaron de
operador de segunda a operador de primera clase.

Después de andar errante por varias ciudades y de un empleo a otro, incluso


un intento por ir de operador telegráfico a Brasil, a finales de 1868 vuelve a
conseguir empleo en la Western Union Boston.

Iluminación eléctrica, iluminación mediante cualquiera de los numerosos


dispositivos que convierten la energía eléctrica en luz. Los tipos de
dispositivos de iluminación eléctrica utilizados con mayor frecuencia son las
lámparas incandescentes, las lámparas fluorescentes y los distintos modelos
de lámparas de arco y de vapor por descarga eléctrica.

Tecnología de la iluminación eléctrica

Si una corriente eléctrica pasa a través de cualquier conductor que no sea


perfecto, se gasta una determinada cantidad de energía que en el conductor
aparece en forma de calor. Por cuanto cualquier cuerpo caliente despedirá
una cierta cantidad de luz a temperaturas superiores a los 525 ºC, un
conductor que se calienta por encima de dicha temperatura mediante una
corriente eléctrica actuará como fuente luminosa. La lámpara incandescente
está formada por un filamento de material de elevada temperatura de fusión
dentro de una ampolla de vidrio, en cuyo interior se ha hecho el vacío, o bien
llena de un gas inerte. Deben utilizarse filamentos con elevadas
temperaturas de fusión porque la proporción entre la energía luminosa y la
energía térmica generada por el filamento aumenta a medida que se
incrementa la temperatura, obteniéndose la fuente luminosa más eficaz a la
temperatura máxima del filamento. En las primeras lámparas incandescentes
se utilizaban filamentos de carbono, aunque las modernas se fabrican con
filamentos de delgado hilo de volframio o tungsteno, cuya temperatura de
fusión es de 3.410 ºC. El filamento debe estar en una atmósfera al vacío o

205
inerte, ya que de lo contrario al calentarse reaccionaría químicamente con el
entorno circundante. El uso de gas inerte en lugar de vacío en las lámparas
incandescentes tiene como ventaja una evaporación más lenta del filamento,
lo que prolonga la vida útil de la lámpara. La mayoría de las lámparas
incandescentes modernas se rellenan con una mezcla de gases de argón y
halógenos, o bien con una pequeña cantidad de nitrógeno o de criptón. La
sustitución de las ampollas de vidrio por compactos tubos de vidrio de cuarzo
fundido han permitido cambios radicales en el diseño de las lámparas
incandescentes.

Tipos de lámparas

Las lámparas de descarga eléctrica dependen de la ionización y de la


descarga eléctrica resultante en vapores o gases a bajas presiones en caso
de ser atravesados por una corriente eléctrica (véase Ion). Los ejemplos más
representativos de este tipo de dispositivos son las lámparas de arco rellenas
con vapor de mercurio, que generan una intensa luz azul verdosa y que se
utilizan para fotografía e iluminación de carreteras; y las lámparas de neón,
utilizadas para carteles decorativos y escaparates. En las más modernas
lámparas de descarga eléctrica se añaden otros metales al mercurio y al
fósforo de los tubos o ampollas para mejorar el color y la eficacia. Los tubos
de cerámica translúcidos, similares al vidrio, han permitido fabricar lámparas
de vapor de sodio de alta presión con una potencia luminosa sin
precedentes.

La lámpara fluorescente es otro tipo de dispositivo de descarga eléctrica


empleado para aplicaciones generales de iluminación. Se trata de una
lámpara de vapor de mercurio de baja presión contenida en un tubo de
vidrio, revestido en su interior con un material fluorescente conocido como
fósforo. La radiación en el arco de la lámpara de vapor hace que el fósforo se
torne fluorescente. La mayor parte de la radiación del arco es luz ultravioleta
invisible, pero esta radiación se convierte en luz visible al excitar al fósforo.
Las lámparas fluorescentes se destacan por una serie de importantes
ventajas. Si se elige el tipo de fósforo adecuado, la calidad de luz que
generan estos dispositivos puede llegar a semejarse a la luz solar. Además,
tienen una alta eficacia. Un tubo fluorescente que consume 40 vatios de
energía genera tanta luz como una bombilla incandescente de 150 vatios.
Debido a su potencia luminosa, las lámparas fluorescentes producen menos
calor que las incandescentes para generar una luminosidad semejante.

Un avance en el campo de la iluminación eléctrica es el uso de la


luminiscencia, conocida como iluminación de paneles. En este caso, las
partículas de fósforo se hallan suspendidas en una fina capa de material
aislante, como por ejemplo el plástico. Esta capa se intercala entre dos
placas conductoras, una de las cuales es una sustancia translúcida, como el
vidrio, revestida en su interior con una fina película de óxido de estaño.
206
Como los dos conductores actúan como electrodos, al ser atravesado el
fósforo por una corriente alterna hace que se ilumine. Los paneles
luminiscentes se utilizan para una amplia variedad de objetos, como por
ejemplo iluminar relojes y sintonizadores de radio, para destacar los
peldaños o los pasamanos de las escaleras, y para generar paredes
luminosas. Sin embargo, el uso de la iluminación de paneles está limitado
por el hecho de que las necesidades de corriente para grandes instalaciones
es excesivo.

Se han desarrollado una serie de diferentes tipos de lámparas eléctricas para


fines especiales, como la fotografía y el alumbrado de alta intensidad. Por lo
general, estas lámparas han sido diseñadas de manera que puedan actuar
como reflectores al ser revestidas de una capa de aluminio especular (véase
Óptica). Un ejemplo de ellas es la utilizada en fotografía, una lámpara
incandescente que funciona a una temperatura superior a la normal para
obtener una mayor salida de luz. Su vida útil está limitada a 2 ó 3 horas,
frente a las 750 a 1.000 horas que dura una lámpara incandescente normal.
Las lámparas utilizadas para fotografía de alta velocidad generan un único
destello (flash) de luz de alta intensidad que dura escasas centésimas de
segundo al encender una carga una hoja de aluminio plegada o un fino hilo
de aluminio dentro de una ampolla de vidrio rellena de oxígeno. La lámina se
enciende por el calor de un pequeño filamento de la ampolla. Entre los
fotógrafos cada vez es más popular la lámpara estroboscópica de descarga
de gas a alta velocidad conocida como flash electrónico.

Albert Einstein

Albert Einstein nació en la ciudad bávara de Ulm el 14 de marzo de 1879.


Fue el hijo primogénito de Hermann Einstein y de Pauline Koch, judíos
ambos, cuyas familias procedían de Suabia. Al siguiente año se trasladaron
a Munich, en donde el padre se estableció, junto con su hermano Jakob,
como comerciante en las novedades electrotécnicas de la época.

El pequeño Albert fue un niño quieto y ensimismado, que tuvo un desarrollo


intelectual lento. El propio Einstein atribuyó a esa lentitud el hecho de haber
sido la única persona que elaborase una teoría como la de la relatividad: «un
adulto normal no se inquieta por los problemas que plantean el espacio y el
tiempo, pues considera que todo lo que hay que saber al respecto lo conoce
ya desde su primera infancia. Yo, por el contrario, he tenido un desarrollo tan
lento que no he empezado a plantearme preguntas sobre el espacio y el
tiempo hasta que he sido mayor».

En 1894, las dificultades económicas hicieron que la familia (aumentada


desde 1881, por el nacimiento de una hija, Maya) se trasladara a Milán;
207
Einstein permaneció en Munich para terminar sus estudios secundarios,
reuniéndose con sus padres al año siguiente. En el otoño de 1896, inició sus
estudios superiores en la Eidgenossische Technische Hochschule de Zurich,
en donde fue alumno del matemático Hermann Minkowski, quien
posteriormente generalizó el formalismo cuatridimensional introducido por las
teorías de su antiguo alumno. El 23 de junio de 1902, empezó a prestar sus
servicios en la Oficina Confederal de la Propiedad Intelectual de Berna,
donde trabajó hasta 1909. En 1903, contrajo matrimonio con Mileva Maric,
antigua compañera de estudios en Zurich, con quien tuvo dos hijos: Hans
Albert y Eduard, nacidos respectivamente en 1904 y en 1910. En 1919 se
divorciaron, y Einstein se casó de nuevo con su prima Elsa.

Durante 1905, publicó cinco trabajos en los Annalen der Physik: el primero
de ellos le valió el grado de doctor por la Universidad de Zurich, y los cuatro
restantes acabaron por imponer un cambio radical en la imagen que la
ciencia ofrece del universo. De éstos, el primero proporcionaba una
explicación teórica, en términos estadísticos, del movimiento browniano, y el
segundo daba una interpretación del efecto fotoeléctrico basada en la
hipótesis de que la luz está integrada por cuantos individuales, más tarde
denominados fotones; los dos trabajos restantes sentaban las bases de la
teoría restringida de la relatividad, estableciendo la equivalencia entre la
energía E de una cierta cantidad de materia y su masa m, en términos de la
famosa ecuación E = mc², donde c es la velocidad de la luz, que se supone
constante.

El esfuerzo de Einstein lo situó inmediatamente entre los más eminentes de


los físicos europeos, pero el reconocimiento público del verdadero alcance
de sus teorías tardó en llegar; el Premio Nobel de Física, que se le concedió
en 1921 lo fue exclusivamente «por sus trabajos sobre el movimiento
browniano y su interpretación del efecto fotoeléctrico». En 1909, inició su
carrera de docente universitario en Zurich, pasando luego a Praga y
regresando de nuevo a Zurich en 1912 para ser profesor del Politécnico, en
donde había realizado sus estudios. En 1914 pasó a Berlín como miembro
de la Academia de Ciencias prusiana. El estallido de la Primera Guerra
Mundial le forzó a separarse de su familia, por entonces de vacaciones en
Suiza y que ya no volvió a reunirse con él.

Contra el sentir generalizado de la comunidad académica berlinesa, Einstein


se manifestó por entonces abiertamente antibelicista, influido en sus
actitudes por las doctrinas pacifistas de Romain Rolland. En el plano
científico, su actividad se centró, entre 1914 y 1916, en el perfeccionamiento
de la teoría general de la relatividad, basada en el postulado de que la
gravedad no es una fuerza sino un campo creado por la presencia de una
masa en el continuum espacio-tiempo. La confirmación de sus previsiones
llegó en 1919, al fotografiarse el eclipse solar del 29 de mayo; The Times lo
presentó como el nuevo Newton y su fama internacional creció, forzándole a
208
multiplicar sus conferencias de divulgación por todo el mundo y
popularizando su imagen de viajero de la tercera clase de ferrocarril, con un
estuche de violín bajo el brazo.

Durante la siguiente década, Einstein concentró sus esfuerzos en hallar una


relación matemática entre el electromagnetismo y la atracción gravitatoria,
empeñado en avanzar hacia el que, para él, debía ser el objetivo último de la
física: descubrir las leyes comunes que, supuestamente, habían de regir el
comportamiento de todos los objetos del universo, desde las partículas
subatómicas hasta los cuerpos estelares. Tal investigación, que ocupó el
resto de su vida, resultó infructuosa y acabó por acarrearle el extrañamiento
respecto del resto de la comunidad científica.

A partir de 1933, con el acceso de Hitler al poder, su soledad se vio


agravada por la necesidad de renunciar a la ciudadanía alemana y
trasladarse a Estados Unidos, en donde pasó los últimos veinticinco años de
su vida en el Instituto de Estudios Superiores de Princeton, ciudad en la que
murió el 18 de abril de 1955.

Einstein dijo una vez que la política poseía un valor pasajero, mientras que
una ecuación valía para toda la eternidad. En los últimos años de su vida, la
amargura por no hallar la fórmula que revelase el secreto de la unidad del
mundo hubo de acentuarse por la necesidad en que se sintió de intervenir
dramáticamente en la esfera de lo político. En 1939, a instancias de los
físicos Leo Szilard y Paul Wigner, y convencido de la posibilidad de que los
alemanes estuvieran en condiciones de fabricar una bomba atómica, se
dirigió al presidente Roosevelt instándole a emprender un programa de
investigación sobre la energía atómica.

Luego de las explosiones de Hiroshima y Nagasaki, se unió a los científicos


que buscaban la manera de impedir el uso futuro de la bomba y propuso la
formación de un gobierno mundial a partir del embrión constituido por las
Naciones Unidas. Pero sus propuestas en pro de que la humanidad evitara
las amenazas de destrucción individual y colectiva, formuladas en nombre de
una singular amalgama de ciencia, religión y socialismo, recibieron de los
políticos un rechazo comparable a las críticas respetuosas que suscitaron
entre los científicos sus sucesivas versiones de la idea de un campo
unificado.

En 1901 apareció el primer trabajo científico de Einstein: trataba de la atracción


capilar. Publicó dos trabajos en 1902 y 1903, sobre los fundamentos
estadísticos de la termodinámica, corroborando experimentalmente que la
temperatura de un cuerpo se debe a la agitación de sus moléculas, una

209
teoría aún discutida en esa época.[12]

Los artículos de 1905


En 1905 finalizó su doctorado presentando una tesis titulada Una nueva
determinación de las dimensiones moleculares. Ese mismo año escribió
cuatro artículos fundamentales sobre la física de pequeña y gran escala. En
ellos explicaba el movimiento browniano, el efecto fotoeléctrico y
desarrollaba la relatividad especial y la equivalencia masa-energía. El
trabajo de Einstein sobre el efecto fotoeléctrico le proporcionaría el Premio
Nobel de física en 1921. Estos artículos fueron enviados a la revista "Annalen
der Physik" y son conocidos generalmente como los artículos del "Annus
Mirabilis" (del Latín: Año extraordinario). celebrando el centenario de
publicación de estos trabajos.

Movimiento browniano

El primero de sus artículos de 1905, titulado Sobre el movimiento requerido


por la teoría cinética molecular del calor de pequeñas partículas suspendidas
en un líquido estacionario, cubría sus estudios sobre el movimiento
browniano.

El artículo explicaba el fenómeno haciendo uso de las estadísticas del


movimiento térmico de los átomos individuales que forman un fluido. El
movimiento browniano había desconcertado a la comunidad científica desde
su descubrimiento unas décadas atrás. La explicación de Einstein
proporcionaba una evidencia experimental incontestable sobre la existencia
real de los átomos. El artículo también aportaba un fuerte impulso a la
mecánica estadística y a la teoría cinética de los fluidos, dos campos que en
aquella época permanecían controvertidos.

Antes de este trabajo los átomos se consideraban un concepto útil en física y


química, pero la mayoría de los científicos no se ponían de acuerdo sobre su
existencia real. El artículo de Einstein sobre el movimiento atómico
entregaba a los experimentalistas un método sencillo para contar átomos
mirando a través de un microscopio ordinario.

Wilhelm Ostwald, uno de los líderes de la escuela antiatómica, comunicó a


Arnold Sommerfeld que había sido transformado en un creyente en los
átomos por la explicación de Einstein del movimiento browniano.

Efecto fotoeléctrico

El segundo artículo se titulaba Un punto de vista heurístico sobre la


producción y transformación de luz. En él Einstein proponía la idea de

210
"quanto" de luz (ahora llamados fotones) y mostraba cómo se podía utilizar
este concepto para explicar el efecto fotoeléctrico.

La teoría de los cuantos de luz fue un fuerte indicio de la dualidad onda-


corpúsculo y de que los sistemas físicos pueden mostrar tanto propiedades
ondulatorias como corpusculares. Este artículo constituyó uno de los pilares
básicos de la mecánica cuántica. Una explicación completa del efecto
fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo
más avanzada.

Relatividad especial

El tercer artículo de Einstein de ese año se titulaba Zur Elektrodynamik


bewegter Körper ("Sobre la electrodinámica de cuerpos en movimiento"). En
este artículo Einstein introducía la teoría de la relatividad especial estudiando
el movimiento de los cuerpos y el electromagnetismo en ausencia de la
fuerza de interacción gravitatoria.

La relatividad especial resolvía los problemas abiertos por el experimento de


Michelson y Morley en el que se había demostrado que las ondas
electromagnéticas que forman la luz se movían en ausencia de un medio. La
velocidad de la luz es, por lo tanto, constante y no relativa al movimiento. Ya
en 1894 George Fitzgerald había estudiado esta cuestión demostrando que
el experimento de Michelson y Morley podía ser explicado si los cuerpos se
contraen en la dirección de su movimiento. De hecho, algunas de las
ecuaciones fundamentales del artículo de Einstein habían sido introducidas
anteriormente (1903) por Hendrik Lorentz, físico holandés, dando forma
matemática a la conjetura de Fitzgerald.

Esta famosa publicación está cuestionada como trabajo original de Einstein,


debido a que en ella omitió citar toda referencia a las ideas o conceptos
desarrollados por estos autores así como los trabajos de Poincaré. En
realidad Einstein desarrollaba su teoría de una manera totalmente diferente a
estos autores deduciendo hechos experimentales a partir de principios
fundamentales y no dando una explicación fenomenológica a observaciones
desconcertantes. El mérito de Einstein estaba por lo tanto en explicar lo
sucedido en el experimento de Michelson y Morley como consecuencia final
de una teoría completa y elegante basada en principios fundamentales y no
como una explicación ad-hoc o fenomenológica de un fenómeno observado.

Su razonamiento se basó en dos axiomas simples: En el primero reformuló el


principio de simultaneidad, introducido por Galileo siglos antes, por el que las
leyes de la física deben ser invariantes para todos los observadores que se
mueven a velocidades constantes entre ellos, y el segundo, que la velocidad
de la luz es constante para cualquier observador. Este segundo axioma,

211
revolucionario, va más allá de las consecuencias previstas por Lorentz o
Poincaré que simplemente relataban un mecanismo para explicar el
acortamiento de uno de los brazos del experimento de Michelson y Morley.
Este postulado implica que si un destello de luz se lanza al cruzarse dos
observadores en movimiento relativo, ambos verán alejarse la luz
produciendo un círculo perfecto con cada uno de ellos en el centro. Si a
ambos lados de los observadores se pusiera un detector, ninguno de los
observadores se pondría de acuerdo en qué detector se activó primero (se
pierden los conceptos de tiempo absoluto y simultaneidad).

Equivalencia masa-energía

El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von
seinem Energieinhalt abhängig y mostraba una deducción de la ecuación de
la relatividad que relaciona masa y energía. En este artículo se exponía que
"la variación de masa de un objeto que emite una energía L, es:

donde V era la notación de la velocidad de la luz usada por Einstein en 1905.

Esta ecuación implica que la energía E de un cuerpo en reposo es igual a su


masa m multiplicada por la velocidad de la luz al cuadrado:

Muestra cómo una partícula con masa posee un tipo de energía, "energía en
reposo", distinta de las clásicas energía cinética y energía potencial. La
relación masa-energía se utiliza comúnmente para explicar cómo se produce
la energía nuclear; midiendo la masa de núcleos atómicos y dividiendo por el
número atómico se puede calcular la energía de enlace atrapada en los
núcleos atómicos. Paralelamente, la cantidad de energía producida en la
fisión de un núcleo atómico se calcula como la diferencia de masa entre el
núcleo inicial y los productos de su desintegración, multiplicada por la
velocidad de la luz al cuadrado.

Relatividad general

En noviembre de 1915 Einstein presentó una serie de conferencias en la


Academia de Ciencias de Prusia en las que describió la teoría de la
relatividad general. La última de estas charlas concluyó con la presentación
de la ecuación que reemplaza a la ley de gravedad de Newton. En esta

212
teoría todos los observadores son considerados equivalentes y no
únicamente aquellos que se mueven con una velocidad uniforme. La
gravedad no es ya una fuerza o acción a distancia, como era en la gravedad
newtoniana, sino una consecuencia de la curvatura del espacio-tiempo. La
teoría proporcionaba las bases para el estudio de la cosmología y permitía
comprender las características esenciales del Universo, muchas de las
cuales no serían descubiertas sino con posterioridad a la muerte de Einstein.

La relatividad general fue obtenida por Einstein a partir de razonamientos


matemáticos, experimentos hipotéticos (Gedanken experiment) y rigurosa
deducción matemática sin contar realmente con una base experimental. El
principio fundamental de la teoría era el denominado principio de
equivalencia. A pesar de la abstracción matemática de la teoría, las
ecuaciones permitían deducir fenómenos comprobables. En 1919 Arthur
Eddington fue capaz de medir, durante un eclipse, la desviación de la luz de
una estrella al pasar cerca del Sol, una de las predicciones de la relatividad
general. Cuando se hizo pública esta confirmación la fama de Einstein se
incrementó enormemente y se consideró un paso revolucionario en la física.
Desde entonces la teoría se ha verificado en todos y cada uno de los
experimentos y verificaciones realizados hasta el momento.

Estadísticas de Bose-Einstein

En 1924 Einstein recibió un artículo de un joven físico indio, Satyendra Nath Bose,
describiendo a la luz como un gas de fotones y pidiendo la ayuda de Einstein
para su publicación. Einstein se dio cuenta de que el mismo tipo de
estadísticas podían aplicarse a grupos de átomos y publicó el artículo,
conjuntamente con Bose, en alemán, la lengua más importante en física en
la época. Las estadísticas de Bose-Einstein explican el comportamiento de
los tipos básicos de partículas elementales denominadas bosones.

La Teoría de Campo Unificada


Einstein dedicó sus últimos años a la búsqueda de una de las más
importantes teorías de la física, la llamada Teoría de Campo Unificada. Dicha
búsqueda, después de su Teoría general de la relatividad, consistió en una
serie de intentos tendentes a generalizar su teoría de la gravitación para
lograr unificar y resumir las leyes fundamentales de la física,
específicamente la gravitación y el electromagnetismo. En el año 1950,
expuso su Teoría de campo unificada en un artículo titulado «Sobre la teoría
generalizada de la gravitación» (On the Generalized Theory of Gravitation)
en la famosa revista Scientific American.

Aunque Albert Einstein fue mundialmente célebre por sus trabajos en física
teórica, paulitinamente fue aislándose en su investigación, y sus intentos no
tuvieron éxito. Persiguiendo la unificación de las fuerzas fundamentales,

213
Albert ignoró algunos importantes desarrollos en la física, siendo
notablemente visible en el tema de las fuerzas nuclear fuerte y nuclear débil, las
cuales no se entendieron bien sino después de quince años de la muerte de
Einstein (cerca del año 1970) mediante numerosos experimentos en física de
altas energías. Los intentos propuestos por la Teoría de cuerdas o la Teoría M,
muestran que aún perdura su ímpetu de alcanzar demostrar la gran teoría
de la unificación de las leyes de la física.

Leonardo Da Vinci I
214
Este trabajo está hecho con el fin de conocer un poco de la vida de Leonardo Da
Vinci, una de las mentes más brillantes que han existido y la mejor del
Renacimiento.

A continuación se mostrara un poco sobre la vida de éste gran personaje, de


igual manera, se mostraran algunos de sus inventos como los terrestres, los de
aire y los de agua.

Algunos de sus inventos fueron utilizados con fines bélicos, pero la mayoría
fueron inventados con el fin de disminuir el esfuerzo y el trabajo humano.

La mayor parte de su vida la dedico al estudio y al aprendizaje de nuevas ideas,


tal es el caso que de éstas surgieron inventos de gran trascendencia. Aunque
Leonardo estaba un poco adelantado en la manera de pensar a su época, esto no
le impidió el crear nuevas cosas y dar vuelo a su imaginación en el campo
científico y artístico.

Espero y les agrade.


La suma de todo el conocimiento fue depositada en un solo hombre: Leonardo Da
Vinci, el increíble genio del renacimiento cuyas ideas han cambiado al mundo y
hoy, a casi 500 años de su muerte, tienen plena vigencia.
Su profundo amor por el conocimiento y la investigación fue la clave tanto de su
comportamiento artístico como científico. Símbolo máximo del Renacimiento,
Leonardo fue dueño de un talento sobrenatural.
Sus extraordinarios dones, la diversidad de sus intereses y una increíble
imaginación, se combinaron para aislarlo de su época. “si uno está solo, uno
pertenece por entero a sí mismo”, escribió.
Las características de Leonardo no se han repetido –ni antes ni después de su
existencia- en ningún otro ser humano. Vivió sus 67 años sin darle ni un día de
franco a su genio, transformándose en el curioso más lucido de Occidente.
Fue el responsable de pinturas como “la ultima cena” y “la Gioconda”, autor de
legendarios estudios de anatomía, biología, arquitectura, ingeniería y
matemáticas. Realizó cientos de minuciosos dibujos y esculturas, lo que tampoco
le impidió ser un notable músico y poeta.

215
En el terreno de la invención, Leonardo se adelantó más de cuatro siglos a su
época. Estaba obsesionado por diseñar máquinas capaces de multiplicar varias
veces la fuerza del hombre.
Da Vinci registraba en papel todas sus ideas, haciéndose famosas sus
anotaciones por su singular forma de escribir (escritura especular).
En base a sus numerosos planes ha sido posible reconstruir todas las
invenciones de un talento único en la historia del ser humano.
A través de los años, la mayoría de las notas se perdieron o fueron robadas,
pero algunas de ellas fueron encontradas siglos más tarde y fueron la base para el
desarrollo de cientos de maquinarias que hoy son usadas hasta en la tecnología
especial.
Una muestra itinerante exhibe por Europa los dibujos de las máquinas ideadas
por Leonardo más las maquetas que los recrean.
Era un típico hombre del Renacimiento, que jamás quiso quedar encasillado por
alguna de sus actividades y siempre estaba dispuesto a aprender algo nuevo.
Dicen que el ultimo día de su vida, con el último aliento, se le escucho susurrar:
“Ditemi che qualcosa e stata fatta” (decidme que alguna cosa se hizo).

BIOGRAFIA

Nació en 1452 en la villa toscana de Vinci, hijo natural de una campesina,


Caterina (que se casó poco después con un artesano de la región), y de Ser Piero,
un rico notario florentino. Italia era entonces un mosaico de ciudades-estados
como Florencia, pequeñas repúblicas como Venecia y feudos bajo el poder de los
príncipes o el papa. El Imperio romano de Oriente cayó en 1453 ante los turcos y
apenas sobrevivía aún, muy reducido, el Sacro Imperio Romano Germánico; era
una época violenta en la que, sin embargo, el esplendor de las cortes no tenía
límites.

A pesar de que su padre se casó cuatro veces, sólo tuvo hijos (once en total,
con los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos
últimos matrimonios, por lo que Leonardo se crió como hijo único. Su enorme
curiosidad se manifestó tempranamente, dibujando animales mitológicos de su
propia invención, inspirados en una profunda observación del entorno natural en el
que creció. Giorgio Vasari, su primer biógrafo, relata cómo el genio de Leonardo,
siendo aún un niño, creó un escudo de Medusa con dragones que aterrorizó a su
padre cuando se topó con él por sorpresa.

216
Recreación del autorretrato de
Leonardo

Consciente ya del talento de su hijo, su padre lo autorizó, cuando Leonardo


cumplió los catorce años, a ingresar como aprendiz en el taller de Andrea del
Verrocchio, en donde, a lo largo de los seis años que el gremio de pintores
prescribía como instrucción antes de ser reconocido como artista libre, aprendió
pintura, escultura, técnicas y mecánicas de la creación artística. El primer trabajo
suyo del que se tiene certera noticia fue la construcción de la esfera de cobre
proyectada por Brunelleschi para coronar la iglesia de Santa Maria dei Fiori. Junto
al taller de Verrocchio, además, se encontraba el de Antonio Pollaiuollo, en donde
Leonardo hizo sus primeros estudios de anatomía y, quizá, se inició también en el
conocimiento del latín y el griego.

Juventud y descubrimientos técnicos

Era un joven agraciado y vigoroso que había heredado la fuerza física de la


estirpe de su padre; es muy probable que fuera el modelo para la cabeza de San
Miguel en el cuadro de Verrocchio Tobías y el ángel, de finos y bellos rasgos. Por
lo demás, su gran imaginación creativa y la temprana maestría de su pincel, no
tardaron en superar a las de su maestro: en el Bautismo de Cristo, por ejemplo,
donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la
brusquedad del Bautista hecho por Verrocchio.

217
El joven discípulo utilizaba allí por vez primera una novedosa técnica recién
llegada de los Países Bajos: la pintura al óleo, que permitía una mayor blandura
en el trazo y una más profunda penetración en la tela. Además de los
extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro,
sus grandes obras de este período son un San Jerónimo y el gran panel La
adoración de los Magos (ambos inconclusos), notables por el innovador
dinamismo otorgado por la maestría en los contrastes de rasgos, en la
composición geométrica de la escena y en el extraordinario manejo de la técnica
del claroscuro.

Florencia era entonces una de las ciudades más ricas de Europa; sus talleres de
manufacturas de sedas y brocados de oriente y de lanas de occidente, y sus
numerosas tejedurías la convertían en el gran centro comercial de la península
itálica; allí los Médicis habían establecido una corte cuyo esplendor debía no poco
a los artistas con que contaba. Pero cuando el joven Leonardo comprobó que no
conseguía de Lorenzo el Magnífico más que alabanzas a sus virtudes de buen
cortesano, a sus treinta años decidió buscar un horizonte más prospero.

Primer período milanés

En 1482 se presentó ante el poderoso Ludovico Sforza, el hombre fuerte de


Milán por entonces, en cuya corte se quedaría diecisiete años como «pictor et
ingenierius ducalis». Aunque su ocupación principal era la de ingeniero militar, sus
proyectos (casi todos irrealizados) abarcaron la hidráulica, la mecánica (con
innovadores sistemas de palancas para multiplicar la fuerza humana), la
arquitectura, además de la pintura y la escultura. Fue su período de pleno
desarrollo; siguiendo las bases matemáticas fijadas por León Bautista Alberti y
Piero della Francesca, Leonardo comenzó sus apuntes para la formulación de una
ciencia de la pintura, al tiempo que se ejercitaba en la ejecución y fabricación de
laúdes.

Estimulado por la dramática peste que asoló Milán y cuya causa veía Leonardo
en el hacinamiento y suciedad de la ciudad, proyectó espaciosas villas, hizo
planos para canalizaciones de ríos e ingeniosos sistemas de defensa ante la
artillería enemiga. Habiendo recibido de Ludovico el encargo de crear una
monumental estatua ecuestre en honor de Francesco, el fundador de la dinastía
Sforza, Leonardo trabajó durante dieciséis años en el proyecto del «gran caballo»,
que no se concretaría más que en una maqueta, destruida poco después durante
una batalla.

218
El hombre de Vitruvio, canon del
cuerpo humano

Resultó sobre todo fecunda su amistad con el matemático Luca Pacioli, fraile
franciscano que en 1494 publicó su tratado de la Divina proportione, ilustrada por
Leonardo. Ponderando la vista como el instrumento de conocimiento más certero
con que cuenta el ser humano, Leonardo sostuvo que a través de una atenta
observación debían reconocerse los objetos en su forma y estructura para
describirlos en la pintura de la manera más exacta. De este modo el dibujo se
convertía en el instrumento fundamental de su método didáctico, al punto que
podía decirse que en sus apuntes el texto estaba para explicar el dibujo, y no éste
para ilustrar a aquél, por lo que Da Vinci ha sido reconocido como el creador de la
moderna ilustración científica.

El ideal del saper vedere guió todos sus estudios, que en la década de 1490
comenzaron a perfilarse como una serie de tratados (inconclusos, que fueron
recopilados luego en el Codex Atlanticus, así llamado por su gran tamaño). Incluye
trabajos sobre pintura, arquitectura, mecánica, anatomía, geografía, botánica,
hidráulica, aerodinámica, fundiendo arte y ciencia en una cosmología individual
que da, además, una vía de salida para un debate estético que se encontraba
anclado en un más bien estéril neoplatonismo.

Aunque Leonardo no parece que se preocupara demasiado por formar su propia


escuela, en su taller milanés se creó poco a poco un grupo de fieles aprendices y
alumnos: Giovanni Boltraffio, Ambrogio de Predis, Andrea Solari, su inseparable
Salai, entre otros; los estudiosos no se han puesto de acuerdo aún acerca de la
exacta atribución de algunas obras de este período, tales como la Madona Litta o

219
el retrato de Lucrezia Crivelli. Contratado en 1483 por la hermandad de la
Inmaculada Concepción para realizar una pintura para la iglesia de San Francisco,
Leonardo emprendió la realización de lo que sería la celebérrima Virgen de las
Rocas, cuyo resultado final, en dos versiones, no estaría listo a los ocho meses
que marcaba el contrato, sino veinte años más tarde. La estructura triangular de la
composición, la gracia de las figuras, el brillante uso del famoso sfumato para
realzar el sentido visionario de la escena, convierten a ambas obras en una nueva
revolución estética para sus contemporáneos.

A este mismo período pertenecen el retrato de Ginevra de Benci (1475-1478),


con su innovadora relación de proximidad y distancia y la belleza expresiva de La
belle Ferronière. Pero hacia 1498 Leonardo finalizaba una pintura mural, en
principio un encargo modesto para el refectorio del convento dominico de Santa
Maria dalle Grazie, que se convertiría en su definitiva consagración pictórica: La
última cena. Necesitamos hoy un esfuerzo para comprender su esplendor original,
ya que se deterioró rápidamente y fue mal restaurada muchas veces. La genial
captación plástica del dramático momento en que Cristo dice a los apóstoles «uno
de vosotros me traicionará» otorga a la escena una unidad psicológica y una
dinámica aprehensión del momento fugaz de sorpresa de los comensales (del que
sólo Judas queda excluido). El mural se convirtió no sólo en un celebrado icono
cristiano, sino también en un objeto de peregrinación para artistas de todo el
continente.

El regreso a Florencia

A finales de 1499 los franceses entraron en Milán; Ludovico el Moro perdió el


poder. Leonardo abandonó la ciudad acompañado de Pacioli y tras una breve
estancia en casa de su admiradora la marquesa Isabel de Este, en Mantua, llegó a
Venecia. Acosada por los turcos, que ya dominaban la costa dálmata y
amenazaban con tomar el Friuli, la Signoria contrató a Leonardo como ingeniero
militar.

En pocas semanas proyectó una cantidad de artefactos cuya realización


concreta no se haría sino, en muchos casos, hasta los siglos XIX o XX, desde una
suerte de submarino individual, con un tubo de cuero para tomar aire destinado a
unos soldados que, armados con taladro, atacarían las embarcaciones por debajo,
hasta grandes piezas de artillería con proyectiles de acción retardada y barcos con
doble pared para resistir las embestidas. Los costes desorbitados, la falta de
tiempo y, quizá, las excesivas (para los venecianos) pretensiones de Leonardo en
el reparto del botín, hicieron que las geniales ideas no pasaran de bocetos. En
abril de 1500 Da Vinci entró en Florencia, tras veinte años de ausencia.

César Borgia, hijo del papa Alejandro VI, hombre ambicioso y temido, descrito
por el propio Maquiavelo como «modelo insuperable» de intrigador político y
déspota, dominaba Florencia y se preparaba para lanzarse a la conquista de
nuevos territorios. Leonardo, nuevamente como ingeniero militar, recorrió los
terrenos del norte, trazando mapas, calculando distancias precisas, proyectando
220
puentes y nuevas armas de artillería. Pero poco después el condottiero cayó en
desgracia: sus capitanes se sublevaron, su padre fue envenenado y él mismo
cayó gravemente enfermo. En 1503 Leonardo volvió a la ciudad, que por entonces
se encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el
río Arno por detrás de la ciudad enemiga cercándola y contemplando la
construcción de un canal como vía navegable que comunicase Florencia con el
mar: el proyecto sólo se concretó en los extraordinarios mapas de su autor.

Pero Leonardo ya era reconocido como uno de los mayores maestros de Italia.
En 1501 había causado admiración con su Santa Ana, la Virgen y el Niño; en 1503
recibió el encargo de pintar un gran mural (el doble del tamaño de La última cena)
en el palacio Viejo: la nobleza florentina quería inmortalizar algunas escenas
históricas de su gloria. Leonardo trabajó tres años en La batalla de Angheri, que
quedaría inconclusa y sería luego desprendida por su deterioro. Importante por los
bocetos y copias, éstas admirarían a Rafael e inspirarían, un siglo más tarde, una
célebre de Peter Paul Rubens.

También sólo en copias sobrevivió otra gran obra de este periodo: Leda y el
cisne. Sin embargo, la cumbre de esta etapa florentina (y una de las pocas obras
acabadas por Leonardo) fue el retrato de Mona Lisa. Obra famosa desde el
momento de su creación, se convirtió en modelo de retrato y casi nadie escaparía
a su influjo en el mundo de la pintura. La mítica Gioconda ha inspirado infinidad de
libros y leyendas, y hasta una ópera; pero poco se sabe de su vida. Ni siquiera se
conoce quién encargó el cuadro, que Leonardo se llevó consigo a Francia, donde
lo vendió al rey Francisco I por cuatro mil piezas de oro. Perfeccionando su propio
hallazgo del sfumato, llevándolo a una concreción casi milagrosa, Leonardo logró
plasmar un gesto entre lo fugaz y lo perenne: la «enigmática sonrisa» de la
Gioconda es uno de los capítulos más admirados, comentados e imitados de la
historia del arte y su misterio sigue aún hoy fascinando. Existe la leyenda de que
Leonardo promovía ese gesto en su modelo haciendo sonar laúdes mientras ella
posaba; el cuadro, que ha atravesado no pocas vicisitudes, ha sido considerado
como cumbre y resumen del talento y la «ciencia pictórica» de su autor.

De nuevo en Milán: de 1506 a 1513

El interés de Leonardo por los estudios científicos era cada vez más intenso:
asistía a disecciones de cadáveres, sobre los que confeccionaba dibujos para
describir la estructura y funcionamiento del cuerpo humano. Al mismo tiempo
hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba
escribir un tratado), en la convicción de que también el hombre podría volar si
llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este
período se han visto como claros precursores del moderno helicóptero).

Absorto por estas cavilaciones e inquietudes, Leonardo no dudó en abandonar


Florencia cuando en 1506 Charles d'Amboise, gobernador francés de Milán, le
ofreció el cargo de arquitecto y pintor de la corte; honrado y admirado por su
nuevo patrón, Da Vinci proyectó para él un castillo y ejecutó bocetos para el
221
oratorio de Santa Maria dalla Fontana, fundado por aquél. Su estadía milanesa
sólo se interrumpió en el invierno de 1507 cuando, en Florencia, colaboró con el
escultor Giovanni Francesco Rustici en la ejecución de los bronces del baptisterio
de la ciudad.

Quizás excesivamente avejentado para los cincuenta años que contaba


entonces, su rostro fue tomado por Rafael como modelo del sublime Platón para
su obra La escuela de Atenas. Leonardo, en cambio, pintaba poco dedicándose a
recopilar sus escritos y a profundizar sus estudios: con la idea de tener finalizado
para 1510 su tratado de anatomía trabajaba junto a Marcantonio della Torre, el
más célebre anatomista de su tiempo, en la descripción de órganos y el estudio de
la fisiología humana. El ideal leonardesco de la «percepción cosmológica» se
manifestaba en múltiples ramas: escribía sobre matemáticas, óptica, mecánica,
geología, botánica; su búsqueda tendía hacia el encuentro de leyes funciones y
armonías compatibles para todas estas disciplinas, para la naturaleza como
unidad. Paralelamente, a sus antiguos discípulos se sumaron algunos nuevos,
entre ellos el joven noble Francesco Melzi, fiel amigo del maestro hasta su muerte.
Junto a Ambrogio de Predis, Leonardo culminó en 1508 la segunda versión de La
Virgen de las Rocas; poco antes, había dejado sin cumplir un encargo del rey de
Francia para pintar dos madonnas.

Ultimos años: Roma y Francia

El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio, quien
pretendía retomar para sí el monumental proyecto del «gran caballo»,
convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San
Nazaro Magiore; pero tampoco esta vez el monumento ecuestre pasó de los
bocetos, lo que supuso para Leonardo su segunda frustración como escultor. En
1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán;
junto a Melzi y Salai marchó a Roma, donde se albergó en el belvedere de Giulano
de Médicis, hermano del nuevo papa León X.

En el Vaticano vivió una etapa de tranquilidad, con un sueldo digno y sin


grandes obligaciones: dibujó mapas, estudió antiguos monumentos romanos,
proyectó una gran residencia para los Médicis en Florencia y, además, trabó una
estrecha amistad con el gran arquitecto Bramante, hasta la muerte de éste en
1514. Pero en 1516, muerto su protector Giulano de Médicis, Leonardo dejó Italia
definitivamente, para pasar los tres últimos años de su vida en el palacio de Cloux
como «primer pintor, arquitecto y mecánico del rey».

El gran respeto que Francisco I le dispensó hizo que Leonardo pasase esta
última etapa de su vida más bien como un miembro de la nobleza que como un
empleado de la casa real. Fatigado y concentrado en la redacción de sus últimas
páginas para su tratado sobre la pintura, pintó poco aunque todavía ejecutó
extraordinarios dibujos sobre temas bíblicos y apocalípticos. Alcanzó a completar
el ambiguo San Juan Bautista, un andrógino duende que desborda gracia,

222
sensualidad y misterio; de hecho, sus discípulos lo imitarían poco después
convirtiéndolo en un pagano Baco, que hoy puede verse en el Louvre de París.

A partir de 1517 su salud, hasta entonces inquebrantable, comenzó a


desmejorar. Su brazo derecho quedó paralizado; pero con su incansable mano
izquierda Leonardo aún hizo bocetos de proyectos urbanísticos, de drenajes de
ríos y hasta decorados para las fiestas palaciegas. Su casa de Amboise se
convirtió en una especie de museo, plena de papeles y apuntes conteniendo las
ideas de este hombre excepcional, muchas de las cuales deberían esperar siglos
para demostrar su factibilidad e incluso su necesidad; llegó incluso, en esta época,
a concebir la idea de hacer casas prefabricadas. Sólo por las tres telas que eligió
para que lo acompañasen en su última etapa, la Gioconda, el San Juan y Santa
Ana, la Virgen y el Niño, puede decirse que Leonardo poseía entonces uno de los
grandes tesoros de su tiempo.

El 2 de mayo de 1519 murió en Cloux; su testamento legaba a Melzi todos sus


libros, manuscritos y dibujos, que éste se encargó de retornar a Italia. Como suele
suceder con los grandes genios, se han tejido en torno a su muerte algunas
leyendas; una de ellas, inspirada por Vasari, pretende que Leonardo, arrepentido
de no haber llevado una existencia regido por las leyes de la Iglesia, se confesó
largamente y, con sus últimas fuerzas, se incorporó del lecho mortuorio para
recibir antes de expirar, los sacramentos.

INVENTOS Y DISEÑOS
Puede comprenderse la actitud de Ludovico del Moro, duque de Milán, quien
permanecía más bien incrédulo ante tanta maravilla. Quiso tener a su lado a aquel
inventor de apenas 30 años, y que ya suscitaba la fascinación de un mago; pero
titubeó siempre antes de consentir en la realización de sus proyectos, por
considerarlos irrealizables.
La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica
por considerar que superaban las posibilidades de la técnica de la época, a pesar
de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y
resolviendo las dificultades de la construcción.
Muchos de los diseños tienen de puño y letra del inventor, detallados planos y
planes de trabajo para el taller que habría de encargarse de realizar el proyecto.
Fue el primero en estudiar científicamente la resistencia de los materiales
utilizados en las construcciones mecánicas, y de tales investigaciones se sirvió
para establecer las secciones de las estructuras de sus máquinas.
Se puede sacar la conclusión que la no realización de casi todos sus inventos se
debe más a la audacia del proyecto que a las dificultades prácticas de la
fabricación.

223
Los contemporáneos de Da Vinci no creían posible que máquinas semejantes
pudieran existir.
La profunda imaginación de Leonardo lo llevo a diseñar un gran número de
máquinas ingeniosas, desde bélicas hasta instrumentos científicos y máquinas
voladoras.
A pesar de que únicamente los inventos militares fueron los que llevaron a sus
patrocinadores a brindarle apoyo económico, él se las ingenió para desarrollar
paralelamente principios básicos de ingeniería general.
Toda su obra fue agrupada –por el mismo Leonardo- en los tres elementos: aire,
tierra y agua.
Entre sus inventos de aire encontramos, entre otros, la hélice aérea, precursora
del helicóptero, la máquina voladora vertical, o el paracaídas, casi del mismo
diseño que los actuales.
Su obra de tierra se divide entre lo militar, en especial con la capacidad de
multiplicar el poder del fuego: ametralladora, tanque militar o cureña de cañón y
los diseños generales como los de un carro automotor, una grúa o una bicicleta,
entre otros.

modelo de bicicleta
El agua ejerció en Da Vinci un especial atractivo.
Su imaginación dio origen al doble casco de las
embarcaciones, el puente giratorio o múltiples
aparatos basados en el “tornillo de Arquímedes”,
un mecanismo por el cual se podía movilizar el
agua en contra de la fuerza de gravedad.

A continuación se muestran algunas de las invenciones de Leonardo.

Aire

Hélice Aérea
Leonardo estaba fascinado por la forma helicoidal, muy común en la naturaleza, e
involucrada en el principio de la hélice. Aplicando una variante del principio de

224
Arquímedes, su hélice aérea –un modelo a escala- antecede al helicóptero y a las
hélices de nuestros días.
Cuatro hombres apoyando los pies sobre la plataforma central debían hacer
fuerza sobre las barras sujetas al palo vertical.
De esta manera habrían hecho girar sobre sí mismo al inmenso y livianísimo
“tornillo” de diez metros de diámetro, que se elevaría luego “enroscándose” en el
aire.

Diagrama original Maqueta

Esta máquina, lógicamente, no habría podido volar jamás, pero ofrece un


concepto científicamente exacto.
En el mismo principio se basan los modernos helicópteros, en los que la gran
hélice horizontal obra exactamente como este tornillo, con la ventaja de actuar a
una gran velocidad.

225
Máquinas voladoras
Cautivado por la posibilidad de volar, Da Vinci diseñó varios dispositivos para ese
fin que, aunque sin aplicación práctica inmediata, establecieron algunos principios
de la aerodinámica.
Entre las que ideó y esbozó se encontraba un
“ornitóptero”, máquina diseñada para volar batiendo las
alas, simulando los movimientos de un ave en vuelo.
Los ornitópteros han despertado el interés de los
entusiastas por la aviación desde hace cientos de años, en
el transcurso de los cuales se han desarrollado distintos
diseños.

Paracaídas
Para Leonardo, el hombre podría dominar el vuelo. Pero
también debería estar preparado para atenuar caídas.
Concibió la idea del paracaídas, e indicó claramente sus
dimensiones.
Dejó escrito: “si un hombre dispone de un dosel de paño que
tenga 12 brazos de cara por 12 de alto, podrá arrojarse de
cualquier altura, sin hacerse daño.”
Es por eso que experimento una serie de modelos con ese
objetivo. Finalmente inventó este paracaídas, con un diseño
familiar a los actuales. Fue probado con éxito desde una
torre construida especialmente para ello.

Planeador
Leonardo fue quien afrontó por primera vez el problema del vuelo e inventó una
especie de aeroplano sin motor que sería capaz de volar sostenido por las
corrientes de aire.
Para ello se basó en un intensivo estudio sobre las alas de los murciélagos. Su
máquina de volar funcionaba como un planeador, por lo que era incapaz de
mantenerse mucho tiempo en el aire.

226
maqueta

Tierra

Automóvil
Usando varios bocetos que dejó en uno de sus códices, se ha
podido construir un automóvil ideado hace más de cinco siglos
por Leonardo da Vinci y capaz de recorrer varios metros.

Está formado por un carro de madera con varios muelles


ballesta para regular el movimiento, al tiempo que la
propulsión proviene de dos muelles de espiral colocados en la
parte baja del prototipo y que le permiten recorrer varios
metros de forma autónoma. La máquina está dotada de un
rudimentario diferencial, que permite controlar la dirección.

Engranajes

Resultan casi obsesivos los


estudios de engranajes en las
anotaciones de Leonardo. Este
estudio fue muy importante en muchos de
sus inventos.

227
Además, ha mantenido importancia a través de los años, teniendo muchas
aplicaciones en la tecnología moderna.

Gato
Como el levantar grandes pesos constituye uno de los problemas más comunes
de la ingeniería y mecánica, Leonardo Da Vinci dedicó mucho tiempo al diseño de
dispositivos en los que aplicó los principios de la polea.
El mismo diseño se utiliza hoy en día en los gatos para
elevar automotores.

Incluso en los planos se observa que el diseño de esta


herramienta casi no ha sufrido variaciones, no obstante
el tiempo transcurrido.

Ametralladora
Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras;
previó el empleo de numerosas bocas de fuego montadas sobre una única cureña
y de pequeños proyectiles o explosivos que, cargados en un solo cañón, se
esparcirán después del disparo.
Construida con diez cilindros que pueden dispararse
uno a uno o simultáneamente según la necesidad.

El diseño se usó hasta bien avanzado el siglo XVIII.

Cañones

228
Esta máquina bélica ideada por Leonardo es un cañón de bocas múltiples, dotado
de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio, y con
capacidad de disparar tres cargas de once tiros consecutivos.

diagrama original maqueta

Cañón de vapor
Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza
de expansión del vapor de agua.
La recarga de los cañones por la parte posterior (retrocarga) fue otro de sus
geniales inventos, que tuvieron una aplicación práctica sólo unos siglos después.
Obsérvese en la ilustración, el ingenioso dispositivo para la abertura del obturador
en forma de tornillo cónico.

229
Otros inventos de Leonardo en el campo de las armas de fuego fueron los
proyectiles de punta ojival y el dispositivo para el encendido automático de la
mecha en los arcabuces y en las pistolas; este invento fue aplicado enseguida.

Tanque militar
“Carro de asalto” proyectado por Leonardo hace cuatrocientos años. Estaría
provista de un revestimiento cónico, a fin de que los proyectiles resbalasen por
encima.
Anticipo del tanque moderno. Este
carro (que según su creador
“remplazaría a los elefantes en las
batallas”) se movía con la fuerza
de hombres que, en el interior del
mismo, daban vuelta a manivelas
relacionadas con las ruedas
mediante engranajes.

Agua

Barco
Barco con propulsión de paletas proyectado por Leonardo. Este barco está dotado
con un mecanismo de ruedas con paletas, de unos 90 cm de largo.
Este mecanismo, al ser accionado con las manos, pondría en movimiento las
paletas y lo haría navegar a velocidad considerable.
Según sus cálculos, haciendo realizar
a la rueda dentada (movida mediante
una manivela) cincuenta vueltas por
minuto la embarcación avanzaría a la
velocidad de 50 millas por hora. Tal
tipo de propulsión encontraría
aplicación sólo tres siglos después con
la navegación a vapor.

230
Draga
También figura entre sus proyectos el de una draga lagunera. Una draga
excavadora que se podía usar
para la limpieza del fondo de los
canales.
Los cubos, o palas excavadoras,
actuaban uno tras otro.
Estos estaban dispuestos de tal
forma que permitían descargar
automáticamente en un depósito
especial, los flotadores de
almacenaje, el material recogido.
Este principio es idéntico al de las dragas modernas.

Sistema de Irrigación
Leonardo fue el primero en llevar a la práctica el Principio de Arquímedes, base
teórica del “tornillo sin fin”.
Haciendo girar esta pieza, el agua podía ser trasladada a un nivel más alto,
mediante una serie de giros helicoidales.
Es el mismo mecanismo que se utiliza en los actuales sistemas de irrigación.

Traje de Buzo
Traje de buzo y aleta para aplicar a las manos para la natación submarina. El
conjunto no es muy distinto de los que utilizan en la actualidad los hombres-rana.

231
traje
aleta
Las aletas son parecidas a las actuales “pata de rana”, sólo que se usan en los
pies y no en las manos.
Leonardo proyectó asimismo una escafandra y un sumergible de doble casco.

Conclusión Personal

Podemos concluir que Leonardo Da Vinci fue y será una de las mentes más
brillantes de todos los tiempos, ya que se adelanto por mucho a la manera de
pensar de su época.

Leonardo Da Vinci II

232
Este trabajo de investigación es muy importante a mi parecer para la historia de la
humanidad ya que Da Vinci no solo se distingue por ser uno de los mejores
pintores o escultores, si no que la verdad era un genio por sus grandes inventos a
nivel tecnológico que hoy en día se aplican en los más avanzadas técnicas
ingenieriles, ya que sus ideas eran muy avanzadas para su tiempo.
Por eso es que este tema resulta muy interesante solo por el simple o tal vez el
extraordinario hecho de que Leonardo Da Vinci era un maestro en las artes y la
ciencia, por lo tanto estuvo interesado en todos los aspectos del saber.
Pero por el momento abordaremos solo y especialmente el notable interés de
Leonardo Da Vinci hacia la ciencia y la tecnología, ya que a casi 500 años de su
muerte no deja de intrigarnos, así pues dando pie a nuestro desarrollo.

233
DESARROLLO.

Actualmente vemos en guerras la tecnología de primer nivel que al paso del


tiempo se ha ido desarrollando pero que comenzó hace 5 siglos durante la época
de Leonardo da Vinci en el renacimiento italiano. Actualmente Leonardo es mas
conocido por sus hermosas y asombrosas pinturas que por otros aspectos de su
vida como puede ser el de ingeniero militar, ya que a Leonardo le fascinaba la
guerra en el sentido físico, esto no quiere decir que le interesaran los asesinatos,
si no la dinámica, los nuevos inventos presentados ya fueran de él o de alguien
mas. El interés bélico de Da Vinci nos habla de su persona, del inventor y del
mundo que lo rodeó: Leonardo nació en Vinci, Italia el 15 de abril de 1452 y murió
en Amboise el 2 de mayo de 1519 a la edad de 67 años. En su pueblo natal
desarrollo el gusto por la pintura, porque le gustaba plasmar la naturaleza que lo
rodeaba.

El joven Leonardo era un amante de la naturaleza, la cual observaba con gran


curiosidad y le interesaba. Dibujaba caricaturas y practicaba la escritura especular en
dialecto toscano. Giorgio Vasari cuenta una anécdota sobre los primeros pasos en la
carrera artística del gran artista: «un día, ser Piero tomó algunos de sus dibujos y
se los mostró a su amigo Andrea del Verrocchio y le pidió insistentemente que le dijera si
Leonardo se podría dedicar al arte del dibujo y si podría conseguir algo en esta
materia. Andrea se sorprendió mucho de los extraordinarios dones de Leonardo y
le recomendó a ser Piero que le dejara escoger este oficio, de manera que ser
Piero resolvió que Leonardo entraría a trabajar en el taller de Andrea. Leonardo no
se hizo rogar; y, no contento con ejercer este oficio, realizó todo lo que se
relacionaba con el arte del dibujo». Fue así como, a partir de 1469, Leonardo entró
como aprendiz a uno de los talleres de arte más prestigiosos bajo el magisterio de
Andrea del Verrocchio, a quien debe parte de su excelente formación
multidisciplinaria, en la que se aproxima a otros artistas como Sandro Botticelli, Perugino
y Domenico Ghirlandaio.[] []En efecto, a finales de 1468, aunque Leonardo estaba
empadronado como residente del municipio de Vinci, viajaba muy a menudo en
[]
Florencia, donde su padre trabajaba.

Verrocchio fue un artista de renombre,[] y muy ecléctico. De formación era orfebre y


herrero,[ ]pero además fue pintor, escultor y fundidor. Trabajó sobre todo para el poderoso
Lorenzo de Médici. Los encargos principales fueron retablos y estatuas
conmemorativas para las iglesias, pero sus obras más grandes fueron frescos
para las capillas, como las creadas por Domenico Ghirlandaio para la capilla Tornabuoni,
y grandes esculturas como las estatuas ecuestres de Erasmo de Narni por Donatello y
Bartolomeo Colleoni de Verrocchio.[] Leonardo trabajó también con Antonio Pollaiuolo, que
tenía su taller muy cerca del de Verrocchio.

234
Después de un año dedicado a la limpieza de los pinceles y otras pequeñas
actividades propias de un aprendiz, Verrocchio inició a Leonardo en las numerosas
técnicas que se practicaban en un taller tradicional. Así, en este contexto,
Leonardo tuvo la oportunidad de aprender las bases de la química, de la metalurgia, del
trabajo del cuero y del yeso, de la mecánica y de la carpintería, así como de diversas
técnicas artísticas como el dibujo, la pintura y la escultura sobre mármol y bronce.[]
[]Igualmente, recibió formación en habilidades como la preparación de los colores,
el grabado y la pintura de los frescos. Al darse cuenta del talento excepcional que
tenía Leonardo, Verrocchio decidió confiarle a su alumno terminar algunos de sus
trabajos.

La formación recibida durante su aprendizaje en el taller de Verrochio va más allá


y se extiende a otros ámbitos culturales. Estudió cálculo algorítmico y mostró el buen
conocimiento que tenía citando a los dos abaquistas florentinos más relevantes,
Paolo Toscanelli del Pazzo y Leonardoo Chernionese.[] Posteriormente, Leonardo
mencionó la Nobel opera de arithmética de Piero Borgi, impresa en Venecia en 1484,
y que representa perfectamente el saber de estas escuelas de abaquistas.[]

No se conoce la existencia de ninguna obra de Leonardo durante la época en que


trabajó con Verrochio. Según Vasari, únicamente colaboró en una pintura llamada
Bautismo de Cristo (1472-1475).[]Por otra parte, según la leyenda, Verrocchio abandonó la
terminación de la obra cuando se sintió superado por la calidad del joven
Leonardo, que dejó su toque magistral en un pequeño ángel presente en la obra.[]
También, de acuerdo con la tradición de que era el aprendiz quien debía posar,[]
Leonardo habría servido de modelo para el David de Verrocchio, una estatua en
bronce. Del mismo modo, también se supone que es el retrato de Leonardo el que
representa al arcángel Miguel en la obra Tobías y el ángel de Verrocchio.[]

En 1472, a la edad de veinte años, apareció registrado en el Libro rojo del gremio Sint-
Lucasgilde, el célebre gremio de los artistas y doctores en medicina, que en Florencia se
agrupaba con la denominación de la "Campagnia de pittori". De esta época deriva
uno de sus primeros trabajos conocidos, el Paisaje del valle del Arno o Paisaje de
Santa Maria della neve (1473), un dibujo hecho con pluma y tinta.[] Fue así como
comenzó su carrera de pintor con obras ya destacables como La Anunciación (1472-
1475), y mejoró la técnica del sfumato hasta un punto de refinamiento nunca
conseguido antes de él.

En el año 1476 siempre aparece mencionado como ayudante de Verrocchio, ya


que, incluso después de que su padre le ayudase a tener su propio taller, él

235
continuó colaborando con Verrocchio debido a que le profesaba un gran afecto.[]
Durante este período, recibió encargos personales y pintó su primer cuadro, La
Virgen del clavel (1476). El archivo judicial de este mismo año recoge el dato de que él
y tres hombres más fueron acusados en un caso de sodomía, práctica que en
aquella época en Florencia era ilegal, pero todos fueron absueltos.[] Este documento,
que partía de una acusación anónima, no permite afirmar categóricamente que
Leonardo fuera homosexual.[]

Pronto Leonardo también destacó como ingeniero. En 1478, se ofreció para levantar la
iglesia octagonal de San Juan de Florencia.[] En ese año Leonardo contaba con
26 años, y fue cuando se alejó de lado de su maestro después de haberlo
superado brillantemente en todas las disciplinas. De esta manera se convirtió en
un maestro pintor independiente.

Leonardo era un hombre de campo pero gracias a su ambición salió de ese


ambiente para triunfar por sí mismo, se estreno en Florencia con su capacidad
como pintor, arquitecto, inventor e ingeniero. Su misma ambición lo traslado a
Milán una ciudad sumamente bélica, ofreciendo sus servicios como ingeniero
militar al duque de Milán, triunfando una vez más.

Pienso que en cualquier época la movilidad y forma de distribuirse puede ser


decisiva en un campo de batalla.

Da Vinci aporto en Milán grandes ideas como: puentes móviles y barcos de asalto.
Se dio cuenta que la manera más fácil de derrotar al enemigo era atemorizándolo
mas no matándolo y varios de sus diseños partieron de este pensamiento: la
ballesta gigante por citar alguno es uno de los mas intimidantes de todos, media
75X27 metros, los arcos estaban fabricados con madera fina bastante flexible, el
eje era un bloque que se deslizaba hacia atrás jalándolo con unas cuerdas y
apoyado de un gran engranaje.

En 1481 el monasterio de San Donato le encargó la Adoración de los magos, pero


Leonardo nunca acabó éste cuadro, probablemente decepcionado o humillado por
no haber sido elegido por el papa Sixto IV para decorar la capilla Sixtina del Vaticano, en
Roma, donde había una fuerte competencia entre varios pintores (como Miguel
Ángel).[] El neoplatonismo, que en aquel tiempo estaba de moda en Florencia, pudo
desempeñar también un importante papel en la decisión de su marcha a una
ciudad más abierta, académica y pragmática como Milán.[] Probablemente en éste

236
nuevo entorno estaba más en consonancia con su espíritu, que se basaba en un
desarrollo empírico de sus múltiples experimentos.

Leonardo pintó La Virgen de las Rocas (1483-1486) para la confraternidad de la


Inmaculada Concepción, que iría a la capilla San Francesco el Grande de Milán.
Este cuadro fue el origen de un conflicto entre el autor y los propietarios que duró
varios años.[] Leonardo obtuvo el derecho de poder copiar la obra, pero
posteriormente se inició un problema legal con esto.[] El problema no se resolvió
hasta que hubo decisiones judiciales y la intervención de algunos amigos,
terminando con dos versiones de la obra.

Donde se ofrece a Ludovico Moro como arquitecto, ingeniero militar, pintor y


escultor, siendo empleado como organizador de fiestas, creando complicados
mecanismos que se utilizarán en fiestas, espectáculos y torneos. Ludovico le
encarga una estatua ecuestre de su padre, Francesco Sforza, en grandes
proporciones para situarla en la plaza del Duomo de Milán. Leonardo trabajó en
ella durante dieciséis años y, aunque nunca fue fundida, dejó realizado un modelo
de caballo de ocho metros que fue destruido en 1499.

Participa en discusiones sobre la construcción de las catedrales de Milán y Pavía.


Durante sus diecisiete años de permanencia en Milán realiza las siguientes obras
pictóricas: La Virgen de las rocas (1483-93, Museo del Louvre); Retrato de un
músico (1485-90, Pinacoteca Ambrosiana, Milán); La belle ferronniére (1490-95,
Louvre); Dama con armiño (1485-90, Museo Czartoryski, Cracovia); Santa Ana, la
Virgen, el Niño y San Juan Bautista (1498-99, National Gallery, Londres); La Santa
Cena (1495-98, refectorio de Santa María delle Gracie, Milán).

En 1499 cae el ducado de Milán tras el enfrentamiento con Luis XII de Francia.
Leonardo se traslada a Vaprio, Mantua, donde realiza el retrato de Isabel de Este
(1500, Museo del Louvre) y Venecia, bajo el servicio de César Borgia para quien
realiza trabajos de ingeniería militar.

En pocas palabras Leonardo creaba, pero esto no garantizaba que todos sus
inventos funcionaran, o tal vez si funcionaban pero el problema estaba en que esa
época no se contaba con el material adecuado para fabricarlos.
Leonardo sabia que creando armas múltiples y móviles ganaría tiempo en la
batalla así como el cariño y el respeto de su jefe y de sus contrincantes, fue el
primero que comenzó a crear armas de fuego pero ninguna tan maravillosa e
impresionante como el tanque blindado de Leonardo.

237
Puede comprenderse la actitud de Ludovico el Moro, duque de Milán, quien
permanecía más bien incrédulo ante tanta maravilla. Quiso tener a su lado a aquel
inventor de apenas treinta años, y que ya suscitaba la fascinación de un mago;
pero titubeó siempre antes de consentir en la realización de sus proyectos, por
considerarlos irrealizables.

La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica


por considerar que superaban las posibilidades de la técnica de la época, a pesar
de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y
resolviendo las dificultades de la construcción.

Como ingeniero, son muchos los inventos atribuidos a Leonardo, desde un diseño
para la fabricación de un helicóptero (modelo dotado de alas giratorias equipado
con amortiguadores para conseguir un suave aterrizaje) o un vehículo automóvil
hasta el común rallador de pan, pasando por una práctica sierra para mármol, una
máquina para fabricar maromas, pechadoras de cardas para perchar el paño,
modernas puertas de batientes para las esclusas, máquinas para tallar tornillos y
limas; máquinas de guerra tales como el carro blindado, vehículo accionado
mediante una manivelas que utilizan la fuerza muscular, y dotado de una coraza
en forma de cono, las embarcaciones sumergibles (submarinos) o los trajes para
buzos de combate; una máquina para pulir espejos, fusiles de repetición y una
grúa móvil que facilitaría las labores de construcción, consiguiendo elevar pesadas
cargas; su excavadora flotante pretendía conseguir que los ríos fuesen
navegables; su molino de aire caliente, basado en el principio de la rueda de palas
y en el aprovechamiento del calor residual, que se hace funcionar mediante un
motor de palas que, instalado en una chimenea, gira a consecuencia de la
ascensión de gases de combustión caliente. El mismo sistema será utilizado en
otra de sus máquinas, pero haciendo que el motor sea movido por agua. Es un
precedente de los medidores de caudal inventados más tarde. Sin embargo,
ninguno de estos inventos pasó del estadio del diseño, ni fue utilizado, a pesar de
que Leonardo no solo diseñaba extraordinarias máquinas sino que también se
ocupaba de resolver todos y cada uno de los problemas relacionados con la
construcción de las mismas.

238
Muchos de los diseños de tienen de puño y letra del inventor detallados planos y
planes de trabajo para el taller que habría de encargarse de realizar el proyecto,
fue el primero en estudiar científicamente la resistencia de los materiales utilizados
en las construcciones mecánicas, y de tales investigaciones se sirvió para
establecer las secciones de las estructuras de sus maquinas.

Se puede sacar la conclusión que la no realización de casi todos sus inventos se


debe mas la audacia del proyecto que las dificultades practicas de fabricación los
contemporáneos de Leonardo no creían posible que maquinas semejantes
pudieran existir.

La profunda imaginación de Leonardo lo llevo a diseñar un gran numero de


maquinas ingeniosas, desde bélicas hasta instrumentos científico y maquinas
voladoras, a pesar de que solo los inventos militares fuero lo que lo llevaron a sus
patrocinadores a brindarle apoyo el que se las ingenio para desarrollar
paralelamente principios básicos de ingeniería general.

Todas sus obra fueron agrupadas – por el mismo Leonardo- en lo tres elementos
que son el aire, agua y tierra.

Aire

239
Hélice

Diagrama de la hélice

Leonardo estaba fascinado por la forma helicoidal, muy común en la naturaleza, e


involucrada en el principio de la hélice. Aplicando una variante del principio de
Arquímedes, su hélice aérea -un modelo a escala- antecede al helicóptero y a las

240
hélices de nuestros días.

La explicación de cómo funcionaba: el fue cuatro hombres apoyando los pies


sobre la plataforma central debían hacer fuerza sobre las barras sujetas ala palo
vertical, de esta manera habrían hecho girar sobre si mismo al inmenso y
livianísimo ¨tornillo¨ de diez metros de diámetro que se elevaría y luego se
¨enroscándose¨ en el aire.

Esta maquina lógicamente no hubiera podido volar jamás, pero ofrece un


concepto científicamente exacto ya que de seto están los helicópteros de la
actualidad, pero con la ventaja de que la nueva hélice tiene mas velocidad.

Maquinas voladoras

241
Diagrama de una maquina voladora

Cautivado por la posibilidad de volar, Da Vinci diseñó varios dispositivos para ese
fin que, aunque sin aplicación práctica inmediata, establecieron algunos principios
de la aerodinámica.

Entre la que ideo fue el ornitóptero maquina diseñada para volar batiendo las alas,
simulando los movimientos de un ave en vuelo, este invento a despertado el
interés de los entusiastas por la aviación desde hace cientos de años en el
transcurso de los cuales se han desarrollado distintos diseños.
Paracaídas

Diagrama del paracaídas

242
Para Leonardo el hombre podría dominar el vuelo, pero también debería estar
preparado atenuar una caída, concibió la idea del paracaídas, e indico claramente
sus dimensiones.
Dejo escrito en uno de sus bocetos: ¨si un hombre dispone de un dosel de de
puño que tenga 12 brazos de cara por 12 de alto, podrá arrojarse de cualquier
altura, sin hacerse daño¨.
Es por ello que experimento una serie de modelos con ese objetivo, finalmente
invento este para caídas, con un diseño similar a los actuales, fue probado con
éxito desde una torre construida especialmente para ello.

Bueno ahora damos paso a uno de los más grandes inventos de Da Vinci o el más
importante según de donde lo veas:

Planeador

243
Diagrama del planeador

Leonardo fue el primero en afrontar por primera vez el problema del vuelo e
invento una especie de aeroplano sin motor que seria capaz de volar sostenido
por las corrientes de aire.
Para ello se baso en un intenso estudio sobre las alas delos murciélagos, su
maquina de volar funcionaba como un planeador, por lo que era incapaz de
mantenerse mucho tiempo en el aire.

Tierra

Bueno ahora siguen inventos terrestres:

Automóvil

244
Diagrama del automóvil

Usando varios bocetos que dejó en uno de sus códices, se ha podido construir un
automóvil ideado hace más de cinco siglos por Leonardo da Vinci y capaz de
recorrer varios metros.

Este invento esta formado por un carro de manera con varios muelles ballesta
para regular el movimiento, al tiempo que la propulsión proviene de dos muelles
de espiral colocados en la parte baja del prototipo y que le permiten recorre varios
metros de forma autónoma. La maquina esta dotada de un rudimentario
diferencial, que permite controlar la dirección.

Engranajes

245
DD
Diagrama de una maquina de engranaje

Resultan casi obsesivos los estudios de los engranajes en las anotaciones de


Leonardo, este estudio fue un paso importante en muchos de sus inventos.
Además, ha mantenido importancia a través de los años, teniendo en la tecnología ya
que es la base de muchas maquinas modernas para su funcionamiento.

Grúa

246
Diagrama de una grúa

De este no hay mucho de que se baso pero si nos dice como era y como estaba
colocada, la grúa giratoria inventada por nuestro gran creador, montada sobre una
plataforma de rodillos, esta provista de una caja de contrapeso y de un cabestrante
dotado de un freno dentado, de esto mismo se basaron para crear la grúas modernas
pero con mas avance tecnológico.

Y pues ahora son los invento terrestres pero con sentido bélico ya que nuestro amigo
Da Vinci era un gran fan de esto pero como ya mencionado antes era mas apoyado
en esto que en lo demás.

247
Ametralladora

Diagrama de la ametralladora

Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras; previó
el empleo de numerosas bocas de fuego montadas sobre una única cureña y de
pequeños proyectiles o explosivos que, cargados en un solo cañón, se esparcirán
después del disparo.
Esta construida con diez cilindros que pueden dispararse uno a una o
simultáneamente según la necesidad, este diseño se uso hasta bien avanzado el siglo
XVIII que fue evolucionando hasta la que podemos ver ahora.

248
Cañones

Diagrama original

Esta maquina bélica ideada por Leonardo es un cañón de bocas múltiples, dotado
de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio y con
capacidad para disparar tres cargas de once tiros consecutivos. Dispara una serie,
mientras se dispara la segunda y se enfriaba la tercera, se podía recargar la
primera y así sucesivamente el poder de fuego.

Cañón de vapor

249
Figura

Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza
de expansión del vapor de agua. La carga de los cañones por la parte posterior
fue otro de sus geniales inventos, que tuvieron una aplicación práctica siglos
después.
Otros inventos de Leonardo en el campo de las armas de fuego fueron los
proyectiles de punta ojival y el dispositivo para el encendido automático de la
mecha en los arcabuces y en las pistolas
Tanque militar

Diagrama original

Carro de asalto proyectado por Leonardo hace 400 años. Estaría provista de un
revestimiento cónico, a fin de que los proyectiles resbalasen por encima, anticipo
del tanque moderno. Este carro según su creador ¨ reemplazaría a los elefantes

250
en las batallas¨, se movía con la fuerza de hombres que, en el interior, daban
vuelta alas manivelas relacionadas con las ruedas mediante engranajes.
Con esto damos fin a los inventos de que se basan en la tierra y ahora los
siguientes son lo del Agua.
Agua
Embarcación

Diagrama original

Barco dotado con un mecanismo de ruedas con paletas de 90 cm de largo. Este


mecanismo al ser accionado con las manos, pondría en movimiento las paletas y
lo haría navegar a la velocidad considerable.
Según sus cálculos, haciendo realizar la rueda dentada cincuenta vueltas por min
la embarcación avanzaría a la velocidad de 50 millas por hora.

Draga

251
D

Diagrama original

También figura en sus inventos una draga lagunera. Una draga excavadora que se
podía usar para la limpieza del fondo de los canales.
Los cubos o Palas excavadoras, actuaba una tras otra, estas estaban dispuestas
de tal forma que permitían descargar automáticamente en un depósito especial,
los flotadores de almacenaje, el material recogido. Este principio es idéntico al de
las dragas modernas.

Sistema de irrigación

252
Leonardo fue el primero en llevar a la practica el principio de Arquímedes base
teórica del tornillo sin fin.
Haciendo girar esta pieza el agua podía ser trasladada a un nivel más alto,
mediante una serie de giros helicoidales.

Traje de buzo

253
Proyecto de escafandra llamado así por Leonardo Da Vinci

Traje de buzo y aleta para aplicar a las manos para la natación submarina. Las
aletas son parecidas a las actuales ¨pata de rana¨, solo que se usan en los pies
En lugar de las manos.

Estos son algunos de los inventos de nuestro amigo el inventor mas importantes
entre los elementos ya que con base ha esto se desarrollaron los inventos que en
nuestra actualidad son muy necesarios para la humanidad ya que algunos son
medios de transporte, sistemas para tener un control ya sea para el agua o ciertos
materiales par la existencia de la humanidad.

Leonardo aspiraba al conocimiento total, globalizante, pero no aspiraba a llegar a


él por el camino del estudio de la revelación, como los escolásticos y los teólogos
de los siglos precedentes, ni tampoco por el del razonamiento intelectual que bebe
exclusivamente del saber de los autores anteriores. No fue escolástico ni se confió
a ciegas a la autoridad de los autores clásicos, como hicieron muchos hombres del
Renacimiento. Él mismo se definía como un "uomo senza lettere", porque,
efectivamente, era iletrado. Ignoraba el latín. Su educación había sido otra: de
niño le enseñaron simplemente a leer y escribir y a echar cuentas. Pero el latín,
única vía de acceso en esos momentos a los estudios humanistas, lo aprendió, y

254
por sus propios medios, siendo ya un hombre maduro; y lo mismo le ocurrió con
las matemáticas, que estudió tarde, cuando las encontró necesarias para seguir
avanzando. Sólo admitía como verdaderos métodos científicos la observación de
la naturaleza y la experimentación. El conocimiento de los escritores antiguos
tenía su utilidad como base, pero no como objetivo final.

Leonardo comprendió y utilizó el auténtico método experimental un siglo antes de


que Francis Bacón filosofase sobre él, y antes de que Galileo lo pusiese en
práctica. Leonardo no escribió tratados metodológicos, pero en sus cuadernos de
apuntes nos dejó esparcidas sus ideas. Dice que las matemáticas, la geometría y
la aritmética, pueden llegar a la certeza absoluta dentro de su propio ámbito, pues
manejan conceptos mentales ideales de valor universal. En cambio, la verdadera
ciencia (refiriéndose a las ciencias empíricas), se basa en la observación; si
pudiera aplicarse a ella el razonamiento matemático podría lograrse mayor grado
de certeza, siendo hoy en día, uno de los pasos fundamentales del método
científico. "No hay certeza en la ciencia si no se puede aplicar una de las ciencias
matemáticas".

En sus apuntes, Leonardo dejó constancia de la importancia que concede al


método en la investigación (adelantándose a autores de la Modernidad tales como
Descartes) y los preceptos que establece en su método en nada difieren de las
modernas definiciones que hoy utilizamos para hablar del método científico.
Podemos ver en estos textos una clara definición de los procesos de inducción y
deducción que hoy explicamos en nuestras clases de Física o Filosofía.

Este es uno delos tantos pensamientos que daba antes de empezar según el
inspirarse:

"Al abordar un problema científico, dispongo primero diversos experimentos, ya


que pretendo determinar el problema de acuerdo con la experiencia, mostrando
luego por qué los cuerpos se ven obligados a actuar de ese modo. Ese es el
método que hay que seguir en todas las investigaciones sobre los fenómenos de
la Naturaleza"

"Hemos de consultar a la experiencia en una diversidad de casos y circunstancias


hasta que podamos extraer de ellos una regla general que en ellos se contenga.
¿Para qué son útiles estas reglas? Nos conducen a ulteriores investigaciones
sobre la Naturaleza y a las creaciones artísticas. Nos impiden engañarnos a
nosotros mismos o a los demás prometiéndonos resultados que no se pueden
conseguir".

Pensaba que la mecánica era la más noble de las ciencias "puesto que vemos que
por medio de ella realizan sus acciones todos los cuerpos animados que poseen
movimiento". Previó el principio de inercia, que después Galileo demostró
experimentalmente, vio la imposibilidad experimental del "movimiento continuo
255
“como fuente de energía, adelantándose en esto a Steven de Brujas. Aprovechó el
conocimiento de esta imposibilidad para demostrar la ley de la palanca por el
método de las velocidades virtuales, un principio que ya enunciaba Aristóteles y
que utilizaron más tarde Bernardino Baldi y Galileo.

Resucitó Leonardo las ideas de Arquímedes sobre la presión de los fluidos y


demostró que los líquidos mantienen el mismo nivel en vasos comunicantes, y que
si se llenan ambos vasos con líquidos diferentes, sus alturas de nivel serán
inversamente proporcionales a sus densidades.

También se metió con la hidrodinámica. Escape de agua por los orificios, su


corriente por canal, propagación de las olas sobre la superficie, etc. De las olas en
el agua pasó a las ondas del aire y a las leyes del sonido, adelantándose a la
moderna teoría ondulatoria de la luz.

En el campo de la astronomía concibió una máquina celeste ajustada a


determinadas leyes, lo cual constituía en sí un avance sobre las ideas de
Aristóteles sobre las esferas etéreas. Afirma Leonardo que la tierra es uno de
tantos astros y promete demostrar en el libro que proyecta escribir, que la Tierra
refleja la luz del sol igual que la luna.

Leonardo da Vinci realiza una visión del hombre como centro del Universo al
quedar inscrito en un círculo y un cuadrado. El cuadrado es la base de lo clásico:
el módulo del cuadrado se emplea en toda la arquitectura clásica, el uso del
ángulo de 90º y la simetría son bases grecolatinas de la arquitectura. En él se
realiza un estudio anatómico buscando la proporcionalidad del cuerpo humano, el
canon clásico o ideal de belleza. Sigue los estudios del arquitecto Vitrubio (Marcus
Vitruvius Pollio) arquitecto romano del siglo I a.c. a quien Julio Cesar encarga la
construcción de máquinas de guerra. En época de Augusto escribió los diez tomos
de su obra De architectura, que trata de la construcción hidráulica, de cuadrantes
solares, de mecánica y de sus aplicaciones en arquitectura civil e ingeniería
militar. Vitrubio tuvo escasa influencia en su época pero no así en el renacimiento
ya que fue el punto de partida de sus intentos y la justificación de sus teorías. Su
obra fue publicada en Roma en 1486 realizándose numerosas ediciones como la
de Fra Giocondo en 1511, Venecia o la de Cesare Cesarino en 1521, Milán,
dedicada a Francisco I. Parece indudable que Leonardo se inspiró en el arquitecto
romano.

El hombre de Vitrubio es un claro ejemplo del enfoque globalizador de Leonardo


que se desarrolló muy rápidamente durante la segunda mitad de la década de
1480. Trataba de vincular la arquitectura y el cuerpo humano, un aspecto de su
interpretación de la naturaleza y del lugar de la humanidad en el "plan global de
las cosas". En este dibujo representa las proporciones que podían establecerse en
256
el cuerpo humano (por ejemplo, la proporción áurea). Para Leonardo, el hombre
era el modelo del universo y lo más importante era vincular lo que descubría en el
interior del cuerpo humano con lo que observaba en la naturaleza.

Internet
Los inicios de Internet nos remontan a los años 60. En plena guerra
fría, Estados Unidos crea una red exclusivamente militar, con el objetivo
de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a
la información militar desde cualquier punto del país.
Esta red se creó en 1969 y se llamó ARPANET. En principio, la red
contaba con 4 ordenadores distribuidos entre distintas universidades del
país. Dos años después, ya contaba con unos 40 ordenadores
conectados. Tanto fue el crecimiento de la red que su sistema de
comunicación se quedó obsoleto.
Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió
en el estándar de comunicaciones dentro de las redes informáticas
(actualmente seguimos utilizando dicho protocolo).

ARPANET siguió creciendo y abriéndose al mundo, y cualquier


persona con fines académicos o de investigación podía tener acceso a la
red.
Las funciones militares se desligaron de ARPANET y fueron a parar a
MILNET, una nueva red creada por los Estados Unidos.
La NSF (National Science Fundation) crea su propia red informática
llamada NSFNET, que más tarde absorbe a ARPANET, creando así una
gran red con propósitos científicos y académicos.
El desarrollo de las redes fue abismal, y se crean nuevas redes de libre

257
acceso que más tarde se unen a NSFNET, formando el embrión de lo que
hoy conocemos como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque


conocida por unos pocos.
El autor William Gibson hizo una revelación: el término "ciberespacio".
En ese tiempo la red era básicamente textual, así que el autor se baso
en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por
ser sinónimo de Internet.
El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con
alrededor de 100.000 servidores.

En el Centro Europeo de Investigaciones Nucleares (CERN), Tim


Berners Lee dirigía la búsqueda de un sistema de almacenamiento y
recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un
proyecto llamado "Xanadú”) de usar hipervínculos. Robert Caillau quien
cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre
al sistema y lo llamaron World Wide Web (WWW) o telaraña mundial.

La nueva formula permitía vincular información en forma lógica y a


través de las redes. El contenido se programaba en un lenguaje de
hipertexto con "etiquetas" que asignaban una función a cada parte del
contenido. Luego, un programa de computación, un intérprete, eran capaz
de leer esas etiquetas para despegar la información. Ese intérprete sería
conocido como "navegador" o "browser".

En 1993 Marc Andreesen produjo la primera versión del navegador


"Mosaic", que permitió acceder con mayor naturalidad a la WWW.
La interfaz gráfica iba más allá de lo previsto y la facilidad con la que
podía manejarse el programa abría la red a los legos. Poco después
Andreesen encabezó la creación del programa Netscape.

A partir de entonces Internet comenzó a crecer más rápido que otro


medio de comunicación, convirtiéndose en lo que hoy todos conocemos.

Algunos de los servicios disponibles en Internet aparte de la WEB


son el acceso remoto a otras máquinas (SSH y telnet), transferencia de
archivos (FTP), correo electrónico (SMTP), conversaciones en línea
(IMSN MESSENGER, ICQ, YIM, AOL, jabber), transmisión de archivos
(P2P, P2M, descarga directa), etc.

Justificación.

Yo elegí este tema porque todos hacemos uso de las diferentes


aplicaciones del internet sin saber como fue creado incluso no nos
preocupamos en mejorarlo sin no exigimos a las empresas que difunden
el internet mayor velocidad sin saber lo que esto implica.

258
Hoy en día utilizamos el internet para todo, de hecho se puede
trabaja r desde la comodidad de tu hogar vía internet, los comerciantes
difunden sus productos vía internet, lo cual hace a este tema muy
interesante

Internet.- Es una combinación de hardware (ordenadores


interconectados por vía telefónica o digital) y software (protocolos y
lenguajes que hacen que todo funcione). Es una infraestructura de redes a
escala mundial (grandes redes principales (tales como MILNET, NSFNET,
y CREN), y redes más pequeñas que conectan con ellas) que conecta a la
vez a todos los tipos de ordenadores.

Hay unos seis millones de ordenadores que utilizan Internet en todo


el mundo y que utilizan varios formatos y protocolos Internet:


Internet Protocol (IP): protocolo que se utiliza para dirigir un
paquete de datos desde su fuente a su destino a través de Internet.

Transport Control Protocol (TCP): protocolo de control de
transmisión, que se utiliza para administrar accesos.

User Datagram Protocol (UDP): protocolo del data grama del
usuario, que permite enviar un mensaje desde un ordenador a una
aplicación que se ejecuta en otro ordenador.

Internet tiene varios cuerpos administrativos:


Internet Archite curte Board, que supervisa tecnología y
estándares.

Internet Assigned Numbers Authority, que asigna los números
para los accesos, etc.

InterNIC, que asigna direcciones de Internet.

También: Internet Engineering and Planning Group, Internet
Engineering Steering Group, y la Internet Society.

259
Internet surgió de un proyecto desarrollado en Estados Unidos para
apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el
gobierno, universidades y otros centros académicos.

Internet ha supuesto una revolución sin precedentes en el mundo de la


informática y de las comunicaciones. Los inventos del telégrafo, teléfono,
radio y ordenador sentaron las bases para esta integración de
capacidades nunca antes vivida. Internet es a la vez una oportunidad de
difusión mundial, un mecanismo de propagación de la información y un
medio de colaboración e interacción entre los individuos y sus
ordenadores independientemente de su localización geográfica.

Orígenes de Internet
La primera descripción documentada acerca de las interacciones
sociales que podrían ser propiciadas a través del networking (trabajo en
red) está contenida en una serie de memorándums escritos por J.C.R.
Licklider, del Massachussets Institute of Technology, en Agosto de 1962,
en los cuales Licklider discute sobre su concepto de Galactic Network
(Red Galáctica).

El concibió una red interconectada globalmente a través de la que cada


uno pudiera acceder desde cualquier lugar a datos y programas. En
esencia, el concepto era muy parecido a la Internet actual. Licklider fue el
principal responsable del programa de investigación en ordenadores de la
DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a
sus sucesores Iván Sutherland, Bob Taylor, y el investigador del MIT
Lawrence G. Roberts de la importancia del concepto de trabajo en red.

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer


documento sobre la teoría de conmutación de paquetes. Kleinrock
convenció a Roberts de la factibilidad teórica de las comunicaciones vía
paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el
camino hacia el trabajo informático en red. El otro paso fundamental fue
hacer dialogar a los ordenadores entre sí.

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2


en Massachussets con un Q-32 en California a través de una línea
telefónica conmutada de baja velocidad, creando así la primera (aunque
reducida) red de ordenadores de área amplia jamás construida. El
resultado del experimento fue la constatación de que los ordenadores de
tiempo compartido podían trabajar juntos correctamente, ejecutando
programas y recuperando datos a discreción en la máquina remota, pero
que el sistema telefónico de conmutación de circuitos era totalmente

260
inadecuado para esta labor. La convicción de Kleinrock acerca de la
necesidad de la conmutación de paquetes quedó pues confirmada.

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el


concepto de red de ordenadores y rápidamente confeccionó su plan para
ARPANET, publicándolo en 1967. En la conferencia en la que presentó el
documento se exponía también un trabajo sobre el concepto de red de
paquetes a cargo de Donald Davies y Roger Scantlebury del NPL.
Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre
el de Paul Baran y otros en RAND. El grupo RAND había escrito un
documento sobre redes de conmutación de paquetes para comunicación
vocal segura en el ámbito militar, en 1964.

Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL
(1964-67) habían discurrido en paralelo sin que los investigadores
hubieran conocido el trabajo de los demás. La palabra packet (paquete)
fue adoptada a partir del trabajo del NPL y la velocidad de la línea
propuesta para ser usada en el diseño de ARPANET fue aumentada
desde 2,4 Kbps hasta 50 Kbps (5).

En Agosto de 1968, después de que Roberts y la comunidad de la


DARPA hubieran refinado la estructura global y las especificaciones de
ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus
componentes clave: los conmutadores de paquetes llamados interfase
message processors (IMPs, procesadores de mensajes de interfaz).

El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por


Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de
BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el
diseño de la arquitectura de la ARPANET global, la topología de red y el
aspecto económico fueron diseñados y optimizados por Roberts
trabajando con Howard Frank y su equipo en la Network Analysis
Corporation, y el sistema de medida de la red fue preparado por el equipo
de Kleinrock de la Universidad de California, en Los Angeles (6).

A causa del temprano desarrollo de la teoría de conmutación de


paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su
Network Measurement Center (Centro de Medidas de Red) en la UCLA
fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió
en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y
quedó conectado el primer ordenador host.

El proyecto de Doug Engelbart denominado Augmentation of Human


Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo
sistema hipertexto en el Instituto de Investigación de Standford (SRI)
proporcionó un segundo nodo. El SRI patrocinó el Network Information

261
Center, liderado por Elizabeth (Jake) Feinler, que desarrolló funciones
tales como mantener tablas de nombres de host para la traducción de
direcciones así como un directorio de RFCs (Request For Comments).

Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer


mensaje de host a host fue enviado desde el laboratorio de Leinrock al
SRI. Se añadieron dos nodos en la Universidad de California, Santa
Bárbara, y en la Universidad de Utah. Estos dos últimos nodos
incorporaron proyectos de visualización de aplicaciones, con Glen Culler y
Burton Fried en la UCSB investigando métodos para mostrar funciones
matemáticas mediante el uso de "storage displays" ( N. del T. :
mecanismos que incorporan buffers de monitorización distribuidos en red
para facilitar el refresco de la visualización) para tratar con el problema de
refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah
investigando métodos de representación en 3-D a través de la red.

Así, a finales de 1969, cuatro ordenadores host fueron conectados


conjuntamente a la ARPANET inicial y se hizo realidad una embrionaria
Internet. Incluso en esta primitiva etapa, hay que reseñar que la
investigación incorporó tanto el trabajo mediante la red ya existente como
la mejora de la utilización de dicha red. Esta tradición continúa hasta el día
de hoy.

Se siguieron conectando ordenadores rápidamente a la ARPANET


durante los años siguientes y el trabajo continuó para completar un
protocolo host a host funcionalmente completo, así como software
adicional de red. En Diciembre de 1970, el Network Working Group (NWG)
liderado por S.Crocker acabó el protocolo host a host inicial para
ARPANET, llamado Network Control Protocol (NCP, protocolo de control
de red). Cuando en los nodos de ARPANET se completó la
implementación del NCP durante el periodo 1971-72, los usuarios de la
red pudieron finalmente comenzar a desarrollar aplicaciones.

En Octubre de 1972, Kahn organizó una gran y muy exitosa


demostración de ARPANET en la International Computer Comunicatión
Conference. Esta fue la primera demostración pública de la nueva
tecnología de red. Fue también en 1972 cuando se introdujo la primera
aplicación "estrella": el correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-
recepción de mensajes de correo electrónico, impulsado por la necesidad
que tenían los desarrolladores de ARPANET de un mecanismo sencillo de
coordinación.

En Julio, Roberts expandió su valor añadido escribiendo el primer


programa de utilidad de correo electrónico para relacionar, leer
selectivamente, almacenar, reenviar y responder a mensajes. Desde

262
entonces, la aplicación de correo electrónico se convirtió en la mayor de la
red durante más de una década. Fue precursora del tipo de actividad que
observamos hoy día en la World Wide Web , es decir, del enorme
crecimiento de todas las formas de tráfico persona a persona.

Conceptos iniciales sobre Internet


La ARPANET original evolucionó hacia Internet. Internet se basó en la
idea de que habría múltiples redes independientes, de diseño casi
arbitrario, empezando por ARPANET como la red pionera de conmutación
de paquetes, pero que pronto incluiría redes de paquetes por satélite,
redes de paquetes por radio y otros tipos de red. Internet como ahora la
conocemos encierra una idea técnica clave, la de arquitectura abierta de
trabajo en red.

Bajo este enfoque, la elección de cualquier tecnología de red individual


no respondería a una arquitectura específica de red sino que podría ser
seleccionada libremente por un proveedor e interactuar con las otras
redes a través del metanivel de la arquitectura de Internet working (trabajo
entre redes). Hasta ese momento, había un sólo método para "federar"
redes.

Era el tradicional método de conmutación de circuitos, por el cual las


redes se interconectaban a nivel de circuito pasándose bits individuales
síncronamente a lo largo de una porción de circuito que unía un par de
sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que
la conmutación de paquetes era el método de conmutación más eficiente.

Juntamente con la conmutación de paquetes, las interconexiones de


propósito especial entre redes constituían otra posibilidad. Y aunque había
otros métodos limitados de interconexión de redes distintas, éstos
requerían que una de ellas fuera usada como componente de la otra en
lugar de actuar simplemente como un extremo de la comunicación para
ofrecer servicio end-to-end (extremo a extremo).

En una red de arquitectura abierta, las redes individuales pueden ser


diseñadas y desarrolladas separadamente y cada una puede tener su
propia y única interfaz, que puede ofrecer a los usuarios y/u otros
proveedores, incluyendo otros proveedores de Internet. Cada red puede
ser diseñada de acuerdo con su entorno específico y los requerimientos
de los usuarios de aquella red.

No existen generalmente restricciones en los tipos de red que pueden


ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas
consideraciones pragmáticas determinan qué posibilidades tienen sentido.
La idea de arquitectura de red abierta fue introducida primeramente por
Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue

263
originalmente parte de su programa de paquetería por radio, pero más
tarde se convirtió por derecho propio en un programa separado.

Entonces, el programa fue llamado Internetting. La clave para realizar el


trabajo del sistema de paquetería por radio fue un protocolo extremo a
extremo seguro que pudiera mantener la comunicación efectiva frente a
los cortes e interferencias de radio y que pudiera manejar las pérdidas
intermitentes como las causadas por el paso a través de un túnel o el
bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local
sólo para la red de paquetería por radio porque ello le hubiera evitado
tratar con la multitud de sistemas operativos distintos y continuar usando
NCP.

Sin embargo, NCP no tenía capacidad para direccionar redes y


máquinas más allá de un destino IMP en ARPANET y de esta manera se
requerían ciertos cambios en el NCP. La premisa era que ARPANET no
podía ser cambiado en este aspecto. El NCP se basaba en ARPANET
para proporcionar seguridad extremo a extremo. Si alguno de los
paquetes se perdía, el protocolo y presumiblemente cualquier aplicación
soportada sufriría una grave interrupción. En este modelo, el NCP no
tenía control de errores en el host porque ARPANET había de ser la única
red existente y era tan fiable que no requería ningún control de errores en
la parte de los host s.

Así, Kahn decidió desarrollar una nueva versión del protocolo que
pudiera satisfacer las necesidades de un entorno de red de arquitectura
abierta. El protocolo podría eventualmente ser denominado "Transmisson-
Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de
transmisión /protocolo de Internet). Así como el NCP tendía a actuar como
un drive (manejador) de dispositivo, el nuevo protocolo sería más bien un
protocolo de comunicaciones.

Ideas a prueba
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray
Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el
documento original de Cerf y Kahn se llamaba simplemente TCP pero
contenía ambos componentes). El equipo de Stanford, dirigido por Cerf,
produjo las especificaciones detalladas y al cabo de un año hubo tres
implementaciones independientes de TCP que podían ínter operar.

Este fue el principio de un largo periodo de experimentación y desarrollo


para evolucionar y madurar el concepto y tecnología de Internet. Partiendo
de las tres primeras redes ARPANET, radio y satélite y de sus
comunidades de investigación iniciales, el entorno experimental creció
hasta incorporar esencialmente cualquier forma de red y una amplia

264
comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó
nuevos desafíos.

Las primeras implementaciones de TCP se hicieron para grandes


sistemas en tiempo compartido como Tenex y TOPS 20. Cuando
aparecieron los ordenadores de sobremesa (desktop), TCP era
demasiado grande y complejo como para funcionar en ordenadores
personales. David Clark y su equipo de investigación del MIT empezaron a
buscar la implementación de TCP más sencilla y compacta posible.

La desarrollaron, primero para el Alto de Xerox (la primera estación de


trabajo personal desarrollada en el PARC de Xerox), y luego para el PC
de IBM. Esta implementación operaba con otras de TCP, pero estaba
adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador
personal, y demostraba que las estaciones de trabajo, al igual que los
grandes sistemas, podían ser parte de Internet.

En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió


que la naciente Internet floreciera. La tecnología Ethernet, desarrollada
por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en
Internet, y los PCs y las estaciones de trabajo los modelos de ordenador
dominantes. El cambio que supone pasar de unas pocas redes con un
modesto número de hosts (el modelo original de ARPANET)) a tener
muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.

En primer lugar, hubo que definir tres clases de redes (A, B y C) para
acomodar todas las existentes. La clase A representa a las redes grandes,
a escala nacional (pocas redes con muchos ordenadores); la clase B
representa redes regionales; por último, la clase C representa redes de
área local (muchas redes con relativamente pocos ordenadores).

Como resultado del crecimiento de Internet, se produjo un cambio de


gran importancia para la red y su gestión. Para facilitar el uso de Internet
por sus usuarios se asignaron nombres a los host s de forma que resultara
innecesario recordar sus direcciones numéricas. Originalmente había un
número muy limitado de máquinas, por lo que bastaba con una simple
tabla con todos los ordenadores y sus direcciones asociadas.

El cambio hacia un gran número de redes gestionadas


independientemente (por ejemplo, las LAN) significó que no resultara ya
fiable tener una pequeña tabla con todos los host s. Esto llevó a la
invención del DNS (Domain Name System, sistema de nombres de
dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un
mecanismo escalable y distribuido para resolver jerárquicamente los
nombres de los host s (por ejemplo, www.acm.org o www.ati.es) en
direcciones de Internet.

265
El incremento del tamaño de Internet resultó también un desafío para los
routers. Originalmente había un sencillo algoritmo de enrutamiento que
estaba implementado uniformemente en todos los routers de Internet. A
medida que el número de redes en Internet se multiplicaba, el diseño
inicial no era ya capaz de expandirse, por lo que fue sustituido por un
modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gate
way Protocol, protocolo interno de pasarela) usado dentro de cada región
de Internet y un protocolo EGP (Exterior Gateway Protocol, protocolo
externo de pasarela) usado para mantener unidas las regiones.

El diseño permitía que distintas regiones utilizaran IGP distintos, por lo


que los requisitos de coste, velocidad de configuración, robustez y
escalabilidad, podían ajustarse a cada situación. Los algoritmos de
enrutamiento no eran los únicos en poner en dificultades la capacidad de
los routers, también lo hacía el tamaño de la tablas de direccionamiento.
Se presentaron nuevas aproximaciones a la agregación de direcciones (en
particular CIDR, Classless Interdomain Routing, enrutamiento entre
dominios sin clase) para controlar el tamaño de las tablas de
enrutamiento.

A medida que evolucionaba Internet, la propagación de los cambios en el


software, especialmente el de los host s, se fue convirtiendo en uno de
sus mayores desafíos. DARPA financió a la Universidad de California en
Berkeley en una investigación sobre modificaciones en el sistema
operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque
posteriormente Berkeley modificó esta implementación del BBN para que
operara de forma más eficiente con el sistema y el kernel de Unix, la
incorporación de TCP/IP en el sistema Unix BSD demostró ser un
elemento crítico en la difusión de los protocolos entre la comunidad
investigadora.

BSD empezó a ser utilizado en sus operaciones diarias por buena parte
de la comunidad investigadora en temas relacionados con informática.
Visto en perspectiva, la estrategia de incorporar los protocolos de Internet
en un sistema operativo utilizado por la comunidad investigadora fue uno
de los elementos clave en la exitosa y amplia aceptación de Internet.

Uno de los desafíos más interesantes fue la transición del protocolo para
host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se
trataba de una ocasión muy importante que exigía que todos los host s se
convirtieran simultáneamente o que permanecieran comunicados
mediante mecanismos desarrollados para la ocasión.

La transición fue cuidadosamente planificada dentro de la comunidad con


varios años de antelación a la fecha, pero fue sorprendentemente sobre

266
ruedas (a pesar de dar la lugar a la distribución de insignias con la
inscripción "Yo sobreviví a la transición a TCP/IP").

TCP/IP había sido adoptado como un estándar por el ejército


norteamericano tres años antes, en 1980. Esto permitió al ejército
empezar a compartir la tecnología DARPA basada en Internet y llevó a la
separación final entre las comunidades militares y no militares. En 1983
ARPANET estaba siendo usada por un número significativo de
organizaciones operativas y de investigación y desarrollo en el área de la
defensa. La transición desde NCP a TCP/IP en ARPANET permitió la
división en una MILNET para dar soporte a requisitos operativos y una
ARPANET para las necesidades de investigación.

Así, en 1985, Internet estaba firmemente establecida como una


tecnología que ayudaba a una amplia comunidad de investigadores y
desarrolladores, y empezaba a ser empleada por otros grupos en sus
comunicaciones diarias entre ordenadores. El correo electrónico se
empleaba ampliamente entre varias comunidades, a menudo entre
distintos sistemas. La interconexión entre los diversos sistemas de correo
demostraba la utilidad de las comunicaciones electrónicas entre
personas.

La transición hacia una infraestructura global


Al mismo tiempo que la tecnología Internet estaba siendo validada
experimentalmente y usada ampliamente entre un grupo de investigadores
de informática se estaban desarrollando otras redes y tecnologías. La
utilidad de las redes de ordenadores (especialmente el correo electrónico
utilizado por los contratistas de DARPA y el Departamento de Defensa en
ARPANET) siguió siendo evidente para otras comunidades y disciplinas
de forma que a mediados de los años 70 las redes de ordenadores
comenzaron a difundirse allá donde se podía encontrar financiación para
las mismas.

El Departamento norteamericano de Energía (DOE, Deparment of


Energy) estableció MFENet para sus investigadores que trabajaban sobre
energía de fusión, mientras que los físicos de altas energías fueron los
encargados de construir HEPNet. Los físicos de la NASA continuaron con
SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET
para la comunidad informática académica y de la industria con la
financiación inicial de la NFS (National Science Foundation, Fundación
Nacional de la Ciencia) de Estados Unidos.

La libre diseminación del sistema operativo Unix de ATT dio lugar a


USENET, basada en los protocolos de comunicación UUCP de Unix, y en
1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los
ordenadores centrales del mundo académico siguiendo el paradigma de

267
correo electrónico como "postales". Con la excepción de BITNET y
USENET, todas las primeras redes (como ARPANET) se construyeron
para un propósito determinado.

Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de


estudiosos; de ahí las escasas presiones por hacer estas redes
compatibles y, en consecuencia, el hecho de que durante mucho tiempo
no lo fueran. Además, estaban empezando a proponerse tecnologías
alternativas en el sector comercial, como XNS de Xerox, DECNet, y la
SNA de IBM (8).

Sólo restaba que los programas ingleses JANET (1984) y


norteamericano NSFNET (1985) anunciaran explícitamente que su
propósito era servir a toda la comunidad de la enseñanza superior sin
importar su disciplina. De hecho, una de las condiciones para que una
universidad norteamericana recibiera financiación de la NSF para
conectarse a Internet era que "la conexión estuviera disponible para todos
los usuarios cualificados del campus".

En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en


NFS dirigiendo el programa NSFNET. Trabajó con el resto de la
comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP
debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó
al programa NFSNET en 1986 reconoció la necesidad de una
infraestructura de red amplia que pudiera ser de ayuda a la comunidad
investigadora y a la académica en general, junto a la necesidad de
desarrollar una estrategia para establecer esta infraestructura sobre bases
independientes de la financiación pública directa. Se adoptaron varias
políticas y estrategias para alcanzar estos fines.

La NSF optó también por mantener la infraestructura organizativa de


Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB (Internet
Activities Board, Comité de Actividades de Internet). La declaración
pública de esta decisión firmada por todos sus autores (por los grupos de
Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció
como la RFC 985 ("Requisitos para pasarelas de Internet") que
formalmente aseguraba la interoperatividad entre las partes de Internet
dependientes de DARPA y de NSF.

El backbone había hecho la transición desde una red construida con


routers de la comunidad investigadora (los routers Fuzzball de David Mills)
a equipos comerciales. En su vida de ocho años y medio, el backbone
había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con
enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más
de 50.000 redes en los cinco continentes y en el espacio exterior, con
aproximadamente 29.000 redes en los Estados Unidos.

268
El efecto del ecumenismo del programa NSFNET y su financiación (200
millones de dólares entre 1986 y 1995) y de la calidad de los protocolos
fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había
sustituido o marginado a la mayor parte de los restantes protocolos de
grandes redes de ordenadores e IP estaba en camino de convertirse en el
servicio portador de la llamada Infraestructura Global de Información.

El papel de la documentación
Un aspecto clave del rápido crecimiento de Internet ha sido el acceso
libre y abierto a los documentos básicos, especialmente a las
especificaciones de los protocolos.

Los comienzos de Arpanet y de Internet en la comunidad de


investigación universitaria estimularon la tradición académica de la
publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de
la publicación académica tradicional era demasiado formal y lento para el
intercambio dinámico de ideas, esencial para crear redes.

En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer


la serie de notas RFC (Request For Comments, petición de comentarios).
Estos memorándums pretendieron ser una vía informal y de distribución
rápida para compartir ideas con otros investigadores en redes. Al principio,
las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero
cuando el FTP ( File Transfer Protocol , protocolo de transferencia de
ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos
online a los que se accedía vía FTP.

Hoy en día, desde luego, están disponibles en el World Wide Web en


decenas de emplazamientos en todo el mundo. SRI, en su papel como
Centro de Información en la Red, mantenía los directorios online. Jon
Postel actuaba como editor de RFC y como gestor de la administración
centralizada de la asignación de los números de protocolo requeridos,
tareas en las que continúa hoy en día.

El efecto de las RFC era crear un bucle positivo de realimentación, con


ideas o propuestas presentadas a base de que una RFC impulsara otra
RFC con ideas adicionales y así sucesivamente. Una vez se hubiera
obtenido un consenso se prepararía un documento de especificación. Tal
especificación seria entonces usada como la base para las
implementaciones por parte de los equipos de investigación.

Con el paso del tiempo, las RFC se han enfocado a estándares de


protocolo –las especificaciones oficiales- aunque hay todavía RFC
informativas que describen enfoques alternativos o proporcionan
información de soporte en temas de protocolos e ingeniería. Las RFC son

269
vistas ahora como los documentos de registro dentro de la comunidad de
estándares y de ingeniería en Internet.

El acceso abierto a las RFC –libre si se dispone de cualquier clase de


conexión a Internet- promueve el crecimiento de Internet porque permite
que las especificaciones sean usadas a modo de ejemplo en las aulas
universitarias o por emprendedores al desarrollar nuevos sistemas.

El e-mail o correo electrónico ha supuesto un factor determinante en


todas las áreas de Internet, lo que es particularmente cierto en el
desarrollo de las especificaciones de protocolos, estándares técnicos e
ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto
de la comunidad un conjunto de ideas desarrolladas por investigadores de
un solo lugar. Después de empezar a usarse el correo electrónico, el
modelo de autoría cambió: las RFC pasaron a ser presentadas por
coautores con visiones en común, independientemente de su localización.

Las listas de correo especializadas ha sido usadas ampliamente en el


desarrollo de la especificación de protocolos, y continúan siendo una
herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo,
cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada
uno de estos grupos de trabajo dispone de una lista de correo para discutir
uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en
el documento, éste puede ser distribuido como una RFC.

Debido a que la rápida expansión actual de Internet se alimenta por el


aprovechamiento de su capacidad de promover la compartición de
información, deberíamos entender que el primer papel en esta tarea
consistió en compartir la información acerca de su propio diseño y
operación a través de los documentos RFC. Este método único de
producir nuevas capacidades en la red continuará siendo crítico para la
futura evolución de Internet.

El futuro: Internet 2
Internet2 es el futuro de la red de redes y está formado actualmente por
un consorcio dirigido por 206 universidades que junto a la industria de
comunicaciones y el gobierno están desarrollando nuevas técnicas de
conexión que acelerarán la capacidad de transferencia entre servidores.

Sus objetivos están enfocados a la educación y la investigación


académica. Además buscan aprovechar aplicaciones de audio y video que
demandan más capacidad de transferencia de ancho de banda.

¿Qué es Internet del Futuro?

Al nombre “Internet del Futuro” se asocian una serie de conceptos y

270
tecnologías que abarcan desde la infraestructura de red, dispositivos e
interfaces, software y aplicaciones que compondrán lo que en unos años
conformará el panorama de las Tecnologías de Información y
Comunicaciones.

Entre estos temas, aparece la red de redes de gran velocidad y llegando


a todas partes, mediante nuevos dispositivos, con nuevas formas de
interaccionar con el mundo digital, acceso fácil e inteligente a los distintos
tipos de contenidos con mención especial a 3D, y todo eso soportado por
innovadores modelos de negocio adaptados a este nuevo panorama.

¿Qué hace Atos Origen en Internet del Futuro?

Atos Origin participa activamente en la definición y construcción de


Internet del Futuro mediante la participación activa en la iniciativa europea
que une los esfuerzos de las plataformas tecnológicas europeas NESSI
(http://www.nessi-europe.com/), ISI (http://www.isi-initiative.org/), NEM (http://www.nem-
initiative.org/), eMOBILITY (www.emobility.eu.org), y EPOSS (http://www.smart-
systems-integration.org/) en la definición de una agenda estratégica de
investigación.

Atos Origin está también presente en la Future Internet Assembly (a


través de diferentes proyectos del 6º y 7º programa marco). Y además
Atos Origin es miembro fundador de la plataforma tecnológica española es
Internet, y ostenta actualmente la vicepresidencia

Algunos proyectos de I+D participados por la Comisión Europea en


Internet del Futuro son:


COIN (http://www.coin-ip.eu/): Colaboración e interoperabilidad
entre empresas, desde la tradicional cadena de proveedores al
ecosistema más avanzado.


SOA4ALL (http://www.soa4all.org/): Plataforma que integre
Arquitecturas Orientadas a Servicios (SOA), el uso de Contexto, la
Web Semántica o la llamada Web 2.0.


NEXOF-RA (http://www.nexof-ra.eu/): Arquitectura de referencia
para la comunidad de Software & Services en Europa, sobre la que

271
crear y distribuir aplicaciones basadas en servicios ( Internet de los
Servicios).


Master (http://www.master-fp7.eu/): Metodología y herramientas
necesarias para asegurar el cumplimiento de los requisitos de
seguridad, en el nuevo escenario que surge del creciente uso de
SOA por parte de las empresas en sus infraestructuras IT y
especialmente en el outsourcing de servicios.


My eDirector (http://www.myedirector2012.eu/): Usos de contexto
en tiempo real junto con contextos personalizados de provisión de
contenidos para aplicaciones audiovisuales a gran escala.


COCKPIT: Colaboración de los ciudadanos en la creación de
contenidos de servicio público.


NextMedia: Coordinar los esfuerzos europeos en Media hacia el
Internet del Futuro.


SARACEN: Definición de una plataforma colaborativa y social de
próxima generación para la codificación y distribución de contenidos
de media

Las prioridades de Atos Origin en Internet del Futuro son:


Sanidad: aplicaciones TIC más interactivas, y enfocadas en la
prevención, así como herramientas para mejorar la eficacia de la
monitorización, seguimiento y tratamiento remoto (fuera del
hospital), principalmente de enfermos crónicos y pacientes mayores.


Multimedia: gestión y búsqueda de activos, gestión de derechos
digitales, infraestructura para Media Market (imágenes médicas,
fotos/videos de tráfico….), desarrollo de comunicaciones IP para la
transmisión de contenidos.

272

Industria: Desarrollo de aplicaciones TIC para facilitar y optimizar el
tráfico de vehículos en las ciudades y el transporte de materiales,
mejorar la gestión del consumo de luz, agua, limpieza y para
impulsar el turismo.


Finanzas: Seguridad en la transmisión de información bancaria
personal entre las distintas entidades o centros, con el objetivo
facilitar el desarrollo de Internet del Futuro a nivel transaccional


Administración Electrónica (eGov): Internet para el ciudadano


Internet en todas partes:: Apoyo al desarrollo rural y equilibrio
geográfico.


Internet para todos: Nuevos interfaces, Internet de las Cosas,
apoyo a minorías, sostenibilidad y medio ambiente

Decía el filósofo que un hombre libre es aquel que es capaz de ir hasta el


final de su pensamiento. Y de esto sabemos mucho en Kriptópolis, más
aún en los últimos días en que se está debatiendo la forma de registro en
esta comunidad.

Debido a que últimamente no se publican muchas noticias en el sitio,


salvo las aportadas por el editor, me gustaría compartir con los lectores
una reflexión.

Estos últimos días estuve compartiendo ideas con un amigo de cómo


evoluciona la informática e Internet comparándola, en general, con las
redes militares y servicios de inteligencia.

Consideren las siguientes líneas como un “juego” intelectual...

Por todos es sabido el origen militar de la red de redes y cómo estas


ideas iniciales pasaron al mundo civil lentamente a través de diferentes
Universidades y pequeñas (entonces) empresas. Como consecuencia

273
clara de esta separación, la red militar como tal continuó su evolución.
Considerando los presupuestos y la importancia de las mismas, no es
extraño creer (al menos) en la tan conocida cifra de 10 años de diferencia
en cuestión de tecnología civil y militar.

Si nos centramos en los orígenes de la gran red de inteligencia


Norteamérica “Platform” (no entraré en disquisiciones de la evolución de
los diferentes nombres de esta red y si la red “Echelon” como tal es un
elemento más de la gran red de inteligencia), ya a finales de los años 70
diferentes elementos de la red filtraban información buscando palabras
claves relacionadas entre sí. Proceso conocido por todos si pensamos en
la esencia del funcionamiento de los motores de búsqueda (buscadores)
de páginas Web. Esta tecnología, desde el punto de vista civil, comenzó a
implantarse de forma masiva en Internet durante la década de los 90.

Sin embargo, parece que esta tecnología no fue, para nada, la definitiva.
Por ejemplo, en la red Echelon la NSA comenzó a probar un prototipo de
buscador temático para el que solicitó una patente a principios de la
década de los 90. La oficina de patentes norteamericana le otorgó el
número 5.418.951. Este programa informático, basado en un método
denominado “análisis de N-gramas” se define como independiente del
“idioma o tema de interés” y no “emplea diccionarios o palabras clave”.

Esto se puede comparar fácilmente con las posibilidades actuales de los


buscadores más modernos y, en cierta medida, con la implantación de la
tan de moda Web semántica.

Estos razonamientos se pueden extender a multitud de campos, por


ejemplo, a los sistemas de reconocimiento de voz de las redes de
inteligencia y los diferentes programas de reconocimiento de voz que un
usuario puede adquirir en una tienda. Se puede ver, por ejemplo, la
patente adquirida por la NSA en 1999 de una “máquina de trascripción del
habla” (patente número 5.937.422).

O incluso, semejanzas extraídas de los datos que se publican (supongo


verdaderos) de redes privadas secretas, como la red de inteligencia
“Interlink”.

En cualquier caso, el análisis cuidadoso de ciertos sistemas de


inteligencia nos dará una idea clara, a mi entender, de cómo evolucionará
la informática y la red de redes en un futuro. Negar esto, es como seguir
pensando que Internet es una red descentralizada.

Me gustaría ver cómo funcionarían las conexiones de Internet si ciertos


Puntos de Interconexión -por ejemplo, en España- dejarán de funcionar
por algún “accidente”.

274
La compañía Pew Internet and American Life publicó hace un par de días un
sobre el futuro de Internet para el año 2020. Dicho estudio se
extenso informe
basa en un cuestionario realizado por 742 expertos y éstas son alguna de
sus conclusiones:


La Red será un negocio próspero y de bajo costo

La dependencia de la tecnología podría convertirse en un problema.
Hasta el 42% de los encuestados se muestra pesimista acerca de
nuestra capacidad para controlarla.

Un gran número de trabajadores desempeñará sus funciones en
“mundos virtuales”. Esta desconexión del mundo real podría
acarrear numerosos problemas.

Emergerán grupos contrarios a la Red —“refuseniks”— que podrían
llegar a utilizar medios violentos para atacarla.

El impacto sobre las personas se considera positivo pero se alerta
sobre la posibilidad de perder buena parte de la privacidad.

El inglés seguirá dominando la Red.

Varios científicos han logrado almacenar impulsos de luz en átomos


mediante un protocolo que confiere a la información un 70 por ciento de
confiabilidad.

(Clarín y otros) Físicos del Instituto Niels Bohr, en Dinamarca, crearon una
memoria atómica de la luz que en el futuro puede romper las fronteras de
la comunicación a través de Internet: consiguieron una red mucho más
rápida y segura que la actual. De esta forma, alumbran un nuevo tipo de
Internet, llamado Internet Cuántico.

De acuerdo a un artículo publicado en la revista Nature un equipo de


científicos daneses han logrado almacenar impulsos de luz en átomos
mediante un protocolo que confiere a la información un 70 por ciento de
confiabilidad. De acuerdo a sus desarrolladores, esta tecnología le
brindará a Internet un potencial de crecimiento ilimitado sin "pérdidas" en
la transferencia de información ni en la velocidad.

La memoria atómica, equivalente a la memoria RAM de nuestras


computadoras, fue creada dentro de átomos de gas de Cesio logrando
retener información por cuatro milisegundos, todo un record en el mundo
cuántico. Para ello, los científicos aprovecharon la naturaleza dual de la

275
luz tal y como lo predice la teoría cuántica, que establece que la luz puede
comportarse al mismo tiempo como una partícula u onda.

En la actualidad la información transmitida en Internet es llevada a cabo


mediante pulsos de luz que durante su recepción son contaminados por
un ruido llamado cuántico y que fue predicho por los físicos Neils Bhor y
Heinsenberg hace 80 años. Con el incremento en la velocidad de
transmisión de datos este ruido que en principio es minúsculo cobra
importancia; de hecho, hasta ahora resultaba un serio obstáculo en el
desarrollo de las comunicaciones cuánticas.

Con estos últimos avances, se pudo demostrar, que la memoria cuántica


reduce significativamente este ruido, probando que dos propiedades de la
luz como lo son su amplitud y fase pueden transferirse a la materia con
gran fidelidad. Los expertos predicen que los primeros sistemas cuánticos
podrían ser una realidad en un lapso de entre 10 a 15 años.

Las 10 tendencias del futuro del Internet

Richard MacManus identifica las 10 tendencias para el Internet del


futuro en plena época del Web 2.0 cuando nos emocionamos y sonreímos
con etiquetas, redes sociales, sindicación, agregadotes, mashups y APIs
en no mucho tiempo estaremos pensando en cosas totalmente diferentes
a medida que el Internet evoluciona y permite la masificación de nuevas
herramientas, nuevos usos y nuevos servicios. Estas son las 10
tendencias, en español:

1.
La Web semántica, RDF, OWL, micro formatos, las cosas por su
nombre (semántico) y no por código que nadie entiende y a nadie le
interesa. Muerte a los nerds :-)
2.
Inteligencia artificial.
3.
Mundos virtuales, Second Life pero bien hecho.
4.
La Web móvil, ya es hora que muera el Internet de texto en
teléfonos móviles. El Internet como en el iPhone o nada.
5.
La economía de la atención, recibir servicios a cambio de atención,
desde búsquedas personalizadas hasta recomendaciones de
compra, pero bien hechas.

276
6.
Sitios Web como servicios Web.
7.
Video online / TV por internet.
8.
Rich Internet Apps, veremos más aplicaciones como iScrobbler,
Twitterrific o Plazer. Herramientas que funcionan a base de su
contraparte en el Web.
9.
Web internacional, diversificación, Estados Unidos perderá peso en
Internet. Europa ya está despuntando.
10.
Personalización al máximo.

Para anticipar como será Internet en el futuro todo pasa por


entender la verdadera dimensión de la oportunidad que brindan las
redes de comunicaciones de móviles, facilitando la ubicuidad de
Internet y rompiendo los límites actuales, más allá de los PCs e
incluso más allá de los actuales dispositivos móviles tal y como los
conocemos hoy. No es la primera vez que lo destacamos, pero el
verdadero potencial de las redes móviles radica en la posibilidad de
conectar a Internet cualquier ingenio electrónico.

Ubicuidad significa la facultad de estar presente al mismo tiempo


en todas partes. La ubicuidad implica cierta familiaridad, damos por
hecho que está en cualquier sitio y por ello mismo pasa
desapercibido. Algo ubicuo implica también que requiere muy poco
esfuerzo consciente para ser utilizado.

El futuro de Internet pasa por hacer realidad en toda su extensión y


amplitud el adjetivo ubicuo, es decir, la presencia de dispositivos
electrónicos en red en cualquier faceta de nuestra vida cotidiana.
Como dice el inventor y visionario Ray Kurzweil en una entrevista
recogida en el magnífico artículo The Future of Internet publicado el
pasado mes de Abril por Red Herring y de obligada lectura:

Los dispositivos actuales desaparecerán. En su lugar, la


electrónica estará embebida en nuestro entorno, cosida en nuestras
ropas, y escrita directamente sobre nuestras retinas desde gafas y
lentes de contacto. Los dispositivos dejarán de ser los extremos de
la Red para pasar a ser los nodos de la Red.

Es decir, las aplicaciones del futuro involucraran múltiples


dispositivos con capacidades ampliamente diferentes entre si. Para
materializar esta visión habrá que resolver previamente una serie de
desafíos:

277

Simplificación del desarrollo de aplicaciones multi-dispositivo (cada
vez más "multi")

Adaptación dinámica al contexto

Coordinación entre dispositivos

Seguridad

Para dar respuestas a estos desafíos, las soluciones deberán estar


basadas en las tecnologías Web actuales para no romper la
compatibilidad con la Red actual. El proceso debe ser una
evolución, nunca una ruptura, de la Red actual. En este sentido, la
importancia de desarrollos que actualmente se están llevando
acabo en áreas como la definición de interfaces para obtener
información del contexto (Delivery Context Interfaces), intercambio
asíncrono de información (AJAX) o la descripción de los recursos a
disposición de las aplicaciones (web semántica) son buenos
ejemplos de la evolución que debe seguir la Web para convertirla en
omnipresente.

El futuro de Internet tiene nombre: la Web semántica

La Internet que había imaginado en 1989 el creador de la World


Wide Web, Tim Berners-Lee, no era exactamente la que hoy
conocemos. De hecho, Berners-Lee había pensado en algo todavía
más revolucionario y que está aún por llegar: la Web semántica.

La Internet que había imaginado en 1989 el creador de la World Wide


Web, Tim Berners-Lee, no era exactamente la que hoy conocemos. De
hecho, Berners-Lee había pensado en algo todavía más revolucionario y
que está aún por llegar: la Web semántica.

¿Qué se entiende por Web semántica? Tres investigadores, Berners-


Lee, James Hendler y Ora Lassila, lo han explicado en un artículo
publicado en el número de mayo de la revista American Scientific, titulado
precisamente The Semantic Web. Hablan de una Internet en la que los
ordenadores no sólo son capaces de presentar la información contenida
en las páginas Web, como hacen ahora, sino que además pueden
"entender" dicha información.

En la práctica esto significa que las máquinas —los ordenadores


personales o cualquier otro dispositivo conectado a Internet— podrán
realizar, casi sin necesidad de intervención humana, infinidad de tareas

278
que simplificarán nuestra vida. "La Web semántica", explican los autores,
"no es una web aparte sino una extensión de la actual en la que la
información tiene un significado bien definido, posibilitando que los
ordenadores y las personas trabajen en cooperación".

Caso práctico

Berners-Lee, Hendler y Lassila inician su artículo exponiendo una


situación cotidiana resuelta eficazmente gracias a una hipotética Web
semántica funcionando a pleno rendimiento. Dos hermanos tienen que
ajustar su calendario para acompañar a su madre a unas sesiones de
rehabilitación ordenadas por los médicos. Para ello utilizan un agente
electrónico que revisa sus agendas para las próximas semanas y las
combina con las horas disponibles en los centros de rehabilitación más
cercanos cubiertos por el seguro médico familiar.

En pocos minutos consiguen programar de nuevo sus agendas,


incluyendo las visitas de su madre, y resuelven el problema. Y lo hacen
gracias "no a la World Wide Web de hoy sino a la Web semántica en la
que se convertirá mañana". Según explican estos tres investigadores, "la
mayor parte del contenido que hoy aparece en Internet está diseñado para
ser leído por las personas, no para que lo puedan manipular con sentido
unos programas informáticos".

Para que esto sea una realidad no será necesario que nuestros
ordenadores posean la inteligencia artificial que tenía Hal en la novela de
Arthur C. Clarke "2001: una odisea en el espacio". Será suficiente con que
los contenidos se introduzcan en las páginas Web utilizando un programa
de escritura de Web semánticas.

Así, lo que hasta ahora había sido básicamente "un medio de


documentos para personas" pasará a ser un sistema de datos e
información que se podrán procesar automáticamente. Por ejemplo, será
posible que "los agentes de software que deambulan de una página a otra
puedan realizar tareas sofisticadas para los usuarios".

Nuevas tecnologías

Pero para llegar a esa nueva World Wide Web hay que dar una serie de
pasos que no son sencillos. Uno de los retos principales que afronta la
Web semántica es el de proveer un lenguaje "que permita la exportación a
la Web de las reglas de cualquier sistema de representación del
conocimiento". Los grupos que trabajan en la creación de esta nueva Web
semántica deben solucionar, por tanto, la difícil papeleta de "añadir lógica
a la Web".

279
El desarrollo de la Web semántica pasa también por la adopción de
diferentes tecnologías, dos de las cuales ya están en marcha: el
extensible Markup Language (XML) y el Resource Description
Framework (RDF). El lenguaje XML "permite a los usuarios añadir una
estructura arbitraria a sus documentos, pero no dice nada acerca del
significado de dicha estructura". Esta es la tarea que se intenta resolver
con el lenguaje RDF, un marco en el que es posible describir la
información para que la procesen las máquinas. Otro elemento clave de la
Web semántica son las "ontologías", descritas por los autores como
documentos o ficheros "que formalmente definen las relaciones entre
términos".

Estos conceptos pueden resultar ininteligibles para buena parte de los


usuarios de Internet, que preferirán simplemente saber que la existencia
de una Web semántica permitirá, por ejemplo, que nuestro microondas
preparado para Internet consulte directamente al fabricante de un alimento
congelado las condiciones óptimas para su cocción y proceda a la misma.

Al mismo tiempo, "si está correctamente diseñada, la web semántica


puede ayudar a la evolución del conocimiento humano en general", según
explican estos tres investigadores de Internet. Por ejemplo, facilitando la
colaboración entre equipos investigadores de un mismo tema que se
encuentran en puntos muy distantes del planeta.

Buscadores y agentes, beneficiados

En su artículo, Berners-Lee, Hendler y Lassila ponen algunos ejemplos


de las ventajas que tendrá la existencia de una Web semántica. Cuando
alguien introduce en un buscador la palabra cook, el buscador devolverá
innumerables resultados que deberán ser filtrados por el usuario ya que
no sabe si el usuario está buscando un chef, si está pensando en cocinar
algo o si lo que quiere es encontrar a alguien con ese nombre. "El
problema es que la palabra cook no tiene sentido, o contenido semántico,
para el ordenador".

Los agentes también mejorarán su eficacia cuando los contenidos de la


Web tengan significado semántico. Al mismo tiempo, las búsquedas muy
precisas arrojarán mejores resultados cuando la Web semántica sea una
realidad, ya que será posible combinar informaciones que residen en
diferentes páginas Web que ahora no tienen ninguna conexión entre ellas.

Grupos de investigación

El World Wide Web Consortium (W3C), dirigido por Tim Berners-Lee,


cuenta con un grupo de trabajo dedicado por entero a la Web semántica.
En la página de este grupo se afirma que "la Web semántica es una
visión: la idea de tener datos en la Web definidos y enlazados de forma

280
que puedan ser utilizados por máquinas no sólo con el fin de presentarlos
sino también para la automatización, integración y reutilización de la
información a través de varias aplicaciones".

Asimismo, también se afirma en esta página que "la Web sólo alcanzará
su pleno potencial si se convierte en un lugar donde la información puede
ser compartida y procesada tanto por herramientas automáticas como por
la gente".

Varios grupos de investigación interesados en el avance de la Web


semántica mantienen operativo el nodo SemanticWeb.org, donde se
pueden seguir los avances en esta materia. Tres de estos grupos (Onto-
Agents, Scalable Knowledge Composition y Protégé) se encuentran en la
Universidad de Stanford, en California, mientras que otro (Ontobroker)
pertenece a la Universidad de Karlsruhe, en Alemania.

El objetivo de SemanticWeb.org es demostrar las posibilidades que


ofrece el concepto de Web semántica, con la idea de que el nodo se
convierta en un "portal automático de comunidad" que sirva de escaparate
de esta tecnología.

James Hendler da clases de informática en la Universidad de Maryland,


donde ha estado investigando sobre representación del conocimiento en
la Web. Junto a se equipo de investigación desarrolló SHOE, el primer
lenguaje de representación del conocimiento basado en Web. Al mismo
tiempo, es el responsable de investigación informática basada en agentes
de la Defense Advanced Research Projects Agency (DARPA).

Por su parte, Ora Lassila es investigadora del Nokia Research Center de


Boston y miembro del consejo asesor del W3C. Lassila fue una de las
creadoras del RDF.

Conclusión.

En la investigación de este tema comprendí la necesidad que tenían los


militares de hacer una red secreta debido alas guerras, pero gracias a
esto la sociedad adquirió una de los mejores inventos por el hombre hoy
en día todos hacemos uso de este como recurso, como nosotros los
estudiantes tenemos soporte en internet para llevar a cabo nuestras
actividades escolares.

281
INTRODUCCION
Los científicos y antropólogos afirman que el hombre se diferencia de los animales
por su capacidad de evolucionar y de crear, esto puede verse claramente si
hacemos un paneo observando cómo el ser humano se desarrolló hasta el día de
hoy.
Cada invento o creación tiene un aporte tecnológico: la televisión, la radio, la
computadora, entre otros, fueron los primeros indicios que nos mostraban que la
evolución no sólo es inminente sino que continúa. Internet se asume como el gran
paso hacia el futuro, es que además de ser algo novedoso era al mismo tiempo
impensado; ni en nuestros más recónditos sueños podíamos imaginar que todos
los medios de comunicación eran capaces de fusionarse en un solo artefacto.
Pero ante de ahondar en la importancia de este instrumento virtual, debemos
acudir a la definición de Internet y así comprender un poco más sobre sus
utilidades.
Entendemos por Internet, una interconexión de redes informáticas que le permite
a las computadoras conectadas comunicarse directamente entre sí. Esta palabra
suele referirse a una interconexión en particular, abierta al público la cual es capaz
de conectar tanto a organismos oficiales como educativos y empresariales; la
definición de Internet admite que se la conoce vulgarmente con el nombre de
“autopista de la información” debido a que es una “ruta” en donde podemos
encontrar casi todo lo que buscamos en diferentes formatos.
El Internet es una red informática descentralizada, que para permitir la conexión
entre computadoras opera a través de un protocolo de comunicaciones. Para
referirnos a ella además se utiliza el término "web" en inglés, refiriéndose a una
"tela de araña" para representar esta red de conexiones. En palabras sencillas, la
Internet es un conjunto de computadoras conectadas entre si, compartiendo una
determinada cantidad de contenidos; por este motivo es que no se puede
responder a la pregunta de donde está la Internet físicamente - está en todas las
partes donde exista un ordenador con conectividad a esta red.
Digamos entonces que el Internet es la red de redes, por la cual, millones de
computadoras se pueden conectar entre sí. De esta, se puede extraer información
a una escala nunca antes vista. También es conocida como la World Wide Web
(www, prefijo bastante conocido por los que la navegan, ya que las direcciones o
URLs por lo general comienzan utilizándolo), y su estructura actual data de la
década de los 90`. Con su aparición, la revolución de la información terminó
definitivamente por despegar a escala masiva. Son millones las personas, las
cuales por medio de un módem y hoy en día, por medio de la banda ancha,
acceden a millones de páginas, que contienen información de la más diversa
índole. Existen páginas de carácter personal, educativas, y por supuesto
orientadas a los negocios; de hecho, toda empresa lo suficientemente
tecnologizada cuenta con una página en Internet.

282
Por medio de Internet, también podemos desarrollar conversaciones en línea,
como los ya famosos chat e IRC (Internet Relay chat). Asimismo, podemos
realizar transferencia de archivos , utilizando por supuesto un leguaje común para
esto (en este caso el protocolo FTP o File Transfer Protocol) o enviar correos
electrónicos (utilizando el protocolo SMTP o Simple Mail Transfer Protocol), los
cuales han revolucionado la manera de comunicarse, y han dejado como
prácticamente obsoleto el antiguo sistema de correo. Con ellos podemos
comunicarnos de manera casi inmediata, con cualquier persona del mundo,
independiente de donde se encuentre. De esta manera, muchas empresas, han
dejado, incluso, un tanto de lado el teléfono para sus actividades comerciales.
Asimismo, es que el correo electrónico es altamente utilizado, dentro de la
comunicación interna de las organizaciones estatales o privadas. Desde hace ya
bastante tiempo, existe una aplicación asociada e estos correos electrónicos
conocida como la mensajería instantánea, mediante la cual se puede mantener
una conversación por medio de texto en línea
Con respecto al desarrollo de el Internet, este se remonta a 1973, donde se
comenzó a estudiar la factibilidad técnica de desarrollar redes interconectadas, a
base de los protocolos TCP y el IP. Fue durante aquel proceso investigativo, que
se creo la palabra Internet, para apodar a estas redes.
Esta red informática a nivel mundial, el Internet, está conformada por un
gran número de computadores conectados entre sí, utilizando protocolos
especiales para poder comunicarse.
El Internet y su historia, se puede remontar, a unos años antes que surgiera
la misma como una popular red pública o mundial.
Y es que la carrera espacial, entre los Estados Unidos y la Unión Soviética,
en parte una pugna de poder, llevó a que lentamente se fuera fraguando la
Internet.
La definición de Internet suele ser mayormente técnica pero existen muchos
aspectos relevantes que ésta no abarca; entre ellos su evolución y el impacto
social que este medio de comunicación ha generado. Como mencionamos al
comienzo de esta redacción, el hombre es capaz de crear y evolucionar de formas
astronómicas, y lo ha demostrado cuando inventó este espacio virtual, aunque ya,
mucho antes, había dado indicios al construir los ordenadores.
Internet ha cambiado absolutamente la totalidad de los hábitos de los seres
humanos;el correo no se utiliza de la misma forma, las películas no se alquilan con
tanta frecuencia en los videos clubs; el diario y la radio se escuchan desde los
ordenadores, etc. Estos acontecimientos no son casuales; Internet se dispone a
apropiarse de casi todo el mercado y decimos esto porque son cada vez más las
personas que poseen conexiones a la web; años atrás, era probable encontrar
individuos sin cuentas de e-mail, actualmente eso es casi imposible. La definición
de Internet asegura que ésta ha sido revolucionaria, pero no brinda información
sobre su futura evolución, y esto se debe a que esta herramienta es
impredecible. Lo que sí podemos afirmar es que los costos para su conexión serán
cada vez más accesibles y por eso se convertirá en el principal medio masivo de

283
comunicación. Allí tendremos combinados todos los servicios necesarios y que,
hasta el día de hoy, debemos diferenciar; se estima que también serán más
baratos los dominios y que la mayor parte de la publicidad se transmitirá hacia los
blogs, comunidades y sites que estén mejor optimizados.

INTERNET HOY EN DÍA


Las aplicaciones de las tecnologías de la comunicación que responden a
las necesidades de nuestra industria y nuestra sociedad han experimentado
cambios significativos desde los albores de las telecomunicaciones, hace
ya un siglo. La infraestructura digital de cable e inalámbrica de la que
disfrutamos hoy en día y que sirve a una vastísima comunidad de usuarios
de todo el mundo, ha sido testigo de la convergencia de las tecnologías
digitales y analógicas, así como de la voz, los datos, el vídeo, el texto, la
imagen, el fax, los gráficos y los medios de streaming. Internet es la
manifestación actual de todos estos adelantos y el vórtice alrededor del cual
gira el torbellino de cambios y de mejoras, no sólo en lo que a la
infraestructura se refiere, sino también en las aplicaciones, los usuarios, los
servicios y las innovaciones tecnológicas.
Internet lidera el avance de la sociedad de la información del siglo XXI. Ha
conseguido penetrar en nuestras instituciones, y ha cambiado nuestro
comportamiento y nuestras actitudes de manera fundamental. En la
actualidad, más de mil millones de personas utilizan Internet en todo el
planeta. Las generaciones más jóvenes son incapaces de concebir una
época en la que no pudieran compartir fotos, chatear con los amigos, ver
vídeos o comprar en línea. Es imposible atrasar el reloj hasta el mundo que
existía antes de Internet.
El secreto del poder de Internet reside en el hecho de que engloba a todo el
mundo y les anima a compartir con los demás sus ideas más creativas, sus
conocimientos y su trabajo de forma interactiva a través de Internet. La
filosofía fundacional de Internet, basada en la apertura y en la comunidad,
propició un entorno idóneo para su expansión masiva en sus primeros
años.
Internet tiene ante sí un futuro flexible, y la forma que adopte dependerá de
cómo lo definamos tanto nosotros como las circunstancias. Pero si algo es
seguro, es que será una red con movilidad absoluta, ubicuidad,
personalización, adaptabilidad, videoadicción y sorprendentes aplicaciones,
como nunca antes se hubieran imaginado.

284
Sin embargo, a medida que el mundo avanza hacia una sociedad en la que
personas, dispositivos, aplicaciones y servicios están permanentemente
conectados, resulta útil echar la vista atrás y repasar los pioneros y las
fuerzas motrices que hicieron posible que hoy disfrutemos de estos
maravillosos avances. Con demasiada frecuencia olvidamos que muchas
de las tecnologías de las que disfrutamos hoy en día fueron concebidas,
desarrolladas e implantadas hace ya muchos años por auténticos
visionarios. Volvamos al pasado y exploremos la herencia tecnológica que
hemos recibido antes de lanzarnos a una visión de hacia dónde nos
dirigimos.
DEFINICION PRECISA DE INTERNET
Es difícil dar una definición que refleje de forma precisa una realidad tan
compleja. La abordamos desde el punto de vista de las comunicaciones como
una red de ordenadores (servidores) permanentemente conectados y a la
espera de solicitudes de servicios de otras máquinas (clientes) a través de las
redes de comunicación. Para comprender el funcionamiento de internet es
necesario entender lo que significa ordenador servidor y ordenador cliente.
EL PARADIGMA CLIENTE/SERVIDOR:
Este paradigma sitúa a los ordenadores que establecen una comunicación, en
dos niveles distintos. En general el que inicia una comunicación actúa como
cliente y el que está a la espera actúa como servidor. Cuando el usuario inicia
una aplicación cliente (por ejemplo navegador Explorer), ésta contacta con un
servidor y le envía una petición de servicio quedando a la espera de la
respuesta. La aplicación cliente es la encargada de interactuar con el usuario y
de mostrar los resultados de la petición. El servidor siempre está a la espera
de peticiones de servicio. Recibe las peticiones de servicio y retorna los
resultados a la aplicación cliente. El servidor no interacciona con el usuario,
esa es función del programa cliente.

¿PARA QUE SIRVE LA INTERNET?


Es difícil a estas alturas imaginarse el mundo sin Internet, ya que son muchas las
cosas que de ella depende. Es cierto que antes de la globalización de Internet ya
existían redes que conectaban otras redes entre sí mediante otros protocolos (el
más conocido quizás sea el X-25), pero por una larga serie de motivos todos esos
protocolos se han ido abandonando en favor de Internet, hasta el punto en que un
fallo en toda la red de unas horas podría causar unos efectos devastadores en la
economía y en otros sectores.
HISTORIA DE LA INTERNET
Para entender la historia y desarrollo de la internet hay que tener en cuenta el
desarrollo de las comunicaciones inalambricas por lo que decidimos incluir una
breve historia sobre ellas.

285
• Breve historia de las comunicaciones inalámbricas.
Las comunicaciones inalámbricas cuentan con una larga historia. La
primera referencia que tenemos son los documentos que investigan la
relación entre electricidad y magnetismo (especialmente el célebre
experimento realizado en 1820 por Hans Christian Orsted en el que se
demostró que un cable conductor de corriente podía desviar la aguja
magnetizada de una brújula). No pretendemos entrar con profundidad en
este tema, sino que nos limitaremos a repasar someramente el desarrollo
de la radio, que supuso el primer paso hacia la radiotransmisión de
paquetes y la creación de la red de telefonía móvil actual, que es uno de los
componentes importantes de Internet.
Un hecho determinante fue la predicción matemática de la existencia de las
ondas de radio que realizó James Clerk Maxwell en 1864. En un trabajo
asombroso, Maxwell fue capaz de anticipar matemáticamente la radiación
de las ondas electromagnéticas (esto es, que los campos
electromagnéticos se expanden a la velocidad de la luz en forma de ondas
polarizadas). En referencia al trabajo de Maxwell, Einstein exclamó: "La
especial teoría de la relatividad debe sus orígenes a las ecuaciones de
Maxwell sobre los campos electromagnéticos". Desgraciadamente, Maxwell
falleció en 1879, antes de que su predicción pudiera demostrarse
experimentalmente.
La demostración experimental llegó poco después de la muerte de Maxwell.
En 1878, David E. Hughes logró enviar y recibir mensajes en código Morse,
dando a las ondas de radio su primera aplicación práctica. Más adelante, en
1888, Heinrich Hertz demostró la existencia de las ondas de radio utilizando
un transmisor y un receptor primitivos.
No fue hasta 1893 cuando el siempre
innovador Nikola Tesla realizó los primeros
experimentos de "telegrafía inalámbrica". Un
año más tarde, en Rusia, Alexander Popov
construyó en Rusia el primer receptor de radio,
que se presentó públicamente en 1895, y más
adelante desarrolló el primer servicio de radio
fuera del laboratorio. En 1894, Oliver Lodge
logró transmitir señales de radio en la
Universidad de Oxford mediante un aparato
conocido como "coherer", que a su vez se
basaba en el descubrimiento realizado en
1890 por el físico francés Édouard Branly; no
obstante, Tesla había llevado a cabo el mismo
expermiento el año anterior y Marconi lo realizaría al año siguiente.
También en 1894, Jagadish Chandra Bose realizó una transmisión
radiofónica de corto alcance en Calcuta, India, utilizando microondas con
una longitud de onda milimétrica. Su investigación sobre las señales
inalámbricas remotas fue la primera en la que se empleó una conexión con

286
un semiconductor para detectar las ondas de radio, adelantando así la
existencia de los semiconductores de tipo P y de tipo N.
En 1895, Guglielmo Marconi logró transmitir señales inalámbricas a una
distancia de más de un kilómetro y medio del laboratorio que tenía
instalado en su casa en las afueras de Bolonia, Italia. Éste fue el pistoletazo
de salida para una serie de experimentos para transmitir ondas de radio a
distancias cada vez mayores. En 1896, Tesla consiguió transmitir señales
inalámbricas a una distancia de 48 kilómetros; en 1898, Popov estableció
una comunicación desde un barco hasta la estación costera que se
encontraba a una distancia de más de 9 kilómetros, y en 1899, a más de 48
kilómetros, en 1897 Marconi realizó una serie de experimentos de
transmisión por radio a través de una conexión entre la isla de Wight y
Bournemouth, Inglaterra, a unos 21 kilómetros, una conexión entre las dos
orillas del Canal de la Mancha (utilizando un oscilador de Tesla) en 1899 y,
finalmente, en 1901, la transmisión de la primera señal radiofónica
trasatlántica, a una distancia de más 3.500 kilómetros.
En 1897 Marconi obtuvo una patente británica
(presentada en 1896) para el telégrafo
inalámbrico, y fundó la primera emisora de
radio del mundo, que se convertiría más
adelante en la empresa Marconi Wireless
Telegraph Company. En 1900 Nikola Tesla
obtuvo las patentes estadounidenses
(presentadas en 1897) para las técnicas básicas que mejorarían
sustancialmente las transmisiones radiofónicas. A Marconi se le denegó la
patente estadounidense en 1900, y de nuevo en los tres años siguientes.
Sin embargo, en 1904, la Oficina de Patentes estadounidense cambió de
opinión y le concedió la patente. Mucho más adelante, en 1943, el Tribunal
Supremo de los Estados Unidos revocó esta decisión, confirmando la
patente de Tesla.
En 1900, Reginald Fessenden realizó la primera transmisión de voz a
través de la radio. En 1906, Lee de Forest inventó el "audión", que ahora se
conoce como la válvula amplificadora de triodo, un componente esencial de
los sistemas de radio. En 1909, Marconi obtuvo el premio Nobel de Física
por sus contribuciones a la radio.
Resulta interesante que los pioneros de la radio se influyeron mutuamente
en el descubrimiento de ideas y la adopción de líneas de investigación.
Aunque trabajaban y pensaban de forma independiente, sus
descubrimientos se sincronizaron desde varios continentes.
Gracias a estos progresos, la radio llegó a todos los rincones del planeta.
Sin embargo, hasta la era digital, en las últimas décadas del siglo XX, la
tecnología inalámbrica no se empezó a desarrollar en importantes
direcciones, entre las que se cuentan la telefonía móvil digital, las redes
móviles ad hoc la radiotransmisión de paquetes de datos, las redes de
acceso inalámbricas, las plataformas inalámbricas portátiles, etc. Todas

287
ellas han contribuido a que Internet exista tal y como la conocemos hoy. A
continuación emprenderemos un viaje por la historia de Internet.
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar
a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno,
universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la
informática y de las comunicaciones. Los inventos del telégrafo, teléfono,
radio y ordenador sentaron las bases para esta integración de capacidades
nunca antes vivida. Internet es a la vez una oportunidad de difusión
mundial, un mecanismo de propagación de la información y un medio de
colaboración e interacción entre los individuos y sus ordenadores
independientemente de su localización geográfica.

Orígenes de Internet

La primera descripción documentada acerca de las interacciones sociales


que podrían ser propiciadas a través del networking (trabajo en red) está
contenida en una serie de memorándums escritos por Joseph Carl Robnett
Licklider (J.C.R.L), del Massachusetts Institute of Technology, en Agosto de
1962, en los cuales Licklider discute sobre su concepto de Galactic Network
(Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno
pudiera acceder desde cualquier lugar a datos y programas. En esencia, el
concepto era muy parecido a la Internet actual. Licklider fue el principal
responsable del programa de investigación en ordenadores de la DARPA
desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus
sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence
G. Roberts de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer
documento sobre la teoría de conmutación de paquetes. Kleinrock
convenció a Roberts de la factibilidad teórica de las comunicaciones vía
paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el
camino hacia el trabajo informático en red. El otro paso fundamental fue
hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en
Massachusetts con un Q-32 en California a través de una línea telefónica
conmutada de baja velocidad, creando así la primera (aunque reducida) red
de ordenadores de área amplia jamás construida. El resultado del
experimento fue la constatación de que los ordenadores de tiempo
compartido podían trabajar juntos correctamente, ejecutando programas y
recuperando datos a discreción en la máquina remota, pero que el sistema
telefónico de conmutación de circuitos era totalmente inadecuado para esta

288
labor. La convicción de Kleinrock acerca de la necesidad de la conmutación
de paquetes quedó pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto
de red de ordenadores y rápidamente confeccionó su plan para ARPANET,
publicándolo en 1967. En la conferencia en la que presentó el documento
se exponía también un trabajo sobre el concepto de red de paquetes a
cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló
a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y
otros en RAND. El grupo RAND había escrito un documento sobre redes de
conmutación de paquetes para comunicación vocal segura en el ámbito
militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-
67) habían discurrido en paralelo sin que los investigadores hubieran
conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada
a partir del trabajo del NPL y la velocidad de la línea propuesta para ser
usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50
Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA
hubieran refinado la estructura global y las especificaciones de ARPANET,
DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave:
los conmutadores de paquetes llamados interface message processors
(IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por
Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN
trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de
la arquitectura de la ARPANET global, la topología de red y el aspecto
económico fueron diseñados y optimizados por Roberts trabajando con
Howard Frank y su equipo en la Network Analysis Corporation, y el sistema
de medida de la red fue preparado por el equipo de Kleinrock de la
Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes
de Kleinrock y su énfasis en el análisis, diseño y medición, su Network
Measurement Center (Centro de Medidas de Red) en la UCLA fue
seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en
Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó
conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human
Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo
sistema hipertexto en el Instituto de Investigación de Standford (SRI)
proporcionó un segundo nodo. El SRI patrocinó el Network Information
Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales

289
como mantener tablas de nombres de host para la traducción de
direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer
mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI.
Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y
en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos
de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB
investigando métodos para mostrar funciones matemáticas mediante el uso
de "storage displays" ( N. del T. : mecanismos que incorporan buffers de
monitorización distribuidos en red para facilitar el refresco de la
visualización) para tratar con el problema de refrescar sobre la red, y Robert
Taylor y Ivan Sutherland en Utah investigando métodos de representación
en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados
cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria
Internet. Incluso en esta primitiva etapa, hay que reseñar que la
investigación incorporó tanto el trabajo mediante la red ya existente como la
mejora de la utilización de dicha red. Esta tradición continúa hasta el día de
hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante
los años siguientes y el trabajo continuó para completar un protocolo host a
host funcionalmente completo, así como software adicional de red. En
Diciembre de 1970, el Network Working Group (NWG) liderado por
S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado
Network Control Protocol (NCP, protocolo de control de red). Cuando en los
nodos de ARPANET se completó la implementación del NCP durante el
periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a
desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración
de ARPANET en la International Computer Communication Conference .
Esta fue la primera demostración pública de la nueva tecnología de red.
Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el
correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-
recepción de mensajes de correo electrónico, impulsado por la necesidad
que tenían los desarrolladores de ARPANET de un mecanismo sencillo de
coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa
de utilidad de correo electrónico para relacionar, leer selectivamente,
almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación
de correo electrónico se convirtió en la mayor de la red durante más de una
década. Fue precursora del tipo de actividad que observamos hoy día en la

290
World Wide Web , es decir, del enorme crecimiento de todas las formas de
tráfico persona a persona.

Conceptos iniciales sobre Internetting

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea


de que habría múltiples redes independientes, de diseño casi arbitrario,
empezando por ARPANET como la red pionera de conmutación de
paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de
paquetes por radio y otros tipos de red. Internet como ahora la conocemos
encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no
respondería a una arquitectura específica de red sino que podría ser
seleccionada libremente por un proveedor e interactuar con las otras redes
a través del metanivel de la arquitectura de Internetworking (trabajo entre
redes). Hasta ese momento, había un sólo método para "federar" redes.
Era el tradicional método de conmutación de circuitos, por el cual las redes
se interconectaban a nivel de circuito pasándose bits individuales
síncronamente a lo largo de una porción de circuito que unía un par de
sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la
conmutación de paquetes era el método de conmutación más eficiente.
Juntamente con la conmutación de paquetes, las interconexiones de
propósito especial entre redes constituían otra posibilidad. Y aunque había
otros métodos limitados de interconexión de redes distintas, éstos requerían
que una de ellas fuera usada como componente de la otra en lugar de
actuar simplemente como un extremo de la comunicación para ofrecer
servicio end-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes individuales pueden ser
diseñadas y desarrolladas separadamente y cada una puede tener su
propia y única interfaz, que puede ofrecer a los usuarios y/u otros
proveedores, incluyendo otros proveedores de Internet. Cada red puede ser
diseñada de acuerdo con su entorno específico y los requerimientos de los
usuarios de aquella red.
No existen generalmente restricciones en los tipos de red que pueden ser
incorporadas ni tampoco en su ámbito geográfico, aunque ciertas
consideraciones pragmáticas determinan qué posibilidades tienen sentido.
La idea de arquitectura de red abierta fue introducida primeramente por
Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue
originalmente parte de su programa de paquetería por radio, pero más tarde
se convirtió por derecho propio en un programa separado.
Entonces, el programa fue llamado Internetting . La clave para realizar el
trabajo del sistema de paquetería por radio fue un protocolo extremo a

291
extremo seguro que pudiera mantener la comunicación efectiva frente a los
cortes e interferencias de radio y que pudiera manejar las pérdidas
intermitentes como las causadas por el paso a través de un túnel o el
bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local
sólo para la red de paquetería por radio porque ello le hubiera evitado tratar
con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas
más allá de un destino IMP en ARPANET y de esta manera se requerían
ciertos cambios en el NCP. La premisa era que ARPANET no podía ser
cambiado en este aspecto. El NCP se basaba en ARPANET para
proporcionar seguridad extremo a extremo. Si alguno de los paquetes se
perdía, el protocolo y presumiblemente cualquier aplicación soportada
sufriría una grave interrupción. En este modelo, el NCP no tenía control de
errores en el host porque ARPANET había de ser la única red existente y
era tan fiable que no requería ningún control de errores en la parte de los
host s.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera
satisfacer las necesidades de un entorno de red de arquitectura abierta. El
protocolo podría eventualmente ser denominado "Transmisson-Control
Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión
/protocolo de Internet). Así como el NCP tendía a actuar como un driver
(manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo
de comunicaciones.

Ideas a prueba

DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson)
y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original
de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos
componentes). El equipo de Stanford, dirigido por Cerf, produjo las
especificaciones detalladas y al cabo de un año hubo tres
implementaciones independientes de TCP que podían interoperar.
Este fue el principio de un largo periodo de experimentación y desarrollo
para evolucionar y madurar el concepto y tecnología de Internet. Partiendo
de las tres primeras redes ARPANET, radio y satélite y de sus comunidades
de investigación iniciales, el entorno experimental creció hasta incorporar
esencialmente cualquier forma de red y una amplia comunidad de
investigación y desarrollo [REK78]. Cada expansión afrontó nuevos
desafíos.
Las primeras implementaciones de TCP se hicieron para grandes sistemas
en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los
ordenadores de sobremesa (desktop), TCP era demasiado grande y
complejo como para funcionar en ordenadores personales. David Clark y su

292
equipo de investigación del MIT empezaron a buscar la implementación de
TCP más sencilla y compacta posible.
La desarrollaron, primero para el Alto de Xerox (la primera estación de
trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de
IBM. Esta implementación operaba con otras de TCP, pero estaba
adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador
personal, y demostraba que las estaciones de trabajo, al igual que los
grandes sistemas, podían ser parte de Internet.
En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió
que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por
Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y
los PCs y las estaciones de trabajo los modelos de ordenador dominantes.
El cambio que supone pasar de unas pocas redes con un modesto número
de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar
a nuevos conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para
acomodar todas las existentes. La clase A representa a las redes grandes,
a escala nacional (pocas redes con muchos ordenadores); la clase B
representa redes regionales; por último, la clase C representa redes de
área local (muchas redes con relativamente pocos ordenadores).
Como resultado del crecimiento de Internet, se produjo un cambio de gran
importancia para la red y su gestión. Para facilitar el uso de Internet por sus
usuarios se asignaron nombres a los host s de forma que resultara
innecesario recordar sus direcciones numéricas. Originalmente había un
número muy limitado de máquinas, por lo que bastaba con una simple tabla
con todos los ordenadores y sus direcciones asociadas.
El cambio hacia un gran número de redes gestionadas independientemente
(por ejemplo, las LAN) significó que no resultara ya fiable tener una
pequeña tabla con todos los host s. Esto llevó a la invención del DNS (
Domain Name System , sistema de nombres de dominio) por Paul
Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y
distribuido para resolver jerárquicamente los nombres de los host s (por
ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet.
El incremento del tamaño de Internet resultó también un desafío para los
routers . Originalmente había un sencillo algoritmo de enrutamiento que
estaba implementado uniformemente en todos los routers de Internet. A
medida que el número de redes en Internet se multiplicaba, el diseño inicial
no era ya capaz de expandirse, por lo que fue sustituido por un modelo
jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol
, protocolo interno de pasarela) usado dentro de cada región de Internet y
un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de
pasarela) usado para mantener unidas las regiones.

293
El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que
los requisitos de coste, velocidad de configuración, robustez y escalabilidad,
podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran
los únicos en poner en dificultades la capacidad de los routers , también lo
hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas
aproximaciones a la agregación de direcciones (en particular CIDR,
Classless Interdomain Routing , enrutamiento entre dominios sin clase)
para controlar el tamaño de las tablas de enrutamiento.
A medida que evolucionaba Internet, la propagación de los cambios en el
software, especialmente el de los host s, se fue convirtiendo en uno de sus
mayores desafíos. DARPA financió a la Universidad de California en
Berkeley en una investigación sobre modificaciones en el sistema operativo
Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente
Berkeley modificó esta implementación del BBN para que operara de forma
más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP
en el sistema Unix BSD demostró ser un elemento crítico en la difusión de
los protocolos entre la comunidad investigadora.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte de
la comunidad investigadora en temas relacionados con informática. Visto en
perspectiva, la estrategia de incorporar los protocolos de Internet en un
sistema operativo utilizado por la comunidad investigadora fue uno de los
elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo para
host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se
trataba de una ocasión muy importante que exigía que todos los host s se
convirtieran simultáneamente o que permanecieran comunicados mediante
mecanismos desarrollados para la ocasión.
La transición fue cuidadosamente planificada dentro de la comunidad con
varios años de antelación a la fecha, pero fue sorprendentemente sobre
ruedas (a pesar de dar la lugar a la distribución de insignias con la
inscripción "Yo sobreviví a la transición a TCP/IP").
TCP/IP había sido adoptado como un estándar por el ejército
norteamericano tres años antes, en 1980. Esto permitió al ejército empezar
a compartir la tecnología DARPA basada en Internet y llevó a la separación
final entre las comunidades militares y no militares. En 1983 ARPANET
estaba siendo usada por un número significativo de organizaciones
operativas y de investigación y desarrollo en el área de la defensa. La
transición desde NCP a TCP/IP en ARPANET permitió la división en una
MILNET para dar soporte a requisitos operativos y una ARPANET para las
necesidades de investigación.
Así, en 1985, Internet estaba firmemente establecida como una tecnología
que ayudaba a una amplia comunidad de investigadores y desarrolladores,

294
y empezaba a ser empleada por otros grupos en sus comunicaciones
diarias entre ordenadores. El correo electrónico se empleaba ampliamente
entre varias comunidades, a menudo entre distintos sistemas. La
interconexión entre los diversos sistemas de correo demostraba la utilidad
de las comunicaciones electrónicas entre personas.

La transición hacia una infraestructura global

Al mismo tiempo que la tecnología Internet estaba siendo validada


experimentalmente y usada ampliamente entre un grupo de investigadores
de informática se estaban desarrollando otras redes y tecnologías. La
utilidad de las redes de ordenadores (especialmente el correo electrónico
utilizado por los contratistas de DARPA y el Departamento de Defensa en
ARPANET) siguió siendo evidente para otras comunidades y disciplinas de
forma que a mediados de los años 70 las redes de ordenadores
comenzaron a difundirse allá donde se podía encontrar financiación para
las mismas.
El Departamento norteamericano de Energía (DoE, Deparment of Energy )
estableció MFENet para sus investigadores que trabajaban sobre energía
de fusión, mientras que los físicos de altas energías fueron los encargados
de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick
Adrion, David Farber y Larry Landweber fundaron CSNET para la
comunidad informática académica y de la industria con la financiación inicial
de la NFS ( National Science Foundation , Fundación Nacional de la
Ciencia) de Estados Unidos.
La libre diseminación del sistema operativo Unix de ATT dio lugar a
USENET, basada en los protocolos de comunicación UUCP de Unix, y en
1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los
ordenadores centrales del mundo académico siguiendo el paradigma de
correo electrónico como "postales". Con la excepción de BITNET y
USENET, todas las primeras redes (como ARPANET) se construyeron para
un propósito determinado.
Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de
estudiosos; de ahí las escasas presiones por hacer estas redes compatibles
y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran.
Además, estaban empezando a proponerse tecnologías alternativas en el
sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).
Sólo restaba que los programas ingleses JANET (1984) y norteamericano
NSFNET (1985) anunciaran explícitamente que su propósito era servir a
toda la comunidad de la enseñanza superior sin importar su disciplina. De
hecho, una de las condiciones para que una universidad norteamericana
recibiera financiación de la NSF para conectarse a Internet era que "la
conexión estuviera disponible para todos los usuarios cualificados del
campus".

295
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS
dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para
ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser
obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa
NFSNET en 1986 reconoció la necesidad de una infraestructura de red
amplia que pudiera ser de ayuda a la comunidad investigadora y a la
académica en general, junto a la necesidad de desarrollar una estrategia
para establecer esta infraestructura sobre bases independientes de la
financiación pública directa. Se adoptaron varias políticas y estrategias para
alcanzar estos fines.
La NSF optó también por mantener la infraestructura organizativa de
Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet
Activities Board , Comité de Actividades de Internet). La declaración pública
de esta decisión firmada por todos sus autores (por los grupos de
Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció
como la RFC 985 ("Requisitos para pasarelas de Internet") que
formalmente aseguraba la interoperatividad entre las partes de Internet
dependientes de DARPA y de NSF.
El backbone había hecho la transición desde una red construida con routers
de la comunidad investigadora (los routers Fuzzball de David Mills) a
equipos comerciales. En su vida de ocho años y medio, el backbone había
crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces
múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000
redes en los cinco continentes y en el espacio exterior, con
aproximadamente 29.000 redes en los Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su financiación (200
millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue
tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había
sustituido o marginado a la mayor parte de los restantes protocolos de
grandes redes de ordenadores e IP estaba en camino de convertirse en el
servicio portador de la llamada Infraestructura Global de Información.

El papel de la documentación

Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y


abierto a los documentos básicos, especialmente a las especificaciones de
los protocolos.
Los comienzos de Arpanet y de Internet en la comunidad de investigación
universitaria estimularon la tradición académica de la publicación abierta de
ideas y resultados. Sin embargo, el ciclo normal de la publicación
académica tradicional era demasiado formal y lento para el intercambio
dinámico de ideas, esencial para crear redes.

296
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la
serie de notas RFC ( Request For Comments , petición de comentarios).
Estos memorándums pretendieron ser una vía informal y de distribución
rápida para compartir ideas con otros investigadores en redes. Al principio,
las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero
cuando el FTP ( File Transfer Protocol , protocolo de transferencia de
ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos
online a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en
decenas de emplazamientos en todo el mundo. SRI, en su papel como
Centro de Información en la Red, mantenía los directorios online . Jon
Postel actuaba como editor de RFC y como gestor de la administración
centralizada de la asignación de los números de protocolo requeridos,
tareas en las que continúa hoy en día.
El efecto de las RFC era crear un bucle positivo de realimentación, con
ideas o propuestas presentadas a base de que una RFC impulsara otra
RFC con ideas adicionales y así sucesivamente. Una vez se hubiera
obtenido un consenso se prepararía un documento de especificación. Tal
especificación seria entonces usada como la base para las
implementaciones por parte de los equipos de investigación.
Con el paso del tiempo, las RFC se han enfocado a estándares de
protocolo –las especificaciones oficiales- aunque hay todavía RFC
informativas que describen enfoques alternativos o proporcionan
información de soporte en temas de protocolos e ingeniería. Las RFC son
vistas ahora como los documentos de registro dentro de la comunidad de
estándares y de ingeniería en Internet.
El acceso abierto a las RFC –libre si se dispone de cualquier clase de
conexión a Internet- promueve el crecimiento de Internet porque permite
que las especificaciones sean usadas a modo de ejemplo en las aulas
universitarias o por emprendedores al desarrollar nuevos sistemas.
El e-mail o correo electrónico ha supuesto un factor determinante en todas
las áreas de Internet, lo que es particularmente cierto en el desarrollo de las
especificaciones de protocolos, estándares técnicos e ingeniería en
Internet. Las primitivas RFC a menudo presentaban al resto de la
comunidad un conjunto de ideas desarrolladas por investigadores de un
solo lugar. Después de empezar a usarse el correo electrónico, el modelo
de autoría cambió: las RFC pasaron a ser presentadas por coautores con
visiones en común, independientemente de su localización.
Las listas de correo especializadas ha sido usadas ampliamente en el
desarrollo de la especificación de protocolos, y continúan siendo una
herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo,
cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada

297
uno de estos grupos de trabajo dispone de una lista de correo para discutir
uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el
documento, éste puede ser distribuido como una RFC.
Debido a que la rápida expansión actual de Internet se alimenta por el
aprovechamiento de su capacidad de promover la compartición de
información, deberíamos entender que el primer papel en esta tarea
consistió en compartir la información acerca de su propio diseño y
operación a través de los documentos RFC. Este método único de producir
nuevas capacidades en la red continuará siendo crítico para la futura
evolución de Internet.
El futuro: Internet 2
Internet2 es el futuro de la red de redes y está formado actualmente por un
consorcio dirigido por 206 universidades que junto a la industria de
comunicaciones y el gobierno están desarrollando nuevas técnicas de
conexión que acelerarán la capacidad de transferencia entre servidores.
Sus objetivos están enfocados a la educación y la investigación académica.
Además buscan aprovechar aplicaciones de audio y video que demandan
más capacidad de transferencia de ancho de banda.

298
Lenguajes de Programación
Los ordenadores no hablan nuestro idioma, son maquinas y como tales,
necesitan un lenguaje especifico pensado por el hombre para ellas.
Además, necesitan constantemente interpretar todas las instrucciones que
reciben. Dada la dificultad de comunicación entre el computador y el
programador, de formaron los lenguajes de programación que hacen
posible la comunicación con el microprocesador, utilizando términos y
símbolos relacionados con el tipo de problema que se debe resolver,
mediante el empleo de herramientas que brinda la informática.
Estos lenguajes permiten, por un lado, escribir las operaciones que son
necesarias realizar para resolver el problema de un modo parecido a como
se escribiría. En la actualidad hay muchos tipos de lenguajes de
programación, cada uno de ellos con su propia gramática, su terminología
especial y una sintaxis particular. Por ejemplo, existen algunos creados
especialmente para aplicaciones científicas o matemáticas generales
(BASIC, FORTRAN, PASCAL, etc. ); otros, en cambio, se orientan al campo
empresarial y al manejo de textos y ficheros, es decir, son en realidad
fundamentalmente gestores de información (COBOL, PL/1, etc. ), o muy
relacionados con el lenguaje máquina del ordenador (como el C y el
ASSEMBLER).
Los ordenadores se programaban en lenguaje máquina pero las dificultades
que esto llevaba, junto con la enorme facilidad de cometer errores, cuya
localización era larga y difícil, hicieron que, en la década de los 40, la
posibilidad de usar lenguajes simbólicos. Los primeros en aparecer fueron
los ensambladores, fundamentalmente consistía en dar un nombre a cada
tipo de instrucción y cada dirección. Al principio sé hacia el programa sobre
papel y, después se traducía a mano con la ayuda de unas tablas, y se
introducían en la máquina en forma numérica, pero pronto aparecieron
programas que se ensamblaban automáticamente.
DEFINICIONES
Un lenguaje de programación es una notación para escribir programas, a
través de los cuales podemos comunicarnos con el hardware y dar así las
ordenes adecuadas para la realización de un determinado proceso. Un
lenguaje esta definido por una gramática o conjunto de reglas que se
aplican a un alfabeto constituido por el conjunto de símbolos utilizados. Los
distintos niveles de programación existentes nos permiten acceder al

299
hardware, de tal forma que según utilicemos un nivel u otro, así tendremos
que utilizar un determinado lenguaje ligado a sus correspondientes
traductores.
. Es un conjunto de palabras y símbolos que permiten al usuario generar
comandos e instrucciones para que la computadora los ejecute. Los
lenguajes de programación deben tener instrucciones que pertenecen a las
categorías ya familiares de entrada/salida, calculo/manipulación, de textos,
logica/comparación, y almacenamiento/recuperación.
HISTORIA
Los primeros lenguajes de programación surgieron de la idea de Charles
Babagge, la cual se le ocurrió a este hombre a mediados del siglo XIX. Era
un profesor matemático de la universidad de Cambridge e inventor ingles,
que la principio del siglo XIX predijo muchas de las teorías en que se basan
los actuales ordenadores. Consistía en lo que él denominaba la maquina
analítica, pero que por motivos técnicos no pudo construirse hasta
mediados del siglo XX. Con él colaboro Ada Lovedby, la cual es
considerada como la primera programadora de la historia, pues realizo
programas para aquélla supuesta maquina de Babagge, en tarjetas
perforadas. Como la maquina no llego nunca a construirse, los programas
de Ada, lógicamente, tampoco llegaron a ejecutarse, pero si suponen un
punto de partida de la programación, sobre todo si observamos que en
cuanto se empezó a programar, los programadores utilizaron las técnicas
diseñadas por Charles Babagge, y Ada, que consistían entre otras, en la
programación mediante tarjetas perforadas. A pesar de ello, Ada ha
permanecido como la primera programadora de la historia. Se dice por
tanto que estos dos genios de antaño, se adelantaron un siglo a su época,
lo cual describe la inteligencia de la que se hallaban dotados.
En 1823 el gobierno Británico lo apoyo para crear el proyecto de una
máquina de diferencias, un dispositivo mecánico para efectuar sumas
repetidas. Pero Babagge se dedico al proyecto de la máquina analítica,
abandonando la maquina de diferencias, que se pudiera programar con
tarjetas perforadas, gracias a la creación de Charles Jacquard (francés).
Este hombre era un fabricante de tejidos y había creado un telar que podía
reproducir automáticamente patrones de tejidos, leyendo la información
codificada en patrones de agujeros perforados en tarjetas de papel rígido.
Entonces Babagge intento crear la máquina que se pudiera programar con
tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20
dígitos. Pero la tecnología de la época no bastaba para hacer realidad sus
ideas. Si bien las ideas de Babagge no llegaron a materializarse de forma
definitiva, su contribución es decisiva, ya que los ordenadores actuales
responden a un esquema análogo al de la máquina analítica. En su diseño,
la máquina constaba de cinco unidades básicas: 1) Unidad de entrada, para
introducir datos e instrucciones; 2) Memoria, donde se almacenaban datos
y resultados intermedios; 3) Unidad de control, para regular la secuencia de

300
ejecución de las operaciones; 4) Unidad Aritmético-Lógica, que efectúa las
operaciones; 5) Unidad de salida, encargada de comunicar al exterior los
resultados. Charles Babbage, conocido como el "padre de la informática" no
pudo completar en aquella época la construcción del computador que había
soñado, dado que faltaba algo fundamental: la electrónica. El camino
señalado de Babbage, no fue nunca abandonado y siguiéndolo, se
construyeron los primeros computadores.
Cuando surgió el primer ordenador, el famoso ENIAC (Electronic Numerical
Integrator And Calculator), su programación se basaba en componentes
físicos, o sea, que se programaba, cambiando directamente el Hardware de
la maquina, exactamente lo que sé hacia era cambiar cables de sitio para
conseguir así la programación de la maquina. La entrada y salida de datos
se realizaba mediante tarjetas perforadas.
LAS TENDENCIAS DE LOS LENGUAJES DE PROGRAMACIÓN
El estudio de los lenguajes de programación agrupa tres intereses
diferentes; el del programador profesional, el del diseñador del lenguaje y
del Implementador del lenguaje.
Además, estos tres trabajos han de realizarse dentro de las ligaduras y
capacidades de la organización de una computadora y de las limitaciones
fundamentales de la propia "calculabilidad". El termino "el programador" es
un tanto amorfo, en el sentido de que camufla importantes diferencias entre
distintos niveles y aplicaciones de la programación. Claramente el
programador que ha realizado un curso de doce semanas en COBOL y
luego entra en el campo del procesamiento de datos es diferente del
programador que escribe un compilador en Pascal, o del programador que
diseña un experimento de inteligencia artificial en LISP, o del programador
que combina sus rutinas de FORTRAN para resolver un problema de
ingeniería complejo, o del programador que desarrolla un sistema operativo
multiprocesador en ADA.
En este trabajo, intentare clarificar estas distinciones tratando diferentes
lenguajes de programación en el contexto de cada área de aplicación
diferente. El "diseñador del lenguaje" es también un termino algo nebuloso.
Algunos lenguajes (como APL y LISP) fueron diseñados por una sola
persona con un concepto único, mientras que otros (FORTRAN y COBOL)
son el producto de desarrollo de varios años realizados por comités de
diseño de lenguajes.
El "Implementador del lenguaje" es la persona o grupo que desarrolla un
compilador o interprete para un lenguaje sobre una maquina particular o
tipos de maquinas. Mas frecuentemente, el primer compilador para el
lenguaje Y sobre la maquina X es desarrollada por la corporación que
manufactura la maquina X . Por ejemplo, hay varios compiladores de
Fortran en uso; uno desarrollado por IBM para una maquina IBM, otro

301
desarrollado por DEC para una maquina DEC, otro por CDC, y así
sucesivamente. Las compañías de software también desarrollan
compiladores y también lo hacen los grupos de investigación de las
universidades. Por ejemplo, la universidad de Waterloo desarrolla
compiladores para FORTRAN Y PASCAL, los cuales son útiles en un
entorno de programación de estudiantes debido a su superior capacidad de
diagnostico y velocidad de compilación.
Hay también muchos aspectos compartidos entre los programadores,
diseñadores de un lenguaje implementadores del mismo. Cada uno debe
comprender las necesidades y ligaduras que gobiernan las actividades de
los otros dos.
Hay, al menos, dos formas fundamentales desde las que pueden verse o
clasificarse los lenguajes de programación: por su nivel y por principales
aplicaciones. Además, estas visiones están condicionadas por la visión
histórica por la que ha transcurrido el lenguaje. Además, hay cuatro niveles
distintos de lenguaje de programación.
Los "Lenguajes Declarativos" son los mas parecidos al castellano o ingles
en su potencia expresiva y funcionalidad están en el nivel mas alto respecto
a los otros. Son fundamentalmente lenguajes de ordenes, dominados por
sentencias que expresan "Lo que hay que hacer" en ves de "Como
hacerlo". Ejemplos de estos lenguajes son los lenguajes estadísticos como
SAS y SPSS y los lenguajes de búsqueda en base de datos, como
NATURAL e IMS. Estos lenguajes se desarrollaron con la idea de que los
profesionales pudieran asimilar mas rápidamente el lenguaje y usarlo en su
trabajo, sin necesidad de programadores o practicas de programación.
Los lenguajes de " Alto Nivel" son los más utilizados como lenguaje de
programación. Aunque no son fundamentalmente declarativos, estos
lenguajes permiten que los algoritmos se expresen en un nivel y estilo de
escritura fácilmente legible y comprensible por otros programadores.
Además, los lenguajes de alto nivel tienen normalmente las características
de " Transportabilidad". Es decir, están implementadas sobre varias
maquinas de forma que un programa puede ser fácilmente " Transportado "
(Transferido) de una maquina a otra sin una revisión sustancial. En ese
sentido se llama "Independientes de la maquina". Ejemplos de estos
lenguajes de alto nivel son PASCAL, APL y FORTRAN (para aplicaciones
científicas), COBOL (para aplicaciones de procesamiento de datos),
SNOBOL( para aplicaciones de procesamiento de textos), LISP y PROLOG
(para aplicaciones de inteligencia artificial), C y ADA (para aplicaciones de
programación de sistemas) y PL/I (para aplicaciones de propósitos
generales).
Los "Lenguajes Ensambladores" y los "Lenguajes Maquina" son
dependientes de la maquina. Cada tipo de maquina, tal como VAX de
digital, tiene su propio lenguaje maquina distinto y su lenguaje ensamblador

302
asociado. El lenguaje Ensamblador es simplemente una representación
simbólica del lenguaje maquina asociado, lo cual permite una programación
menos tediosa que con el anterior. Sin embargo, es necesario un
conocimiento de la arquitectura mecánica subyacente para realizar una
programación efectiva en cualquiera de estos niveles lenguajes.
Los siguientes tres segmentos del programa equivalentes exponen las
distinciones básicas entre lenguajes maquina, ensambladores de alto nivel:
Como muestra este ejemplo, a mas bajo nivel de lenguaje mas cerca esta
de las características de un tipo e maquina particular y más alejado de ser
comprendido por un humano ordinario. Hay también una estrecha relación (
correspondencia 1:1) entre las sentencias en lenguaje ensamblador y sus
formas en lenguaje maquina codificada. La principal diferencia aquí es que
los lenguajes ensambladores se utilizan símbolos (X, Y, Z, A para " sumar",
M para "multiplicar"), mientras que se requieren códigos numéricos
(OC1A4, etc.) para que lo comprenda la maquina.
La programación de un lenguaje de alto nivel o en un lenguaje ensamblador
requiere, por tanto, algún tipo de interfaz con el lenguaje maquina para que
el programa pueda ejecutarse. Las tres interfaces más comunes: un
"ensamblador”, un "compilador" y un "interprete". El ensamblador y el
compilador traducen el programa a otro equivalente en el lenguaje X de la
maquina "residente" como un paso separado antes de la ejecución. Por otra
parte, el interprete ejecuta directamente las instrucciones en un lenguaje Y
de alto nivel, sin un paso de procesamiento previo.
La compilación es, en general, un proceso más eficiente que la
interpretación para la mayoría de los tipos de maquina. Esto se debe
principalmente a que las sentencias dentro de un "bucle" deben ser
reinterpretadas cada vez que se ejecutan por un interprete. Con un
compilador. Cada sentencia es interpretada y luego traducida a lenguaje
maquina solo una vez.
Algunos lenguajes son lenguajes principalmente interpretados, como APL,
PROLOG y LISP. El resto de los lenguajes -- Pascal, FORTRAN, COBOL,
PL/I, SNOBOL, C, Ada y Modula-2 - son normalmente lenguajes
compilados. En algunos casos, un compilador estará utilizable
alternativamente para un lenguaje interpretado (tal como LISP) e
inversamente (tal como el interprete SNOBOL4 de los laboratorios Bell). 1
Frecuentemente la interpretación es preferible a la compilación en un
entorno de programación experimental o de educación, donde cada nueva
ejecución de un programa implicado un cambio en el propio texto del
programa. La calidad de diagnosis y depuración que soportan los lenguajes
interpretados es generalmente mejor que la de los lenguajes compilados,
puesto que los mensajes de error se refieren directamente a sentencias del
texto del programa original. Además, la ventaja de la eficiencia que se

303
adjudica tradicionalmente a los lenguajes compilados frente a los
interpretados puede pronto ser eliminado, debido a la evolución de las
maquinas cuyos lenguajes son ellos mismos1lenguajes de alto nivel. Como
ejemplo de estos están las nuevas maquinas LISP, las cuales han sido
diseñadas recientemente por Symbolics y Xerox Corporations.
Los lenguajes de Programación son tomados de diferentes perspectivas. Es
importante para un programador decidir cuales conceptos emitir o cuales
incluir en la programación. Con frecuencia el programador es osado a usar
combinaciones de conceptos que hacen al lenguaje "DURO" de usar, de
entender e implementar. Cada programador tiene en mente un estilo
particular de programación, la decisión de incluir u omitir ciertos tipos de
datos que pueden tener una significativa influencia en la forma en que el
Lenguaje es usado, la decisión de usar u omitir conceptos de programación
o modelos.
Existen cinco estilos de programación y son los siguientes:
Orientados a Objetos.
Imperativa : Entrada, procesamiento y salidas de Datos.
Funcional : "Funciones", los datos son funciones, los resultados pueden ser
un valor o una función.
Lógico : {T, F} + operaciones lógicas (Inteligencia Artificial).
Concurrente : Aún esta en proceso de investigación.
El programador, diseñador e implementador de un lenguaje de
programación deben comprender la evolución histórica de los lenguajes
para poder apreciar por que presentan características diferentes. Por
ejemplo, los lenguajes "mas jóvenes" desaconsejan (o prohíben) el uso de
las sentencias GOTO como mecanismo de control inferior, y esto es
correcto en el contexto de las filosofías actuales de ingeniería del software y
programación estructurada. Pero hubo un tiempo en que la GOTO,
combinada con la IF, era la única estructura de control disponible; el
programador no dispone de algo como la construcción WHILE o un IF-
THEN-ELSE para elegir. Por tanto, cuando se ve un lenguaje como
FORTRAN, el cual tiene sus raíces en los comienzos de la historia de los
lenguajes de programación, uno no debe sorprenderse de ver la antigua
sentencia GOTO dentro de su repertorio.
Lo más importante es que la historia nos permite ver la evolución de
familias de lenguajes de programación, ver la influencia que ejercer las
arquitecturas y aplicaciones de las computadoras sobre el diseño de
lenguajes y evitar futuros defectos de diseño aprendido las lecciones del
pasado. Los que estudian se han elegido debido a su mayor influencia y
amplio uso entre los programadores, así como por sus distintas

304
características de diseño e implementación. Colectivamente cubren los
aspectos más importantes con los que ha de enfrentarse el diseñado de
lenguajes y la mayoría de las aplicaciones con las que se enfrenta el
programador. Para los lectores que estén interesados en conocer con mas
detalle la historia de los lenguajes de programación recomendamos las
actas de una recién conferencia (1981) sobre este tema, editadas por
Richard Wexelblat. Vemos que FORTRAN I es un ascendente directo de
FORTRAN II, mientras que FORTRAN, COBOL, ALGO 60, LISP, SNOBOL
y los lenguajes ensambladores, influyeron en el diseño de PL/I.
También varios lenguajes están prefijados por las letras ANS. Esto significa
que el American National Standards Institute ha adoptado esa versión del
lenguaje como el estándar nacional. Una vez que un lenguaje esta
estandarizado, las maquinas que implementan este lenguaje deben cumplir
todas las especificaciones estándares, reforzando así el máximo de
transportabilidad de programas de una maquina a otra. La policía federal de
no comprar maquinas que no cumplan la versión estándar de cualquier
lenguaje que soporte tiende a "fortalecer" el proceso de estandarización,
puesto que el gobierno es, con mucho, el mayor comprador de
computadoras de la nación.
Finalmente, la notación algebraica ordinaria, por ejemplo, influyo
fuertemente en el diseño de FORTRAN y ALGOL. Por otra parte, el ingles
influyo en el desarrollo del COBOL. El lambda calculo de Church dio los
fundamentos de la notación funcional de LISP, mientras que el algoritmo de
Markov motivo el estilo de reconocimiento de formas de SNOBOL. La
arquitectura de computadoras de Von Neumann, la cual fue una evolución
de la maquina más antigua de Turing, es el modelo básico de la mayoría de
los diseños de computadoras de las ultimas tres décadas. Esta maquina no
solo influyeron en los primeros lenguajes sino que también suministraron el
esqueleto operacional sobre el que evoluciono la mayoría de la
programación de sistemas.
Una discusión más directa de todos estos primeros modelos no están entre
los objetivos de este texto. Sin embargo, es importante apuntar aquí debido
a su fundamental influencia en la evolución de los primeros lenguajes de
programación, por una parte, y por su estado en el núcleo de la teoría de la
computadora, por otra. Mas sobre este punto, cualquier algoritmo que
pueda describirse en ingles o castellano puede escribirse igualmente como
una maquina de Turing (maquina de Von Neumann), un algoritmo de
Markov o una función recursiva. Esta sección, conocida ampliamente como
"tesis de Church", nos permite escribir algoritmos en distintos estilos de
programación (lenguajes) sin sacrificar ninguna medida de generalidad, o
potencia de programación, en la transición.
CLASIFICACION DE LOS LENGUAJES DE PROGRAMACIÓN
LENGUAJE MÁQUINA:

305
El lenguaje máquina es el único que entiende directamente la computadora,
ya que esta escrito en lenguajes directamente inteligibles por la máquina
(computadora), utiliza el alfabeto binario, que consta de los dos únicos
símbolos 0 y 1, denominados bits (abreviatura inglesa de dígitos binarios).
Sus instrucciones son cadenas binarias (cadenas o series de caracteres de
dígitos 0 y 1) que especifican una operación y, las posiciones (dirección) de
memoria implicadas en la operación se denominan instrucciones de
máquina o código maquina. Fue el primer lenguaje utilizado en la
programación de computadoras, pero dejo de utilizarse por su dificultad y
complicación, siendo sustituido por otros lenguajes más fáciles de aprender
y utilizar, que además reducen la posibilidad de cometer errores. El
lenguaje máquina es el conocido código binario. Generalmente, en la
codificación de los programas se empleaba el sistema hexadecimal para
simplificar el trabajo de escritura. Todas las instrucciones preparadas en
cualquier lenguaje máquina tienen por lo menos dos partes. La primera es
el comando u operación, que dice a las computadoras cual es la función
que va a realizar. Todas las computadoras tienen un código de operación
para cada una de las funciones. La segunda parte de la instrucción es el
operando, que indica a la computadora donde hallar o almacenar los datos
y otras instrucciones que se van a manipular, el número de operándoos de
una instrucción varia en distintas computadoras.
Ventajas del lenguaje máquina: posibilidad de cargar (transferir un
programa a la memoria) sin necesidad de traducción posterior, lo que
supone una velocidad de ejecución superior a cualquier otro lenguaje de
programación.
Desventajas del lenguaje máquina: dificultad y lentitud en la codificación.
Poca fiabilidad. Gran dificultad para verificar y poner a punto los programas.
Los programas solo son ejecutables en el mismo procesador (CPU). En la
actualidad, las desventajas superan a las ventajas, lo que hace
prácticamente no recomendables a los lenguajes máquina.
LENGUAJES DE BAJO NIVEL (ensamblador):
Son más fáciles de utilizar que los lenguajes máquina, pero al igual que
ellos, dependen de la máquina en particular. El lenguaje de bajo nivel por
excelencia es el ensamblador. El lenguaje ensamblador es el primer intento
de sustituir el lenguaje maquina por otro más similar a los utilizados por las
personas. Este intenta desflexibilizar la representación de los diferentes
campos. Esa flexibilidad se consigue no escribiendo los campos en binario
y aproximando la escritura al lenguaje. A principios de la década de los 50 y
con el fin de facilitar la labor de los programadores, se desarrollaron
códigos mnemotécnicos para las operaciones y direcciones simbólicas. Los
códigos mnemotécnicas son los símbolos alfabéticos del lenguaje maquina.
La computadora sigue utilizando el lenguaje maquina para procesar los
datos, pero los programas ensambladores traducen antes los símbolos de
código de operación especificados a sus equivalentes en el lenguaje

306
maquina. En la actualidad los programadores no asignan números de
dirección reales a los datos simbólicos, simplemente especifican donde
quieren que se coloque la primera localidad del programa y el programa
ensamblador se encarga de lo demás, asigna localidades tanto para las
instrucciones como los datos. Estos programas de ensamble o
ensambladores también permiten a la computadora convertir las
instrucciones en lenguaje ensamblador del programador en su propio
código maquina. Un programa de instrucciones escrito en lenguaje
ensamblador por un programador se llama programa fuente. Después de
que el ensamblador convierte el programa fuente en código maquina a este
se le denomina programa objeto. Para los programadores es más fácil
escribir instrucciones en un lenguaje ensamblador que en código de
lenguaje maquina pero es posible que se requieran dos corridas de
computadora antes de que se puedan utilizar las instrucciones del
programa fuente para producir las salidas deseadas.
El lenguaje de bajo nivel es el lenguaje de programación que el ordenador
puede entender a la hora de ejecutar programas, lo que aumenta su
velocidad de ejecución, pues no necesita un intérprete que traduzca cada
línea de instrucciones.
Visto a muy bajo nivel, los microprocesadores procesan exclusivamente
señales electrónicas binarias. Dar una instrucción a un microprocesador
supone en realidad enviar series de unos y ceros espaciadas en el tiempo
de una forma determinada. Esta secuencia de señales se denomina código
máquina. El código representa normalmente datos y números e
instrucciones para manipularlos. Un modo más fácil de comprender el
código máquina es dando a cada instrucción un mnemónico, como por
ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el
ensamblador, un lenguaje de muy bajo nivel que es específico de cada
microprocesador.
Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero
que son, a menudo, difíciles de aprender. Más importante es el hecho de
que los programas escritos en un bajo nivel sean altamente específicos de
cada procesador. Si se lleva el programa a otra maquina se debe reescribir
el programa desde el principio.
Ventajas del lenguaje ensamblador frente al lenguaje máquina: mayor
facilidad de codificación y, en general, su velocidad de calculo, ahorran
tiempo y requieren menos atención a detalles. Se incurren en menos
errores y los que se cometen son más fáciles de localizar. Tanto el lenguaje
maquina como el ensamblador gozan de la ventaja de mínima ocupación de
memoria y mínimo tiempo de ejecución en comparación con el resultado de
la compilación del programa equivalente escrito en otros lenguajes. Los
programas en lenguaje ensamblador son más fáciles de modificar que los
programas en lenguaje máquina.

307
Desventajas del lenguaje ensamblador: dependencia total de la maquina lo que
impide la transportabilidad de los programas (posibilidad de ejecutar un programa
en diferentes máquinas). El lenguaje ensamblador del PC es distinto del lenguaje
ensamblador del Apple Machintosh. La formación de los programadores es más
compleja que la correspondiente a los programadores de alto nivel, ya que exige
no solo las técnicas de programación, sino también el conocimiento del interior de
la maquina El programador ha de conocer perfectamente el hardware del equipo,
ya que maneja directamente las posiciones de memoria, registros del procesador y
demás elementos físicos. Todas las instrucciones son elementales, es decir, en el
programa se deben describir con el máximo detalle todas las operaciones que se
han de efectuar en la maquina para la realización de cualquier proceso.

Los lenguajes ensamblador tienen sus aplicaciones muy reducidas, se centran


básicamente en aplicaciones de tiempo real, control de procesos y de dispositivos
electrónicos.

LENGUAJES DE ALTO NIVEL:

Estos lenguajes son los mas utilizado por los programadores. Están diseñados
para que las personas escriban y entiendan los programas de un modo mucho
mas fácil que los lenguajes máquina y ensamblador. Un programa escrito en
lenguaje de alto nivel es independiente de la máquina (las instrucciones no
dependen del diseño del hardware o de una computadora en particular), por lo que
estos programas son portables o transportables. Los programas escritos en
lenguaje de alto nivel pueden ser ejecutados con poca o ninguna modificación en
diferentes tipos de computadoras. Son lenguajes de programación en los que las
instrucciones enviadas para que el ordenador ejecute ciertas órdenes son
similares al lenguaje humano. Dado que el ordenador no es capaz de reconocer
estas ordenes, es necesario el uso de un intérprete que traduzca el lenguaje de
alto nivel a un lenguaje de bajo nivel que el sistema pueda entender.

Por lo general se piensa que los ordenadores son máquinas que realizan tareas
de cálculos o procesamiento de texto. La descripción anterior es sólo una forma
muy esquemática de ver una computadora. Hay un alto nivel de abstracción entre
lo que se pide a la computadora y lo que realmente comprende. Existe también
una relación compleja entre los lenguajes de alto nivel y el código máquina.

Los lenguajes de alto nivel son normalmente fáciles de aprender porque están
formados por elementos de lenguajes naturales, como el inglés. En BASIC, el
lenguaje de alto nivel más conocido, los comandos como “IF CONTADOR=10
THEN STOP” pueden utilizarse para pedir a la computadora que pare si
CONTADOR es igual a diez. Por desgracia para muchas personas esta forma de
trabajar es un poco frustrante, dado que a pesar de que las computadoras parecen
comprender un lenguaje natural, lo hacen en realidad de una forma rígida y
sistemática.

308
Los lenguajes de alto nivel, también denominados lenguajes evolucionados,
surgen con posterioridad a los anteriores (lenguaje máquina, lenguajes de bajo
nivel o ensamblador) con los siguientes objetivos, entre otros:

Lograr independencia de la maquina, pudiendo utilizar un mismo programa en


diferentes equipos con la única condición de disponer de un programa traductor o
compilador, que es suministrado por el fabricante, para obtener el programa
ejecutable en lenguaje binario de la maquina que se trate. Además, no se necesita
conocer el hardware especifico de dicha maquina. Aproximarse al lenguaje
natural, para que el programa se pueda escribir y leer de una forma más sencilla,
eliminando muchas de las posibilidades de cometer errores que se daban en el
lenguaje maquina, ya que se utilizan palabras (en ingles) en lugar de cadenas de
símbolos sin ningún significado aparente.

Incluir rutinas de uso frecuente, como las de entrada / salida, funciones


matemáticas, manejo de tablas, etc., que figuran en una especie de librería del
lenguaje, de manera que se puedan utilizar siempre que se quiera sin necesidad
de programarlas cada vez.

Ventajas de los lenguajes de alto nivel: el tiempo de formación de los


programadores es relativamente corto comparado con otros lenguajes. La
escritura de programas se basa en reglas sintácticas similares a los lenguajes
humanos, nombres de las instrucciones tales como READ, WRITE, PRINT, OPEN,
etc. Las modificaciones y puestas a punto de los programas son más fáciles.
Reducción del costo de los programas. Transportabilidad. Permiten tener una
mejor documentación. Son más fáciles de mantener.

Desventajas de los lenguajes de alto nivel: incremento del tiempo de puesta a


punto al necesitarse diferentes traducciones del programa fuente para conseguir el
programa definitivo. No se aprovechan los recursos internos de la maquina que se
explotan mucho mejor en lenguajes máquina y ensambladores. Aumento de la
ocupación de memoria. El tiempo de ejecución de los programas es mucho mayor.

Se puede decir que el principal problema que presentan los lenguajes de alto nivel
es la gran cantidad de ellos que existen actualmente en uso, además de las
diferentes versiones o dialectos que se han desarrollado de algunos de ellos. Es
difícil establecer una clasificación general de los mismos, ya que en cualquiera
que se realice habrá lenguajes que pertenezcan a mas de uno de los grupos
establecidos. Una clasificación muy extendida, atendiendo a la forma de trabajar
de los programas y a la filosofía con que fueron concebidos, es la siguiente:

• Lenguajes imperativos. Utilizan instrucciones como unidad de trabajo de los


programas (Cobol, Pascal, C, Ada).
• Lenguajes declarativos. Los programas se construyen mediante
descripciones de funciones o expresiones lógicas (Lisp, Prolog).

309
• Lenguajes orientados a objetos. El diseño de los programas se basa mas
en los datos y su estructura. La unidad de proceso es el objeto y en el se
incluyen los datos (variables) y las operaciones que actúan sobre ellos
(Smalltalk, C++).

• Lenguajes orientados al problema. Diseñados para problemas específicos,


principalmente de gestión, suelen ser generadores de aplicaciones.

• Lenguajes naturales. Están desarrollándose nuevos lenguajes con el


principal objetivo de aproximar el diseño y construcción de programas al
lenguaje de las personas.

Otra clasificación que se puede hacer es la de atendiendo al desarrollo de los


lenguajes desde la aparición de las computadoras, que sigue un cierto paralelismo
con las generaciones establecidas en la evolución de las mismas:

• Primera generación. Lenguajes maquina y ensambladores.

• Segunda generación. Primeros lenguajes de alto nivel imperativo


(FROTRAN, COBOL).

• Tercera generación. Lenguajes de alto nivel imperativo. Son los mas


utilizados y siguen vigentes en la actualidad (ALGOL 8, PL/I, PASCAL,
MODULA).

• Cuarta generación. Orientados básicamente a las aplicaciones de gestión y


al manejo de bases de datos (NATURAL, SQL).

• Quinta generación. Orientados a la inteligencia artificial y al procesamiento


de los lenguajes naturales (LISP, PROLOG).

Para la mejor compresión se harán unas definiciones:

Programa: es un conjunto de instrucciones escritas en un lenguaje de


programación que indican a la computadora la secuencia de pasos, para resolver
un problema.

Código fuente: esta creado en algún lenguaje de alto nivel, por lo que es entendido
100% por el ser humano. Este debe estar complementado por su documentación o
manuales donde se indica el desarrollo lógico del mismo.

Código objeto: es creado por los compiladores y nos sirve como enlace entre el
programa fuente y el ejecutable.

310
ALGUNOS LEGUAJES DE PROGRAMACIÓN DE ALTO NIVEL

A continuación se presentan varios de los mas conocidos y utilizados, lenguajes


de alto nivel.

FORTRAN

Abreviatura de FORmula TRANslator (traductor de formulas), fue definido


alrededor del año 1955 en Estados Unidos por la compañía IBM. Es él más
antiguo de los lenguajes de alto nivel. Antes de él, todos los programas se
escribían en lenguaje ensamblador o en lenguaje máquina. Es un lenguaje
especializado en aplicaciones técnicas y científicas. Se caracteriza por su potencia
en los cálculos matemáticos, pero esta limitado en las aplicaciones de gestión,
manejo de archivos, tratamiento de cadenas de caracteres y edición de informes.
Es un lenguaje notorio, por la facilidad con que permite expresar una ecuación.
Muchas de sus características fueron incorporadas mas tarde en el primer
lenguaje BASIC. Una de sus ventajas es que es un lenguaje compacto y es
también ampliamente utilizado para aplicaciones en los negocios que no requieren
manejo de grandes archivos de datos. Hasta 1961 se mantuvo como monopolio de
IBM, pero posteriormente se fue implementando en ordenadores de otros
fabricantes. A lo largo de su existencia han aparecido diferentes versiones, entre
las que destaca la adoptada en 1966 por el ANSI (American National Standards
Institute), en la que se definieron nuevas reglas del lenguaje y se logro la
independencia del mismo con respecto a la máquina; es decir, comenzo la
portabilidad del lenguaje. Esta versión se denominó FORTRAN IV o FORTRAN
66, y el idioma se hizo tan popular en los años 60, que FORTRAN 66 se volvió el
primer idioma en ser regularizado oficialmente en 1972. En 1977 apareció una
nueva versión mas evolucionada que se llamo FORTRAN V o FORTRAN 77. Está
reflejada en el documento ANS X3.9-1978: Programming Language FORTRAN y
define dos niveles del lenguaje denominados FORTRAN 77 completo y FORTRAN
77 básico, siendo el segundo un subconjunto del primero. Incluye, además,
instrucciones para el manejo de cadenas de caracteres y de archivos, así como
otras para la utilización de técnicas de programación estructurada. Estas
características hacer que el lenguaje también sea valido para determinadas
aplicaciones de gestión. A mediados de los años setenta se proporcionaron
virtualmente cada computadora, mini o mainframe, con un sistema FORTRAN 66
normal. Era por consiguiente posible escribir programas en FORTRAN en
cualquier sistema y estar bastante seguro que estos pudieran moverse para
trabajar en cualquier otro sistema bastante fácil. Esto, y el hecho que pudieran
procesarse programas de FORTRAN muy eficazmente. La ultima normalización
del lenguaje, FRONTRAN 90, se encuentra en el documento ANS X3.198-1991 en
la que se incluyen características como la recursividad, tratamiento paralelo de
tablas y uso de memoria dinámica. Permite expresar los programas de maneras
311
que se satisfacen mas a un ambiente de la informática moderna y han quedado
obsoletos muchos de los mecanismos que eran apropiados en FROTRAN 77. En
FROTRAN 90 algunos rasgos de FROTRAN 77 han sido reemplazados por rasgos
mejores, mas seguros y más eficaces, muchos de estos fueron quitados del
idioma FORTRAN 95. El FRONTRAN tiene la ventaja de ser un lenguaje
compacto que sirve muy bien para satisfacer las necesidades de los científicos y
los estadísticos de los negocios.

COBOL

Es el lenguaje mas utilizado en las aplicaciones de gestión, creado en 1960 por un


comité denominado CODASYL (COnference on DAta SYstems Languages),
patrocinado por el Departamento de Defensa de Estados Unidos, a fin de disponer
de un lenguaje universal para aplicaciones comerciales, como expresa su nombre
(COmmnon Business Oriented Language).

A lo largo de su existencia ha sufrido diversas actualizaciones. Su primer estándar


fue aprobado por el ANSI en 1968. Posteriormente, en 1974, se adopta la norma
ANS X3.23-1974, que ha perdurado hasta su ultima versión, COBOL ANS-85, que
facilita el diseño estructurado de los programas.

Sus características más destacables son las siguientes: se asemeja al lenguaje


natural (inglés), es autodocumentado y ofrece grandes facilidades en el manejo de
archivos, así como en la edición de informes escritos. Puede emplear términos
comúnmente utilizados en los negocios.

Entre sus inconvenientes están sus rígidas reglas de formatos de escritura, la


necesidad de escribir todos los elementos al máximo detalle, la extensión excesiva
en sus sentencias, e incluso duplicación en algunos casos, y la inexistencia de
funciones matemáticas.

No obstante, se puede afirmar que en la actualidad continua siendo el lenguaje


mas utilizado en las aplicaciones de gestión.

PL/I

Fue creado a comienzos de los años sesenta por IBM para ser usado en sus
equipos del sistema 360. Inspirándose en los lenguajes ALGOL, COBOL y
FORTRAN se desarrollo el PL/I (Programming Language/I) tomando las mejores
características de los anteriores y añadiendo algunas nuevas, con el objetivo de
obtener un lenguaje lo mas general posible en cuanto a su implementación, útil
para aplicaciones técnico-científicas, comerciales, de proceso de textos, de bases

312
de datos y de programación de sistemas. Se trata de un lenguaje de programación
complejo. Compilado y estructurado, es capaz de gestionar errores y de procesar
multitareas, y se emplea en entornos académicos y de investigación.

Entre sus novedades esta su gran libertad en el formato de escritura de los


programas: soporta la programación estructurada y diseño modular. Es un
lenguaje flexible y sofisticado. No obstante, no ha superado a sus progenitores en
sus aplicaciones especificas, debido en parte a su amplitud y, por ello, al tamaño
de su compilador que hasta ahora solo se podía instalar en grandes equipos. El
elemento básico de este programa es el enunciado que termina en punto y coma.
Los enunciados se combinan en procedimientos. Un procedimiento puede
representar por completo a un programa pequeño o un “bloque de construcción” o
modulo de un programa más complejo.

BASIC

El lenguaje BASIC fue diseñado por los profesores John G. Kemeny y Thomas E.
Kurtz del Dartmouth College (Estados Unidos) en 1965, con el objetivo principal de
proporcionar a los principiantes un lenguaje fácil de aprender, como se indica en
su nombre Beginner's All-purpose Symbolic Instruction Code (Código de
instrucciones simbólico de propósito general para principiantes). Es un lenguaje
interactivo muy popular que tiene una aceptación debido a la facilidad de su uso,
es un idioma simple para aprender y fácil de traducir. Que sé interactivo, permite la
comunicación directa entre el usuario y el sistema de computo durante la
preparación y uso de los programas.

Entre sus principales novedades están las de ser un lenguaje interpretado y de


uso conversacional, útil para aplicaciones técnicas y de gestión. Esto, unido a la
popularización de las microcomputadoras y computadoras personales, ha hecho
que su utilización sea haya extendido enormemente, a la vez que ha propiciado el
surgimiento de una gran diversidad de diversiones que extienden y se adaptan a
necesidades particulares el lenguaje original. Existen multitud de interpretes y
compiladores del lenguaje.

PASCAL

Fue creado por el matemático suizo Nicklaus Wirth en 1970, basándose en el


lenguaje ALGOL, en cuyo diseño había participado en los años sesenta. Su
nombre proviene del filosofo y matemático francés del siglo XVII, Blaise Pascal,
que invento la primera maquina tipo mecánico para sumar. Fue el primer gran
lenguaje creado después de haber sido ampliamente diseminados los conceptos
asociados con la programación estructurada.

Aunque en principio la idea del diseñador era proporcionar un lenguaje adecuado


para la enseñanza de los conceptos y técnicas de programación, con el tiempo ha
llegado a ser un lenguaje ampliamente utilizado en todo tipo de aplicaciones, que
posee grandes facilidades para la programación de sistemas y diseño grafico.
313
Aporta los conceptos de tipo de datos, programación estructurada y diseño
descendente, entre otros, además de haberse convertido en predecesor de otros
lenguajes más modernos, como MODULA-2 y ADA.

Este lenguaje fue creado en 1972 por Dennis Ritchie a partir del trabajo elaborado
por su colega de los laboratorios Bell Telephone, Ken Thompson. Estos habían
diseñado con anterioridad el sistema operativo UNIX, y su intención al desarrollar
el lenguaje C fue la de conseguir un lenguaje idóneo para la programación de
sistemas que fuese independiente de la maquina, con el cual escribir su sistema
UNIX.

Aunque, como acabo de decir, fue diseñado inicialmente para la programación de


sistemas, posteriormente su uso se ha extendido a ablaciones técnico-científicas,
de bases de datos, de proceso de textos, etc.

En 1980 Bjarne Stroustrup, inspirado en el lenguaje Simula67 adicionó las


características de la programación orientada a objetos incluyendo la ventaja de
una biblioteca de funciones orientadas a objetos) y lo denomino C con clases.
Para 1983 dicha denominación cambio a la de C++. Con este nuevo enfoque
surge la nueva metodología que aumenta las posibilidades de la programación
bajo nuevos conceptos.

La utilización optima de este lenguaje se consigue dentro de su entorno natural,


que ese el sistema operativo UNIX, y entre sus características destaca el uso de
programación estructurada para resolver tareas de bajo nivel, así como la amplia
librería de rutinas de que dispone. El lenguaje C reúne características de
programación intermedia entre los lenguajes ensambladores y los lenguajes de
alto nivel; con gran poderío basado en sus operaciones a nivel de bits (propias de
ensambladores) y la mayoría de los elementos de la programación estructurada de
los lenguajes de alto nivel, por lo que resulta ser el lenguaje preferido para el
desarrollo de software de sistemas y aplicaciones profesionales de la
programación de computadoras.

MODULA-2

El lenguaje MODULA fue diseñado en 1977 bajo la dirección de Nicklaus Wirth,


creador también el lenguaje PASCAL, con la intención de incluir las necesidades
de la programación de sistemas y dar respuestas a las criticas recibidas respecto
de las carencias del lenguaje PASCAL. En 1979 se realiza una versión que pasa a
denominarse MODULA-2 y que perdura en la actualidad.

Además de incluir las características de su predecesor, este nuevo lenguaje


incorpora las principales carencias de aquel, como la posibilidad de compilación
separada, creación de librerías, programación concurrente, mejora el manejo de
cadenas de caracteres, los procedimientos de entrada/salida y la gestión de la
314
memoria, etc. además, posee grandes facilidades para la programación de
sistemas.

También, debido a sus cualidades didácticas, ha sido ampliamente aceptado por


la comunidad universitaria como herramienta idónea para la enseñanza de la
programación.

ADA

Es él ultimo intento de obtener un único lenguaje para todo tipo de aplicaciones, e


incluso los últimos avances de técnicas de programación. Su diseño fue
encargado por el Departamento de Defensa de Estados Unidos, para su uso en
servicios militares, a la empresa Honeywell-Bull después de una selección
rigurosa entre varias propuestas realizadas sobre una serie de requerimientos del
lenguaje y de haber evaluado negativamente veintitrés lenguajes existentes. De
estos, se seleccionaron como base para la creación del nuevo lenguaje el
PASCAL, el ALGOL y el PL/I.

La estandarización del lenguaje se publico en 1983 con el nombre de ADA, en


honor de la considerada primera programadora de la historia, Augusta Ada Byron,
condesa de Lovelace.

Entre las características del lenguaje se encuentran la compilación separada, los


tipos abstractos de datos, programación concurrente, programación estructurada,
libertad de formatos de escritura, etc. Como principal inconveniente presenta su
gran extensión. Los escritores lo llamaron inflexible e ineficiente, en tanto que sus
favorecedores lo consideraban un gran avance en la tecnología del software.

LISP

En informática, acrónimo de List Processing. Un lenguaje de programación para


ordenadores o computadoras orientado a la generación de listas, desarrollado en
1959-1960 por John McCarthy y usado principalmente para manipular listas de
datos o de símbolos. El lenguaje LISP constituyó un cambio radical con respecto a
los lenguajes procedurales (FORTRAN, ALGOL) que se desarrollaban por
entonces. El LISP es un lenguaje interpretado, en el que cada expresión es una
lista de llamadas a funciones. Este lenguaje se sigue utilizando con frecuencia en
investigación y en círculos académicos, y fue considerado durante mucho tiempo
el lenguaje modelo para la investigación de la inteligencia artificial (IA), aunque el
Prolog ha ganado terreno durante los últimos años.

LOGO

En informática, lenguaje de programación de ordenadores o computadoras,


desarrollado en 1968 por Seymour Papert en el MIT, que se usa frecuentemente
en la enseñanza de lenguaje de programación a niños. Una característica

315
importante de Logo son los gráficos de tortuga, que permiten al programador
hacer dibujos simples dirigiendo los movimientos de la tortuga en la pantalla hacia
adelante, hacia la derecha o la izquierda. Una vez que dominan el entorno sencillo
del dibujo, el programador (normalmente un niño o una niña) empieza a descubrir
las características más sofisticadas del lenguaje, que están basadas
fundamentalmente en el lenguaje de programación LISP. Logo está considerado
como un lenguaje para la formación, a pesar de que algunas empresas intentaron
que tuviera una mayor aceptación en los círculos profesionales de programación.

RPG

Report Program Operator fue introducido en 1960 como un lenguaje para duplicar
rápidamente el enfoque de proceso utilizado con un equipo de tarjeta perforada.
Este lenguaje fue desarrollado por IBM en 1964. Su uso esta aun limitado sobre
todo para las aplicaciones de negocios que son procesadas en pequeñas
computadoras, generar informes comerciales o de negocios. Como su nombre lo
sugiere, el RPG esta diseñado para generar los reportes de salida que resultan del
proceso de aplicaciones de negocios.

A pesar de las aplicaciones de actualización de archivos, el RPG es un lenguaje


de propósito limitado porque los programas objeto generados por el compilador de
RPG siguen sin desviación, un ciclo de procesamiento básico.

Una ventaja del RPG es la relativa facilidad para aprenderlo y usarlo. Dado que la
lógica de la programación es fija, existen menos reglas formales que en otros
lenguajes.

ALGOL

El ALGOL (ALGOritmic Language) fue presentado en 1958. Fue el primer lenguaje


de programación de proceso estructurado de alto nivel. Fue orientado al uso de
quienes participan en proyectos científicos y matemáticos. Un grupo internacional
de matemáticos europeos y americanos, pretendían crear un lenguaje común
normalizado que les permitiera el intercambio de algoritmos, aunque esta en
desuso, fue el primero que incorporo conceptos claves para la programación
actual.

APL

Sus siglas significan (A Programming Language). Un Lenguaje de Programación.


Este programa fue desarrollado por Kenneth Inverson en el año 1961 para
resolver problemas matemáticos. Este lenguaje se caracteriza por su brevedad y

316
por su capacidad de generación de matrices y se utiliza en el desarrollo de
modelos matemáticos.

PILOT

Programmend Inquiry Language Or Teaching (Consulta, lenguaje o aprendizaje de


investigación programada) creado en 1969.

Este lenguaje de programación es utilizado fundamentalmente para crear


aplicaciones destinadas a instrucciones asistidas por computadoras. Se
caracteriza por utilizar un mínimo de sintaxis.

SMALLTALK

SMALLTALK, Lenguaje de Programación orientado a objetos integrados con un


entorno de desarrollo multiventana. SMALLTALK no es solo un hermoso lenguaje
de computación orientado a objetos. El entorno de desarrollo merece similar
valoración y ha sido copiado muchas veces, desde el Sistema Operativo de Apple
MS Windows y Borland Pascal (en una memoria extensión). Muchos conceptos de
SMALLTALK como los browsers y las técnicas de browsing han encontrado hoy su
rumbo en muchas herramientas de desarrollo de la generación X, desarrollado por
SMALLTALK poseen un factor “divertido-de-usar”. Los cambios se graban
instantáneamente y los mismos pueden probarse rápidamente.

SMALLTALK fue desarrollado dentro del Grupo de Investigación del Aprendizaje


en el Centro de Investigación de Xerox en palo Alto a comienzos de los 70. Las
principales ideas de SMALLTALK se le atribuyen generalmente a Alan kay con
raíces en Simula, LISP y SketchPad. Dan Ingalls escribió el código de las primeras
ventanas solapables, los pop-up menús y la clase BitBlt. Adele Goldberg y Dave
Robson escribieron los manuales de referencia para SMALLTALK y fueron
miembros clave del equipo de desarrollo. Un programa de licenciamiento de Xerox
y Xerox Special Information Systems. Sin embargo la distribución generalizada a
la comunidad de desarrollo no sucedió hasta la fundación de una nueva compañía
llamada ParcPlace Systems Inc. , Dirigida por Adele Goldberg.

Un segundo SMALLTALK (SMALLTALK 4) fue desarrollado por Digitalk en los


Angeles California. Este SMALLTALK estaba dirigido a cubrir la necesidad de un
producto pequeño, de alta velocidad, basado en PC.

Object Technology International Inc. (OTI) desarrolló un conjunto de herramientas


para proveer el control de inversiones y el manejo de configuraciones en grandes
proyectos. IBM desarrolló la familia de productos VisualAge para SMALLTALK en
colaboración con Object Technology (antiguamente ParcPlase-Digitalk) e IBM
permanecen como los distribuidores dominantes de entornos de desarrollos en
SMALLTALK. Algunos nuevos SMALLTALK se hallan en etapa de desarrollo.

317
FORTH

Lenguaje de cuarta generación, creado en 1970, es un lenguaje estructurado e


interpretado de fácil ampliación y ofrece una alta funcionalidad en un espacio
reducido. Es un lenguaje de alto nivel del cual derivan en la actualidad casi todos
los lenguajes empleados en los robots.

LENGUAJE C++

Se pronuncia “ce plus plus”. Fue desarrollada por Bjarme Stroustrup en los Bell
Laboratories a principios de la década de los 80. C++ introduce la programación
orientada al objeto en C. Es un lenguaje extremadamente poderoso y eficiente. C+
+ es un super conjunto de C, para aprender C++ significa aprender todo de C,
luego aprender programación orientada al objeto y el uso de éstas con C++.

DELPHI

Es un entorno de programación visual orientado a objetos para desarrollo rápido


de aplicaciones (RAD) de propósito general, incluyendo aplicaciones
cliente/servidor.

Delphi es la versión de Delphi para 32 bits (delphi 3), es decir son casi los mismos,
con la única diferencia que Delphi 3 es mucho más mejorado, por ejemplo
contiene un TeeChart, que sirve para los gráficos de negocio.

Delphi tiene las siguiente características:

• Rendimiento - con el mejor y más rápido compilador del mundo.


• Empresa e Internet - soluciones cliente y servicio

• Desarrollo de aplicaciones rápidas (RAD).

• Reusabilidad de componentes, un verdadero entorno orientado a objetos.

• Manejo de Base de Datos escalables.

• Arquitectura multinivel abierta y dimensionable.

• Diseminación de información de base de datos en la Web a una gran


velocidad.

JAVA

Es un lenguaje de programación para crear programas seguros, portátiles,


orientados a objetos interactivos, para mejorar la entrega de información a través
de Internet, etc.

318
JAVASCRIPT

Este lenguaje de programación originalmente fue llamado LIVESCRIPT, pero


luego fue renombrado con el nombre de JAVASCRIPT, con la idea de capitalizar
la fama de Java, lenguaje desarrollado por Sun Microsystems. Éste es un
complemento ideal del lenguaje HTML, al permitir a la página realizar algunas
tareas por si misma, sin necesidad de estar sobrecargando el servidor del cual
depende; JAVASCRIPT es un lenguaje diseñado especialmente para ejecutarlo en
internet.

. EVOLUCION DE LOS LENGUAJES DE PROGRAMACIÓN

Primera Generación

En esta generación había un gran desconocimiento de las capacidades de las


computadoras, puesto que se realizó un estudio en esta época que determinó que
con veinte computadoras se saturaría el mercado de los Estados Unidos en el
campo de procesamiento de datos.

Esta generación abarco la década de los cincuenta. Y se conoce como la primera


generación. Estas máquinas tenían las siguientes características:

• Estas máquinas estaban construidas por medio de tubos de vacío.

• Eran programadas en lenguaje de máquina. 1

En esta generación las máquinas son grandes y costosas (de un costo


aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (NIVersAl
Computer), fue la primera computadora comercial, que disponía de mil palabras de
memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo
de 1950 en los Estados Unidos.

Segunda Generación

Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía


su tamaño y crecía su capacidad de procesamiento. También en esta época se
empezó a definir la forma de comunicarse con las computadoras, que recibía el
nombre de programación de sistemas.

Las características de la segunda generación son las siguientes:

• Están construidas con circuitos de transistores.

• Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

319
En esta generación las computadoras se reducen de tamaño y son de menor
costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas
para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de
Manchester.

Tercera generación

Con los progresos de la electrónica y los avances de comunicación con las


computadoras en la década de los 1960, surge la tercera generación de las
computadoras. Se inaugura con la IBM 360 en abril de 1964.3

Las características de esta generación fueron las siguientes:

• Su fabricación electrónica esta basada en circuitos integrados.

• Su manejo es por medio de los lenguajes de control de los sistemas


operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90,
195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve
canales, paquetes de discos magnéticos y otras características que ahora son
estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido
por aplicaciones).

Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la


microelectrónica, son circuitos integrados de alta densidad y con una velocidad
impresionante. Las microcomputadoras con base en estos circuitos son
extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado
industrial. Aquí nacen las computadoras personales que han adquirido
proporciones enormes y que han influido en la sociedad en general sobre la
llamada "revolución informática".

Quinta Generación

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se


ha dado a la tarea de poner también a esa altura el desarrollo del software y los
sistemas con que se manejan las computadoras. Surge la competencia
internacional por el dominio del mercado de la computación, en la que se perfilan
dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la

320
capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no
a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de


computadoras", con los objetivos explícitos de producir máquinas con
innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está
en actividad un programa en desarrollo que persigue objetivos semejantes, que
pueden resumirse de la siguiente manera:

• Procesamiento en paralelo mediante arquitecturas y diseños especiales y


circuitos de gran velocidad.

• Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro


previsible de la computación es muy interesante, y se puede esperar que
esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la
sociedad en conjunto.

Luz Neón
El neón (del griego neos, nuevo) fue descubierto por William Ramsay y Morris
Travers en 1898 por la destilación fraccionada del aire líquido.
El neón es un elemento químico de numero atómico 10 y símbolo Ne. Es un gas
noble, incoloro, prácticamente inerte, presente en trazas en el aire, pero muy
abundante en el universo, que proporciona un tono rojizo característico a la luz de
las lámparas fluorescentes en las que se emplea.
Sus principales características son:
Es el segundo gas noble más ligero, y presenta un poder de refrigeración, por
unidad de volumen, 40 veces mayor que el del helio líquido y tres veces mayor

321
que el del hidrógeno líquido. En la mayoría de las aplicaciones el uso de neón
líquido es más económico que el del helio.

 Peso atómico: 20,183 uma


 Punto de ebullición: 27.1 K (-246 °C)
 Punto de fusión: 24.6 K (-248,6 °C)
 Densidad: 1,20 g/ml (1,204 g/cm3 a -246 °C)

El neón se encuentra usualmente en forma de gas monoatómico. La atmósfera


terrestre contiene 15,8 ppm y se obtiene por subenfriamiento del aire
y destilación del líquido criogénico resultante. El neón es el quinto elemento más
abundante en el universo por masa, luego del hidrógeno, helio, oxígeno y carbono.
Se encuentra en pequeñas cantidades en la atmósfera y en la corteza terrestre se
halla en una proporción de 0,005 ppm.
Se sabe que el neón se sintetiza en estrellas masivas durante las últimas etapas
de éstas como gigantes o supergigantes rojas (durante la fase de fusión de
carbono y oxígeno en neón y magnesio), o a veces como variables azules
luminosas o estrellas Wolf-Rayet.

LUZ NEON Y LAMPARAS DE NEON.


Son lámparas de descarga de gas que contiene gas neón a baja presión, se aplica
a otros tubos rellenos de otros gases nobles para producir colores distintos.
¿Cómo se hace para que tenga luminosidad neón una lámpara? Se hace pasar
por el tubo una pequeña corriente eléctrica, que puede ser alterna o continua,
provocando que éste emita un brillo rojo anaranjado. La fórmula exacta del gas es
típicamente la mezcla Penning (99,5% neón y 0,5% argón), que tiene un voltaje de
ruptura menor que el neón puro.
Las lámparas de neón son dispositivos de resistencia negativa, en el que
incrementar el flujo de corriente por el dispositivo incrementa el número de iones,
decrementando así la resistencia de la lámpara y permitiendo que fluyan
corrientes mayores. Debido a esto, la circuitería eléctrica externa a la lámpara de
neón debe proporcionar un método de limitar la corriente del circuito o éste se
incrementará hasta que la lámpara se autodestruya. Para lámparas del tamaño
de intermitentes, se usa convencionalmente un resistor para limitar la corriente.
Para las de tamaño rótulo, el transformador de alto voltaje suele limitar la corriente
disponible, a menudo contando con una gran cantidad de inductancia de fuga en
la bobina secundaria.

322
Cuando la corriente que circula por la lámpara es menor que corriente del circuito
de descarga de corriente más alto, la descarga luminosa puede volverse inestable
y no cubrir toda la superficie de los electrodos. Esto puede indicar envejecimiento
de la lámpara, y se aprovecha para las lámparas de neón decorativas que simulan
una llama. Sin embargo, mientras una corriente demasiado baja provoca
parpadeo, una corriente demasiado alta incrementa el desgaste de los electrodos
estimulando la pulverización catódica, que recubre de metal la superficie interna
de la lámpara y provoca que se oscurezca.
El efecto de parpadeo está provocado por las diferencias en el potencial de
ionización del gas, que depende del espacio entre los electrodos, la temperatura y
la presión del gas. El potencial necesario para disparar la descarga es mayor que
el necesario para sostenerla. Cuando no hay corriente suficiente para ionizar todo
el volumen de gas en torno a los electrodos, sólo ocurre una ionización parcial y el
brillo aparece sólo en torno a parte de la superficie de los electrodos. Las
corrientes convectivas hacen que las zonas brillantes asciendan, de forma no muy
diferente a las descarga en una escalera de Jacob. Un efecto
de fotoionización puede observarse aquí, a media que la zona del electrodo
cubierta con la descarga puede incrementarse por la luz brillando en la lámpara.
APLICACIONES DE LAS LAMPARAS DE NEON.
La mayoría de las lámpara de neón pequeñas, como las comunes NE-2, tienen
una tensión disruptiva de entre 90 y 110 voltios. Esta característica permite su uso
como reguladores de voltaje o dispositivos de protección de sobretensión simples.
En los años 1960 General Electric, Signalite y otras marcas hicieron pequeñas
lámparas de neón extra-estables para usos electrónicos. Idearon incluso circuitos
lógicos digitales, memorias binarias y divisores de frecuencia usando neones.
Estos circuitos aparecieron en órganos electrónicos de los años 1950, así como en
alguna instrumentación.

323
Las lámparas de neón pequeñas se usan como indicadores en equipos
electrónicos. Las mayores se usan en rótulos de neón, ya que debido a su bajo
consumo eléctrico son buenas luces nocturnas. Debido a su relativamente rápido
tiempo de respuesta, en los primeros desarrollos de la televisión las lámparas de
neón fueron usadas como fuente de luz en muchas pantallas de televisión
mecánica. También se usaron para muchos otros fines: dado que una lámpara de
neón puede actuar como oscilador de relajación con la adición de una resistor y
un capacitor, puede ser usada como una lámpara destellante simple
u oscilador de sonido. Las lámparas de neón con electrodos de diversas formas
llamadas tubos Nixie también se usan como displays alfanuméricos.

En las lámparas excitadas con corriente alterna, ambos electrodos producen luz,
pero en las excitadas con corriente continua sólo brilla el electrodo negativo, por lo
que puede usarse para distinguir entre fuentes de corriente alterna y continua, así
como para asegurar la polaridad de las fuentes de continua.
Las lámparas de tamaño pequeño también pueden rellenarse
con argón o xenón en lugar de neón, o mezclado con ése. Aunque la mayoría de
las características operativas permanecen iguales, las lámparas emiten una luz
azulada (incluyendo alguna ultravioleta) en lugar del característico brillo rojo

324
anaranjado del neón. La radiación ultravioleta puede también usarse para excitar
un recubrimiento de fósforo del interior de la bombilla y proporcionar así una
amplia gama de diversos colores, incluyendo el blanco. Una mezcla de neón
y kriptón puede usarse para obtener luz verde.
También se utilizan en el arte, en anuncios publicitarios, en anuncios luminosos, y
en tubos que se instalan debajo de los coches para que sean llamativos
Neón para vitrinas y paredes
En los últimos años se ha desarrollado un nuevo nicho en el que se emplea,
profusamente, el NEON.
Hay pocas cosas en el mercado que funcionen tan bien como los anuncios de
NEON.
La mercadotecnia moderna emplea el NEON para la realización de pequeños
anuncios para las llamadas vitrinas, vidrieras, ventanas (según cada país) y
también para paredes; es decir, ambos para interiores de comercios, locales o
establecimientos.

Este nicho se ha desarrollado teniendo en cuenta que, dos de cada tres


decisiones de compra, se toman en las tiendas. Por ello los comerciantes de todo
el mundo se han dado cuenta de que la publicidad en el establecimiento comercial
es la forma más efectiva de llegar al consumidor y tener un impacto en la decisión
de compra.
La publicidad directa en el establecimiento comercial es un instrumento de venta
efectiva, porque proporciona PUBLICIDAD en el mejor lugar y en el mejor
momento, donde el producto está a la venta y el comprador está listo para
comprar.

325
Para todo esto nada mejor que el NEON para lograr óptimos resultados;
inalcanzables con otros sistemas publicitarios que aspiran, sin fortuna por
supuesto, sustituir al NEON.
Así, una infinidad de marcas de aguas minerales, gaseosas, cervezas, ropa, etc.,
se promocionan con esta sencilla, económica e impactante manera moderna de
empleo del NEON; nos referimos a los pequeños anuncios colgantes, con
transformadores de reducidas dimensiones, construidos sólo con tubos de NEON
soportados sobre sencillas parrillas metálicas casi invisibles.
LASER NEON
El láser de Helio-Neón fue el primer láser de gas construido y actualmente sigue
siendo uno de los láseres más útil y frecuentemente utilizado. Esto a pesar del
constante empuje de los láseres de semiconductores, que realizan cada vez más
funciones que antes eran hechas con láseres de He-Ne. Los centros activos de
este láser son los átomos neutros de neón, pero el bombeo de estos se realiza
preferentemente a través de los átomos de helio.

CARACTERISTICAS ESPECTRALES DE LASER HELIO-NEON

326
En el diagrama de energía del sistema He-Ne se muestran las tres transiciones
láser más importantes, las cuales ocurren 3.39 μm, 1.15μm y 0.638μm. Puede
notarse que los niveles 21S y 23S del Helio prácticamente coincide con los niveles
3s y 2s del Ne. Como enseguida veremos, este hecho es fundamental para el
bombeo de los átomos de neón.
Los niveles 3s y 2s del neón poseen una vida media del orden de 10-7 segundos y
pueden realizar transiciones radiactivas a los niveles 3p y 2p. Estos últimos
niveles poseen una vida media del orden de 10-8 segundos y por tanto se puede
establecer una inversión de población entre estos y los niveles 3s y 2s.
Aunque cada uno de los niveles 3s, 2s y 1s se compone de hecho de cuatro
subniveles y cada uno de los 3p y 2p de diez subniveles, las longitudes de onda

327
de emisión predominante son para la transición 3s -> 3p , λ =3.39 μm, para
3s-> 2s , λ=0.6328 y para 2s -> 2p, λ=1.15mm.
El vaciado de los niveles inferiores de la transición láser se realiza por medio de
las transiciones espontáneas de los niveles 3p y 2p al nivel 1s. Este último nivel
es meta-estable y, por tanto, a menos que por algún mecanismo sea
constantemente vaciado al nivel base del neón 1p, el nivel 1s podrá saturarse e
interrumpir la oscilación láser (emisión láser).

LINEAS ESPECTRALES
Las líneas espectrales son el resultado de transiciones espontáneas de electrones
en los átomos del material desde el nivel de energía más alto al más bajo. El láser
Helio-Neón depende de la transición de los niveles de energía del gas neón. En
este caso hay varias posibles líneas de longitudes de onda en el espectro.
Algunas de mas fuerte intensidad están muy cerca de la línea 0.6328 μm línea
común del láser He-Ne rojo, pero esta no es la más fuerte. Hay también muchas
líneas en el infrarrojo y algunas en la región del amarillo y en el anaranjado.
Hay muchas posibles transiciones en el neón del estado excitado al estado de
más baja energía que puede resultar en una emisión láser, donde las más
importantes se mencionan en esta tabla.

FUNCIONAMIENTO DE LASER DEL HELIO-NEON

El bombeo del láser de He-Ne se realiza por medio de las colisiones que una
descarga de electrones producida dentro del gas tiene fundamentalmente con los
átomos de helio. Como resultado de estas colisiones, los átomos de helio son
excitados a los niveles superiores 21S y 23S.
La inversión de población en el neón ocurre debido a colisiones con átomos

328
excitados de helio. Como resultado de estas colisiones, los átomos de helio pasan
a su estado base y los átomos de neón pasan a los estados 3s y 2s, creando una
inversión de población entre estos estados y los estados 3p y2p. Entre estos
niveles es donde la oscilación láser (emisión láser) puede ocurrir.
La realización de una transferencia de energía entre átomos de helio y neón
ocurre debido a:
a) La proximidad de los niveles excitados de energía del helio y del neón,
b) El hecho de que los estados 21S y 23S del helio son meta-estables, lo cual
garantiza un tiempo suficientemente largo para colisionar con átomos de neón
antes de que el helio decaiga espontáneamente;
c) La más elevada presión del helio en la mezcla He-Ne, lo cual también reduce la
probabilidad de que la excitación ocurra en la dirección opuesta, es decir Ne ->
He.
El vaciado de los átomos de neón del estado meta-estable 1s a su estado base
ocurre fundamentalmente debido a colisiones con las paredes del tubo láser. Esto
causa que al aumentar el diámetro del tubo la potencia de salida no aumenta, si
no que disminuye.

329
ABSORCION Y AMPLIFICACION EN EL LASER He-Ne
Mientras la luz se mueve a través del medio activo, tienen lugar dos procesos
diferentes sobre la radiación: absorción y amplificación. En un láser de He-Ne
estándar, la amplificación producida por el medio activo es del orden del 2%.
Durante un paso a través del medio activo (desde un espejo al otro) la cantidad de
radiación dentro, aumenta en un factor de 1.02.
Por lo tanto, para conseguir amplificación de luz, todas las pérdidas, incluyendo
las colisiones de los átomos excitados con las paredes del tubo de gas, absorción
por parte de otras moléculas, etc. deben ser menores del 2%.
El láser de He-Ne es un láser de 4 niveles, por lo que el tiempo de vida del nivel
láser inferior debe ser muy corto. En el gas Ne, que es el gas activo del láser, la
transición (decaimiento) desde el nivel láser inferior no es suficientemente rápida,
pero se acelera por las colisiones con las paredes del tubo. Debido a que el
número de colisiones con las paredes del tubo aumenta a medida que el tubo de
hace más estrecho, la ganancia del láser es inversamente proporcional al radio del
tubo. Por lo tanto, el diámetro del tubo de un láser de He-Ne debe ser lo más
pequeño posible.
La baja ganancia del medio activo en un láser de He-Ne limita la potencia de
salida a potencia baja. En prototipos de laboratorio se consiguen potencias de
salida del orden de 100 [mW], pero los láseres comerciales están disponibles sólo
en un rango de salida del orden de 0.5-50 miliwatios [mW].
El acoplador de salida del láser de He-Ne es un espejo con un recubrimiento que
transmite alrededor del 1 % de la radiación de la salida. Esto significa que la
potencia dentro de la cavidad óptica es unas 100 veces mayor que la potencia
emitida.

330
ESTRUCTURA DEL LASER HELIO-NEON
El láser de Helio Neón tiene tres estructuras principales:

a) Tubo de Plasma del Láser de He-Ne:


El delgado tubo interior tiene un diámetro de alrededor de 2 [mm] y una longitud
de decenas de centímetros. El tubo interior está rodeado por un tubo exterior
grueso con un diámetro de alrededor de 2.5 [cm] y está sellado por fuera.
Los propósitos del tubo exterior son:
o Conseguir una estructura estable que proteja de los movimientos el
tubo interior y los espejos del láser.
o Actuar como gran reserva de gas que reponga el Neón gas que está
siendo absorbido por el cátodo.
El proceso láser, que produce la radiación electromagnética, está confinado dentro
del tubo interior que está lleno de la mezcla de gases.
La mezcla de gases es 85-90% de Helio gas, y 10-15 % de Neón gas, una
proporción de 1:6 a 1:10.

331
La presión del gas es 0.01 atmósferas (» 10 [torr]). En los extremos del tubo, los
electrodos están conectados a una fuente de potencia de alto voltaje (AC o DC).

b) Cavidad Óptica del Láser de He-Ne:


La cavidad de un láser de He-Ne convencional es una cavidad óptica
semiconfocal.
Está compuesta por un espejo plano, que refleja alrededor del 98 % de la luz que
le llega, y un segundo espejo cóncavo que refleja el 100 %. Este espejo cóncavo
tiene una distancia focal igual a la longitud de la cavidad.

La disposición de los espejos provoca que la radiación esté en planos casi


paralelos

332
c) Fuente de Potencia del Láser de He-Ne:
Los láseres de He-Ne que producen una potencia de 1 [mW] (el tipo estándar que
usan los estudiantes para experimentos de laboratorio), habitualmente utilizan una
fuente de potencia de Alto Voltaje DC (Corriente directa) de 2,000 [Voltios].
El láser necesita una corriente constante (suministro constante de electrones), de
forma que se emplea un suministro de corriente estable.
Para iniciar la acción láser, se necesita ionizar el gas dentro del tubo. Esto se
produce por un pulso de máximo voltaje de la fuente de potencia. Este voltaje se
conoce como Voltaje de Ignición del láser. En el momento del comienzo de la
descarga, la resistencia eléctrica del tubo cae de repente a un valor bajo. Esto

333
significa que el voltaje disminuye repentinamente, mientras la corriente aumenta.
Por lo tanto, según la ley de Ohm esto es una resistencia eléctrica negativa
(Disminuye el voltaje con aumento de la corriente).
Para superar este problema, se conecta una Resistencia lastre muy cerca del
ánodo, en serie con la fuente de potencia. El papel del resistencia lastre es limitar
la corriente a través del tubo cuando la resistencia cae.

LAS 100 RAZONES VALIDAS PARA LA VIGENCIA DEL NEON


1. Porque inauguró la cartelera luminosa en 1910… Antes, solo carteles pintados.
2. Porque dio luz propia a lo artístico de la artesanía de la época.
3. Porque nació distinta… Lámpara sin filamento.
4. Porque es de encendido instantáneo.
5. Porque viene en vidrio transparente.
6. Porque nació para intemperie.
7. Porque escribió con luz brillante.
8. Porque se adapta a cualquier forma.
9. Porque dio movimiento a la estática publicitaria.
10. Porque es de bajo consumo.
11. Porque permitió ir gestando la creación de infinidad de rubros y oficios.
12. Porque funcionando con secuencias, mejora su rendimiento.

334
13. Porque es frágil, pero su efecto es fuerte.
14. Porque es reparable.
15. Por su brillo particular.
16. Porque es fácil de vender… Todo el mundo la conoce.
17. Porque identificó esquinas céntricas.
18. Porque brilla bajo la lluvia.
19. Porque el haz de luz que genera, es de 360º.
20. Porque es agradable a la vista.
21. Por la calidez de sus reflejos.
22. Porque es luz de Cátodo Frío.
23. Porque no le afecta el sol.
24. Porque identificó ciudades.
25. Porque un cartel con Neón, es una obra de arte.
26. Porque su vida útil, es de 30.000 horas.
27. Porque es decorativa.
28. Por la artística que la identifica.
29. Porque es insinuante.
30. Porque brilla de noche.
31. Porque hay misterios en su elaboración.
32. Porque dibuja y dibujó con luz brillante.
33. Porque inauguró la fluorescencia.
34. Porque no le afecta el viento.
35. Porque no funciona con 110 volts.
36. Por ser varilla de vidrio con pintura interior fluorescente.
37. Porque fue testigo de infinidad de acontecimientos nocturnos alrededor del
planeta.
38. Porque inventó la luz difusa.
39. Porque inauguró las gargantas de iluminación.

335
40. Porque estrenó variedad de colores en luz brillante.
41. Porque estando encendida, se puede tocar.
42. Porque realza contornos.
43. Porque todos sus nuevos vecinos nacieron pensando en ella.
44. Por ser la publicidad más económica. Un Siglo lo avala.
45. Porque no contamina la atmósfera en su elaboración.
46. Porque iluminó noches gloriosas.
47. Porque da movimiento y volumen en la carteleria actual.
48. Porque a la gente le gusta.
49. Porque, a quien le guste, puede aprender a hacerlo.
50. Por su variedad de colores.
51. Porque supo convivir con sus “nuevos vecinos”, sabiendo que hay lugar para
todos.
52. Porque identificó esquinas barriales.
53. Porque el frío no le hace mal.
54. Por su variedad de intensidades.
55. Porque emociona cuando se enciende.
56. Porque identifica marcas.
57. Porque brilla en los caminos…
58. Porque los artistas la quieren mucho.
59. Porque su vida útil se verifica en los 100 años que está cumpliendo.
60. Porque no funciona con 220 volts.
61. Porque ver hacerla parece fácil, pero no lo es.
62. Porque siempre fue humilde… No habla mal de sus jóvenes vecinos.
63. Porque no le hace mal el calor.
64. Porque es fácil de instalar.
65. Por ser tan fiel que mal instalado, también funciona pero dura poco…
66. Porque hay obras de arte con luz de Neón.

336
67. Porque es seductora.
68. Porque viene en varillas de vidrio de color (vitre- aux).
69. Porque su proceso de elaboración, no se modificó en el tiempo.
70. Porque es reconfortante participar en un proyecto, y verla brillar.
71. Porque hacen referencia a ella en distintas composiciones musicales.
72. Porque la nieve, no le hace mal.
73. Porque a un artista, le permite crear.
74. Porque funciona entre 1 y 15 Kv. a bajísimo amperaje.
75. Porque ilumina noches gloriosas…
76. Porque no hay que tenerle miedo, solo hay que animarse…
77. Porque quiere ser reglamentada para que no la maltraten.
78. Porque en la actualidad, todos los habitantes del planeta la conocen.
79. Por su glamour en sensaciones.
80. Porque no genera calor cuando funciona.
81. Porque viene en distintos diámetros.
82. Porque al diseñador le permite expresar.
83. Porque sus nuevos vecinos, le hacen mala prensa para tratar de ubicarse.
84. Porque no contamina la atmósfera en su funcionamiento.
85. Porque es de los pocos oficios no reemplazado por la tecnología.
86. Porque es dimerizable.
87. Porque la gente lo pide.
88. Porque es la, o es él...
89. Porque es de estar siempre allí, y también de acá para allá…
90. Porque está instalada en las memorias…
91. Porque está aggiornada.
92. Porque sabe brillar de día.
93. Porque es buena, de las de antes…

337
94. Porque luce en corpóreos con frentes de acrílico.
95. Porque en corpóreas con luz interior, no acepta tipografías de bastón fino.
96. Porque su reflejo es constante, sin sombras en su recorrido.
97. Porque quiere nuevos diseños.
98. Porque al arquitecto le permite diseñar.
99. Porque participa en el diseño Slow.
100. Porque es inigualable.

338
Medios de Transporte

Fueron motivaciones históricas, antropológicas y biológicas las que llevaron al


hombre a desarrollar los diversos medios de transportes existentes. Pero también
la curiosidad característica del ser humano, lo ha incentivado a querer explorar su
morada, la Tierra.
Desde el primer momento de su existencia, el hombre se mueve, anda y desplaza,
quiere ir cada vez más lejos, y para satisfacer estas ansias indudablemente debe
inventar. Así es como, desde los primeros troncos usados en forma de rodillos,
pasando por la rueda, los barcos a vela, los aviones y los cohetes espaciales, el
hombre fue creando los medios que le permitieron, por necesidad o curiosidad,
transportarse a través del espacio.

Definición

Medio de traslado de personas o bienes desde un lugar hasta otro.


El transporte comercial moderno está al servicio del interés público e incluye todos
los medios e infraestructuras implicadas en el movimiento de las personas
o bienes, así como los servicios de recepción, entrega y manipulación de tales
bienes. El transporte comercial de personas clasifica como servicio de pasajeros y
el de bienes como servicio de mercancías. Como en todo el mundo, el transporte
es y ha sido en Latinoamérica un elemento central para el progreso o el atraso de
las distintas civilizaciones y culturas.

Historia
Ya en el periodo precolombino los incas poseían un rudimentario pero
eficiente sistema de caminos interconectados a lo largo y ancho de su Imperio, por
el cual trasladaban distintos tipos de mercaderías. A pie o a lomo de llamas, sus
mercaderías lograban llegar a su destino. A veces a través de puentes de cuerdas
entre las montañas. Otros pueblos utilizaron canoas o botes como medio
de comunicación.

Diferentes medios de transporte.

Transporte Acuático
Historia
La llegada de los europeos —españoles y portugueses— a lo largo de casi
toda América produjo grandes cambios en los medios de transporte. El principal
modo de comunicación era el marítimo, dado que era más eficiente y rápido
para puertos naturales y para los lugares en los que se construyeron puertos,
tanto de mar como de los caudalosos ríos americanos.

Canales.
Medio creado para el fácil el transporte acuático. La apertura de esta vía fluvial se

339
creó para una reducción considerable del tiempo de viaje en el tráfico de
mercancías por via marítima a escala mundial.

En América Latina, los ríos Amazonas y Paraná constituyen importantes vías


fluviales de navegación, pero sin duda el canal más importante es el canal
de Panamá. Éste une el Atlántico con el Pacífico a través del Istmo panameño.
El temprano perfeccionamiento del transporte acuático estuvo estimulado por la
tendencia de las poblaciones a concentrarse en las costas o las vías fluviales. Los
antiguos romanos utilizaban embarcaciones a vela equipadas con
varios bancos de remos para transportar a sus ejércitos hasta Cartago y otros
teatros de operaciones. La construcción de barcos y el aparejo y manipulación de
las velas fueron mejorando con el tiempo. Con estos cambios, junto con
la adopción de la brújula marinera, hizo posible la navegación en mar abierto sin
avistar la costa.

Al igual que sucedía durante la edad antigua en el Mediterráneo y otras zonas del
mundo, el hecho de que los asentamientos coloniales en América estuviesen
establecidos por lo general en las costas, los ríos o los lagos, fue a causa y
consecuencia de que las primeras rutas de transporte en las colonias fueran las
vías fluviales naturales, y los modos más eficientes de viaje se realizaran por
barco.

La Balsa

Tomando en cuenta que nuestro planeta está cubierto por agua, las dos terceras
partes, el hombre ha buscado la manera de viajar sobre el agua.

El primer navío sin duda fue un tronco flotante el cual conduciría con pies y
manos. Después pensaron que uniendo varios troncos con ataduras podrían
construir una plataforma firme o balsa (como le llamaron)
.
En Egipto se construyeron balsas con haces de caña, en otros lugares se
ahuecaron los troncos para ser piraguas o canoas.

Primeros barcos

Hace 1200 años antes de Cristo, los fenicios fueron los primeros marinos que
utilizaron la madera del Cedro para construir grandes y fuertes embarcaciones
para aventurarse más allá de sus límites marinos.

Los Vikingos, construyeron sobre una estructura de madera sólida que semejaba
nuestra columna vertebral. Los Vikingos eran altos, fuertes y robustos, esto,
permitía que empuñaran enormes remos e izaban las velas cuadradas, provenían
de las costas del Noreste de Europa y se encargaban de asaltar las costas de todo
Europa.

Barcos de vapor

340
Durante el siglo XIX se produjeron grandes avances gracias
la tecnología producto de la energía a vapor. El Clermont, primer barco de vapor
eficiente, fue construido por el inventor estadounidense Robert Fulton. Hizo su
viaje inaugural en 1807 por el río Hudson desde la ciudad de Nueva York hasta
Albania, que realizó la distancia del viaje de ida y vuelta de casi 483 Km. en 62
horas.
El primer barco en emplear propulsión a vapor en una travesía transatlántica fue el
barco estadounidense Savannah en 1819, aunque se usaron las velas durante
parte de los 29 días de viaje. Hacia 1840, mientras que un barco de vapor podía
hacer seis viajes entre América y Europa, en el mismo tiempo un velero podía
hacer sólo tres.

Durante la década de 1870 llegó a las costas del Río de la Plata el barco francés
Le Frigidaire, que incluía unas cámaras frigoríficas. Esto produjo un gran avance
en el modo de producción del sector de las carnes, las cuales ya no debían
salarse para su exportación. Otros productos perecederos se vieron beneficiados
con la refrigeración.

Embarcaciones modernas

El motor diesel ha supuesto para los barcos modernos un funcionamiento


más económico que ha reemplazado en gran medida a los motores de vapor. La
utilización de la energía nuclear en los barcos en la actualidad está restringida a
los navíos militares. Otros desarrollos en la navegación moderna son el
aerodeslizador, embarcación que va sobre un colchón de aire a unos centímetros
del agua o del terreno; equipada con reactores o con alas parecidas a las de
un avión o montantes que, a una cierta velocidad, levantan el casco del agua para
alcanzar velocidades mayores.

Yates
Dentro de los últimos adelantos del hombre en medios de transporte acuáticos,
nos encontramos con los yates que son pequeñas embarcaciones destinadas al
uso de un pequeño grupo de personas, se encuentran equipadas con los
adelantos tecnológicos más actuales y pueden navegar en altamar.

Moto ski
Otro invento importante es la moto ski, que es el resultado de la búsqueda del
ser humano de crear aparatos para su diversión, también es utilizada como medio
de salvamento a personas con un accidente acuático ya que son rápidas y cada
vez un poco más grandes (para estas utilizaciones).

Transporte Terrestre
Historia
El hombre empieza inmediatamente a desplazarse, sea para comer, para luchar o
por mera curiosidad, por lo que se ve obligadamente a valerse de algún medio de
locomoción.

341
Los primeros vehículos eran trineos de madera, y deben haber sido utilizados por
tribus de todo el mundo. Para transportar cargas pesadas se usaban troncos a
modo de rodillos; finalmente lo construyeron de una sola pieza, al unir los troncos
con maderas transversales y atar todo el conjunto con tiras de cuero.
Posteriormente se produjo el invento de la rueda, uno de los más maravillosos de
la historia. A partir de este invento, se desarrollaron todo tipo de transportes
terrestres.
Se desarrollan en este sitio algunos de los más aceptados y usados por la gente,
aunque se han inventado numerosos elementos de diferentes formas y de acuerdo
con las ideas de sus constructores, del estilo de los monociclos, bíciclos, triciclos y
cuatriciclos.

En el siglo XX la formación e instalación de grandes corporaciones


de fabricantes ha dado un gran impulso a la producción de vehículos tanto para el
uso particular como para el transporte público y de mercancías, así como la
exportación a terceros países. Con el crecimiento económico de los últimos años
se espera que Brasil y Argentina alcancen en poco tiempo cotas de utilización de
vehículos al mismo nivel que los países más desarrollados.
Carretera
En las trece colonias americanas originales, que se extendieron hacia el oeste
hasta el río Mississippi, el principal modo de transporte terrestre era por reata
de animales de carga y por caballos sobre los senderos de los nativos
americanos.
Hacia 1800 se hicieron carreteras de tierra al quitar la maleza y los árboles de
estos senderos. Muchas de esas carreteras, sin embargo, se hacían casi
intransitables durante los periodos de mal tiempo. En 1820, la mejora de las
carreteras denominadas turnpikes (autopistas), en las que las empresas privadas
cobraban un peaje por haberlas construido, conectó todas las ciudades principales
superando al resto de carreteras.

El transporte terrestre se desarrolló más despacio. Durante siglos los medios


tradicionales de transporte, restringidos a montar sobre animales, carros y trineos
tirados por animales, raramente excedían de un promedio de 16 Km/h. El
transporte terrestre mejoró poco hasta 1820, año en el que el ingeniero británico
George Stephenson adaptó un motor de vapor a una locomotora e inició, entre
Stockton y Darlington, en Inglaterra, el primer ferrocarril de vapor.

Ha sido en el siglo XX cuando más se ha desarrollado la red viaria en España.


Sucesivos gobiernos han realizado grandes inversiones hasta conseguir unas vías
básicas de gran capacidad (autopistas y autovías) que permiten el desplazamiento
de gran número de personas y mercancías por el territorio español con niveles de
motorización próximos a los grandes países industrializados.

En América Latina, el caballo, la mula y el transporte sobre ruedas fueron


introducidos por españoles y portugueses. Los mismos aprovecharon muchas
veces las rutas construidas por los indígenas.

342
Ya en el siglo XVIII existían carreteras que unían las actuales ciudades argentinas
de Tucumán y Buenos Aires, la ciudad de México con sus vecinas Guadalajara y
Jalapa, así como las andinas Lima (Perú) y Paita. También en Brasil se
construyeron carreteras costeras.

A pesar de ello, en la actualidad muchos países latinoamericanos cuentan


con sistemas de carreteras más o menos aceptables, siendo Argentina, Brasil y
México los países con mayor cantidad de kilómetros de carreteras mejoradas y
asfaltadas. En 1928, se acordó entre los países del sector construir una
carretera Panamericana que uniera todo el continente desde Alaska a Tierra
de Fuego. Ya en 1940 el 62% del tramo correspondiente a América Central estaba
asfaltado y el 87% de América del Sur.

El arrastre y la rueda

El inicio del transporte se dio cuando nuestros antecesores descendieron de los


árboles e inician su vida nómada.

El hambre obligo al hombre a moverse para asegurar su comida, con esto, se


inicio la forma de transportar en algo sus alimentos ya que el hombre en si es débil
como animal de transporte.

La rueda, invento importante que el hombre desarrolló hace 5,500 años y con esto
inicio un cambio en el medio de transporte ya que así logro trasladar de un lado a
otro sus alimentos más fácil y rápido.

Animales como medio de transporte

Debido a que el hombre no tenía la suficiente fuerza para cargar y transportar


alimentos o utensilios para ellos mismos se vio en la necesidad de domesticar a
los animales.

El perro fue el primer animal que domestico el hombre, después utilizo animales
más grandes y fuertes para transportar cosas sumamente pesadas junto con el
mismo hombre. Y así también ideo la forma de que solo transportaran cosas, sino
que también aprovecharía el hombre como alimento, ya alimentándose de lo que
los animales producían o matándolos para aprovechar así la carne y piel para
diferentes usos.

Primeras diligencias

Con la venida del comercio, el ser humano se dio a la necesidad de establecer


rutas comerciales y además de crear las primeras diligencias jaladas por caballos
para transportarse de un lado a otro a las mismas personas y sus pertenencias o
mercancías.

343
Ferrocarril
Las vías
Si hablamos del ferrocarril, inmediatamente pensamos en las vías. Sin embargo,
las vías tienen dos mil años más que la locomotora.
El hombre descubrió tempranamente que era más fácil tirar de un carro o trineo si
preparaba dos surcos de piedras lisas o de tablas de madera paralelos entre sí, o
los cavaba en un camino rocoso. Este último tipo de vía era utilizado por los
griegos para llevar sus carros adornados a los templos durante las festividades
religiosas. Habían construido también un tipo de remolque con vías de madera
para transportar naves a través del istmo de Corinto. Los griegos habían
descubierto que un hombre o un caballo podían arrastrar una carga ocho veces
más pesadas si lo hacían sobre una vía en lugar de hacerlo sobre un camino
irregular. También los romanos cavaron surcos en muchos de sus caminos.
Como otras tantas técnicas de la antigüedad, esta también se perdió durante la
Edad Media. En el siglo XV o XVI vuelven a aparecer las vías: posiblemente
aparecieron por primera vez en las minas alemanas, que eran las mejor instaladas
en toda Europa, en las cuales las cargas se transportaban en pequeños vagones.
Hacia fines del siglo XVI, los alemanes llevaron a Inglaterra el "Tramway", como lo
llamaban en este país, para modernizar sus minas, y así fue como llegaron las
vías al país que luego sería la cuna del ferrocarril.
Las vías de estas minas estaban formadas por dos maderos separados entre sí
por pocos centímetros; del eje de la vagoneta sobresalía un perno de hierro que
entraba en ese espacio y evitaba que las ruedas se deslizasen de los maderos.
Alrededor de 1630 se le ocurrió a un tal Beaumont unir ambos maderos con
durmientes y aumentar también la distancia que los separaba. Al desgastarse
estas vías de madera por los pesados vagones, Beaumont colocó sobre ellas
hierro plano; luego, por el mismo motivo, también las ruedas se fabricaron de este
material.
Hacia fines del siglo XVIII se le ocurrió a un ingeniero inglés colocar en las ruedas
la protuberancia que antes estaba en las vías, lo que resultó mucho más práctico
para el deslizamiento del vagón.
La primera locomotora
En todas partes había mercaderías que tenían que ser transportadas rápidamente
y con seguridad de un lugar a otro, así como había personas que querían viajar
cómodamente y con rapidez.
Para obtener a bajo precio fuerzas motrices considerables, varios inventores
pensaron en la unión del vapor y la rueda. Los primeros frutos de esa asociación
fueron verdaderos monstruos. En 1769, el francés Nicolas Cugnot construyó un
coche de vapor, su pesado "fardier" (carromato), que consistía en una máquina de
vapor montada sobre un carro de tres ruedas. El técnico norteamericano Oliver
Evans, construyó años después un coche de vapor que no logró imponerse.
William Murdock, en Inglaterra, hacía experimentos con una máquina de Watt.
Todos estos ensayos fueron fracasos.
Richard Trevithick, un joven ingeniero de minas de Cornwall, en la década del 90
del siglo XVIII se entusiasmó con la idea del vehículo de vapor y preparó en su
taller un par de pequeños modelos de locomotoras. Trevithick, entre 1801 y 1804
terminó su primer coche grande de vapor: una enorme caja de hierro sobre ruedas

344
con una chimenea en el centro, alrededor de la cual se habían instalado varios
asientos para los viajeros. Colocó sobre los raíles su máquina de vapor, y recorrió
nueve millas y media en cuatro horas y cinco minutos. He aquí la primera
locomotora. Años después presentó la segunda, pero no tuvo demasiado éxito. La
gente estaba convencida de que las ruedas patinarían sobre la superficie lisa a
medida que se aumente su peso.
George Stephenson, llamado por muchos el "padre del ferrocarril" no compartía
esa opinión generalizada, y tras haber reparado muchas locomotoras y haber
construido otras, realizó al fin, en 1825, la primera línea destinada no sólo a las
vagonetas de carbón, sino también a los viajeros. El 27 de septiembre de ese año,
laLocomotion Nº 1 arrastró un tren cargado con 600 pasajeros a lo largo de los 35
kilómetros que separan Stockton de Darlington, y se convirtió así en el primer viaje
en ferrocarril. El mismo Stephenson guió la máquina, que arrastraba seis vagones
con carbón y harina, un vagón para los invitados especiales, veintiuno más para
pasajeros comunes y finalmente cinco vagones carboneros; en total treinta y tres.
En 1829 se proyecta una línea Liverpool-Manchester. Los señores sesudos dudan
entre los caballos y las locomotoras. Finalmente se deciden por las últimas. En
este tramo ferroviario tuvo lugar una competición entre varias locomotoras
presentadas por sus propios constructores, y que fue ganada por la Rocket de
Stephenson.
A partir de 1830 surgen en Inglaterra múltiples líneas de ferrocarril. Después
vienen las grandes líneas. La Londres-Birmingham se inaugura en 1838; la siguen
las líneas de Londres-Newcastle, Londres-Edimburgo y Londres-Bristol.
Robert Stephenson no sólo perfecciona cada vez más las locomotoras de su
padre George, sino que estudia metódicamente el problema de la infraestructura:
desmontes, balasto y colocación de los raíles. Traza la mayor parte de las vías en
Inglaterra y en el extranjero. Posteriormente, también debió construir puentes, los
hizo metálicos, para realizar sus obras.
El progreso de Gran Bretaña en este terreno sirve de disparador a otras naciones,
y así es como cada una comienza a proyectar su propio sistema ferroviario.
Para los americanos, empeñados en reconocer todo su inmenso territorio, era vital
llegar cada vez más lejos y con mayor rapidez, buscando también la comodidad. A
partir de 1870, George Pullman hace del tren un palacio. En las grandes líneas
hay bar, fumador, tapices, artesonados, etc.
Hacia mediados de siglo, el tren ha conseguido su mayoría de edad: alcanza
velocidades del orden de los 100 kilómetros por hora. Para conseguirse tal grado
de perfección muchas cosas mejoraron: por ejemplo, se aumentó el volumen de la
caldera y el diámetro de las ruedas.
La moderna locomotora nace de tres nuevos perfeccionamientos. Primero, el
acoplamiento del cilindro de alta presión con el cilindro de baja, para reducir la
pérdida de energía; luego el aumento de la temperatura de los 200º C a los 300º
C; por último, en 1868 George Westinghouse inventa el freno de aire comprimido
que reemplaza a los guardafrenos y sus incómodos frenos de mano.
Con el tiempo, el ferrocarril se ha diversificado, dando paso a variados tipos de
trenes, tales como:
El tren de cremallera: En 1862 el suizo Niklaus Riggenbach inventó el ferrocarril
de cremallera, destinado a rodar por vías con una pendiente superior al 6%. Para

345
construirlo se inspiró en el sistema del inglés John Blekinsop. La Blekinsop de
1812, máquina de caldera común, no tubular, es una locomotora para trenes de
mercancías, que marcha a una velocidad muy reducida y además, circula por vías
de cremallera.
El tren de cremallera que sube la pendiente más pronunciada (47%) es el del
monte Pilatus, en Suiza.
El monorraíl. El primer monorraíl o monocarril se construyó en Irlanda en 1889.
Se trata de un transporte compuesto de vehículos que circulan por una plataforma
de rieles o vigas, por lo general elevada sobre la superficie. Hay dos tipos básicos
de monocarriles: el monocarril suspendido, donde los vehículos cuelgan bajo la
estructura, y el monocarril sustentado, en el cual los vehículos apoyan sus ruedas
sobre los rebordes interiores de los rieles.

Trenes de alta velocidad. Son los trenes de finales del siglo XX que recorren
largos trechos a muy alta velocidad, compitiendo prácticamente con el avión. Los
más conocidos son el TGV (Train à Grande Vitesse) francés y el tren bala
japonés.
Los Japanese National Railways inauguraron su primera línea de gran velocidad
Tokio-Osaka (515 km) el 1 de octubre de 1964. La velocidad máxima de estos
trenes-bala es de 210 km/h.

Los estudios de cara a la creación de un tren de alta velocidad (TGV) comenzaron


en Francia en 1967, año en que se realizó el primer tren de turbina de gas,
denominado TGS. En 1978 fue entregado el primer tren eléctrico TGV. El TGV
alcanza en la actualidad los 260 kilómetros por hora.
Otros datos interesantes relacionados con el ferrocarril:
Las mayores locomotoras
de vapor fueron las Big
La primera
La locomotora Mallard alcanzó en Boy. Estos monstruos de
locomotora diesel
1938 la velocidad máxima de una 40 metros de largo y 534
se construyó en
máquina de vapor: 202,73 km/h. toneladas de peso se
Alemania en 1912.
construyeron en los años
40.
La línea ferroviaria a La estación más
El tren de pasajeros más largo del
mayor altitud se halla en grande del mundo
mundo circulaba en Holanda en
Perú, con algunos tramos es la Grand
1988. Tenía 60 vagones, con una
a más de 5000 metros Central de Nueva
longitud total de 1,6 km.
sobre el nivel del mar. York.
El trayecto ferroviario
El túnel del Canal
En Japón y en Alemania se han más largo del mundo
de la Mancha tiene
probado trenes experimentales comienza en Moscú y
50 km de longitud,
capaces de viajar a más de 400 termina en Najodka. En
de los cuales 37
km/h. recorrer estos 9500 km
transcurren por
se tarda más de 8 días.
debajo del mar.

346
El subterráneo
En el año 1879 nació el tren eléctrico. El precursor de la técnica de la corriente de
alta tensión fue Werner von Siemens, quien para una exposición industrial en
Berlín construyó una pequeña locomotora eléctrica que arrastraba tres vagones
con seis pasajeros en cada uno. La corriente era conducida por las vías, pero
pronto se comprobó que el sistema era muy peligroso y Siemens introdujo la
conducción aérea. Con este sencillo modelo empezó el desarrollo del tranvía
eléctrico, del trolebús, así como también el de los metros o subterráneos.
El subterráneo es un transporte rápido de tecnología subterránea que utiliza trenes
de pasajeros que van por rieles a alta velocidad y funciona en túneles, en
estructuras elevadas o en carriles de uso exclusivo. Las estaciones tienen
andenes altos para permitir la entrada y salida rápida de los viajeros al mismo
nivel. La distancia entre estaciones varía entre 1200 y 4500 metros.
El primer ferrocarril urbano subterráneo fue inaugurado el 10 de enero de 1863, en
Londres. Tenía locomotoras de vapor. Llevaba unas calderas especiales que
nunca funcionaban correctamente, por lo que las estaciones y los túneles estaban
siempre llenos de humo. La línea que recorría cubría una distancia de 6,4 km.
El primer ferrocarril subterráneo sin conductor, utilizado para el transporte de
correspondencia, se inauguró en Londres en 1927.

Hacia 1830, poco después de que la línea de ferrocarril de Stephenson empezara


a dar servicio en Inglaterra, había en Estados Unidos 1.767 Km. de ferrocarriles de
vapor. En 1839, el trazado se había incrementado hasta 8.000 Km. y desde 1850
hasta 1910 el crecimiento del ferrocarril fue espectacular. La construcción del
ferrocarril estimulaba en gran parte la colonización y el desarrollo del Oeste. El
primer ferrocarril de Estados Unidos fue establecido en 1827, si bien el verdadero
desarrollo se inició el 4 de julio de 1828, con el Ferrocarril entre Baltimore y Ohio.
La implantación del ferrocarril en España fue relativamente rápida. En parte estuvo
estimulado por la carencia de vías fluviales de navegación interior, a diferencia de
otros países del entorno. La primera línea ferroviaria fue inaugurada en 1848 entre
las ciudades de Barcelona y Mataró. Hacia 1870 ya se contaba con una red que
era la tercera de Europa en extensión, tras Inglaterra y Francia. No obstante, la
decisión tomada en 1844 de dotar de un ancho de vía a la red española de
ferrocarril distinto al del continente europeo aisló a España del resto del continente
por este modo de transporte.

Después de un siglo de explotación privada del ferrocarril, en 1941 se crea la Red


de Ferrocarriles Españoles (RENFE), compañía de carácter estatal para la
explotación de una gran parte del trazado ferroviario. En las últimas décadas, la
mejora de la infraestructura viaria y el incremento de la motorización de las
familias y las empresas han supuesto una disminución acusada en el número de
viajeros y de mercancías transportadas por el tren. Sin embargo, la implantación
de servicios de alta velocidad en los últimos años ha supuesto una considerable
recuperación de viajeros en trayectos muy concretos de la red.
A partir de 1850 este modo de transporte comenzó su expansión en América
Latina. La red ferroviaria —financiada por capital francés, inglés o estadounidense
—, si bien benefició el transporte de mercancías y pasajeros, fue diseñada

347
generalmente respondiendo a las necesidades comerciales de sus propietarios y
países de origen y no atendiendo a las necesidades de los países
latinoamericanos. En Argentina, las líneas férreas tenían sus terminales en las
ciudades portuarias: Buenos Aires y Bahía Blanca, en el litoral, y Rosario, en el río
Paraná. Lo mismo ocurrió en la ciudad uruguaya de Montevideo. En Brasil, la red
ferroviaria se extendía a través de la meseta de São Paulo, dado que allí se
concentraba la producción del preciado café. El caso mexicano es paradójico,
dado que los mismos ferrocarriles utilizados para el transporte de productos
terminaron siendo, a principios de siglo, la base fundamental del transporte de los
revolucionarios de Emiliano Zapata.

Fue por 1945 cuando los ferrocarriles comenzaron a ser deficitarios, dando paso al
transporte por carretera, tanto de pasajeros como —y sobre todo— de
mercancías. De este modo, y ya no resultándoles beneficiosos a sus dueños, casi
todo el sistema ferroviario de Latinoamérica fue estatizado, muchas veces bajo un
falso discurso nacionalista.

Bicicleta

Los antepasados de la bicicleta se remontan muy atrás en la historia. Ya entre los


egipcios encontramos una máquina rudimentaria compuesta por dos ruedas
unidas por una barra. También en China encontramos una máquina muy similar,
pero con las ruedas de bambú. Siglos más tarde aparece una auténtica bicicleta
entre los dibujos de Leonardo da Vinci.
La verdadera historia de la dos-ruedas comienza en París en 1790, año en en que
el conde de Sivrac inventa el "celerífero", al que también se llama "caballo de
ruedas". Consiste en un listón de madera, terminado en una cabeza de león, de
dragón o de ciervo, y montado sobre dos ruedas. No tiene articulación alguna y
para las maniobras hay que echar pie a tierra; esa misma rigidez hacía que todas
las variaciones del terreno repercutieran en el cuerpo de su montura.
Posteriormente, en 1813, este celerífero sufrió una gran metamorfosis, gracias a
que el barón Karl Christian Ludwig Drais von Sauerbronn, de Alemania, inventó el
vehículo de una sola vía, al que llamó "máquina andante", precursora de la
bicicleta y la motocicleta. Drais de Sauerbronn comenzó por introducir unos
resortes debajo del sillín y después creó el manillar.
Esta "máquina andante", consistía en una especie de carrito de dos ruedas,
colocadas una detrás de otra. La persona se mantenía sentada sobre una
pequeña montura, colocada en el centro de un pequeño marco de madera. Para
moverse, empujaba alternadamente con el pie izquierdo y el derecho hacia
adelante, en forma parecida al movimiento de un patinador. Con este impulso, el
vehículo adquiría una velocidad casi idéntica a la de un coche. Sus brazos
descansaban sobre apoyabrazos de hierro, y con las manos sostenía una vara de
madera, unida a la rueda delantera, que giraba en la dirección hacia la cual quería
ir el conductor.
Este invento, estaba basado en la idea de que una persona al caminar desperdicia
mucha fuerza por tener que desplazar su peso en forma alternada de un pie al

348
otro. Drais von Sauerbronn logró crear este sencillo vehículo que le permitió al
hombre evitar ese trabajo.
Esta máquina, denominada "draisiana" en honor a su inventor, evolucionó
rápidamente.
Veinte años más tarde, el escocés Kilkpatrick Mac Millan retomó la idea de Drais
von Sauerbronn. Agregó una manivela a la izquierda y a la derecha del eje de la
rueda trasera, que movía con los pies, ayudándose con largas barras.
Diez años después, el alemán Philipp Heinrich Fischer colocó pedales en la rueda
delantera, transformando el movimiento abrupto de golpes de los pies en uno
giratorio continuo que daba al vehículo un movimiento mucho más sereno. Otra
teoría dice que el inventor de los pedales fue Pierre Michaux. Esta innovación
merece un nuevo bautismo, y la "draisiana" se convierte en "velocípedo".
El francés Ernest Michaux creó la primera fábrica de bicicletas, basándose en el
modelo de Fischer. En Inglaterra varias fábricas iniciaron a su vez la construcción
de bicicletas con propulsión en la rueda delantera; la rueda posterior era un poco
más pequeña. Este tipo de bicicleta fue llamado "bonashaker" (sacudidor de
huesos) debido a sus ruedas de madera, sin elásticos.
Posteriormente, los deportistas aumentaron enormemente la circunferencia de la
rueda delantera y disminuyeron la de la rueda posterior. Este modelo, llamado
"Penny Farthing", implicaban para el conductor pruebas casi acrobáticas, y el
vehículo alcanzaba altas velocidades.
El inglés H. J. Lawson solucionó el problema del tamaño, disminuyéndolo y
haciéndolo al mismo tiempo más veloz. Llevó la manivela y los pedales al centro,
entre las ruedas delantera y trasera. El suizo Hans Renold inventó la cadena, que
posibilita transmitir la fuerza generada por las piernas del ciclista de la rueda
dentada del centro (plato) a una más pequeña ubicada en el eje posterior (piñón).
Otros inventores agregaron los rayos de alambres, el asiento con suspensión, el
cojinete de bolas, el freno de contrapedal, el cambio de velocidades y la rueda
libre, y con esto la bicicleta alcanzó su diseño actual.
El desarrollo de una buena llanta, se debió al escocés John Boyd Dunlop, quien
las construyó para que su hijo pudiese ganar una carrera a sus compañeros. El
niño se quejó de los duros golpes que recibía al andar en ese vehículo. Dunlop
sacó entonces dos trozos de goma de jardinero, los unió n forma de anillo,
bombeó aire en su interior y luego los sujetó en las ruedas posterior. Así, su hijo
ganó la carrera.
Posteriormente Dunlop patentó su invento, y así la bicicleta terminó de
conformarse, siendo uno de los transportes más populares del mundo.
A lo largo del tiempo fueron apareciendo otros diversos modelos de bicicletas
como:
Humber: La bicicleta Humber para señoras salió al mercado en 1905. En vez del
cuadro romboidal de las bicicletas para hombres, las de señoras tenían una
estructura abierta acorde con los vestidos largos de la época.
Bicicleta plegable: Diseñada en 1965 por Alex Moulton, esta bicicleta se destaca
por lo sencillo que resulta transportarla y guardarla. La innovadora suspensión en
sus dos ruedas contribuyó a que fuera fácil de manejar además de cómoda.
Bicicleta de carreras: Este tipo de bicicletas tiene como principal característica su
diseño aerodinámico para el ciclismo de competición. Con su evolución se

349
introdujo el manillar en caída, que reduce la resistencia al aire del cuerpo. La
posición aerodinámica aumenta al subir el sillín, cosa que suelen hacer los
ciclistas profesionales.
Mountain bike: La bicicleta de montaña o todo terreno fue desarrollada durante la
década de los setenta, y se caracteriza por ser más liviana y tener cambios
adaptados, muy útil para usar en terrenos escabrosos, como los de las montañas.
Bicicross: Es una pequeña bicicleta con ruedas de 20 pulgadas, sin suspensión y
muy maniobrable, que nació en los Estados Unidos en 1972. El bicicross se ha
convertido en la actualidad en una disciplina deportiva completamente
diferenciada.
Tándem: La bicicleta tándem es una bicicleta de dos plazas. Las dos personas
que se suben a la misma deben pedalear para avanzar. Un tándem es una
bicicleta normal y corriente, a la que se une un sillín, un manillar y unos pedales.
La persona que va en la parte delantera es la que pone los cambios, frena y
maniobra. La transmisión entre la parte delantera y trasera está sincronizada; esto
significa que la cadencia es la misma para los dos.

Motocicleta
El 5 de abril de 1818 se presentó en París una draisiana equipada con una caldera
de vapor en la parte trasera, denominada velocipedraisidevapor. Esta máquina no
tuvo mayor éxito.
La primera motocicleta nace de la combinación de la bicicleta de pedales y del
automóvil. Los historiadores se disputan todavía cuál es el padre de esta primera
máquina. Si nos atenemos a la estricta noción del dos ruedas, este honor le
corresponde a los alemanes Wilhelm Maybach y Gottlieb Daimler, que
construyeron en 1885 una moto de cuadro y ruedas de madera, y motor de
combustión interna de acuerdo con el ciclo de 4 tiempos. Este motor desarrollaba
0,5 caballos y permitía una velocidad de 18 km/h. Por su parte, los ingleses le
atribuyen la paternidad a Edouard Butter, quien, con un año de anterioridad, había
presentado la patente de un triciclo de motor a petróleo, en cuya realización
intervino tres años más tarde. Estos inventos al principio no tienen ninguna
aceptación.
Recién en 1897 se toma en serio la motocicleta, al aparecer en el mercado la
máquina de los hermanos Eugène y Michel Werner. Estos dos periodistas de
origen ruso montaron un pequeño motor en una bicicleta. Al principio lo colocaron
en forma horizontal encima de la rueda trasera, luego delante del manillar, con una
correa de cuero que lo unía a la rueda delantera. El éxito no se hizo esperar y ya
en 1898 se comenzó a fabricar. Lamotocicleta, marca presentada por los
hermanos Werner, entró muy pronto en el lenguaje corriente para referirse a todos
los biciclos equipados con motor.
En 1902 apareció en Francia el scooter o ciclomotor con el nombre de Autosillón.
Se trata de una moto munida de un salpicadero de protección, de pequeñas
ruedas y con un cuadro abierto que permite al piloto viajar sentado. Fue inventado
por Georges Gauthier y fabricado en 1914. Este tipo de vehículo se desarrolló a
partir de 1919 y tuvo un gran éxito con la Vespa italiana, a partir de 1946. La
Vespa ("avispa" en italiano, denominación que adquirió debido al zumbido que
emite su tubo de escape) es el scooter más conocido, y fue diseñado por

350
Corradino d´Ascanio. La Lambretta, también de Italia, fue la rival más importante
de Vespa.
El scooter tuvo gran popularidad entre los jóvenes. Desde su creación ha
aparecido una gama amplísima de estos vehículos baratos, ligeros y de fácil
manejo, cuyas características principales son las ruedas pequeñas y el cuadro
abierto.
En 1910 apareció el sidecar, un carrito con una rueda lateral que se incorpora al
costado de la moto (aunque ya había aparecido años antes pero en las
bicicletas).

El automóvil
El intento de obtener una fuerza motriz que sustituyera a los caballos se remonta
al siglo XVII.
La historia del automóvil recorre las tres fases de los grandes medios de
propulsión: vapor, electricidad y gasolina.
El primer vehículo a vapor es el "carromato" de Nicolás Gugnot, demasiado
pesado, ruidoso y temible. El segundo es el triciclo de William Murdock, movido
por una máquina de Watt, que data del año 1784; con sus delgadas ruedas y su
pequeña chimenea en la parte posterior, parece mucho más delicado que el
anterior. El tercer vehículo a vapor fue presentado en 1804 por Oliver Evans; era
un enorme barco anfibio que había sido construido para dragar el río Schuykill y
estaba provisto por una parte, de cuatro ruedas para caminar por tierra, y por otra,
de una rueda de paletas que le impulsaba por el agua. Animados por estas
creaciones, muchos otros inventores construyeron diversos vehículos impulsados
con vapor.
Durante la segunda mitad del siglo XIX se manifestó la necesidad cada vez mayor
de un vehículo mecánico que pudiese transitar por las calles. La invención del
coche de vapor fracasó por ser una máquina muy pesada y de difícil conducción.
El nacimiento del automóvil llegó gracias al invento de Dunlop, las llantas
neumáticas, pero también se necesitaba de un motor. Esta exigencia se cumplió
con la aparición del motor eléctrico, una vez solucionados los problemas de la
generación de corriente y su distribución.
Otros inventores, en cambio, investigaron en otra dirección: el motor de gas.
Etienne Lenoir, un ingeniero francés, construyó en 1883 una máquina que era
impulsada con gas de carbón común: llegó a colocarla sobre ruedas y viajaba en
ella. Siegred Marcus, un inventor vienés, utilizó por primera vez en 1875 gas de
petróleo para mover un pequeño coche por las calles de Viena.
En 1884, el inglés Edward Butler equipó en Londres un pequeño triciclo con un
motor de nafta de dos cilindros, gasificador y encendido eléctrico. Era uno de los
inventos más adelantados para esa época, pero no tuvo demasiado éxito por la
"ley de la bandera roja", que prohibía a los vehículos sin caballos transitar a más
de 6 1/2 kilómetros por hora en los caminos libres y 3,2 kilómetros por hora en
lugares poblados.
En Alemania, entre tanto, se produjo un progreso permanente. Empezó en 1872
con el motor de gas de Nikolaus Otto. Si bien esta máquina dependía del gas de la
cañería común, significó un gran adelanto. Otto utilizó el sistema de émbolo-
cilíndrico de la máquina de vapor; pero en su motor -y desde entonces en todos

351
los motores de explosión- la combustión tenía lugar en el interior y no en una
caldera especial, como en las máquinas de vapor.
Gottlieb Daimler ingresó en las fábricas de Otto y contribuyó en gran escala a
mejorar el motor de gas. Estaba convencido de que allí se encontraba la máquina
ideal para el tránsito por las calles. Otto, en cambio, opinaba que su motor sólo
servía para una máquina fija.
Daimler abandonó finalmente la fábrica de Otto y construyó su primer vehículo
alimentado por gasolina: una motocicleta. La probó en 1885, mientras Karl Benz
ya había construido unos meses antes un vehículo impulsado por gasolina.
El conocimiento de Benz de una bicicleta del tipo "sacudidor de huesos" lo indujo a
pensar en la posibilidad de mecanizar el tránsito en las calles. Luego vio el motor
de gas de Lenoir, y sus ideas se orientaron en la misma dirección que las de
Daimler. También él llegó a la conclusión de que uno de los productos derivados
del petróleo se adecuaría para la combustión en un motor de gas. Ese combustible
no sería costoso.
El primer vehículo de Karl Benz alimentado con gasolina fue un triciclo con motor
de cuatro tiempos, basado en el principio de Otto. Benz inventó su propio sistema
de encendido eléctrico y rodeó al motor de una envoltura por la cual circulaba
agua fría como medio refrigerante. La fuerza del motor era transmitida a las
ruedas posteriores por dos cadenas y un simple embrague intercalado en ellas.
Para superar las dificultades de las curvas -la rueda exterior tenía que moverse
más rápidamente que la interior-, Benz adoptó un invento inglés, el diferencial,
patentado por J. K. Starley en 1877.
El vehículo se conducía con ayuda de un pequeño volante, ubicado sobre una
delgada barra dispuesta delante de un banquito que servía de asiento al
conductor.
En 1882, con el descubrimiento del petróleo, Gottlielo Damler descubrió que
utilizando petróleo, podía impulsar un pistón más rápido, poco a poco fueron
surgiendo más inventos con la aplicación del petróleo y buen acero barato que fue
el que utilizo en su producción Henry Ford, con lo que se creó el automóvil.
Las guerras desarrollaron nuevas clases de automóviles, tales como los tanques
y autobuses.
Después surgieron variedades de autos y hoy en día la industria automotriz es una
de las grandes e importantes del mundo, se consideraban como un lujo y ahora se
puede considerar que hoy en día el tener un auto no es un lujo, si no que es una
necesidad.
Todos los detalles de este coche fueron construidos personalmente por karl Benz,
y se convirtió así, en 1885 en el primer automóvil.
Gottlieb Daimler construyó en 1886 su primer vehículo de cuatro ruedas; tenía el
aspecto de un carruaje al cual se habían olvidado de atarle los caballos.
Desde 1887 hasta 1889 trabajó en colaboración con su jefe de ingenieros, Wilhelm
Maybach, tratando de perfeccionar sus modelos. El coche que finalmente
expusieron en la Exposición Mundial de París de 1889 -un vehículo para cuatro
personas con motor refrigerado por agua y con una caja de cuatro velocidades-,
ya no era un carruaje sin caballos, sino un medio de transporte de forma propia.
Una firma francesa constructora de coches adquirió la licencia para la fabricación
de automóviles Daimler, y esto dio origen al enorme progreso de esta industria en

352
Francia, que la llevó a ocupar el primer lugar entre todos los países europeos, sitio
que retuvo hasta la Primera Guerra Mundial. En 1894 tuvo lugar en Francia la
primera carrera de automóviles (París-Ruán-París), que fue ganada por un
Daimler con una velocidad promedio de 32 kilómetros. También Karl Benz vendió
una gran cantidad de automóviles a Francia.
Un modelo perfeccionado, de lujo, fue el Mercedes, nombre de la hija de un socio
de la firma francesa que había adquirido la patente a Daimler.
Los Estados Unidos tuvieron que esperar varios años antes de fabricar su primer
auto. En 1893, un mecánico de ese país, Charles E. Duryea, consiguió construir
un vehículo con motor de gasolina, pero no pudo regular su velocidad. Con su
segundo modelo alcanzó una mayor perfección.
En 1896 circuló por Detroit el primer coche con motor de gasolina conducido por
su constructor, Henry Ford. Él estaba convencido de que América necesitaría, con
sus enormes distancias y su riqueza rápidamente creciente, cantidades ilimitadas
de automóviles.
Ford, más que inventor, era organizador y perfeccionador. Él conocía los defectos
principales de los autos europeos: estaban destinados, ante todo, a los deportistas
y a la gente de dinero, pero no al hombre común ni a satisfacer su necesidad
diaria. Los Estados Unidos de América necesitaban un medio de transporte
popular, barato y que consumiese poco. Henry Ford logró este objetivo y su coche
se vendió con éxito, convirtiéndolo en uno de los hombres más ricos del mundo.
Se trató de su "modelo T".
Ford levantó una fábrica propia para la construcción en serie de este coche. Sobre
una cinta transportadora de 300 metros de largo se construían los coches uniendo
sus diversas partes, en una época en que la mayoría de los coches europeos eran
construidos uno por vez por los mecánicos.

Transportes urbanos
Ya a que en la actualidad hay demasiada población, las autoridades se vieron en
la necesidad de crear el transporte urbano para el alto número de habitantes y
también por la necesidad en que se ven obligados a recorrer distancias largas. Ya
sea un autobús o una combi.
El origen de los transportes urbanos
El célebre matemático y pensador francés Blaise Pascal fue quien propuso, en
1661, un sistema de carrozas que circularan en trayectos determinados de París,
a intervalos regulares, por un módico precio.
El 19 de enero de 1662 el Consejo del Rey les otorgó a los financieros del
proyecto la autorización de establecer la circulación de carrozas públicas en la
ciudad de París y alrededores.
Tranvía
El tranvía fue inventado en 1775 por el inglés John Outram. Este vehículo
destinado al transporte colectivo circulaba sobre rieles de fundición y era tirado por
dos caballos; no fue explotado en ciudad. En 1832, John Stephenson construyó el
primer tranvía urbano, en Nueva York, entre Manhattan y Harlem. En 1852, Èmile
Loubat tuvo la idea de encastrar los rieles en la calzada, invento con el cual se
construyó la línea de la Sexta Avenida de Nueva York en ese mismo año.

353
La primera línea de tranvía eléctrico operativo fue construida en 1888 por el
norteamericano Frank Spague. Este vehículo fue precedido por algunos prototipos
de demostración: el de Siemens y Halske en Berlín en 1879, y el de Edison, en
Menlo Park, en 1880.
Ómnibus
En 1825, un antiguo coronel del ejército imperial francés, Stanislas Baudry, tuvo la
idea de poner en servicio unos vehículos derivados de las diligencias, que podían
transportar unos quince pasajeros, incluido el cobrador.
El coronel puso estos transportes colectivos a disposición de sus clientes entre el
centro de Nantes y los baños que él poseía en los suburbios. Observó que más
habitantes de las afueras que bañistas utilizaban el servicio y decidió ampliarlo. La
terminal del centro de la ciudad estaba situada delante del negocio de un tal
Omnes, donde había un letrero en el que se leía: Omnes omnibus. A Baudry le
pareció muy atractivo que omnibussignificara "para todo el mundo", por lo que
decidió darle ese nombre a su línea.
Autobús
En 1831, el inglés Walter Hancock proveyó a su país del primer autobús de motor.
Provisto de un motor de vapor, podía transportar diez pasajeros. Fue puesto en
servicio, de forma experimental, entre Stratford y la ciudad de Londres el mismo
año de su construcción y se lo bautizó Infant.
Fue reemplazado por el autobús de motor de gasolina, construido por la firma
alemana Benz y puesto en servicio el 18 de marzo de 1895 en una línea de 15
kilómetros, al norte de Renania. Podía transportar de seis a ocho pasajeros, en
tanto que los dos conductores iban afuera.
Taxi
En 1640, el cochero francés Nicolás Sauvage abrió la primera empresa de taxis en
la calle Saint-Martin en París. Debutó con veinte carrozas. En la casa de Sauvage
se exhibía una imagen de San Simón, por lo cual en Francia fue común
llamar simones a los primeros coches-taxis.
En 1703 la policía reglamentó su circulación y les atribuyó a cada uno su número.

El metro

Ha sido un medio de transporte efectivo en las grandes ciudades ya que consume


energía eléctrica, se encuentra establecido bajo tierra y costo demantenimiento es
bajo y no contamina.

El tren bala

Podemos observar la evolución del ferrocarril que ha sido perfeccionado y que es


más usual en Japón.

Transporte Aéreo
Historia
El transporte aéreo es la forma de transporte moderno que más rápidamente se
desarrolló. Aunque los pioneros de la aviación en Estados Unidos, Orville y Wilbur
Wright hicieron el primer vuelo en el aparato más pesado que el aire

354
en Kitty Hawk, Carolina del Norte, el año 1903, no fue hasta después de la
I Guerra Mundial cuando el transporte aéreo alcanzó un lugar destacado en todos
los países.

Tras la II Guerra Mundial los transportistas aéreos comerciales recibieron incluso


un mayor impulso cuando los propulsores de los aviones se hicieron más grandes
y eficientes. Un avance importante tuvo lugar en 1958 con la inauguración, por
parte de las líneas aéreas británicas y estadounidenses, del avión a reacción para
el transporte comercial. Aparte de los aviones supersónicos, un gran avance en
los viajes aéreos fue la introducción, en 1970, del Boeing 747, el llamado reactor
Jumbo, que puede llevar desde 360 hasta más de 500 pasajeros
en vuelos regulares.
En España también tiene gran importancia el modo de transporte aéreo, tanto para
vuelos nacionales como para los internacionales. El primero es básico para las
relaciones entre los territorios insulares de Baleares y Canarias con la Península;
además, las distancias existentes en la Península entre la capital y las ciudades
costeras han hecho rentables los desplazamientos por avión. Los nudos
internacionales han incrementado cada vez más su importancia debido a la
situación estratégica de la Península en el mundo, sobre todo en las relaciones
entre Latinoamérica y los países europeos, al hecho de que sea un gran destino
turístico mundial.

También el transporte aéreo ha tenido un gran crecimiento en los últimos 40 años


en Latinoamérica. Argentina, Brasil, Colombia, México y Venezuela son los países
con mayor número de kilómetros volados en líneas aéreas regulares. Las grandes
ciudades latinoamericanas (Ciudad de México, Buenos Aires, São Paulo y Río de
Janeiro) son el principal punto de origen y destino de la región, aunque
regularmente sus líneas aéreas realizan vuelos hacia Extremo Oriente, Próximo
Oriente, Europa, Estados Unidos y Canadá. Colombia, en 1919, fue el
primer país que tuvo líneas aéreas comerciales.

Primeros Aviones

Uno de los sueños más viejos del hombre ha sido el de volar y es así como inicia
una búsqueda constante para inventar aparatos que le permitan surcar los aires.
Lilienthal, inspirándose en los pájaros, creo un planeador con línea aerodinámica
que se utilizan en la actualidad para los mismos aviones.

También Leonardo Da Vinci que fue precursor de la creación de aeronaves. El


primer vuelo con motor fue realizado por los hermanos Orville y Wilbur Wright, el
17 de Diciembre de 1903 que duro solamente 12 segundos.

Globos Aerostáticos

En 1700 fue cuando se experimento utilizando globos más ligeros que el aire y así
se invento el globo aerostático. Fue tanto el auge de los globos elevados

355
por Hidrogeno que se creó un globo de pasajeros, pero debido a lo inseguro de
este medio de transporte en la actualidad se utiliza como medio de diversión.

Avión de Hélice y Helicóptero

Surgen en la primera guerra mundial, pero en la segunda guerra mundial es


cuando se lleva a su límite a los aviones propulsados por hélice.
Hoy en día ha sido suplantado por el avión propulsado por el motor de propulsión
a chorro.

El Helicóptero, alcanza su perfeccionamiento en la segunda guerra mundial, ahora


sirve como eficaz medio de transporte y servicio en las grandes ciudades debido a
que la mayoría de edificios y hoteles cuentan con ellos.

Aeronaves modernas

La Industria Aeronáutica, ha logrado alcanzar una relevancia importante debido a


que se fabrican aviones más rápidos que la velocidad de la ludel sonido, naves
exploradoras del espacio, grandes naves para pasajeros que dan vuelta al mundo.
Entre los aviones de pasajeros más importantes están:
• Boein 747 o Jumbo Jet
• El Concorde (Francés)
• Tupolev TU-144 (Ruso)
El 4 de Octubre de 1957, Rusia mando el primer satélite artificial de la tierra y
desde entonces el hombre ha buscado la manera de viajar al espacio.
Es el 12 de abril de 1961, cuando se elevo desde la plataforma de lanzamiento el
Vostoki y tras una hora con 48 minutos regreso después de dar la vuelta al mundo,
es importante ya que tenía un pasajero que era Yuri Gagarin.

Así en la actualidad el hombre busca inventar naves que lo transporten más allá
de nuestro planeta.

A Futuro.
En la actualidad se siguen diseñando formas más eficaces de desplazamiento, ya
sea para llegar más lejos, más rápido, o para reducir costes.
Algunos de ellos (aéreos), quieren ir más allá de la atmosfera para así gastar
menos combustible.
Otros piensan en el desarrollo de trenes intercontinentales subacuáticos.
En la cuestión espacial, aun nos quedan muchos impedimentos por superar, por
lo que alguno sugieren la creación de colonias enteras, llevando a varias
generaciones a lo largo de un viaje de décadas, o siglos, de duración.

Sean cuales sean los medios de transporte que se usen en los próximos años,
décadas, o siglos, su objetivo esencial será el mismo, facilitar nuestras vidas al
llevarnos de un lugar a otro de manera que nosotros realicemos un trabajo mínimo
en ese desplazamiento que realicemos, ya sea por necesidad, curiosidad o
diversión.

356
LOS VEINTE INVENTOS MÁS GRANDES DEL SIGLO XX

El siglo XX está marcado por los grandes inventos y desarrollos de la tecnología,


una revolución industrial mayor a las anteriores que transformó la vida de millones
de personas ya que se desarrolló el campo de las comunicaciones, tales como
radio, televisión e internet.
A continuación haremos una reseña de los veinte inventos y descubrimientos que
marcaron el siglo XX.

Electrificación.
La electrificación es un sistema de alimentación de tracción por el cual la energía
eléctrica procedente de una línea exterior de alta tensión pasa por la subestación,
circula por el elemento conductor instalado a lo largo de la línea y llega a los
puntos de distribución tales como casas, escuelas, fábricas, hospitales, etc.

Electrificación en México
La generación de energía eléctrica se inició en México a fines del siglo XIX. La
primera planta generadora que se instaló (1879) en el país estuvo en León,
Guanajuato, y era utilizada por la fábrica textil “La Americana”. Casi
inmediatamente se extendió esta forma de generar electricidad dentro de la
producción minera y, marginalmente, para la iluminación residencial y pública.
Para 1889 operaba la primera planta hidroeléctrica en Batopilas, Chihuahua; la
cual extendió sus redes de distribución hacia mercados urbanos y comerciales
donde la población era de mayor capacidad económica.
No obstante, en el régimen de Porfirio Díaz se otorgó al sector eléctrico el carácter
de servicio público, colocándose las primeras 40 lámparas "de arco" en la Plaza
de la Constitución, cien más en la Alameda Central y se comenzó la iluminación
de la entonces calle de Reforma y de algunas otras vías capitalinas. A partir de
entonces, algunas compañías internacionales con gran capacidad vinieron a crear
filiales: The Mexican Light and Power Company, de origen canadiense (en el
centro del país), el consorcio The American and Foreign Power Company (con tres
sistemas interconectados en el norte de México) y la Compañía Eléctrica de
Chapala (en el occidente).
Al iniciarse el siglo XX, México contaba con una capacidad de 31.0 MW, propiedad
de empresas privadas. Para 1910 eran 50.0 MW, de los cuales 80% lo generaba
The Mexican Light and Power Company, con el primer gran proyecto
hidroeléctrico: la planta Necaxa, en Puebla. Las tres compañías eléctricas tenían
las concesiones e instalaciones de la mayor parte de las pequeñas plantas que
sólo funcionaban en sus regiones.

357
En ese período se comenzó el primer esfuerzo para ordenar la industria eléctrica
con la creación de la Comisión Nacional para el Fomento y Control de la Industria
de Generación y Fuerza, conocida posteriormente como Comisión Nacional de
Fuerza Motriz. Y fue hasta el 2 de diciembre de 1933, cuando se decretó integrar
la Comisión Federal de Electricidad, considerándose por vez primera a la
electricidad como una actividad nacional de utilidad pública. Cuatro años después,
el 14 de agosto de 1937, CFE entró en operación formal. En ese momento, la
capacidad instalada en el país era de 629.0 MW.
La electrificación nos ha servido mucho, ya que no se habrían desarrollado otros
inventos que incluiremos más adelante.

Automóvil.
El automóvil, fue inventado en Stuttgart (Alemania) en 1886 por Karl Benz. Poco
después otros pioneros, como Gottlieb Daimler y Wilhelm Maybach presentaron a
su vez sus modelos. El primer viaje largo en un automóvil lo realizó Bertha Benz
en 1888, al ir de Mannheim a Pforzheim, ciudades separadas entre sí por unos
105 km. Cabe destacar que fue un hito en la automovilística antigua, dado que un
automóvil de esta época tenía como velocidad máxima unos 20 km/h, gastaba
muchísimo más combustible de lo que gasta ahora un vehículo a esa misma
velocidad y la gasolina se compraba en farmacias, donde no estaba disponible en
grandes cantidades.
En 1910, Henry Ford comenzó a producir automóviles en una cadena de montaje,
sistema totalmente innovador que le permitió alcanzar cifras de fabricación hasta
entonces impensables.
Un automóvil se define como “vehículo de motor que sirve, normalmente, para el
transporte de personas o cosas, o de ambas a la vez, o para la tracción de otros
vehículos con aquel fin. Se excluyen de esta definición los vehículos especiales”.

El automóvil en México
En 1903, los primeros automóviles llegaron a la Ciudad de México, totalizando un
parque vehicular de 136 en aquel año, creciendo hasta los 800 tres años después.
Esto encaminó al Presidente Porfirio Díaz, para crear el primer Reglamento de
Tránsito en el país. Este permitía que los automovilistas alcanzaran una velocidad
máxima de 10 km/h en calles estrechas o muy transitadas, y hasta 40 km/h en las
demás. Sin embargo, él creó un impuesto para los propietarios de vehículos que
fue abolido en 1911 con la victoria de Francisco I. Madero sobre Díaz.
A principios de la década de los 1960 apareció un Decreto Automotriz cuyas
regulaciones dictaban que las empresas establecidas en México debían
ensamblar todos los automóviles comercializados en el país, regulando también el

358
porcentaje de integración nacional, así como el porcentaje de las autopartes
importadas. La idea era el desarrollar una industria automotriz nacional para
promover la creación de empleos e impulsar el implemento de avances
tecnológicos. Las empresas que no acataron este decreto tuvieron que abandonar
el país, entre éstas estaban Mercedes Benz, Fiat y Volvo. Las tres grandes
empresas americanas permanecieron en el país junto con American Motors (hoy
Chrysler), Renault, Volkswagen y Datsun.
El automóvil ha sido de gran utilidad, ya que con sus avances se van acortando
cada vez más las distancias entre ciudades y se facilita más el transporte de carga
que sólo era férreo.
Actualmente se estudian nuevas formas para movilizarse de manera más rápida y
eficiente lo que incluye mejores carreteras por las que moverse. La antigua visión
futura del automóvil volador está desechada en la actualidad, ya que la energía
necesaria para hacerlos sostenerse en el aire sería mucho mayor.
Un futuro posible del automóvil es su sustitución por medios de transporte público
más eficientes energéticamente. Esto puede suceder a causa de la escasez de
petróleo y su consecuente aumento de precio.
Otra línea futura será la de los automóviles autónomos, sin conductor. Ya ha
habido dos concursos, del Departamento de Defensa de Estados Unidos, en los
que varios coches autónomos han hecho un recorrido sin conductor; en el primer
caso por el desierto de Mohave y en el segundo por una ciudad.

Aeroplano
Hace ya 500 años atrás, Leonardo da Vinci se avocó a la tecnología del vuelo y
diseñó varios dispositivos voladores. El inglés Sir George Cayley comprendió que
esas máquinas voladoras, impulsadas por los músculos y basadas en el
movimiento del aleteo de las aves, no conducían a ningún lado, por lo que se
dedicó a la construcción de planeadores. Estableció los principales factores del
vuelo: el despegue, la propulsión y la dirección, los cuales tuvo en cuenta durante
sus intentos de construir aparatos voladores.
El 17 de diciembre de 1903, Orville Wright se elevó en el aire con el biplano “Flyer
I”, el cual había despegado del suelo utilizando la energía de un motor, y voló
alrededor de 36 metros en 12 segundos. Orville y su hermano Wilbur realizaron un
total de cuatro intentos de vuelo ese día -permaneciendo finalmente en el aire por
un total de 59 segundos. Durante esos intentos, su “Flyer”, que estaba equipado
con un motor a gasolina de 12 caballos de fuerza, así como con un elevador a
diapasón y un timón, voló distancias de entre 36 y 265 metros. Los primeros pasos
hacia el vuelo propulsado y controlado habían sido dados.
En 1904, los hermanos Wright fueron los primeros que tuvieron éxito en dirigir un
avión y volarlo, realizando un círculo completo.

359
La aviación en México
El 8 de enero de 1910 el deportista mexicano Alberto Braniff efectuó en un
aeroplano Voisin el primer vuelo de un aeroplano no sólo en México, si no en toda
Latinoamérica. El hecho tuvo lugar en los llanos de Balbuena, próximos a la capital
federal.
Braniff se fue a París y compró a los hermanos Voisin uno de sus aeroplanos con
el encargo de que se lo enviaran a México. Mientras tanto, en el mes de
septiembre, tomó un curso de vuelo en la escuela que los propios fabricantes
tenían en Yssy-Les-Moulineaux.
De regreso en México, Braniff buscó un lugar para sus prácticas de vuelo y
encontró que la hacienda de Balbuena, propiedad de su familia, tenía unos llanos
muy adecuados para la práctica del vuelo y se encontraba a unos 2 km de la
estación de San Lázaro, en la linea de ferrocarril que unía la Ciudad de México
con el puerto de Veracruz.
Allí mandó construir un hangar donde se armaría el aeroplano, una vez este llegó
a Veracruz y fue trasladado en tren. Entre Braniff, el mecánico llegado de la
fábrica apellidado Ploquin, un carpintero y el chofer de Braniff, armaron el avión.
El aeroplano es un gran medio de transporte tanto de carga como de personas,
sólo que no se tiene la misma accesibilidad para viajar en aeroplano que en
automóvil, o en su caso, autobús. El avión actual está diseñado para recorrer
grandes distancias a muy corto tiempo comparado con transportes anteriores,
tales como el ferrocarril o el barco.

Potabilización del agua


Se denomina agua potable o agua para consumo humano también responsable de
toda la vida en el mundo sin ella no existiría nada, el agua que puede ser
consumida sin restricción. El término se aplica al agua que cumple con las normas
de calidad promulgadas por las autoridades locales e internacionales.
Los egipcios fueron los primeros en utilizar métodos para el tratamiento del agua.
Estos registros datan de hace más de 1,500 años hasta el 400 A.C. Los mismos
indican que las formas más comunes de purificación del agua eran hirviéndola
sobre el fuego, calentándola al sol o sumergiendo una pieza de hierro caliente
dentro de la misma. Otro de los métodos más comunes era el filtrado del agua
hervida a través de arena o grava para luego dejarla enfriar.

Agua potable en México

360
Las condiciones bajo las cuales se han provisto los servicios de agua potable y
saneamiento en México han sido una mímica de las tensiones políticas entre las
autoridades municipales y federales. Cuando los servicios eran una
responsabilidad rentable, la federación ansiaba esa recaudación; una vez teniendo
la responsabilidad, decidió regresarla a los municipios, también por cuestiones
presupuestarias. A pesar de esos vaivenes, se cuenta con una cobertura
razonable de los servicios de agua potable y saneamiento, aunque la desigualdad
social se observa incluso dentro de una misma localidad. En ese aspecto, una
solución viable es la aplicación de subsidios cruzados en cada localidad: los
fondos requeridos para que los ciudadanos de escasos recursos paguen las tarifas
justas pueden provenir de los estratos pudientes de la sociedad.
El agua potable es un recurso indispensable para la vida, ya que con ella hacemos
todo, limpiar, lavar, consumo humano, etc. por lo tanto se debe crear conciencia
para cuidarla y en un futuro no muy lejano no falte.

Electrónica
La electrónica es la rama de la física y especialización de la ingeniería, que
estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el
control del flujo microscópico de los electrones u otras partículas cargadas
eléctricamente.
Con el transistor se permitió aún una mayor miniaturización de aparatos tales
como las radios. El transistor de unión apareció algo más tarde, en 1949. Este es
el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la
electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y
fragilidad, mayor rendimiento energético, menores tensiones de alimentación, etc.
El transistor no funciona en vacío como las válvulas, sino en un estado sólido
semiconductor (silicio), razón por la que no necesita centenares de voltios de
tensión para funcionar.
En 1958 se desarrolló el primer circuito integrado, que alojaba seis transistores en
un único chip. En 1970 se desarrolló el primer microprocesador, Intel 4004. En la
actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha
dividido en varias disciplinas especializadas. La mayor división es la que distingue
la electrónica analógica de la electrónica digital.
La electrónica es, por tanto, una de las ramas de la ingeniería con mayor
proyección en el futuro.
La electrónica desarrolla en la actualidad una gran variedad de tareas. Los
principales usos de los circuitos electrónicos son el control, el procesado, la
distribución de información, la conversión y la distribución de la energía eléctrica.
Estos dos usos implican la creación o la detección de campos electromagnéticos y
corrientes eléctricas. Entonces se puede decir que la electrónica abarca en

361
general las siguientes áreas de aplicación: electrónica de control,
telecomunicaciones y electrónica de potencia.
La electrónica, al igual que la electricidad, ha contribuido para los grandes
desarrollos de tecnologías, es por eso que no nos extendimos tanto en este tema
debido a que tiene mucha relación con la mayoría de los inventos.

Radio / TV
El radio y la televisión fueron los mejores agentes sociales del siglo XX, abriendo
ventanas en áreas remotas del mundo. Del telégrafo inalámbrico a los sistemas de
satélite, los ingenieros han desarrollado tecnologías importantes que informan y
entretienen a millones de personas.
El receptor de radio es el dispositivo electrónico que permite la recuperación de las
señales vocales o de cualquier otro tipo, transmitidas por un emisor de radio
mediante ondas electromagnéticas.
La radio es un medio de difusión masivo que llega al radio-escucha de forma
personal, es el medio de mayor alcance, ya que llega a todas las clases sociales
por lo que establece un contacto más personal ya que ofrece al radio-escucha
cierto grado de participación en el acontecimiento o noticia que se está
transmitiendo.
Un receptor de radio consiste en un circuito eléctrico, diseñado de tal forma que
permite filtrar o separar una corriente pequeñísima, que se genera en la antena,
por efecto de las ondas electromagnéticas que llegan por el aire normalmente
(aunque viajan por cualquier medio, inclusive el vacío) y luego amplificarla
selectivamente, miles de veces, para enviarla hacia un elemento con un
electroimán, que es el altavoz (o parlante), donde se transforma la información
eléctrica en sonido.
Existen en el México más de 1332 emisoras de radio, 853 en Amplitud Modulada
(AM) y 479 en Frecuencia Modulada (FM).
En México todas las estaciones comerciales de radio requieren una concesión por
parte de la Secretaría de Comunicaciones y Transportes.
El 17 de Septiembre de 1902, Porfirio Díaz, entonces presidente de México,
anunció en el Congreso las primeras pruebas de telegrafía sin hilos en Veracruz.
Durante los siguientes cuatro años la dirección General de Telégrafos Nacionales
instalaría transmisores en diversas partes del país. Para 1911, la Red de Radio
Nacional contaba con nueve estaciones que aseguraban la comunicación con
otras naciones del Continente, número que iba a seguir creciendo en los próximos
años.
La noche del 27 de Septiembre de 1921 fue una fecha significativa para los inicios
de la radio en México. Pues fue cuando la cabina construida en la planta baja del

362
desaparecido Teatro ideal en la Ciudad de México, dio origen al primer programa
radiofónico. La estación era propiedad de los hermanos Pedro y Adolfo Gómez,
así como de Francisco Barra Villela.

La televisión es un sistema para la transmisión y recepción de imágenes en


movimiento y sonido a distancia.
Esta transmisión puede ser efectuada mediante ondas de radio o por redes
especializadas de televisión por cable. El receptor de las señales es el televisor.
En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de
televisión de los inicios del siglo XX y en 1925 el inventor escocés John Logie
Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y
otro en el receptor, que estaban unidos al mismo eje para que su giro fuera
síncrono y separados 2 m.
Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en
1927 y la CBS y NBC en Estados Unidos en 1930. En ambos casos se utilizaron
sistemas mecánicos y los programas no se emitían con un horario regular.
Es a mediados del siglo XX donde la televisión se convierte en bandera
tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV
nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de
Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos
años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces
con satélites geoestacionarios cubriendo todo el mundo.
En 1940, el mexicano Guillermo González Camarena patenta, en México y
EE.UU., un Sistema Tricromático Secuencial de Campos.
Los primeros pasos de la televisión en México, en su etapa experimental, se
remontan al año 1934. Un joven de 17 años, estudiante del Instituto Politécnico
Nacional, realiza experimentos con un sistema de televisión de circuito cerrado, en
un pequeño laboratorio montado en las instalaciones de la estación de radio
XEFO. Durante varios años, el ingeniero Guillermo González Camarena trabaja
con el equipo que él mismo ha construido, hasta que, en 1939, cuando la
televisión en blanco y negro ya funciona en algunos países, González Camarena
impacta al mundo al inventar la televisión en color, gracias a su Sistema
Tricromático Secuencial de Campos.
La primera transmisión en blanco y negro en México, se lleva a cabo el 19 de
agosto de 1946, desde el cuarto de baño de la casa número 74 de las calles de
Havre en la capital del país, lugar de residencia del ingeniero Guillermo González
Camarena. Fue tal el éxito, que el 7 de septiembre de ese año, a las 20:30 h, se
inaugura oficialmente la primera estación experimental de televisión en
Latinoamérica; XE1GC. Esta emisora transmitió los sábados, durante dos años, un
programa artístico y de entrevistas.

363
El primer canal comercial de televisión en México y América Latina se inaugura el
31 de agosto de 1950, un día después, el 1 de septiembre, se transmite el primer
programa, con la lectura del IVº Informe de Gobierno del Presidente de México,
Lic. Miguel Alemán Valdés, a través de la señal de XHTV-TV Canal 4 de la familia
O'Farrill.
Como dato curioso agregamos que México es el tercer país en consumo
televisivo, sólo detrás de potencias económicas como China y los Estados Unidos
de Norteamérica. También en 1962, Canal 5 transmitió el primer programa en
color en la historia de la televisión de México: Paraíso infantil.
La televisión y la radio han sido fundamentales para la comunicación masiva y el
entretenimiento de la humanidad, ya que en estos medios se transmiten noticias
en tiempo real lo cual no era posible con los medios impresos como revistas o
periódicos.
Mecanización de la agricultura

La agricultura es el conjunto de técnicas y conocimientos para cultivar la tierra. En ella se


engloban los diferentes trabajos de tratamiento del suelo y cultivo de vegetales.
Comprende todo un conjunto de acciones humanas que transforma el medio ambiente
natural, con el fin de hacerlo más apto para el crecimiento de las siembras.

Se agrupa bajo el concepto general de maquinaria agrícola a toda la serie de máquinas y


equipos que utilizan los agricultores en sus labores agrícolas.

Una máquina agrícola es aquella que tiene autonomía de funcionamiento y, por tanto,
está dotada de un motor de combustión y unos mecanismos de transmisión que la
permiten desplazarse por el campo cuando desarrolla el trabajo.

Con la llegada de la Revolución industrial y del desarrollo de máquinas más complejas,


los métodos de cultivo dieron un gran paso adelante. En vez de cosechar el grano a mano
con una hoja afilada, las máquinas con ruedas hacían una siega continua, y en vez de
trillar el grano batiéndolo con rastrillos, las máquinas trilladoras separaban las semillas de
las cabezas y de los tallos.

La gasolina, y los motores diesel posteriores se convirtieron en la principal fuente de


energía para la siguiente generación de tractores. Estos motores también contribuyeron al
desarrollo de la máquina segadora autopropulsada y de la trilladora, y posteriormente la
cosechadora combinada. En vez de cortar las espigas del grano y transportarlas a una
máquina trilladora inmóvil, estas cosechadoras combinan el corte, trillado, y separado del
grano mientras se mueven continuamente a través del campo de cultivo.

Las máquinas agrícolas más comunes son:

Tractor: es una máquina agrícola muy útil, con ruedas o cadenas diseñadas para moverse
con facilidad en el terreno y potencia de tracción que permite realizar grandes tareas
agrícolas, aun en terrenos encharcados. Tiene dos pedales de freno y está

364
acondicionando para halar rastras. Hay dos tipos de tractores: el de oruga, de gran
estabilidad y fuerza, y el de ruedas, capaz de desplazarse hasta por carreteras; posee
mayor velocidad que el de oruga.

Cosechadora: o segadora es una máquina agrícola de motor potente, peine cortador para
segar las plantas maduras de cereales y un largo rastrillo que va delante de la máquina y
gira sobre un eje horizontal.

La maquinaria del campo incrementó dramáticamente la eficiencia del campo y su


productividad en el siglo XX. En EU, al comienzo del siglo XX, cuatro granjeros podían
alimentar a diez personas. Al final del siglo, con las innovaciones de ingeniería en la
maquinaria, un solo granjero puede alimentar a más de cien personas.

Computadora

Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal


manera, que se realice un procesamiento sobre un conjunto de datos de entrada,
obteniéndose otro conjunto de datos de salida.

La historia de la computadora se divide en seis generaciones que son:

Primera Generación

En esta generación había una gran desconocimiento de las capacidades de las


computadoras, puesto que se realizó un estudio en esta época que determinó que con
veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de
procesamiento de datos.

Esta generación abarco la década de los cincuenta. Y se conoce como la primera


generación. Estas máquinas tenían las siguientes características: estas máquinas estaban
construidas por medio de tubos de vacío y eran programadas en lenguaje de máquina
aparte eran grandes y costosas.

Segunda Generación

Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su


tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a
definir la forma de comunicarse con las computadoras, que recibía el nombre de
programación de sistemas.

Las características de la segunda generación son las siguientes:

• Están construidas con circuitos de transistores.


• Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su
época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Tercera generación

365
La tercera generación surge con la IBM 360 en abril de 1964. Las características de esta
generación fueron las siguientes:

• Su fabricación electrónica esta basada en circuitos integrados.


• Su manejo es por medio de los lenguajes de control de los sistemas operativos.
Cuarta generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son


circuitos integrados de alta densidad y con una velocidad impresionante. Las
microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas,
por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras
personales que han adquirido proporciones enormes y que han influido en la sociedad en
general sobre la llamada "revolución informática".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso


masivo y más tarde forman la compañía conocida como la Apple que fue la segunda
compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún
de las cinco compañías más grandes del mundo.

Quinta generación

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras",


con los objetivos explícitos de producir máquinas con innovaciones reales en los
criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en
desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente
manera:

• Procesamiento en paralelo mediante arquitecturas y diseños especiales y


circuitos de gran velocidad.
• Manejo de lenguaje natural y sistemas de inteligencia artificial.

Actualmente nos encontramos en la sexta generación.

La computadora ha transformado los negocios alrededor del mundo incrementando la


productividad y abriendo acceso a gran cantidad de conocimiento. Las computadoras han
liberado al ser humano de varias rutinas de trabajo diario y ha traído nuevas formas de
manejar otras más complejas. La ingeniería ha impulsado ésta revolución y continúa
mejorando las computadoras haciéndolas más rápidas y capaces.

Teléfono

366
El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales
acústicas por medio de señales eléctricas a distancia. Muy parecido al teletrófono.

Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono,
junto con Elisha Gray. Sin embargo Bell no fue el inventor de este aparato, sino solamente
el primero en patentarlo. Esto ocurrió en 1876. El 11 de junio de 2002 el Congreso de
Estados Unidos aprobó la resolución 269, por la que se reconocía que el inventor del
teléfono había sido Antonio Meucci, que lo llamó teletrófono, y no Alexander Graham Bell.
En 1871 Meucci sólo pudo, por dificultades económicas, presentar una breve descripción
de su invento, pero no formalizar la patente ante la Oficina de Patentes de Estados
Unidos.

La historia del teléfono en México se remonta a la fecha 15 de diciembre del año 1878, al
establecerse oficialmente el servicio telefónico en México, la compañía seleccionada para
la construcción de una red telefónica que uniera a las comisarías de policía, la inspección
general, la oficina del gobernador de la ciudad y el ministerio de gobernación fue Alfred
Westrup & Co.

Con las ventajas ofrecidas el teléfono dejo de ser uso exclusivo de la policía y el ejército, y
paso a dar concesiones para instalar cableado público, iniciando la carrera por instalar
cableado a lo largo de la republica mexicana y por tal, el nacimiento de compañías
telefónicas, como es el caso de la Compañía Telefónica Mexicana (Mextelco) formada el
18 de julio de 1882.

A finales de la década de los cuarenta, en México se vivía un proceso de industrialización


acelerado; bajo ese marco, el 23 de diciembre de 1947 se constituyó Teléfonos de
México, S. A. (Telmex). Iniciando operaciones el 1 de enero de 1948. El intento de
mantener una empresa por mexicanos y para los mexicanos tuvo su inicio en el verano de
1958, a través de una reunión para acordar el precio de intercambio de la compañía, así
en agosto del mismo año, con lo cual Ericcson dejaba de operar en México después de 50
años.

El teléfono es la piedra angular de la vida moderna. Las conexiones casi instantáneas


permiten la comunicación auditiva que mejora nuestras vidas y los procesos industriales y
comerciales. Con innovaciones importantes, la ingeniería ha mejorado la comunicación
telefónica cambiando de alambre de cobre a fibra óptica, y de tableros de switcheo a
satélites

Aire acondicionado

El acondicionamiento del aire es el proceso que enfría, limpia y circula el aire,


controlando, además, su contenido de humedad. En condiciones ideales logra todo esto
de manera simultánea.

367
Como enfriar significa eliminar calor, otro término utilizado para decir refrigeración, el aire
acondicionado, obviamente este tema incluye a la refrigeración.

El acondicionador de aire o clima toma aire del interior de una recamara pasando por
tubos que están a baja temperatura estos están enfriados por medio de un liquido que a
su vez se enfría por medio del condensador, parte del aire se devuelve a una temperatura
menor y parte sale expulsada por el panel trasero del aparato, el termómetro esta en el
panel frontal para que cuando pase el aire calcule al temperatura a la que está el
ambiente dentro de la recamara, y así regulando que tan frío y que tanto debe trabajar el
compresor y el condensador.

En 1921, Willis Haviland Carrier patentó la Máquina de Refrigeración Centrífuga.


También conocida como enfriadora centrífuga o refrigerante centrifugado, fue el primer
método para acondicionar el aire en grandes espacios.
Las máquinas anteriores usaban compresores impulsados por pistones para bombear a
través del sistema el refrigerante, a menudo amoníaco, tóxico e inflamable. Carrier diseñó
un compresor centrífugo similar a las paletas giratorias de una bomba de agua. El
resultado fue un enfriador más seguro y eficiente.

En 1928, Willis Haviland Carrier desarrolló el primer equipo que enfriaba, calentaba,
limpiaba y hacía circular el aire para casas y departamentos, pero la Gran Depresión en
los Estados Unidos puso punto final al aire acondicionado en los hogares. Las ventas de
aparatos para uso residencial no empezaron hasta después de la Segunda Guerra
Mundial. A partir de entonces, el confort del aire acondicionado se extendió a todo el
mundo.

El aire acondicionado y la refrigeración cambiaron tremendamente la vida del siglo XX.


Docenas de innovaciones de ingeniería hicieron posible el transporte y almacenamiento
de comida fresca a personas que viven especialmente en lugares con climas calurosos.
Estas personas gozan de mejor vida al tener un clima más agradable que permite
desarrollar las actividades de la vida cotidiana.

Carreteras

Una carretera es una vía de dominio y uso público, proyectada y construida


fundamentalmente para la circulación de vehículos automóviles. Existen diversos tipos de
carreteras, aunque coloquialmente se usa el término carretera para definir a la carretera
convencional que puede estar conectada, a través de accesos, a las propiedades
colindantes, diferenciándolas de otro tipo de carreteras, las autovías y autopistas, que no
pueden tener pasos y cruces al mismo nivel. Las carreteras se distinguen de un simple
camino porque están especialmente concebidas para la circulación de vehículos de
transporte. En algunos países del sur de Sudamérica, como Paraguay, Argentina y
Uruguay, se las conoce como rutas.

368
La construcción de carreteras requiere la creación de una superficie continua, que
atraviese obstáculos geográficos y tome una pendiente suficiente para permitir a los
vehículos o a los peatones circular y cuando la ley lo establezca deben cumplir una serie
de normativas y leyes o guías oficiales que no son de obligado cumplimiento. El proceso
comienza a veces con la retirada de vegetación (desbroce) y de tierra y roca por
excavación o voladura, la construcción de terraplenes, puentes y túneles, seguido por el
extendido del pavimento. Existe una variedad de equipo de movimiento de tierras que es
específico de la construcción de vías.

El automóvil había hecho su aparición en México en 1906, trayendo consigo la revolución


de los viejos conceptos del transporte; sin embargo, en nuestro país no significó ninguna
mejora para los caminos existentes; como estaban continuaron prestando servicio a los
vehículos de motor y a los de tracción animal. En el México de 1925, los automovilistas se
limitaban a transitar por las calles y calzadas urbanas. El transporte de personas y
mercancías de una ciudad a otra, tenía que hacerse utilizando el ferrocarril, muy
deteriorado en aquellos días. Mientras en nuestro país se desarrollaba la lucha
revolucionaria, en Norteamérica y Europa la industria automotriz y las redes camineras
crecían con rapidez. En otros países los caminos se fueron modificando de manera
gradual y las normatividades para la circulación de carruajes, se transformaron en
reglamentaciones para el tránsito de automóviles. Al paso de unos cuantos años el
automóvil empezó a evolucionar sobre todo en cuanto a velocidad; a partir de entonces,
los caminos de México empezaron a volverse obsoletos.

Las carreteras ayudan a disfrutar uno de los más preciados valores: la libertad de
movilidad personal. Miles de ingenieros construyen carreteras, puentes y túneles que
conectan a las poblaciones, permitiendo el abasto de enseres y servicios.

Exploración espacial

La exploración espacial designa los esfuerzos del hombre en estudiar el espacio y sus
astros desde el punto de vista científico y de su explotación económica.

Estos esfuerzos pueden involucrar tanto seres humanos viajando en naves espaciales
como satélites con recursos de telemetría o sondas teleguiadas enviadas a otros planetas
(orbitando o aterrizando en la superficie de estos cuerpos celestes).

La URSS comenzó su programa espacial con una gran ventaja sobre los EE. UU. Esto
ocurrió porque, debido a problemas técnicos para fabricar arcos nucleares más débiles,
los misiles lanzadores intercontinentales de la URSS eran inmensos y potentes
comparados con sus similares estadounidenses. Así, los cohetes para su programa
espacial ya estaban listos como resultado del esfuerzo militar soviético resultante de la
guerra fría.

Como consecuencia, los soviéticos fueron capaces de enviar el primer satélite artificial en
órbita (el Sputnik, de casi 84 kg) y el primer hombre, Yuri Gagarin.

369
El lanzamiento del Sputnik fue parte de un esfuerzo de preparación de la URSS para
enviar misiones tripuladas al espacio. Consistió en ocho vuelos no tripulados: Sputnik 1,
Sputnik 2, Sputnik 3, Sputnik 4, Sputnik 5, Korabl-Sputnik-3, Korabl-Sputnik-4 y Korabl-
Sputnik-5. Los dos últimos usando naves Vostok y ya con patrón compatible al envío de
humanos al espacio.

Su programa espacial incluía planos para llevar hombres a Luna (este programa se
llamaba Lunar L1). La prueba de esto es la existencia de un módulo lunar soviético,
llamado LK lander, pero cuya existencia era desconocida hasta hace poco en Occidente.

Mucho del atraso inicial del programa espacial de los EE. UU. se puede atribuir a un error
estratégico de invertir inicialmente en los lanzadores Vanguard, más complejos y menos
confiables que los lanzadores Redstone (basados en las antiguas V-2 alemanas). Esto
acarreó que la capacidad de lanzamiento estadounidense era de 5 kg en el momento en
que la Sputnik I, de 84 kg pero con capacidad de 500 kg, fue recién lanzada por la URSS.

En julio de 1958 se crea la agencia espacial de los EE.UU., la NASA, responsable de


coordinar todo el esfuerzo estadounidense de exploración espacial y administrar el
programa espacial de los EE.UU.

Los EE. UU. lograron en su objetivo de alcanzar la Luna antes que la URSS, en 1969, con
el Proyecto Apollo. Este proyecto envolvió un extraordinario esfuerzo económico de 20
billones de dólares, 20 mil compañías que desarrollaron/fabricaron componentes y piezas,
y 300 mil trabajadores.

Desde la prueba de lanzamiento de cohetes hasta el lanzamiento de naves espaciales, la


exploración del espacio es quizás una de las más sorprendentes obras de ingeniería del
siglo XX. Miles de productos y servicios han sido resultado de los programas espaciales,
incluyendo dispositivos médicos, mediciones meteorológicas y comunicaciones vía
satélite.

Internet

Internet es un conjunto descentralizado de redes de comunicación interconectadas que


utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas
que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes
se remontan a 1969, cuando se estableció la primera conexión de computadoras,
conocida como ARPANET, entre tres universidades en California y una en Utah, Estados
Unidos.

La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer


enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica
conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y
organizaciones desde 1959 (ver Arpanet). El mito de que ARPANET, la primera red, se
construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin

370
embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para
sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de
conmutación eran poco fiables.

Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy
concreto: búsquedas de información, generalmente.

Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red,
debido al inmenso abanico de posibilidades que brinda la red. Hoy en día, la sensación
que produce Internet es un ruido, una serie de interferencias, una explosión o cúmulo de
ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas
posibilidades que, en ocasiones, puede resultar excesivo.

El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles
de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un
planeta extremadamente conectado entre sí entre todos sus miembros.

Durante los finales de los años ochenta se formaron las primeras compañías Internet
Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se
formaron para ofrecer servicios a las redes de investigación regional y dar un acceso
alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de
marcaje telefónico, world.std.com, se inauguró en 1989.

Correo electrónico, o en inglés e-mail, es un servicio de red que permite a los usuarios
enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o
cartas electrónicas) mediante sistemas de comunicación electrónicos. Por medio de
mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de
documentos digitales. Su eficiencia, conveniencia y bajo costo, están logrando que el
correo electrónico desplace al correo ordinario para muchos usos habituales.

La historia del Internet en México empieza en el año de 1989 con la conexión del Instituto
Tecnológico y de Estudios Superiores de Monterrey, en el Campus Monterrey, ITESM
hacia la Universidad de Texas en San Antonio, específicamente a la escuela de Medicina.
Una Línea privada analógica de 4 hilos a 9600 bits por segundo fue el enlace.

El segundo nodo Internet en México fue la Universidad Nacional Autónoma de México, en


el Instituto de Astronomía en la Ciudad de México. Esto mediante una conexión vía
satélite de 56 Kbps, con el Centro Nacional de Investigación Atmosférica de Boulder,
Colorado, en los Estados Unidos de Norteamérica. Por lo tanto, se trataba de una línea
digital.

En Diciembre de 1995 se hace el anuncio oficial del Centro de Información de Redes de


México el cual se encarga de la coordinación y administración de los recursos de Internet
asignados a México, tales como la administración y delegación de los nombres de
dominio ubicados bajo .MX.

371
El internet está cambiando las prácticas del comercio, la educación y las comunicaciones.
Con el acceso global a las noticias, negocios y gran cantidad de información, el internet
ha conectado más a las personas añadiendo convivencia y eficiencia en nuestras vidas.

Tecnologías de imágenes.

Se llama análisis de imágenes a la extracción de información derivada de sensores y


representada gráficamente en formato de dos o tres dimensiones, para lo cual se puede
utilizar tanto análisis visual como digital. Abarca la fotografía en blanco y negro y color,
infrarroja, imágenes satelitales, de radar, radar de alta definición, ultrasonido,
electrocardiogramas, electroencefalogramas, resonancia magnética, sismogramas y otros.

En la Segunda Guerra Mundial se introdujo el radar con su capacidad para detectar


aviones enemigos. En los primeros años de la guerra fría, los soviéticos, al detectar
aviones de vigilancia, hacían uso de transmisores direccionales para atraerlos a su
espacio aéreo con la intención de derribarlos. Las pantallas circulares ya se usaban en los
aviones de mayor tamaño. Haciendo uso de la pantalla, era posible navegar estas áreas
peligrosas. De hecho, hay fotos publicadas por la Fuerza Aérea de los Estados Unidos
donde se muestra esta práctica.

Los primeros en usar de esta nueva tecnología serían de la inteligencia americana y los
investigadores científicos quienes refinarían esta tecnología, resultando en la tomografía
computarizada. Otra tecnología seria la del ecocardiograma que haría posible el ver
movimientos cardíacos y el flujo cardíaco. Otro adelanto seria la introducción de la
resonancia magnética cuyas imágenes revelarían anomalías en tejidos humanos y flujo
sanguíneos. También se podría ver evidencia de daños en la espina dorsal y aun
procesos neuroquímicos cerebrales. En el presente los científicos están explorando el uso
de nuevas tecnologías que hagan uso de más sectores del espectro electromagnético
como las imágenes de rayos X.

La aplicación más importante ha sido la de la investigación médica. Las avances han


fomentado una mejor comprensión del cuerpo humano, el diagnostico y el tratamiento. El
único problema es que al aumentar la capacidad diagnostica, el evitar la impericia médica
exige un régimen costoso de parte del paciente y su seguro medico. Esta tendencia no
cambiara. El lado positivo de desarrollar nuevas tecnologías y imágenes es que resulta en
nuevas observaciones que aumentan la eficacia del crecimiento en la investigación
médica que a su vez produce mejores diagnósticos y tratamientos.

Desde los pequeños átomos a las galaxias distantes, la tecnología de imágenes se ha


expandido para alcanzar nuestra visión. El ultrasonido que sondea el cuerpo humano, el
mapeo del fondo de los océanos, y los pronósticos del tiempo son algunos ejemplos de
los avances de la tecnología de imágenes.

372
Aparatos electrodomésticos.

Un electrodoméstico es una máquina que realiza algunas tareas domésticas rutinarias,


como pueden ser cocinar, conservar los alimentos, o limpiar, tanto para un hogar como
para instituciones, comercios o industria.

Existen dos tipos de líneas de electrodomésticos: la línea blanca y la línea marrón.

La línea marrón hace referencia al conjunto de electrodomésticos de vídeo y audio. Este


tipo de electrodoméstico se distribuye en un 44% del total del mercado en comercios
afiliados. Así, los mayores crecimientos en ventas de los últimos años se han producido
en reproductores de DVD y 'Home cinema'. La aparición de las pantallas de televisión de
plasma promete una revolución similar en los próximos años.

Esta categoría incluye:

• Televisor / Televisión
• Reproductor de audio
• Reproductor de vídeo
• Cadena de música
• Reproductor de DVD
• Home cinema

373
MOTOR ELECTRICO movimiento circular que se observa
en el rotor del motor.
Un motor eléctrico es una máquina
Partiendo del hecho de que cuando
eléctrica que transforma energía
pasa corriente por un conductor
eléctrica en energía mecánica por
produce un campo magnético,
medio de interacciones
además si lo ponemos dentro de la
electromagnéticas. Algunos de los
acción de un campo magnético
motores eléctricos son reversibles,
potente, el producto de la interacción
pueden transformar energía
de ambos campos magnéticos hace
mecánica en energía eléctrica
que el conductor tienda a desplazarse
funcionando como generadores. Los
produciendo así la energía mecánica.
motores eléctricos de tracción usados
Dicha energía es comunicada al
en locomotoras realizan a menudo
exterior mediante un dispositivo
ambas tareas, si se los equipa con
llamado flecha.
frenos regenerativos.
Ventajas
Son ampliamente utilizados en
instalaciones industriales,
En diversas circunstancias presenta
comerciales y particulares. Pueden
muchas ventajas respecto a los
funcionar conectados a una red de
motores de combustión:
suministro eléctrico o a baterías. Así,
en automóviles se están empezando
• A igual potencia, su tamaño y
a utilizar en vehículos híbridos para
peso son más reducidos.
aprovechar las ventajas de ambos.
• Se pueden construir de
cualquier tamaño.
Principio de funcionamiento
• Tiene un par de giro elevado y,
según el tipo de motor,
Los motores de corriente alterna y los
prácticamente constante.
de corriente continua se basan en el
• Su rendimiento es muy
mismo principio de funcionamiento, el
elevado (típicamente en torno
cual establece que si un conductor
al 75%, aumentando el mismo
por el que circula una corriente
a medida que se incrementa la
eléctrica se encuentra dentro de la
potencia de la máquina).
acción de un campo magnético, éste
• Este tipo de motores no emite
tiende a desplazarse
contaminantes, aunque en la
perpendicularmente a las líneas de
generación de energía
acción del campo magnético.
eléctrica de la mayoría de las
redes de suministro se emiten
El conductor tiende a funcionar como
contaminantes.
un electroimán debido a la corriente
eléctrica que circula por el mismo
adquiriendo de esta manera
propiedades magnéticas, que
provocan, debido a la interacción con
los polos ubicados en el estator, el

374
eléctrico de corriente continua cuya
excitación es originada por dos
Motores de corriente continua bobinados inductores independientes;
uno dispuesto en serie con el
Los motores de corriente continua se
bobinado inducido y otro conectado
clasifican según la forma como estén
en derivación con el circuito formado
conectados, en:
por los bobinados: inducido, inductor
Motor seria serie e inductor auxiliar.

El motor serie o motor de excitación Los motores compuestos tienen un


en serie, es un tipo de motor eléctrico campo serie sobre el tope del
de corriente continua en el cual el bobinado del campo shunt. Este
inducido y el devanado inductor o de campo serie, el cual consiste de
excitación van conectados en serie. pocas vueltas de un alambre grueso,
Por lo tanto, la corriente de excitación es conectado en serie con la
o del inductor es también la corriente armadura y lleva la corriente de
del inducido absorbida por el motor. armadura.

Las principales características de El flujo del campo serie varia


este motor son: directamente a medida que la
corriente de armadura varía, y es
- Se embala cuando funciona en directamente proporcional a la carga.
vacío, debido a que la velocidad de El campo serie se conecta de manera
un motor de corriente contínua tal que su flujo se añade al flujo del
aumenta al disminuir el flujo inductor campo principal shunt. Los motores
y, en el motor serie, este disminuye al compound se conectan normalmente
aumentar la velocidad, puesto que la de esta manera y se denominan
intensidad en el inductor es la misma como compound acumulativo.
que en el inducido.
Esto provee una característica de
- La potencia es casi constante a velocidad que no es tan “dura” o
cualquier velocidad. plana como la del motor shunt, ni tan
“suave” como la de un motor serie.
- Le afectan poco la variaciones Un motor compound tiene un limitado
bruscas de la tensión de rango de debilitamiento de campo; la
alimentación, ya que un aumento de debilitación del campo puede resultar
esta provoca un aumento de la en exceder la máxima velocidad
intensidad y, por lo tanto, del flujo y segura del motor sin carga. Los
de la fuerza contraelectromotriz, motores de corriente continua
estabilizandose la intensidad compound son algunas veces
absorbida. utilizados donde se requiera una
respuesta estable de par constante
para un rango de velocidades amplio.
Motor compound
El motor compound es un motor de
Un motor compound (o motor de excitación o campo independiente
excitación compuesta) es un Motor con propiedades de motor serie. El
375
motor da un par constante por medio Es el tipo de motor de corriente
del campo independiente al que se continua cuya velocidad no disminuye
suma el campo serie con un valor de mas que ligeramente cuando el par
carga igual que el del inducido. aumenta. Los motores de corriente
Cuantos más amperios pasan por el continua en derivación son
inducido mas campo serie se origina adecuados para aplicaciones en
claro esta siempre sin pasar del donde se necesita velocidad
consumo nominal. constante a cualquier ajuste del
control o en los casos en que es
necesario un rango apreciable de
Motor shunt velocidades (por medio del control del
campo). El motor en derivación se
utiliza en aplicaciones de velocidad
constante, como en los
accionamientos para los generadores
de corriente continua en los grupos
motogeneradores de corriente
continua

Motor eléctrico sin escobillas

Motor eléctrico paralelo. Un motor eléctrico sin escobillas o


motor brushless es un motor eléctrico
El motor shunt o motor de excitación que no emplea escobillas para
en paralelo es un motor eléctrico de realizar el cambio de polaridad en el
corriente continua cuyo bobinado rotor.
inductor principal está conectado en
derivación o paralelo con el circuito Los motores eléctricos solían tener un
formado por los bobinados inducido e colector de delgas o un par de anillos
inductor auxiliar. rozantes. Estos sistemas, que
producen rozamiento, disminuyen el
Al igual que en los dinamos shunt, las rendimiento, desprenden calor y
bobinas principales están constituidas ruido, requieren mucho
por muchas espiras y con hilo de mantenimiento y pueden producir
poca sección, por lo que la partículas de carbón que manchan el
resistencia del bobinado inductor motor de un polvo que, además,
principal es muy grande. puede ser conductor.

En el instante del arranque, el par Los primeros motores sin escobillas


motor que se desarrolla es menor que fueron los motores de corriente
el motor serie, (también uno de los alterna asíncronos. Hoy en día,
componentes del motor de corriente gracias a la electrónica, se muestran
continua). Al disminuir la intensidad muy ventajosos, ya que son más
absorbida, el régimen de giro apenas baratos de fabricar, pesan menos y
sufre variación. requieren menos mantemiento, pero
su control era mucho más complejo.
Esta complejidad prácticamente se ha
376
eliminado con los controles en los alternadores. En este caso no
electrónicos. se evita el uso de anillos rozantes,
sino que se evita usar uno más
El inversor debe convertir la corriente robusto y que frenaría mucho el
alterna en corriente continua, y otra motor. Actualmente, los alternadores
vez en alterna de otra frecuencia. tienen el campo magnético inductor
Otras veces se puede alimentar en el rotor, que induce el campo
directamente con corriente continua, magnético al estator, que a la vez es
eliminado el primer paso. Por este inducido. Como el campo magnético
motivo, estos motores de corriente del inductor necesita mucha menos
alterna se pueden usar en corriente que la que se va generar en
aplicaciones de corriente continua, el inducido, se necesitan unos anillos
con un redimiento mucho mayor que con un rozamiento menor. Esta
un motor de corriente continua con configuración la usan desde
escobillas. Algunas aplicaciones pequeños alternadores de coche
serían los coches y aviones con hasta los generadores de centrales
radiocontrol, que funcionan con pilas. con potencias del orden del
megavatio.
Otros motores sin escobillas, que sólo
funcionan con corriente continua son Además de los anteriores, existe otro
los que se usan en pequeños tipo que es utilizado en electrónica:
aparatos eléctricos de baja potencia,
como lectores de CD-ROM,
ventiladores de ordenador, cassetes, Motor paso a paso
etc. Su mecanismo se basa en
sustituir la conmutación (cambio de El motor PaP es un dispositivo
polaridad) mecánica por otra electromecánico que convierte una
electrónica sin contacto. En este serie de impulsos eléctricos en
caso, la espira sólo es impulsada desplazamientos angulares discretos,
cuando el polo es el correcto, y lo que significa es que es capaz de
cuando no lo es, el sistema avanzar una serie de grados (paso)
electrónico corta el suministro de dependiendo de sus entradas de
corriente. Para detectar la posición de control. El motor paso a paso se
la espira del rotor se utiliza la comporta de la misma manera que un
detección de un campo magnético. convertidor digital-analógico y puede
Este sistema electrónico, además, ser gobernado por impulsos
puede informar de la velocidad de procedentes de sistemas lógicos.
giro, o si está parado, e incluso cortar
la corriente si se detiene para que no Este motor presenta las ventajas de
se queme. Tienen la desventaja de tener alta precisión y repetibilidad en
que no giran al revés al cambiarles la cuanto al posicionamiento. Entre sus
polaridad (+ y -). Para hacer el principales aplicaciones destacan
cambio se deberían cruzar dos como motor de frecuencia variable,
conductores del sistema electrónico. motor de corriente continua sin
escobillas, servomotores y motores
Un sistema algo parecido, para evitar controlados digitalmente.
este rozamiento en los anillos, se usa
377
Existen 3 tipos fundamentales de
motores paso a paso: el motor de
reluctancia variable, el motor de
magnetización permanente, y el
motor paso a paso híbrido. +Vcc -Vcc +Vcc -Vcc

Observese como la variación de la


dirección del campo magnético
creado en el estator producirá
movimiento de seguimiento por parte
del rotor de imán permanente, el cual +Vcc -Vcc
intentará alinearse con campo
magnético inducido por las bobinas
que excitan los electroimanes (en
este caso A y B). Vcc es la
alimentación de corriente continua
(por ejemplo 5V, 12V, 24V...) chato

Tabla de orden de fases. En este caso concreto -Vcc


el motor +Vcc +Vcc -Vcc
tendrá un paso angular de 90º y un semipaso de 45º (al
excitarse más de una bobina)

Termin Termin Termin Termin


al 1 al 2 al 1 al 2
Paso Imagen
Bobina Bobina Bobina Bobina
A A B B -Vcc +Vcc

Paso
+Vcc -Vcc
1
-Vcc +Vcc -Vcc +Vcc

378
Paso
-Vcc +Vcc
7

variación de la alimentación de
(Semi- corriente de la bobina A según los
)Paso +Vcc -Vcc -Vcc +Vcc transistores T1, T2, T3, T4
8
Velocidad de rotación

La velocidad de rotación viene


definida por la ecuación:
Control de las bobinas

Para el control del motor paso a paso


de este tipo (bipolar), se establece el
principio de "Puente H", si se activan
T1 y T4, permiten la alimentación en donde:
un sentido; si cambiamos el sentido
de la alimentación activando T2 y T3, • f: frecuencia del tren de
cambiaremos el sentido de impulsos
alimentación y el sentido de la • n: nº de polos que forman el
corriente. motor

Si bien hay que decir que para estos


motores, la máxima frecuencia
admisible suele estar alrededor de los
625 Hz. Si la frecuencia de pulsos es
demasiado elevada, el motor puede
reaccionar erróneamente en alguna
de las siguientes maneras:

• Puede que no realice ningún


movimiento en absoluto.
• Puede comenzar a vibrar pero
Topología de "puente en H" para las sin llegar a girar.
bobinas A y B • Puede girar erráticamente.
• O puede llegar a girar en
sentido opuesto.

379
lo importante es que también reluctancia variable e imán
coloquen a disposición un simulador permanente. Este tipo de motor tiene
o circuito para probar estos motores una alta precisión y alto par y se
paso a paso para descartar fallas en puede configurar para suministrar un
ello. paso angular tan pequeño como 1.8°.

Tipos de motores paso a paso Motores paso a paso Bipolares: Estos


[editar] tienen generalmente 4 cables de
salida. Necesitan ciertos trucos para
El motor de paso de rotor de imán ser controlados debido a que
permanente: Permite mantener un requieren del cambio de dirección de
par diferente de cero cuando el motor flujo de corriente a través de las
no está energizado. Dependiendo de bobinas en la secuencia apropiada
la construcción del motor, es para realizar un movimiento.
típicamente posible obtener pasos
angulares de 7.5, 11.25, 15, 18, 45 o Motores paso a paso unipolares:
90°. El ángulo de rotación se estos motores suelen tener 5 o 6
determina por el número de polos en cables de salida dependiendo de su
el estator conexioado interno. Este tipo se
caracteriza por ser más simple de
controlar.
El motor de paso de reluctancia
variable (VR): Tiene un rotor Motores de corriente alterna
multipolar de hierro y un estator
devanado laminado, y rota cuando los Los motores de C.A. se clasifican de
dientes del rotor son atraídos a los la siguiente manera:
dientes del estator
electromagnéticamente energizados. Asíncrono o de inducción
La inercia del rotor de un motor de
paso de reluctancia variable es Los motores asíncronos o de
pequeña y la respuesta es muy inducción son aquellos motores
rápida, pero la inercia permitida de la eléctricos en los que el rotor nunca
carga es pequeña. Cuando los llega a girar en la misma frecuencia
devanados no están energizados, el con la que lo hace el campo
par estático de este tipo de motor es magnético del estator. Cuanto mayor
cero. Generalmente, el paso angular es el par motor mayor es esta
de este motor de paso de reluctancia diferencia de frecuencias.
variable es de 15°
Jaula de ardilla

El motor híbrido de paso: Se Un rotor de jaula de ardilla es la parte


caracteriza por tener varios dientes que rota usada comúnmente en un
en el estator y en el rotor, el rotor con motor de inducción de corriente
un imán concéntrico magnetizado alterna. Un motor eléctrico con un
axialmente alrededor de su eje. Se rotor de jaula de ardilla también se
puede ver que esta configuración es llama "motor de jaula de ardilla". En
una mezcla de los tipos de su forma instalada, es un cilindro
380
montado en un eje. Internamente estrella o en triángulo. Las tensiones
contiene barras conductoras en cada fase en este caso son
longitudinales de aluminio o de cobre iguales al resultado de dividir la
con surcos y conectados juntos en tensión de línea por raíz de tres. Por
ambos extremos poniendo en ejemplo, si la tensión de línea es
cortocircuito los anillos que forman la 380 V, entonces la tensión de cada
jaula. El nombre se deriva de la fase es 220 V.
semejanza entre esta jaula de anillos
y barras y la rueda de un hámster Rotor Devanado
(ruedas probablemente similares
existen para las ardillas domésticas) El rotor devanado o bobinado, como
su nombre lo indica, lleva unas
Artículo principal: Jaula de ardilla bobinas que se conectan a unos
anillos deslizantes colocados en el
eje; por medio de unas escobillas se
conecta el rotor a unas resistencias
Monofásicos que se pueden variar hasta poner el
rotor en corto circuito al igual que el
• Motor de arranque a eje de jaula de ardilla.
resistencia. Posee dos bobinas
una de arranque y una bobina Monofásicos
de campo.
• Motor de arranque a • Motor universal
condensador. Posee un • Motor de Inducción-Repulsión.
capacitador electrolítico en
serie con la bobina de Trifásico
arranque la cual proporciona
más fuerza al momento de la • Motor de rotor devanado.
marcha y se puede colocar • Motor asíncrono
otra en paralelo la cual mejora • Motor síncrono
la reactancia del motor
permitiendo que entregue toda Síncrono
la potencia.
• Motor de marcha. En este tipo de motores y en
• Motor de doble capacitor. condiciones normales, el rotor gira a
• Motor de polos sombreados. las mismas revoluciones que lo hace
el campo magnético del estator.
Trifásicos
Cambio de sentido de giro
• Motor de Inducción.
Para efectuar el cambio de sentido de
A tres fases giro de los motores eléctricos de
corriente alterna se siguen unos
La mayoría de los motores trifásicos simples pasos tales como:
tienen una carga equilibrada, es
decir, consumen lo mismo en las tres
fases, ya estén conectados en
381
• Para motores monofásicos
únicamente es necesario
invertir las terminales del
devanado de arranque
• Para motores trifásicos
únicamente es necesario
invertir dos de las conexiones
de alimentación
correspondientes a dos fases
de acuerdo a la secuencia de
trifases.

Regulación de velocidad

En los motores asíncronos trifásicos


existen dos formas de poder variar la
velocidad, una es variando la
frecuencia mediante un equipo
electrónico especial y la otra es
variando la polaridad gracias al
diseño del motor. Esto último es
posible en los motores de devanado
separado, o los motores de conexión
Dahlander.

382
desarrollar su genialidad. El sufrió
una afección peculiar en la cual
haces de luz cegadores, podían
Nikola Tesla aparecer ante sus ojos, a menudo
acompañados de alucinaciones. La
El comienzo
mayor parte del tiempo las visiones
Nikola Tesla nació el 9 de julio de estaban asociadas a una palabra o
1856 en Smiljan, Croacia. Su padre, idea que podía haber captado. Por el
de nombre Milutin Tesla, era un solo hecho de escuchar el nombre de
clérigo ortodoxo que amaba una cosa, el podía verlo
profundamente a sus hijos y no involuntariamente en un detalle
obstante, mantenía una disciplina realista. Actualmente, la condición
dura con ellos. Su madre, de nombre llamada sinestesia presenta síntomas
Djuka, tenía una memoria pródiga a similares.
pesar de su analfabetismo. Se dice
Sus padres, al ser conscientes de su
que podía recitar largos poemas
precaria salud, querían que Nikola
clásicos que su marido le había
Tesla siguiera la carrera eclesiástica
enseñado. También, su madre era
de su padre, en un seminario
muy hábil en la construcción de
ortodoxo donde su delicada salud
"inventos" que ayudaran en el
sería atendida. Sin embargo, Nikola
quehacer doméstico, como por
Tesla hizo prometer a su padre que si
ejemplo un batidor de huevos
sobrevivía a los males que lo
mecánico; esto evidenciaba la fuente
aquejaban podría ingresar en
del carácter inventivo e ingenioso de
ingeniería.
Nikola Tesla.
Estudios académicos
Con tal herencia y circunstancias, era
más que de esperarse que el joven Nikola Tesla estudió ingeniería
Tesla desarrollara un hambre de eléctrica en la Universidad de Graz
conocimiento que lo llevaría muy en la ciudad del mismo nombre en
pronto a realizar pequeñas 1875. Algunas fuentes afirman que
invenciones como un motor recibió la licenciatura de la
impulsado con insectos o un molino Universidad de Graz. Sin embargo, la
de viento de palas lisas. universidad afirma que no recibió
ningún grado y que no continuó más
Desde los 12 años, Nikola Tesla
allá del segundo semestre del tercer
sorprendió a sus maestros con su
año, durante el cual suspendió sus
avanzada capacidad para las
estudios.
matemáticas. Tesla se ocupaba
leyendo muchas obras, memorizando En diciembre de 1878 dejo Graz y
libros completos, supuestamente rompió las relaciones con sus
tenía una memoria fotográfica. familiares. Sus amigos pensaban que
se había ahogado en el río Mura. Se
Sin embargo, el joven Nikola Tesla
dirigió a Maribor, (hoy Eslovenia),
era susceptible a los problemas de
donde obtuvo el primer empleo como
salud, los cuales desde muy corta
asistente de un ingeniero por un año.
edad le presentarían obstáculos para

383
Tesla fue posteriormente persuadido en un proyecto usando turbinas
por su padre para asistir a la gemelas para generar energía
Universidad Carolina en Praga, a la continua.
cual ingresó para el verano de 1880.
Aquí fue influenciado por Ernest Durate la apertura de la central
Mach. Sin embargo después que su telefónica en 1881 en Budapest,
padre falleció, dejó la Universidad, Tesla se había convertido en el
completando solamente un periodo. eléctrico en jefe de la compañía, y fue
más tarde ingeniero para el primer
Primeros estudios sobre la corriente sistema telefónico del país. También
alterna (AC) desarrolló un dispositivo que, de
acuerdo a algunos, era un repetidor
Mientras se encontraba en la telefónico o amplificador, pero según
Universidad de Gratz, Tesla otros pudo haber sido el primer
descubrió las limitaciones inherentes altavoz.
de los motores y generadores DC
debidas a la producción de chispas Tesla podía visualizar una invención
asociada con la acción colectora (la en su cerebro con precisión extrema,
interrupción de polaridad de corriente incluyendo todas las dimensiones,
en un motor para resguardar el antes de iniciar la etapa de
movimiento del arrollamiento construcción; una técnica algunas
inducido). Este descubrimiento veces conocida como pensamiento
convenció a Tesla de la necesidad de visual. Tesla acostumbraba a no
desarrollar motores y generadores de dibujar esquemas, en lugar de ello el
corriente alternante que no necesiten concebía todas las ideas con la
colectores. mente. También a menudo tenía
reminiscencias de eventos que le
En los años siguientes, Tesla se habían sucedido previamente en su
abocó a esta tarea. Rechazó la idea vida.
de su profesor, quien enseñaba a sus
alumnos que era imposible En 1882 Tesla se trasladó a París,
desarrollar motores y generadores Francia, para trabajar como ingeniero
AC. Su "instinto" le indicaba que el en la Continental Edison Company
profesor estaba equivocado. Tesla (una de las compañías de Thomas
jamás fallaba cuando se trataba de Alva Edison), diseñando mejoras para
resolver problemas científicos. Sin el equipo eléctrico, sacando a flote
embargo, tardó bastante en las ideas de Edison. En el mismo
desarrollar su teoría. año, Tesla concibió el motor de
inducción e inició el desarrollo de
Primeros empleos varios dispositivos que usaban el
campo magnético rotativo para el cual
En 1880, se trasladó a Budapest para
recibió la patente en 1888.
trabajar bajo las órdenes de Tivadar
Puskás en una compañía de Encuentro con Edison
telégrafos. Allá conoció a Nebojša
Petrović, un joven inventor serbio que En junio de 1884, Tesla llegó por
vivía en Austria. A pesar de que su primera vez a los Estados Unidos a la
encuentro fue breve, trabajaron juntos ciudad de Nueva York con pocos

384
haberes aparte de una carta de Tesla, necesitado de trabajo, se vio
recomendación de Charles Batchelor, abocado a cavar zanjas por un corto
un empleado antiguo. En la carta de periodo de tiempo para la compañía
recomendación a Tomas Edison, de Edison. El veía el trabajo manual
Batchelor escribió: “yo conozco a dos como una labor terrible, pero usó este
grandes hombres, usted es unos de tiempo para concentrarse en su
ellos; el otro es este joven”. Edison sistema polifásico de CA.
contrató a Tesla para trabajar en su
Edison Machine Works. Al no encontrar un puesto como
ingeniero, Tesla se vio forzado a
Empezó a trabajar para Edison como trabajar como obrero. A principios de
un simple ingeniero eléctrico y 1887, los comentarios sobre sus
progresó rápidamente, resolviendo proyectos con AC atrajeron a su
algunos de los problemas más capataz. El capataz también estaba
difíciles de la compañía. Se le ofreció obligado a realizar un trabajo por
entonces la tarea de rediseñar debajo de sus capacidades, y pronto
completamente los generadores de simpatizó con la situación de Tesla.
corriente directa de la compañía de Decidió recomendarlo a A. K. Brown
Edison. de la Western Union Telegraph
Company.
Tesla afirmaba que Edison le ofreció
50,000 dólares (1.1 millones de En abril, Brown y un amigo aportaron
dólares en 2007, ajustado por el dinero para crear la "Tesla Electric
inflación) si rediseñaba los motores y Light & Manufacturing". Casualmente,
generadores ineficientes de su el nuevo laboratorio de Tesla estaba
compañía, haciéndole mejoras tanto ubicado dentro de un edificio que
en servicio como en economía. Tesla pertenecía a Edison.
dijo que trabajó día y noche en el
proyecto y le dio a la compañía de Pronto Tesla construyó un generador
Edison algunas Patentes nuevas y AC de dos fases, el motor de
rentables durante el proceso. En inducción que había construido en
1885 cuando Tesla preguntó acerca Europa y otras máquinas que tenía
del pago por su trabajo, Edison en mente diseñar desde su
replicó, "Tesla, usted no entiende permanencia en Budapest. No sólo
nuestro humor americano," se concentró en sistemas de fase
rompiendo así su palabra. Ganando simple, bi-fásicos y tri-fásicos, sino
solo 18 dólares a la semana, Tesla que también experimentó con
tendría que haber trabajado por 53 dispositivos de 4 y hasta 6 fases.
años para devengar el monto que le También desarrolló la teoría
fue prometido. La oferta era igual al matemática necesaria para explicar la
capital inicial de la compañía. Tesla operación de sistemas AC, a fin de
entonces renunció de inmediato mostrar y hacer entender sus trabajos
cuando se rehusó a trabajar con un a otros científicos.
salario de 25 dólares a la semana.
Comprobada la eficiencia de sus
La compañía eléctrica Tesla sistemas AC, Tesla se dedicó a
desarrollar una serie de inventos
fundamentales. En 1888 los patentó.

385
Sus geniales creaciones y logros se una buena relación. Westinghouse le
difundieron rápidamente. El 16 de ofreció a Tesla un millón de dólares
mayo de este año fue invitado a por sus patentes AC. También lo
ofrecer una ponencia sobre "Un invitó a Pittsburgh por un año y le
nuevo sistema para motores y ofreció un alto salario como asesor
transformadores de Corriente técnico. Tesla aceptó la oferta. Le
Alternante" en la AIEE de Nueva cedió medio millón a A. K. Brown y el
York. Ya era entonces reconocido y socio que financiaron su trabajo.
aceptado como miembro de la Había accedido a una riqueza jamás
Asociación de Ingenieros Eléctricos. soñada.
Alianza con Westinghouse Surgieron problemas cuando los
ingenieros de Westinghouse
Para aquella época, George intentaron usar los diseños de Tesla
Westinghouse era un afamado para producir motores de fase-simple
inventor que había hecho una fortuna pequeños. Además, las prioridades y
en Pittsburgh fabricando frenos urgencias por fabricar sistemas de
neumáticos para trenes y una potencia AC de Westinghouse,
variedad de dispositivos eléctricos. dependientes de su venta exclusiva,
Reconoció las ventajas que ofrecían eran diferentes de los objetivos que
los sistemas de potencia AC respecto se proponía Tesla con sus
de los DC y divisó el gran potencial investigaciones. Tesla estaba seguro
comercial de los trabajos realizados de que sus máquinas AC operaban
por Tesla. de manera más eficiente a una
frecuencia de 60 Hz (entonces "ciclos
Los sistemas DC de Edison no
por segundo") mientras que los
podían distribuir potencia más allá de
ingenieros de Westinghouse usaban
media milla del generador debido a
frecuencias de 133 Hz.
las excesivas caídas de voltaje
producidas por la resistencia de las Insatisfecho con trabajar para
líneas de alto voltaje y la enorme terceros, Tesla retornó a su
corriente que fluía por las líneas. Los laboratorio de Nueva York. Ya había
voltajes AC, en cambio, se elevan en logrado solventarse por sí mismo y
el generador usando deseaba retornar a sus proyectos.
transformadores, reduciendo así la Rechazó una oferta muy lucrativa de
corriente y las pérdidas de la Westinghouse para permanecer en
transmisión. El resultado es un Pittsburgh. Después de abandonar
aumento sustancial del rango de esta ciudad, se le concedió la
distribución. Los transformadores ciudadanía norteamericana.
convierten los voltajes AC a niveles
seguros en el punto donde se utiliza Rayos x
la potencia.
En abril de 1887, Tesla empezó a
Luego de su presentación en la AIEE, investigar lo que después se llamó
Westinghouse se contactó con Tesla rayos X, usando su propio tubo de
para ver en persona su equipamiento vacío de una terminal (similar a su
AC. Ambos tenían intereses en patente USPTO nº 514170). Este
común e inmediatamente entablaron dispositivo difería de otros tubos de

386
rayos X por el hecho de no tener longitudinales, como las producidas
electrodo receptor. El término por las ondas en plasmas.
moderno para el fenómeno producido
por este artefacto es Bremsstrahlung Bobina de Tesla
(o radiación de frenado). Ahora se
Tesla demostró la transmisión
sabe que este dispositivo operaba
inalámbrica de energía" a principios
emitiendo electrones desde el único
de 1891. Propuso un sistema mundial
electrodo (carecía de electrodo
para la trasmisión de energía
receptor) mediante la combinación de
eléctrica sin cables basado en la
emisión de electrones por efecto de
conductividad eléctrica de la tierra, el
campo y emisión termoiónica. Una
cual funcionaría mediante la
vez liberados los electrones son
trasmisión de energía por varios
fuertemente repelidos por campo
medios naturales y el uso
eléctrico elevado cerca al electrodo
subsiguiente de la corriente trasmitida
durante los picos de voltaje negativo
entre los dos puntos para alimentar
de la salida oscilante de alto voltaje
dispositivos eléctricos. En la práctica
de la bobina de Tesla, generando
este principio de trasmisión de
rayos X al chocar con la envoltura de
energía, es posible mediante el uso
vidrio. Tesla también usó tubos de
de un rayo ultravioleta de alto poder
Geissler. Para 1892, se percató del
que produjera u canal ionizado en el
daño en la piel que Wilhelm Röntgen
aire, entre las estaciones de emisión
mas tarde identificó que era causada
y recepción. El mismo principio es
por los rayos X.
usado en pararrayos, en electro-láser,
En sus primeras investigaciones arma de electrochoque, y también se
Tesla diseñó algunos experimentos ha propuesto para inhabilitar
para producir rayos X. El afirmó que vehículos.
con estos circuitos, «el instrumento
En el mismo año, Tesla realizó
podría generar rayos de Roentgen de
demostraciones con varias máquinas
mayor potencia que la obtenida con
ante el Instituto Americano de
aparatos ordinarios».
Ingenieros Eléctricos en la
También mencionó los peligros de Universidad de Columbia. Demostró
trabajar con sus circuitos y con los de esta forma que todo tipo de
rayos X producidos por sus aparatos podían ser alimentados a
dispositivos de un solo nodo. De través de un único cable sin un
muchas de sus notas en las conductor de retorno. Este sistema de
investigaciones preliminares de este transmisión unifilar fue protegido en
fenómeno, atribuyó el daño de la piel 1897 por la patente U.S.0,593,138.
a varias causas. El creyó que
A finales del siglo XIX, Tesla
inicialmente que el daño en la piel no
demostró que usando una red
podría ser causado por los rayos de
eléctrica resonante y usando lo que
Roentgen, sino por el ozono
en aquél tiempo se conocía como
generado al contacto con la piel y en
"corriente alterna de alta frecuencia"
parte también al ácido nitroso. El
(hoy se considera de baja frecuencia)
pensaba que éstas eran ondas
sólo se necesitaba un conductor para
alimentar un sistema eléctrico, sin

387
necesidad de otro metal ni un que Harold P. Brown, un empleado
conductor de tierra. Tesla llamó a de Thomas Edison contratado para
este fenómeno la "transmisión de investigar la electrocución, desarrolló
energía eléctrica a través de un único la silla eléctrica.
cable sin retorno". Ideó y diseñó los
circuitos eléctricos resonantes En las cataratas del Niágara se
formados por una bobina y un construyó la primera central
condensador, claves de la emisión y hidroeléctrica gracias a los
recepción de ondas radioeléctricas desarrollos de Tesla en 1893,
con selectividad y potencia gracias al consiguiendo en 1896 transmitir
fenómeno de la resonancia. Lo que electricidad a la ciudad de Búfalo
de hecho creaba y transmitía eran (Nueva York). Con el apoyo
ondas electromagnéticas a partir de financiero de George Westinghouse,
alternadores de alta frecuencia sólo la corriente alterna sustituyó a la
que no lo aplicó a la trasmisión de continua. Tesla fue considerado
señales de radio como hizo Marconi desde entonces el fundador de la
sino a un intento de trasmitir energía industria eléctrica.
eléctrica a distancia sin usar cables.
La transmisión de energía y la
Tesla afirmó en 1901: "Hace unos utilización de las ondas de alta y baja
diez años, reconocí el hecho de que frecuencia
para transportar corrientes eléctricas
En 1899, Tesla se retira a las
a largas distancias no era en absoluto
montañas de Colorado Springs para
necesario emplear un cable de
experimentar con las ondas
retorno, sino que cualquier cantidad
electromagnéticas. Construye un
de energía podría ser transmitida
laboratorio de alta tensión, de gran
usando un único cable. Ilustré este
altura que rodea la más grande de las
principio mediante numerosos
bobinas Tesla del mundo. Sus
experimentos que, en su momento,
investigaciones sobrepasan a todas
generaron una atención considerable
las realizadas sobre
entre los hombres de ciencia".
electromagnetismo, sus experiencias
Guerra de corrientes presentan una sorprendente similitud
con los trabajos más tardíos en
Empeñado Tesla en mostrar la materia de comunicaciones a muy
superioridad de la CA sobre la CC de bajas frecuencias.
Edison se desarrolló lo que se conoce
como "guerra de las corrientes". En En el transcurso de sus múltiples
1893 se hizo en Chicago una estancias en su laboratorio, consigue
exhibición pública de la corriente concebir un sistema de transmisión
alterna, demostrando su superioridad de energía sin hilos, y descubre el
sobre la corriente continua de Edison. fenómeno de las ondas estacionarias.
Veremos a continuación cuáles son
No obstante, Edison aún trataba de las aplicaciones de las invenciones y
disuadir la teoría de Tesla mediante descubrimientos de Tesla.
una campaña para fomentar ante el
público el peligro que corrían al Transmisión de energía sin hilos
utilizar este tipo de corriente, por lo

388
Durante una conferencia, Tesla El 3 de julio de 1899 es el día que
anuncia que puede ver realizado su Tesla descubre el fenómeno de las
sueño más querido: la transmisión de ondas estacionarias. He aquí las
energía sin ningún cable de conexión. observaciones que le permitieron
deducir la existencia de este
Tesla no sólo cree que el globo es un fenómeno.
buen conductor, sino que las altas
capas de la atmósfera son En Colorado, se pueden observar
conductoras, y que están situadas a regularmente numerosas descargas
altitudes muy moderadas fácilmente naturales de relámpagos. Ese 3 de
accesibles, constituyendo una vía julio observó que a veces sus
conductora perfecta. Así pues, piensa aparatos reaccionaban más fuerte a
probar que se pueden transmitir las descargas muy lejanas que a las
grandes cantidades de energía más cercanas. Estalla una violenta
eléctrica hacia las capas superiores tormenta: las señales se
de la atmósfera, a no importa qué intensificaron, luego después de
distancia. haber pasado por un máximo,
decrecen para acabar cesando. Tesla
Además del proyecto de ha observado este fenómeno a
radiocomunicaciones, que pensaba intervalos regulares. Luego la
poner en marcha con la torre de tempestad se desplaza. El se
Wardenclyffe, quiere establecer un encuentra a 300 Km. y este
sistema de transmisión de energía sin fenómeno continúa manifestándose
hilos. Con ello se dispondría de con una fuerza constante.
energía eléctrica en cualquier punto
del planeta. Es precisamente con También llamada "onda Tesla", la
este proyecto que Morgan, el onda estacionaria, como su nombre
acreedor de Tesla por aquel indica, no se desplaza, al contrario de
entonces, no estaba de acuerdo. las ondas hertzianas. Es adicionando
Morgan decidió retirar su apoyo dos ondas hertzianas como se
financiero. obtiene una onda estacionaria. Si se
define un punto del espacio, y una
Algunos de sus experimentos en onda pasando por este punto, el
Colorado Springs son explicados por punto recorrerá toda la onda y por
periodistas. Según ellos, Tesla tanto, el punto y la onda tendrán un
consiguió encender 200 lámparas movimiento relativo. Si a ello se
incandescentes de 50 vatios a 42 Km. añaden dos ondas hertzianas de igual
de distancia. frecuencia, se obtiene una onda
estacionaria. El punto definido con
Si este procedimiento llega a
anterioridad, quedará fijo en relación
instalarse en el mundo un día, "
a la nueva onda así formada.
provocará una revolución industrial de
una amplitud inigualada. El Proyecto Wardenclyffe
Descubrimiento de la onda Tesla necesitaba obtener dinero con
estacionaria urgencia para lo que sería su
proyecto más ambicioso: una torre
gigante y un laboratorio en el cual

389
planeaba establecer una Para peor, el entusiasmo de Morgan
comunicación mundial inalámbrica. iba en disminución ante la falta de
También pensaba refinar sus planes resultados concretos para exhibir. La
para construir un sistema de gota que colmó el vaso fue la
distribución de potencia eléctrica. Ni conversación que tuvo una noche
Westinghouse ni Astor quisieron Tesla con el millonario; el inventor,
aportar el dinero necesario. J. quizás con algunas copas de más, le
Plerpont Morgan le proveyó $150.000 confesó que el plan de transmisión de
para construir la torre y los otros comunicaciones era en realidad un
dispositivos necesarios en proyecto para transmitir electricidad
Wardenclyffe, Long Island, a cambio sin costo a los hogares
de controlar las patentes que Tesla norteamericanos.
aún conservaba.
Al día siguiente Morgan cortó todo
Si bien Tesla aspiraba a una torre apoyo a Tesla y éste se vio obligado
más alta, las finanzas disponibles a buscar nuevos inversores. Ésta fue
alcanzaban para construir una de 187 la última oportunidad que tuvo para
pies de altura, con una cúpula demostrar que era capaz de hacer
hemisférica de 68 pies de diámetro. realidad el proyecto de electricidad
En diciembre de 1901 el proyecto gratuita y sin límites.
Wardenclyffe aún estaba en
construcción cuando Marconi logró Los inversores se negaron a apoyar a
enviar señales telegráficas Tesla debido a la mala prensa que
inalámbricas a través del océano venía teniendo desde hacía algunos
Atlántico usando un equipamiento años. Desde que comentó a un grupo
mucho más simple que el propuesto de periodistas que en su laboratorio
por Tesla, quien acusó a Marconi de de Colorado Springs había logrado
violar varias de sus patentes. De captar señales de radio provenientes
cualquier modo, el plan de Tesla se de un lugar en el espacio que
tornaba cada vez más extravagante. probablemente fuera el planeta
Marte, los reporteros comenzaron a
Pronto, una escalada de precios y su calificarlo como un científico
diseño demasiado ambicioso hicieron excéntrico y loco demasiado
que fuera imposible concretar el predispuesto a la fantasía.
proyecto Wardenclyffe según lo
planificado. Los acreedores lo En 1906 se detuvo por completo la
acosaban constantemente, y a pesar construcción en Wardenclyffe por la
de sus esfuerzos, no consiguió insolvencia de Tesla. El oscilador de
nuevos apoyos financieros. Rumores alto voltaje ya se había completado
negativos sobre el estado de sus pero la falta de fondos le impedía
patentes y el escepticismo con que probarlo. Cuando lo hizo, sin
fueron tomadas sus fantásticas embargo, todos los habitantes del
predicciones le retacearon ayuda. área que comprende de Long Island a
Tesla se derrumbó moralmente. Connecticut pudieron observar los
rayos en el cielo nocturno. De todos
Una serie de accidentes le dio fama modos, jamás realizó ninguna
de mala suerte al nuevo laboratorio. transmisión inalámbrica desde

390
Wardenclyffe, y tampoco pudo entonces los primeros años de la
desarrollar su sistema de distribución primera guerra mundial y Tesla vio
de energía eléctrica. entonces la oportunidad de sumarse
al esfuerzo de rearme de los Estados
Finalmente, en 1915 Tesla debió Unidos. También presentó una serie
entregar Wardenclyffe a sus de planos para construir lanchas
acreedores. Aquel mismo año se torpederas a control remoto,
dinamitó la torre por su valor en asegurando que de haber contado
chatarra. A pesar de este traspié, con ellas, durante la guerra contra
Tesla jamás abandonó sus ideas España, Estados Unidos hubiera
sobre la transmisión de potencia ganado la guerra en solo una tarde
inalámbrica para comunicaciones sin perder un solo hombre en la
globales. Coincidentemente, en el contienda.
año 1915 fue propuesto para el
premio Nobel, y en 1917 ganó la Las propuestas de Tesla fueron
medalla Edison, misma que rechazó. ignoradas y entonces el inventor
recibió un pedido de la Armada
El rayo de la muerte Alemana para desarrollar un nuevo
sistema de propulsión eléctrico, que
En otra oportunidad dijo poseer un
se supone fue la base para el
rayo capaz de crear ondas de
desarrollo de los motores que
frecuencia capaces de “partir a la
utilizaron luego los alemanes en sus
tierra en dos como si se tratase de
submarinos durante la segunda
una manzana”
guerra mundial.
Los dueños de las empresas que
Pero el ingreso de Estados Unidos en
siempre lo habían escuchado, vieron
la guerra y le peligro de ser acusado
en él un peligroso visionario capaz de
de traición hizo que Tesla cortar su
entregar energía gratuita a todos los
relación con los alemanes.
ciudadanos, poco a poco comenzaron
a darle también la espalda. Por medio de una carta, se dirigió al
entonces presidente Wilson
Otros, que tomaron partido a favor de
revelando poseer un rayo capaz de
Edison en su lucha contra el inventor
destruir grandes extensiones de
serbio, se sumaron a la larga fila de
tierra. Denominó a su invento “el rayo
personas dispuestas a opinar que se
de la muerte”. De acuerdo con su
trataba de un personaje cercano a la
carta, ya había logrado resultados
locura y el desvarío.
concretos que demostraban el
Pasó el tiempo y Tesla debió recurrir enorme poder destructivo de su arma
al gobierno para tratar de financiar y ponía como condición para su
sus ideas. Basándose en los entrega que fuera utilizado solamente
experimentos de la “bobina de Tesla”, con fines defensivos. Reveló,
presentó un proyecto para construir además, que durante 1908, mientras
un artefacto capaz de lanzar un rayo su amigo Robert Peary intentaba
electromagnético a miles de millas de llegar al Polo Norte, envió uno de sus
distancia “capaz de derribar aviones a rayos para que cayera al oeste de
400 kilómetros de distancia”. Corrían donde este se encontraba. De

391
acuerdo con los registros que obran aviones y submarinos a distancia,
en la Fundación Tesla, envió un pero su eterno competidor, Thomas
críptico telegrama a Peary en el que Edison, recomendó desechar la idea
le anunciaba que recibiría una por inviable. Años más tarde los
inequívoca señal de Tesla mientras británicos desarrollaron el sistema y
se encontraba de camino al Polo. lo denominaron radar, el que, luego,
fue adaptado para operar en las
Peary volvió sin haber percibido nada profundidades y sirvió para
anormal. Pero el mismo día que desarrollar los sonares modernos.
Peary conquistaba el Polo, una
devastadora y todavía inexplicada La turbina sin hélices
explosión sacudió a la zona de
Tunguska, en Siberia, Rusia. Cerca Si bien el fracaso de Wardenclyffe lo
de 3.000 kilómetros cuadrados de desalentó, Tesla continuó
bosque fueron barridos por una desarrollando ideas de largo alcance.
explosión que se calcula tuvo el Durante 1907-1908 diseñó una
poder equivalente a una bomba aeronave VTOL (despegue y
atómica de 50 megatones. Nunca se aterrizaje vertical). Una turbina
dio una explicación convincente al colocada en el centro de la nave tenía
suceso, ya que jamás se encontraron un propulsor montado encima, como
restos de algún meteorito, cráter u el de un helicóptero, para despegues
otro factor capaz de explicar y aterrizajes. En el aire, el piloto
semejante devastación. La explosión operaba una palanca que movía el
subsiguiente fue oída a 620 millas de propulsor hacia el frente de la nave,
distancia del lugar. como en un aeroplano convencional.
Tesla no construyó un prototipo de
En su carta al presidente, Tesla este VTOL, pero patentó su diseño.
sugería que su rayo había sido el En 1908 describió públicamente las
culpable de esa explosión y, debido a limitaciones de los aeroplanos
errores en sus cálculos, el estallido se conducidos con propulsores y predijo
había producido en una zona alejada el desarrollo de aeronaves con
de sus planes. Escribió que el motores de reacción (jets).
enterarse del peligro que encerraba
su invento, decidió desarmar la Tesla patentó en 1909 una poderosa
maquina hasta que estuviesen dadas y liviana "turbina sin hélices" que
las condiciones para que sea tenía el potencial para revolucionar el
debidamente comprendida, pero que, diseño de los primeros transportes en
debido al estado desbocado de la términos de caballos de fuerza
guerra, se ofrecía a rearmar para producidos por libra de peso. La
recuperar el equilibrio mundial. turbina de Tesla consistía en una
serie de discos apilados
La carta fue recibida por un secretario horizontalmente y espaciados a una
de la presidencia y nunca llegó a su mínima distancia, conectados a un
destino. Más tarde Tesla hizo un eje y cerrados en una cámara
nuevo intento y sobre el final de la sellada. Un fluido (líquido o gas)
guerra propuso un haz de ondas ingresaba bajo presión a la cámara
electromagnéticas para detectar sellada en la periferia de los discos.

392
La viscosidad causaba que los discos pedía exactamente 18 toallas; en el
girasen mientras el fluido se restaurante Delmonico's pedía 18
deslizaba en vías circulares hacia el servilletas y en el hotel Alta Vista
eje donde abandonaba la turbina. escogió la habitación 207, ya que era
divisible por 3, siempre buscaba
Se construyeron modelos pequeños cifras divisibles por 3. Nikola Tesla
exitosos de la turbina, pero los adoptó una dieta especial de
materiales inadecuados de la época, vegetales y leche con el objetivo de
y los serios problemas financieros de alcanzar los 100 años de edad. En
Tesla, impidieron que se invierno se encerraba en su
desarrollasen diseños más grandes. habitación a temperatura tropical
Varias compañías pagaron derechos sellando las rendijas con cinta.
por desarrollar el diseño de la turbina
de Tesla, pero sus esfuerzos Nikola Tesla tenía el hábito de
fracasaron. Aún hoy sus patentes de comenzar un proyecto, desarrollarlo y
turbinas de 1909 son estudiadas no descansar hasta terminarlo,
atentamente por ingenieros que siendo frecuente entre proyectos que
intentan construir su diseño de largo durmiera tan poco como 3 horas
alcance. diarias, lo cual eventualmente lo llevó
al agotamiento y a desarrollar las
Oscilador Vibracional Mecánico enfermedades psicosomáticas y
neurosis obsesivas. Sus nervios
Otro de sus inventos revolucionarios
estaban alterados sobremanera y era
fue el llamado "Oscilador Vibracional
hipersensible a los estímulos
Mecánico". Con este aparato
externos del mundo, particularmente
pretendía visualizar la dinámica de su
a los auditivos: cualquier sonido
sistema de electricidad sin hilos. En
podía impredeciblemente perturbarlo.
uno de sus experimentos llegó a
provocar un pequeño terremoto en su Tesla hablaba fluidamente varios
laboratorio de Manhattan. Si esto fue lenguajes. Junto con el serbio, él
así, no nos queda más remedio que hablaba otros siete lenguajes:
pensar que a estas alturas deben checoslovaco, inglés, francés,
existir sistemas tecnológicos ya alemán, húngaro, italiano y latín.
perfeccionados capaces de provocar
terremotos artificiales, entre otras Tesla sufría un desorden obsesivo-
cosas. compulsivo, y tenía varias manías y
fobias inusuales. Hacía las cosas
Excentricidades de Nikola Tesla basándose el número tres, y cuando
se hospedaba en hoteles se quedaba
Al igual que otras mentes brillantes
en habitaciones con un número
que tienden a realizar grandes
divisible por tres. Tesla también sufría
cálculos e invenciones en su cabeza,
una repulsión física hacia las joyas,
Nikola Tesla se vio presa de un
particularmente aretes de perlas. Era
desorden obsesivo-compulsivo en la
insistente con la limpieza y la higiene,
última parte de su vida. Vivió en
y era miso-fóbico (temor irracional
distintos hoteles durante la mayor
hacia los gérmenes). Detestaba tocar
parte de su vida y murió
relativamente pobre. Se dice que

393
cabello humano que no fuera el suyo era una figura complicada. Se
tanto como objetos esféricos. rehusaba a realizar convenciones sin
su bobina Tesla disparando
Tesla estaba obsesionado con las electricidad a través de la habitación,
palomas, ordenando semillas a menudo aterrorizando a la
especiales para las palomas que audiencia.
alimentaba en Central Park e incluso
trayendo algunas con él a su En 1926, Tesla comentó sobre la
habitación de hotel. Tesla amaba a igualdad de género para las mujeres,
los animales, y muy a menudo indicando que en el futuro la
reflexionaba sobre el gato de su humanidad sería dirigida por las
infancia, al cual llamaba "El Magnífico "Abejas reinas". El creía que las
Macak". mujeres se convertirían en el sexo
dominante en el futuro. En sus
Tesla nunca se casó. Era célibe y últimos años se convirtió en
afirmaba que su castidad era muy útil vegetariano, afirmando que la
para sus habilidades científicas. De matanza de animales era cruel y
todas maneras numerosas mujeres barbárica. Al mismo tiempo,
buscaron el afecto de Tesla, algunas desarrolló una extrema sensibilidad a
incluso enamorándose locamente de la luz, el sonido y otras influencias.
él.
Sus últimos años
A pesar de su tendencia a alejarse de
la gente, cuando se encontraba en Tesla aún tenía ideas a desarrollar en
situaciones sociales, muchos mente. Con la evolución del tiempo,
hablaban de él de manera positiva y algunas de ellas entraron en el reino
admirativa. El amigo de Tesla, el de la ciencia ficción mientras otras
escritor Hawthorne, escribió que era parecen violar las leyes de la
muy poco común "conocer a un naturaleza. Entre sus ideas más
científico o ingeniero que también era fantásticas se incluyen una máquina
un poeta, un filósofo, un apreciador para capturar y utilizar energía de
de la buena música, un lingüista, y un rayos cósmicos, una técnica para
conocedor de la comida y bebida." De establecer comunicación con otros
todas maneras, Tesla ocasionalmente planetas y un arma de partículas de
se mostraba cruel, expresando su rayos para destruir una armada de
disgusto por la gente con sobrepeso, 10.000 aeronaves a 250 millas de
despidiendo empleados por su peso. distancia.
También criticaba la ropa de los
demás, exigiéndoles a sus Muchas de sus ideas eran más
subordinados que regresaran a casa prácticas, y ocasionalmente vendía
a cambiarse en varias ocasiones. los derechos a terceros para que
desarrollen sus conceptos.
Tesla era conocido por sus Particularmente innovadores son sus
presentaciones espectaculares, diseños para un velocímetro de
mostrando sus innovaciones al automóvil y una luz delantera
público de manera artística, como si locomotiva. Con estas ventas obtenía
fuera un mago. Esto parecía pequeñas cantidades de dinero, pero
contradecir con su reclusión; Tesla dadas sus innumerables deudas,

394
vivió en un estado rayano a la construir una máscara mortuoria de
pobreza por el resto de sus días. A cobre con la imagen del sabio
pesar de sus problemas financieros científico que aún se conserva en sus
crónicos, Tesla siempre intentó oficinas como un recuerdo personal.
brindar una imagen personal
sofisticada y elegante. Inventos y descubrimientos más
importantes
En 1934 la Westinghouse Corporation
evitó que terminara en la calle al Tesla, podría ser considerado el
pagarle sus rentas y un estipendio mayor científico y el mejor inventor de
mensual como consultor. A cambio, la historia (al menos conocido). Entre
Tesla desechó su acusación de que su amplia lista de creaciones, se
Westinghouse había violado sus comenta que llegó a inventar entre
patentes sobre inalámbricos. En 1937 700 y 1600 dispositivos, de los cuales
el gobierno de Yugoslavia la gran mayoría se desconocen. Entre
recompensó a Tesla con una pensión los más destacables y que han
mensual de $600. Avidos acreedores llegado al conocimiento del público en
aguardaban ansiosos el envío de general, podemos destacar:
estos fondos.
La bobina de Tesla
Muerte de Tesla
Es un transformador de aire con
Tesla vivió los últimos 10 años de su bobinas primarias y secundarias
vida en una suite de dos habitaciones alineadas sobre la resonancia que
en el piso 33 del Hotel New Yorker, convierte a las altas frecuencias de
habitación 3327. Allí, cerca del final las corrientes elevadas de tensiones
de su vida, Tesla mostró signos de relativas débiles, en corriente débil de
enfermedad mental, afirmando ser altas tensiones.
visitado por una paloma blanca en
Mientras las frecuencias sean
específico diariamente.
elevadas, las corrientes alternativas
Hacia el final de sus días, Tesla se de las tensiones muy altas se
tornó en un ser ermitaño y excéntrico. deslizan ampliamente sobre la
Tesla murió solo en una pequeña superficie de la piel, sin causar
habitación de hotel el 7 de enero de daños. ¡Los miliamperios que
1943 a los 86 años. penetran los tejidos nerviosos pueden
matar mientras que muchos amperios
En la catedral de Nueva York donde en la superficie de la piel pueden ser
se llevaron a cabo sus funerales se tolerados durante breves instantes!
reunieron más de dos mil personas.
Arribaron tributos de notables figuras La bobina de Tesla sirve como
políticas y científicos de todo el dispositivo de producción de altas
mundo, incluidos tres premios Nobel. tensiones. Utilizada en la actualidad
de una u otra forma en todo receptor
Hugo Gernsback, gran admirador del de radio o de televisión; se convertirá
famoso científico e inventor, fue uno muy rápidamente en parte del equipo
de los primeros en ser notificados de de todo laboratorio de investigación
su muerte. Gernsback mandó universitaria.

395
Su bobina tiene varias aplicaciones en estaciones terrestres, utilizando
médicas. En 1890, se publicó un aparatos concebidos precisamente
artículo que otorga valores según los principios enunciados por
terapéuticos para el cuerpo humano Tesla. El radar fue de gran ayuda a
al calentamiento interno por medio de los ingleses durante la segunda
corrientes de altas frecuencias. Este Guerra Mundial para prevenir los
fenómeno será conocido con el ataques aéreos de los alemanes.
término de diatermia
Los robots teledirigidos
Los médicos se interesan cada vez
más en el oscilador terapéutico de Tesla sentó las bases de los tele-
Tesla, una pequeña bobina de Tesla. automatismos. Concibió que un día
Venden bobinas médicas a hospitales se pudieran dirigir vehículos a
y laboratorios, lo que les proporciona centenares de kilómetros sin que
mucho dinero. estuvieran tripulados, utilizando la
telegrafía sin hilos. Creó naves-robot
El radar teledirigidas, una de las cuales era
sumergible.
El radar es el instrumento base de
defensa en todos los países Sus patentes de 1895 contienen en
modernos del mundo. realidad las especificaciones de un
barco torpedero no tripulado,
Tesla descubre el principio del radar equipado con seis torpedos de 4,30
en 1900, lo pone a punto y, a pesar metros. Afirma que un reducido
de sus problemas financieros, publica número de estos ingenios basta para
los principios de lo que se convertirá, " atacar y derrotar a toda una armada
casi tres décadas después, en el en una hora, y sin que el enemigo
radar. pueda nunca localizar ni identificar la
potencia que le ha destruido ". Pero
Funciona como los ultrasonidos de
las ideas de Tesla se hallan
los murciélagos: se envía un rayo
demasiado avanzadas para la época,
concentrado de una corriente de
y los responsables de la defensa
minúsculas cargas eléctricas vibrando
americana consideran su proyecto
a una frecuencia muy grande, para
como un sueño irrealizable, que
que rebote en el objetivo, luego se
califican como experimento de
recibe de nuevo el rayo y, tras
laboratorio.
analizarlo, se obtiene una imagen del
objetivo. Tesla, que tanto trabajó para
inaugurar la era de la automatización,
Quince años después de la
siente que está en un mundo que no
descripción del radar por Tesla,
está claramente preparado.
equipos de investigadores
americanos y franceses trabajan Sus investigaciones le impulsan
paralelamente sin descanso para especialmente hacia algunas bases
poner a punto un sistema de de la informática: los inventores que
funcionamiento según sus principios. en la segunda mitad del siglo veinte
En 1934, un equipo francés pone a querían registrar patentes en el
punto e instala el radar en barcos y terreno informático se dieron cuenta

396
de que Tesla les había precedido. " Marconi. Esta información todavía no
Me sorprende la repugnancia que se ha incorporado a las enciclopedias
manifiestan las personas que trabajan pero los ingenieros de radio
en el campo de los ordenadores en concuerdan en decir que es Tesla
reconocer la prioridad de Tesla, quien se halla en el origen de la radio.
mientras que la Sra. Brattain,
Bardeen y Schockley han sido Fueron numerosos los que, a
cubiertos de honores por la invención continuación, iban a utilizar las
del transistor, que ha hecho de las patentes de Tesla para desarrollar la
calculadoras electrónicas una radio comercial.
realidad física ".
Gracias a su potente receptor de
Radio y telecomunicaciones radio escucha extraños sonidos
rítmicos. De hecho parece ser que
En 1893 Tesla dio un nuevo paso por escuchó ondas de radio emitidas por
el progreso de la ciencia describiendo las estrellas. Será preciso esperar a
con detalle los principios de la 1920 para que los astrónomos aíslen
emisión de radio. En Saint-Louis, de nuevo estas señales, conocidas
realizó la primera demostración como ondas cósmicas. Hoy en día la
pública de comunicación por radio, escucha de las estrellas es una
hecho que generalmente se atribuye práctica corriente.
a Marconi en 1895. Lo que siguió fue
una encarnizada competición entre Tesla en la cultura popular
los dos hombres.
En su novela El Prestigio, Christopher
Marconi llega a Londres con un Priest, autor inglés contemporáneo,
receptor TSF. Su aparato es idéntico utiliza el personaje de Tesla
al que Tesla describió en 1893. convirtiéndolo en inventor de un
Marconi niega haber tenido ingenioso aparato eléctrico utilizado
conocimiento del sistema de Tesla, por uno de los ilusionistas que
pero el servicio encargado de protagonizan la historia.
examinar las solicitudes de patentes
Esta novela fue adaptada para el cine
en Estados Unidos rechazará esta
por Christopher Nolan. En la
inverosímil negativa. Marconi
adaptación (cuyo título original es The
transmitió el 12 de diciembre de 1901
Prestige), David Bowie interpreta al
la letra S a través del océano
personaje de Tesla, a quien recurre
Atlántico. La prensa mundial se hace
Robert Angier pidiéndole que invente
eco de la noticia. En realidad, utilizó
una máquina de teleportacion. Tesla
la patente básica de Tesla
en ese momento se hallaba (en la
(n°645.576), solicitada en 1897 y
ficción) trabajando en un proyecto
homologada el 20 de marzo de 1900.
para teletrasportar electricidad de un
También ha utilizado 17 de sus otras punto a otro.
patentes. Pero en 1943 se acabó la
En la novela Hyperion de Dan
confusión: la corte suprema de
Simmons se mencionan en el primer
Estados Unidos estableció que Tesla
capítulo los árboles Tesla, que
era el autor del descubrimiento inicial
de la radio, injustamente atribuida a

397
almacenan electricidad y la liberan en consiste en una torre capaz de emitir
forma de tormentas. un rayo eléctrico muy potente para
destruir enemigos, así como también
En 1984 fue formado en Sacramento, potenciar a los Tesla Troopers
California, Estados Unidos, un grupo dotados con armas lanzarrayos.
musical llamado Tesla, que derivó su
nombre, algunos títulos de álbumes y En el videojuego Silent Hill: Origins
canciones y algunos contenidos de un arma especial que se puede
canciones de eventos relacionados desbloquear se llama Tesla Rifle
con el inventor.
También en el videojuego Return to
El duo estadounidense The Castle Wolfenstein en los
Handsome Family en su disco "The Laboratorios X se utiliza en gran
last days of wonder" tiene una cantidad tecnología Tesla,
canción sobre Tesla: "Tesla's Hotel aplicándose desde la seguridad en
Room", que hace referencia las puertas hasta en la producción de
justamente a su afición por los energía local. Al final de esta etapa
hoteles, su relación con Edison y además aparece un arma Tesla
Westinghouse, las circunstancias de capaz de lanzar rayos de corriente
su muerte y sus enormes hacia el enemigo a grandes
contribuciones a la ciencia. distancias. Parecida a esta arma, es
la "Garra Tesla" del videojuego
En la cinta Café y cigarrillos, un Ratchet and Clank, un guante que
curioso experimento fílmico del acaba en unas tenazas, las cuales
director Jim Jarmusch, Meg y Jack lanzan rayos eléctricos. Ratchet lo
White (del grupo White Stripes) usa no sólo para abatir enemigos,
comentan de modo icónico los logros sino también para accionar diferentes
de Tesla, que también es incluido en dispositivos, como el de abrir una
otras escenas. puerta, a distancia.
En la novela El palacio de la Luna de En el videojuego Fallout 3 aparece
Paul Auster, el viejo Effing cuenta mencionado su nombre en los libros
cómo le marcó el ingenio de Nikola "Nikola Tesla y tu" los cuales sirven
Tesla y menciona la enemistad con para obtener puntos extra en la
Edison. habilidad de armas de energía como
el rifle de plasma o la pistola laser.
En el videojuego Lara Croft Tomb
También aparecen servoarmaduras
Raider: Legend, la protagonista debe
con el nombre de "Armadura Tesla"
hacer funcionar el sistema de
que potencian el uso de este tipo de
transmisión de electricidad
armas. También en la actualización
inalámbrico ideado por Tesla.
"Broken Steel" aparece un arma
En el videojuego Command & llamada Tesla Cannon la cual es muy
Conquer: Red Alert aparece un poderosa a pesar de que solo carga
sistema de defensa llamado "Tesla una bala por recarga.
Coil", igual al invento que el científico
En el videojuego Blood 2 aparece un
usaba para investigar fenómenos
arma llamada Tesla Cannon que
electromagnéticos, pero en el juego
dispara rayos eléctricos.

398
Orchestral Manoeuvres in the Dark hasta el día de hoy continúan
sacó en 1984 una canción titulada clasificados como "secretos de
Tesla Girls basada en el inventor. estado" dando pie a que se
produzcan especulaciones acerca de
En el segundo capítulo de la cuarta su contenido, como fuentes más
temporada de la serie House, baratas de energía o poderosa
aparece escrito "Tesla was robbed" tecnología que puede ser usada con
(A Tesla le robaron) en la pizarra del fines bélicos.
aula que utiliza para la selección de
los candidatos a formar parte de su Los descubrimientos de Tesla a
nuevo equipo. Dicha inscripción se propósito de las ondas
puede ver varias veces a lo largo del electromagnéticas pueden tener
episodio. repercusiones importantes para la
humanidad, si son utilizados con fines
Aparece mencionado en la novela "El destructivos. He aquí algunos de los
mundo perdido", de Michael Crichton, fenómenos que pueden ser
donde se enumeran algunos mitos provocados con la utilización de
tecnológicos, entre los que estaba el ondas electromagnéticas de muy baja
que mencionaba que Nikola Tesla frecuencia:
pudo haber descubierto una increíble
fuente de energía. • Influencia sobre el clima.
En el videojuego Tremulous (un • Perturbación de las conexiones por
MMFPS multiplataforma, libre, hecho radio, y destrucción de los aparatos
con el quake 3 engine), el equipo electrónicos.
humano dispone de los "generadores
Teslas" (similares a los árboles Tesla • Interferencias en las ondas emitidas
que almacenan energía y la liberan por el cerebro, provocando
en forma de rayos), para electrocutar problemas, zumbidos sonoros.
al equipo alien.
Veremos cómo estas ondas
En el cómic "Clockwork girl" (2007) la probablemente son utilizadas por las
protagonista se llama Tesia al leer grandes instituciones
rápido la placa con la máquina con la gubernamentales para controlar el
que fue creada en la que pone clima, influir sobre la población y
"Tesla". sobre ciertos comportamientos.

Teorías y mitos en la actualidad La guerra meteorológica: el proyecto


HAARP
Se dice que antes de su muerte
agentes alemanes habían robado El HAARP es un centro de
algunos documentos de sus investigación americano instalado en
investigaciones y el FBI vigilaba de Alaska, sobre la ionosfera. Las siglas
cerca su paradero. Inmediatamente HAARP significan ” High-frequency
de la noticia de la muerte de Nikola Active Auroral Research ”
Tesla, el FBI entró en su casa y (Investigación de la Aurora Activa de
confiscó la mayor parte de los Alta Frecuencia). El HAARP está
documentos de sus investigaciones y basado en las investigaciones de

399
Bernard Eastlund, quien a su vez se americano de armamento) y el
inspiró en los trabajos Nikola Tesla. Ministerio de Defensa.
Oficialmente, los científicos de este Algunas instituciones europeas están
centro de investigación trabajan sobre inquieras y piden " que se establezca
un emisor de radio para estudiar la un acuerdo internacional para prohibir
ionosfera. a escala mundial cualquier desarrollo
y despliegue de armas que podría
Oficiosamente, el HAARP quiere abrir la puerta a toda forma de
sacar partido de la ionosfera para manipulación del hombre ".
convertirla en un arma de energía. La Consideran que " el proyecto HAARP,
ionosfera está constituida por en razón de su impacto general sobre
partículas ionizadas altamente el medio ambiente, es un problema
cargadas de energía. Las de alcance mundial ".
investigaciones realizadas durante un
siglo por una serie de científicos han La guerra invisible de las ondas
puesto en evidencia el hecho que
esta "capa energética" que protege a La investigación en este terreno es
la Tierra podría, con la tecnología una preocupación importante, antigua
adecuada, convertirse en un arma y permanente de los militares. Estas
estratégica de capital importancia. formidables armas llevan
desarrollándose desde hace varios
El proyecto estudia un potente decenios, en particular en
dispositivo para emisiones de altas laboratorios americanos y rusos.
frecuencias, que podría modificar
localmente la ionosfera a fin de Las armas electromagnéticas son
neutralizar radares y radios. Pero, desarrolladas en el marco de
según un investigador del Ministerio inquietantes colaboraciones entre el
de Defensa, este tipo de emisiones Ministerio de Defensa, y el de
permitiría actuar sobre la formación Justicia. Existe un tipo de arma muy
de fenómenos meteorológicos. Es el interesante: las armas de baja y de
inicio de la manipulación del clima. muy baja frecuencia. Es la tecnología
ELF (Extremely Low Frequencies).
Es un proyecto con un coste anual de
30 millones de dólares, que el ejército La frecuencia de resonancia de la
americano presente como inocentes ionosfera es casi idéntica a la del
investigaciones sobre la ionosfera. cerebro humano. La ionosfera es
pues una onda portadora perfecta a
Los promotores no escatiman dinero partir de la cual se puede alcanzar al
en campañas de relaciones públicas cerebro, sin cambiar la frecuencia de
y publicidad para dar seguridad a la emisión. Es el lazo entre la esfera
opinión pública americana. Sin electromagnética de la Tierra y las
embargo, es difícil creer que no se frecuencias de resonancias del
trata de un proyecto con fines miliares cerebro lo que forma la base de las
cuando se sabe que los verdaderos armas estratégicas.
socios capitalistas son la Marina, la
Fuerza Aérea, Raython (gigante En el transcurso del siglo XX, se
pueden distinguir algunas

400
utilizaciones de estas ondas. De a corto y largo plazo, producir
forma general, son utilizadas para adquisiciones de experiencias o
enfríar los ardores de asociación o de borrar las experiencias adquiridas »
órganos políticos y sindicales
considerados demasiado militantes Efectos de estas ondas sobre el
por ciertos dirigentes. He aquí un cuerpo humano
inventario:
A principio de los años 60, el Profesor
• 1962: la señal de Moscú: las Herbert König, puso de relieve un
autoridades americanas constataron cierto número de efectos de las
que el personal de su embajada en frecuencias bajas y muy bajas. En los
Moscú estaba expuesto a niveles años 70, el ejército americano dirigió
elevados de radiación secretamente programas de
electromagnética. Se precisaron años investigación sobre estos efectos.
para darse cuenta de que los Confirmaron la realidad de los
soviéticos buscaban inducir efectos terribles efectos inducidos por estos
biológicos, psicológicos y fisiológicos. campos, es decir, problemas
cardíacos, la alteración de reflejos, un
• 1983-1984: los soviéticos querían estado de aturdimiento. Una
utilizarlas contra las fuerzas rebeldes irradiación crónica o continua puede
afganas. hallarse en el origen de las
tendencias depresivas, los problemas
• 1987: un tipo de arma radicalmente de memoria, las afecciones cutáneas,
nuevo, capaz de degradar los las hemorragias oculares e incluso
sistemas electrónicos o pudiendo ser los cánceres.
utilizada en modo antipersonal
(informe del Ministerio de Defensa Daniel Depris , físico, da algunas
americano). explicaciones: « el componente
magnético de las radiaciones […]
• 1989: Boris Yeltsin reconocía que puede modificar el proceso físico-
en su tiempo la KGB había estudiado químico que rige el metabolismo
el recurso de las emisiones ELF para endocriniano, particularmente a nivel
matar a distancia por paro de la de la glándula tiroides ».
función cardíaca.
También se ha podido constatar la
• 1996: aparición de un artículo del publicación de un memorando titulado
Comité Científico Consejero de la « Adiestramiento biológico del
Fuerza Aérea de EE.UU.: « se puede cerebro por radiaciones de baja
contemplar el desarrollo de fuentes frecuencia », redactado para la
de energías electromagnéticas, cuya NASA.
señal puede ser pulsada, puesta en
forma y dirigida, que podrían Ejemplo de utilización de estas armas
acoplarse con el cuerpo humano de psicotrónicas en tiempo de guerra
manera que impidiera los
movimientos musculares voluntarios y El principio de utilización es sencillo:
el control de las emociones (y las con estas armas, es fácil privar de la
acciones), adormecer, transmitir conciencia de vigilia a todo soldado
sugestiones, interferir con la memoria que ataca, y quitarle toda agresividad.

401
La revista 2000, n°97, de diciembre contrario, microscópica,
93, indicaba a propósito de las armas permitiéndonos transmitir sobre una
psicotrónicas: pequeña superficie, a gran distancia,
una energía trillones de veces
« ¿Se acuerdan ustedes de las superior a la de cualquier otro rayo ».
imágenes de la Guerra del Golfo,
cuando millares de soldados iraquíes
salieron de sus trincheras
rindiéndose? Se rindieron incluso a
los periodistas, a los que tomaron por
soldados, y fueron la presa
bienvenida de los cañones de la
artillería americana, a pesar de que
habían enarbolado bandera blanca.
Cada vez más y más expertos
militares se han convencido de que
no fue el insuficiente
reabastecimiento de las tropas de
Saddam Hussein lo que provocó esta
rendición repentina y masiva, sino
que fueron las armas psicotrónicas de
Estados Unidos ».
Se puede asistir a la puesta a punto
de un arma capaz de paralizar al
enemigo. Con este tipo de arma, el
primer objetivo es cortar los sistemas
electrónicos enemigos. Otros
artilugios producen ultrasonidos,
ondas de sonidos ELF, que provocan
náuseas, vómitos, y perturban
completamente el sentido de la
orientación de las personas
alcanzadas.
Las armas de energía dirigida
Tesla había escrito su teoría sobre
las armas de energía dirigida antes
del inicio del siglo veinte. Su famoso
«rayo de la muerte», pensaba,
instalaría la paz en la Tierra porque
podría destruir ciudades enteras en
todo el mundo, e instantáneamente.
Tesla anunció: « Mi dispositivo
proyecta partículas de dimensión
relativamente grande o, por el

402
Este proceso es adecuado para la
fabricación de grandes series de
piezas pequeñas de gran precisión,
para materiales o mezclas poco
Proceso de producción comunes y para controlar el grado de
de máquinas. porosidad o permeabilidad.

FUNDICION Proceso de fabricación

Se denomina fundición al proceso de


fabricación de piezas, comúnmente
metálicas pero también de plástico,
consistente en fundir un material e
introducirlo en una cavidad, llamada
molde, donde se solidifica.

El proceso tradicional es la fundición


en arena, por ser ésta un material
refractario muy abundante en la
naturaleza y que, mezclada con Esquema de bloques general del
arcilla, adquiere cohesión y proceso de producción de
moldeabilidad sin perder la poliolefinas.
permeabilidad que posibilita evacuar
los gases del molde al tiempo que se Un proceso de fabricación, también
vierte el metal fundido. denominado proceso industrial,
manufactura o producción, es el
La fundición en arena consiste en conjunto de operaciones necesarias
colar un metal fundido, típicamente para modificar las características de
aleaciones de hierro, acero, bronce, las materias primas. Dichas
latón y otros, en un molde de arena, características pueden ser de
dejarlo solidificar y posteriormente naturaleza muy variada tales como la
romper el molde para extraer la pieza forma, la densidad, la resistencia, el
fundida. tamaño o la estética. Se realizan en
el ámbito de la industria.

Pulvimetalurgia Para la obtención de un determinado


producto serán necesarias multitud
La pulvimetalurgia o metalurgia de de operaciones individuales de modo
polvos es un proceso de fabricación que, dependiendo de la escala de
que, partiendo de polvos finos y tras observación, puede denominarse
su compactación para darles una proceso tanto al conjunto de
forma determinada (compactado), se operaciones desde la extracción de
calientan en atmósfera controlada los recursos naturales necesarios
(sinterizado) para la obtención de la hasta la venta del producto como a
pieza. las realizadas en un puesto de trabajo

403
con una determinada máquina- maquinas y técnicas. Los caminos de
herramienta. Roma, que todavía se usan fueron
construidos con atención esmerada a
las condiciones de subsuelo y con
una base de grava y arcilla bien
1.- Historia de las maquinas apisonada. Así, quien haya de
trabajar diariamente con máquinas
Reseña histórica de las maquinas. El herramienta, habrá de plantearse
Hombre desde sus inicios cuestiones continuamente y de
(entendiendo como Hombre a un ser resolver problemas relativos a la
con capacidad racional), ha tratado herramienta, a la máquina o al
de dominar las fuerzas de la trabajo. Las máquinas herramienta
naturaleza. Para ello, ha debido modernas, exigen para su racional
aprender a construir y utilizar utilización en la explotación un
artefactos ajenos a él. manejo seguro y profundos
conocimientos técnicos. Una
preparación por buena que sea no es
suficiente. Expondremos en el
siguiente informe, los principales
conceptos para poder comprender las
maquinas básicas y las leyes físicas
que las rigen; partiendo desde
definiciones, tipos y composiciones
de ellas, pasando por subgéneros,
estudiando otros dispositivos, y
revisando aplicaciones
fundamentales del tema.
Durante el siglo XIX se alcanzó un
grado de precisión relativamente alto
en tornos, perfiladoras, cepilladoras,
Por citar algunos ejemplos: en la pulidoras, sierras, fresas,
lucha entre pueblos prehistóricos, ya taladradoras y perforadoras. La
las armas rústicas eran comunes, utilización de estas máquinas se
según afirman investigaciones extendió a todos los países
recientes; compuestas industrializados. Durante los albores
fundamentalmente por piedras y del siglo XX aparecieron máquinas
huesos. Luego los primeros esfuerzos herramientas más grandes y de
de construcción de diques de tierra y mayor precisión. A partir de 1920
zanjas de irrigación, usados para la estas máquinas se especializaron y
agricultura, exigieron la utilización de entre 1930 y 1950 se desarrollaron
herramientas, tales como los arados, máquinas más potentes y rígidas que
y azadones. Hasta que la aprovechaban los nuevos materiales
construcción de caminos no llegó a de corte desarrollados en aquel
ser un arte de gran desarrollo, momento. Estas máquinas
durante la era del imperio Romano no especializadas permitían fabricar
se reconoció verdaderamente el valor productos estandarizados con un
de la buena utilización de nuevas coste bajo, utilizando mano de obra

404
sin cualificación especial. Sin
embargo, carecían de flexibilidad y no complejas, a su vez, se construye
podían utilizarse para varios todo tipo de máquinas utilizadas en la
productos ni para variaciones en los ingeniería, arquitectura y
estándares de fabricación. Para construcción, y todo ámbito de
solucionar este problema, los nuestras vidas. Las máquinas
ingenieros se han dedicado durante también han posibilitado al hombre, el
las últimas décadas a diseñar control de las fuerzas del viento, de
máquinas herramientas muy los combustibles y del agua. Sin
versátiles y precisas, controladas por máquinas, el hombre viviría aún en
ordenadores o computadoras, que estado primitivo y no habría podido
permiten fabricar de forma barata alcanzar ninguna forma de progreso.
productos con formas complejas. Hay que tener en cuenta que una
Estas nuevas máquinas se aplican máquina nunca puede desarrollar
hoy en todos los campos. más trabajo que la energía que recibe
y que, a igualdad de potencia, a
velocidades mayores corresponden
Máquinas: Definición y Referencias fuerzas menores, y viceversa. Una
Una máquina es cualquier artefacto máquina simple no tiene fuente
capaz de aprovechar, dirigir o regular productora de energía en si, por lo
una forma de energía para aumentar tanto no puede trabajar a menos que
la velocidad de producción de trabajo se le provea de ella.
o para transformarla en otra forma
energética. Las máquinas son
dispositivos usados para cambiar la
magnitud y dirección de aplicación de
una fuerza. La utilidad de una
máquina simple (palanca, cable,
plano inclinado, rueda) es que
permite desplegar una fuerza mayor
que la que una persona podría aplicar
solamente con sus músculos, o
aplicarla de forma más eficaz. La
relación entre la fuerza aplicada y la
resistencia ofrecida por la carga El
contra la que actúa la fuerza se llamado “arco de violín”, primer
denomina ventaja teórica de la instrumento de accionamiento
máquina. giratorio alternativo compuesto de un
arco y una cuerda, es utilizado
Debido a que todas las máquinas todavía de forma residual en algunos
deben superar algún tipo de países
rozamiento cuando realizan su
trabajo, la ventaja real de la máquina
siempre es menor que la ventaja
teórica. Combinando máquinas
simples se construyen máquinas
complejas. Con estas máquinas

405
fabricada en 1775 por encargo de
James Watt. Se consiguió una
precisión “del espesor de una
moneda de seis peniques en un
diámetro de 72 pulgadas” (Science
Museum, Londres).

Boceto de un torno de pedal y doble


pértiga de Leonardo da Vinci, que no
llegó a construirse por falta de medios
(siglo XV)
A finales de la edad media se utilizan
máquinas afiladoras que emplean la
piedra giratoria abrasiva, taladros de
arco, berbiquíes y tornos de giro
continuo, que trabajan con deficientes
herramientas de acero al carbono

Clases de maquinas

Las máquinas se dividen en simples y


compuestas. La simples tienen un
solo punto de apoyo. Las compuestas
resultan de la combinación de varias
simples.

La Palanca
Mandrinadora de J. Wilkinson
accionada por rueda hidráulica, Es la máquina más simple que se

406
conoce y consiste en una barra o tiene además del movimiento de
cuerpo ríquido que gira sobre un rotación otro de traslación.
punto de apoyo o fulcro. Las
Palancas pueden ser de tres géneros
(ver ilustración), según la distribución
de sus elementos.

Polea Fija. Condición de equilibrio

Condiciones de equilibrio de la Se aplican las mismas fórmulas de la


palanca palanca: F*p = R*r Si llamamos P a
potencia, p a brazo de potencia, R a
Sea P la potencia, oB al brazo de resistencia y r a brazo de resistencia.
resistencia, oA el brazo de potencia y
R la resistencia.. El arco AA´ el que p = 2_radios
describe la potencia, el arco BB´ el
que describe la resistencia. P = 2_radios = R * 1_radio
Tendremos:
de donde
P/R = oB / oA
P/R =1/2
Potencia es a resistencia como brazo
de resistencia es a brazo de El equilibrio en la polea móvil se
potencia. O la potencia multiplicada cumple cuando la potencia es la
por su brazo es igual a la resistencia mitad de la resistencia.
multiplicada por el suyo.
Máquinas Compuestas
Poleas
Las máquinas compuestas son
Una polea es una máquina simple. combinaciones de máquinas simples
Consta de una rueda que lleva en su y están asociadas de manera que la
borde una canal o hendidura llamada resistencia de la primera es la
garganta o cajera, por donde pasa potencia de la segunda; la resistencia
una cuerda. Hay dos clases de de ésta la potencia de la tercera y así
poleas: fijas y móviles. La polea fija sucesivamente.
tiene un solo movimiento de rotación,
gira alrededor de su eje que es el Hay que emplear estas máquinas
lugar de apoyo. Una polea móvil porque aunque se aumente la

407
paralela o perpendicularmente a la
potencia en máquinas simples, éstas dirección de giro, para obtener piezas
perderían su eficacia al ser grandes y con partes cilíndricas o cónicas, o
pesadas. Además se perdería una para cortar acanaladuras. Empleando
gran cantidad de trabajo. útiles especiales un torno puede
utilizarse también para obtener
Al estar compuestas de varias superficies lisas, como las producidas
máquinas simples, la condición de por una fresadora, o para taladrar
equilibrio en una máquina compuesta orificios en la pieza.
resultará de multiplicar la conidición
general de equilibrio de una máquina
simple o el número de ellas que PERFILADORA
forman la compuesta:
La perfiladora se utiliza para obtener
superficies lisas. El útil se desliza
sobre una pieza fija y efectúa un
primer recorrido para cortar salientes,
Siendo n el número de máquinas volviendo a la posición original para
compuestas realizar el mismo recorrido tras un
breve desplazamiento lateral. Esta
Entre las máquinas compuestasde máquina utiliza un útil de una sola
ruedas dentadas, palancas y poleas punta y es lenta, porque depende de
están: grúas, polipastos y todas las los recorridos que se efectúen hacia
maquinarias mecánicas actuales que adelante y hacia atrás. Por esta razón
conocemos: relojes, engranajes, etc. no se suele utilizar en las líneas de
producción, pero sí en fábricas de
MAQUINAS Y HERRAMIENTAS herramientas y troqueles o en talleres
CONVENCIONALES que fabrican series pequeñas y que
requieren mayor flexibilidad.
Entre las máquinas herramientas
básicas se encuentran el torno, las
perfiladoras, las cepilladoras y las
fresadoras. Hay además máquinas CEPILLADORA
taladradoras y perforadoras, Esta es la mayor de las
pulidoras, sierras y diferentes tipos de máquinas herramientas de vaivén. Al
máquinas para la deformación del contrario que en las perfiladoras,
metal. donde el útil se mueve sobre una
pieza fija, la cepilladora mueve la
pieza sobre un útil fijo. Después de
Torno cada vaivén, la pieza se mueve
lateralmente para utilizar otra parte de
El famoso torno, la máquina giratoria la herramienta. Al igual que la
más común y más antigua, sujeta una perfiladora, la cepilladora permite
pieza de metal o de madera y la hace hacer cortes verticales, horizontales o
girar mientras un útil de corte da diagonales. También puede utilizar
forma al objeto. El útil puede moverse varios útiles a la vez para hacer

408
varios cortes simultáneos. máquinas perforadoras se encuentran
las perforadoras de calibre y las
fresas de perforación horizontal y
vertical.
FRESADORA
En las fresadoras, la pieza entra en
contacto con un dispositivo circular RECTIFICADORAS
que cuenta con varios puntos de
corte. La pieza se sujeta a un soporte Las rectificadoras son máquinas
que controla el avance de la pieza herramientas equipadas con muelas
contra el útil de corte. El soporte abrasivas de precisión y sistemas
puede avanzar en tres direcciones: adecuados para sujetar, colocar, girar
longitudinal, horizontal y vertical. En o desplazar la pieza para poder
algunos casos también puede girar. afinarla hasta lograr el tamaño, forma
Las fresadoras son las máquinas y acabado deseados. La muela va
herramientas más versátiles. montada en un eje movido por un
Permiten obtener superficies motor, que la hace girar a unos 30
curvadas con un alto grado de metros/segundo. Las rectificadoras
precisión y un acabado excelente. suelen clasificarse según la forma de
Los distintos tipos de útiles de corte la pieza a afinar, el modo de sujeción
permiten obtener ángulos, ranuras, y la estructura de la máquina. Los
engranajes o muescas. cuatro tipos de rectificadoras de
precisión son las rectificadoras de
puntos, las rectificadoras sin puntos,
las interiores y las de superficie.
TALADRADORAS Y
PERFORADORAS Las rectificadoras de puntos o
exteriores se usan con piezas
Las máquinas taladradoras y
cilíndricas taladradas por su centro en
perforadoras se utilizan para abrir
cada extremo, lo que permite sujetar
orificios, para modificarlos o para
la pieza entre dos puntos y hacerla
adaptarlos a una medida o para
girar. Las piezas rectificadas entre los
rectificar o esmerilar un orificio a fin
puntos van desde minúsculos
de conseguir una medida precisa o
manguitos de válvula hasta
una superficie lisa.
laminadoras siderúrgicas con
Hay taladradoras de distintos diámetros superiores a 1,5 m y pesos
tamaños y funciones, desde de casi 100 toneladas.
taladradoras portátiles a radiales,
Las rectificadoras sin puntos eliminan
pasando por taladradoras de varios
la necesidad de taladrar los extremos
cabezales, máquinas automáticas o
de la pieza. En estas máquinas la
máquinas de perforación de gran
pieza se sujeta sobre una cuchilla de
longitud. La perforación implica el
apoyo y una rueda reguladora, que
aumento de la anchura de un orificio
también controla la rotación de la
ya taladrado. Esto se hace con un útil
pieza. Se utilizan para afinar objetos
de corte giratorio con una sola punta,
como bolas de bolos, suturas
colocado en una barra y dirigido
quirúrgicas o rodamientos de rodillos
contra una pieza fija. Entre las
409
cónicos. SIERRAS
Las rectificadoras interiores se Las sierras mecánicas más utilizadas
emplean para el acabado de los pueden clasificarse en tres
diámetros interiores de engranajes, categorías, según el tipo de
guías de rodamientos y piezas movimiento que se utiliza para
similares. Las muelas abrasivas son realizar el corte: de vaivén, circulares
pequeñas y giran a velocidades muy o de banda. Las sierras suelen tener
elevadas, entre 15.000 y 200.000 un banco o marco, un tornillo para
revoluciones por minuto. La pieza va sujetar la pieza, un mecanismo de
rotando despacio mientras la muela avance y una hoja de corte.
permanece fija.
Las rectificadoras de superficie se
emplean para superficies planas. La Útiles y fluidos para el corte
pieza se coloca en un banco plano y
Dado que los procesos de corte
se mantiene en su sitio mediante
implican tensiones y fricciones locales
electroimanes o dispositivos de
y un considerable desprendimiento de
fijación. La muela se hace descender
calor, los materiales empleados en
sobre la pieza mientras el banco se
los útiles de corte deben ser duros,
desplaza con un movimiento
tenaces y resistentes al desgaste a
alternativo o gira lentamente.
altas temperaturas. Hay materiales
que cumplen estos requisitos en
mayor o menor grado, como los
PULIDORA aceros al carbono (que contienen un
1 o 1,2% de carbono), los aceros de
El pulido es la eliminación de metal corte rápido (aleaciones de hierro con
con un disco abrasivo giratorio que volframio, cromo, vanadio o carbono),
trabaja como una fresadora de corte. el carburo de tungsteno y los
El disco está compuesto por un gran diamantes. También tienen estas
número de granos de material propiedades los materiales cerámicos
abrasivo conglomerado, en que cada y el óxido de aluminio.
grano actúa como un útil de corte
minúsculo. Con este proceso se En muchas operaciones de corte
consiguen superficies muy suaves y se utilizan fluidos para refrigerar y
precisas. Dado que sólo se elimina lubricar. La refrigeración alarga la
una parte pequeña del material con vida de los útiles y ayuda a fijar el
cada pasada del disco, las pulidoras tamaño de la pieza terminada. La
requieren una regulación muy lubricación reduce la fricción,
precisa. La presión del disco sobre la limitando el calor generado y la
pieza se selecciona con mucha energía necesaria para realizar el
exactitud, por lo que pueden tratarse corte. Los fluidos para corte son de
de esta forma materiales frágiles que tres tipos: soluciones acuosas,
no pueden procesarse con otros aceites químicamente inactivos y
dispositivos convencionales. fluidos sintéticos.

410
Prensas otros métodos, como el acero
inoxidable y las aleaciones de
Las prensas dan forma a las piezas aluminio.
sin eliminar material, o sea, sin
producir viruta. Una prensa consta de
un marco que sostiene una bancada
fija, un pistón, una fuente de energía Láser
y un mecanismo que mueve el pistón
La mecanización por rayo láser se
en paralelo o en ángulo recto con
consigue dirigiendo con mucha
respecto a la bancada. Las prensas
precisión un rayo láser, para
cuentan con troqueles y punzones
vaporizar el material que se desea
que permiten deformar, perforar y
eliminar. Este método es muy
cizallar las piezas. Estas máquinas
adecuado para hacer orificios con
pueden producir piezas a gran
gran exactitud. También puede
velocidad porque el tiempo que
perforar metales refractarios y
requiere cada proceso es sólo el
cerámicos y piezas muy finas sin
tiempo de desplazamiento del pistón.
abarquillarlas. Otra aplicación es la
fabricación de alambres muy finos.

MÁQUINAS HERRAMIENTAS NO
CONVENCIONALES
Descarga eléctrica
Entre las máquinas herramientas no
La mecanización por descarga
convencionales se encuentran las
eléctrica, conocida también como
máquinas de arco de plasma, las de
erosión por chispa, utiliza la energía
rayo láser, las de descarga eléctrica y
eléctrica para eliminar material de la
las electroquímicas, ultrasónicas y de
pieza sin necesidad de tocarla. Se
haz de electrones. Estas máquinas
aplica una corriente de alta frecuencia
fueron desarrolladas para dar forma a
entre la punta del útil y la pieza,
aleaciones de gran dureza utilizadas
haciendo que salten chispas que
en la industria pesada y en
vaporizan puntos pequeños de la
aplicaciones aerospaciales. También
pieza. Como no hay ninguna acción
se usan para dar forma y grabar
mecánica, pueden realizarse
materiales muy delgados que se
operaciones delicadas con piezas
utilizan para fabricar componentes
frágiles. Este método produce formas
electrónicos como los
que no pueden conseguirse con
microprocesadores.
procesos de mecanizado
convencionales.

Arco de plasma
La mecanización con arco de Electroquímica
plasma utiliza un chorro de gas a alta
Este tipo de mecanización emplea
temperatura y gran velocidad para
también la energía eléctrica para
fundir y eliminar el material. El arco
eliminar material. Se crea una celda
de plasma se utiliza para cortar
electrolítica en un electrólito,
materiales difíciles de seccionar con
411
utilizando el útil como cátodo y la
pieza como ánodo y se aplica una nuevas tecnologías encuentran
corriente de alta intensidad pero de métodos más y más sofisticados
bajo voltaje para disolver el metal y surgen complejos mecanismos que
eliminarlo. La pieza debe ser de un simulan movimientos y análisis
material conductor. Con la preestablecidos, estos mecanismos
mecanización electroquímica son toman ejemplo de los elementos
posibles muchas operaciones como naturales que permiten la recreación
grabar, marcar, perforar y fresar. de dichos sucesos, un ejemplo son
las articulaciones de la anatomía
En que influyen las maquinas en la humana o los cálculos probabilísticos
humanidad que realiza un ordenador para tomar
una decisión. La estimulación a los
En la actualidad nos encontramos descubrimientos es la apertura de
rodeados de un sin número de nuevos mercados con millones de
sistemas tecnológicos que avanzan a clientes potenciales.
pasos agigantados y no es raro que
la ciencia ficción en las películas
muestren cada uno de los sueños Desde un punto de vista pragmático
tecnológicos que quisiéramos todo estimulo físico y mental puede
alcanzar. Cada una de las maquinas ser construido con las herramientas
es una concepción de ideas ¿Cómo adecuadas, desde el punto de vista
llegaría hacer sí…? Es una idea, un sentimental los lasos de afecto que
pensamiento que evalúa el hombre y nos unen con ciertas entidades van
transforma en versiones físicas, así más allá de las limitaciones físicas e
es como se desarrollan las mas incluso mentales, lo que
avanzadas innovaciones contextualizamos como alma o
tecnológicas, la intervención de los esencia divina por ser de un grado
humanos en el desarrollo de las indeterminado de conocimiento tiene
maquinas y la impresión que estas suficientes inconsistencias para
generan en la vida del mismo trabajar durante tiempos indefinidos.
humano. Un concepto es muy claro: La realidad es que la búsqueda de
desde que se inventaron las una maquina humanoide capas de
maquinas el hombre las hizo con una tener existencia propia solo podemos
intención específica que es hacer asimilarlo dentro de los parámetros
más fácil la vida, el trabajo, la de la ciencia ficción, pero limites no
investigación, etc., su propósito la existen, solamente hay ideas con
ayuda prestada al hombre incluso posibilidades mínimas, que algún día
mayor que la del mismo hombre. La pueden ser tomadas en serio.
tendencia en desarrollo y tecnologías
es construir maquinas que no La Ética para las máquinas, nuevo
necesiten de la participación del campo de investigación
hombre para realizar sus trabajos y
Hasta hoy, sólo el Hombre se
otras que actúen a libre albedrio y no
comprometió a un
respondan a una serie de
razonamiento ético, pero ya es
programación ya establecida.
hora de incorporarle una
Cuando las investigaciones de
412
dimensión ética a algunas
máquinas complejas. Se trata
de un nuevo campo de estudio
que considera a las máquinas,
computadoras y robots, como
un tipo de agentes éticos e
intenta implementar en ellos
facultades morales de toma de
decisiones. Dado que las
investigaciones científicas y los
objetos tecnológicos tienen el
poder de afectar a toda la
humanidad, las decisiones
sobre su curso actual y futuro
no deben involucrar
únicamente a los científicos,
los empresarios y los
gobernantes. Es necesario que
la mayoría de la gente tenga
una participación mucho más
activa a fin de fijar los límites
adecuados. Por Sergio
Moriello. Petróleo
Tipos de maquinas

Las máquinas simples: Cuales son y


A finales del siglo XIV y primeras
décadas del siglo XX el
petróleo se convirtió en el “oro negro
que características tienen .Cuando del mundo” por dos razones: la
hablamos de máquinas se nos vienen primera por sus mejores condiciones
a la cabeza miles de pensamientos a como combustible ya que desplazó al
los cuales relacionamos con carbón como principal energético en
máquinas de café, máquinas de el mundo. A diferencia del carbón, el
musculación, máquinas industriales, petróleo se encuentra mayormente en
etc. Pero las máquinas son mucho los países subdesarrollados, esto les
más complejas y las hay de todo tipo; otorga a estos países un poder
dentro del mundo de las máquinas invalorable “La producción de la
encontramos divisiones que se dan a materia prima más importante del
partir de aplicaciones, dentro de estas mundo”, y la segunda porque su
divisiones tenemos el rubro de las mayor importancia radica en su alta
máquinas simples. demanda de exportación, ya que es
uno de los principales productos que
A palabra maquina puede definir movilizan a toda la industria en
tanto a un simple utensilio de cocina, general, de él se obtienen la mayor
como a un diseño industrial de última parte de los productos que son
generación. ¿Donde está la relación procesados y convertidos en bienes
entre uno y otro podría preguntarse del consumo. Por eso el petróleo es
usted? Pues la relación existe y es
413
el producto más indispensable para la profundidad en Titusville
dinámica económica de la industria (Pennsylvania, EE.UU.). Pero en
en todo el mundo. realidad ¿Qué es el petróleo?, a
continuación se presenta una breve
Esta ponencia tratará la tesis del descripción.
petróleo en México, entre sus
capítulos se describirá “¿Qué es el ¿Qué es el petróleo?
petróleo?, los tipos de petróleo, sus
usos y formas de consumo, también Es un líquido oleoso,
se resumirá la historia del petróleo en inflamable, más
México, las principales potencias en ligero que el agua,
producción del petróleo, la demanda de color oscuro,
de dicho combustible, como también verdoso o negro,
las amenazas a la sociedad como lo compuesto de
son la contaminación y los conflictos diversos
políticos (guerras). hidrocarburos; se
cree que se formo
por la
El petróleo. descomposición de
“La palabra petróleo viene del latín materia animal y
petra (piedra) y óleo (aceite)”.1 vegetal en los
estratos superiores
Como hemos dicho antes el petróleo de la corteza
es la fuente de energía más terrestre, el petróleo
importante del mundo, y había sido se presenta en la
descubierto hace ya miles de años, naturaleza en los
las investigaciones históricas han tres estados de la
comprobado que el petróleo, o aceite materia:
mineral (petrae = piedra y oleum =
aceite, en latín) fue conocido desde la • El sólido (bit
remota antigüedad. Con betún, umen natural)
asfalto derivado del petróleo, se
asentaron los ladrillos de la torre de • el líquido (cr
Babel y se calafateó el arca de Noé. udo)
Los egipcios lo utilizaron en
embalsamamientos por lo menos • y
desde el 7 000 a. C. En el siglo III los el gaseoso (gas
chinos excavaron pozos y lo natural)
aprovecharon como iluminante. Sin
embargo, la primera explotación se busca por cateos
moderna se concreta en 1854 cuando basados en el
DRAKE, auxiliado por un herrero, estudio geológico de
perfora un pozo de 21 metros de los terreno, y se
extrae perforando
1
INEGI, Cuéntame de México,2010, pozos de 30 a 50
Economía, (vi: 15 de mayo de 2010) cm, de diámetro y de
http://cuentame.inegi.org.mx/economia/
petroleo/quees.aspx?tema=E 100 a 700 m. de

414
profundidad; el mantienen en una
petróleo brota a gran plataforma situada
altura debido a la lejos de la costa, en
presión subterránea, aguas de una
o bien mana con profundidad de hasta
poca fuerza, o varios cientos de
permanece en su metros.
estrato y hay que
extraerlo con La plataforma puede
bombas.2 ser flotante o
descansar sobre
¿Cómo se produce? pilotes anclados en el
Se dice que la extracción del petróleo fondo marino, y resiste
es fácil aunque costosa, depende del a las olas, el viento y,
lugar en el que se encuentre el en las regiones árticas,
yacimiento del petróleo es la los hielos. La torre
tecnología que se utiliza; ya que los sirve para suspender y
hay marítimos y terrestres. hacer girar el tubo de
perforación, en cuyo
En México se encuentran 193
extremo va situada la
plataformas marinas, y el
broca; a medida que
procedimiento que se hace para
ésta va penetrando en
poder extraer el petróleo del subsuelo
la corteza terrestre se
depende de donde se encuentre el
van añadiendo tramos
yacimiento, ahora nos interesa tratar
adicionales de tubo a
el que utilizan las plataformas
la cadena de
marinas el cual es nombrado
perforación. La fuerza
“perforación submarina” y es el
necesaria para
siguiente:
penetrar en el suelo
Perforación submarina procede del propio
peso del tubo de
Otro método para perforación.
aumentar la producción
de los campos Control de surgencia
petrolíferos es la
construcción y empleo Se comienza por bajar
de equipos de hasta cerca del fondo
perforación sobre el una cañería de 5 a 7,5
mar (ha llevado a la cm de diámetro,
explotación de más llamada tubería, que
petróleo). Estos lleva en su extremo
equipos de perforación superior un conjunto de
se instalan, manejan y válvulas y conexiones
2
denominado Árbol de
GRAN DICCIONARIO ENCICLOPÉDICO
ILUSTRADI DE SELECCIONE DEL
Navidad, que mantiene
READER´S DIGEST, Luis Rosales al pozo bajo control.
Camacho, IX, 1977, pp. 2924-2925.

415
La surgencia del 3. Bombeo
petróleo por la tubería, mecánico con
se logra por métodos bombas aspirantes
naturales o artificiales: de profundidad,
accionadas por
Natural gatos de bombeo.
1. Tres son las Por lo general se
causas que efectúa el bombeo
pueden originar la simultáneo de una
surgencia natural. serie de pozos
vecinos,
2. La presión
conectando sus
del agua
gatos de bombeo
subyacente, que al
mediante largas
transmitirse al
varillas de acero, a
petróleo, lo obliga
un excéntrico que
a subir. Es la más
se hace girar en
efectiva.
una estación
3. La presión central.
del gas libre que
4. Bombo
cubre al petróleo,
hidráulico,
que se transmite a
inyectando
éste y lo impulsa
petróleo a presión
en su ascenso.
que regresa a la
4. Cuando no superficie
existe gas libre y el bombeado; y
agua no tiene bombeo centrífugo,
presión suficiente o con bombas
tampoco existe, al centrífugas de
disminuir la presión varias etapas,
por la perforación ubicadas cerca del
del pozo, el gas fondo del pozo y
disuelto en el accionadas por
petróleo se motores eléctricos
desprende y al controlados desde
expandirse lo hace la superficie.
surgir. Es la menos
efectiva de las tres.
Artificial
1. Puede lograrse por dos
métodos:
2. Inyección a presión de agua,
gas o aire.

416
Purificación. almacenamiento
.
El petróleo tal como
surge, no puede *Centrifugado de
procesarse la emulsión.
industrialmente, sin
separarlo antes del gas *Calentado, para
y el agua salada que lo disminuir la
acompañan. viscosidad de
Separación del gas los petróleos
densos.
Se efectúa en una
batería de tanques, en *Métodos
los cuales, por simple químicos,
reposo el gas se separa térmicos o
espontáneamente. eléctricos (que
son los más
Destrucción de la emulsión agua efectivos para
salada-Petróleo desalinizar y
deshidratar).
Es uno de los problemas
de difícil resolución que *Unas vez
afronta la industria purificado, se lo
petrolífera. Se trata de envía a tanques
resolverlo en distintas de almacenaje y
formas: de ellos, a las
destilerías, por
*Se previene la oleoductos u
formación de otros medios de
emulsiones, transporte
evitando la (buques
agitación de la cisternas,
mezcla de agua vagones
salada y tanques, etc.)3
petróleo, en las
operaciones de Es el recurso natural más
surgencia. importante en nuestro país,
porque satisface la demanda de
*Lavado con energéticos y de petroquímicos
agua de la básicos y contribuye al
emulsión, desarrollo industrial de nuestro
seguido con una país.
decantación
posterior. 3
Extracción del petróleo,29 de
septiembre,2005, Petróleo , (vi: 15 de
*Decantación en mayo de 2010)
http://www.textoscientificos.com/textos
tanques de
cientificos

417
México cuenta con 193 gasolina. La civilización moderna
plataformas sería inconcebible son los incontables
marinas equipadas con productos que de él se derivan:
brocas para perforar el combustibles, lubricantes, drogas,
subsuelo hasta llegar al colorante, cauchos sintéticos,
yacimiento. plásticos de infinitas aplicaciones,
productos sintéticos innumerables.
Al abrir un pozo se
instalan los ductos y el
hidrocarburo se extrae Historia del Petróleo en México.
aprovechando la propia El petróleo es y seguirá siendo por un
presión del yacimiento, gran tiempo un recurso estratégico de
con lo que se recupera gran influencia e importancia para las
hasta 30% del economías nacionales. En el caso de
contenido; después, se México se puede decir que su primer
inyecta aire para poder uso aunque puede ser casual, es
sacar hasta un 45% desde la época prehispánica,
adicional. nuestros antepasados lo recogían de
las chapopoteras y lo utilizaban en
El crudo remanente sus ceremonias a manera de
permanece en el pozo, incienso, también como colorante,
pues con las técnicas pegamento o con fines medicinales.
disponibles es muy Ya a mediados del siglo XIX se
costoso extraerlo. En convirtió en una de las principales
2005, Tabasco fue fuentes de energía del mundo actual
el primer lugar nacional como ya lo hemos mencionado antes.
en producción de crudo El auge del petróleo se inicio con la
y gas natural. Sin profundización de las sociedades
embargo, el mayor industriales ya que el uso de
porcentaje de maquinarias y automóviles que
producción tiene lugar funcionan con base en este
en las aguas combustible es cada vez mayor. Para
4
territoriales. efectos del caso mexicano los
primeros intentos de exploración
Usos del Petróleo. industrial de las chapopoteras son de
Los usos del petróleo se trasladan a 1863; pero sólo veinte años más
miles de años atrás. Desde hace tarde se le tomo realmente enserio
muchos siglos se usaba para cubrir ya que la demanda del combustible
paredes o cascos de embarcaciones, venia en aumento, principalmente en
y a veces para lámparas pero su los países industriales donde
utilización más importante ha sido Estados unidos ya era un adversario
fenómeno reciente, paralelo al importante, por lo cual estaba en
perfeccionamiento de los motores de busca de mas campos petroleros y
4
INEGI, Cuéntame de México,2010, México estaba abierto a las
Economía, (vi: 15 de mayo de 2010) inversiones.
http://cuentame.inegi.org.mx/economia/
petroleo/dondeesta.aspx?tema=E

418
A partir de estas fechas se puede en aumento su
abordar el tema de la industria importación. Los
petrolera controlada por las grandes primeros permisos
transnacionales sin ninguna fueron concedidos a
restricción, lo cual con el tiempo empresas inglesas y
provoco muchos descontentos y estadounidenses que
abusos que terminaron con la contaba con el capital y
promulgación de la expropiación la experiencia en este
petrolera en 1938 que le dio un gran negocio, el gobierno
cambio al desarrollo del país, les ofreció todas las
impulsando fuertemente la industria facilidades, lo cual
petrolera y orientándola hacia las permitió que estas
necesidades del país. Pero que empresas durante este
lamentablemente ha llegado a su fin periodo se dedicaran a
ya que a partir de 30 años para acá la abusar de sus
visión ha sido totalmente otra, privilegios,
queriendo regresar a la doctrina de defraudando al
dejar a todo a las libres fuerzas del gobierno y
mercado haciendo a un lado la desarrollando la
constitución y las prioridades del país industria de acuerdo a
y tomando más en cuenta los sus intereses.
intereses privados e internacionales.
La industria petrolera
A continuación se presentan los tres como muchas otras de
grandes momentos de la Historia del la época estaba bajo el
Petróleo en México que se han dominio de las grandes
presentado en el último siglo en transnacionales que si
cuestión de petróleo y así poder claro beneficiaban el
hacer una comparación con las desarrollo del país pero
nuevas políticas implementadas en de acuerdo a sus
épocas recientes. intereses y que con el
tiempo provoca un
El primero, en desarrollo dependiente.
1901donde el
presidente Porfirio Díaz En segundo, después
expide la primera Ley de casi 20 años en el
del Petróleo que faculta poder el grupo
al Ejecutivo Federal sonorense estaba lejos
para otorgar permisos de haber cumplido con
a particulares y sus planes políticos y
compañías sobre todo, trabajar
organizadas para bajo su estandarte
explorar y explotar político que era la
terrenos de propiedad constitución de 1917
federal la idea era
poder erradicar el uso En México, los obreros
del carbón ya que iban petroleros decidieron

419
llevar a cabo una resentido la actitud de
huelga para presionar las empresas hacia sus
a los empresarios y trabajadores y
poder obtener parte de autoridades locales
las grandes ganancias desde su punto de
de las empresas o por vista las petroleras se
lo menos mejores habían comportado
condiciones de trabajo; como si México fuera
tras estudiar el asunto, tierra de conquista” 5
la Suprema Corte de
Justicia decidió que el La nacionalización del
aumento que pedían petróleo fue decidida el
era justo y ordenó que 9 de marzo de 1938,
se les concediera. Sin nadie sospechaba
embargo, las hasta la noche de ese
compañías no día –ni las compañías
obedecieron a tiempo, petroleras ni sus
por lo cual el gobiernos– la magnitud
presidente Cárdenas y los alcances de la
decidió expropiarlas. medida expropiatoria.

Desde su campaña El gobierno del general


electoral el general Cárdenas supo
Cárdenas se mostro a escoger el terreno del
favor de poner en enfrentamiento con las
mano de los compañías extranjeras
trabajadores las y tomarlas por
fuentes de riqueza y sorpresa. No planteó la
los medios de nacionalización como
producción, y de cuestión de beneficios
acabar con la económicos o de
explotación del derechos laborales,
subsuelo por los sino como decisión de
“usureros capitalistas firmeza en el gobierno
extranjeros” y como señal que no
iba a estar sometido a
“Al asumir la las decisiones de las
presidencia Cárdenas grandes
contaba con gran transnacionales.
conocimiento de
primera mano de “Se debe recordar,
ciertos aspectos del que el presidente
problema petrolero, 5
Meyer Lorenzo México y los Estados
gracias a su unidos en el conflicto petrolero
experiencia como jefe
militar en la zona COLMEX México 1972 pp. 306
petrolera, había

420
Cárdenas decretó la la industria petrolera bajo una nueva
nacionalización cuando visión y con nuevos objetivos
las empresas poniendo en primer orden el interés
petroleras se negaron nacional dejando a un lado la
a acatar un laudo de la dependencia con los capitales
Suprema Corte de extranjeros y dando lugar al mayor
Justicia de la Nación auge en la historia.
sobre el contrato
colectivo con sus Durante 1970-1985,
trabajadores. No era hasta el inicio de la
una argucia legal para época neoliberal se
tener el apoyo del tenía la capacidad
movimiento obrero, que suficiente para cubrir
de antemano estaba las necesidades, las
asegurado. Fue utilizar importaciones eran
lo que las empresas mínimas.
creían un incidente
Y por último, finales de
jurídico menor para
los años setentas se da
plantear una cuestión
un punto de inflexión
de fondo: quién manda,
donde todo lo que se
quién decide sobre los
venía logrando se
cielos, el suelo y el
modifica rotundamente,
subsuelo de este
el contexto
territorio, si un grupo
internacional, las crisis
de empresas
y las malas políticas
extranjeras subsidiarias
económicas son el
de sus gobiernos, que
detonador de la nueva
prestos salieron en
época en la que nos
defensa de ellas, o si
encontramos.
los poderes del
gobierno de la Nos hacen ver que es
República elegido y lo mejor cuando en la
apoyado por su realidad los resultados
6
pueblo.” no son los mejores es
algo ilógico que se
Después de esta importante decisión
sigan empeñando en
se puede decir, se da el desarrollo de
continuar con esta
6
visión donde se
Gily Adolfo la jornada diario, Petroleó:
regresa a la época
Quien manda en México, sección porfirista donde la
opinión, 2 febrero 2008 doctrina dominante era
el utilitarismo y el libre
mercado.7
7
Gily Adolfo la jornada diario, Petroleó:
Quien manda en México, sección
opinión, 2 febrero 2008

421
Como se puede ver si la producción natural, petrolíferos,
de petróleo es enorme, de las gasolinas y
mayores a nivel mundial pero “el petroquímicos en el
petróleo crudo sólo sirve para mejor de los casos las
refinarlo prácticamente no tiene otro cifras son muy
uso “ cercanas.
El cambio en la política que nos ha
llevado a una situación de
dependencia que está basada en Todo esto debido a un
bastantes mentiras creadas y plan para ir debilitando
difundidas desde el gobierno que a Pemex ya que en los
busca aparentar el peor de los últimos años se ha ido
panoramas para la industria petrolera debilitando la
cuando en realidad si tiene muchas producción nacional
deficiencias pero la mayoría son por la importación de
sabidas por propio gobierno. productos que bien se
podrían producir en las
Un ejemplo que ilustra refinerías mexicanas, si
lo ilógico y no para satisfacer la
contradictorio de las demanda interna por lo
políticas menos para disminuir
implementadas es el las exportaciones y
caso del gas natural, fortalecer el mercado
que se utiliza para la interno9
generación de energía,
cuando en realidad es
el combustible más Potencias en el mercado del Petróleo.
caro y que la Hace algunos años se creía que los
producción de México principales productores mundiales de
no satisface la petróleo eran Estados Unidos,
demanda, habiendo un URRSS., Venezuela, Koweit, Arabia
combustible más Saudita, Irán, Irak. En Iberoamérica
barato y que en México seguían a Venezuela, en orden de
se desperdicia el producción, México, Argentina,
FTAV. 8 Colombia, Trinidad y Tobago, Brasil,
Perú, Chile y Bolivia.
Pero ahora existe una gran
En México en los competencia en este sector del
últimos años el valor de comercio, ya que se disputa en ser
las exportaciones de una potencia en la producción del
petróleo crudo es
inferior al de las 9
Torrea Ocampo José Felipe PEMEX
importaciones de gas mitos, realidades, testimonios y
propuestas, UACM, México 2006 pp.
8
Torrea Ocampo José Felipe PEMEX 142-151
mitos, realidades, testimonios y
propuestas, UACM, México 2006 pp. 57.

422
también llamado “oro negro”. Al estar Turkmenistán o
leyendo acerca del petróleo me Kazajistán. Sucede
encontré con una noticia que se me que se le ha prestado
hizo muy interesante ya que describe poca atención a la
como han ido cambiando las creciente importancia
estadísticas sobre quien está más en la producción de
arriba o debajo de la lista. Por esta hidrocarburos de los
razón considero importante citarla países del África
aquí para compartirla con usted. subsahariana y de las
ex repúblicas
A principios de siglo, soviéticas de Asia
Estados Unidos reabrió Central en los últimos
su consulado en años.
Guinea Ecuatorial. El
consulado había sido Sin embargo, Angola
cerrado por el gobierno es el segundo
de Bill Clinton en los productor de petróleo
‘90 dadas las en África subsahariana
violaciones a los detrás de Nigeria. Las
derechos humanos exportaciones
cometidas en el país petroleras angoleñas
africano. crecieron en un
asombroso 400% entre
El fundamento el 2002 (cuando
principal de la decisión terminaron los 27 años
de la Casa Blanca de guerra civil) y el
puede encontrarse en 2006. Además, es el
una declaración hecha segundo mayor
en el 2002 por Walter proveedor de petróleo
Kansteiner, entonces de China detrás de
subsecretario de Arabia Saudita,
Estado de EE.UU. para aunque muchas
asuntos africanos, empresas líderes
quien afirmó que "el occidentales también
petróleo africano se tienen inversiones en
está convirtiendo a el país.
gran velocidad en un
interés estratégico Guinea Ecuatorial, la
nacional". única ex colonia
española en la región,
Guinea Ecuatorial no no se queda atrás y es
es un país en el que el el tercer productor
argentino medio piense subsahariano. Los
al nombrar productores ingresos por
de hidrocarburos, exportaciones
como tampoco lo son petroleras del pequeño
Angola o los asiáticos país atlántico (es sólo
423
un poco más grande están inmersas en la
que la provincia de lucha de poder entre
Tucumán) crecieron, distintos países
en la última década, un desarrollados y China
1.994%. por controlar la
producción de
Hubo un sólo país del combustible.
mundo, también
africano aunque Esta situación se
ubicado en la costa reflejó en muchos
opuesta, con un medios
crecimiento más norteamericanos allá
pronunciado en el por 2003 cuando
mismo lapso. Fue Estados Unidos
Sudán, con el 7.000%. invadió Irak. Fue por
entonces que se
Las tasas de comenzó a hablar del
crecimiento en la Golfo de Guinea como
producción de petróleo una zona importante
y gas en los países de para los intereses
Asia Central no han estadounidenses. Los
sido tan elevadas, pero medios llamaban a la
aún así son altas. región el "Otro Golfo" o
Destacan sobre todo el "Nuevo Golfo", en
Kazajistán, donde se referencia al Golfo
produce un 280% más Pérsico y la veían
de gas y un 185% más como una alternativa
de petróleo ahora que viable y necesaria de
hace diez años; y suministro para las
Turkmenistán, donde necesidades petroleras
el aumento en la última y gasíferas
década fue del 82% en estadounidenses. Hoy
gas y 113% petróleo. lo sigue siendo. Según
la revista financiera
Los países nombrados Forbes, la región
hasta aquí conforman podría llegar a
dos regiones claves suministrar hasta el
geo-políticamente: la 25% de las
costa occidental importaciones
africana (sobre todo en estadounidenses para
la región del Golfo de el 2015.
Guinea) y la región de
las ex repúblicas Geografía del futuro.
soviéticas en el centro La región del golfo está
asiático. Son regiones formada por varios
cuya importancia crece países; el mayor
a gran velocidad y que productor petrolero
424
entre ellos es Nigeria, demanda total por
cuya importancia para petróleo creció un
la industria petrolera es 102% (contra un 12%
conocida hace tiempo. de crecimiento de la
De hecho, entre 1996 y demanda
2006 su producción estadounidense) y
aumentó un 20%. La África ofrece la mejor
clave de estos países opción para saciar ese
se encuentra en aumento, que
Guinea Ecuatorial y en continuará en el futuro.
los aportes menores Así como Angola se ha
que puedan ofrecer los convertido en uno de
demás países que sus principales
sobre-miran el golfo: proveedores, Sudán
Togo, Santo Tomé, también está entre los
Benin, Camerún y países desde donde
Gabón. Técnicamente, más importa petróleo
Angola no pertenece al el país asiático. China
golfo por estar más al está invirtiendo
sur, pero suele ser grandes cantidades en
incluida en los análisis el área, como el
de la región. préstamo de 3.000
millones de dólares
Al encontrarse en línea que le hizo a Angola
diagonal a la costa hace un par de años, y
atlántica está sentando
estadounidense, y a precedentes de lo que
una distancia se avecina en los
relativamente corta próximos años en el
según estándares terreno del comercio
transoceánicos, el internacional: la puja
Golfo de Guinea por dominar las nuevas
cuenta con una fuentes de producción
ubicación geográfica energética. China
privilegiada para cuenta con la ventaja
exportar petróleo y gas de no tener que
a los Estados Unidos. enfrentarse a la clase
El transporte desde allí de dilemas éticos de
es sencillo, rápido y algunos gobiernos
seguro y por eso a occidentales. Al igual
Washington le que en la península
conviene establecer arábica, el África
vínculos comerciales. sahariana o en Irán,
varios de los países
China también se del Golfo de Guinea
interesa en la región. son gobernados por
Entre 1996 y 2006 su dictaduras o

425
autarquías, son derrocó y ejecutó a su
altamente corruptos y tío en un golpe de
tienen pésimos Estado en 1979.
antecedentes en el Aunque legalmente
respeto por los Obiang Nguema es un
derechos humanos. presidente
Por ende, comerciar democrático, ya que
con los países del "otro convoca a elecciones
golfo" puede llegar a periódicas, no siempre
plantear un problema tiene oposición: en el
moral (al menos de la 2002, todos los
boca para afuera) para partidos opositores se
Estados Unidos y los retiraron de la
demás países contienda presidencial
desarrollados de antes de los comicios.
Occidente. Lo mismo La oposición acusa a
puede decirse de las Obiang Nguema de ser
naciones del Centro de uno de los dictadores
Asia. más sangrientos de
África.
Según el informe de
corrupción global 2007 Tanto en Guinea
de Transparency Ecuatorial como en
International, sobre un otros de estos paísesa
total de 179 se ha denunciado en
posiciones, Angola y más de una
Nigeria se ubican oportunidad la
juntos en el lugar 147, desaparición de
Kazajistán está en el millones de dólares de
150, Turkmenistán en ingresos por
el 162, Guinea hidrocarburos de las
Ecuatorial en el 168, arcas públicas en los
Sudán en el 172 y últimos años. Al
Uzbekistán en el 175. respecto, en el 2002
un periodista de la
Africa mía. Un ejemplo BBC le preguntó a
contundente lo ofrece Obiang Ngume por qué
Guinea Ecuatorial, desaparecía tanto
donde sólo dos dinero. El presidente,
personas han que se encontraba en
gobernado desde la campaña en ese
obtención de la momento, respondió
independencia en que era un secreto de
1968: Francisco Estado y que no tenía
Macías y su sobrino que explicarle a nadie
Teodoro Obiang el destino dado a ese
Nguema, quien dinero. Algo parecido a

426
lo que en otros países un duro golpe a las
se llama "fondos necesidades
reservados". estratégicas europeas
cuando acordó con el
A diferencia de los primer ministro ruso
países costeros Vladimir Putin y el
africanos, varios de los presidente de
países centro-asiáticos Turkmenistán,
tienen complicaciones Gurbanguly
al momento de Berdymukhammedov,
exportar, sobre todo la construcción de un
Turkmenistán y gasoducto a Rusia.
Uzbekistán (el mayor Tiempo antes, la Unión
productor de gas de Europea había
las repúblicas ex intentado convencer a
soviéticas de Asia Nazarbayev de
central). Ambos países construir un gasoducto
tienen pocas salidas a Turquía, vía el
porque de un lado está Caspio, y llegar desde
Afganistán, que no es ahí a Europa. Las
una opción viable, por relaciones energéticas
otro está Rusia y por entre la UE y Rusia
otro Irán. Les queda la son tensas desde hace
costosa opción de tiempo.
atravesar el Caspio
para salir a través de la Como las de la
región del Caúcaso. En mayoría de los
un mundo ideal, productores asiáticos
ninguno de los dos de hidrocarburos, las
países querría hacer instituciones políticas
negocios con Rusia, kazakas no son de lo
pero lo hacen. La más firmes:
posibilidad de que Nazarbayev preside el
negocien con Irán es país desde la caída de
resistida desde la URSS en 1991 y
Washington. forma parte de los
escalones más altos
Kazajistán es el mayor del gobierno desde
productor petrolero de 1979, cuando se
la región y exporta convirtió en secretario
mucho a través del del comité central del
Golfo Pérsico (gracias Partido Comunista. Por
a un acuerdo con Irán) su parte, la vecina
y cada vez más hacia Turkmenistán es uno
China. En mayo, el de los países donde
presidente Nursultan menos se respetan los
Nazarbayev le asestó derechos humanos,

427
según Amnesty por defender los
International. Lo mismo intereses de empresas
sucede con italianas ante cualquier
Uzbekistán. clase de volatilidad
política en Asia central.
A pesar de sus Puede suponerse que
relaciones con Rusia, cualquier otro líder de
Irán y China, los la UE hubiera actuado
países centro-asiáticos de forma similar.
presentan una gran
ventaja para los Los principales
compradores productores africanos
occidentales de gas y subsaharianos solían
petróleo al no ofrecer la misma
pertenecer a la OPEP, ventaja de no
el cartel petrolero tan pertenecer a la OPEP
temido por los y por lo tanto no tener
compradores de limitada la extracción.
petróleo porque limita La excepción era
la producción de sus Nigeria, que se está
miembros a fin de encargando de atraer a
regular el precio del los demás países
barril. regionales a la
organización. Fue
De ahí el gran interés Nigeria quien más
de las grandes negoció para incorpora
petroleras europeas y al cartel a Angola
estadounidenses por (sucedió en diciembre
desarrollar campos pasado) y también fue
petrolíferos en la zona quien invitó a Sudán a
norte del Mar Caspio. unirse. En este
Eso también explica momento, Sudán, al
por qué el primer igual que Ecuador, son
ministro italiano, observadores en la
Romano Prodi, organización.
intervino ante el
gobierno de Si las estimaciones
Nazarbayev a actuales sobre las
principios de octubre reservas petroleras y
cuando el gobierno gasíferas argentinas
kazako amenazó con son correctas, a
romper un contrato con nuestro país no le
la empresa italiana Eni. quedan más de diez
El contrato no se años de reservas. Si
rompió, pero la esto sucedo, la
situación demostró la Argentina deberá
preocupación de Prodi importar hidrocarburos
428
y entonces Angola, El tema del petróleo ahora desafía
Kazajistán, algunas amenazas a la sociedad,
Turkmenistán y la zona ahora en nuestro país ha sido víctima
del Golfo de Guinea de derrames en el Golfo de México a
pasarán a ser nombres causa de la explosión de una de las
importantes porque plataformas de Estados Unidos, esto
estarán entre quienes además de ser un peligro para
determinen el valor nuestra sociedad es un desastre
internacional del ecológico que aún del todo no ha
combustible. Ya es llegado a afectar a nuestro país, pero
hora de ir si a algunos estados de E.U., se ha
conociéndolos.10 mencionada que es el peor desastre
ecológico ocurrido.

Amenazas a la sociedad. Como podemos notar la


Como lo dice la cita anterior, ahora en contaminación es una de los
la actualidad los países luchan por desastres que puede causar el
ser el líder en producción de petróleo petróleo, pero existe uno aun peor al
ya que es muy caro comprarlo y aun que estamos expuestos todos los
más refinarlo, y como es un recurso países: “La Guerra”. Me he topado
natural NO RENOVABLE, teniendo con artículos que tratan sobre la
colonias en donde se produzca y Guerra de Estados unidos-Irak en los
refine serían potencias en producción cuales menciona que esa guerra es
y a demás no tendrían que comprar y sólo una estrategia geo-política para
florecerían como un país que nuestro país vecino tenga un
independiente. control energético en el mundo, es
decir, en realidad Estados Unidos era
Que el caso no es el de nuestro país. ya un país rico en petróleo, con
grandes reservas dentro de su
México sólo es productor de petróleo
territorio o bajo su control, y
crudo, ya que no cuenta con la
realmente no necesitan de recursos
tecnología suficiente como para
energéticos ajenos. De lo que se trata
refinarlo, puedes creer que nuestro
es de apoderarse del control del
país exporta petróleo crudo y
petróleo del mundo, para así evitar
después lo vuelve a comprar
que otros países rivales como China
importado, y refinado a un precio
o Rusia puedan beneficiarse de los
mucho más alto, y todo por no contar
recursos de petróleo de Oriente
con la tecnología suficiente para
Medio y que puedan alcanzar un
hacerlo por nosotros mismos y no
desarrollo mayor que Estados
depender de otros países.
Unidos.

10
El problema final es la tradicional
Rodrigo Tichard, REVISTA
alianza, hoy en día nuclear, entre Irán
ELCTRÓNICA “Noticias de la Semana”,
Las nuevas Potencias,,2010, Petróleo, y Rusia. Cuando Estados Unidos
(vi: 16 de mayo de 2010) ataque Irán la Tercera Guerra
http://www.revista- Mundial, que hace años que empezó
noticias.com.ar/comun/nota.php?
art=954&ed=1614

429
en el Mar Caspio, llegará también a expropiación es la mejor época no
Occidente. sólo para el crecimiento en
infraestructura inversión y demás en
la industria petrolera sino también
Conclusiones. en es en este periodo donde se da el
México vive una etapa de mejor desarrollo de la sociedad en su
trascendencia, donde se tiene que conjunto en todos sus ámbitos. Y no
tomar medidas al respecto ya que en el sentido de que todo debe ser
desde la época neoliberal los controlado por el gobierno sino que
resultados no son nada optimistas ya debe haber áreas como lo es el
que el modelo por si sólo es petróleo que son estratégicas que
desventajoso pero lo peor es que se deben ser controladas por alguien
acrecienta con las políticas que busque el beneficio general y no
económicas de nuestros gobernantes el particular.
No se puede vivir con incongruencias
tan grandes como el régimen
impositivo que no fue abordado pero
que es el mayor freno para el
desarrollo de la industria petrolera, y
no se diga de la falta de interés para
que aquí se produzcan los productos
con mayor valor agregado y no se
tengan que importar, la verdad son
una serie de incongruencias que son
una ofensa para el pueblo.
“Actualmente ante la amenaza de
privatizar Pemex en todo o en parte,
con capital extranjero o nacional pero
siempre capital privado –es decir, que
en tanto capital no puede por
definición responder al interés de la Robótica
nación sino al suyo propio, si no
dejaría de ser capital–, los La robótica es la ciencia y la
fundamentos de la disputa deben tecnología de los robots. Se ocupa
plantearse sobre el mismo terreno: del diseño, manufactura y
quién manda en México”11. Pero aplicaciones de los robots. La
pareciera que esa disputa ya no es robótica combina diversas
disputa por que desde años atrás hay disciplinas como son: la mecánica,
un ganador y son las trasnacionales la electrónica, la informática, la
como en el Porfiriato. inteligencia artificial y la ingeniería
En general creo que los datos de control. Otras áreas importantes
presentados aunque muy básico, son en robótica son el álgebra, los
claros que la época a partir de la autómatas programables y las
máquinas de estados.
11

430
El término robot se popularizó con esta protección no entre en
el éxito de la obra RUR (Robots conflicto con la Primera o la
Universales Rossum), escrita por Segunda Ley.
Karel Capek en 1920. En la
traducción al inglés de dicha obra, En la ciencia ficción el hombre ha
la palabra checa robota, que imaginado a los robots visitando
significa trabajos forzados, fue nuevos mundos, haciéndose con
traducida al inglés como robot. el poder, o simplemente aliviando
de las labores caseras.
2._ Historia de la robótica

La historia de la robótica ha
estado unida a la construcción de
"artefactos", que trataban de
materializar el deseo humano de
crear seres a su semejanza y que
lo descargasen del trabajo. El
ingeniero español Leonardo
Torres Quevedo (GAP) (que
construyó el primer mando a
distancia para su automóvil Tabla Histórica
mediante telegrafía sin hilo, el
ajedrecista automático, el primer
transbordador aéreo y otros No
muchos ingenios) acuñó el término F
mb
"automática" en relación con la e
Import re Inve
teoría de la automatización de c
ancia del ntor
tareas tradicionalmente asociadas h
rob
a los humanos. a
ot
El término robótica es acuñado por
Isaac Asimov, definiendo a la
ciencia que estudia a los robots. S Descri Au Ctes
Asimov creó también las Tres ig pcion ton ibius
Leyes de la Robótica: lo es de om de
I más a Alex
1. Un robot no debe dañar a un a de andr
ser humano o, por su inacción, . 100 ia,
dejar que un ser humano sufra C máqui Filó
daño. . nas y n de
2. Un robot debe obedecer las y autóm Biza
órdenes que le son dadas por un a atas, ncio,
ser humano, excepto si estas n incluy Her
órdenes entran en conflicto con la t endo ón
Primera Ley. e un de
3. Un robot debe proteger su s artefa Alex
propia existencia, hasta donde
431
cto rob
con oti
fuego, za
un do
órgan s
o de
viento
, una
máqui Ca
na Diseñ bal
c. Leo
opera o de ler
1 nard
da un o
4 o da
media robot me
9 Vinc
nte huma cá
5 i
una andr noide nic
mone ia, y o
da, otro
una s
máqui Pato
na de mecá
vapor, nico
en capaz Di Jacq
Pneu 1 de ge ues
matic 7 comer sti de
a y 3 , ng Vau
Auto 8 agitar Du cans
mata sus ck on
de alas y
Herón excret
de ar.
Alexa
ndria

Jugue
tes
Ba mecá Ju
Prime rco 1 nicos gu Hisa
r co 8 japon ete shig
1 robot n Al- 0 eses s e
2 huma cu Jaza 0 que Ka Tan
0 noide atr ri s sirven rak aka
6 progr o té, uri
amabl mú dispar
e sic an
os flecha

432
s y con
pintan comp
. ortami
ento me Walt
biológ r er
ico
Apare simpl
ce el e5
Ro
primer
ss
autóm
um
ata de
's
1 ficción Kare Prime
Un
9 llama l r
ive
2 do Čap robot
rsa
1 "robot ek comer
l
", cial,
Ro
apare de la
bot
ce en comp
s
R.U.R añía
. Unim
ation
funda
da por
Se 1 Georg Geo
exhib Un
9 e rge
e un im
5 Devol Dev
robot ate
Wes 6 y ol
huma Josep
ting
noide h
1 hou
en la Engel
9 Ele se
World' berge
3 ktr Elec
s r,
0 o tric
Fairs basad
s Cor
entre a en
pora
los una
tion
años patent
1939 e de
y Devol
1940 6

1 Exhibi Els Willi 1 Se Un Geo


9 ción ie am 9 instal im rge
4 de un y Gre 6 a el ate Dev
8 robot El y 1 primer

433
robot capaz
indust ol de
rial despl
azars
e de
forma
Prime Fuji or
1 bíped
r Pal Yus 0 O Co.
9 a e
robot leti oki Ltd
6 intera
"pallet zer Kog ctuar
3
izing"7 yo con
las
perso
Prime nas
r
robot KUK
1 con A Los primeros autómatas
Fa
9 seis Rob
mu En el siglo IV antes de Cristo, el
7 ejes ot
lus matemático griego Arquitas de
3 electr Gro
omec up Tarento construyó un ave
ánico mecánica que funcionaba con
s vapor y al que llamó "La paloma".
También el ingeniero Herón de
Alejandría (10-70 d. C.) creó
numerosos dispositivos
Brazo automáticos que los usuarios
manip podían modificar, y describió
ulador máquinas accionadas por presión
progr de aire, vapor y agua. Por su
amabl Vict parte, el estudioso chino Su Song
1
e PU or levantó una torre de reloj en 1088
9
univer M Sch con figuras mecánicas que daban
7
sal, A ein las campanadas de las horas.
5
un man
produ Al Jazarií (1136–1206), un
cto de inventor musulmán de la dinastía
Unim Artuqid, diseñó y construyó una
ation serie de máquinas automatizadas,
entre los que había útiles de
cocina, autómatas musicales que
funcionaban con agua, y en 1206
2 Robot AS Hon
los primeros robots humanoides
0 Huma IM da
programables. Las máquinas
0 noide Mot
tenían el aspecto de cuatro

434
músicos a bordo de un bote en un artrópodos en funciones y forma.
lago, entreteniendo a los invitados Como se ha hecho notar
en las fiestas reales. Su anteriormente, la tendencia se
mecanismo tenía un tambor dirige hacia ese tipo de cuerpos
programable con clavijas que que ofrecen gran flexibilidad y han
chocaban con pequeñas palancas probado adaptabilidad a cualquier
que accionaban instrumentos de ambiente.
percusión. Podían cambiarse los
ritmos y patrones que tocaba el
tamborilero moviendo las clavijas.

Desarrollo moderno

El artesano japonés Hisashige


Tanaka (1799–1881), conocido
como el "Edison japonés", creó
una serie de juguetes mecánicos
extremadamente complejos,
algunos de los cuales servían té, Aibo de Sony. En una exposición
disparaban flechas retiradas de un de Caixa Galicia en Ponferrada
carcaj e incluso trazaban un kanji
(caracter japonés).8 Con más de 4 piernas, estos
robots son estáticamente estables
Por otra parte, desde la lo que hace que el trabajar con
generalización del uso de la ellos sea más sencillo. Sólo
tecnología en procesos de recientemente se han hecho
producción con la Revolución progresos hacia los robots con
industrial se intentó la locomoción bípeda.
construcción de dispositivos
automáticos que ayudasen o En el sentido común de un
sustituyesen al hombre. Entre autómata, el mayor robot en el
ellos destacaron los Jaquemarts, mundo tendría que ser el
muñecos de dos o más posiciones Maeslantkering, una barrera para
que golpean campanas tormentas del Plan Delta en los
accionados por mecanismos de Países Bajos construida en los
relojería china y japonesa. años 1990, la cual se cierra
automáticamente cuando es
Robots equipados con una sola necesario. Sin embargo, esta
rueda fueron utilizados para llevar estructura no satisface los
a cabo investigaciones sobre requerimientos de movilidad o
conducta, navegación y planeo de generalidad.
ruta. Cuando estuvieron listos para
intentar nuevamente con los En 2002 Honda y Sony,
robots caminantes, comenzaron comenzaron a vender
con pequeños hexápodos y otros comercialmente robots
tipos de robots de múltiples patas. humanoides como “mascotas”.
Estos robots imitaban insectos y Los robots con forma de perro o

435
de serpiente se encuentran, sin comportamiento imita al de los
embargo, en una fase de humanos o a otros animales.
producción muy amplia, el ejemplo
más notorio ha sido Aibo de Sony. Aunque las historias sobre
ayudantes y acompañantes
artificiales, así como los intentos
de crearlos, tienen una larga
historia, las máquinas totalmente
autónomas no aparecieron hasta
el siglo XX. El primer robot
programable y dirigido de forma
digital, el Unimate, fue instalado
en 1961 para levantar piezas
calientes de metal de una máquina
de tinte y colocarlas.

Por lo general, la gente reacciona


de forma positiva ante los robots
con los que se encuentra. Los
robots domésticos para la limpieza
y mantenimiento del hogar son
3._ Robot cada vez más comunes en los
hogares. No obstante, existe una
Un robot es una entidad virtual o cierta ansiedad sobre el impacto
mecánica artificial. En la práctica, económico de la automatización y
esto es por lo general un sistema la amenaza del armamento
electromecánico que, por su robótico, una ansiedad que se ve
apariencia o sus movimientos, reflejada en el retrato a menudo
ofrece la sensación de tener un perverso y malvado de robots
propósito propio. La palabra robot presentes en obras de la cultura
puede referirse tanto a popular. Comparados con sus
mecanismos físicos como a colegas de ficción, los robots
sistemas virtuales de software, reales siguen siendo limitados.
aunque suele aludirse a los
segundos con el término de bots.

No hay un consenso sobre qué


máquinas pueden ser
consideradas robots, pero sí existe
un acuerdo general entre los
expertos y el público sobre que los
robots tienden a hacer parte o
todo lo que sigue: moverse, hacer
funcionar un brazo mecánico,
sentir y manipular su entorno y
mostrar un comportamiento
inteligente, especialmente si ése

436
• 4ª Generación.

Robots inteligentes. Son similares


a los anteriores, pero además
poseen sensores que envían
información a la computadora de
control sobre el estado del
proceso. Esto permite una toma
inteligente de decisiones y el
control del proceso en tiempo real.

Según su arquitectura
4._ Clasificación de los robots
La arquitectura, es definida por el
Según su cronología
tipo de configuración general del
Robot, puede ser metamórfica. El
• 1ª Generación.
concepto de metamorfismo, de
reciente aparición, se ha
Manipuladores. Son sistemas
introducido para incrementar la
mecánicos multifuncionales con un
flexibilidad funcional de un Robot a
sencillo sistema de control, bien
través del cambio de su
manual, de secuencia fija o de
configuración por el propio Robot.
secuencia variable.
El metamorfismo admite diversos
niveles, desde los más
• 2ª Generación.
elementales (cambio de
herramienta o de efecto terminal),
Robots de aprendizaje. Repiten
hasta los más complejos como el
una secuencia de movimientos
cambio o alteración de algunos de
que ha sido ejecutada
sus elementos o subsistemas
previamente por un operador
estructurales. Los dispositivos y
humano. El modo de hacerlo es a
mecanismos que pueden
través de un dispositivo mecánico.
agruparse bajo la denominación
El operador realiza los
genérica del Robot, tal como se ha
movimientos requeridos mientras
indicado, son muy diversos y es
el robot le sigue y los memoriza.
por tanto difícil establecer una
clasificación coherente de los
• 3ª Generación.
mismos que resista un análisis
crítico y riguroso. La subdivisión
Robots con control sensorizado. El
de los Robots, con base en su
controlador es una computadora
arquitectura, se hace en los
que ejecuta las órdenes de un
siguientes grupos: Poliarticulados,
programa y las envía al
Móviles, Androides, Zoomórficos e
manipulador para que realice los
Híbridos.
movimientos necesarios.
• 1. Poliarticulados
437
En este grupo están los Robots de • 3. Androides
muy diversa forma y configuración
cuya característica común es la de Son Robots que intentan
ser básicamente sedentarios reproducir total o parcialmente la
(aunque excepcionalmente forma y el comportamiento
pueden ser guiados para efectuar cinemática del ser humano.
desplazamientos limitados) y estar Actualmente los androides son
estructurados para mover sus todavía dispositivos muy poco
elementos terminales en un evolucionados y sin utilidad
determinado espacio de trabajo práctica, y destinados,
según uno o más sistemas de fundamentalmente, al estudio y
coordenadas y con un número experimentación. Uno de los
limitado de grados de libertad". En aspectos más complejos de estos
este grupo se encuentran los Robots, y sobre el que se centra la
manipuladores, los Robots mayoría de los trabajos, es el de la
industriales, los Robots locomoción bípeda. En este caso,
cartesianos y se emplean cuando el principal problema es controlar
es preciso abarcar una zona de dinámica y coordinadamente en el
trabajo relativamente amplia o tiempo real el proceso y mantener
alargada, actuar sobre objetos con simultáneamente el equilibrio del
un plano de simetría vertical o Robot.
reducir el espacio ocupado en el
suelo. • 4. Zoomórficos

• 2. Móviles Los Robots zoomórficos, que


considerados en sentido no
Son Robots con grandes restrictivo podrían incluir también a
capacidad de desplazamiento, los androides, constituyen una
basados en carros o plataformas y clase caracterizada principalmente
dotados de un sistema locomotor por sus sistemas de locomoción
de tipo rodante. Siguen su camino que imitan a los diversos seres
por telemando o guiándose por la vivos. A pesar de la disparidad
información recibida de su entorno morfológica de sus posibles
a través de sus sensores. Estos sistemas de locomoción es
Robots aseguran el transporte de conveniente agrupar a los Robots
piezas de un punto a otro de una zoomórficos en dos categorías
cadena de fabricación. Guiados principales: caminadores y no
mediante pistas materializadas a caminadores. El grupo de los
través de la radiación Robots zoomórficos no
electromagnética de circuitos caminadores está muy poco
empotrados en el suelo, o a través evolucionado. Los experimentados
de bandas detectadas efectuados en Japón basados en
fotoeléctricamente, pueden incluso segmentos cilíndricos biselados
llegar a sortear obstáculos y están acoplados axialmente entre sí y
dotados de un nivel relativamente dotados de un movimiento relativo
elevado de inteligencia. de rotación. Los Robots
zoomórficos caminadores
438
multípedos son muy numeroso y
están siendo experimentados en
diversos laboratorios con vistas al
desarrollo posterior de verdaderos
vehículos terrenos, piloteando o
autónomos, capaces de
evolucionar en superficies muy
accidentadas. Las aplicaciones de
estos Robots serán interesantes
en el campo de la exploración
espacial y en el estudio de los
volcanes.

• 5. Híbridos

Estos Robots corresponden a


aquellos de difícil clasificación
cuya estructura se sitúa en
combinación con alguna de las
anteriores ya expuestas, bien sea
por conjunción o por
yuxtaposición. Por ejemplo, un
dispositivo segmentado articulado 5._ La robótica en la actualidad
y con ruedas, es al mismo tiempo
uno de los atributos de los Robots En la actualidad, los robots
móviles y de los Robots comerciales e industriales son
zoomórficos. De igual forma ampliamente utilizados, y realizan
pueden considerarse híbridos tareas de forma más exacta o más
algunos Robots formados por la barata que los humanos. También
yuxtaposición de un cuerpo se les utiliza en trabajos
formado por un carro móvil y de un demasiado sucios, peligrosos o
brazo semejante al de los Robots tediosos para los humanos. Los
industriales. En parecida situación robots son muy utilizados en
se encuentran algunos Robots plantas de manufactura, montaje y
antropomorfos y que no pueden embalaje, en transporte, en
clasificarse ni como móviles ni exploraciones en la Tierra y en el
como androides, tal es el caso de espacio, cirugía, armamento,
los Robots personales. investigación en laboratorios y en
la producción en masa de bienes
industriales o de consumo.9

Otras aplicaciones incluyen la


limpieza de residuos tóxicos,
minería, búsqueda y rescate de
personas y localización de minas
terrestres.

439
Expo 2005, Nagakute (Aichi)

Existe
una
gran 6._Aplicaciones:

Usos médicos

Recientemente, se ha logrado un
gran avance en los robots
dedicados a la medicina, con dos
compañías en particular,
Computer Motion e Intuitive
Surgical, que han recibido la
esperanza, especialmente en aprobación regulatoria en América
Japón, de que el cuidado del del Norte, Europa y Asia para que
hogar para la población de edad sus robots sean utilizados en
avanzada pueda ser procedimientos de cirugía invasiva
desempeñado por robots. mínima. Desde la compra de
Computer Motion (creador del
Los robots parecen estar robot Zeus) por Intuitive Surgical,
abaratándose y reduciendo su se han desarrollado ya dos
tamaño, una tendencia modelos de robot daVinci por esta
relacionada con la miniaturización última. En la actualidad, existen
de los componentes electrónicos más de 800 robots quirúrgicos
que se utilizan para controlarlos. daVinci en el mundo, con
Además, muchos robots son aplicaciones en Urología,
diseñados en simuladores mucho Ginecología, Cirugía general,
antes de construirse y de que Cirugía Pediátrica, Cirugía
interactúen con ambientes físicos Torácica, Cirugía Cardíaca y ORL.
reales. Un buen ejemplo de esto También la automatización de
es el equipo Spiritual Machine, un laboratorios es un área en
equipo de 5 robots desarrollado crecimiento. Aquí, los robots son
totalmente en un ambiente virtual utilizados para transportar
para jugar al fútbol en la liga muestras biológicas o químicas
mundial de la F.I.R.A. entre instrumentos tales como
incubadoras, manejadores de
Además de los campos líquidos y lectores. Otros lugares
mencionados, hay modelos donde los robots están
trabajando en el sector educativo, reemplazando a los humanos son
servicios (por ejemplo, en lugar de la exploración del fondo oceánico
recepcionistas humanos o y exploración espacial. Para esas
vigilancia) y tareas de búsqueda y tareas se suele recurrir a robots de
rescate. tipo artrópodo.

440
Modelos de vuelo dios griego de los herreros,
Hefesto (Vulcano para los
En fases iniciales de desarrollo romanos) creó sirvientes
hay robots alados experimentales mecánicos inteligentes, otros
y otros ejemplos que explotan el hechos de oro e incluso mesas
biomimetismo. Se espera que los que se podían mover por sí
así llamados nanomotores y mismas. Algunos de estos
cables inteligentes simplifiquen autómatas ayudan al dios a forjar
drásticamente el poder de la armadura de Aquiles, según la
locomoción, mientras que la Ilíada Aunque, por supuesto, no se
estabilización en vuelo parece describe a esas máquinas como
haber sido mejorada "robots" o como "androides", son
substancialmente por giroscopios en cualquier caso dispositivos
extremadamente pequeños. mecánicos de apariencia humana.

Modelos militares Una leyenda hebrea habla del


Golem, una estatua animada por
Un impulsor muy significativo de la magia cabalística. Por su parte,
este tipo de investigaciones es el las leyendas de los Inuit describen
desarrollo de equipos de espionaje al Tupilaq (o Tupilak), que un
militar. mago puede crear para cazar y
asesinar a un enemigo. Sin
Destacan también el éxito de las embargo, emplear un Tupilaq para
bombas inteligentes y UCAVs en este fin puede ser una espada de
los conflictos armados, sin olvidar doble filo, ya que la víctima puede
el empleo de sistemas robóticos detener el ataque del Tupilaq y
para la retirada de minas reprogramarlo con magia para que
antipersonales. busque y destruya a su creador.

Literatura

Ya en 1817, en un cuento de
Hoffmann llamado El Coco,
aparece una mujer que parecía
una muñeca mecánica, y en la
obra de Edward S. Ellis de 1865 El
7._ Los robots en la ficción Hombre de Vapor de las Praderas
se expresa la fascinación
Mitología americana por la industrialización.

Muchas mitologías antiguas tratan Como se indicaba más arriba, la


la idea de los humanos artificiales. primera obra en utilizar la palabra
En la mitología clásica, se dice robot fue la obra teatral R.U.R. de
que Cadmo sembró dientes de Čapek,(escrita en colaboración
dragón que se convertían en con su hermano Josef en 1920;
soldados, y Galatea, la estatua de representada por primera vez en
Pigmalión, cobró vida. También el 1921; escenificada en Nueva York
441
en 1922. La edición en inglés se a ramas aplicadas del
publicó en 1923). conocimiento.

La obra comienza en una fábrica Cine y televisión


que construye personas artificiales
llamadas robots, pero están más El tono económico y filosófico
cerca del concepto moderno de iniciado por R.U.R. sería
androide o clon, en el sentido de desarrollado más tarde por la
que se trata de criaturas que película Metrópolis, y las
pueden confundirse con humanos. populares Blade Runner (1982) o
Pueden pensar por sí mismos, The Terminator (1984).
aunque parecen felices de servir.
En cuestión está si los robos están Existen muchas películas sobre
siendo explotados, así como las robots, como Inteligencia Artificial
consecuencias por su tratamiento. de Steven Spielberg, Terminator
de James Cameron, o las dos
El autor más prolífico de historias películas basadas en los relatos
sobre robots fue Isaac Asimov de Isaac Asimov, Yo, Robot y El
(1920-1992), que colocó los robots hombre bicentenario, así también
y su interacción con la sociedad como Cortocircuito y la versión de
en el centro de muchos de sus Disney: Wall-E.
libros. Este autor consideró
seriamente la serie ideal de En televisión, existen series muy
instrucciones que debería darse a populares como Robot Wars y
los robots para reducir el peligro Battlebots, de batallas de estilo
que éstos representaban para los sumo entre robots.
humanos. Así llegó a formular sus
Tres Leyes de la Robótica. Más En la serie "Futurama" de Matt
tarde, Asimov añadió la ley de Groening, los robots poseen una
Cero: "Ningún robot causará daño identidad propia, como
a la humanidad ni permitirá, con ciudadanos.
su inacción que la humanidad
sufra daño". El resto de las leyes
se modificaron para ajustarse a
este añadido.

Según el Oxford English


Dictionary, el principio del relato
breve ¡Mentiroso! de 1941
contiene el primer uso registrado
de la palabra robótica. El autor no
fue consciente de esto en un
principio, y asumió que la palabra
ya existía por su analogía con
mecánica, hidráulica y otros
términos similares que se refieren

442
conflictos que se podrían dar entre
estas leyes.

Entender y aplicar lo
anteriormente expuesto requeriría
verdadera inteligencia y
consciencia del medio
circundante, así como de sí
mismo, por parte del robot, algo
que a pesar de los grandes
avances tecnológicos de la era
moderna no se ha alcanzado.

9._ El impacto de los robots en


el plano laboral

Muchas grandes empresas, como


Intel, Sony, General Motors, Dell,
8._ Cuestiones éticas han implementado en sus líneas
de producción unidades robóticas
Existe la preocupación de que los para desempeñar tareas que por
robots puedan desplazar o lo general hubiesen desempeñado
competir con los humanos. Las trabajadores de carne y hueso en
leyes o reglas que pudieran o épocas anteriores.
debieran ser aplicadas a los robots
u otros “entes autónomos” en Esto ha causado una agilización
cooperación o competencia con en los procesos realizados, así
humanos si algún día se logra como un mayor ahorro de
alcanzar la tecnología suficiente recursos, al disponer de máquinas
como para hacerlos inteligentes y que pueden desempeñar las
conscientes de sí mismos, han funciones de cierta cantidad de
estimulado las investigaciones empleados a un costo
macroeconómicas de este tipo de relativamente menor y con un
competencia, notablemente grado mayor de eficiencia,
construido por Alessandro Acquisti mejorando notablemente el
basándose en un trabajo anterior rendimiento general y las
de John von Neumann. ganancias de la empresa, así
como la calidad de los productos
Actualmente, no es posible aplicar ofrecidos.
las Tres leyes de la robótica, dado
que los robots no tienen capacidad Pero, por otro lado, ha suscitado y
para comprender su significado, mantenido inquietudes entre
evaluar las situaciones de riesgo diversos grupos por su impacto en
tanto para los humanos como para la tasa de empleos disponibles,
ellos mismos o resolver los así como su repercusión directa
en las personas desplazadas.
Dicha controversia ha abarcado el
443
aspecto de la seguridad, llamando Historia
la atención de casos como el
ocurrido en Jackson, Míchigan, el La cibernética es una ciencia,
21 de julio de 1984 donde un robot nacida hacia 1948 e impulsada
aplastó a un trabajador contra una inicialmente por Norbert Wiener
barra de protección en la que que tiene como objeto “el control y
aparentemente fue la primera comunicación en el animal y en la
muerte relacionada con un robot máquina” o “desarrollar un
en los EE. UU. lenguaje y técnicas que nos
permitirán abordar el problema del
Debido a esto se ha llamado la control y la comunicación en
atención sobre la ética en el general” En 1950, Ben Laposky,
diseño y construcción de los un matemático de Iowa, creó los
robots, así como la necesidad de oscilones o abstracciones
contar con lineamientos claros de electrónicas por medio de un
seguridad que garanticen una ordenador analógico: se considera
correcta interacción entre esta posibilidad de manipular
humanos y máquinas. ondas y de registrarlas
electrónicamente como el
despertar de lo que habría de ser
10._ Cibernética denominado computer graphics y,
luego, computer art e infoarte. La
La cibernética es el estudio cibernética dio gran impulso a la
interdisciplinario de la estructura teoría de la información a
de los sistemas reguladores. La mediados de los 60, la
cibernética está estrechamente computadora digital sustituyo la
vinculada a la teoría de control y a analógica en la elaboración de
la teoría de sistemas. Tanto en imágenes electrónicas. En esos
sus orígenes como en su años aparecen la segunda
evolución, en la segunda mitad del generación de computadoras (con
siglo XX, la cibernética es transistores en 1960)
igualmente aplicable a los concretándose por entonces los 1°
sistemas físicos y sociales. Los dibujos y gráficos de computadora,
sistemas complejos afectan y y la tercera (con circuitos
luego se adaptan a su ambiente integrados, en 1964) así como los
externo; en términos técnicos, se lenguajes de programación.
centra en funciones de control y
comunicación: ambos fenómenos Las primeras experiencias de lo
externos e internos del/al sistema. que luego se llamaría net.art. se
Esta capacidad es natural en los remontan al año 1994, es
organismos vivos y se ha imitado importante aclarar que ya por los
en máquinas y organizaciones. 1960 existían algunas
Especial atención se presta a la antecedentes. De todas formas se
retroalimentación y sus conceptos puede establecer, que las
derivados. primeras experiencias donde la
tecnología informática puesta al
servicio de la comunidad funcionó
444
como soporte estético trascurren Algunas ventajas son:
por aquellos años y rompe con la
idea de lectura lineal de la obra... • La reducción de las jornadas
laborales, los trabajos complejos o
rutinarios pasarían a ser de las
máquinas. Además, la cibernética
brinda un gran aporte al campo
medicinal.
• Un conocimiento mayor de
como funcionan los sistemas
complejos pudiera llevar a la
solución de problemas también
complejos como la criminalidad en
las grandes ciudades
11._ Cibernética y robótica

Mucha gente asocia la cibernética


con la robótica, los robots y el
concepto de cyborg debido al uso
que se le ha dado en algunas
obras de ciencia ficción, pero
desde un punto de vista
estrictamente científico, la
cibernética trata acerca de
sistemas de control basados en la
retroalimentación.

Ciertas aplicaciones de la
cibernética pueden presentar
algunas desventajas por ejemplo:

• La creación de máquinas
complejas que reemplacen a los 12._ Androide
trabajadores provocaría un recorte • Androide es la denominación
de personal. que se le da a un robot
• En un futuro ya no se antropomorfo que, además de
ocuparía personal "viejo" y imitar la apariencia humana, imita
contratarían técnicos jóvenes para algunos aspectos de su conducta
el mantenimiento de las máquinas. de manera autónoma. Es un
• Es una tecnología muy término mencionado por primera
potente pero su gran limitación es vez por Alberto Magno en 1270 y
encontrar la relación máquina- popularizado por el autor francés
sistema nervioso; ya que para esto Auguste Villiers en su novela de
se debería conocer el sistema 1886 L'Ève future.
nervioso perfectamente. Etimológicamente "androide" se
refiere a los robots humanoides de
fisionomía masculina, a los robots

445
de apariencia femenina se les sabio, es con bastante frecuencia
llama ocasionalmente ginoides, un monstruo que se rebela contra
principalmente en las obras de su creador y en ocasiones lo
ciencia ficción, aunque en el destruye como castigo por su
lenguaje coloquial el término hubris; y el primero de los cuales
androide suele usarse para ambos no es necesariamente el monstruo
casos. de Frankenstein de Mary Shelley.
Bien que dicho monstruo sea
Androides en la cultura popular fácilmente el más famoso.
Robot
ASIMO De hecho es tan notorio este
de fenómeno, que el reconocido
Honda. experto en inteligencia artificial
Marvin Minsky, llegó a narrar
Un como en ocasiones llegaba a
robot sentirse incómodo frente a una de
sus creaciones, el androide Cog,
cuando éste presentaba
conductas inesperadas.

En otras culturas las reacciones


pueden ser bastante diferentes.
humanoide que se limita a imitar Un ejemplo meritorio es la actitud
los actos y gestos de un japonesa faz a los androides,
controlador humano, no es visto donde el público no teme la
por el público como un verdadero antropomorfización de las
androide, sino como una simple máquinas, y aceptan por lo tanto
marioneta animatrónica. El con menos problemas la idea que
androide siempre ha sido un robot tenga apariencia humana,
representado como una entidad para poder así interactuar más
que imita al ser humano tanto en fácilmente con seres humanos.
apariencia, como en capacidad
mental e iniciativa. Antes incluso
de haber visto un verdadero robot
en acción, la mayoría de las Androides en la ciencia
personas asocian la idea de robot
con la de androide, debido a su En la robótica la actitud de los
extrema popularidad como cliché expertos hacia los autómatas
de la ciencia ficción. humanoides ha vacilado entre el
entusiasmo y el escepticismo.
Entusiasmo porque un robot
La actitud de base entre el público humanoide puede tener enormes
frente a los androides varía en ventajas para cierta clase de
función del bagaje cultural que funciones, escepticismo debido a
posea dicho público. En la cultura que para que una máquina
occidental la criatura humanoide, robótica sea útil, ya se ha
fabricada casi siempre por un demostrado con ejemplos que la

446
forma humana no es necesaria, y 13._ Inteligencia artificial
a veces es incluso un estorbo
(respecto a las capacidades Se denomina inteligencia artificial
actuales de los androides). (IA) a la rama de las Ciencias de
la Computación1 2 3 dedicada al
La construcción de un robot que desarrollo de agentes racionales
imite convincentemente aunque no vivos.
sea una parte ínfima de la libertad
de gestos y movimiento humanos, Para explicar la definición anterior,
es una tarea de una enorme entiéndase a un agente como
complejidad técnica. De hecho, es cualquier cosa capaz de percibir
un problema que en varias su entorno (recibir entradas),
instancias está todavía abierto a la procesar tales percepciones y
investigación y a la mejora, actuar en su entorno (proporcionar
aunque ya existen varios ejemplos salidas), y entiéndase a la
bastante meritorios en ese [racionalidad] como la
sentido, de robots humanoides característica que posee una
que imitan ciertas conductas y elección de ser correcta, más
capacidades humanas. Un específicamente, de tender a
ejemplo conocido en este sentido, maximizar un resultado esperado
es el robot Asimo de Honda, que (este concepto de racionalidad es
es capaz de marchar en dos pies, más general y por ello más
de subir y bajar escaleras y de adecuado que inteligencia para
otra serie de proezas de definir la naturaleza del objetivo de
locomoción bípeda. esta disciplina).

Por lo tanto, y de manera más


específica la inteligencia artificial
es la disciplina que se encarga de
construir procesos que al ser
ejecutados sobre una arquitectura
física producen acciones o
resultados que maximizan una
medida de rendimiento
determinada, basándose en la
secuencia de entradas percibidas
y en el conocimiento almacenado
en tal arquitectura.

Existen distintos tipos de


conocimiento y medios de
representación del conocimiento.
El cual puede ser cargado en el
agente por su diseñador o puede
ser aprendido por el mismo agente
utilizando técnicas de aprendizaje.

447
También se distinguen varios tipos parte de la rutina en campos como
de procesos válidos para obtener economía, medicina, ingeniería y
resultados racionales, que la milicia, y se ha usado en gran
determinan el tipo de agente variedad de aplicaciones de
inteligente. De más simples a más software, juegos de estrategia
complejos, los cinco principales como ajedrez de computador y
tipos de procesos son: otros videojuegos.

• Ejecución de una respuesta Escuelas de pensamiento


predeterminada por cada entrada
(análogas a actos reflejos en seres La IA se divide en dos escuelas de
vivos). pensamiento:
• Búsqueda del estado
requerido en el conjunto de los • La inteligencia artificial
estados producidos por las convencional
acciones posibles. • La inteligencia computacional
• Algoritmos genéticos
(análogo al proceso de evolución Inteligencia artificial
de las cadenas de ADN). convencional
• Redes neuronales artificiales
(análogo al funcionamiento físico Se conoce también como IA
del cerebro de animales y simbólico-deductiva. Está basada
humanos). en el análisis formal y estadístico
• Razonamiento mediante una del comportamiento humano ante
lógica formal (análogo al diferentes problemas:
pensamiento abstracto humano).
• Razonamiento basado en
También existen distintos tipos de casos: Ayuda a tomar decisiones
percepciones y acciones, pueden mientras se resuelven ciertos
ser obtenidas y producidas, problemas concretos y aparte que
respectivamente por sensores son muy importantes requieren de
físicos y sensores mecánicos en un buen funcionamiento.
máquinas, pulsos eléctricos u • Sistemas expertos: Infieren
ópticos en computadoras, tanto una solución a través del
como por entradas y salidas de conocimiento previo del contexto
bits de un software y su entorno en que se aplica y ocupa de
software. ciertas reglas o relaciones.
• Redes bayesianas: Propone
Varios ejemplos se encuentran en soluciones mediante inferencia
el área de control de sistemas, estadística.
planificación automática, la • Inteligencia artificial basada
habilidad de responder a en comportamientos: que tienen
diagnósticos y a consultas de los autonomía y pueden auto-
consumidores, reconocimiento de regularse y controlarse para
escritura, reconocimiento del habla mejorar.
y reconocimiento de patrones. Los • Smart process management:
sistemas de IA actualmente son facilita la toma de decisiones
448
complejas, proponiendo una Historia
solución a un determinado
problema al igual que lo haría un • Las ideas más básicas se
especialista en la actividad. remontan a los griegos, antes de
Cristo. Aristóteles (384-322 a. C.)
fue el primero en describir un
Inteligencia computacional conjunto de reglas que describen
una parte del funcionamiento de la
Inteligencia Computacional (IC) mente para obtener conclusiones
centrada en el estudio de racionales, y Ktesibios de
mecanismos adaptativos para Alejandría (250 a. C.) construyó la
permitir el comportamiento primera máquina autocontrolada,
inteligente de sistemas complejos un regulador del flujo de agua
y cambiantes. Se presenta como (racional pero sin razonamiento).
una alternativa a la GOFAI ("Good • En 1315 Ramon Llull en su
Old-Fashioned Artificial libro Ars magna tuvo la idea de
Intelligence"), tratando de no que el razonamiento podía ser
confiar en algoritmos heurísticos efectuado de manera artificial.
tan habituales en la Inteligencia • En 1936 Alan Turing diseña
Artificial más tradicional. Dentro de formalmente una Máquina
la Inteligencia Computacional universal que demuestra la
podemos encontrar técnicas como viabilidad de un dispositivo físico
las Redes Neuronales, para implementar cualquier
Computación Evolutiva, Swarm cómputo formalmente definido.
Intelligence, Sistemas Inmunes • En 1943 Warren McCulloch y
Artificiales o Sistemas difusos. Walter Pitts presentaron su
También se relaciona con técnicas modelo de neuronas artificiales, el
como los Fractales, Teoría del cual se considera el primer trabajo
Caos, Wavelets, etc. del campo, aun cuando todavía no
existía el término. Los primeros
La Inteligencia Computacional avances importantes comenzaron
combina elementos de a principios de los años 1950 con
aprendizaje, adaptación, evolución el trabajo de Alan Turing, a partir
y Lógica difusa para crear de lo cual la ciencia ha pasado por
programas que son, en cierta diversas situaciones.
manera, inteligentes. La • En 1955 Herbert Simon,
investigación en Inteligencia Allen Newell y J.C. Shaw,
Computacional no rechaza los desarrollan el primer lenguaje de
métodos estadísticos, pero muy a programación orientado a la
menudo aporta una vista resolución de problemas, el IPL-
complementaria. Las Redes 11. Un año más tarde desarrollan
Neuronales son una rama de la el LogicTheorist, el cual era capaz
inteligencia computacional muy de demostrar teoremas
relacionada con el aprendizaje matemáticos.
automático. • En 1956 fue inventado el
término inteligencia artificial por
John McCarthy, Marvin Minsky y

449
Claude Shannon en la • A mediados de los años 60,
Conferencia de Dartmouth, un aparecen los sistemas expertos,
congreso en el que se hicieron que predicen la probabilidad de
previsiones triunfalistas a diez una solución bajo un set de
años que jamás se cumplieron, lo condiciones. Por ejemplo
que provocó el abandono casi total DENDRAL, iniciado en 1965 por
de las investigaciones durante Buchanan, Feigenbaum y
quince años. Lederberg, el primer Sistema
• En 1957 Newell y Simon Experto, que asistía a químicos en
continúan su trabajo con el estructuras químicas complejas
desarrollo del General Problem euclidianas, MACSYMA, que
Solver (GPS). GPS era un sistema asistía a ingenieros y científicos en
orientado a la resolución de la solución de ecuaciones
problemas. matemáticas complejas.
• En 1958 John McCarthy • En 1968 Minsky publica
desarrolla en el Instituto de Semantic Information Processing.
Tecnología de Massachusetts • En 1968 Seymour Papert,
(MIT), el LISP. Su nombre se Danny Bobrow y Wally Feurzeig,
deriva de LISt Processor. LISP fue desarrollan el lenguaje de
el primer lenguaje para programación LOGO.
procesamiento simbólico. • En 1969 Alan Kay desarrolla
• En 1959 Rosenblatt introduce el lenguaje Smalltalk en Xerox
el Perceptrón. PARC y se publica en 1980.
• A fines de los 50 y • En 1973 Alain Colmenauer y
comienzos de la década del 60 su equipo de investigación en la
Robert K. Lindsay desarrolla «Sad Universidad de Aix-Marseille crean
Sam», un programa para la lectura PROLOG (del francés
de oraciones en inglés y la PROgrammation en LOGique) un
inferencia de conclusiones a partir lenguaje de programación
de su interpretación. ampliamente utilizado en IA.
• En 1963 Quillian desarrolla • En 1973 Shank y Abelson
las redes semánticas como desarrollan los guiones, o scripts,
modelo de representación del pilares de muchas técnicas
conocimiento. actuales en Inteligencia Artificial y
• En 1964 Bertrand Raphael la informática en general.
construye el sistema SIR • En 1974 Edward Shortliffe
(Semantic Information Retrieval) el escribe su tesis con MYCIN, uno
cual era capaz de inferir de los Sistemas Expertos más
conocimiento basado en conocidos, que asistió a médicos
información que se le suministra. en el diagnóstico y tratamiento de
Bobrow desarrolla STUDENT. infecciones en la sangre.
• Posteriormente entre los • En las décadas de 1970 y
años 1968-1970 Terry Winograd 1980, creció el uso de sistemas
desarrolló el sistema SHRDLU, expertos, como MYCIN:
que permitía interrogar y dar R1/XCON, ABRL, PIP, PUFF,
órdenes a un robot que se movía CASNET,
dentro de un mundo de bloques. INTERNIST/CADUCEUS, etc.

450
Algunos permanecen hasta hoy Fundamentos y filosofía
(shells) como EMYCIN, EXPERT,
OPSS. Como ocurre casi siempre en el
• En 1981 Kazuhiro Fuchi caso de una ciencia recién creada,
anuncia el proyecto japonés de la la inteligencia artificial aborda
quinta generación de tantas cuestiones confundibles en
computadoras. un nivel fundamental y conceptual
• En 1986 McClelland y que, adjunto a lo científico, es
Rumelhart publican Parallel necesario hacer consideraciones
Distributed Processing (Redes desde el punto de vista de la
Neuronales). filosofía. Gran parte de esta
• En 1988 se establecen los ciencia se junta con temas en la
lenguajes Orientados a Objetos. filosofía de la mente, pero hay
• En 1997 Garry Kasparov, ciertos temas particulares a la IA.
campeón mundial de ajedrez Por ejemplo:
pierde ante la computadora
autónoma Deep Blue. • ¿En qué consiste la
• En 2006 se celebró el inteligencia? ¿Cómo la
aniversario con el Congreso en reconoceríamos en un objeto no
español 50 años de Inteligencia humano, si la tuviera?
Artificial - Campus Multidisciplinar • ¿Qué sustancia y
en Percepción e Inteligencia 2006. organización se requiere? ¿Es
• En el año 2009 ya hay en posible que una criatura hecha de
desarrollo sistemas inteligentes metal, por ejemplo, posea una
terapéuticos que permiten detectar inteligencia comparable a la
emociones para poder interactuar humana?
con niños autistas. • Aunque una criatura no
• Existen personas que al orgánica pudiera solucionar
dialogar sin saberlo con un chatbot problemas de la misma manera
no se percatan de hablar con un que un humano, ¿tendría o podría
programa, de modo tal que se tener conciencia y emociones?
cumple la prueba de Turing como • Suponiendo que podemos
cuando se formuló: «Existirá hacer robots con una inteligencia
Inteligencia Artificial cuando no comparable a la nuestra,
seamos capaces de distinguir ¿debemos hacerlo?
entre un ser humano y un
programa de computadora en una Durante más de 2000 años de
conversación a ciegas». tradición en filosofía, han ido
• Como anécdota, muchos de surgiendo diversas teorías del
los investigadores sobre IA razonamiento y del aprendizaje,
sostienen que «la inteligencia es simultáneamente con el punto de
un programa capaz de ser vista de que la mente se reduce al
ejecutado independientemente de funcionamiento físico. La
la máquina que lo ejecute, psicología ofrece herramientas
computador o cerebro». que permiten la investigación de la
mente humana, así como un
lenguaje científico para expresar
451
las teorías que se van obteniendo. su nombre al-Jwarizmi deriva la
La lingüística ofrece teorías para palabra algoritmo).
la estructura y significado del
lenguaje, así como la ciencia de la El hombre se ha aplicado a sí
computación, de la que se toman mismo el nombre científico de
las herramientas que permiten que Homo sapiens como una
la Inteligencia Artificial sea una valoración de la trascendencia de
realidad. nuestras habilidades mentales
tanto para nuestra vida cotidiana
Empezó con el nacimiento de como para nuestro propio sentido
Platón en 428 a. C. y con lo que de identidad. Los esfuerzos del
aprendió de Sócrates. La temática campo de la inteligencia artificial
de su obra fue muy diversa: se enfocan en lograr la
política, matemática, física, compresión de entidades
astronomía y diversas ramas de la inteligentes. Una de las razones
filosofía. El filósofo Hubet Dreyfus de su estudio es el aprender más
(1979) afirma que: de nosotros mismos. A diferencia
de la filosofía y de la psicología,
Bien podría afirmarse que la que también se ocupan de la
historia de la inteligencia artificial inteligencia, los esfuerzos de la
comienza en el año 450 a.C., inteligencia artificial están
cuando Platón cita un diálogo en encaminados tanto a la
el que Sócrates le pregunta a construcción de entidades como a
Eutidemo: «Desearía saber cuál su compresión. Otra razón por la
es la característica de la piedad cual se estudia la inteligencia
que hace que una acción se artificial es debido a que ha sido
pueda considerar como pía... y así posible crear sorprendentes y
la observe y me sirva de norma diversos productos de
para juzgar tus acciones y las de trascendencia. Nadie podría
otros.» pronosticar con toda precisión lo
que se podría esperar en el futuro,
Los filósofos delimitaron las más es evidente que las computadoras
importantes ideas relacionadas que posean una inteligencia a
con la inteligencia artificial, pero nivel humano tendrán
para pasar de allí a una ciencia repercusiones muy importantes en
formal era necesario contar con nuestra vida diaria así como en el
una formalización matemática en devenir de la civilización.
tres áreas principales: la
computación, la lógica y la El problema que aborda la
probabilidad. La idea de expresar inteligencia artificial es uno de los
un cálculo mediante un algoritmo más complejos: ¿Cómo es posible
formal se remonta a la época de que un diminuto y lento cerebro,
Jwarizmi, matemático árabe del sea biológico o electrónico, tenga
siglo IX, con cuyas obras se capacidad de percibir,
introdujeron en Europa los comprender, predecir y manipular
números arábigos y el álgebra (de un mundo que en tamaño y
complejidad lo excede con
452
creces?, pero a diferencia de la En esta línea, hay que saber que
investigación en torno al ya existen sistemas inteligentes.
desplazamiento mayor que la Capaces de tomar decisiones
velocidad de la luz o de un «acertadas».
dispositivo antigravitatorio, el
investigador del campo de la Aunque, por el momento, la
inteligencia artificial cuenta con mayoría de los investigadores en
pruebas contundentes de que tal el ámbito de la Inteligencia
búsqueda es totalmente factible. Artificial se centran sólo en el
aspecto racional, muchos de ellos
La inteligencia artificial permite al consideran seriamente la
hombre emular en las máquinas el posibilidad de incorporar
comportamiento humano, tomando componentes «emotivos» como
como base el cerebro y su indicadores de estado, a fin de
funcionamiento, de manera tal que aumentar la eficacia de los
se pueda alcanzar cierto sistemas inteligentes.
razonamiento creando marionetas
robóticas. Particularmente para los robots
móviles, es necesario que cuenten
La inteligencia artificial y los con algo similar a las emociones
sentimientos con el objeto de saber –en cada
instante y como mínimo– qué
El concepto de IA es aún hacer a continuación [Pinker,
demasiado difuso. 2001, p. 481].
Contextualizando, y teniendo en
cuenta un punto de vista científico, Al tener «sentimientos» y, al
podríamos englobar a esta ciencia menos potencialmente,
como la encargada de imitar una «motivaciones», podrán actuar de
persona, y no su cuerpo, sino acuerdo con sus «intenciones»
imitar al cerebro, en todas sus [Mazlish, 1995, p. 318]. Así, se
funciones, existentes en el podría equipar a un robot con
humano o inventadas sobre el dispositivos que controlen su
desarrollo de una máquina medio interno; por ejemplo, que
inteligente. «sientan hambre» al detectar que
su nivel de energía está
A veces, aplicando la definición de descendiendo o que «sientan
Inteligencia Artificial, se piensa en miedo» cuando aquel esté
máquinas inteligentes sin demasiado bajo.
sentimientos, que «obstaculizan»
encontrar la mejor solución a un Esta señal podría interrumpir los
problema dado. Muchos procesos de alto nivel y obligar al
pensamos en dispositivos robot a conseguir el preciado
artificiales capaces de concluir elemento [Johnson-Laird, 1993, p.
miles de premisas a partir de otras 359]. Incluso se podría introducir
premisas dadas, sin que ningún el «dolor» o el «sufrimiento físico»,
tipo de emoción tenga la opción de a fin de evitar las torpezas de
obstaculizar dicha labor. funcionamiento como, por
453
ejemplo, introducir la mano dentro asignación de metas o motivación,
de una cadena de engranajes o junto a la toma de decisiones y
saltar desde una cierta altura, lo asignación de prioridades con
cual le provocaría daños base en estados actuales y
irreparables. estados meta, logran un
comportamiento en extremo
Esto significa que los sistemas eficiente, especialmente ante
inteligentes deben ser dotados con problemas complejos y peligrosos.
mecanismos de retroalimentación
que les permitan tener En síntesis, lo racional y lo
conocimiento de estados internos, emocional están de tal manera
igual que sucede con los humanos interrelacionados entre sí, que se
que disponen de propiocepción, podría decir que no sólo no son
interocepción, nocicepción, aspectos contradictorios sino que
etcétera. Esto es fundamental son –hasta cierto punto–
tanto para tomar decisiones como complementarios.
para conservar su propia
integridad y seguridad. La
retroalimentación en sistemas está
particularmente desarrollada en Críticas
cibernética, por ejemplo en el
cambio de dirección y velocidad Las principales críticas a la
autónomo de un misil, utilizando inteligencia artificial tienen que ver
como parámetro la posición en con su incapacidad de imitar por
cada instante en relación al completo a un ser humano. Estas
objetivo que debe alcanzar. Esto críticas ignoran que ningún
debe ser diferenciado del humano individual tiene capacidad
conocimiento que un sistema o para resolver todo tipo de
programa computacional puede problemas, y autores como
tener de sus estados internos, por Howard Gardner han propuesto
ejemplo la cantidad de ciclos que existen inteligencias múltiples.
cumplidos en un loop o bucle en Un sistema de inteligencia artificial
sentencias tipo do... for, o la debería resolver problemas. Por lo
cantidad de memoria disponible tanto es fundamental en su diseño
para una operación determinada. la delimitación de los tipos de
problemas que resolverá y las
A los sistemas inteligentes el no estrategias y algoritmos que
tener en cuenta elementos utilizará para encontrar la solución.
emocionales les permite no olvidar
la meta que deben alcanzar. En En los humanos la capacidad de
los humanos el olvido de la meta o resolver problemas tiene dos
el abandonar las metas por aspectos: los aspectos innatos y
perturbaciones emocionales es un los aspectos aprendidos. Los
problema que en algunos casos aspectos innatos permiten por
llega a ser incapacitante. Los ejemplo almacenar y recuperar
sistemas inteligentes, al combinar información en la memoria y los
una memoria durable, una aspectos aprendidos el saber
454
resolver un problema matemático apareció ya en los inicios de los
mediante el algoritmo adecuado. primeros sistemas operativos
Del mismo modo que un humano informáticos. La capacidad de los
debe disponer de herramientas humanos para comunicarse entre
que le permitan solucionar ciertos sí implica el conocimiento del
problemas, los sistemas artificiales lenguaje que utiliza el interlocutor.
deben ser programados de modo Para que un humano pueda
tal que puedan resolver ciertos comunicarse con un sistema
problemas. inteligente hay dos opciones: o
bien el humano aprende el
Muchas personas consideran que lenguaje del sistema como si
el test de Turing ha sido superado, aprendiese a hablar cualquier otro
citando conversaciones en que al idioma distinto al nativo, o bien el
dialogar con un programa de sistema tiene la capacidad de
inteligencia artificial para chat no interpretar el mensaje del usuario
saben que hablan con un en la lengua que el usuario utiliza.
programa. Sin embargo, esta
situación no es equivalente a un Un humano durante toda su vida
test de Turing, que requiere que el aprende el vocabulario de su
participante esté sobre aviso de la lengua nativa. Un humano
posibilidad de hablar con una interpreta los mensajes a pesar de
máquina. la polisemia de las palabras
utilizando el contexto para resolver
Otros experimentos mentales ambigüedades. Sin embargo,
como la Habitación china de John debe conocer los distintos
Searle han mostrado cómo una significados para poder interpretar,
máquina podría simular y es por esto que lenguajes
pensamiento sin tener que tenerlo, especializados y técnicos son
pasando el test de Turing sin conocidos solamente por expertos
siquiera entender lo que hace. en las respectivas disciplinas. Un
Esto demostraría que la máquina sistema de inteligencia artificial se
en realidad no está pensando, ya enfrenta con el mismo problema,
que actuar de acuerdo con un la polisemia del lenguaje humano,
programa preestablecido sería su sintaxis poco estructurada y los
suficiente. Si para Turing el hecho dialectos entre grupos.
de engañar a un ser humano que
intenta evitar que le engañen es Los desarrollos en inteligencia
muestra de una mente inteligente, artificial son mayores en los
Searle considera posible lograr campos disciplinares en los que
dicho efecto mediante reglas existe mayor consenso entre
definidas a priori. especialistas. Un sistema experto
es más probable de ser
Uno de los mayores problemas en programado en física o en
sistemas de inteligencia artificial medicina que en sociología o en
es la comunicación con el usuario. psicología. Esto se debe al
Este obstáculo es debido a la problema del consenso entre
ambigüedad del lenguaje, y especialistas en la definición de
455
los conceptos involucrados y en 14._ Robótica Educativa
los procedimientos y técnicas a
utilizar. Por ejemplo, en física hay La 'Robótica Educativa' es un
acuerdo sobre el concepto de medio de aprendizaje, en el cual
velocidad y cómo calcularla. Sin participan las personas que tienen
embargo, en psicología se motivación por el diseño y
discuten los conceptos, la construcción de creaciones
etiología, la psicopatología y cómo propias (objeto que posee
proceder ante cierto diagnóstico. caraceristicas similares a las de la
Esto dificulta la creación de vida humana o animal). Éstas
sistemas inteligentes porque creaciones se dan en primera
siempre habrá desacuerdo sobre instancia de forma mental y
lo que se esperaría que el sistema posteriormente en forma física, las
haga. A pesar de esto hay cuales son construidas con
grandes avances en el diseño de diferentes tipos de materiales y
sistemas expertos para el controladas por un sistema
diagnóstico y toma de decisiones computacional, los que son
en el ámbito médico y psiquiátrico llamados prototipos o
(Adaraga Morales, Zaccagnini simulaciones.
Sancho, 1994).
En sus inicios los autómatas eran
realizados con materiales fáciles
de encontrar, ya sea con madera,
Aplicaciones de la inteligencia cobre o cualquier otro material
artificial fácil de moldear.

• Lingüística computacional Definición


• Minería de datos (Data
Mining) Es el conjunto de actividades
• Industriales. pedagógicas que apoyan y
• Médicas fortalecen áreas específicas del
• Mundos virtuales conocimiento y desarrollan
• Procesamiento de lenguaje competencias en el alumno, a
natural (Natural Language través de la concepción, creación,
Processing) ensamble y puesta en
• Robótica funcionamiento de robots.
• Sistemas de apoyo a la
decisión El objetivo de la enseñanza de la
• Videojuegos Robótica, es lograr una adaptación
• Prototipos informáticos de los alumnos a los procesos
• Análisis de sistemas productivos actuales, en donde la
dinámicos. Automatización (Tecnología que
• Smart process management está relacionada con el empleo de
sistemas mecánicos, electrónicos
y basados en computadoras; en la
operación y control de la
producción) juega un rol muy
456
importante. Sin embargo la robot en computador, se hace en
robótica se considera un sistema programas especiales como el
que va más allá de una aplicación xLogo (usando en verdad, una
laboral. versión libre de éste), donde se
realiza un pequeño estudio que ve
Algo que también cabe mencionar si éste robot es realizable o no en
en el estudio de la Robótica, es la la realidad. Aquí, al tenerlo en el
gran necesidad de una perfecta computador se establece la
relación entre el Software y el función que cumplirá éste robot,
Hardware del Robot, ya que los las cuales son específicas para
movimientos que realizará éste realizar pequeñas tareas (como
Robot es un acoplamiento entre lo traer objetos o limpiar cosas, por
físico y lo lógico. ejemplo), y se observa en la
pantalla el cómo se ve este robot.
Origen Luego, eliminando y arreglando,
se procede a utilizar materiales
La Robótica Educativa se centra para llevarlo a cabo en la realidad.
principalmente en la creación de
un robot con el único fin de En este punto, se utilizan variados
desarrollar de manera mucho más materiales, pueden ser desde
práctica y didáctica las habilidades piezas de sistemas constructivos
motoras y cognitivas de quienes como Lego , Multiplo o Robo-Ed ,1
los usan. De esta manera se a materiales de desecho que no
pretende estimular el interés por se ocupan en casa (como cajas de
las ciencias duras y motivar la cartón y circuitos en desuso).
actividad sana. Así mismo hacer Aunque, también se usan
que el niño logre una organización materiales más de clase como son
en grupo, discusiones que metales u otros derivados.
permitan desarrollar habilidades
sociales, respetar cada uno su Objetivos
turno para exponer y aprender a
trabajar en equipo. • Que sean más ordenados.
• Promover los experimentos,
donde el equivocarse es parte del
aprendizaje y el
autodescubrimiento.
• Ser más responsables con
sus cosas.
• Desarrollar mayor movilidad
Fases
en sus manos.
• Desarrollar sus
Se tiene la idea de que se
conocimientos.
construye un robot utilizando
• Desarrollar la habiliadad en
cables y equipo para hacerlo en la
grupo, permitiendo a las personas
vida real, pero no es así, porque
socializar.
en la Robótica Educativa se
• Desarrollar sus capacidades
pretende inicialmente crear un
creativas.
457
• Poder observar cada analizar sistemas con valor
deatalle. epistémico.
• Desarrollar el aprendizaje en
forma divertida. Historia

La fundación de la RE está
relacionada con trabajos en el
CNR de Roma en los 90, pero la
idea inicial de codificar el sistema
de control de un robot en un
genoma y evolucionarlo data de
finales de los años 80.

Cliff, Harvey y Husbands de


COGS en la Universidad de
Sussex introdujeron el término
robótica evolutiva en el año 1993.
En 1992 y 1993 dos equipos,
Floreano y Mondada en la EPFL
da Lausanne y el grupo de COGS
15._ Robótica evolutiva informaron de los primeros
experimentos de evolución
La Robótica Evolutiva (RE) es un artificial de robots autónomos.
área de la Robótica Autónoma en
la que se desarrollan los El éxito inicial de esta incipiente
controladores de los robots investigación lanzó una gran
mediante la evolución al usar actividad que intentaba delimitar el
Algoritmos Genéticos. potencial de esta aproximación al
problema.
Habitualmente se evolucionan
Redes Neuronales ya que se Últimamente, la dificultad de
sigue el referente biológico y crecimiento de la complejidad de
simplifica el diseño y la las tareas, al igual que en la
representación en el algoritmo aproximación simbólica, ha
genético. orientado la atención al lado
teórico de la disciplina
La Robótica Evolutiva tiene varios abandonando el punto de vista de
objetivos, a menudo simultáneos. la ingeniería.
El punto de vista de la ingeniería
crea controladores de robots para
realizar tareas útiles en el mundo
real. La Biología y otras ciencias
de lo vivo obtienen simulaciones
que reproducen fenómenos desde
fisiológicos hasta ecológicos. La
Filosofía de la Ciencia puede

458
16._ Robótica autónoma 17._ Competiciones de robots

La Robótica Autónoma es el área Una competición de robótica es un


de la Robótica que desarrolla evento donde robots diseñados,
robots capaces de desplazarse y construidos o programados por
actuar sin intervención humana. diferentes participantes compiten
Para ello el robot debe percibir su según un conjunto determinado de
entorno y actuar de forma reglas.
adecuada, además de llevar a
cabo su tarea. Tipos de competición

La Robótica ha tenido grandes Actualmente existen varias clases


avances en entornos de competiciones, siendo las más
estructurados, en los que el populares en varios países el
controlador del robot puede tener rastreo de línea, el laberinto, los
un mapa detallado de su entorno. Cowbots, la lucha Sumo y las
Conforme decrece el grado de carreras de bípedos.
estructuración del entorno las
tareas se tornan más complejas. • Rastreo de línea
Esto ocurre cuando el robot es
móvil y debe tener información de En esta competición, los robots
su posición en el mapa interno. participantes deben seguir una
Los mecanismos pueden ser línea trazada en el suelo en el
absolutos o relativos, por ejemplo, menor tiempo posible. La
usando GPS y odometría, complejidad del recorrido puede
respectivamente. variar.

En entornos no estructurados la • Laberinto


solución a través de mapa no es
viable, por lo que se toman Existen distintas variantes de la
caminos en los que no se usa la competición de laberinto. La
Inteligencia Artificial clásica, con prueba puede consistir en recorrer
un control centralizado, sino la un laberinto y encontrar la salida,
Inteligencia Artificial basada en o puede incluir, además, la prueba
Multiagentes (originaria en el adicional de que el robot debe
trabajo de Rodney Brooks y su hallar y sacar del laberinto uno o
arquitectura de subsunción), o en más objetos ubicados en distintos
planteamientos conexionistas puntos del mismo. El laberinto
usando redes neuronales. La puede estar hecho con paredes
disciplina que usa Algoritmos delimitadoras de los caminos
Genéticos para evolucionar Redes posibles, o dibujado en el suelo
Neuronales se denomina Robótica con una línea.
Evolutiva.1
• Cowbots

459
En esta prueba, dos robots se
enfrentan en una arena de
combate de una medida
previamente conocida. Ambos
robots tienen un arma a distancia Principales competiciones
y un arma para combate cuerpo a existentes
cuerpo. El arma a distancia
consiste en un lanzador de algún • Robocup
tipo de proyectil, por lo general • Hispabot
muy liviano, que no cause daños a • European Land-Robot Trial
su objetivo. Los dos robots deben • Alcabot
enfrentarse en la zona de combate • Eurobot
hasta que uno de los dos es • FIRST
alcanzado por un proyectil del • Robolid
otro, o por su arma de lucha • Cosmobot
directa. • Competencia Argentina de
Sumo UTN - FRBB
• Sumo
Ropa deportiva
En este estilo de competición,dos
robots se enfrentan dentro de una Canterbury of New Zealand está
zona delimitada; la idea es que preparada para revolucionar el
ambos intentan sacarse mercado de ropa técnica deportiva
mutuamente de esta zona. con el lanzamiento de IonX(TM) -
una gama de prendas de alto
• Carrera de bípedos rendimiento diseñadas para
aumentar la competitividad de los
Mientras que en las competencias deportistas.
mencionadas anteriormente los
robot tienen una estructura Esta ropa deportiva especializada
vehicular, en la carrera de bípedos utiliza el tejido de ultima generación
se enfrentan robots cuyo Ionised Energy Fabrics (TM)- que
movimiento utiliza dos ioniza al cuerpo mediante un campo
extremidades inferiores (análogas electromagnético de carga negativa.
a las extremidades inferiores de Este proceso facilita el suministro de
los animales bípedos). Los robots oxígeno a los músculos desde la
compiten en una línea recta, sangre, lo cual a su vez aumenta el
siendo el ganador el robot que rendimiento media en un 2,7%, y
atraviese el recorrido definido acelera la recuperación muscular.
primero.
La ionización es un proceso natural
que se produce a causa de una carga
positiva o negativa de los átomos, por
ejemplo durante las tormentas
eléctricas o cerca de las cascadas de
agua. En contacto con la piel, los

460
tejidos Ionised Energy Fabrics textil ha afectado de forma tan
ofrecen dos ventajas fundamentales: directa y tangible los niveles de
mayor rendimiento durante la rendimiento y recuperación".
actividad y un periodo de
recuperación más corto. Prof Mike Caine, B.Sc., Ph.D.,
Director del Instituto de
El aumento del rendimiento se Tecnología Deportiva de la
produce gracias a mayor flujo de Universidad de Loughborough,
sangre oxigenada por el cuerpo, lo Reino Unido, dijo: "Los
cual genera más energía en los resultados preliminares de un
músculos. Esto ayuda a incrementar estudio realizado por un
la potencia media del deportista y a la equipo de Tecnología
vez mejorar la velocidad y la fuerza. Deportiva en la Universidad de
Loughborough indican que los
La mayor tasa de transferencia deportistas que llevan prendas
de oxígeno desde la sangre a tratadas con IonX demuestran
los músculos también beneficia mayor nivel de rendimiento y
al sistema de energía de fuerza durante periodos
anaeróbica del cuerpo, al cortos y repetidos de máximo
eliminar residuos como el esfuerzo. Con el tiempo y más
ácido láctico de forma más estudios se debe poder
eficaz. La rápida recuperación comprender cómo maximizar
permite reanudar antes los las posibilidades de IonX(TM),
periodos de entrenamiento o aunque ya está claro que estas
competición. prendas pueden llegar a
aportar unos beneficios
Joe Middleton. Consejero valiosas para el rendimiento de
Delegado de Canterbury of los atletas durante el
New Zealand comenta: "En entrenamiento y la
Canterbury nos sentimos competición."
orgullosos de las prendas
futuristas y tecnológicamente La tecnología dri-fit
avanzadas que desarrollamos.
La gama IonX(TM) no sólo Hemos visto a través del tiempo que
marca un momento clave para la tecnología está presente hoy en
Canterbury, sino también para todas las áreas, en la salud, en la
el mercado de ropa técnica informática, en los deportes y en la
deportiva en general." vida diaria sin duda.

Es la primera vez que un En la cuestión deportiva encontramos


fabricante de ropa deportiva la tecnología en la ropa, en el
usa semejante nivel de calzado, en los aparatos que se
tecnología para el desarrollo utilizan y en un sin número de cosas
de sus productos, y las más. Por ejemplo en las carreras
prendas IonX(TM) organizadas, tanto de México como
representan, además, la en el resto del mundo, registraron una
primera vez que un producto notable mejora gracias a la aplicación
461
de la tecnología computarizada.
En el calzado, la tecnología nos
En efecto, los eventos deportivos de permite escoger el mas adecuado
este tipo ya no son los mismos que según nuestras necesidades, las
hace siete años cuando se características del pié y la manera en
implementó el llamado sistema de que pisamos, si eres supinador( que
"chips" para la medición de los pisas hacia fuera) o pronador (si
tiempos y resultados en una pisas hacia adentro) hay tenis que
competencia. Estos aparatitos están indicados para tu diferente tipo
permiten obtener el tiempo y lugar de pisada, con aire a fin de reducir el
inmediatamente y pueden ser impacto de los pies contra el suelo,
consultados por Internet el mismo día etc.
del evento, genera datos como
tiempo personal, lugar, paso por Y por último mencionaremos lo útiles
kilómetro, etc., fotografías del que han resultado ser los monitores
corredor al llegar a la meta, de frecuencia cardiaca ya que como
generación de diploma para cada su nombre lo dice, ayudan a conocer
participante y disposición de este la frecuencia cardiaca a diferentes
también vía Internet, envío de esa intensidades y esto ayuda a los
información a teléfono celular y otros deportistas a entrenar exactamente
servicios. como deben, para desarrollar cada
una de las seis capacidades físicas:
Realmente el uso del chip es sin duda Acondicionamiento aeróbico,
uno de los inventos más importantes acondicionamiento anaeróbico,
en el deporte y hoy ya está capacidad aeróbica, capacidad
consolidado como un elemento de anaeróbica, fuerza y flexibilidad.
gran utilidad en toda competencia,
especialmente en las carreras de
ruta. Hay mucho, mucho más de que
aprender y también existen medios
La vestimenta y el calzado son por los que podemos empaparnos de
también una parte importante en la estos temas. La revista Club de
vida del deportista ya que con las Corredores te ofrece en sus
nuevas tecnologías puedes tener una secciones además de todos estos
camiseta seca aunque hayas hecho 3 temas, técnicas de entrenamiento,
horas de ejercicio. La tecnología salud, asuntos médicos propios de
llamada Dri-FIT permite el transporte los corredores, calendarios de
de la humedad del cuerpo (sudor) de carreras, cultura en torno al atletismo,
la parte interna hacia la parte externa nutrición y cocina especializada para
del tejido donde se evapora quienes corren, novedades en
rápidamente. Clima-FIT protege tecnología, ropa y accesorios,
contra el viento, ofrece resistencia al anécdotas, resultados de las carreras
agua y extrema facilidad de respiro y más importantes, etcétera. Así que ya
Therma- FIT mantiene la temperatura sabes donde buscar si quieres
del cuerpo, proporcionando calidad, información interesante y lo
aislamiento térmico y es muy más nuevo en tecnología.
resistente al viento.

462
Camisas y Shorts de Futbol nylon, acrylic y rayon en un
uniforme de futbol lo
Es simple. La seleccion correcta de mantendra seco pero las tela
camisa y shorts de futbol abilita a que de algodon tiene la tendencia
tu equipo funcione mejor. Nike y de retener agua.
Adidas se han despejado de su
compentencia gracias a su fabricado Nylon: Un tela exceptionalmente
de la tela para manejar la humedad fuerte de elastico que retiene un
llamada "Moisture Management" bajo porcental de humedad y es
(Manejo de Humedad). " Moisture facilmente tratable .
Management" hace que la humedad Polyester: Una tela muy durable,
del cuerpo se desprenda para regular ligera y mas respirable para el
la temperatura del cuerpo. Las cuerpo. Retiene un bajo porcental
camisas,shorts,y calcettas fabricadas de humedad y es facilmente
por estas telas siempre mantienen al tratable.
jugador fresco y seco para desplegar
su funcion SIEMPRE AGUSTO. CoolMax: Hecho y patentado por
DuPont, CoolMax es una teal
En los viejos tiempos todos disenada para remover la humedad y
usaban la tela de algodon. evaporizar el sudor. Cool Max es
Lamentablemente cuando el ligera y se seca pronto.
algodon se humedese se Tecnologia ClimaLite, ClimaCool and
mantiene humedo. En los tiempos Dri-Fit
de mucha calor se siente el calor
en tu piel y en los tiempos de Tecnologias ClimaLite, ClimaCool
invierno el sudor se mantiene y Dri-Fit hace regular el
cercas del cuerpo y con un viento microclima de cuerpo. La primera
ligero te da escalofrio. Nuevas linea de tela es CoolMax que fue
telas de Micro Fibra como "Dri-Fit" disenada para mantener el sudor
fabricada por Nike o como la lo mas lejos de tu cuerpo posible
"Clima Cool" fabricada por Adidas para que te mantegas seco y
fueron disenadas para atrapar la agusto.
humedad para transportarla hace
la cima de la tela para despues Nike popularizo el manejo de la
evaporizar el sudor. Este tipo de humedad con la teconologia de " Dri-
innovaciones hacen que cuerpo FIT". Esta fue unas de las primeras
respire mejor para evitar mal manejo de humedada patentado en el
olores que pueden quedar en la sistema de negocios. Ahora que se
ropa. Mas importante es que estas ha mantenido por anos, mas atletas
telas de alta tecnologia no se benefician al no sudar. Con lo
encojen, son suaves, y flexibles maximo en el manejo de la humedad
para que uno se sienta aun MAS "DRI_FIT" pueda ayudarte funcionar
AGUSTO mejor. Por eso Nike esta orgulloso de
• introducir los nuevos Uniformes de
• Mezclas de algodon: Estas Futbol como El Nike Centenario, Nike
telas son un poco mejor que la Brasilia Pro Vent, y el Nike Game Rio
de algodon. El porcentaje de

463
para la alineacion de DRI-FIT para calcettasAdidas’s Elite, Montreal,y
este ano. Copa Edge son reconocidas por el
La historia de Adidas es que siempre talon reinforsado, tela de respiro, y
llena los requisitos del atleta soporte alrededor del tobillo. Las
moderno. Enfocandose en las calcettas Nike Total 90 y Classic
funciones, Adidas corre la milla extra ofrecen costuras suaves alrededor de
para vestir a sus atletas con ropa que los dedos y una tela fina para el
pueda ser la diferencia a la hora de estiramiento hace los laterales. Estos
competencia. ClimaCool fue dos estilos a la vez ofrecen mas
introducida por Adidas para darle mas alcochadamiento para darle la
ventilacion y manejo de humedad a satisfasion a tus zapatos y mejor
las camisas y shorts de futbol. Es una proteccion a tus pies del impacto al
tela de alta respiracion que ventila y correr repetidamente.
desaparece la humedad rapidamente CALZADO DEPORTIVO
del cuerpo. ClimaCool mantiene al
atleta fresco,seco y agusto. Mas Son muchos los deportes que se
importante ventaliza en las zonas de practican en todo el mundo y cada
mas alto calor. actividad precisa de un tipo de
Que tal las calcettas? tecnología diferente de calzado
La calcetta ideal hace la mayor parte según el pie, el terreno y el
del diseno en tus zapatos. Por deporte. El calzado correcto hará
ejemplo, una calcetta gruesa que no la diferencia entre competir,
se siete bien, puede que le de la ganar, perder y prevenir lesiones.
contra a sus zapatos de alto
La imagen de la izquierda es de tipo
tecnologia que le ofrecen estabilidad
térmica de una huella plantal con
y mejor manejo. Calcettas buenas
discriminación de presiones por color.
tambien hacen que sus pies se
Los colores más "cálidos" (amarillo,
mantegan secos, calientitos, y libre
rojo) representan fuerzas más altas y
de ampollas.
los más "fríos" (azul, violeta) fuerzas
más débiles. Imagen capturada y
Sudor de pie. En un dia de torneo o al
procesada por una económica
correr un maraton, tus pies pueden
plataforma que trae software marca
llenar hasta dos vazos o mas de puro
TPS® Foot Scan. Los puntos rojos
sudor. La misma regla aplica sobre el
son los centros de presión. La imagen
manejo de humedad en las calcettas.
de la derecha es la misma huella
El algodon absorbe el sudor que
plantal pero en un gráfico diferente de
haran que sus calcettas se
tres dimensiones. De esta forma se
humedezcan y se mantegan
puede observar no solo por colores,
humedas. Pero, con las calcettas
sino también por la altura de las
humedas habra riesgo de ampollas.
áreas y la magnitud de las fuerzas de
Un material sintetico de alta
apoyo.
tecnologia hara que el sudor se
desprenda de su piel. En condiciones normales, estando el
Aqui estan de nuevo Nike y Adidas, calcáneo en el mismo plano que los
quienes se han desalojado en sus metatarsos, el peso del cuerpo se
respectivos caminos en la tecnologia distribuye algo más del 50% sobre el
de las calcettas de futbol. Las

464
talón. Pero cuando el pié se que el calzado es de la talla
encuentra en un calzado con tacón adecuada, hay que probarse otros
que eleva el plano del talón, el peso calzados de las mismas
se desplaza proporcionalmente características pero de diferentes
adelante según la altura que exista fabricantes.
entre el talón y el plano del suelo. Las
cabezas de los cinco metatarsianos 6Cada país posee una relación
participan en la distribución del peso diferente entre la talla en centímetros
que le corresponde a la parte anterior y el número de calzado. Incluso en el
del triángulo del pié; 2/6 de la mitad mismo país se observan diferencias
del peso corporal caen sobre la entre distintos fabricantes. Encontrar
cabeza del primer meta y 1/6 sobre la talla correcta solo es cuestión de
cada uno de los restantes. probarse números y andarlos.
CRITERIO PARA LA ELECCIÓN Todo calzado deportivo se subdivide
DEL CALZADO DEPORTIVO en tres zonas principales:
1La zapatilla que da buen resultado a 1. Retropie o Talón(Rearfoot).Tercio
un compañero o amigo, no tiene por del calzado que abarca la parte
qué ser buena para otros. Hay que posterior del mismo y que
probarse varios modelos para elegir corresponde principalmente a la zona
la más adecuada al pie teniendo en del talón (lo que abarca el
cuenta la adaptación de la Contenedor del Talón).
morfología, número y actividad física.
2. Mediopie(Midfoot).Segundo tercio
2Es aconsejable realizar la elección de las zapatillas (aproximadamente a
del tamaño al atardecer, cuando el la altura de la bóveda plantal y la
pie está dilatado tras la actividad de zona correspondiente al empeine del
la jornada, en las mismas condiciones pie).
que si se hubiera realizado una
marcha de más de 3 kilómetros. 3. Antepie(Forefoot).Ultimotercio del
calzado que corresponde a la zona
3Para acertar con el número hay que de los metatarsos y los dedos de los
probarse el calzado con el tipo de pies (la punta del calzado).
calcetín que se usa para la práctica
deportiva. Es conveniente probarse el Hoy en día podemos elegir el calzado
número que se calza habitualmente y en función del deporte que vamos a
uno más para comparar la comodidad realizar. Cada marca tiene varios
y el ajuste entre uno y otro. modelos para un deporte especifico y
también podemos elegir un modelo
4Al probarse la zapatilla hay que con punta afilada paraPie
fijarse en que el talón esté bien Griego(donde el dedo índice es el
calzado, los dedos se muevan con más largo del pie) o un modelo con
libertad y el dedo gordo e índice no punta cuadrada para elPie
se replieguen sobre los demás. Egipcio(donde el dedo gordo es el
más largo del pie y que es el más
5Cuando no se tiene la seguridad de común).

465
Un pie griego puede usar una de la amortiguación pero también
zapatilla para pie egipcio, pero no al buena parte del control del
revés.Pie Pronador(pie con movimiento. Generalmente están
predisposición a exagerar el hechas de materiales elastómeros
movimiento de inclinación hacia cuya característica más deseable
dentro de los tobillos) oPie debe ser una alta resiliencia, que es
Supinador(tobillo que presenta la cualidad que tiene un material de
respecto a la pierna una posición regresar a su forma original luego de
arqueada hacia afuera).Debemos haber sido deformado.Cuanto más
tener en cuenta si nuestro pie es alta sea la resiliencia de un material,
Cavo con arco pronunciado(fascitis: tantas más veces podrá el mismo
irritación del tejido de la planta del pie volver a retomar su forma original y
y tendinitis: inflamación del tendón de por lo tanto mantener su capacidad
Aquiles)oValgo del tipo pie de amortiguación.
plano(mucha flexibilidad hace que
sufra el músculo tibial anterior). Los materiales más conocidos en
esta rama del calzado deportivo son
La suela la EVA (Ethynlene Vynil Acetato) y los
poliuretanos. Algunos usan cámaras
Parte del calzado que entra en de aire encerradas en cápsulas de
contacto directo con el terreno, debe poliuretano, otros confinaron un gel o
presentar buenas características de usaron líquidos que pasan por
resistencia a la abrasión para distintas cámaras dependiendo de la
garantizar una durabilidad adecuada; fase de apoyo que se esté
además un dibujo de calado que le dé produciendo. También se utilizan
buen agarre cuando las condiciones materiales elastómeros especiales de
del terreno son resbaladizas. Una alta resiliencia pero alto costo y
menor superficie de contacto con el desventajas técnicas en otros
suelo implica una mayor abrasión a aspectos, que no se aconsejan para
las áreas expuestas de la suela. ser utilizados como componentes
Aquellas suelas que tengan dibujos generalizado de toda la entresuela.
muy marcados deberían gastarse
más rápido, sin embargo La capellada
actualmente, las suelas pueden
hacerse de materiales muy Cubre al pie de los elementos
resistentes, tales como compuestos externos evitando así que pequeños
similares a los de los neumáticos de pedruscos u otros objetos vayan a
automóviles de carrera o a los parar entre medio del pie y la parte
materiales empleados en chalecos superior del calzado. Además da
antibalas y soportar perfectamente el contención al pie en los posibles
desgaste con buen agarre. desplazamientos laterales y antero-
posteriores que se dan en la carrera.
La entresuela Están hechas de telas más o menos
aireadas compuestas por fibras de
Desde el punto de vista técnico, es la nylon o poliéster. Raramente se ven
parte más importante del calzado elementos de cuero natural, debido a
para correr. Sobre ella recae la tarea su costo y a que éste tiende a
466
contraerse con las mojaduras. El diseños resignan la capacidad de
contrafuerte del talón es un elemento controlar movimientos viciosos y
muy importante ya que contiene parte disponen de pocos o ningún tipo de
de los movimientos laterales del elemento que le dé una mayor rigidez
retropié y sin duda, según sus a la zona del arco medio. Estas
características, participa del control características hacen que el calzado
de pronación o supinación según esté sea más flexible y eso favorece a los
diseñado el calzado. Generalmente corredores de apoyo inicial
están hechos con polímeros, metatarsiano o que tienen arcos
plásticos termo conformados para mediales muy altos y rígidos, aunque
resistir la deformación y son más o también lo pueden usar aquellos
menos rígidos según la orientación corredores que tengan una técnica de
que se quiera dar al calzado. carrera eficiente y sin vicios de
pisada.
Todo el calzado está construido
sobre una estructura de soporte Este tipo de calzado estaría
que podemos decir que es el desaconsejado para los corredores
"esqueleto" del mismo. Este que no tienen al menos una pisada
soporte a veces está hecho de un biomecánicamente neutra (sin
tipo especial de cartón o plástico y pronación ni supinación excesivas).
continuando su dibujo de huella
en la entresuela y la suela, da la Tomemos en cuenta que la
forma general de apoyo que amortiguación es quizá el argumento
tendrá el calzado. Cuando se de ventas número uno con el que se
busca construir un calzado fuerte pretende convencer al consumidor de
con alta capacidad de control de calzado deportivo.Y una amplia
movimiento, éste soporte se hace mayoría de los corredores NO se
con el cartón antedicho o en halla dentro de la categoría que se
plástico y su silueta será más beneficiaría de usar este tipo de
recta a la altura del arco medial. Si calzado. No siempre el calzado que
se desea hacer un calzado más mejor amortigua es el mejor para el
flexible, generalmente ésta corredor y hay otros temas a tener en
estructura se hace con materiales cuenta. Los calzados de esta
más suaves, como telas con categoría pesan entre 270 y 320
espuma de poliuretano o poliéster gramos.Para un talle de referencia de
y la silueta de la suela es de una 9½ puntos en versión masculina y en
forma mucho más cavada a la el sistema americano.
altura del arco medial.
Calzados estables: En esta categoría
Calzados con gran capacidad de los diseños intentan conciliar las
amortiguación características de amortiguación con
las de control de movimientos
Estos calzados ofrecen un máximo de espurios del pié. Generalmente
amortiguación y se sienten más vienen provistos de algún tipo de
blandos y suaves al pisar que inserto plástico o bien de una goma
cualquiera de los de las otras de mayor densidad en la mitad
categorías. Para lograr esto sus interna (medial) de la entresuela;
467
típicamente esta zona de mayor del arco medial, pareciéndose a la
densidad se fabrica en otro color para huella que dejarían los individuos
que sea claramente distinguible. La hacia los cuales estaría orientada
huella que deja el calzado de ésta esta categoría, corredores con pié
categoría es intermedia, ni plano que necesitan una buena base
completamente recta a la altura de la de apoyo para sus pies y que limite
zona del arco medial ni tampoco los movimientos de sobrepronación o
completamente cavada. Se aconseja sobresupinación que sufren. Este tipo
este tipo de calzado a aquellos de calzado está aconsejado además
corredores que tienen arcos mediales para los corredores más pesados ya
normales, que no sufren serios que en general son construidos con
problemas de pronación ni supinación énfasis en la durabilidad y la
y buscan un calzado de resistencia a las grandes presiones.
entrenamiento que ofrezca buena También se puede aconsejar la
amortiguación y un mínimo de control elección de calzados de esta
de movimientos. Los calzados de categoría a aquellos corredores que
esta categoría pesan entre 300 y 370 usen plantillas o insertos ortopédicos
gramos. correctivos, ya que la mayor
profundidad interior con la que son
Calzados con gran control de diseñados, permite acomodar estos
movimientos elementos. Los calzados de esta
categoría pesan entre 320 y 400
Con énfasis en la rigidez, los gramos.
calzados de esta categoría, se
diseñan pensando en ofrecer un Calzados de entrenamiento livianos
máximo de control de los
movimientos viciosos en el apoyo del En esta categoría de calzados se
pie en carrera, fundamentalmente la podría clasificar a aquellos que
sobrepronación. Artilugios tales como siendo más livianos y flexibles que los
insertos plásticos, de dimensiones calzados de entrenamiento
más generosas que en la anterior descriptos, conservan cualidades de
categoría, entresuelas de mayor amortiguación y control de
espesor y de poliuretano por su movimientos mínimas y satisfactorias.
mayor durabilidad y tolerancia a las Típicamente se puede recomendar
presiones que la goma EVA y este tipo de calzados a los corredores
contrafuertes de talón más rígidos, biomecánicamente eficientes y de
son algunos de los elementos de los pisada neutra, que buscan zapatillas
que se valen los fabricantes para más dúctiles y ligeras para
lograr productos eficaces de esta entrenamientos veloces, o como
clase. calzado alternativo para
competencias mayores a los 15
La base de apoyo generalmente kilómetros. Los calzados en esta
termina en una suela de goma al categoría pueden pesar entre 250 y
carbón de alta resistencia a la 290 gramos. Frecuentemente
abrasión, más dura y pesada, que presentan una silueta de base algo
deja una huella que típicamente se cavada y fabricados con materiales
distingue porque es recta a la altura
468
más livianos pero también menos calzados de esta clase suelen pesar
resistentes. entre 170 y 210 gramos.

Calzados de competición Calzados todoterreno

Estos calzados llevan a un extremo la Entre estos productos, se encuentran


disminución del peso en favor de los calzados diseñados para las
darle al corredor un mejor duras condiciones que imponen los
rendimiento teórico; cuanto menos desplazamientos en terrenos
peso se transporta en los pies, menor naturales y característicamente más
gasto de energía se hace y más uso agresivos. Los cambios más
de la potencia muscular en producir importantes en el diseño, están dados
desplazamiento horizontal. Tienen por suelas más durables y de mejor
una silueta de base sumamente tracción, así como refuerzos en la
cavada, lo que los hace muy flexibles capellada y especialmente en la zona
y la entresuela se reduce a una de los dedos para protegerlos de los
mínima expresión, tanto en espesor golpes contra rocas u otros
como en peso. Se eligen los elementos de la naturaleza. También
materiales más livianos pero también se suelen ver calzados de este tipo
los menos duraderos para su diseño. fabricados con capelladas hechas en
No existen los elementos de control telas permeables al vapor de agua
de movimientos y la amortiguación es pero no al agua líquida, tales como el
mínima. GoreTex. Fuera de estas diferencias,
sus diseños están basados en los de
Solo los pueden usar aquellos los calzados de tipo estable, un
corredores beneficiados por la compromiso entre amortiguación y
naturaleza, que son livianos, control de movimientos. Estos
biomecánicamente eficientes y no calzados son más pesados que sus
tiene ningún vicio de movimiento de equivalentes para pavimento y
los pies en la fase de apoyo. Además oscilan entre los 390 y los 450
por la escasa amortiguación que gramos.
ofrecen, solo se recomienda que
sean utilizados en carreras de menos
de 15 kilómetros, observándose que
solo muy pocos individuos, entre los TECNOLOGIA EN LOS BALONES
descritos, pueden utilizarlos para DE JUEGO
competir en maratón. Generalmente
los individuos que reúnen las Cada cuatro años, la marca que
condiciones para usar estos suministra el material deportivo a la
calzados, son corredores muy FIFA sorprende con el último grito de
veloces que resuelven el contacto la tecnología aplicada al deporte: un
inicial del apoyo en carrera con la nuevo balón, cada vez más redondo,
zona metatarsiana o media de sus perfecto y preciso.
pies, por lo que se pueden tolerar
espesores mínimos en la zona del Una de las mayores innovaciones
talón que ofrecen estos calzados. Los llegó con laTelstar Adidas en México
1970, que inauguró las pelotas blanco
469
y negras. Ideal para que se lucieran Este balón estaba hecho
en las recien estrenadas completamente de cuero. Tenía 32
transmisiones televisivas de los piezas cosidas a mano: 12
partidos (la televisión en color recién pentágonos negros y 20 hexágonos
llegó con Argentina 78). Desde blancos, lo que permitía obtener la
entonces, el blanco y negro es el esfera más perfecta hasta ese
color "oficial" de los balones de fútbol. momento.
´
Fue el primer balón de
Cada cuatro años, alguna mejora fútbol blanco decorado
tecnológica se introduce en los con pentágonos
balones y más de un cambio de look negros, una imagen
permite identificar la pelota con el que hoy en día ya es
país anfitrión del Mundial. todo un clásico. Tenía
el logo dorado.
Importante mejoras siguieron con
Alemania 1974 (Telstar y Chile), Su nombre significó "estrella
Argentina 1978 (Tango), España televisiva", ya que el de México
1982 (Tango España), México 1986 1970 fue el primer mundial en
(Azteca), Italia 1990 (Etrusco), ser televisado en vivo y en
Estados Unidos 1994 (Questra), directo.
Francia 1998 (Tricolore) y Corea-
Japón 2002 (Fevernova). El diseño innovador del Telstar
provocó que el balón fuera mucho
Hasta ahí, y según los entendidos, más visible en los televisores en
ninguna pelota de fútbol podía opacar blanco y negro de la época, y hasta el
a la famosa Tango de Argentina día de hoy éste sigue siendo el
1978. arquetipo de todos los balones de
fútbol genéricos.
No obstante, el mundo entero ya
conoció el balón oficial de la próxima Telstar y adidas de Chile, Alemania
Copa Mundial de la FIFA Alemania 1974
2006, que lleva el nombre de
Teamgeist, palabra en alemán que En este mundial se utilizaron dos
significa "espíritu de equipo". balones oficiales de Adidas.

Pertenece a Adidas, diseñador oficial Por una parte reapareció el Telstar,


del balón de la Copa Mundial de la eso sí: tenía el logo negro en vez del
FIFA desde 1970. dorado del modelo anterior. Por otro
lado, y apoyándose en el éxito del
¿Qué gracia tenían los "balones modelo Telstar, Adidas presentó una
mundialeros" anteriores?... nueva versión totalmente blanca
llamada Chile, en honor a un balón
De México a Alemania completamente blanco utilizado en el
Mundial de Chile de 1962.
El adidas Telstar, México 1970

470
Los materiales y las técnicas Tango Mundial, modelo líder probado
utilizados para el Telstar y el Chile en túnel aerodinámico; el Tango
fueron idénticos a los empleados Alicante, el modelo especial para
cuatro años antes. iluminación artificial; el Tango
Málaga, óptimo para superficies
El adidas Tango, Argentina duras, y el Tango indoor para fútbol
1978 sala.

Ese año el La gama de balones no sólo se


diseño ofreció en el color básico blanco, sino
futbolístico también en anaranjado y amarillo.
experimentó una
nueva revolución
con la presencia
del Tango. Sus veinte piezas El adidas Azteca, México 1986
con "tríadas" creaban una
ilusión óptica de que había 12 Fue el primer balón oficial sintético de
círculos idénticos. un Mundial. Aumentó la durabilidad y
redujo aún más la absorción de agua.
Durante las siguientes cinco
ediciones de la Copa Mundial de la Gracias a un
FIFA (hasta 1998 incluido), el balón rendimiento nunca visto
oficial se basó en este diseño. sobre terreno duro, a
gran altitud y en
El "Tango" ofrecía una mejor condiciones de
impermeabilización y se inspiraba en humedad, el Azteca
la intensa pasión, emoción y significó un gran salto hacia adelante
elegancia de Argentina. para el "deporte rey".

El Tango, España 1982 Se inspiró en la arquitectura y los


murales aztecas del país anfitrión de
El diseño inicial del Tango de 1978 se esta competencia.
alteró muy poco en 1982, aunque lo
cierto es que el Tango España El adidas Etrusco,
contaba con una innovación Italia 1990
tecnológica muy importante:
presentaba unas revolucionarias Fue el primer balón de
costuras impermeables, lo que competición de la historia con una
reducía considerablemente la capa interna de espuma negra de
absorción de agua y, por tanto, poliuretano, de tal forma que la
mantenía al mínimo el aumento de impermeabilización era total, y la
peso del balón en caso de lluvia. pelota era más ligera y rápida.

El Tango España fue el líder de una El nombre y sus elaboradas figuras


familia cuyos "miembros" estaban se inspiraron en la historia antigua
especializados en diferentes
sectores. Por ejemplo, estaban el
471
italiana y en la producción artística de recuperación energética y su
los etruscos. capacidad de respuesta.
• El adidas Fevernova , Corea y
• Tres cabezas de león etruscas Japón 2002
decoraban cada una de las 20 • Se consideró el
tríadas de este balón. primer balón
• El Questra, Estados Unidos oficial de la Copa
1994 Mundial que se
• En 1994 Adidas alejó del diseño
presentó el tradicional
primer balón de imperante desde la aparición
competición con del Tango en 1978. Su aspecto
una capa de llamativo y revolucionario, y el
espuma blanca empleo del color se basaban
de polietileno de alta íntegramente en las culturas
tecnología, con una enorme asiáticas.
recuperación energética, • Incluía una capa de espuma
gracias a la cual el Questra era refinada para dar al balón
de tacto más suave (más mejores características de
controlable) y mucho más rendimiento y una carcaza
rápido al patearlo. tejida de tres capas que
• Como heredero de la permitía conseguir con cada
tecnología aeroespacial, los disparo una trayectoria de
cohetes de alta velocidad y la vuelo más precisa y
carrera espacial predecible.
estadounidense, el Questra •
marcó nuevos niveles de El Teamgeist , Alemania 2006
rendimiento. • Hace referencia al "espíritu de
• El adidas Tricolore, Francia equipo". Elimina las
1998 irregularidades superficiales
• Fue el primer balón de para crear un
competición multicolor. La balón
bandera tricolor y el gallo,
símbolos tradicionales de la
República Francesa y de su
selección nacional de fútbol,
perfectamente redondo.
inspiraron el nombre y el
Mejora la precisión y la
diseño del balón.
potencia. Tiene dos
• Incluía una capa de “espuma
presentaciones: blanco -
sintáctica”, un avanzado
negro, y blanco - dorado (sólo
material compacto compuesto
para la disputa de la final).
de microburbujas rellenas de
• Según Adidas, la clave del
gas, cerradas individualmente
rendimiento del Teamgeist es
y muy resistentes. La espuma
su configuración de 14 piezas,
sintáctica aumentó aún más la
que reduce la cantidad de
durabilidad del balón, su

472
puntos de contacto entre tres sus sales rehidratantes llegan
piezas en un 60% (de 60 a 24). al torrente sanguíneo de una
• La primera "patada" que se le manera muy veloz.
dé será en el encuentro
Alemania-Costa Rica del 9 de •
junio.

• BEBIDAS REHIDRATANTES
• Las bebidas rehidratantes
están siendo muy publicitadas
en los últimos años. Cada vez
más gente hace deporte y
ejercicios más intensos que
antes y eso se debe a que las
personas estamos tomando
conciencia de que la salud es
lo primordial. Empezamos a
dejar de comer grasas
saturadas y nos informamos
más sobre temas que nos
conducen al bienestar de todo
nuestro cuerpo.

• Después de hacer deporte, el • Las bebidas rehidratantes más
cuerpo pierde mucho líquido y comunes en el mercado son
sales minerales que deben Gatorade y Powerade, las
recuperarse para no sufrir cuales son utilizadas por los
colapsos de cansancios por deportistas en general.
deshidratación y desmayos. Muchas personas también las
Para esto es bueno tomar utilizan para hidratarse luego
bebidas rehidratantes después de una fuerte diarrea, como si
de hacer mucho deporte o en fuera suero, ya que contienen
medio de una actividad física cantidades elevadas de sales
muy fuerte. minerales que son muy buenas
• para el organismo.
• Las bebidas rehidratantes
recomendadas son aquellas •
que son de tipo isotónicas, ya Antes que nada es necesario
que estas tienen sales definir qué se entiende por
minerales que ayudan al bebida rehidratante: por lo
cuerpo a recuperar ese líquido general, las que se elaboran
perdido al sudar. Otro factor comercialmente no son más
importante sobre las bebidas que un compuesto líquido que
isotónicas es que son de una contiene además de agua
muy rápida absorción, ya que ciertas cantidades –que varían

473
según el tipo- de carbohidratos •
(azúcares y polímeros de •
glucosa), que son los •
encargados de aportar • Los dos primeros tipos de
energía, y/o de electrolitos bebidas mencionadas –
(sales minerales, entre las que hipotónica e isotónica- son
destaca el sodio, potasio, ideales para la rehidratación
magnesio y cloro) que son los del cuerpo luego del ejercicio,
que favorecen el mientras que, por el contrario,
restablecimiento del equilibrio la última clasificación, las
de los fluidos corporales. hipertónicas, no son
específicamente rehidratantes
• Hay algunas que, además, sino que son más bien
contienen saborizantes y energizantes (debido a su alto
vitaminas. contenido de carbohidratos),
por lo que su uso se destina,
• La diferenciación entre las
principalmente, para
hipotónicas, las isotónicas y
restablecer las reservas
las hipertónicas radica,
energéticas del cuerpo.
principalmente, en la
• Es por esto último que, si se
concentración de estas
opta por ingerir bebidas
bebidas en comparación con
hipertónicas, no se debe dejar,
laconcentración de los propios
bajo ningún punto de vista, de
fluidos corporales.
beber agua, para asegurarse

así una correcta rehidratación
• A ver, retomemos: uno de los
–o en su defecto, consumir
lugares en donde se absorben
también alguna de las otras
los líquidos –con sus
dos variedades-.
nutrientes- es en el intestino, el

cual contiene de manera
• Por último, cabe aclarar que la
natural sus propios fluidos. Si
elección del tipo de bebida
la bebida que se incorpora
dependerá de la calidad y la
posee una concentración
cantidad de actividad física a
menor de solutos(las
realizar, es decir, si se busca
sustancias disueltas antes
sólo una correcta rehidratación
mencionadas) que la del
o si, además, en caso de que
propio intestino, se las
el ejercicio sea más intenso y
denomina hipotónicas, si esa
requiera de mayor desgaste,
concentración es igual, es
se apunte a una reposición
decir, está en equilibriocon
energética posterior.
dichos fluidos, hablamos de

una bebida isotónica, y si, en

cambio, contienemayor

cantidad de electrolitos en
• Gatorade es una bebida no
comparación con los naturales,
gasificada, usada para
nos estamos refiriendo a una
rehidratar y recuperar
bebida hipertónica.
carbohidratos (bajo la forma de

474
azúcares sacarosa y glucosa)
y electrolitos (sales
delsodioypotasio) agotados
durante el ejercicio. Es
comercializada por Quaker
Oats Company, una división de
PepsiCo.

• En un principio fue elaborada
sólo para atletas. Sin embargo,
debido a su mal sabor (en un
principio) y a otros problemas
con algunos ingredientes, la
bebida fue reformulada. La
nueva fórmula proporcionaba
mejores valores nutricionales e
incluso un mejor sabor.

• Debido a su buen sabor y a su
gran aporte nutricional, la
bebida comenzó a consumirse
como bebida común. Y,
gracias a ese impulso
comercial, la marca Gatorade,
lanzó al mercado diferentes
productos para atletas, que
buscan tener la misma función
original, rehidratar al atleta.
Aunque Gatorade es la bebida
más conocida a nivel mundial,
tiene muchos competidores,
como Powerade, All Sport,
entre otras bebidas deportivas
o isotónicas.

• La marca hoy tiene institutos
de ciencias, donde se realizan
pruebas que permiten
comprobar el desempeño del
gatorade en los atletas y
permitir el desarrollo de
nuevos productos para la
hidratación del atleta.

475
476
A grandes rasgos esto es algo de
todo lo que se usa en la industria del
deporte y algunos de lo avances
tecnologicos que se van incluyendo y
el equipo de alto rendimiento para
deportistas profesionales.
Exiten muchas empresas que año
con año renuevan su tecnologia para
desempeñarse de manera mejor en el
campo de las ventas y ofrecer al
publico y la gente que usa su marca
un mejor producto con mas alta
calidad.
Debido a todas las mejoras en los
equipos deportivos, cada vez se
hacen mas cortas las diferencias el
nivel de juego en cualquier campo
entre los jugadores, esto hace que se
tengan mejores partidos y juegos de
mas alto nivel.
Todos estos procesos de mejoras se
hacen con los ingenieros mas
capacitados en el area, de manera de
conseguir el mas alto nivel de calidad
y excelencia en el producto, a base
de pruebas e innovaciones, los
jugadores cada vez utilizan equipo
mas tecnologico y nuevo con el pasar
del tiempo.
Fue excelente el hecho de
conocer algo mas de los procesos
evolutivos deportivos en el campo de
la ciencia y como es posible mezclar
ambas, la actividad deportiva y los
avances tecnologicos.

Sistemas Solares

477
Canterbury of New Zealand está antes los periodos de entrenamiento
preparada para revolucionar el o competición.
mercado de ropa técnica deportiva
con el lanzamiento de IonX(TM) - una Joe Middleton. Consejero Delegado
gama de prendas de alto rendimiento de Canterbury of New Zealand
diseñadas para aumentar la comenta: "En Canterbury nos
competitividad de los deportistas. sentimos orgullosos de las prendas
futuristas y tecnológicamente
Esta ropa deportiva especializada avanzadas que desarrollamos. La
utiliza el tejido de ultima generación gama IonX(TM) no sólo marca un
Ionised Energy Fabrics (TM)- que momento clave para Canterbury, sino
ioniza al cuerpo mediante un campo también para el mercado de ropa
electromagnético de carga negativa. técnica deportiva en general."
Este proceso facilita el suministro de
oxígeno a los músculos desde la Es la primera vez que un fabricante
sangre, lo cual a su vez aumenta el de ropa deportiva usa semejante nivel
rendimiento media en un 2,7%, y de tecnología para el desarrollo de
acelera la recuperación muscular. sus productos, y las prendas
IonX(TM) representan, además, la
La ionización es un proceso natural primera vez que un producto textil ha
que se produce a causa de una carga afectado de forma tan directa y
positiva o negativa de los átomos, por tangible los niveles de rendimiento y
ejemplo durante las tormentas recuperación".
eléctricas o cerca de las cascadas de
agua. En contacto con la piel, los Prof Mike Caine, B.Sc., Ph.D.,
tejidos Ionised Energy Fabrics Director del Instituto de Tecnología
ofrecen dos ventajas fundamentales: Deportiva de la Universidad de
mayor rendimiento durante la Loughborough, Reino Unido, dijo:
actividad y un periodo de "Los resultados preliminares de un
recuperación más corto. estudio realizado por un equipo de
Tecnología Deportiva en la
El aumento del rendimiento se Universidad de Loughborough indican
produce gracias a mayor flujo de que los deportistas que llevan
sangre oxigenada por el cuerpo, lo prendas tratadas con IonX
cual genera más energía en los demuestran mayor nivel de
músculos. Esto ayuda a incrementar rendimiento y de fuerza durante
la potencia media del deportista y a la periodos cortos y repetidos de
vez mejorar la velocidad y la fuerza. máximo esfuerzo. Con el tiempo y
más estudios se debe poder
La mayor tasa de transferencia de comprender cómo maximizar las
oxígeno desde la sangre a los posibilidades de IonX(TM), aunque ya
músculos también beneficia al está claro que estas prendas pueden
sistema de energía anaeróbica del llegar a aportar unos beneficios
cuerpo, al eliminar residuos como el valiosas para el rendimiento de los
ácido láctico de forma más eficaz. La atletas durante el entrenamiento y la
rápida recuperación permite reanudar competición."

478
La tecnología dri-fit
La vestimenta y el calzado son
también una parte importante en la
vida del deportista ya que con las
Hemos visto a través del tiempo que nuevas tecnologías puedes tener una
la tecnología está presente hoy en camiseta seca aunque hayas hecho 3
todas las áreas, en la salud, en la horas de ejercicio. La tecnología
informática, en los deportes y en la llamada Dri-FIT permite el transporte
vida diaria sin duda. de la humedad del cuerpo (sudor) de
la parte interna hacia la parte externa
En la cuestión deportiva encontramos del tejido donde se evapora
la tecnología en la ropa, en el rápidamente. Clima-FIT protege
calzado, en los aparatos que se contra el viento, ofrece resistencia al
utilizan y en un sin número de cosas agua y extrema facilidad de respiro y
más. Por ejemplo en las carreras Therma- FIT mantiene la temperatura
organizadas, tanto de México como del cuerpo, proporcionando
en el resto del mundo, registraron una aislamiento térmico y es muy
notable mejora gracias a la aplicación resistente al viento.
de la tecnología computarizada.
En el calzado, la tecnología nos
En efecto, los eventos deportivos de permite escoger el mas adecuado
este tipo ya no son los mismos que según nuestras necesidades, las
hace siete años cuando se características del pié y la manera en
implementó el llamado sistema de que pisamos, si eres supinador( que
"chips" para la medición de los pisas hacia fuera) o pronador (si
tiempos y resultados en una pisas hacia adentro) hay tenis que
competencia. Estos aparatitos están indicados para tu diferente tipo
permiten obtener el tiempo y lugar de pisada, con aire a fin de reducir el
inmediatamente y pueden ser impacto de los pies contra el suelo,
consultados por Internet el mismo día etc.
del evento, genera datos como
tiempo personal, lugar, paso por Y por último mencionaremos lo útiles
kilómetro, etc., fotografías del que han resultado ser los monitores
corredor al llegar a la meta, de frecuencia cardiaca ya que como
generación de diploma para cada su nombre lo dice, ayudan a conocer
participante y disposición de este la frecuencia cardiaca a diferentes
también vía Internet, envío de esa intensidades y esto ayuda a los
información a teléfono celular y otros deportistas a entrenar exactamente
servicios. como deben, para desarrollar cada
una de las seis capacidades físicas:
Realmente el uso del chip es sin duda Acondicionamiento aeróbico,
uno de los inventos más importantes acondicionamiento anaeróbico,
en el deporte y hoy ya está capacidad aeróbica, capacidad
consolidado como un elemento de anaeróbica, fuerza y flexibilidad.
gran utilidad en toda competencia,
especialmente en las carreras de
ruta.
479
Nuevas telas de Micro Fibra como
Hay mucho, mucho más de que "Dri-Fit" fabricada por Nike o como la
aprender y también existen medios "Clima Cool" fabricada por Adidas
por los que podemos empaparnos de fueron disenadas para atrapar la
estos temas. La revista Club de humedad para transportarla hace la
Corredores te ofrece en sus cima de la tela para despues
secciones además de todos estos evaporizar el sudor. Este tipo de
temas, técnicas de entrenamiento, innovaciones hacen que cuerpo
salud, asuntos médicos propios de respire mejor para evitar mal olores
los corredores, calendarios de que pueden quedar en la ropa. Mas
carreras, cultura en torno al atletismo, importante es que estas telas de alta
nutrición y cocina especializada para tecnologia no encojen, son suaves, y
quienes corren, novedades en flexibles para que uno se sienta aun
tecnología, ropa y accesorios, MAS AGUSTO
anécdotas, resultados de las carreras
más importantes, etcétera. Así que ya Mezclas de algodon: Estas telas son
sabes donde buscar si quieres un poco mejor que la de algodon. El
calidad, información interesante y lo porcentaje de nylon, acrylic y rayon
más nuevo en tecnología. en un uniforme de futbol lo mantendra
seco pero las tela de algodon tiene la
tendencia de retener agua.
Camisas y Shorts de Futbol
Nylon: Un tela exceptionalmente
Es simple. La seleccion correcta de fuerte de elastico que retiene un bajo
camisa y shorts de futbol abilita a que porcental de humedad y es facilmente
tu equipo funcione mejor. Nike y tratable .
Adidas se han despejado de su
compentencia gracias a su fabricado Polyester: Una tela muy durable,
de la tela para manejar la humedad ligera y mas respirable para el
llamada "Moisture Management" cuerpo. Retiene un bajo porcental de
(Manejo de Humedad). " Moisture humedad y es facilmente tratable.
Management" hace que la humedad
del cuerpo se desprenda para regular CoolMax: Hecho y patentado por
la temperatura del cuerpo. Las DuPont, CoolMax es una teal
camisas,shorts,y calcettas fabricadas disenada para remover la humedad y
por estas telas siempre mantienen al evaporizar el sudor. Cool Max es
jugador fresco y seco para desplegar ligera y se seca pronto.
su funcion SIEMPRE AGUSTO.
Tecnologia ClimaLite, ClimaCool and
En los viejos tiempos todos usaban la Dri-Fit
tela de algodon. Lamentablemente
cuando el algodon se humedese se Tecnologias ClimaLite, ClimaCool y
mantiene humedo. En los tiempos de Dri-Fit hace regular el microclima de
mucha calor se siente el calor en tu cuerpo. La primera linea de tela es
piel y en los tiempos de invierno el CoolMax que fue disenada para
sudor se mantiene cercas del cuerpo mantener el sudor lo mas lejos de tu
y con un viento ligero te da escalofrio.

480
cuerpo posible para que te mantegas
seco y agusto. Sudor de pie. En un dia de torneo o al
correr un maraton, tus pies pueden
Nike popularizo el manejo de la llenar hasta dos vazos o mas de puro
humedad con la teconologia de " Dri- sudor. La misma regla aplica sobre el
FIT". Esta fue unas de las primeras manejo de humedad en las calcettas.
manejo de humedada patentado en el El algodon absorbe el sudor que
sistema de negocios. Ahora que se haran que sus calcettas se
ha mantenido por anos, mas atletas humedezcan y se mantegan
se benefician al no sudar. Con lo humedas. Pero, con las calcettas
maximo en el manejo de la humedad humedas habra riesgo de ampollas.
"DRI_FIT" pueda ayudarte funcionar Un material sintetico de alta
mejor. Por eso Nike esta orgulloso de tecnologia hara que el sudor se
introducir los nuevos Uniformes de desprenda de su piel.
Futbol como El Nike Centenario, Nike
Brasilia Pro Vent, y el Nike Game Rio Aqui estan de nuevo Nike y Adidas,
para la alineacion de DRI-FIT para quienes se han desalojado en sus
este ano. respectivos caminos en la tecnologia
de las calcettas de futbol. Las
La historia de Adidas es que siempre calcettasAdidas’s Elite, Montreal,y
llena los requisitos del atleta Copa Edge son reconocidas por el
moderno. Enfocandose en las talon reinforsado, tela de respiro, y
funciones, Adidas corre la milla extra soporte alrededor del tobillo. Las
para vestir a sus atletas con ropa que calcettas Nike Total 90 y Classic
pueda ser la diferencia a la hora de ofrecen costuras suaves alrededor de
competencia. ClimaCool fue los dedos y una tela fina para el
introducida por Adidas para darle mas estiramiento hace los laterales. Estos
ventilacion y manejo de humedad a dos estilos a la vez ofrecen mas
las camisas y shorts de futbol. Es una alcochadamiento para darle la
tela de alta respiracion que ventila y satisfasion a tus zapatos y mejor
desaparece la humedad rapidamente proteccion a tus pies del impacto al
del cuerpo. ClimaCool mantiene al correr repetidamente.
atleta fresco,seco y agusto. Mas
importante ventaliza en las zonas de
mas alto calor. CALZADO DEPORTIVO
Son muchos los deportes que se
Que tal las calcettas?
practican en todo el mundo y cada
La calcetta ideal hace la mayor parte
actividad precisa de un tipo de
del diseno en tus zapatos. Por
tecnología diferente de calzado según
ejemplo, una calcetta gruesa que no
el pie, el terreno y el deporte. El
se siete bien, puede que le de la
calzado correcto hará la diferencia
contra a sus zapatos de alto
entre competir, ganar, perder y
tecnologia que le ofrecen estabilidad
prevenir lesiones.
y mejor manejo. Calcettas buenas
tambien hacen que sus pies se La imagen de la izquierda es de tipo
mantegan secos, calientitos, y libre térmica de una huella plantal con
de ampollas.

481
discriminación de presiones por color. del tamaño al atardecer, cuando el
Los colores más "cálidos" (amarillo, pie está dilatado tras la actividad de
rojo) representan fuerzas más altas y la jornada, en las mismas condiciones
los más "fríos" (azul, violeta) fuerzas que si se hubiera realizado una
más débiles. Imagen capturada y marcha de más de 3 kilómetros.
procesada por una económica
plataforma que trae software marca 3Para acertar con el número hay que
TPS® Foot Scan. Los puntos rojos probarse el calzado con el tipo de
son los centros de presión. La imagen calcetín que se usa para la práctica
de la derecha es la misma huella deportiva. Es conveniente probarse el
plantal pero en un gráfico diferente de número que se calza habitualmente y
tres dimensiones. De esta forma se uno más para comparar la comodidad
puede observar no solo por colores, y el ajuste entre uno y otro.
sino también por la altura de las
áreas y la magnitud de las fuerzas de 4Al probarse la zapatilla hay que
apoyo. fijarse en que el talón esté bien
calzado, los dedos se muevan con
En condiciones normales, estando el libertad y el dedo gordo e índice no
calcáneo en el mismo plano que los se replieguen sobre los demás.
metatarsos, el peso del cuerpo se
distribuye algo más del 50% sobre el 5Cuando no se tiene la seguridad de
talón. Pero cuando el pié se que el calzado es de la talla
encuentra en un calzado con tacón adecuada, hay que probarse otros
que eleva el plano del talón, el peso calzados de las mismas
se desplaza proporcionalmente características pero de diferentes
adelante según la altura que exista fabricantes.
entre el talón y el plano del suelo. Las
cabezas de los cinco metatarsianos 6Cada país posee una relación
participan en la distribución del peso diferente entre la talla en centímetros
que le corresponde a la parte anterior y el número de calzado. Incluso en el
del triángulo del pié; 2/6 de la mitad mismo país se observan diferencias
del peso corporal caen sobre la entre distintos fabricantes. Encontrar
cabeza del primer meta y 1/6 sobre la talla correcta solo es cuestión de
cada uno de los restantes. probarse números y andarlos.
CRITERIO PARA LA ELECCIÓN DEL
CALZADO DEPORTIVO
1La zapatilla que da buen resultado a
un compañero o amigo, no tiene por
qué ser buena para otros. Hay que
probarse varios modelos para elegir Todo calzado deportivo se subdivide
la más adecuada al pie teniendo en en tres zonas principales:
cuenta la adaptación de la
morfología, número y actividad física. 1. Retropie o Talón(Rearfoot).Tercio
del calzado que abarca la parte
2Es aconsejable realizar la elección posterior del mismo y que

482
corresponde principalmente a la zona Parte del calzado que entra en
del talón (lo que abarca el contacto directo con el terreno, debe
Contenedor del Talón). presentar buenas características de
resistencia a la abrasión para
2. Mediopie(Midfoot).Segundo tercio garantizar una durabilidad adecuada;
de las zapatillas (aproximadamente a además un dibujo de calado que le dé
la altura de la bóveda plantal y la buen agarre cuando las condiciones
zona correspondiente al empeine del del terreno son resbaladizas. Una
pie). menor superficie de contacto con el
suelo implica una mayor abrasión a
3. Antepie(Forefoot).Ultimo tercio del las áreas expuestas de la suela.
calzado que corresponde a la zona Aquellas suelas que tengan dibujos
de los metatarsos y los dedos de los muy marcados deberían gastarse
pies (la punta del calzado). más rápido, sin embargo
actualmente, las suelas pueden
Hoy en día podemos elegir el calzado hacerse de materiales muy
en función del deporte que vamos a resistentes, tales como compuestos
realizar. Cada marca tiene varios similares a los de los neumáticos de
modelos para un deporte especifico y automóviles de carrera o a los
también podemos elegir un modelo materiales empleados en chalecos
con punta afilada paraPie antibalas y soportar perfectamente el
Griego(donde el dedo índice es el desgaste con buen agarre.
más largo del pie) o un modelo con
punta cuadrada para elPie La entresuela
Egipcio(donde el dedo gordo es el
más largo del pie y que es el más Desde el punto de vista técnico, es la
común). parte más importante del calzado
para correr. Sobre ella recae la tarea
Un pie griego puede usar una de la amortiguación pero también
zapatilla para pie egipcio, pero no al buena parte del control del
revés.Pie Pronador(pie con movimiento. Generalmente están
predisposición a exagerar el hechas de materiales elastómeros
movimiento de inclinación hacia cuya característica más deseable
dentro de los tobillos) oPie debe ser una alta resiliencia, que es
Supinador(tobillo que presenta la cualidad que tiene un material de
respecto a la pierna una posición regresar a su forma original luego de
arqueada hacia afuera).Debemos haber sido deformado.Cuanto más
tener en cuenta si nuestro pie es alta sea la resiliencia de un material,
Cavo con arco pronunciado(fascitis: tantas más veces podrá el mismo
irritación del tejido de la planta del pie volver a retomar su forma original y
y tendinitis: inflamación del tendón de por lo tanto mantener su capacidad
Aquiles)oValgo del tipo pie de amortiguación.
plano(mucha flexibilidad hace que
sufra el músculo tibial anterior). Los materiales más conocidos en
esta rama del calzado deportivo son
La suela la EVA (Ethynlene Vynil Acetato) y los
poliuretanos. Algunos usan cámaras
483
de aire encerradas en cápsulas de plástico y continuando su dibujo de
poliuretano, otros confinaron un gel o huella en la entresuela y la suela, da
usaron líquidos que pasan por la forma general de apoyo que tendrá
distintas cámaras dependiendo de la el calzado. Cuando se busca
fase de apoyo que se esté construir un calzado fuerte con alta
produciendo. También se utilizan capacidad de control de movimiento,
materiales elastómeros especiales de éste soporte se hace con el cartón
alta resiliencia pero alto costo y antedicho o en plástico y su silueta
desventajas técnicas en otros será más recta a la altura del arco
aspectos, que no se aconsejan para medial. Si se desea hacer un calzado
ser utilizados como componentes más flexible, generalmente ésta
generalizado de toda la entresuela. estructura se hace con materiales
más suaves, como telas con espuma
La capellada de poliuretano o poliéster y la silueta
de la suela es de una forma mucho
Cubre al pie de los elementos más cavada a la altura del arco
externos evitando así que pequeños medial.
pedruscos u otros objetos vayan a
parar entre medio del pie y la parte Calzados con gran capacidad de
superior del calzado. Además da amortiguación
contención al pie en los posibles
desplazamientos laterales y antero- Estos calzados ofrecen un máximo de
posteriores que se dan en la carrera. amortiguación y se sienten más
Están hechas de telas más o menos blandos y suaves al pisar que
aireadas compuestas por fibras de cualquiera de los de las otras
nylon o poliéster. Raramente se ven categorías. Para lograr esto sus
elementos de cuero natural, debido a diseños resignan la capacidad de
su costo y a que éste tiende a controlar movimientos viciosos y
contraerse con las mojaduras. El disponen de pocos o ningún tipo de
contrafuerte del talón es un elemento elemento que le dé una mayor rigidez
muy importante ya que contiene parte a la zona del arco medio. Estas
de los movimientos laterales del características hacen que el calzado
retropié y sin duda, según sus sea más flexible y eso favorece a los
características, participa del control corredores de apoyo inicial
de pronación o supinación según esté metatarsiano o que tienen arcos
diseñado el calzado. Generalmente mediales muy altos y rígidos, aunque
están hechos con polímeros, también lo pueden usar aquellos
plásticos termo conformados para corredores que tengan una técnica de
resistir la deformación y son más o carrera eficiente y sin vicios de
menos rígidos según la orientación pisada.
que se quiera dar al calzado.
Este tipo de calzado estaría
Todo el calzado está construido sobre desaconsejado para los corredores
una estructura de soporte que que no tienen al menos una pisada
podemos decir que es el "esqueleto" biomecánicamente neutra (sin
del mismo. Este soporte a veces está pronación ni supinación excesivas).
hecho de un tipo especial de cartón o
484
Tomemos en cuenta que la Con énfasis en la rigidez, los
amortiguación es quizá el argumento calzados de esta categoría, se
de ventas número uno con el que se diseñan pensando en ofrecer un
pretende convencer al consumidor de máximo de control de los
calzado deportivo.Y una amplia movimientos viciosos en el apoyo del
mayoría de los corredores NO se pie en carrera, fundamentalmente la
halla dentro de la categoría que se sobrepronación. Artilugios tales como
beneficiaría de usar este tipo de insertos plásticos, de dimensiones
calzado. No siempre el calzado que más generosas que en la anterior
mejor amortigua es el mejor para el categoría, entresuelas de mayor
corredor y hay otros temas a tener en espesor y de poliuretano por su
cuenta. Los calzados de esta mayor durabilidad y tolerancia a las
categoría pesan entre 270 y 320 presiones que la goma EVA y
gramos.Para un talle de referencia de contrafuertes de talón más rígidos,
9½ puntos en versión masculina y en son algunos de los elementos de los
el sistema americano. que se valen los fabricantes para
lograr productos eficaces de esta
Calzados estables: En esta categoría clase.
los diseños intentan conciliar las
características de amortiguación con La base de apoyo generalmente
las de control de movimientos termina en una suela de goma al
espurios del pié. Generalmente carbón de alta resistencia a la
vienen provistos de algún tipo de abrasión, más dura y pesada, que
inserto plástico o bien de una goma deja una huella que típicamente se
de mayor densidad en la mitad distingue porque es recta a la altura
interna (medial) de la entresuela; del arco medial, pareciéndose a la
típicamente esta zona de mayor huella que dejarían los individuos
densidad se fabrica en otro color para hacia los cuales estaría orientada
que sea claramente distinguible. La esta categoría, corredores con pié
huella que deja el calzado de ésta plano que necesitan una buena base
categoría es intermedia, ni de apoyo para sus pies y que limite
completamente recta a la altura de la los movimientos de sobrepronación o
zona del arco medial ni tampoco sobresupinación que sufren. Este tipo
completamente cavada. Se aconseja de calzado está aconsejado además
este tipo de calzado a aquellos para los corredores más pesados ya
corredores que tienen arcos mediales que en general son construidos con
normales, que no sufren serios énfasis en la durabilidad y la
problemas de pronación ni supinación resistencia a las grandes presiones.
y buscan un calzado de También se puede aconsejar la
entrenamiento que ofrezca buena elección de calzados de esta
amortiguación y un mínimo de control categoría a aquellos corredores que
de movimientos. Los calzados de usen plantillas o insertos ortopédicos
esta categoría pesan entre 300 y 370 correctivos, ya que la mayor
gramos. profundidad interior con la que son
diseñados, permite acomodar estos
Calzados con gran control de elementos. Los calzados de esta
movimientos
485
categoría pesan entre 320 y 400 materiales más livianos pero también
gramos. los menos duraderos para su diseño.
No existen los elementos de control
de movimientos y la amortiguación es
mínima.

Solo los pueden usar aquellos


Calzados de entrenamiento livianos corredores beneficiados por la
naturaleza, que son livianos,
En esta categoría de calzados se biomecánicamente eficientes y no
podría clasificar a aquellos que tiene ningún vicio de movimiento de
siendo más livianos y flexibles que los los pies en la fase de apoyo. Además
calzados de entrenamiento por la escasa amortiguación que
descriptos, conservan cualidades de ofrecen, solo se recomienda que
amortiguación y control de sean utilizados en carreras de menos
movimientos mínimas y satisfactorias. de 15 kilómetros, observándose que
Típicamente se puede recomendar solo muy pocos individuos, entre los
este tipo de calzados a los corredores descritos, pueden utilizarlos para
biomecánicamente eficientes y de competir en maratón. Generalmente
pisada neutra, que buscan zapatillas los individuos que reúnen las
más dúctiles y ligeras para condiciones para usar estos
entrenamientos veloces, o como calzados, son corredores muy
calzado alternativo para veloces que resuelven el contacto
competencias mayores a los 15 inicial del apoyo en carrera con la
kilómetros. Los calzados en esta zona metatarsiana o media de sus
categoría pueden pesar entre 250 y pies, por lo que se pueden tolerar
290 gramos. Frecuentemente espesores mínimos en la zona del
presentan una silueta de base algo talón que ofrecen estos calzados. Los
cavada y fabricados con materiales calzados de esta clase suelen pesar
más livianos pero también menos entre 170 y 210 gramos.
resistentes.
Calzados todoterreno
Calzados de competición
Entre estos productos, se encuentran
Estos calzados llevan a un extremo la los calzados diseñados para las
disminución del peso en favor de duras condiciones que imponen los
darle al corredor un mejor desplazamientos en terrenos
rendimiento teórico; cuanto menos naturales y característicamente más
peso se transporta en los pies, menor agresivos. Los cambios más
gasto de energía se hace y más uso importantes en el diseño, están dados
de la potencia muscular en producir por suelas más durables y de mejor
desplazamiento horizontal. Tienen tracción, así como refuerzos en la
una silueta de base sumamente capellada y especialmente en la zona
cavada, lo que los hace muy flexibles de los dedos para protegerlos de los
y la entresuela se reduce a una golpes contra rocas u otros
mínima expresión, tanto en espesor elementos de la naturaleza. También
como en peso. Se eligen los se suelen ver calzados de este tipo
486
fabricados con capelladas hechas en (Azteca), Italia 1990 (Etrusco),
telas permeables al vapor de agua Estados Unidos 1994 (Questra),
pero no al agua líquida, tales como el Francia 1998 (Tricolore) y Corea-
GoreTex. Fuera de estas diferencias, Japón 2002 (Fevernova).
sus diseños están basados en los de
los calzados de tipo estable, un Hasta ahí, y según los entendidos,
compromiso entre amortiguación y ninguna pelota de fútbol podía opacar
control de movimientos. Estos a la famosa Tango de Argentina
calzados son más pesados que sus 1978.
equivalentes para pavimento y
oscilan entre los 390 y los 450 No obstante, el mundo entero ya
gramos. conoció el balón oficial de la próxima
Copa Mundial de la FIFA Alemania
2006, que lleva el nombre de
Teamgeist, palabra en alemán que
TECNOLOGIA EN LOS BALONES significa "espíritu de equipo".
DE JUEGO
Pertenece a Adidas, diseñador oficial
Cada cuatro años, la marca que del balón de la Copa Mundial de la
suministra el material deportivo a la FIFA desde 1970.
FIFA sorprende con el último grito de
la tecnología aplicada al deporte: un ¿Qué gracia tenían los "balones
nuevo balón, cada vez más redondo, mundialeros" anteriores?...
perfecto y preciso.
De México a Alemania
Una de las mayores innovaciones
llegó con laTelstar Adidas en México El adidas Telstar, México 1970
1970, que inauguró las pelotas blanco
y negras. Ideal para que se lucieran Este balón estaba hecho
en las recien estrenadas completamente de cuero. Tenía 32
transmisiones televisivas de los piezas cosidas a mano: 12
partidos (la televisión en color recién pentágonos negros y 20 hexágonos
llegó con Argentina 78). Desde blancos, lo que permitía obtener la
entonces, el blanco y negro es el esfera más perfecta hasta ese
color "oficial" de los balones de fútbol. momento.
´
Fue el primer balón de
Cada cuatro años, alguna mejora fútbol blanco decorado
tecnológica se introduce en los con pentágonos
balones y más de un cambio de look negros, una imagen
permite identificar la pelota con el que hoy en día ya es
país anfitrión del Mundial. todo un clásico. Tenía
el logo dorado.
Importante mejoras siguieron con
Alemania 1974 (Telstar y Chile), Su nombre significó "estrella
Argentina 1978 (Tango), España televisiva", ya que el de México 1970
1982 (Tango España), México 1986
487
fue el primer mundial en ser El "Tango" ofrecía una mejor
televisado en vivo y en directo. impermeabilización y se inspiraba en
la intensa pasión, emoción y
El diseño innovador del Telstar elegancia de Argentina.
provocó que el balón fuera mucho
más visible en los televisores en El Tango, España 1982
blanco y negro de la época, y hasta el
día de hoy éste sigue siendo el El diseño inicial del Tango de 1978 se
arquetipo de todos los balones de alteró muy poco en 1982, aunque lo
fútbol genéricos. cierto es que el Tango España
contaba con una innovación
Telstar y adidas de Chile, Alemania tecnológica muy importante:
1974 presentaba unas revolucionarias
costuras impermeables, lo que
En este mundial se utilizaron dos reducía
balones oficiales de Adidas. considerablemente la
absorción de agua y,
Por una parte reapareció el Telstar, por tanto, mantenía al
eso sí: tenía el logo negro en vez del mínimo el aumento de
dorado del modelo anterior. Por otro peso del balón en
lado, y apoyándose en el éxito del caso de lluvia.
modelo Telstar, Adidas presentó una
nueva versión totalmente blanca El Tango España fue el líder de una
llamada Chile, en honor a un balón familia cuyos "miembros" estaban
completamente blanco utilizado en el especializados en diferentes
Mundial de Chile de 1962. sectores. Por ejemplo, estaban el
Tango Mundial, modelo líder probado
Los materiales y las técnicas en túnel aerodinámico; el Tango
utilizados para el Telstar y el Chile Alicante, el modelo especial para
fueron idénticos a los empleados iluminación artificial; el Tango
cuatro años antes. Málaga, óptimo para superficies
duras, y el Tango indoor para fútbol
El adidas Tango, Argentina 1978 sala.

Ese año el diseño La gama de balones no sólo se


futbolístico experimentó ofreció en el color básico blanco, sino
una nueva revolución también en anaranjado y amarillo.
con la presencia del
Tango. Sus veinte
piezas con "tríadas"
creaban una ilusión óptica de que El adidas Azteca, México 1986
había 12 círculos idénticos.
Fue el primer balón oficial sintético de
Durante las siguientes cinco un Mundial. Aumentó la durabilidad y
ediciones de la Copa Mundial de la redujo aún más la absorción de agua.
FIFA (hasta 1998 incluido), el balón
oficial se basó en este diseño.
488
Gracias a un velocidad y la carrera espacial
rendimiento nunca visto estadounidense, el Questra marcó
sobre terreno duro, a nuevos niveles de rendimiento.
gran altitud y en
condiciones de El adidas Tricolore, Francia 1998
humedad, el Azteca
significó un gran salto hacia adelante Fue el primer balón de competición
para el "deporte rey". multicolor. La bandera tricolor y el
gallo, símbolos tradicionales de la
Se inspiró en la arquitectura y los República Francesa y de su selección
murales aztecas del país anfitrión de nacional de fútbol, inspiraron el
esta competencia. nombre y el diseño del balón.

El adidas Etrusco, Italia 1990 Incluía una capa de “espuma


sintáctica”, un avanzado material
Fue el primer balón de competición compacto compuesto de
de la historia con una capa interna de microburbujas rellenas de gas,
espuma negra de poliuretano, de tal cerradas individualmente y muy
forma que la impermeabilización era resistentes. La espuma sintáctica
total, y la pelota era más ligera y aumentó aún más la durabilidad del
rápida. balón, su recuperación energética y
su capacidad de respuesta.
El nombre y sus elaboradas figuras
se inspiraron en la historia antigua El adidas Fevernova ,
italiana y en la producción artística de Corea y Japón 2002
los etruscos.
Se
Tres cabezas de león etruscas
decoraban cada una de las 20 tríadas consideró el primer
de este balón. balón oficial de la Copa
Mundial que se alejó
El Questra, Estados Unidos 1994 del diseño tradicional
imperante desde la aparición del
En 1994 Adidas Tango en 1978. Su aspecto llamativo
presentó el primer y revolucionario, y el empleo del color
balón de competición se basaban íntegramente en las
con una capa de culturas asiáticas.
espuma blanca de
polietileno de alta Incluía una capa de espuma refinada
tecnología, con una enorme para dar al balón mejores
recuperación energética, gracias a la características de rendimiento y una
cual el Questra era de tacto más carcaza tejida de tres capas que
suave (más controlable) y mucho más permitía conseguir con cada disparo
rápido al patearlo. una trayectoria de vuelo más precisa
y predecible.
Como heredero de la tecnología
aeroespacial, los cohetes de alta
489
esto es bueno tomar bebidas
El Teamgeist , Alemania 2006 rehidratantes después de hacer
mucho deporte o en medio de una
Hace referencia al "espíritu de actividad física muy fuerte.
equipo". Elimina las irregularidades
superficiales para crear un balón
perfectamente redondo. Mejora la
precisión y la potencia. Tiene dos Las bebidas rehidratantes
presentaciones: blanco - negro, y recomendadas son aquellas que son
blanco - dorado (sólo para la disputa de tipo isotónicas, ya que estas
de la final). tienen sales minerales que ayudan al
cuerpo a recuperar ese líquido
Según Adidas, la clave del perdido al sudar.
rendimiento del Teamgeist es su Otro factor
configuración de 14 piezas, que importante sobre las
reduce la cantidad de puntos de bebidas isotónicas es
contacto entre tres piezas en un 60% que son de una muy
(de 60 a 24). rápida absorción, ya
que sus sales
La primera "patada" que se le dé será rehidratantes llegan al torrente
en el encuentro Alemania-Costa Rica sanguíneo de una manera muy veloz.
del 9 de junio.

BEBIDAS REHIDRATANTES
Las bebidas rehidratantes están
siendo muy publicitadas en los
últimos años. Cada vez más gente
hace deporte y ejercicios más
intensos que antes y eso se debe a
que las personas estamos tomando
conciencia de que la salud es lo
primordial. Empezamos a dejar de
comer grasas saturadas y nos
informamos más sobre temas que
nos conducen al bienestar de todo
nuestro cuerpo.

Después de hacer deporte, el cuerpo Las bebidas rehidratantes más


pierde mucho líquido y sales comunes en el mercado son
minerales que deben recuperarse Gatorade y Powerade, las cuales son
para no sufrir colapsos de cansancios utilizadas por los deportistas en
por deshidratación y desmayos. Para general. Muchas personas también

490
las utilizan para hidratarse luego de contienemayor cantidad de
una fuerte diarrea, como si fuera electrolitos en comparación con los
suero, ya que contienen cantidades naturales, nos estamos refiriendo a
elevadas de sales minerales que son una bebida hipertónica.
muy buenas para el organismo.

Antes que nada es necesario definir Los dos primeros tipos de bebidas
qué se entiende por bebida mencionadas –hipotónica e isotónica-
rehidratante: por lo general, las que son ideales para la rehidratación del
se elaboran comercialmente no son cuerpo luego del ejercicio, mientras
más que un compuesto líquido que que, por el contrario, la última
contiene además de agua ciertas clasificación, las hipertónicas, no son
cantidades –que varían según el tipo- específicamente rehidratantes sino
de carbohidratos (azúcares y que son más bien energizantes
polímeros de glucosa), que son los (debido a su alto contenido de
encargados de aportar energía, y/o carbohidratos), por lo que su uso se
de electrolitos (sales minerales, entre destina, principalmente, para
las que destaca el sodio, potasio, restablecer las reservas energéticas
magnesio y cloro) que son los que del cuerpo.
favorecen el restablecimiento del Es por esto último que, si se opta por
equilibrio de los fluidos corporales. ingerir bebidas hipertónicas, no se
debe dejar, bajo ningún punto de
Hay algunas que, además, contienen
vista, de beber agua, para asegurarse
saborizantes y vitaminas.
así una correcta rehidratación –o en
La diferenciación entre las su defecto, consumir también alguna
hipotónicas, las isotónicas y las de las otras dos variedades-.
hipertónicas radica, principalmente,
en la concentración de estas bebidas Por último, cabe aclarar que la
en comparación con laconcentración elección del tipo de bebida dependerá
de los propios fluidos corporales. de la calidad y la cantidad de
actividad física a realizar, es decir, si
A ver, retomemos: uno de los lugares se busca sólo una correcta
en donde se absorben los líquidos – rehidratación o si, además, en caso
con sus nutrientes- es en el intestino, de que el ejercicio sea más intenso y
el cual contiene de manera natural requiera de mayor desgaste, se
sus propios fluidos. Si la bebida que apunte a una reposición energética
se incorpora posee una posterior.
concentración menor de solutos(las
sustancias disueltas antes
mencionadas) que la del propio
intestino, se las denomina Gatorade es una bebida no
hipotónicas, si esa concentración es gasificada, usada para rehidratar y
igual, es decir, está en equilibriocon recuperar carbohidratos (bajo la
dichos fluidos, hablamos de una forma de azúcares sacarosa y
bebida isotónica, y si, en cambio, glucosa) y electrolitos (sales

491
delsodioypotasio) agotados durante el
ejercicio. Es comercializada por
Quaker Oats Company, una división
de PepsiCo.

En un principio fue elaborada sólo


para atletas. Sin embargo, debido a
su mal sabor (en un principio) y a
otros problemas con algunos
ingredientes, la bebida fue
reformulada. La nueva fórmula
proporcionaba mejores valores
nutricionales e incluso un mejor
sabor.

Debido a su buen sabor y a su gran


aporte nutricional, la bebida comenzó
a consumirse como bebida común. Y,
gracias a ese impulso comercial, la
marca Gatorade, lanzó al mercado
diferentes productos para atletas, que
buscan tener la misma función
original, rehidratar al atleta. Aunque
Gatorade es la bebida más conocida
a nivel mundial, tiene muchos
competidores, como Powerade, All
Sport, entre otras bebidas deportivas
o isotónicas.

La marca hoy tiene institutos de


ciencias, donde se realizan pruebas
que permiten comprobar el
desempeño del gatorade en los
atletas y permitir el desarrollo de
nuevos productos para la hidratación
del atleta.

492
Panel Fotovoltaico o Panel Solar.

El Panel Fotovoltaico, es la
A grandes rasgos esto es algo conversión directa de luz en
de todo lo que se usa en la industria electricidad a nivel atómico. Algunos
del deporte y algunos de lo avances materiales presentan una propiedad
tecnologicos que se van incluyendo y conocida como efecto fotoeléctrico
el equipo de alto rendimiento para que hace que absorban fotones de
deportistas profesionales. luz y emitan electrones. Cuando
estos electrones libres son
capturados, el resultado es una
Exiten muchas empresas que corriente eléctrica que puede ser
año con año renuevan su tecnologia utilizada como electricidad.
para desempeñarse de manera mejor
en el campo de las ventas y ofrecer al Los módulos fotovoltaicos o
publico y la gente que usa su marca colectores solares fotovoltaicos
un mejor producto con mas alta (llamados a veces paneles solares,
calidad. aunque esta denominación abarca
otros dispositivos) están formados por
un conjunto de celdas (células
Debido a todas las mejoras en fotovoltaicas) que producen
los equipos deportivos, cada vez se electricidad a partir de la luz que
hacen mas cortas las diferencias el incide sobre ellos. El parámetro
nivel de juego en cualquier campo estandarizado para clasificar su
entre los jugadores, esto hace que se potencia se denomina potencia pico,
tengan mejores partidos y juegos de y se corresponde con la potencia
mas alto nivel. máxima que el módulo puede
entregar bajo unas condiciones
estandarizadas, que son:
Todos estos procesos de
mejoras se hacen con los ingenieros
• Radiación de 1000 W/m².
mas capacitados en el area, de
• Temperatura de célula de
manera de conseguir el mas alto nivel
25 °C (no temperatura
de calidad y excelencia en el
ambiente).
producto, a base de pruebas e
innovaciones, los jugadores cada vez
utilizan equipo mas tecnologico y Las placas fotovoltaicas se dividen
nuevo con el pasar del tiempo. en:

• Cristalinas
Fue excelente el hecho de o Monocristalinas: se
conocer algo mas de los procesos componen de secciones
evolutivos deportivos en el campo de de un único cristal de
la ciencia y como es posible mezclar silicio (reconocibles por
ambas, la actividad deportiva y los su forma circular u
avances tecnologicos. octogonal, donde los 4
lados cortos, si se

493
observa, se aprecia que de incrementar la capacidad de las
son curvos, debido a células fotosensibles.
que es una célula
circular recortada). La era moderna de la tecnología de
o Policristalinas: cuando potencia solar no llegó hasta el año
están formadas por 1954 cuando los Laboratorios Bell,
pequeñas partículas descubrieron, de manera accidental,
cristalizadas. que los semiconductores de silicio
• Amorfas: cuando el silicio no dopado con ciertas impurezas, eran
se ha cristalizado. muy sensibles a la luz.

Su efectividad es mayor cuanto Estos avances contribuyeron a la


mayores son los cristales, pero fabricación de la primera célula solar
también su peso, grosor y coste. El comercial con una conversión de la
rendimiento de las primeras puede energía solar de, aproximadamente,
alcanzar el 20% mientras que el de el 6%. La URSS lanzó su primer
las últimas puede no llegar al 10%, satélite espacial en el año 1957, y los
sin embargo su coste y peso es muy EEUU un año después. En el diseño
inferior. de éste se usaron células solares
creadas por Peter Iles en un esfuerzo
Historia encabezado por la compañía
Hoffman Electronics.
El término fotovoltaico proviene
del griego y significa “luz” y voltaico, La primera nave espacial que usó
que proviene del campo de la paneles solares fue el satélite
electricidad, en honor al físico italiano norteamericano Vanguard 1, lanzado
Alejandro Volta, (que también en marzo de 1958.[1] Este hito generó
proporciona el término voltio a la un gran interés en la producción y
unidad de medida de la diferencia de lanzamiento de satélites
potencial en el S.I.). El término geoestacionarios para el desarrollo
fotovoltaico se comenzó a usar en de las comunicaciones, en los que la
Inglaterra desde el año 1849. energía provendría de un dispositivo
de captación de la luz solar. Fue un
El efecto fotovoltaico fue reconocido desarrollo crucial que estimuló la
por primera vez en 1839 por el físico investigación por parte de algunos
francés Becquerel, pero la primera gobiernos y que impulsó la mejora de
célula solar no se construyó hasta los paneles solares.
1883. Su autor fue Charles Fritts,
quien recubrió una muestra de En 1970 la primera célula solar con
selenio semiconductor con un pan de heteroestructura de arseniuro de galio
oro para formar el empalme. Este (GaAs) y altamente eficiente se
primitivo dispositivo presentaba una desarrolló en la extinta URSS por
eficiencia de sólo un 1%. Russell Ohl Zhore Alferov y su equipo de
patentó la célula solar moderna en el investigación.
año 1946, aunque Sven Ason
Berglund había patentado, con La producción de equipos de
anterioridad, un método que trataba deposición química de metales por
494
vapores orgánicos o MOCVD (Metal En 2007, dos compañías
Organic Chemical Vapor Deposition), norteamericanas Emcore
no se desarrolló hasta los años 80 del Photovoltaics y Spectrolab, producen
siglo pasado, limitando la capacidad el 95% de las células solares del 28%
de las compañías en la manufactura de eficiencia.
de células solares de arseniuro de
galio. La primera compañía que
manufacturó paneles solares en
cantidades industriales, a partir de
uniones simples de GaAs, con una
eficiencia de AM0 (Air Mass Zero) del Las distintas generaciones de células
17% fue la norteamericana ASEC fotovoltaicas
(Applied Solar Energy Corporation).
La conexión dual de la celda se Breve introducción sobre la física de
produjo en cantidades industriales por los semiconductores
ASEC en 1989, de manera
accidental, como consecuencia de un En una muestra de metal, los
cambio del GaAs sobre los sustratos electrones exteriores de sus átomos,
de GaAs a GaAs sobre sustratos de denominados electrones de valencia
germanio. pueden moverse libremente. Se dice
que están deslocalizados en regiones
El dopaje accidental de germanio del espacio que ocupan toda la red
(Ge) con GaAs como capa cristalina, como si de una malla se
amortiguadora creó circuitos de tratase. En términos energéticos esto
voltaje abiertos, demostrando el quiere decir que los electrones de la
potencial del uso de los sustratos de última capa del átomo ocupan niveles
germanio como otros celdas. Una de energía altos que les permite
celda de uniones simples de GaAs escaparse del enlace que les une a
llegó al 19% de eficiencia AM0 en su átomo.
1993. ASEC desarrolló la primera
celda de doble unión para las naves El conjunto de estos niveles, muy
espaciales usadas en los EEUU, con próximos unos de otros, forman parte
una eficiencia de un 20% de la llamada banda de conducción
aproximadamente. (en adelante BC). Esta banda está
formada, además, por niveles de
Estas celdas no usan el germanio energía vacíos y es, precisamente, la
como segunda celda, pero usan una existencia de estos niveles vacíos la
celda basada en GaAs con diferentes que permite que los electrones
tipos de dopaje. De manera puedan saltar a ellos cuando se les
excepcional, las células de doble pone en movimiento, al aplicar un
unión de GaAs pueden llegar a campo eléctrico. Precisamente esta
producir eficiencias AM0 del orden circunstancia permite que los metales
del 22%. Las uniones triples sean conductores de la electricidad.
comienzan con eficiencias del orden
del 24% en el 2000, 26% en el 2002, Los demás electrones del átomo, con
28% en el 2005, y han llegado, de energías menores, forman la banda
manera corriente al 30% en el 2007. de valencia (BV). La distancia entre
495
ambas bandas, en términos de la BC, como a que la BV no está
energía, es nula. Ambas bandas se totalmente llena.
solapan de manera que los
electrones de la BV con más energía
se encuentran, también, en la BC.

En las sustancias aislantes, la BC


está completamente vacía porque
todos los electrones, incluidos los de
la última capa están ligados al átomo, Las cuatro generaciones de células
tienen una energía más baja, y por lo fotovoltaicas.
tanto se encuentran en la banda de
valencia, y además la distancia entre La primera generación de células
las bandas (se denomina a esta fotovoltaicas consistían en una gran
distancia energética banda prohibida, superficie de cristal simple. Una
o gap) es bastante grande, con lo que simple capa con unión diodo p-n,
les es muy difícil saltar a la BC. Como capaz de generar energía eléctrica a
la BV está llena, los electrones no partir de fuentes de luz con longitudes
pueden moverse y no puede haber de onda similares a las que llegan a
corriente eléctrica al aplicar un voltaje la superficie de la Tierra provenientes
entre los extremos del aislante. del Sol. Estas células están
fabricadas, usualmente, usando un
En los semiconductores, las bandas proceso de difusión con obleas de
de valencia y conducción presentan silicio. Esta primera generación
una situación intermedia entre la que (conocida también como células
se da en un conductor y la que es solares basadas en oblea) son,
normal en un aislante. La BC tiene actualmente, (2007) la tecnología
muy pocos electrones. Esto es debido dominante en la producción comercial
a que la separación que hay entre la y constituyen, aproximadamente, el
BV y la BC no es nula, pero si 86% del mercado de células solares
pequeña. Así se explica que los terrestres.
semiconductores aumentan su
conductividad con la temperatura, La segunda generación de materiales
pues la energía térmica suministrada fotovoltaicos se basa en el uso de
es suficiente para que los electrones depósitos epitaxiales muy delgados
puedan saltar a la banda de de semiconductores sobre obleas con
conducción, mientras que los concentradores. Hay dos clases de
conductores la disminuyen, debido a células fotovoltaicas epitaxiales: las
que las vibraciones de los átomos espaciales y las terrestres. Las
aumentan y dificultan la movilidad de células espaciales, usualmente,
los electrones. tienen eficiencias AM0 (Air Mass
Zero) más altas (28-30%), pero tienen
Lo interesante de los un costo por vatio más alto. En las
semiconductores es que su pequeña terrestres la película delgada se ha
conductividad eléctrica es debida, desarrollado usando procesos de
tanto a la presencia de electrones en bajo coste, pero tienen una eficiencia
AM0 (7-9%), más baja, y, por razones
496
evidentes, se cuestionan para para separar los portadores de carga
aplicaciones espaciales. fotogenerados. Para aplicaciones
espaciales, se están estudiando
dispositivos de huecos cuánticos
Las predicciones antes de la llegada (puntos cuánticos, cuerdas cuánticas,
de la tecnología de película delgada etc.) y dispositivos que incorporan
apuntaban a una considerable nanotubos de carbono, con un
reducción de costos para células potencial de más del 45% de
solares de película delgada. eficiencia AM0. Para aplicaciones
Reducción que ya se ha producido. terrestres, se encuentran en fase de
Actualmente (2007) hay un gran investigación dispositivos que
número de tecnologías de materiales incluyen células fotoelectroquímicas,
semiconductores bajo investigación células solares de polímeros, células
para la producción en masa. Se solares de nanocristales y células
pueden mencionar, entre estos solares de tintas sensibilizadas.
materiales, al silicio amorfo, silicio
policristalino, silicio microcristalino, Una hipotética cuarta generación de
teleruro de cadmio y sulfuros y células solares consistiría en una
seleniuros de indio. Teóricamente, tecnología fotovoltaica compuesta en
una ventaja de la tecnología de las que se mezclan, conjuntamente,
película delgada es su masa nanopartículas con polímeros para
reducida, muy apropiada para fabricar una capa simple
paneles sobre materiales muy ligeros multiespectral. Posteriormente, varias
o flexibles. Incluso materiales de capas delgadas multiespectrales se
origen textil. podrían apilar para fabricar las
células solares multiespectrales
La llegada de películas delgadas de definitivas. Células que son más
Ga y As para aplicaciones espaciales eficientes, y baratas. Basadas en esta
(denominadas células delgadas) con idea, y la tecnología multiunión, se
potenciales de eficiencia AM0 por han usado en las misiones de Marte
encima del 37% están, actualmente, que ha llevado a cabo la NASA. La
en estado de desarrollo para primera capa es la que convierte los
aplicaciones de elevada potencia diferentes tipos de luz, la segunda es
específica. La segunda generación de para la conversión de energía y la
células solares constituye un última es una capa para el espectro
pequeño segmento del mercado infrarrojo. De esta manera se
fotovoltaico terrestre, y convierte algo del calor en energía
aproximadamente el 90% del aprovechable. El resultado es una
mercado espacial. excelente célula solar compuesta. La
investigación de base para esta
La tercera generación de células generación se está supervisando y
fotovoltaicas que se están dirigiendo por parte de la DARPA
proponiendo en la actualidad (2007) (Defense Advanced Research
son muy diferentes de los dispositivos Projects Agency) para determinar si
semiconductores de las generaciones esta tecnología es viable o no. Entre
anteriores, ya que realmente no las compañías que se encuentran
presentan la tradicional unión p-n trabajando en este cuarta generación

497
se encuentran Xsunx, Konarka una determinada cantidad de
Technologies, Inc., Nanosolar, Dyesol corriente continua, también
y Nanosys. denominada DC (acrónimo del inglés
Direct Current y que corresponde a
Principio de funcionamiento un tipo de corriente eléctrica que se
describe como un movimiento de
1. Algunos de los fotones, que cargas en una dirección y un sólo
provienen de la radiación solar, sentido, a través de un circuito. Los
impactan sobre la primera electrones se mueven de los
superficie del panel, potenciales más bajos a los más
penetrando en este y siendo altos).
absorbidos por materiales
semiconductores, tales como Opcionalmente:
el silicio o el arseniuro de galio.
2. Los electrones, subpartículas 1. La corriente continua se lleva a
atómicas que forman parte del un circuito electrónico
exterior de los átomos, y que conversor (inverter) que
se alojan en orbitales de transforma la corriente
energía cuantizada, son continua en corriente alterna,
golpeados por los fotones (AC) (tipo de corriente
(interaccionan) liberándose de disponible en el suministro
los átomos a los que estaban eléctrico de cualquier hogar)
originalmente confinados. de 120 o 240 voltios.
2. La potencia de AC entra en el
Esto les permite, posteriormente, panel eléctrico de la casa.
circular a través del material y 3. La electricidad generada se
producir electricidad. Las cargas distribuye, casi siempre, a la
positivas complementarias que se línea de distribución de los
crean en los átomos que pierden los dispositivos de iluminación de
electrones, (parecidas a burbujas de la casa, ya que estos no
carga positiva) se denominan huecos consumen excesiva energía, y
y fluyen en el sentido opuesto al de son los adecuados para que
los electrones, en el panel solar. funcionen correctamente con
la corriente generada por el
Se ha de comentar que, así como el panel.
flujo de electrones corresponde a 4. La electricidad que no se usa
cargas reales, es decir, cargas que se puede enrutar y usar en
están asociadas a desplazamiento otras instalaciones.
real de masa, los huecos, en realidad,
son cargas que se pueden considerar Fotogeneración de portadores de
virtuales puesto que no implican carga
desplazamiento de masa real.
Cuando un fotón llega a una pieza de
Un conjunto de paneles solares silicio, pueden ocurrir tres
transforman la energía solar (energía acontecimientos:
en forma de radiación y que depende
de la frecuencia de los fotones) en
498
El fotón puede pasar a través del determinada. La energía que el fotón
material de silicio sin producir ningún le proporciona es capaz de excitarlo y
efecto, esto ocurre, generalmente promocionarlo a la banda de
para fotones de baja energía. conducción, que está vacía y donde
puede moverse con relativa libertad,
Los fotones pueden ser reflejados al usando esa banda, para desplazarse,
llegar a la superficie del panel, y son a través del interior del
expulsados de este. semiconductor.
El fotón es absorbido por el silicio, en El enlace covalente del cual formaba
cuyo caso puede ocurrir: parte el electrón, tiene ahora un
electrón menos. Esto se conoce
Generar calor
como hueco. La presencia de un
Producir pares de electrones-huecos, enlace covalente perdido permite a
si la energía del fotón incidente es los electrones vecinos moverse hacia
más alta que la mínima necesaria el interior de ese hueco, que
para que los electrones liberados producirá un nuevo hueco al
lleguen a la banda conducción. desplazarse el electrón de al lado, y
de esta manera, y por un efecto de
Nótese que si un fotón tiene un traslaciones sucesivas, un hueco
número entero de veces el salto de puede desplazarse a través de la red
energía para que el electrón llegue a cristalina. Así pues, se puede afirmar
la banda de conducción, podría crear que los fotones absorbidos por el
más de un único par electrón-hueco. semiconductor crean pares móviles
No obstante, este efecto no es de electrones-huecos.
significativo, de manera usual, en las
células solares. Este fenómeno, de Un fotón solo necesita tener una
múltiplos enteros, es explicable energía más alta que la necesaria
mediante la mecánica cuántica y la para llegar a los huecos vacíos de la
cuantización de la energía. banda de conducción del silicio, y así
poder excitar un electrón de la banda
Cuando se absorbe un fotón, la de valencia original a dicha banda.
energía de este se comunica a un
electrón de la red cristalina. El espectro de frecuencia solar es
Usualmente, este electrón está en la muy parecido al espectro del cuerpo
banda de valencia, y está negro cuando este se calienta a la
fuertemente vinculado en enlaces temperatura de 6000K y, por tanto,
covalentes que se forman entre los gran cantidad de la radiación que
átomos colindantes. El conjunto total llega a la Tierra está compuesta por
de los enlaces covalentes que forman fotones con energías más altas que la
la red cristalina da lugar a lo que se necesaria para llegar a los huecos de
llama la banda de valencia. Los la banda de conducción. Ese
electrones pertenecientes a esa excedente de energía que muestran
banda son incapaces de moverse los fotones, y mucho mayor de la
más allá de los confines de la banda, necesaria para la promoción de
a no ser que se les proporcione electrones a la banda de conducción,
energía, y además energía será absorbida por la célula solar y se

499
manifestará en un apreciable calor está compuesta de, al menos, dos
(dispersado mediante vibraciones de delgadas láminas de silicio. Una
la red, denominadas fonones) en dopada con elementos con menos
lugar de energía eléctrica utilizable. electrones de valencia que el silicio,
denominada P y otra con elementos
Separación de los portadores de con más electrones que los átomos
carga de silicio, denominada N. Ambas
están separadas por un
Hay dos modos fundamentales para semiconductor.
la separación de portadores de carga
en un célula solar: Aquellos fotones procedentes de la
fuente luminosa, que presentan
1. movimiento de los portadores, energía adecuada, inciden sobre la
impulsados por un campo superficie de la capa P, y al
electrostático establecido a interactuar con el material liberan
través del dispositivo. electrones de los átomos de silicio los
2. difusión de los portadores de cuales, en movimiento, atraviesan la
carga de zonas de alta capa de semiconductor, pero no
concentración de portadores a pueden volver. La capa N adquiere
zonas de baja concentración una diferencia de potencial respecto a
de portadores (siguiendo un la P. Si se conectan unos
gradiente de potencial conductores eléctricos a ambas
eléctrico). capas y estos, a su vez, se unen a un
dispositivo o elemento eléctrico
En las células de unión p-n, consumidor de energía que,
ampliamente usadas en la actualidad, usualmente y de forma genérica se
el modo que predomina en la denomina carga, se iniciará una
separación de portadores es por la corriente eléctrica continua.
presencia de un campo electrostático.
No obstante, en células solares en las
que no hay uniones p-n (típicas de la Este tipo de paneles producen
tercera generación de células solares electricidad en corriente continua y
experimentales, como células de aunque su efectividad depende tanto
película delgada de polímeros o de de su orientación hacia el sol como
tinta sensibilizada), el campo eléctrico de su inclinación con respecto a la
electrostático parece estar ausente. horizontal, se suelen montar
En este caso, el modo dominante de instalaciones de paneles con
separación es mediante la vía de la orientación e inclinación fija, por
difusión de los portadores de carga. ahorros en mantenimiento. Tanto la
inclinación como la orientación, al sur,
Generación de corriente en un placa se fija dependiendo de la latitud y
convencional tratando de optimizarla al máximo
usando las recomendaciones de la
Los módulos fotovoltaicos funcionan, norma ISO correspondiente.
como se ha dejado entrever en el
anterior apartado, por el efecto La unión p-n
fotoeléctrico. Cada célula fotovoltaica
500
La célula solar más usual está unión se llama región de agotamiento
fabricada en silicio y configurada porque no contiene nada más que
como un gran área de unión p-n. Una algunos portadores de carga móviles.
simplificación de este tipo de placas Es también conocida como la región
puede considerarse como una capa de espacio de cargas.
de silicio de tipo n directamente en
contacto con una capa de silicio de Factores de eficiencia de una célula
tipo p. En la práctica, las uniones p-n solar
de las células solares, no están
hechas de la manera anterior, más Punto de máxima potencia
bien, se elaboran por difusión de un
tipo de dopante en una de las caras Una placa o célula solar puede operar
de una oblea de tipo p, o viceversa. en un amplio rango de voltajes e
intensidades de corriente. Esto puede
Si la pieza de silicio de tipo p es lograrse variando la resistencia de la
ubicada en íntimo contacto con una carga, en el circuito eléctrico, por una
pieza de silicio de tipo n, tiene lugar la parte, y por la otra variando la
difusión de electrones de la región irradiación de la célula desde el valor
con altas concentraciones de cero (valor de cortocircuito) a valores
electrones (la cara de tipo n de la muy altos (circuito abierto) y se puede
unión) hacia la región de bajas determinar el punto de potencia
concentraciones de electrones (cara máxima teórica, es decir, el punto que
tipo p de la unión). maximiza V y tiempo frente a I, o lo
que es lo mismo, la carga para la cual
Cuando los electrones se difunden a la célula puede entregar la máxima
través de la unión p-n, se recombinan potencia eléctrica para un
con los huecos de la cara de tipo p. determinado nivel de radiación.
Sin embargo, la difusión de los
portadores no continua El punto de potencia máxima de un
indefinidamente. Esta separación de dispositivo fotovoltaico varía con la
cargas, que la propia difusión crea, iluminación incidente. Para sistemas
genera un campo eléctrico provocado bastante grandes se puede justificar
por el desequilibrio de las cargas un incremento en el precio con la
parando, inmediatamente, el flujo inclusión de dispositivos que midan la
posterior de más cargas a través de potencia instantánea por medida
la unión. continua del voltaje y la intensidad de
corriente (y de ahí la potencia
El campo eléctrico establecido a transferida), y usar esta información
través de la creación de la unión p-n para ajustar, de manera dinámica, y
crea un diodo que permite el flujo de en tiempo real, la carga para que se
corriente en un solo sentido a través transfiera, siempre, la máxima
de dicha unión. Los electrones potencia posible, a pesar de las
pueden pasar del lado de tipo n hacia variaciones de luz, que se produzcan
el interior del lado p, y los huecos durante el día.
pueden pasar del lado de tipo p hacia
el lado de tipo n. Esta región donde Eficiencia en la conversión de energía
los electrones se han difundido en la
501
La eficiencia de una célula solar (η, como la relación entre el máximo
"eta"), es el porcentaje de potencia punto de potencia dividido entre el
convertida en energía eléctrica de la voltaje en circuito abierto (Voc) y la
luz solar total absorbida por un panel, corriente en cortocircuito Isc:
cuando una célula solar está
conectada a un circuito eléctrico. Este
término se calcula usando la relación
del punto de potencia máxima, Pm,
dividido entre la luz que llega a la Potencia y costes
celda irradiancia (E, en W/m²), bajo
condiciones estándar (STC) y el área En un día soleado, el Sol irradia
superficial de la célula solar (Ac en alrededor de 1 kW/m2 a la superficie
m²). de la Tierra. Considerando que los
paneles fotovoltaicos actuales tienen
una eficiencia típica entre el 12%-
25%, esto supondría una producción
aproximada de entre 120-250 W/m²
en función de la eficiencia del panel
La STC especifica una temperatura fotovoltaico y las horas de irradiación
de 25 °C y una irradiancia de 1000 solar.
W/m² con una masa de aire espectral
de 1,5 (AM 1,5). Esto corresponde a Por otra parte, están produciéndose
la irradiación y espectro de la luz grandes avances en la tecnología
solar incidente en un día claro sobre fotovoltaica y ya existen paneles
una superficie solar inclinada con experimentales con rendimientos
respecto al sol con un ángulo de superiores al 40%.
41,81º sobre la horizontal.
A latitudes medias y septentrionales,
Esta condición representa, teniendo en cuenta el ciclo diurno y
aproximadamente, la posición del sol las condiciones atmosféricas, llegan a
de mediodía en los equinoccios de la superficie terrestre 100 W/m² de
primavera y otoño en los estados media en invierno y 250 W/m² en
continentales de los EEUU con una verano. Con una eficiencia de
superficie orientada directamente al conversión de, aproximadamente,
sol. De esta manera, bajo estas 12%, se puede esperar obtener 12 y
condiciones una célula solar típica de 30 vatios por metro cuadrado de
100 cm2, y de una eficiencia del 12%, celda fotovoltaica en invierno y
aproximadamente, se espera que verano, respectivamente.
pueda llegar a producir una potencia
de 1,2 vatios. Con los costes actuales de energía
eléctrica, 0.08 $/kWh (USD), un metro
Factor de llenado cuadrado generará hasta 0.06 $/día,
y un km² generará hasta 30 MW, o
Otro término para definir la eficacia 50,000 $/(km².día). Para comparar, el
de una célula solar es el factor de Sahara despoblado se extiende por 9
llenado o fill factor (FF), que se define millones de km², con menos nubes y

502
un mejor ángulo solar, pudiendo Actualmente, la producción mundial
generar hasta 50 MW/km², o 450 TW de células fotovoltaicas se concentra
(teravatio) en total. El consumo de en Japón (48%), Europa (27%) y
energía actual de la población EEUU (11%). El consumo de silicio
terrestre está cercano a 12-13 TW en en 2004 destinado a aplicaciones
cualquier momento dado (incluyendo fotovoltaicas ascendió a 13.000
derivados del petróleo, carbón, toneladas.
energía nuclear e hidroeléctrica).
En España las principales empresas
El verdadero problema con los instaladoras de paneles fotovoltaicos
paneles fotovoltaicos es el coste de la son T-Solar, Fotowatio, Renovalia y
inversión, como se puede ver en el Solaria.
artículo sobre la ganancia neta de
energía, requiriendo hasta más de 10 Usos de las celdas fotovoltaicas
años (de una vida útil de 40 años o solares
más) para recuperar el coste inicial y
generar ganancias. El precio actual Deben su aparición a la industria
de los módulos fotovoltaicos, oscila aeroespacial, y se han convertido en
entre los 3.5 y los 5.0 $/W (USD), de el medio más fiable de suministrar
capacidad de producción, en función energía eléctrica a un satélite o a una
de la cantidad que se compre y la sonda en las órbitas interiores del
procedencia. Los más baratos vienen Sistema Solar. Esto es gracias a la
de China y se debe ser muy prudente mayor irradiación solar sin el
con la calidad y garantías de los impedimento de la atmósfera y a su
mismos. El precio de 8 $/W, aunque bajo peso.
algo barato, es el precio completo de
una instalación fija: módulos, En tierra, son la fuente solar más
estructuras de soporte, onduladores, popular en instalaciones pequeñas o
protecciones, sistemas de medición, en edificios, frente al método de
costes del proyecto, instalación y campos de espejos heliostatos
permisos administrativos. Un precio empleados en las grandes centrales
normal está entre 8.6 y 9.0 $/W. Si la solares.
instalación es con seguidores de sol
de dos ejes, el coste puede rondar los Junto con una pila auxiliar, se usa
10.60 $/W, aunque la producción habitualmente en ciertas aplicaciones
eléctrica obtenida es del orden de un de poco consumo como boyas o
30% superior que en una fija. aparatos en territorios remotos, o
simplemente cuando la conexión a
Fabricación de paneles una central de energía sea
convencionales impracticable. Su utilización a gran
escala se ve restringida por su alto
Generalmente se elaboran de silicio, coste, tanto de compra como de
el elemento que es el principal instalación. Hasta ahora, los paneles
componente de la sílice, el material fotovoltaicos ocupan una pequeña
de la arena. porción de la producción mundial de
energía.

503
Experimentalmente han sido usados mercado libre de generación
para dar energía a automóviles, por eléctrica.
ejemplo en el World solar challenge a
través de Australia. Muchos yates y Lista de aplicaciones
vehículos terrestres los usan para
cargar sus baterías lejos de la red
eléctrica. Programas de incentivo a
gran escala, ofreciendo recompensas
financieras como la posibilidad de
vender el exceso de electricidad a la
red pública, han acelerado en gran
medida el avance de las instalaciones
de celdas fotovoltaicas solares en
España, Alemania, Japón, Estados
Unidos y otros países.

La experiencia en producción e
instalación, los avances tecnológicos
que aumentan la eficiencia de las
celdas solares, las economías de
escala en un mercado que crece un
40% anualmente, unido a las subidas • Centrales conectadas a red
en los precios de los combustibles con subvención a la
fósiles, hacen que las se empiece a producción (de un 575%
contemplar la fotovoltaica para actualmente en España).
producción eléctrica de base, en • Estaciones repetidoras de
centrales conectadas a red. microondas y de radio.
• Electrificación de pueblos en
Actualmente muchos gobiernos del áreas remotas (Electrificación
mundo (Alemania, Japón, EEUU, rural).
España, Grecia, Italia, Francia, ...) • Instalaciones médicas en
están subvencionando las áreas rurales.
instalaciones con un objetivo • Corriente eléctrica para casas
estratégico de diversificación y de campo.
aumento de las posibilidades • Sistemas de comunicaciones
tecnológicas preparadas para crear de emergencia.
electricidad de forma masiva. La gran • Sistemas de vigilancia de
mayoría de las instalaciones datos ambientales y de calidad
conectadas a red están motivadas del agua.
por primas muy elevadas a la • Faros, boyas y balizas de
producción, pagándose al productor 5 navegación marítima.
o 6 veces el coste de la energía • Bombeo para sistemas de
eléctrica generada por vías riego, agua potable en áreas
tradicionales, o mediante incentivos rurales y abrevaderos para el
fiscales, lo que ha generado críticas ganado.
desde grupos favorables a un

504
• Balizamiento para protección Desde los años 70 se han realizado
aeronáutica. investigaciones sobre la tecnología
• Sistemas de protección de concentración fotovoltaica de
catódica. manera que ha mejorado su
• Sistemas de desalinización. eficiencia hasta conseguir superar a
• Vehículos de recreo. la fotovoltaica tradicional. No fue
• Señalización ferroviaria. hasta los años 2006-2007 que las
• Sistemas para cargar los tecnologías de concentración pasaron
acumuladores de barcos. de estar reducidas al ámbito de la
• Fuente de energía para naves investigación y empezar a conseguir
espaciales. los primeros desarrollos comerciales.
• Postes SOS (Teléfonos de En 2008 el ISFOC (Instituto de
emergencia de carretera). Sistemas Solares Fotovoltaicos de
• Parquímetros. Concentración) puso en marcha en
• Recarga de Scooters España una de las mayores de este
Eléctricos tipo a nivel mundial, conectando a la
red 3MW de potencia. En este
Panel de alta concentración proyecto participaron varias
empresas que utilizaban diversas
Fruto de un convenio de colaboración tecnologías de concentración
firmado por la Universidad Politécnica fotovoltaica (CPV).
de Madrid (UPM), a través de su
Instituto de Energía Solar, la empresa Algunas de estas tecnologías utilizan
Guascor Fotón[4] y el Instituto para la lentes para aumentar la potencia del
Diversificación y Ahorro de la sol que llega a la célula. Otras
Energía, organismo del Ministerio de concentran con un sistema de
Industria, Turismo y Comercio espejos la energía del sol en células
español, se ha realizado la primera de alta eficiencia para obtener un
instalación solar de alta rendimiento máximo de energía.
concentración de silicio en Algunas empresas como SolFocus ya
explotación comercial de Europa. han empezado a comercializar la
tecnología CPV a gran escala y están
Se trata de una instalación solar desarrollando proyectos en Europa y
fotovoltaica que, frente a una EE.UU. que superan los 10MW en
convencional, utiliza una 2009.
extraordinaria reducción de silicio y
convierte la luz solar en energía La tecnología de concentración
eléctrica con muy alta eficiencia. Esta fotovoltaica se dibuja como una de
tecnología surge como forma de las opciones más eficientes en
aprovechar al máximo el potencial del producción energética a menor coste
recurso solar y evitar por otra parte la para zonas de alta radiación solar
dependencia del silicio, cada vez más como son los países mediterráneos,
escaso y con un precio cada vez las zonas del sur de EE.UU, México,
mayor debido al aumento de la Australia…
demanda por parte de la industria
solar. ¿Cómo Funcionan las Celdas
Fotovoltaicas?
505
grama ilustra la operación de una celda fotovoltáica, llamada también celda
Las celdas solares están hechas de la misma clase de materiales
onductores, tales como el silicio, que se usan en la industria
electrónica. Para las celdas solares, una delgada
Varios rejilla
módulos semiconductora
pueden es unos con otros para formar un arreg
ser conectados
ialmente tratada para formar un campo eléctrico, positivo en un lado
general, cúanto más grande es el área y de un módulo o arreglo, más electr
vo en el otro. Cuando la energía luminosa llega hasta
será producida. Losla módulos
celda solar, los
y arreglos fotovoltaicos producen corriente d
ones son golpeados y sacados de los átomos del material semiconductor. Si
(CC). Estos arreglos pueden ser conectados tanto en serie como en paralelo
mos conductores eléctricos tanto del lado positivo como del negativo de la
producir cualquier cantidad de voltaje o corriente que se requiera.
formando un circuito eléctrico, los electrones pueden ser capturados en
de una corriente eléctrica -- es decir, en electricidad. La electricidad puede
ces ser usada para suministrar potencia a una carga, por ejemplo para
der una luz o energizar una herramienta.

reglo de varias celdas solares conectadas eléctricamente unas con otras y


das en una estructura de apoyo o un marco, se llama módulo fotovoltaico.
módulos están diseñados para proveer un cierto nivel de voltaje, como por
lo el de un sistema común de 12 voltios. La corriente producida depende
amente de cuánta luz llega hasta el módulo.

506
en día, los dispositivos fotovoltaicos (FV) más
nes usan una sola juntura o interfase para crear un
o eléctrico dentro de un semiconductor, como por
lo una celda FV. En una celda FV de una sola
a, solamente aquellos fotones cuya energía sea igual
yor a la del espacio interbanda del material de la
pueden liberar un electrón para ser usado en un
o eléctrico. En otras palabras, la reacción fotovoltaica
celdas de una sola juntura está limitada a la porción
spectro solar cuya energía esté por encima del
io interbanda del material absorbente, y por tanto
os fotones con energías más bajas no son utilizados. Celda fotovoltaica policristalina solar
de 4 pulgadas.
manera de sortear esta limitación es usando dos (o
celdas diferentes, con más de un espacio de banda y La vida útil media a máximo
e una juntura, para generar un voltaje. Este tipo de rendimiento se sitúa en torno a los 25
s son conocidas como celdas "multijuntura" (también años, período a partir del cual la
das celdas "de cascada" o "tandem"). Los dispositivos multijuntura potenciapueden
entregada disminuye.
una mayor eficiencia de conversión total porque pueden convertir una
ón más grande del espectro luminoso en electricidad. Al grupo de células fotoeléctricas
para energía solar se le conoce como
se muestra abajo, un dispositivo multijuntura es un conjunto panelde fotovoltaico.
celdas Los paneles
uales de una sola juntura, colocadas en orden descendente de fotovoltaicos
acuerdo a consisten
su en una red de
io de banda (Eg). La celda más alta captura los fotones decélulas solares
alta energía y conectadas como
asar el resto de los fotones hacia abajo para ser absorbidoscircuito
por las en serie para aumentar la
celdas
spacios de bandas más bajos. tensión de salida hasta el valor
deseado (usualmente se utilizan 12V
Muchas de las investigaciones que seó realizan24V) a en la lavez que se conectan
actualidad sobre celdas multijuntura están varias redes al
enfocadas como circuito paralelo
uso del arseniuro de galio en uno (o en todos) de los la corriente eléctrica
para aumentar
componentes de las celdas. Talesqueceldas es capazhan de proporcionar el
dispositivo.
alcanzado eficiencias de alrededor del 35% bajo luz
solar concentrada. Otros materiales estudiados para su
uso en dispositivos multijuntura son por El tipo de corriente eléctrica que
ejemplo,
proporcionan
silicio amorfo y el diseleniuro de indio con cobre es corriente continua,
por lo que si necesitamos corriente
alterna o que
Como ejemplo de esto, el dispositivo multijuntura aumentar su tensión,
tendremos
se muestra abajo, utiliza una celda superior que añadir un inversor y/o
de fosfato
de indio con galio, una juntura "de túnel"un convertidor
para facilitar elde potencia
flujo de electrones entre las celdas, y una celda inferior
eniuro de galio. Principio de funcionamiento

En un semiconductor expuesto a la
luz, un fotón de energía arranca un
pio de Funcionamiento electrón, creando al pasar un

507
«hueco». Normalmente, el electrón una capa de silicio puro, los
encuentra rápidamente un hueco electrones están ligados a la
para volver a llenarlo, y la energía red cristalina que, en
proporcionada por el fotón, pues, se consecuencia, está cargada
disipa. El principio de una célula positivamente. La conducción
fotovoltaica es obligar a los eléctrica está asegurada por
electrones y a los huecos a avanzar los huecos, positivos (P).
hacia el lado opuesto del material en
lugar de simplemente recombinarse En el momento de la creación de la
en él: así, se producirá una diferencia unión PN, los electrones libres de la
de potencial y por lo tanto tensión capa N entran en la capa P y se
entre las dos partes del material, recombinan con los huecos en la
como ocurre en una pila. región P. Existirá así durante toda la
vida de la unión, una carga positiva
Para ello, se crea un campo eléctrico en la región N a lo largo de la unión
permanente, a través de una unión (porque faltan electrones) y una carga
PN, entre dos capas dopadas negativa en la región en P a lo largo
respectivamente, P y N: de la unión (porque los huecos han
desaparecido); el conjunto forma la
«Zona de Carga de Espacio» (ZCE) y
existe un campo eléctrico entre las
dos, de N hacia P. Este campo
eléctrico hace de la ZCE un [diodo]],
que solo permite el flujo de corriente
en una dirección: los electrones
pueden moverse de la región P a la
N, pero no en la dirección opuesta y
por el contrario los huecos no pasan
más que de N hacia P.no
• La capa superior de la celda se
compone de silicio dopado de En funcionamiento, cuando un fotón
tipo N. En esta capa, hay un arranca un electrón a la matriz,
número de electrones libres creando un electrón libre y un hueco,
mayor que una capa de silicio bajo el efecto de este campo eléctrico
puro, de ahí el nombre del cada uno va en dirección opuesta: los
dopaje N, como carga negativa electrones se acumulan en la región
(electrones). El material N (para convertirse en polo negativo),
permanece eléctricamente mientras que los huecos se acumulan
neutro: es la red cristalina en la región dopada P (que se
quien tiene globalmente una convierte en el polo positivo). Este
carga positiva. fenómeno es más eficaz en la (ZCE),
donde casi no hay portadores de
• La capa inferior de la celda se carga (electrones o huecos), ya que
compone de silicio dopado de son anulados, o en la cercanía
tipo P. Esta capa tiene por lo inmediata a la (ZCE): cuando un fotón
tanto una cantidad media de crea un par electrón-hueco, se
electrones libres menor que separaron y es improbable que
508
encuentren a su opuesto, pero si la parte de la arena). El silicio de calidad
creación tiene lugar en un sitio más fotovoltaica debe ser purificado hasta
alejado de la unión, el electrón alcanzar más de 99,999%, que se
(convertido en hueco) mantiene una obtiene mediante la conversión del
gran oportunidad para recombinarse silicio en un compuesto químico que
antes de llegar a la zona N (resp. la se destila y luego vuelve a
zona P). Pero la ZCE es transformarse en silicio.
necesariamente muy delgada, así
que no es útil dar un gran espesor a El silicio se produce en barras
la célula.[3] llamadas «lingotes» de sección
redonda o cuadrada. Estos lingotes
En suma, una célula fotovoltaica es el son luego cortados en láminas
equivalente de un Generador de delgadas cuadradas (si es necesario)
Energía a la que hemos añadido un de 200 micrómetros de espesor, que
diodo. se llaman «obleas». Después del
tratamiento para la inyección del
Es preciso añadir contactos eléctricos enriquecido con dopante (P As SB o
(que permitan pasar la luz: en la B) y obtener así los semiconductores
práctica, mediante un contacto de de silicio tipo P o N, las obleas son
rejilla, una capa antireflectante para «metalizadas»: unas cintas de metal
garantizar la correcta absorción de se incrustan en la superficie y se
fotones, etc. conectan a contactos eléctricos. Una
vez que las obleas se metalizan se
Para que la célula funcione, y han convertido en células solares.
produzca la potencia máxima de
corriente se le añade la banda La producción de células fotovoltaicas
prohibida de los semiconductores a requiere energía, y se estima que un
nivel de energía de los fotones. Es módulo fotovoltaico debe trabajar
posible aumentar las uniones a fin de alrededor de 2 a 3 años[4] según su
explotar al máximo el espectro de tecnología para producir la energía
energía de los fotones, lo que que fue necesaria para su producción
produce las células multijuntas. (módulo de retorno de energía).

Técnica de fabricación Las técnicas de fabricación y


características de los principales tipos
El silicio es actualmente el material de células se describen en los
más comúnmente usado para la siguientes 3 párrafos. Existen otros
fabricación de células fotovoltaicas. tipos de células que están en estudio,
Se obtiene por reducción de la sílice, pero su uso es casi insignificante.
compuesto más abundante en la
corteza de la Tierra, en particular en Los materiales y procesos de
la arena o el cuarzo. El primer paso fabricación son objeto de programas
es la producción de silicio de investigación ambiciosos para
metalúrgico, puro al 98%, obtenido de reducir el costo y el reciclado de las
pedazos de piedras de cuarzo células fotovoltaicas. Las tecnologías
provenientes de un filón mineral (la de película delgada sobre sustratos
técnica de producción industrial no sin marcar recibió la aceptación de la
509
industria más moderna. En 2006 y
2007, el crecimiento de la producción
mundial de paneles solares se ha
visto obstaculizado por la falta de
células de silicio y los precios no han
caído tanto como se esperaba. La
industria busca reducir la cantidad de
silicio utilizado. Las células
monocristalinas han pasado de 300
micras de espesor a 200 y se piensa
que llegarán rápidamente a las 180 y
150 micras, reduciendo la cantidad de
silicio y la energía requerida, así Al enfriarse, el silicio fundido se
como también el precio. solidifica formando solo un único
cristal de grandes dimensiones .
Células de silicio amorfo Luego se corta el cristal en delgadas
capas que dan lugar a las células.
El silicio durante su transformación, Estas células generalmente son un
produce un gas que se proyecta azul uniforme.
sobre una lámina de vidrio. La celda
es gris muy oscuro. Es la célula de • Ventajas:
las calculadoras y relojes llamados de o Buen rendimiento de
«solares». Estás células fueron las 14% al 16%,
primeras en ser manufacturadas, ya o Buena relación Wp m²
que se podían emplear los mismos (~150 WC/m², lo que
métodos de fabricación de diodos. ahorra espacio en caso
necesario
• Ventajas: o Número de fabricantes
o Funciona con una luz elevado.
difusa baja (incluso en • Inconvenientes:
días nublados), o Coste elevado
o Un poco menos costosa
que otras tecnologías,
o Integración sobre
soporte flexible o rígido.
• Inconvenientes:
o Rendimiento a pleno sol Células de silicio multicristalino
bajo, del 5% al 7%,
o Rendimiento
decreciente con el
tiempo (~7%).

Célula de silicio monocristalino

510
internacional ). El término
policristalino se utiliza para las capas
depositadas sobre un sustrato
(granos pequeños).

Célula Tándem

Apilamiento monolítico de dos células


individuales. Mediante la combinación
de dos células (capa delgada de
silicio amorfo sobre silicio cristalino,
por ejemplo) que absorben en el
Una célula fotovoltaica basada en espectro al mismo tiempo se solapan,
silicio muticristalino. mejorando el rendimiento en
comparación con las células
Durante el enfriamiento de silicio en individuales separadas, sean
un molde se forman varios cristales. amorfas, cristalinas o microcristalinas.
La fotocélula es de aspecto azulado,
pero no es uniforme, se distinguen • Ventajas
diferentes colores creados por los o Alta sensibilidad en un
diferentes cristales. amplio rango de
longitudes de onda.
• Ventajas: Excelente rendimiento.
o Células cuadradas (con • Desventaja
bordes redondeados en o El costo es alto debido a
el caso de Si la superposición de dos
monocristalino) que células.
permite un mejor
funcionamiento en un
módulo,
o Eficiencia de conversión
óptima, alrededor de
100 Wp/m², pero un Célula multiunión
poco menor que en el
monocristalino Estas células tienen una alta
o Lingote más barato de eficiencia y han sido desarrolladas
producir que el para aplicaciones espaciales. Las
monocristalino. células multiunión están compuestas
• Inconveniente de varias capas delgadas usando la
o Bajo rendimiento en epitaxia por haz molecular.
condiciones de
iluminación baja. Un células de triple unión, por
ejemplo, se compone de
¿Policristalino o multicristalino? semiconductores GaAs, Ge y
Hablamos aquí de silicio GaInP2. Cada tipo de
muticristalino (réf. IEC TS 61836, semiconductores se caracteriza por
vocabulario fotovoltaico
511
un máximo de longitud de onda más cantidades de estas materias primas
allá del cual no es capaz de convertir necesarias para la fabricación de
los fotones en energía eléctrica (ver células solares son infinitesimales, un
banda prohibida). Por otro lado, por desarrollo masivo de paneles
debajo de esta longitud de onda, el fotovoltaicos solares debería tener en
exceso de energía transportada por el cuenta esta disponibilidad limitada.
fotón se pierde. De ahí el valor de la
selección de materiales con Uso
longitudes de onda tan cerca el uno al
otro como sea posible, de forma que Las células fotovoltaicas se utilizan a
absorban la mayoría del espectro veces solas (iluminación de jardín,
solar, generando un máximo de calculadoras...) o agrupadas en
electricidad a partir del flujo solar. El paneles solares fotovoltaicos.
uso de materiales compuestos de
cajas cuánticas permitirá llegar al Se utilizan para reemplazar a las
65% en el futuro (con un máximo baterías (cuya energía es con mucho
teórico de 87%). Los dispositivos de la más cara para el usuario), las
células de uniones múltiples GaAs células han invadido las calculadoras,
son más eficaces. Spectrolab ha relojes, aparatos, etc.
logrado el 40,7% de eficiencia
(diciembre de 2006) y un consorcio Es posible aumentar su rango de
(liderado por investigadores de la utilización almacenándola mediante
Universidad de Delaware) ha un ( condensador o pilas). Cuando se
obtenido un rendimiento de 42,8% utiliza con un dispositivo para
(septiembre de 2007). El coste de almacenar energía, es necesario
estas células es de aproximadamente colocar un diodo en serie para evitar
USD 40 $/cm². la descarga del sistema durante la
noche.
El semiconductor fbi
Se utilizan para producir electricidad
La técnica consiste en depositar un para muchas aplicaciones (satélites,
material semiconductor que contiene parquímetros...), y para la
cobre, galio, indio y selenio sobre un alimentación de los hogares o en una
soporte. red pública en el caso de una central
solar fotovoltaica.
Una preocupación, sin embargo: los
recursos de materias primas. Estas Investigación y desarrollo
nuevas técnicas utilizan metales
raros, como indio, cuya producción
mundial es de 25 toneladas por año y
el precio a fecha de abril del 2007 es
de 1.000 dólares por kg; el teluro ,
cuya producción mundial es de 250
toneladas al año; el galio con una
producción de 55 toneladas al año y
el germanio con una producción de
90 toneladas al año. Aunque las
512
• Se trata de utilizar mejor todas
las longitudes de onda del
espectro solar (incluyendo el
infrarrojo, lo que abre
perspectivas interesantes: la
conversión directa de la luz de
una llama en electricidad,
refrigeración).
• Concentradores(ya utilizados
en los satélites) se están
probando en la tierra. A través
de espejos y lentes
incrustados en el panel,
La técnica no ha alcanzado la focalizan la radiación en la
madurez y muchas vías de célula fotovoltaica A finales de
investigación están siendo 2007, Sharp ha anunciado la
exploradas, primero se debe reducir disponibilidad de un sistema
el costo de la electricidad producida, de enfoque hasta 1100 veces
y también avanzar en la resistencia la radiación solar (contra 700
de los materiales, flexibilidad de uso, veces para la marca previa de
facilidad de integración en los 2005); a principios de 2008,
objetos, en la vida, etc.). Todas las Sunrgi ha alcanzado 1600
etapas de los procesos de fabricación veces. La concentración
se pueden mejorar, por ejemplo: permite disminuir la proporción
de los grupos de paneles
• La empresa «Evergreen Solar» dedicados a la producción de
ha conseguido realizar el electricidad, y por lo tanto su
depósito de silicio todavía coste. Por otra parte, estos
líquido en una película donde nuevos materiales soportan
se cristaliza directamente con muy bien la elevada
el espesor preciso de la temperatura debida a la
lámina. concentración del flujo solar.[7]
• La empresa "Nanosolar" ha • Se está estudiando también la
industrializado la producción posibilidad de unir el silicio
de células CGIS mediante una amorfo y el cristalino por
técnica de impresión en heterounión en una célula
continuo, esperando un costo solar más simple de más del
de 1 $/W en el año 2010. 20% de eficiencia. Proyecto de
• Todas las compañías han 2 años anunciado a principios
anunciado sucesivos de 2008, con la participación
aumentos de la eficiencia de del Laboratorio de Innovación
sus células. para Nuevas Tecnologías
• El tamaño de las obleas está Energéticas y Nanomaterials
creciendo de manera del CEA-Liten y la empresa
constante, reduciendo el coreana JUSUNG (proveedor
número de manipulaciones de equipamiento para los
fabricantes de

513
semiconductores), con el INES Hill (Massachusetts) ha
(Savoy) donde la CEA-Liten ha desarrollado paneles solares
concentrado sus actividades capaces de recuperar el
en la energía solar. espectro infrarrojo y convertirlo
• Otros semiconductores en electricidad. Esto permitiría
(selenio;asociación cobre- la producción de electricidad a
indio-selenio (CIS) de película partir de cualquier fuente de
fina) se están estudiando por calor, incluso por la noche.[10]
ejemplo en Francia por el Hasta ahora, sólo una parte de
instituto de investigación y la radiación de la luz visible,
desarrollo en energía predominantemente verde y
fotovoltaica (IRDEP[8] ). El CIS azul, se transformaba en
parece ofrecer un modesto electricidad y la radiación
rendimiento del 12%, pero con infrarroja se utilizaba en los
bajo costo de fabricación. paneles térmicos para calentar
• Los compuestos orgánicos de el agua.
(materias plásticas) también • Asimismo, se pretende fabricar
pueden ser usadas para hacer células transparentes; modelos
células fotovoltaicas de impulsados por el Instituto
polímeros, y podría llegar a alemán Fraunhofer para la
hacerse paneles flexibles y Mecánica de Materiales (IWM;
ligeros, azulejos, tejidos o proyecto "METCO"[11] sugieren
velas solares, es de esperar que las células transparentes
que de fabricación a bajo bicapa podrían algún día ser
coste. En la actualidad los producidas industrialmente. los
rendimientos son bajos (5% semiconductores de tipo P
como máximo), así como su transparentes parecen más
vida, y aún quedan muchos difíciles de producir (el fósforo
problemas técnicos por podría ser un dopante-P del
resolver. A principios de 2008, óxido de zinc, pero el nitrógeno
el grupo japonés Fujikura parece ser más prometedor.
anunciaba[9] haber puesto a [12]
)
prueba (1000 horas a 85° C y • Por último, la escasez de silicio
con una humedad del 85%) o de productos dopantes (el
unas células fotovoltaicas precio de indio se ha
orgánicas de tipo Grätzel no multiplicado por diez desde
sólo más resistente, sino que 2002 hasta 2009 tras su
su rendimiento mejoró del 50 rarefacción) aumenta aún más
al 70% con una superficie los incentivo para la innovación
rugosa que distribuye al azar la de un mercado en fuerte
luz reflejada dentro de la célula crecimiento que parece
donde se liberan de nuevo las enorme, sobre todo si se
cargas eléctricas mediante la puede reducir el costo de la
activación de otros pigmentos electricidad y acercarlo al de
fotosensibles. los combustibles fósiles.
• Un equipo de EE.UU. de
Boston College en Chestnut

514
objetos lejanos con mucho más
detalle que a simple vista. Es
herramienta fundamental de la
astronomía, y cada desarrollo o
perfeccionamiento del telescopio ha
sido seguido de avances en nuestra
comprensión del Universo. Gracias al
telescopio el ser humano pudo
empezar a conocer la verdadera
naturaleza de los objetos
astronómicos que nos rodean y
nuestra ubicación en el Universo.

Historia del telescopio.

Generalmente, se atribuye su
invención a Hans Lippershey, un
fabricante de lentes alemán, pero
recientes investigaciones del
informático Nick Pelling divulgadas en
la revista británica History Today,
atribuyen la autoría a un gerundés
llamado Juan Roget en 1590, cuyo
invento habría sido por Zacharias
Janssen, quien el día 17 de octubre
intentó patentarlo. Poco antes, el día
14, Jacob Metius también había
intentado patentarlo. Fueron estos
hechos los que despertaron las
suspicacias de Nick Pelling quien,
basándose en las pesquisas de José
María Simón de Guilleuma, sugiere
que el legítimo inventor fue Juan
Roget.

En varios países se ha difundido la


Telescopio idea errónea de que el inventor fue el
holandés Christian Huygens, quien
nació mucho tiempo después.
Se denomina telescopio (del griego
τῆλε "lejos" y σκοπέω "ver") al
instrumento óptico que permite ver

515
Galileo, al recibir noticias de este
invento, decidió diseñar y construir
uno. En 1609 mostró el primer Características.
telescopio astronómico registrado.
Gracias al telescopio, hizo grandes
descubrimientos en astronomía, entre Un telescopio es básicamente un
los que destaca la observación, el 7 instrumento óptico que recoge cierta
de enero de 1610, de cuatro de las cantidad de luz y la concentra en un
lunas de Júpiter girando en torno a punto. La cantidad de luz colectada
ese planeta. por el instrumento depende
fundamentalmente de la apertura del
mismo (el diámetro del objetivo). Para
Conocido hasta entonces como la visualizar las imágenes se utilizan los
lente espía, el nombre "telescopio" oculares, los cuales se disponen en el
fue propuesto primero por el punto donde la luz es concentrada
matemático griego Giovanni por el objetivo, el plano focal. Son los
Demisiani el 14 de abril de 1611 oculares los que proporcionan los
durante una cena en Roma en honor aumentos al telescopio: al
de Galileo, cena en la que los intercambiar oculares se obtienen
asistentes pudieron observar las diferentes aumentos con el mismo
lunas de Júpiter por medio del instrumento.
telescopio que Galileo había traído
consigo.
La idea principal en un telescopio
astronómico es la captación de la
Existen varios tipos de telescopio: mayor cantidad de luz posible,
refractores, que utilizan lentes; necesaria para poder observar
reflectores, que tienen un espejo objetos de bajo brillo, así como para
cóncavo en lugar de la lente del obtener imágenes nítidas y definidas,
objetivo, y catadióptricos, que poseen necesarias por ejemplo para observar
un espejo cóncavo y una lente detalles finos en planetas y separar
correctora. El telescopio reflector fue estrellas dobles cerradas.
inventado por Isaac Newton en 1688
constituyó un importante avance
sobre los telescopios de su época al Para caracterizar un telescopio y
corregir fácilmente la aberración utilizarlo se emplean una serie de
cromática característica de los parámetros y accesorios en general q
telescopios refractores. son los siguientes:

 Distancia focal: es la longitud


focal del telescopio, que se define
como la distancia desde el espejo o
la lente principal hasta el foco o
punto donde se sitúa el ocular.

516
 Diámetro del objetivo: diámetro  Trípode: conjunto de tres patas
del espejo o lente primaria del generalmente metálicas que le dan
telescopio. soporte y estabilidad al telescopio.
 Ocular: accesorio pequeño que  Portaocular: orificio donde se
colocado en el foco del telescopio colocan el ocular, reductores o
permite magnificar la imagen de los multiplicadores de focal (p.ej lentes
objetos. de Barlow) o fotográficas.
 Lente de Barlow: lente que
generalmente duplica o triplica los
aumentos del ocular cuando se
observan los astros.
 Filtro: pequeño accesorio que
generalmente opaca la imagen del
astro pero que dependiendo de su
color y material permite mejorar la
observación. Se ubica delante del
ocular, y los más usados son el
lunar (verde-azulado, mejora el
contraste en la observación de
nuestro satélite), y el solar, con
gran poder de absorción de la luz
del Sol para no lesionar la retina del
ojo.
 Razón Focal: es el cociente entre
la distancia focal (mm) y el
diámetro (mm). (f/ratio).
 Magnitud límite: es la magnitud
máxima que teóricamente puede
observarse con un telescopio dado,
en condiciones de observación
ideales. La fórmula para su cálculo
es: m(límite) = 6,8 + 5log(D)
(siendo D el diámetro en
centímetros de la lente o el espejo En la figura se muestran las
del telescopio). principales partes de un típico
telescopio reflector newtoniano con
 Aumentos: La cantidad de veces
montura ecuatorial alemana, ya se
que un instrumento multiplica el
explico que se le llama newtoniano
diámetro aparente de los objetos
por el hecho de que Isaac Newton fue
observados. Equivale a la relación
el creador.
entre la longitud focal del telescopio
y la longitud focal del ocular
(DF/df). Por ejemplo, un telescopio
de 1000 mm de distancia focal, con Existen dos grandes divisiones entre
un ocular de 10mm de df. los telescopios, según el tipo de
proporcionará un aumento de 100 objetivo que utilizan: los reflectores y
(se expresa también como 100X). los refractores. Los reflectores se

517
constituyen de un espejo principal incorporan los llamados dobletes
(espejo primario u objetivo), el cual no acromáticos, destinados a corregir la
es plano como los espejos aberración cromática, el típico efecto
convencionales, sino que fue provisto de "arco iris" en donde las estrellas
de cierta curvatura (idealmente parecen tener un borde azul y otro
parabólica) que le permite concentrar rojo.
la luz en un punto.

El doblete acromático dispone de una


Los telescopios refractores poseen lente convexa (la misma que en el
como objetivo una lente (o serie de refractor kepleriano) unida a una
lentes, la cantidad varía según el cóncava. Diseños más complejos
diseño y calidad) que de forma corrigen muy bien las aberraciones,
análoga al funcionamiento de una logrando estrellas muy puntuales e
lupa, concentran la luz en el plano imágenes planetarias muy definidas.
focal. En astronomía se utilizan
ambos tipos de telescopios, cada uno Una de las ventajas de los
con sus propias ventajas. telescopios refractores sobre los
reflectores es que carecen de
obstrucción central (debida al espejo
secundario, el cual hace

En el gráfico se puede ver el


funcionamiento simplificado de un
típico telescopio refractor de diseño
kepleriano. Este es un sistema muy
simple donde los rayos convergen en sombra al primario) Esto hace que las
el plano focal y es ahí donde se imágenes sean mas nítidas, y eso se
dispone el correspondiente ocular vuelva especialmente adecuado para
para ampliar la imagen. Los rayos de la observación planetaria y lunar,
los extremos del objetivo son los que donde los detalles mas finos son los
sufren la mayor refracción, mientras mas apreciados.
que en el eje óptico (o eje de
simetría), la luz no es desviada.
En la figura anterior se muestra la
marcha de los rayos en un telescopio
En un telescopio de aficionado este reflector simple. El espejo primario
sistema está muy mejorado para (objetivo) esta especialmente
evitar los efectos ópticos que provoca diseñado para reflejar la mayor
la refracción de la luz. Estos cantidad de luz posible. A través del

518
proceso de aluminización, una fina correctora cóncava de menisco
película de aluminio es depositada negativo en la pupila de entrada del
sobre la previamente pulida superficie aparato que corrige los problemas de
del objetivo. A este tipo de espejos es aberración periférica presentes en los
posible brindarles diferentes telescopios reflectores. Fue inventado
curvaturas para responder a distintas por el óptico soviético Dimitri
necesidades. La curvatura influye en Dimitrievich Maksutov en 1941 como
la distancia focal, la distancia entre el una variación del diseño de la cámara
objetivo y el plano focal (y estos de Schmidt.
factores hacen a la razón foca)

El telescopio de Maksutov emplea un


El telescopio reflector es el más espejo principal esférico y reemplaza
utilizado por los astrónomos la lente correctora de Schmidt por un
profesionales, dado que es posible elemento esférico, mucho más
construir y dar forma a espejos de sencillo de fabricar. El corrector en
grandes dimensiones, no sucede así este caso es un elemento fabricado
con los refractores, donde el peso de de un único tipo de vidrio con un
la lente objetivo se vuelve excesivo y ligero menisco negativo. Debido a la
la dificultad de producir una lente de simetría esférica de la óptica, esta
calidad de tales dimensiones es casi corrige tanto la aberración esférica
imposible y altamente costoso. El como la aberración cromática.
telescopio refractor más grande del
mundo posee 1 metro de diámetro, y
esta ubicado en el Observatorio
Entre sus características
Yerkes de la Universidad de
encontramos que debido a la apertura
California. Fue construido en 1897
focal de este tipo de telescopios,
por Alvan Clark e Hijos, siendo en su
proporcionan buena potencia de
tiempo una pieza clave para la
ampliación pero con un campo visual
determinación de la forma de nuestra
relativamente estrecho, por lo que no
galaxia.
son apropiados para la astrofotografía
de campo amplio, si bien son
excelentes para la observación de
elementos aislados como
planetas o estrellas
dobles. Son muy
populares entre los
astrónomos aficionados,
ya que desde su
invención su precio ha ido
descendiendo
También esta el telescopio de paulatinamente y en la
Maksutov es un tipo de telescopio actualidad, desde ser modelos
catadióptrico o reflector que se sumamente caros y especializados,
caracteriza porque emplea una lente gracias a modelos rusos y más

519
recientemente chinos, están al En la siguiente imagen se observa la
alcance de la mayoría de los bolsillos. configuración de un típico telescopio
reflector Newtoniano de aficionado.
Este diseño es muy utilizado, dada su
simpleza y facilidad de alineado de
La configuración de estos telescopios
presenta un cuerpo sellado por la
lente correctora y una óptica muy
estable, por lo que son muy usados
en aplicaciones militares y de otro
tipo donde se requiera una óptica
telescópica de calidad, resistente y
con mantenimiento poco delicado.

Diferentes Telescopios Reflectores.


las partes ópticas (colimación) y
porque el objetivo se encuentra
protegido, evitando muchas veces
Existen dentro de los reflectores que se empañe durante las noches
varios diseños de telescopios. Los de observación.
mas conocidos y populares entre los
aficionados son el reflector Los diseños newtonianos son más
Newtoniano y el reflector Schmidt- económicos que los Schmidt-
Cassegrain. La principal diferencia Cassegrain, pero se vuelven muy
radica en la configuración óptica. El voluminosos al aumentar el diámetro
reflector Newtoniano dispone de dos del objetivo. A mayor diámetro la
espejos, el primario (idealmente distancia focal aumenta, por ejemplo
parabólico, aunque en pequeñas se tiene un telescopio de 114 mm
aperturas usualmente es esférico) y (4.5 pulgadas) de apertura (diámetro
el secundario (más pequeño y plano), del objetivo) con 910 mm de distancia
mientras que los Schmidt-Cassegrain focal, mientras que uno de 203 mm (8
poseen un espejo primario también pulgadas) de apertura posee una
parabólico, pero con una perforación distancia focal de 1220 mm. La
en su centro, para recibir la luz ventaja de los Schmidt-Cassegrain es
proveniente del espejo secundario, el que su diseño es mas compacto,
cual es convexo. El diseño Schmitd pudiendo tener distancias focales
en particular posee una placa muy grandes en tamaños reducidos.
correctora en la entrada de luz del
telescopio.

520
En la imagen se muestra el diseño de (horizontal y vertical). Estos
un reflector Schmidt-Cassegrain. Este movimientos son medidos en relación
diseño es muy compacto y muy al observador (que tiene posición 0º
utilizado por aficionados avanzados. Azimut, 0º altura).

Es un telescopio apto tanto para la Al movimiento horizontal se le llama


observación planetaria como para Azimut y su medida son grados (de 0º
objetos del espacio profundo. a 360º) eje X (en el plano cartesiano).
Al movimiento vertical se le llama
altura o elevación, y es el movimiento
imaginario que describe un círculo de
La función de la placa correctora es
360º y que cruza el eje Y siendo
"adaptar" la luz al espejo primario,
proyectado al eje Z.
este la envían al secundario
(convexo), el cual posee el trabajo de
recibir rayos en diferentes ángulos y
reflejarlos todos paralelos para ser A diferencia de la montura ecuatorial
captados por el ocular. estos dos ejes son el azimut en la
horizontal y la altura en la vertical. Y
la principal diferencia es que en las
coordenadas están referidas y
El modelo básico Schmidt-Cassegrain
medidas desde la posición del
es el usualmente usado por los
observador a diferencia del
astrónomos profesionales en los
ecuatorial, que tiene sus referencias
grandes observatorios. Incluso el
en el ecuador celeste, la eclíptica y
telescopio espacial Hubble posee un
en la esfera celeste (proyección
diseño Cassegrain similar, solo que
esférica del cielo visible).
en lugar del ocular la luz es enviada a
diferentes detectores electrónicos.

Otro tipo es la montura ecuatorial es


una especie de montaje (soporte)
Una variación del Schmidt-
usado para mover un telescopio o
Cassegrain es el Maksutov-
una cámara fotográfica a lo largo de
Cassegrain, donde las ópticas están
dos ejes perpendiculares de
más perfeccionadas y corregidas.
movimiento. Estos dos ejes se
Posee una muy alta calidad de
conocen como ascensión recta y
imagen, pero se vuelven muy
declinación. El eje del montaje del
costosos en aperturas grandes.
telescopio de la ascensión recta se
debe señalar directamente hacia
cualquier poste celestial que está
También existen diferentes tipos de sobre el horizonte para trabajar
monturas como la montura correctamente. Fijar el eje del
altazimutal que es un soporte que se montaje al eje polar termina la
puede mover a lo largo de dos ejes alineación. Esta alineación polar es
perpendiculares de movimiento dependiente en la localización del

521
observador y corresponde con la una vez ubicada la zona de
latitud de la localización del observación), una distancia focal
observador. Los montajes larga proporciona menor ampliación
ecuatoriales se equipan a menudo de (mas campo visual, ideal para
una impulsión del motor para el búsquedas)
seguimiento automático de objetos a
través del cielo de la noche. Pueden
también ser equipados de fijadores
El tipo de diseño caracteriza a los
de círculos para tener en cuenta la
oculares. Los de mayor calidad
localización de objetos por sus
poseen gran cantidad de piezas, son
coordenadas celestiales. Existen
muy sofisticados, otorgando el mayor
varios tipos de montura ecuatorial,
campo visual, luminosidad y pupila de
entre los que se pueden destacar la
salida (el diámetro del "cilindro" de luz
alemana y la de horquilla.
que se desprende el ocular).

Los grandes telescopios modernos


Los mas buscados son los de diseño
usan monturas altazimutales
Plössl, con unos 50º de campo
controladas por ordenador que, para
aparente dependiendo el modelo y el
exposiciones de larga duración, o
fabricante (para obtener el capo real
bien hacen girar los instrumentos, o
se debe dividir el campo aparente por
tienen rotadores de imagen de tasa
la ampliación utilizada). Existen
variable en una imagen de la pupila
oculares mas especializados, como
del telescopio.
los reticulados, utilizados para el
preciso seguimiento de una estrella
en la toma de una fotografía, por
Hay monturas incluso más sencillas ejemplo.
que la altazimutal, generalmente para
instrumentos especializados. Algunos
son: de tránsito meridiano (sólo
altitud); fijo con un espejo plano móvil
para la observación solar; de rótula Las características de un ocular en
(obsoleto e inútil para astronomía). particular son principalmente la
distancia focal (en milímetros), el
campo aparente (en grados), el
Oculares relieve del ojo ("eye relief", en
milímetros) y el diámetro para el cual
Los oculares son los dispositivos fue diseñado (los mas utilizados por
ópticos que proporcionan la los aficionados son los de 31.8 mm,
ampliación a las imágenes. Se pero los hay de calidad inferior en
diferencian entre sí por los diferentes 24.8 mm y de diseño superior de 50.8
modelos (diseños ópticos) y mm). En ocasiones los fabricantes
distancias focales. Una distancia focal proponen diseños alternativos,
corta proporciona gran ampliación modelos de oculares híbridos o
(ideal para objetos brillantes, campo formatos mejorados.
visual reducido y para objetos ténues
522
Para calcular los aumentos hay que
dividir la distancia focal del telescopio
También es importante que el ocular por la distancia focal del ocular
posea la rosca interna para colocar utilizado, usando las mismas
filtros, muy utilizados en observación unidades.
(colores, filtros de polución,
nebulosas, etc.).
Diámetro Externo
Las características mas importantes El diámetro externo esta referido a la
al tener en cuenta un ocular son la sección que irá insertada dentro del
distancia focal del mismo (con la cual porta ocular del telescopio. Los
varia la ampliación obtenida), el estándares establecidos son tres:
diámetro externo (usualmente 31.8 24.4 (0.96 pulgadas), 31.8 milímetros
mm = 1.25"), el campo aparente, y el (1.25 pulgadas) y 50.8 milímetros (2
relieve del ojo. pulgadas). La medida mas popular es
la de 31.8 mm (1.25") No se
recomienda adquirir ningún
instrumento que tenga oculares de
Distancia Focal
24.4 mm (0.96") ya que no se suelen
La distancia focal del ocular se mide conseguir oculares de calidad para
en milímetros. Al variar la distancia ese diámetro.
focal, varia la ampliación obtenida,
lográndose mayor aumento con
distancias focales cortas. Usualmente Campo Aparente
al utilizar mayor aumento, la imagen
disminuye su brillo y el campo visual Se mide en grados y es una
se reduce, limitándose su uso a referencia del campo real que se
objetos brillantes (Luna, planetas, obtendrá al ser utilizado. A mayor
estrellas dobles, etc.) y para objetos campo aparente, mayor será el
del espacio profundo que requieran campo real. Para calcular el campo
mayor ampliación, como nebulosas visual real debe dividirse el campo
planetarias, cúmulos globulares y aparente por los aumentos utilizados.
galaxias.

Relieve del ojo (eye relief)


Al aplicar mayor aumento, el fondo
del cielo también reduce su brillo, de El relieve del ojo es la distancia a la
esa forma puede aumentar el cual debe situarse el ojo del
contraste en objetos del espacio observador al ocular para mirar la
profundo difíciles de observar (más imagen confortablemente. A mayor
que nada los que no son muy relieve del ojo (o distancia de trabajo)
extensos). es mas cómoda suele ser la
observación. Los oculares normales
de focal muy corta (8 mm, 4 mm...)
suelen tener un eye relief muy bajo,

523
de solo unos milímetros, lo que hace características técnicas de los
que el ojo se deba ubicar muy cerca oculares.
de la primer cara óptica del ocular.

Diseños de los oculares

Ortoscópico
Huygenian
Compuesto de 4 elementos, tres de
Este diseño se ellos dispuestos como una unidad.
compone de 2 Ofrece muy buena corrección
elementos (dos lentes cromática, definición y contraste. Es
plano convexas), con un diseño mejorado del Kellner.
ambas caras planas
del lado del observador. Ofrece
corrección lateral del color (corrección
cromática). Es un ocular económico
por su simplicidad, pero la calidad del Plössl
mismo es reducida.
Uno de los diseños mas
populares
entre los
aficionados
Ramsden por su gran
desempeño.
Este ocular consiste en dos lentes Su construcción
planos convexos dispuestos con las es simétrica,
caras convexas enfrentadas. La compuesta
corrección cromática no es completa. de dos lentes
Es un diseño muy simple y acromáticas con las caras planas en
económicos pero de baja calidad. los extremos. Posee un campo visual
y un relieve del ojo superior a la del
modelo Ortoscópico.
Kellner
Posee tres elementos,
basado en el diseño
Ramsden, donde fue Erfle
remplazada la lente
más cercana al ojo por Posee un gran campo visual.
un par apocromático, Usualmente consiste en 5 o 6
brindando una mejor corrección elementos, ofreciendo un gran relieve
cromática. A partir de este modelo del ojo con una distancia de trabajo
mejoran muchas de las relativamente corta. La distorsión
(para campos similares) es

524
comparable a la del diseño recomendable alinearlo con un
Ortoscópico. edificio ya que no se moverá del
campo visual independientemente de
cuan largo sea el proceso de
alineación.
El buscador
El buscador es básicamente una mira
que permite ubicar rápidamente los Barlow
objetos a observar a través del
telescopio, para después comenzar el Algo muy
proceso de enfoque en el ocular. Se difundido son las
pueden instalar desde miras tipo rifle lentes de Barlow.
en donde no existe ningún aumento, Estos dispositivos
hasta pequeños sistemas tipo multiplican la
binocular con pocos aumentos. Lo ampliación
más recomendable es que existan utilizada, al
muy pocos aumentos, ya que el fin de duplicar o triplicar
este artefacto es la ubicación y no la la distancia focal
amplificación del objeto. del telescopio. Se
ubican entre el
telescopio y el ocular y pueden ser de
utilidad en las observaciones
Se recomienda instalar el buscador
planetarias y lunares, para obtener
cerca del ocular ya que de esta
primeros planos.
manera se tiene una mayor
comodidad en la sesión de
observación al momento de encontrar
un objeto. Las hay de diferentes calidades, las
mejores son las de longitud mas
corta, con mayor cantidad de
componentes. Las lentes de Barlow
El buscador debe ser puesto a punto
suelen ser de 2x a 3x, indicando la
para que cumpla con su objetivo.
cantidad de multiplicación poseída.
Cuando un buscador está bien
Hay modelos con hasta 5x y de
alineado, el objeto que se mira a
multiplicaciones intermedia.
través de el, también se observa en el
centro del ocular. Para alinear
correctamente el buscador, deben
aflojarse los tornillos que lo sujetan al Para entender como funciona una
tubo del telescopio y basta con lente de Barlow imagínese que el
enfocar con el ocular un objeto telescopio es un objetivo fotográfico.
grande (la Luna o bien un edificio) y Como sabemos estos se miden en
después encontrarlo con el buscador, milímetros y corresponden a la
apretando poco a poco el sistema de distancia focal del objetivo. En un
calibración (normalmente son tres telescopio de 900 mm de distancia
tornillos) una vez ubicado, se aprietan focal, sacando una fotografía en foco
los tornillos que fijan el buscador al primario se esta haciendo la toma con
tubo del telescopio. Es muy
525
el equivalente de un objetivo de 900 Existen filtros mas especializados,
mm. como los de polución lumínica que
filtran las longitudes de onda
provenientes mas que nada de la
iluminación publica (mercurio y sodio
Al añadir una lente de Barlow 2x se
principalmente). Otros como los filtros
multiplica esta longitud en un factor
para nebulosas (los de Oxigeno
de 2, con lo cual la fotografía se
ionizado por ejemplo), son bastante
estaría realizando con un objetivo de
costosos, pero pueden llegar a
1800 mm. Lo mismo sucede con la
realzar bastante una imagen.
observación visual. Al tener un
telescopio de 900 mm de focal y
utilizar un ocular de 10 mm, la
ampliación obtenida es de 90x, pero Un tipo particular de filtro es el solar.
al añadirle al sistema un Barlow 2x la Los hay de diferentes clases,
ampliación utilizada se duplica hasta dependiendo de cada observador.
los 180x. Los más comunes y económicos son
los que filtran simplemente para
Hay que recordar que no debe disminuir el brillo de la imagen y
abusarse del poder de ampliación de evitar el traspaso de radiación
un telescopio. Cada equipo posee peligrosa. Hay muchos otros mas
intrínsecamente un máximo sofisticados como los de Hidrogeno
disponible para aumentar la imagen, Alfa, los cuales solo dejan pasar una
que se relaciona con el diámetro del estrecha banda de radiación,
objetivo y la calidad del equipo. pudiendo así observarse fenómenos
como las erupciones solares.

También es una buena opción para


astrofotografía, un paso intermedio En cuanto a los primeros, existen dos
entre el foco primario y la proyección modelos populares: los de cristal y los
por ocular: utilizando solo el barlow y de Mylar. Suele recomendarse los de
la cámara obtenemos una foto que cristal (siempre hablando de filtros de
multiplica la focal del telescopio. apertura completa, que cubren toda la
entrada de luz del telescopio), por ser
mas estables térmicamente y no tan
Filtros frágiles como los de Mylar. El Mylar
es una lámina flexible en el cual se
En cuanto a filtros, los más comunes deposita material planeado para filtrar
son los de colores, utilizados para las radiaciones nocivas. Estos filtros
resaltar las características de los suelen presentarse "arrugados", lo
objetos observados, sobre todo la cual debe ser así para evitar que se
atmosféricas y superficiales de los rasguen con las diferencias de
planetas. temperatura. El Mylar es más
económico que los de cristal.

526
Filtros de Colores # 21 Naranja (Orange) - 46 % de
transmisión.
A continuación se detallan las
características de los filtros más Reduce o bloquea las longitudes de
comunes así como las diferentes onda azules y verdes. Utilizado en
utilidades de cada uno de ellos. Júpiter y Saturno para incrementar
los detalles de las zonas polares y los
cinturones. Aclara los límites entre las
diferentes áreas de la superficie de
# 8 Amarillo Claro (Light Yellow) - 83
Marte.
% de transmisión.
Es usado para observar los detalles
rojos y naranjas de la atmósfera de # 23A Rojo claro (Light red) - 25 % de
Júpiter y realzar los detalles transmisión.
observables de los cinturones del
planeta. Incrementa el contraste de En telescopios mayores a 6 pulgadas
las zonas oscuras de Marte. Utilizado cumple una función similar al filtro #
para realzar detalles de la superficie 21. Usado principalmente en Júpiter,
lunar en telescopios de 8 pulgadas de Saturno y Marte. Incrementa el
apertura y menores. contraste entre el cielo del crepúsculo
y Mercurio en observaciones
cercanas al amanecer o atardecer.
# 11 Amarillo verdoso (Yellow-Green)
- 78 % de transmisión.
# 25A Rojo (Red) - 14 % de
Utilizado para aumentar el contraste transmisión.
de las características rojas y azules
en Júpiter y Saturno. Oscurece las Bloque las longitudes de onda azules
zonas oscuras de Marte y clarifica la y verde-azuladas resultando en, por
división de Cassini en Saturno. ejemplo, mayor contraste entre las
formaciones azules de nubes en
Júpiter. Utilizado también para la
observación de las zonas polares de
Marte. Por tener poco transmisión de
# 12 Amarillo (Yellow) - 74 % de luz solo se recomienda para
transmisión. telescopios de mas de 8 pulgadas de
diámetro.
Contrasta fuertemente con las
características azules de Júpiter y
Saturno, resaltando las rojas y
# 38A Azul oscuro (Dark blue) - 17 %
naranjas. Incrementa el contraste en
de transmisión.
las áreas azules-verdosas de Marte.
Utilizado para incrementar el Filtro utilizado para la observación de
contraste en la observación lunar en Júpiter. Absorbe fuertemente el
telescopios de 6 pulgadas y mayores. naranja y el rojo. Incrementa el
contraste entre las estructuras rojizas

527
en Júpiter, incluyendo la Mancha regiones polares en Marte y los
Roja. También utilizado para el fenómenos atmosféricos en Venus.
estudio de la atmósfera marciana y
las estructuras nubosas en Saturno.
Incrementa el contraste en la
# 80A Azul (Blue) - 30 % de
atmósfera de Venus.
transmisión.
Comúnmente usado para la
# 47 Violeta (Violet) - 3 % de observación de Júpiter y Saturno.
transmisión. Aumenta el contraste de los
cinturones de Júpiter y la Mancha
Absorbe fuertemente las longitudes Roja. Brinda detalles de los
de onda verdes, rojas y amarillas. cinturones de Saturno y de
Utilizado para la observación de las fenómenos polares. Muy utilizado
zonas polares de Marte y para para contrastar y detallar zonas de la
observar fenómenos ocasionales en superficie lunar.
las zonas polares de Venus.
Incrementa el contraste entre los
anillos y Saturno. Para utilizar solo en
# 82A Azul claro (Light blue) - 73 %
telescopios de mas de 8 pulgadas
de transmisión.
(203 mm).
Utilizado en la Luna, Marte, Júpiter y
Saturno. Este filtro incrementa el
# 56 Verde claro (Light green) - 56 % contraste entre las áreas de la
de transmisión. imagen sin absorber demasiada luz.
Un valioso filtro para ser utilizado
Excelente para la observación de las junto a otro.
zonas polares de Marte y las
tormentas amarillentas sobre la
superficie. Incrementa el contraste
ND 96 Densidad de 0.9 - 13% de
entre las zonas azules y rojas de la
transmisión.
atmósfera de Júpiter. Utilizable para
incrementar el detalle de las Este filtro transmite uniformemente en
características lunares. todas las longitudes de onda del
espectro por ser un filtro neutro. Es
ideal para reducir la luz en
# 58 Verde (Green) - 24 % de observaciones lunares en telescopios
transmisión. mayores a 4 pulgadas de apertura.
Utilizado también para la observación
Para ser utilizado en telescopios de 8 de estrellas dobles donde una de las
pulgadas y mayores de apertura para componentes excede en gran medida
incrementar el contraste de diferentes el brillo de la otra.
estructuras en Júpiter. Incrementa la
definición de los cinturones de
Saturno y las regiones polares.
El porcentaje de transmisión de luz
Incrementa el contraste de las
esta referido a la cantidad de luz que

528
deja pasar el filtro. Un filtro con una eliminar los efectos de la turbulencia
transmisión del 30% deja pasar ese atmosférica, además tiene el límite
porcentaje del total de luz recibida. de una cancha de futbol como
Un filtro con una transmisión del 30% resolución óptica del instrumento.
deja pasar más luz (es menos Además, la atmósfera absorbe
oscuro) que uno que tenga una fuertemente la radiación del planeta
transmisión del 17%. tierra en ciertas longitudes de onda,
especialmente en el infrarrojo,
disminuyendo la calidad de las
imágenes e imposibilitando la
Este tipo de filtro posee una rosca en
adquisición de espectros en ciertas
ambas caras, una externa y otra
bandas caracterizadas por la
interna. La externa se utiliza para
absorción de la atmósfera terrestre.
enroscarse en la parte posterior del
Los telescopios terrestres se ven
ocular (poseen el mismo diámetro
también afectados por factores
que estos), la rosca interior se usa
meteorológicos (presencia de nubes)
para disponer de mas de un filtro al
y la contaminación lumínica
mismo tiempo, enroscando uno sobre
ocasionada por los grandes
otro (recordar que la transmisión de
asentamientos urbanos, lo que
luz disminuye).
reduce las posibilidades de ubicación
de telescopios terrestres.
Una de las características del HST es
la posibilidad de ser visitado por
Telescopios Famosos. astronautas en las llamadas misiones
de servicio (SM, por sus iniciales en
inglés). Durante las misiones de
El Telescopio espacial Hubble (HST servicio se pueden arreglar
por sus siglas en inglés) es un elementos estropeados, instalar
telescopio que orbita en el exterior de nuevos instrumentos y elevar la órbita
la atmósfera, en órbita circular del telescopio. Hasta la fecha se han
alrededor de la Tierra a 593 km sobre realizado 5 misiones de servicio. La
el nivel del mar, con un período última tuvo lugar en mayo de 2009 y
orbital entre 96 y 97 min. en ella se produjo la mejora más
Denominado de esa forma en honor drástica de la capacidad instrumental
de Edwin Hubble, fue puesto en del HST, al instalarse dos nuevos
órbita el 24 de abril de 1990 en la instrumentos (WFC3 -Cámara de
misión STS-31 y como un proyecto gran angular 3- y COS -Espectrógrafo
conjunto de la NASA y de la ESA de orígenes cósmicos-), repararse
inaugurando el programa de Grandes otros dos (ACS - Cámara
Observatorios. El telescopio puede avanzada para sondeos- y STIS -
obtener imágenes con una resolución Espectrógrafo de imágenes del
óptica de 2.0 megapíxeles mayor de telescopio espacial-) y mejorar otro
0,1 segundos de arco. La ventaja de más (FGS -Sensores de guiado fino-).
disponer de un telescopio más allá de
la atmósfera radica, principalmente,
en que de esta manera se pueden
529
Descripción técnica. electricidad almacenada cuando la
Tierra eclipsa el Sol o cuando la
El telescopio tiene una masa en torno orientación de los paneles solares no
a 11 toneladas, de forma cilíndrica es la apropiada.
con una longitud de 13,2 m y un
diámetro máximo de 4,2 m. El coste
del HST ascendió (en 1990) a 2000
millones de dólares estadounidenses. Según la revista Investigación y
Inicialmente un fallo en el pulido del Ciencia, en la actualidad “la
espejo primario del telescopio resolución del Hubble decuplica la del
fabricado por Perkin Elmer produjo mejor instrumento instalado en tierra,
imágenes ligeramente desenfocadas y gracias a ello puede observar con
debido a aberraciones esféricas. claridad un volumen de espacio mil
Aunque este fallo fue considerado en veces mayor (que otros telescopios)”.
su día como una importante
negligencia por parte del proyecto, la
primera misión de servicio al
telescopio espacial pudo instalar un
sistema de corrección óptica capaz Cifras curiosas sobre el Hubble.
de corregir el defecto del espejo
primario (COSTAR, iniciales en inglés  En el momento de ser lanzado
de Óptica correctora como reemplazo era del tamaño de un vagón cisterna
axial del telescopio espacial) o de un edificio de cuatro pisos, de
alcanzándose las especificaciones de 13 metros de longitud y 4 de
resolución inicialmente previstas. diámetro, y un peso superior a las 12
toneladas.
 La cámara más sofisticada del
telescopio espacial Hubble ha
El HST es un telescopio de tipo creado una imagen mosaico de un
reflector y su espejo primario tiene un gran pedazo del cielo, que incluye al
diámetro de 2,4 m. Para la menos 10.000 galaxias.
exploración del cielo incorpora en la  Con el telescopio Espacial Hubble
actualidad cuatro instrumentos con se han observado aproximadamente
capacidad de obtener imágenes y un millón de objetos. En
espectros, un espectrógrafo y tres comparación, el ojo humano tan sólo
sensores de guiado fino que pueden puede ver unas 6.000 estrellas a
actuar como interferómetros. Para la simple vista.
generación de electricidad se
 Las observaciones del HST,
emplean dos paneles solares que
incluyendo unas 500.000 fotografías,
alimentan las cámaras, los cuatro
ocupan 1.420 discos ópticos de 6,66
motores empleados para orientar y
GB (8,34 terabytes).
estabilizar el telescopio, los equipos
de refrigeración de los instrumentos y  El Hubble tiene un índice con la
la electrónica del telescopio. Así posición detallada de 15 millones de
mismo, el HST dispone de baterías estrellas (catálogo H.G.S.C. o
recargables a partir de los paneles Hubble Guide Star Catalogue) que le
solares que le permiten utilizar la permite apuntar con gran precisión a
sus objetivos.

530
 El Hubble ha dado la vuelta a la interferómetro que se usa para
Tierra cada 97 minutos, viajando observaciones con resolución más
casi 3.000 millones de km, una alta. Los telescopios han sido
distancia superior a la que supondría nombrados según algunos objetos
hacer un viaje de ida a Neptuno. astronómicos en mapudungun (es el
 Astrónomos de más de 45 países idioma de los mapuches, un pueblo
han publicado los descubrimientos amerindio que habita en Chile y en
hechos con el Hubble en 4.800 Argentina): Antu (el Sol), Kueyen (la
artículos científicos. Luna), Melipal (la Cruz del Sur) y
 El Hubble da una vuelta a la Yepun (Venus).
Tierra cada 97 minutos a una
velocidad de 28.000 kilómetros por
hora. Aun así es capaz de apuntar a El VLT puede operar de tres modos:
un astro con enorme precisión (la
desviación es inferior al grosor de un * Como cuatro telescopios
cabello humano visto a una distancia independientes
de un kilómetro y medio).
* Como un único instrumento
incoherente, que recoge cuatro veces
El Very Large Telescope Project la luz de uno de los telescopios
(VLT, literalmente Telescopio Muy individuales
Grande) es un sistema de cuatro
telescopios ópticos separados, * Como un único instrumento
rodeados por varios instrumentos coherente en modo interferométrico,
menores. Cada uno de los cuatro para una resolución muy alta.
instrumentos principales es un
telescopio reflector con un espejo de
8,2 metros. El proyecto VLT forma En el modo de cuatro telescopios,
parte del European Southern cada uno de los telescopios se
Observatory (ESO), la mayor encuentra entre los más grandes del
organización astronómica de Europa. mundo y opera exitosamente. El gran
l VLT se encuentra en el Observatorio espejo de 8,2 metros es mantenido
Paranal sobre el cerro Paranal, una en posición por un sistema de óptica
montaña de 2.635 metros localizada activa, mientras que un sistema de
en el desierto de Atacama, al norte de óptica adaptativa llamado NAOS,
Chile. Al igual que la mayor parte de elimina la escasa aberración
los observatorios mundiales, el lugar introducida por la atmósfera sobre el
ha sido elegido por su ubicación ya cerro Paranal.
que dista mucho de zonas de
contaminación luminica y posee un
clima desértico, en el que abundan
En el modo interferométrico, los
las noches despejadas.
cuatro telescopios poseen la misma
capacidad de recolección de luz de
un único telescopio de 16 metros de
El VLT consiste en un grupo de diámetro, convirtiéndose en el
cuatro telescopios grandes y de un instrumento óptico más grande del

531
mundo. La resolución, en este modo interferométricas a la mayoría de los
de observación, es similar a la de uno objetos del Sistema Solar.
que posea un diámetro semejante a
la distancia entre los telescopios
(alrededor de 100 metros). El VLT
El Gran Telescopio Canarias
tiene como objetivo una resolución
(conocido también como GTC o
óptica de 0,001 segundos de arco a
GRANTECAN) es un proyecto
una longitud de onda de 1 µm, cerca
español, que culminó con la
del infrarrojo. Es un ángulo de
construcción del mayor telescopio
0.000000005 radianes, equivalente a
óptico del mundo. Liderado por el
resolver un objeto de 2 metros a la
Instituto de Astrofísica de Canarias.
distancia que separa la Tierra de la
El 24 de julio de 2009 fue inaugurado
Luna.
oficialmente por los Reyes de
España. Las obras comenzaron en el
año 2000 en el Observatorio del
Teóricamente el VLT debería resolver Roque de Los Muchachos, La Palma,
fácilmente los módulos lunares (5 Islas Canarias, España. Dichas
metros de ancho) dejados sobre la instalaciones, que se encuentran a
superficie lunar por las misiones 2.396 msnm (metros sobre el nivel
Apollo. Sin embargo, existen algunas del mar) de altitud, junto con el
dificultades. Debido a la gran Observatorio del Teide, constituyen el
cantidad de espejos involucrados en Observatorio Norte Europeo (O.N.E.).
el modo interferométrico, una En este lugar se reúnen condiciones
importante fracción de la luz se pierde óptimas para la observación, debido a
antes de llegar al detector. La técnica la calidad del cielo y a la existencia
de interferometría es muy eficiente de una ley que lo protege.
sólo para observar objetos lo
suficientemente pequeños como para
que toda su luz esté concentrada. No
En 1994 se creó la sociedad anónima
es factible observar un objeto con un
GRANTECAN, S.A. para el fomento
brillo superficial relativamente bajo,
del proyecto y la construcción del
como la Luna, porque su luz es muy
GTC. Esta empresa fue impulsada
tenue. Sólo objetos con temperaturas
por el gobierno autonómico de
superiores a 1000 °C tienen un brillo
Canarias y el gobierno de España. El
superficial lo suficientemente elevado
GTC tiene carácter internacional,
como para ser observados en la
habiéndose firmado acuerdos para la
región del infrarrojo medio, y deben
participación en el proyecto de
estar a varios miles de grados Celsius
México, a través del Instituto de
para poder observarlos en el
Astronomía de la Universidad
infrarrojo cercano con el VLT. Esto
Nacional Autónoma de México y del
incluye a la mayoría de las estrellas
Instituto Nacional de Astrofísica,
en la vecindad del Sol y muchos
Óptica y Electrónica de Puebla,
objetos extragalácticos, como núcleos
México. Además de estas
brillantes de galaxias activas, pero
instituciones también Estados Unidos
deja fuera de las observaciones
es socio de este proyecto a través de
la Universidad de Florida. La

532
participación extranjera está limitada Primera generación:
a un máximo de un 30%.
* OSIRIS: cámara y espectrógrafo
de resolución baja e intermedia,
operando en el rango visible.
Con este telescopio se podrá conocer
más sobre los agujeros negros, las * CanariCam: cámara y
estrellas y galaxias más alejadas del espectrógrafo en el infrarrojo térmico.
Universo y las condiciones iniciales
tras el Big Bang. Se espera que el
telescopio realice importantes
Segunda generación:
avances en todos los campos de la
astrofísica. * EMIR: espectrógrafo multiobjeto
para trabajar en el infrarrojo.
* FRIDA: cámara espectrógrafo
Datos técnicos
para el infrarrojo cercano que
El telescopio observa la luz visible e aprovechará el haz corregido por el
infrarroja procedente del espacio y sistema de óptica adaptativa.
tiene un espejo primario de 10,4
metros, segmentado en 36 piezas
hexagonales vitrocerámicas, de 1,9 m El telescopio Hale es un telescopio
entre vértices, 8 cm de grosor, y 470 de 508 cm de diámetro instalado en
kg de peso cada uno. El sistema el Observatorio Palomar, Estados
óptico se completa con dos espejos Unidos; entró en funcionamiento en el
(secundario y terciario) que forman año 1948. Fue financiado gracias al
imagen en siete estaciones focales. esfuerzo de George Hale. Tiene un
Los espejos están construidos con un único espejo de silicato de boro
material especial fabricado en (Pyrex (tm)), que fue notoriamente
Alemania por la empresa Schott difícil de construir.
llamado Zerodur, un tipo de
vitrocerámica que apenas sufre
alteraciones con los cambios de
temperatura y, por lo tanto, evita que Gracias a su enorme tamaño y
las imágenes sufran deformaciones. potencia, se pudieron medir los
Su pulido se hizo con un límite de espectros y velocidades radiales de
error superficial de 15 nanómetros gran cantidad de galaxias: gracias a
(millonésima de milímetro), es decir, ellos Milton Humason y Edwin Hubble
un tamaño 3.000 veces más fino que pudieron determinar la ley que rige el
un cabello humano. desplazamiento de estos cuerpos
celestes, midiendo de modo
aproximado el valor de la constante
de Hubble.
Para recoger los datos estará
equipado con los siguientes Sus cinco metros de diámetro
instrumentos: significaron un hito en la historia de la
Astronomía, siendo el telescopio de
mayor tamaño hasta que, años

533
después, los soviéticos lograron
construir uno con un espejo de seis
metros de diámetro (telescopio de Se levanta a 32 km, al Noreste de
Zelenchuskaya). Sin embargo, las Los Ángeles, a una altura de 1.740
dificultades para construir espejos msnm. y está dotado de un
macizos de mayor tamaño forzaron a instrumento principal con un espejo
desarrollar otras tecnologías distintas: de 254 cm. de diámetro, llamado
los telescopios de espejos telescopio Hooker, en honor del
segmentados, buena muestra de los magnate californiano John D. Hooker
cuales es el Telescopio de Monte que, en 1906, donó los 45.000
Hopkins. Hace unos años se dólares necesarios para su
denominaba Telescopios de Nueva construcción. Otros instrumentos
Generación (Next Generation importantes son dos torres solares de
Telescopes, NGT) a los telescopios 18 y 46 metros de altura y un
reflectores cuyos espejos primarios telescopio reflector de 150 m.
serían de más de seis metros de
diámetro El primer telescopio de esta
generación fue el Keck I, de diez En los años 1930, a causa de la
metros de diámetro, ubicado en expansión de Los Ángeles y de la
Mauna Kea, Hawai, que empezó a contaminación atmosférica producida
funcionar a finales de 1990. por esta ciudad, el observatorio entró
en una crisis progresiva, por lo cual
se hizo necesario proyectar y
Entre sus muchas hazañas cabe construir otro gran observatorio más
destacar, a modo de anécdota, que al Sur, el Observatorio Palomar, obra
en 1982 fue el primer telescopio del a la cual se dedicó hasta su muerte el
mundo en localizar el todavía inerte propio Hale.
cometa 1P/Halley en ese ciclo,
bastantes meses antes de que
comenzase a activarse y a brillar al Ambos observatorios están desde
emitir gas y polvo: esta hazaña pudo 1970 reunidos en una organización
conseguirse tanto por el diámetro de de investigación astronómica dirigida
su enorme espejo primario como por por el California Institute of
haber usado una cámara CCD Technology y toman el nombre de
(Charge-Coupled Device, "dispositivo Hale Observatories, en honor a su
de carga acoplada", un tipo de sensor fundador. En este observatorio
electrónico). trabajaron Humason, Hubble y otros
importantes astrónomos
norteamericanos.
El Observatorio astronómico de
Monte Wilson (Mount Wilson) es uno
de los observatorios astronómicos El Solar and Heliosferic Observatory
más grandes de Estados Unidos, (SOHO) es una sonda espacial
fundado en 1904 por el astrofísico lanzada el 2 de diciembre de 1995
George Ellery Hale (1868-1938). para estudiar el sol, comenzando sus
operaciones científicas en mayo de
534
1996. Es un proyecto conjunto entre En 2003 la ESA comunicó el fallo de
la ESA y la NASA. Aunque uno de los motores necesarios para
originalmente se planeó como una reorientar la antena hacia la tierra
misión de sólo dos años, SOHO para transmitir los datos, lo que causa
continúa en funcionamiento tras más entre dos y tres semanas de bloqueo
de diez años en el espacio. Además de datos cada tres meses. De todos
actualmente es la fuente principal de modos, los científicos de la ESA y de
datos del sol en tiempo real tan la Red de espacio profundo (DSN)
necesarios para la predicción del usan la antena de baja ganancia junto
tiempo espacial. Hoy por hoy es una con las antenas más grandes de las
de las dos sondas (junto con el estaciones terrestres del DSN para
Advanced Composition Explorer) que evitar la pérdida de ningún dato,
se encuentran en la vecindad del solamente una ligera reducción del
punto L1, uno de los famosos Puntos flujo de datos una vez cada tres
de Lagrange. meses.
Instrumentos.
Dicho punto se define como aquel en
que la gravedad de la tierra
contrarresta la del sol, por lo que una SOHO contiene doce instrumentos
sonda en dicho lugar quedaría en principales, cada uno capaz de
equilibrio dinámico, por tanto la órbita observar de manera independiente el
será mucho más estable. Sol o alguna de sus partes. Estos
son:

Dicha estabilidad se consigue


exactamente en el punto L1, pero en  Global Oscillations at Low
realidad SOHO orbita alrededor del Frecuence (GOLF): mide
punto L1 cada once meses, para variaciones de la velocidad en todo
favorecer las comunicaciones. el disco solar para explorar el
núcleo del sol.
 Variability of Solar Irradance
(VIRGO): mide oscilaciones y
En condiciones normales la sonda constantes en todo el disco solar,
transmite continuamente a 200 Kbps también para estudiar su núcleo.
de fotografías y otras medidas
 Michelson Doppler Imager (MDI):
solares a través de la Red del
mide el campo de velocidad y el
Espacio Profundo (Deep Space
magnético en la fotosfera, para
Network). Los datos de actividad
estudiar la zona de convección, la
solar del SOHO se usan para
cual forma la capa exterior del
predecir las llamaradas solares, que
interior del Sol, y los campos
tan perjudiciales pueden resultar para
magnéticos que controlan la
los satélites.
estructura de la corona.
 Solar UV Measurement of
Emitted radiation (SUMER): mide

535
los flujos de plasma, temperatura y exclusivamente en longitudes de
densidad de la corona. onda no visibles, se muestran (no
 Coronial Diagnostic Spectrometer sólo en SOHO, sino cualquier imagen
(CDS): mide densidad, temperatura de este estilo) en falso color.
y flujos coronales.
 Extreme UV Imaging Telescope
(EIT): mide la estructura y actividad Como consecuencia de su
de la zona baja de la corona. observación del Sol, SOHO ha
 UV Coronagraph and descubierto cometas que bloqueaban
Spectrometer (UVCS): mide la luz del Sol por un instante.
densidades y temperaturas de la Aproximadamente, la mitad de los
corona. cometas conocidos han sido
 Solar Wind Anisotropies (SWAN): descubiertos por el SOHO. Hasta
Usa un telescopio sensible a la junio de 2008 ha descubierto ya
longitud de onda característica del 1.500 cometas.
hidrógeno para medir el flujo
másico del viento solar, mapear la
densidad de la heliosfera y
observar las estructura de las El Gran Telescopio Milimétrico (GTM)
corrientes de viento solar a gran es el radiotelescopio más grande del
escala. mundo en su rango de frecuencia, y
fue construido para observar ondas
 Charge, Element, Isotope
de radio en la longitud de onda de 1 a
Analysis (CELIAS): estudia la
4 milímetros. El diseño contempla
composición iónica del viento solar
una antena de 50 metros de diámetro
 Suprathermal & Energetic y un área de recolección de 2000 m².
Particle Analyser (COSTEP): Está localizado en lo alto del volcán
Estudia la composición iónica y Sierra Negra (aproximadamente a
electrónica del viento solar. 4,600 msnm), que se encuentra junto
 Energetic Particle Analyser al Pico de Orizaba, el pico más alto
(ERNE): Estudia la composición de México ubicado entre los estados
iónica y electrónica del viento solar. de Puebla y Veracruz. El GTM es un
proyecto binacional mexicano (80%)
Las observaciones de algunos de - estadounidense (20%) del Instituto
estos instrumentos pueden tener Nacional de Astrofísica, Óptica y
formato de imagen, la mayoría de las Electrónica (INAOE) y la Universidad
cuales esta disponible en internet de Massachusetts en Amherst.
para uso público o de investigación.
Otras series de datos, como
espectros y medidas de partículas en Las observaciones milimétricas a
el viento solar, no se prestan a este llevarse a cabo con el GTM permitirán
tipo de difusión. Las imágenes a los astrónomos ver regiones del
publicadas suelen estar en el rango espacio que han sido previamente
de longitudes de onda o frecuencias oscurecidas por polvo interestelar,
de visible hasta ultravioleta. Las incrementando nuestro conocimiento
imágenes tomadas parcial o de la formación de estrellas, además

536
está particularmente adaptado para aspectos de transmisión y
observar planetas y planetoides del programación de televisión. A veces
Sistema Solar y discos se abrevia como TV. Este término fue
protoplanetarios fuera del mismo, los utilizado por primera vez en 1900 por
cuales son relativamente fríos y Constantin Perski en el Congreso
emiten la mayoría de su radiación en Internacional de Electricidad de París
forma de ondas milimétricas. Existen (CIEP).
también propuestas para observar
fluctuaciones en el fondo cósmico de El Día Mundial de la Televisión se
microondas, así como núcleos de celebra el 21 de noviembre en
galaxias activas. conmemoración de la fecha en que
se celebró en 1996 el primer Foro
Mundial de Televisión en las
Naciones Unidas.
El conjunto de instrumentos del GTM
se compone de cámaras bolométricas
de banda ancha y arreglos
heterodinos, un receptor de un solo
elemento de resolución o píxel y un
versátil espectrómetro autocorrelador
digital multi-propósit

*Un televisor
Philips de LCD.

Televisión
La televisión es un sistema para la
transmisión y recepción de imágenes
en movimiento y sonido a distancia.

Esta transmisión puede ser efectuada *Televisor Braun HF 1, un modelo


mediante ondas de radio o por redes alemán de los años 1950.
especializadas de televisión por
cable. El receptor de las señales es el
televisor.

La palabra "televisión" es un híbrido


de la voz griega "tele" (distancia) y la
latina "visio" (visión). El término
televisión se refiere a todos los

537
inauguración de la Exposición
Universal de Nueva York. Las
• emisiones programadas se
interrumpieron durante la Segunda
Historia
Guerra Mundial, reanudándose
cuando terminó.
El concepto de televisión (visión a
distancia) se puede rastrear hasta
Televisión electrónica
Galileo Galilei y su telescopio. Sin
embargo, no es hasta 1884, con la
En 1937 comenzaron las
invención del Disco de Nipkow de
transmisiones regulares de TV
Paul Nipkow cuando se hiciera un
electrónica en Francia y en el Reino
avance relevante para crear un
Unido. Esto llevó a un rápido
medio. El cambio que traería la
desarrollo de la industria televisiva y a
televisión tal y como hoy la
un rápido aumento de
conocemos fue la invención del
telespectadores, aunque los
iconoscopio de Vladimir Zworkyn.
televisores eran de pantalla pequeña
Esto daría paso a la televisión
y muy caros. Estas emisiones fueron
completamente electrónica, mayor
posibles por el desarrollo de los
definición de imagen e iluminación
siguientes elementos en cada
propia.
extremo de la cadena: el tubo de
rayos catódicos y el iconoscopio.
Primeros desarrollos
La señal de vídeo
En 1910, el disco de Nipkow fue
utilizado en el desarrollo de los
La señal translucida de la imagen
sistemas de televisión de los inicios
contiene la información de ésta, pero
del siglo XX y en 1925 el inventor
como hemos visto, es necesario, para
escocés John Logie Baird efectúa la
su recomposición, que haya un
primera experiencia real utilizando
perfecto sincronismo entre la
dos discos, uno en el emisor y otro en
deflexión de exploración y la deflexión
el receptor, que estaban unidos al
en la representación.
mismo eje para que su giro fuera
síncrono y separados 2 m.
La exploración de una imagen se
realiza mediante su descomposición,
Las primeras emisiones públicas de
primero en fotogramas a los que se
televisión las efectuó la BBC en
llaman cuadros y luego en líneas,
Inglaterra en 1927 y la CBS y NBC en
leyendo cada cuadro. Para
Estados Unidos en 1930. En ambos
determinar el número de cuadros
casos se utilizaron sistemas
necesarios para que se pueda
mecánicos y los programas no se
recomponer una imagen en
emitían con un horario regular.
movimiento así como el número de
líneas para obtener una óptima
Las emisiones con programación se
calidad en la reproducción y la óptima
iniciaron en Inglaterra en 1936, y en
percepción del color (en la TV en
Estados Unidos el día 30 de abril de
color) se realizaron numerosos
1939, coincidiendo con la
estudios empíricos y científicos del
538
ojo humano y su forma de percibir. Se igualan los tiempos de cada uno de
obtuvo que el número de cuadros ellos.
debía de ser al menos de 24 al
segundo (luego se emplearon por El sonido, llamado audio, es tratado
otras razones 25 y 30) y que el por separado en toda la cadena de
número de líneas debía de ser producción y luego se emite junto al
superior a las 300. vídeo en una portadora situada al
lado de la encargada de transportar la
La señal de vídeo la componen la imagen.
propia información de la imagen
correspondiente a cada línea (en el El desarrollo de la TV
sistema PAL 625 líneas y en el NTSC
525 por cada cuadro) agrupadas en
dos grupos, las líneas impares y las
pares de cada cuadro, a cada uno de
estos grupos de líneas se les
denomina campo (en el sistema PAL
se usan 25 cuadros por segundo
mientras que en el sistema NTSC
30). A esta información hay que
añadir la de sincronismo, tanto de Control Central en un centro
cuadro como de línea, esto es, tanto emisor de TV.
vertical como horizontal. Al estar el
cuadro dividido en dos campos
tenemos por cada cuadro un
sincronismo vertical que nos señala el
comienzo y el tipo de campo, es
decir, cuando empieza el campo
impar y cuando empieza el campo
par. Al comienzo de cada línea se
añade el pulso de sincronismo de
línea u horizontal (modernamente con
la TV en color también se añade
Vieja televisión blanco y negro.
información sobre la sincronía del
color).

La codificación de la imagen se
realiza entre 0 V para el negro y 0,7 V
para el blanco. Para los sincronismos
se incorporan pulsos de -0,3 V, lo que
da una amplitud total de la forma de
onda de vídeo de 1 V. Los
sincronismos verticales están
constituidos por una serie de pulsos
de -0,3 V que proporcionan Cámaras en un plató de TV.
información sobre el tipo de campo e

539
Es a mediados del siglo XX donde la máquinas permitía el montaje de
televisión se convierte en bandera salas de postproducción que,
tecnológica de los países y cada uno combinando varios elementos, podían
de ellos va desarrollando sus realizar programas complejos.
sistemas de TV nacionales y
privados. En 1953 se crea Eurovisión El desarrollo de la televisión no se
que asocia a varios países de Europa paró con la transmisión de la imagen
conectando sus sistemas de TV y el sonido. Pronto se vio la ventaja
mediante enlaces de microondas. de utilizar el canal para dar otros
Unos años más tarde, en 1960, se servicios. En esta filosofía se
crea Mundovisión que comienza a implementó, a finales de los años 80
realizar enlaces con satélites del siglo XX el teletexto que transmite
geoestacionarios cubriendo todo el noticias e información en formato de
mundo. texto utilizando los espacios libres de
información de la señal de vídeo.
La producción de televisión se También se implementaron sistemas
desarrolló con los avances técnicos de sonido mejorado, naciendo la
que permitieron la grabación de las televisión en estéreo o dual y dotando
señales de vídeo y audio. Esto al sonido de una calidad excepcional,
permitió la realización de programas el sistema que logró imponerse en el
grabados que podrían ser mercado fue el NICAM.
almacenados y emitidos
posteriormente. A finales de los años La televisión en color
50 del siglo XX se desarrollaron los
primeros magnetoscopios y las
cámaras con ópticas intercambiables
que giraban en una torreta delante
del tubo de imagen. Estos avances,
junto con los desarrollos de las
máquinas necesarias para la mezcla
y generación electrónica de otras
fuentes, permitieron un desarrollo
muy alto de la producción.

En los años 70 se implementaron las


ópticas Zoom y se empezaron a
desarrollar magnetoscopios más NTSC PAL, o cambiando a
pequeños que permitían la grabación PAL SECAM Sin
de las noticias en el campo. Nacieron informaciónDistribución de los
los equipos periodismo electrónico o sistemas de TV en el mundo.
ENG. Poco después se comenzó a
desarrollar equipos basados en la Ya en 1928 se desarrollaron
digitalización de la señal de vídeo y experimentos de la transmisión de
en la generación digital de señales, imágenes en color. En 1940, el
nacieron de esos desarrollos los mexicano Guillermo González
efectos digitales y las paletas Camarena patenta, en México y
gráficas. A la vez que el control de las
540
EE.UU., un Sistema Tricromático utilización de una máscara, la
Secuencial de Campos. Shadow Mask o Trimask. Esto
permitía prescindir de los tubos
En 1948, Goldmark, basándose en la trinoscópicos tan abultados y
idea de Baird y Camarena, desarrolló engorrosos. Los electrones de los
un sistema similar llamado sistema haces al impactar con los luminóforos
secuencial de campos. El éxito fue tal emiten una luz del color primario
que la Columbia Broadcasting correspondiente que mediante la
System lo adquirió para sus mezcla aditiva genera el color
transmisiones de TV. original.

El siguiente paso fue la transmisión Mientras en el receptor se


simultánea de las imágenes de cada implementaban los tres cañones
color con el denominado trinoscopio. correspondientes a los tres colores
El trinoscopio ocupaba tres veces primarios en un solo elemento; en el
más espectro radioeléctrico que las emisor (la cámara) se mantenían los
emisiones monocromáticas y, tubos separados, uno por cada color
encima, era incompatible con ellas a primario. Para la separación se hace
la vez que muy costoso. pasar la luz que conforma la imagen
por un prisma dicroico que filtra cada
El elevado número de televisores en color primario a su correspondiente
blanco y negro exigió que el sistema captador.
de color que se desarrollara fuera
compatible con las emisiones Sistemas actuales de TVC
monocromas. Esta compatibilidad
debía realizarse en ambos sentidos,
de emisiones en color a recepciones
en blanco y negro y de emisiones en
monocromo a recepciones en color. Barras de color EBU vistas en un
MFO y un rectoscopio.
En búsqueda de la compatibilidad
nace el concepto de luminancia y de El primer sistema de televisión en
crominancia. La luminancia porta la color ideado que respetaba la doble
información del brillo, la luz, de la compatibilidad con la televisión
imagen, lo que corresponde al blanco monocroma se desarrolló en 1951 por
y negro, mientras que la crominancia un grupo de ingenieros dirigidos por
porta la información del color. Estos Hirsh en los laboratorios de la
conceptos fueron expuestos por Hazeltime Corporation en los EE.UU.
Valensi en 1937. Este sistema fue adoptado por la
Federal Communication Commission
En 1950 la Radio Corporation of de USA (FCC) y era el NTSC que son
America, (RCA) desarrolla un tubo de las siglas de National Television
imagen que portaba tres cañones System Commission. El sistema tuvo
electrónicos, los tres haces eran éxito y se extendió por toda América
capaces de impactar en pequeños del Norte y Japón.
puntos de fósforo de colores,
llamados luminóforos, mediante la
541
Las señales básicas que utiliza son la Las modificaciones en la fase de la
luminancia (Y), que nos da el brillo y señal de vídeo cuando ésta es
es lo que se muestra en los transmitida producen errores de tinte,
receptores monocromos, y las es decir de color (cambia el color de
componentes de color, las dos la imagen).
señales diferencia de color, la R-Y y
B-Y (el rojo menos la luminancia y el El NTSC fue la base de la que
azul menos la luminancia). Esta doble partieron otros investigadores,
selección permite dar un tratamiento principalmente europeos. En
diferenciado al color y al brillo. El ojo Alemania se desarrolló, por un equipo
humano es mucho más sensible a las dirigido por Walter Bruch un sistema
variaciones y definición del brillo que que subsanaba los errores de fase,
a las del color, esto hace que los este sistema es el PAL, Phase
anchos de banda de ambas señales Altenating Line.
sean diferentes, lo cual facilita su
transmisión ya que ambas señales se Para ello la fase de la subportadora
deben de implementar en la misma se alterna en cada línea. La
banda cuyo ancho es ajustado. subportadora que modula la
componente R-Y, que en PAL se
El sistema NTSC modula en amplitud llama V, tiene una fase de 90º en una
a dos portadoras de la misma línea y de 270º en la siguiente. Esto
frecuencia desfasadas 90º que luego hace que los errores de fase que se
se suman, modulación QAM o en produzcan en la transmisión (y que
cuadratura. En cada una de las afectan igual y en el mismo sentido a
portadoras se modula una de las ambas líneas) se compensen a la
diferencias de color, la amplitud de la representación de la imagen al verse
señal resultante indica la saturación una línea junto a la otra, Si la
del color y la fase el tinte o tono del integración de la imagen para la
mismo. Esta señal se llama de corrección del color la realiza el
crominancia. Los ejes de modulación propio ojo humano tenemos el
están situados de tal forma que se denominado PAL S (PAL Simple) y si
cuida la circunstancia de que el ojo es se realiza mediante un circuito
más sensible al color carne, esto es electrónico el PAL D (PAL Delay,
que el eje I se orienta hacia el naranja retardado). El PAL fue propuesto
y el Q hacia los magentas. Al ser la como sistema de color paneuropeo
modulación con portadora suprimida en la Conferencia de Oslo de 1966.
hace falta mandar una salva de la Pero no se llegó a un acuerdo y como
misma para que los generadores del resultado los países de Europa
receptor puedan sincronizarse con Occidental, con la excepción de
ella. Esta salva o burst suele ir en el Francia, adoptaron el PAL mientras
pórtico anterior del pulso de que los de Europa Oriental y Francia
sincronismo de línea. La señal de el SECAM.
crominancia se suma a la de
luminancia componiendo la señal En Francia se desarrolló por el
total de la imagen. investigador Henri de France un
sistema diferente, el SECAM,
« SÉquentiel Couleur À Mémoire »
542
que basa su actuación en la fundamentalmente, en el número de
trasmisión secuencial de cada líneas activas, uno de 1080 líneas
componente de color moduladas en activas (SMPT 274M) y el otro de 720
FM de tal forma que en una línea se líneas activas (SMPT 269M).
manda una componente y en la
siguiente la otra componente. Luego En el primero de los grupos, con
el receptor las combina para deducir 1.080 líneas activas, se dan
el color de la imagen. diferencias de frecuencia de cuadro y
de muestras por línea (aunque el
Todos los sistemas tenían ventajas e número de muestras por tiempo
inconvenientes. Mientras que el activo de línea se mantiene en 1.920)
NTSC y el PAL dificultaban la edición también la forma de barrido cambia,
de la señal de vídeo por su secuencia hay barrido progresivo o entrelazado.
de color en cuatro y ocho campos, De la misma forma ocurre en el
respectivamente, el sistema SECAM segundo grupo, donde las líneas
hacía imposible el trabajo de mezcla activas son 720 teniendo 1.280
de señales de vídeo. muestras por tiempo de línea activo.
En este caso la forma de barrido es
La alta definición "HD" siempre progresiva.

El sistema de televisión de definición En el sistema de HD de 1.080 líneas


estándar, conocido por la siglas "SD", y 1.920 muestras por línea tenemos
tiene, en PAL, una definición de 2.073.600 pixeles en la imagen y en
720x576 pixeles (720 puntos el sistema de HD de 720 líneas y
horizontales en cada línea y 576 1.280 muestras por líneas tenemos
puntos verticales que corresponden a 921.600 pixeles en la pantalla. En
las líneas activas del PAL) esto hace relación con los sistemas
que una imagen en PAL tenga un convencionales tenemos que la
total de 414.720 pixeles. En NSTC se resolución del sistema de 1.080
mantienen los puntos por línea pero líneas es 5 veces mayor que el del
el número de líneas activas es solo PAL y cinco veces y media que el del
de 525 lo que da un total de pixeles NTSC. Con el sistema de HD de 720
de 388.800 siendo los pixeles líneas es un 50% mayor que en PAL
levemente anchos en PAL y y un 66% mayor que en NTSC.1
levemente altos en NSTC.
La alta resolución requiere también
Se han desarrollado 28 sistemas una redefinición del espacio de color
diferentes de televisión de alta cambiando el triángulo de gamut.
definición. Hay diferencias en cuanto
a relación de cuadros, número de
líneas y pixeles y forma de barrido.
Todos ellos se pueden agrupar en La relación de aspecto
cuatro grandes grupos de los cuales
dos ya han quedado obsoletos (los En la década de los 90 del siglo XX
referentes a las normas de la SMPTE se empezaron a desarrollar los
295M, 240M y 260M) manteniéndose sistemas de televisión de alta
otros dos que difieren, definición. Todos estos sistemas, en

543
principio analógicos, aumentaban el Una imagen de 16/9 que se vaya a
número de líneas de la imagen y ver en una pantalla de 4/3, de forma
cambiaban la relación de aspecto similar, tiene tres formas de verse:
pasando del formato utilizado hasta
entonces, relación de aspecto 4/3, a • Con barras horizontales arriba
un formato más apaisado de 16/9. y abajo de la imagen
Este nuevo formato, más agradable a (letterbox). Se ve toda la
la vista se estableció como estándar imagen pero se pierde tamaño
incluso en emisiones de definición de pantalla (hay varios
estándar. formatos de letterbox
dependiendo de la parte visible
La relación de aspecto se expresa de la imagen que se vea
por la anchura de la pantalla en (cuanto más grande se haga
relación a la altura. El formato más se recorta), se usan el
estándar hasta ese momento tenía 13/9 y el 14/9).
una relación de aspecto de 4/3. El • Agrandando la imagen hasta
adoptado es de 16/9. La ocupar toda la pantalla
compatibilidad entre ambas verticalmente, perdiéndose las
relaciones de aspecto se puede partes laterales de la imagen.
realizar de diferentes formas. • Deformando la imagen para
adaptarla a la relación de
Una imagen de 4/3 que se vaya a ver aspecto de la pantalla. Se ve
en una pantalla de 16/9 puede toda la imagen en toda la
presentarse de tres formas diferentes: pantalla, pero con la geometría
alterada (los círculos se ven
• Con barras negras verticales a elipses con el diámetro mayor
cada lado (pillarbox). orientado de arriba a abajo).1
Manteniendo la relación de 4/3
pero perdiendo parte de la El PALplus
zona activa de la pantalla.
• Agrandando la imagen hasta En Europa Occidental, y donde el
que ocupe toda la pantalla sistema de televisión de la mayoría
horizontalmente. Se pierde de los países es el PAL, se
parte de la imagen por la parte desarrolló, con apoyo de la Unión
superior e inferior de la misma. Europea, un formato a caballo entre
• Deformando la imagen para la alta definición y la definición
adaptarla la formato de la estándar. Este formato recibió el
pantalla. Se usa toda la nombre de PALplus y aunque fue
pantalla y se ve toda la apoyado por la administración no
imagen, pero con la geometría logró cuajar.
alterada (los círculos se ven
elipses con el diámetro mayor El PALplus fue una extensión del PAL
orientado de derecha a para transmitir imágenes de 16/9 sin
izquierda). tener que perder resolución vertical.
En un televisor normal se recibe una
imagen de apaisada con franjas
negras arriba y abajo de la misma
544
(letterbox) de 432 líneas activas. El y las diferencias de color, fue el que
PALplus mandaba información resultó más idóneo. En un principio
adicional para rellenar las franjas se desarrollaron los sistemas de
negras llegando a 576 líneas de señales en paralelo, con gruesos
resolución vertical. Mediante señales cables que precisaban de un hilo para
auxiliares que iban en las líneas del cada bit, pronto se sustituyó ese
intervalo de sincronismo vertical se cable por la transmisión multiplexada
comandaba al receptor PALplus en tiempo de las palabras
indicándole si la captación había sido correspondientes a cada una de las
realizada en barrido progresivo o componentes de la señal, además
entrelazado. El sistema se amplió con este sistema permitió incluir el audio,
el llamado "Colorplus" que mejoraba embebiéndolo en la información
la decodificación del color. transmitida, y otra serie de utilidades.

La digitalización Para el mantenimiento de la calidad


necesaria para la producción de TV
se desarrolló la norma de Calidad
Estudio CCIR-601. Mientras que se
permitió el desarrollo de otras normas
menos exigentes para el campo de
las producciones ligeras (EFP) y el
periodismo electrónico (ENG).

La diferencia entre ambos campos, el


de la producción en calidad de
estudio y la de en calidad de ENG
estriba en la magnitud el flujo binario
Televisión Digital Terrestre en el generado en la digitalización de las
mundo. señales.

A finales de los años 80 del siglo XX La reducción del flujo binario de la


se empezaron a desarrollar sistemas señal de vídeo digital dio lugar a una
de digitalización. La digitalización en serie de algoritmos, basados todos
la televisión tiene dos partes bien ellos en la transformada discreta del
diferenciadas. Por un lado está la coseno tanto en el dominio espacial
digitalización de la producción y por el como en el temporal, que permitieron
otro la de la transmisión. reducir dicho flujo posibilitando la
construcción de equipos más
En cuanto a la producción se accesibles. Esto permitió el acceso a
desarrollaron varios sistemas de los mismos a pequeñas empresas de
digitalización. Los primeros de ellos producción y emisión de TV dando
estaban basados en la digitalización lugar al auge de las televisiones
de la señal compuesta de vídeo que locales.
no tuvo éxito. El planteamiento de
digitalizar las componentes de la En cuanto a la transmisión, la
señal de vídeo, es decir la luminancia digitalización de la misma fue posible
gracias a las técnicas de compresión
545
que lograron reducir el flujo a menos precisa de su incorporación manual al
de 5 Mbit/s, hay que recordar que el sistema. Todo ello está controlado
flujo original de una señal de calidad por una base de datos en donde
de estudio tiene 270 Mbit/s. Esta figuran los asientos de la información
compresión es la llamada MPEG-2 residente en el sistema.
que produce flujos de entre 4 y 6
Mbit/s sin pérdidas apreciables de La incorporación de información al
calidad subjetiva. sistema se realiza mediante la
denominada función de ingesta. Las
Las transmisiones de TV digital tienen fuentes pueden ser generadas ya en
tres grandes áreas dependiendo de la formatos informáticos o son
forma de la misma aun cuando son convertidas mediante conversores de
similares en cuanto a tecnología. La vídeo a ficheros informáticos. Las
transmisión se realiza por satélite, captaciones realizadas en el campo
cable y vía radiofrecuencia terrestre, por equipos de ENG o EFP se graban
ésta es la conocida como TDT. en formatos compatibles con el del
almacenamiento utilizando soportes
El avance de la informática, tanto a diferentes a la cinta magnética, las
nivel del hardware como del software, tecnologías existentes son DVD de
llevaron a sistemas de producción rayo azul (de Sony), grabación en
basados en el tratamiento informático memorias ram (de Panasonic) y
de la señal de televisión. Los grabación en disco duro (de Ikegami).
sistemas de almacenamiento, como
los magnetoscopios, pasaron a ser La existencia de los servidores de
sustituidos por servidores vídeo posibilita la automatización de
informáticos de vídeo y los archivos las emisiones y de los programas de
pasaron a guardar sus informaciones informativos mediante la realización
en discos duros y cintas de datos. de listas de emisión, los llamados
Los ficheros de vídeo incluyen los play out.
metadatos que son información
referente a su contenido. El acceso a Tipos de televisión
la información se realiza desde los
propios ordenadores donde corren
programas de edición de vídeo de tal
forma que la información residente en
el archivo es accesible en tiempo real
por el usuario. En realidad los
archivos se estructuran en tres
niveles, el on line, para aquella
información de uso muy frecuente TV Analógica Sony.
que reside en servidores de discos
duros, el near line, información de Difusión analógica
uso frecuente que reside en cintas de
datos y éstas están en grandes La televisión hasta tiempos recientes,
librerías automatizadas, y el archivo principios del siglo XXI, fue analógica
profundo donde se encuentra la totalmente y su modo de llegar a los
información que está fuera de línea y televidentes era mediante el aire con

546
ondas de radio en las bandas de VHF ventaja del cable es la de disponer de
y UHF. Pronto salieron las redes de un camino de retorno que permite
cable que distribuían canales por las crear servicios interactivos
ciudades. Esta distribución también independientes de otros sistemas
se realizaba con señal analógica, las (normalmente para otros sistemas de
redes de cable pueden tener una emisión se utiliza la línea telefónica
banda asignada, más que nada para para realizar el retorno). El satélite,
poder realizar la sintonía de los de elevado costo en su construcción
canales que llegan por el aire junto y puesta en órbita permite llegar a
con los que llegan por cable. Su lugares inaccesibles y remotos.
desarrollo depende de la legislación También tiene la ventaja de servicios
de cada país, mientras que en disponibles para los televidentes, que
algunos de ellos se desarrollaron posibilitan la explotación comercial y
rápidamente, como en Inglaterra y la rentabilidad del sistema. La
Estados Unidos, en otros como comunicación vía satélite es una de
España no han tenido casi las más importantes en la logística
importancia hasta que a finales del militar y muchos sistemas utilizados
siglo XX la legislación permitió su en la explotación civil tienen un
instalación. trasfondo estratégico que justifican la
inversión económica realizada. La
El satélite, que permite la llegada de transmisión vía radio es la más
la señal a zonas muy remotas y de popular y la más extendida. La
difícil acceso, su desarrollo, a partir inversión de la red de distribución de
de la tecnología de los lanzamientos la señal no es muy costosa y permite,
espaciales, permitió la explotación mediante la red de reemisores
comercial para la distribución de las necesaria, llegar a lugares remotos,
señales de televisión. El satélite de índole rural. La señal es mucho
realiza dos funciones fundamentales, menos inmune al ruido y en muchos
la de permitir los enlaces de las casos la recepción se resiente. Pero
señales de un punto al otro del orbe, es la forma normal de la difusión de
mediante enlaces de microondas, y la las señales de TV.
distribución de la señal en difusión.
Difusión digital
Cada uno de estos tipos de emisión
tiene sus ventajas e inconvenientes,
mientras que el cable garantiza la
llegada en estado óptimo de la señal,
sin interferencias de ningún tipo,
precisa de una instalación costosa y
de un centro que realice el embebido
de las señales, conocido con el
nombre de cabecera. Solo se puede
entender un tendido de cable en Ba
núcleos urbanos donde la rras de color EBU en formato YUV.
aglomeración de habitantes haga
rentable la inversión de la Estas formas de difusión se han
infraestructura necesaria. Otra mantenido con el nacimiento de la

547
televisión digital con la ventaja de que modificación para su adecuación la
el tipo de señal es muy robusta a las norma del cable.
interferencias y la norma de emisión
está concebida para una buena En EE.UU. se ha desarrollado un
recepción. También hay que decir sistema diferente de televisión digital,
que acompaña a la señal de el ATSC Advanced Television System
televisión una serie de servicios Committee que mientras que en las
extras que dan un valor añadido a la emisiones por satélite y cable no
programación y que en la normativa difiere mucho del europeo, en la TDT
se ha incluido todo un campo para la es totalmente diferente. La deficiencia
realización de la televisión de pago del NTSC ha hecho que se unifique lo
en sus diferentes modalidades. que es televisión digital y alta
definición y el peso de las compañías
La difusión de la televisión digital se audiovisuales y cinematográficas ha
basa en el sistema DVB Digital Video llevado a un sistema de TDT
Broadcasting y es el sistema utilizado característico en el que no se ha
en Europa. Este sistema tiene una prestado atención alguna a la
parte común para la difusión de inmunidad contra los ecos.
satélite, cable y terrestre. Esta parte
común corresponde a la ordenación Televisión terrestre
del flujo de la señal y la parte no
común es la que lo adapta a cada La difusión analógica por vía
modo de transmisión. Los canales de terrestre, por radio, está constituida
transmisión son diferentes, mientras de la siguiente forma; del centro
que el ancho de banda del satélite es emisor se hacen llegar las señales de
grande el cable y la vía terrestre lo vídeo y audio hasta los transmisores
tienen moderado, los ecos son muy principales situados en lugares
altos en la difusión vía terrestre estratégicos, normalmente en lo alto
mientas que en satélite prácticamente de alguna montaña dominante. Estos
no existen y en el cable se pueden enlaces se realizan mediante enlaces
controlar, las potencias de recepción de microondas punto a punto. Los
son muy bajas para el satélite (llega transmisores principales cubren una
una señal muy débil) mientras que en amplia zona que se va rellenando, en
el cable son altas y por vía terrestre aquellos casos que haya sombras,
son medias, la misma forma tiene la con reemisores. La transmisión se
relación señal-ruido. realiza en las bandas de UHF y VHF,
aunque esta última está
Los sistemas utilizados según el tipo prácticamente extinguida ya que en
de canal son los siguientes, para Europa se ha designado a la
satélite el DVB-S, para cable el DVB- aeronáutica y a otros servicios como
C y para terrestre (también llamando la radio digital.
terrenal) DVB-T. Muchas veces se
realizan captaciones de señales de La difusión de la televisión digital vía
satélite que luego son metidas en terrestre, conocida como TDT se
cable, para ello es normal que las realiza en la misma banda de la
señales sufran una ligera difusión analógica. Los flujos de
transmisión se han reducido hasta
548
menos de 6 Mb/s lo que permite la grandes cadenas nacionales. Esto
incorporación de varios canales. Lo hace que la ventaja del sistema
normal es realizar una agrupación de europeo que puede crear redes de
cuatro canales en un Mux el cual frecuencia única para cubrir un
ocupa un canal de la banda (en territorio con un solo canal no sea
analógico un canal es ocupado por un apreciada por los norteamericanos. El
programa). La característica principal sistema americano no ha prestado
es la forma de modulación. La atención a la eliminación del eco. La
televisión terrestre digital dentro del deficiencia del NTSC es una de las
sistema DVB-T utiliza para su causas de las ansias para el
transmisión la modulación OFDM desarrollo de un sistema de TV digital
Orthogonal Frecuency Division que ha sido asociado con el de alta
Multiplex que le confiere una alta definición.
inmunidad a los ecos, aún a costa de
un complicado sistema técnico. La EL ATSC estaba integrado por
OFDM utiliza miles de portadoras empresas privadas, asociaciones e
para repartir la energía de radiación, instituciones educativas. La FCC
las portadoras mantienen la Federal Communication Commission
ortogonalidad en el dominio de la aprobó la norma resultante de este
frecuencia. Se emite durante un comité como estándar de TDT en
tiempo útil al que sigue una EE.UU. el 24 de diciembre de 1996.
interrupción llamada tiempo de Plantea una convergencia con los
guarda. Para ello todos los ordenadores poniendo énfasis en el
transmisores deben estar síncronos y barrido progresivo y en el píxel
emitir en paralelo un bit del flujo de la cuadrado. Han desarrollado dos
señal. El receptor recibe la señal y jerarquías de calidad, la estándar (se
espera el tiempo de guarda para han definido dos formatos, uno
procesarla, en esa espera se entrelazado y otro progresivo, para el
desprecian los ecos que se pudieran entrelazado usan 480 líneas activas a
haber producido. La sincronía en los 720 pixeles por línea y el progresivo
transmisores se realiza mediante un 480 líneas con 640 pixeles por línea,
sistema de GPS. la frecuencia de cuadro es la de
59,94 y 60 Hz y el formato es de 16/9
La televisión digital terrestre en los y 3/4) y la de alta definición (en AD
EE.UU., utiliza la norma ATSC tienen dos tipos diferentes uno
Advanced Television System progresivo y otro entrelazado, para el
Committee que deja sentir la diferente primero se usan 720 líneas de 1.280
concepción respecto al servicio que pixeles, para el segundo 1.080 líneas
debe tener la televisión y el peso de y 1.920 pixeles por línea a 59,94 y 60
la industria audiovisual y cuadros segundo y un formato de
cinematográfica estadounidense. La 16/9 para ambos). Han desarrollado
televisión norteamericana se ha dos jerarquías de calidad, la estándar
desarrollado a base de pequeñas y la de alta definición. Utiliza el ancho
emisoras locales que se unían a una de banda de un canal de NTSC para
retransmisión general para ciertos la emisión de televisión de alta
programas y eventos, al contrario que definición o cuatro en calidad
en Europa donde han primado las estándar.

549
Los sistemas de difusión digitales La dificultad de tender la red de cable
están llamados a sustituir a los en lugares de poca población hace
analógicos, se prevé que se dejen de que solamente los núcleos urbanos
realizar emisiones en analógico, en tengan acceso a estos servicios.
Europa esta previsto el apagón
analógico para el 2012 y en EE.UU. La transmisión digital por cable está
se ha decretado el 17 de febrero de basada en la norma DVB-C, muy
2009 como la fecha límite en la que similar a la de satélite, y utiliza la
todas las estaciones de televisión modulación QAM.
dejen de transmitir en sistema
analógico y pasen a transmitir Televisión por satélite
exclusivamente en sistema digital. El
día 8 de septiembre de 2008 al La difusión vía satélite se inició con el
mediodía se realizó la primera desarrollo de la industria espacial que
transición entre sistemas en el permitió poner en órbita
poblado de Wilmington, Carolina del geoestacionaria satélites con
Norte. transductores que emiten señales de
televisión que son recogidas por
antenas parabólicas.

El alto coste de la construcción y


Televisión por cable puesta en órbita de los satélites, así
como la vida limitada de los mismos,
La televisión por cable surge por la se ve aliviado por la posibilidad de la
necesidad de llevar señales de explotación de otra serie de servicios
televisión y radio, de índole diversa, como son los enlaces punto a punto
hasta el domicilio de los abonados, para cualquier tipo de comunicación
sin necesidad de que éstos deban de datos. No es desdeñable el uso
disponer de diferentes equipos militar de los mismos, aunque parte
receptores, reproductores y sobre de ellos sean de aplicaciones civiles,
todo de antenas. ya que buena parte de la inversión
esta realizada con presupuesto
Precisa de una red de cable que militar.
parte de una cabecera en donde se
van embebiendo, en multiplicación de La ventaja de llegar a toda la
frecuencias, los diferentes canales superficie de un territorio concreto,
que tienen orígenes diversos. Muchos facilita el acceso a zonas muy
de ellos provienen de satélites y otros remotas y aisladas. Esto hace que los
son creados ex profeso para la programas de televisión lleguen a
emisión por cable. todas partes.

La ventaja del cable es la de disponer La transmisión vía satélite digital se


de un canal de retorno, que lo forma realiza bajo la norma DVB-S, la
el propio cable, que permite el poder energía de las señales que llegan a
realizar una serie de servicios sin las antenas es muy pequeña aunque
tener que utilizar otra infraestructura. el ancho de banda suele ser muy
grande.
550
de la utilización de filtros de color,
color rojo para el ojo derecho y cian
Televisión IP (IPTV) para el ojo izquierdo,2
El desarrollo de redes IP, basadas en El sistema de captación está
accesos de los clientes a las mismas compuesto por dos cámaras
mediante ADSL o fibra óptica, que convencionales o de alta resolución
proporcionan gran ancho de banda, debidamente adaptada y sincronizada
así como el aumento de las controlando los parámetros de
capacidades de compresión de datos convergencia y separación así como
de los algoritmos tipo MPEG, ha el monitoreado de las imágenes
hecho posible la distribución de la captadas para poder corregir en
señal de televisión de forma digital tiempo real los defectos propios del
encapsulada en mediante protocolo sistema. Normalmente se realiza una
IP. grabación y una posterior
postproducción en donde se corrigen
Han surgido así, a partir del año los defectos inherentes a este tipo de
2003, plataformas de distribución de producciones (aberraciones,
televisión IP (IPTV) soportadas tanto diferencias de colorimetría,
en redes del tipo ADSL, VDSL o de problemas de convergencia, etc.).
fibra óptica para visualización en
televisor, como para visualización en
ordenadores y teléfonos móviles.

La televisión de 3D

La visión estereoscópica o
estereovisión es una técnica ya
conocida y utilizada en la fotografía
de principios del siglo XX. A finales
de ese mismo siglo el cine en 3D, en Cámar Vista Imagen
tres dimensiones, era ya habitual y a defrontal deVista de TV en
estaba comercializado. A finales de la TV enuna trasera de3D en
primera década del siglo XXI 3D. cámara una una
comienzan a verse los primeros Dispos de TV encámara depantalla
sistemas comerciales de televisión en ición 3D. TV en 3D. de TV.
3D basados en la captación, vertica
transmisión y representación de dos l.
imágenes similares desplazadas la
una respecto a la otra y polarizadas.
Aunque se experimentó algún
sistema sin que se necesitaran gafas
con filtros polarizados para ver estas
Tipos de televisores
imágenes en tres dimensiones, como
el de la casa Philips, los sistemas
Se conoce como televisor al aparato
existentes, basados en el mismo
electrodoméstico destinado a la
principio que el cine en 3D, precisan

551
recepción de la señal de televisión.
Suele constar de un sintonizador y de
los mandos y circuitos necesarios
para la conversión de las señales
eléctricas, bien sean analógicas o
digitales, en representación de las
imágenes en movimiento en la
pantalla y el sonido por los altavoces. Algunos tipos de televisores
Muchas veces hay servicios
asociados a la señal de televisión que • Televisor blanco y negro: la
el televisor debe procesar, como el pantalla sólo muestra
teletexto o el sistema NICAM de imágenes en blanco y negro.
audio. • Televisor en color: la pantalla
es apta para mostrar imágenes
Desde los receptores mecánicos en color.
hasta los modernos televisores • Televisor pantalla LCD: plano,
planos ha habido todo un mundo de con pantalla de cristal líquido
diferentes tecnologías. El tubo de (o LCD)
rayos catódicos, que fue el que • Televisor pantalla de plasma:
proporcionó el gran paso en el plano, usualmente se usa esta
desarrollo de la televisión, se resiste tecnología para formatos de
a desaparecer al no encontrarse, mayor tamaño.
todavía, quien lo sustituya,
manteniendo la calidad de imagen y Durante una conferencia de prensa
el precio de producción que éste en Berlín, dentro de la feria de
proporciona. Las pantallas planas de muestras industriales y electrónica de
cristal líquido o de plasma no han consumo IFA 2009, Sony anunció sus
logrado sustituirlo al dar una imagen planes de presentar avances en la
de inferior calidad y tener un elevado experiencia de visualización 3D para
precio, su gran ventaja es la línea los hogares. Sony se refiere a la
moderna de su diseño. Los tecnología 3D de algunos de sus
televisores preparados para la alta televisores, como BRAVIA, que
definición tampoco están abriéndose además de su pantalla LCD
paso al carecer de horas de incorporaría un sistema para
programación en esa calidad y al reproducir contenidos en alta
contentarse el usuario con la calidad definición, las imágenes 3D se verían
de la emisión estándar. mediante unas gafas especiales.

A poco tiempo del llamado apagón Sony piensa desarrollar la


analógico todavía son escasos los compatibilidad de la tecnología 3D en
televisores y otros electrodomésticos otros modelos de televisores, además
que se usan en televisión, como de otras unidades como productos
grabadores, que incluyen el relacionados con Blu-ray, VAIO o la
sintonizador TDT o los consola de videojuegos PlayStation,
decodificadores para la recepción de de modo que sea posible ver
cable y satélite. imágenes 3D en una variedad de
contenidos multimedia reproducidos

552
desde el televisor del hogar, como Antes de la aplicación de un campo
películas, series o incluso eléctrico, la orientación de las
videojuegos. Aunque empezó como moléculas de cristal líquido está
avance aprovechando la feria IFA determinada por la adaptación a las
alemana, en el año 2010 ya salieron superficies. En un dispositivo twisted
a la venta los primeros modelos. nematic, TN (uno de los dispositivos
más comunes entre los de cristal
Pantallas LCD líquido), las direcciones de alineación
de la superficie de los dos electrodos
Una pantalla de cristal líquido o LCD son perpendiculares entre sí, y así se
(acrónimo del inglés Liquid Crystal organizan las moléculas en una
Display) es una pantalla delgada y estructura helicoidal, o retorcida.
plana formada por un número de Debido a que el material es de cristal
píxeles en color o monocromos líquido birrefringente, la luz que pasa
colocados delante de una fuente de a través de un filtro polarizante se
luz o reflectora. A menudo se utiliza gira por la hélice de cristal líquido que
en dispositivos electrónicos de pilas, pasa a través de la capa de cristal
ya que utiliza cantidades muy líquido, lo que le permite pasar por el
pequeñas de energía eléctrica. segundo filtro polarizado. La mitad de
la luz incidente es absorbida por el
Características
primer filtro polarizante, pero por lo
Cada píxel de un LCD típicamente demás todo el montaje es
consiste de una capa de moléculas transparente.
alineadas entre dos electrodos
Cuando se aplica un voltaje a través
transparentes, y dos filtros de
de los electrodos, una fuerza de giro
polarización, los ejes de transmisión
orienta las moléculas de cristal líquido
de cada uno que están (en la mayoría
paralelas al campo eléctrico, que
de los casos) perpendiculares entre
distorsiona la estructura helicoidal
sí. Sin cristal líquido entre el filtro
(esto se puede resistir gracias a las
polarizante, la luz que pasa por el
fuerzas elásticas desde que las
primer filtro sería bloqueada por el
moléculas están limitadas a las
segundo (cruzando) polarizador.
superficies). Esto reduce la rotación
La superficie de los electrodos que de la polarización de la luz incidente,
están en contacto con los materiales y el dispositivo aparece gris. Si la
de cristal líquido es tratada a fin de tensión aplicada es lo suficientemente
ajustar las moléculas de cristal líquido grande, las moléculas de cristal
en una dirección en particular. Este líquido en el centro de la capa son
tratamiento suele ser normalmente casi completamente desenrolladas y
aplicable consiste en una fina capa la polarización de la luz incidente no
de polímero que es es rotada ya que pasa a través de la
unidireccionalmente frotada capa de cristal líquido. Esta luz será
utilizando, por ejemplo, un paño. La principalmente polarizada
dirección de la alineación de cristal perpendicular al segundo filtro, y por
líquido se define por la dirección de eso será bloqueada y el pixel
frotación. aparecerá negro. Por el control de la
tensión aplicada a través de la capa

553
de cristal líquido en cada píxel, la luz está dirigida al dispositivo (la
se puede permitir pasar a través de respuesta de la capa de cristal líquido
distintas cantidades, constituyéndose es idéntica, independientemente de la
los diferentes tonos de gris. polaridad de los campos aplicados)
Pantalla LCD en un despertador.
Cuando un dispositivo requiere un
gran número de píxeles, no es viable
conducir cada dispositivo
directamente, así cada píxel requiere
un número de electrodos
independiente. En cambio, la pantalla
es multiplexada. En una pantalla
multiplexada, los electrodos de la
El efecto óptico de un dispositivo parte lateral de la pantalla se agrupan
twisted nematic (TN) en el estado del junto con los cables (normalmente en
voltaje es mucho menos dependiente columnas), y cada grupo tiene su
de las variaciones de espesor del propia fuente de voltaje. Por otro
dispositivo que en el estado del lado, los electrodos también se
voltaje de compensación. Debido a agrupan (normalmente en filas), en
esto, estos dispositivos suelen usarse donde cada grupo obtiene una
entre polarizadores cruzados de tal tensión de sumidero. Los grupos se
manera que parecen brillantes sin han diseñado de manera que cada
tensión (el ojo es mucho más píxel tiene una combinación única y
sensible a las variaciones en el dedicada de fuentes y sumideros. Los
estado oscuro que en el brillante). circuitos electrónicos o el software
Estos dispositivos también pueden que los controla, activa los sumideros
funcionar en paralelo entre en secuencia y controla las fuentes
polarizadores, en cuyo caso la luz y la de los píxeles de cada sumidero.
oscuridad son estados invertidos. La
tensión de compensación en el
estado oscuro de esta configuración
aparece enrojecida debido a las
pequeñas variaciones de espesor en
todo el dispositivo. Tanto el material
del cristal líquido como el de la capa
de alineación contienen compuestos
iónicos. Si un campo eléctrico de una
determinada polaridad se aplica
durante un período prolongado, este
material iónico es atraído hacia la
superficie y se degrada el rendimiento
del dispositivo. Esto se intenta evitar,
Pantalla de cristal líquido Twisted
ya sea mediante la aplicación de una
Nematic (TN).
corriente alterna o por inversión de la
polaridad del campo eléctrico que

554
1. Film de filtro vertical para
polarizar la luz que entra.
2. Sustrato de vidrio con Los componentes de color pueden
electrodos de Óxido de Indio colocarse en varias formas
ITO. Las formas de los geométricas de píxeles, en función
electrodos determinan las del uso del monitor. Si el software
formas negras que aparecen sabe qué tipo de geometría se está
cuando la pantalla se enciende usando en un LCD concreto, ésta
y apaga. Los cantos verticales puede usarse para aumentar la
de la superficie son suaves. resolución del monitor a través de la
3. Cristales liquidos "Twisted presentación del subpixel. Esta
Nematic" (TN). técnica es especialmente útil para
4. Sustrato de vidrio con film texto anti-aliasing.
electrodo común (ITO) con los
cantos horizontales para
alinearse con el filtro Matrices activas y pasivas dirigidas a
horizontal. LCDs.
5. Film de filtro horizontal para
bloquear/permitir el paso de Las pantallas LCD con un pequeño
luz. número de sectores, tales como los
6. Superficie reflectante para que se utilizan en relojes digitales y
enviar devolver la luz al calculadoras de bolsillo, tienen
espectador. En un LCD retro contactos eléctricos individuales para
iluminado, esta capa es cada segmento. Un circuito externo
reemplazada por una fuente dedicado suministra una carga
luminosa. eléctrica para el control de cada
segmento. Esta estructura es difícil
de visualizar para algunos
dispositivos de visualización.
El color en los dispositivos
Las pequeñas pantallas monocromo
En las pantallas LCD de color cada como las que se encuentran en los
píxel individual se divide en tres organizadores personales, o viejas
células, o subpíxeles, de color rojo, pantallas de ordenadores portátiles
verde y azul, respectivamente, por el tienen una estructura de matriz
aumento de los filtros (filtros de pasiva donde emplean tecnologías
pigmento, filtros de tinte y filtros de como la super-twisted nematic (STN)
óxido de metal). Cada subpíxel puede o la de doble capa STN (DSTN),
controlarse independientemente para (DSTN corrige el problema del
producir miles o millones de posibles cambio de color de STN), y la STN de
colores para cada píxel. Los color (CSTN) (una tecnología donde
monitores CRT usan la misma el color se añade usando un filtro de
estructura de ‘subpíxeles' a través del color interno). Cada fila o columna de
uso de fósforo, aunque el haz de la pantalla tiene un solo circuito
electrones analógicos empleados en eléctrico. Los pixeles se dirigen a la
CRTs no dan un número exacto de vez por direcciones de fila y de
subpíxeles. columna. Este tipo de pantalla se

555
denomina matriz pasiva–dirigida
porque el pixel debe conservar su
estado entre los períodos de refresco
sin beneficiarse de ¿Por una qué carga
un monitor LCD?
eléctrica constante. A medida que el
número de píxeles (y, en
consecuencia, columnas y filas) se
incrementa, este tipo de pantalla se
vuelve menos apropiada. Tiempos de
respuesta muy lentos y un contraste
bastante pobre son típicos en las Ventajas de los monitores LCD
matrices pasivas dirigidas a LCDs.
En dispositivos de color de alta Sin taza de refresco: Imagen estática,
resolución como los modernos no hace mal a la vista, al contrario de
monitores LCD y televisores utilizan esto, los CRT actualizan su imagen
una estructura de matriz activa. Una varias veces por segundo lo que a 60
matriz de thin-film transistors (TFTs) Hz / 75 Hz puede molestar luego de
se agrega a la polarización y a los un rato de uso.
filtros de color. Cada píxel tiene su Menor consumo eléctrico: Respecto a
propio transistor dedicado, que un CRT, consume hasta 1/3 de lo que
permitirá a cada línea de la columna consume este.
acceder a un píxel. Cuando una línea Espacio físico: El tamaño de los LCD
de fila está activada, todas las líneas es mucho más chico que un CRT, en
de la columna están conectadas a lo que a profundidad se refiere.
una fila de píxeles y una correcta Vida útil: Un LCD dura entre 50000 ~
tensión de alimentación es impulsada 60000 horas, un CRT entre 10000 ~
a todas las líneas de la columna. 20000 horas.
Cuando la línea de fila se desactiva,
la siguiente línea de fila es activada. Desventajas de los monitores LCD
Todas las líneas de la fila se activan
secuencialmente durante una Más caros para obtener calidades de
operación de actualización. La matriz imagen como los CRT.
activa está dirigida a dispositivos con Resolución nativa.
un mayor brillo y tamaño que a los Ángulos de visión.
que se dirige la matriz pasiva (dirigida Tiempo de respuesta.
a dispositivos de pequeño tamaño, y,
en general, que tienen tiempos de Matriz LCD: ¿Qué es?
respuesta más pequeños,
produciendo imágenes mucho Son la base de la imagen. Las
mejores). matrices incluyen los cristales,
transistores, componentes, la matriz
es la encargada de crear la imagen.
Las más populares son:

-TN+Film (Twisted Nematic): Los más


comunes de los paneles. Su gran

556
ventaja es su bajo costo de nadie los compraría. Es aquí donde
producción y su gran desarrollo. El entra el FRC en juego. El FRC es
“Film” es un agregado para mejorar Frame Rate Control. Este lo que hace
los ángulos de visión, hoy en día no es “emular” los colores que la matriz
se menciona ya que todos los TN lo no puede hacer. Por lo general, al ver
incluyen. Su principal desventaja es 16.2 millones de colores es que es un
la calidad de los colores. La mayoría panel de 18-bits con FRC, pero
de estos paneles no puede lograr 24 algunos fabricantes indican 16.7
bit (16.7 millones) solo hace 6 bit por millones de todas formas.
canal RGB (total 18 bit = 262K).
-IPS (In-Plane Switching): Panel Ángulos de visión: ¿A qué se refiere?
desarrollado por Hitachi para eliminar
los 2 problemas básicos de los TN: Los paneles LCD sufren de los
Los ángulos de visión y la calidad de ángulos de visión, esto se puede ver
color. Estos paneles son capaces de cuando se mira un monitor desde
hacer 8 bit por canal RGB. S-IPS abajo/arriba o desde la
(Super-IPS), es igual al IPS, pero con derecha/izquierda. Problemas de
mejoras, la reproducción de color se color y contraste se pueden observar
acerca a la de un CRT. al realizar esto. Por eso es importante
-MVA (Multidomain Vertical a la hora de comprar que el monitor
Alignment): Desarrollado por Fujitsu. tenga un amplio ángulo de visión, así
Tienen un tiempo de respuesta muy se asegura que al estar mirando por
bueno, y ángulos de visión bastante ejemplo la parte superior de la
amplios, lo que les permite competir pantalla se vea bien, sino se torna
con los IPS. Además de esto, los gris lo que este fuera del ángulo.
MVA tienen un gran contraste, pero al
costo de brillo y reproducción de Tiempo de respuesta: ¿Menos
color... milisegundos es mejor?
-PVA (Patterned Vertical Alignment):
Desarrollado por Samsung. Era una El tiempo de respuesta es lo que
alternativa al MVA. Su ventaja es tarda un píxel en cambiar de color
mejor contraste. Los PVA para tener negro a blanco y después a negro
precios más bajos usan técnicas de (BtWtB) (Inactivo > Activo > Inactivo).
FRC. Y los S-PVA (Super-PVA) son O también una trampa para que este
de 8 bit por canal RGB. tiempo sea menor es indicar el tiempo
que tarda en ir de gris a gris (G2G).
Colores: ¿18-bit, 24-bit?
¿ Qué problemas puede ocasionar un
La profundidad de color es muy monitor con tiempo de respuesta muy
importante. Muchos paneles son de alto ?
18-bit (262K colores) y de 24-bit
(16.7M de colores). Lo ideal son 16.7 Si un monitor tiene tiempo de
millones. Pero la realidad es que a respuesta muy alto se producirá
veces son de 18-bits. Pero si los ghosting, esto significa que en
fabricantes venden LCD’s de 18-bits, movimientos rápidos o cambios
cualquiera se daría cuenta, con solo rápidos de la imagen, queda imagen
leer ya no tendrían sentido, ya que de cuadros anteriores, y se
557
desprenden como “fantasmas” de los Para ver películas es ideal, ya que
objetos en pantalla. estas vienen en WideScreen o
Entonces, ¿los monitores de 2 ms resoluciones similares, pero siempre
son los mejores? No, de hecho la relación de aspecto es similar a
monitores con 16 ms no tienen 16:9 / 16:10.
problemas de ghosting, por lo que 2 Lo único malo, puede ser que a la
ms, 5 ms, 8 ms, es puro marketing, y hora de jugar, algunos juegos no
por lo general esos valores son de pueden poner resoluciones
G2G, cuando el que realmente widescreen nativamente.
importa es el BtWtB.
Interfaz de video: VGA, DVI, HDMI
Resoluciones nativas: ¿ Pueden
ocasionar conflictos ? VGA es el más antiguo, análogo,
usado en monitores CRT y algunos
Los LCD tienen un gran problema LCD. La interfaz de video ya va de
que es que tienen una resolución X, y acuerdo a la placa de video que se
si se usa otra la imagen ya no es tenga, pero lo ideal sería que tenga
nítida. Esto ocurre debido que a DVI hoy en día, y usarlo al DVI si se
diferencia de los CRT, los LCD ya tiene, porque sino la conversión DVI >
tienen un número de píxeles fijo, VGA, VGA > DVI es una perdida de
entonces al no usar la resolución calidad, de otra forma el DVI > DVI no
nativa la imagen se interpola. realiza conversión ya que
Básicamente la idea es siempre usar nativamente trabajan en digital el
la nativa, donde más se nota el monitor y la placa de video. HDMI es
cambio de resolución es en escritorio. un nuevo sistema para asegurar el
DRM, este es necesario para ver
Relación de aspecto: ¿ 4:3 / 5:4 o películas Blu-ray por ejemplo, pero
16:9 / 16:10 ? necesita tanto un OS que lo soporte,
una lectora que soporte Blu-ray, una
La relación de aspecto va por gusto placa de video acorde y el monitor
totalmente. Hoy en día encontramos que también lo soporte.
2 distintas:

4:3 / 5:4: La convencional.


16:9 / 16:10: WideScreen. Vida útil... ¿ Cuanto duran ? ¿ Que
¿ Por cual ir ? A gusto. significa cuando termina la vida útil ?

Ventajas de 4:3 / 5:4 Un LCD tiene unas 50000 ~ 60000


horas utiles. Esto, usando 24 hs el
Todo esta en 4:3 / 5:4, así que en monitor, usandolo todos los días del
resoluciones en juegos por ejemplo año, son 6 ~ 7 años. Con un uso
no va a haber problemas. promedio de 8 horas diarias, todos
los días del año, son 17 ~ 20 años. Si
Ventajas 16:9 / 16:10 bien la vida util que tienen es mucha,
como para agregar, lo unico que
"muere" por tener vida util es la
backlight. Y cuando llegan las 60000
558
horas, la backlight pasa a tener un posterior de las celdas. Ciertos
brillo del 50% de lo que tenia de electrodos se ubican detrás de las
fabrica. Cuando el brillo de un monitor celdas, a lo largo del panel de cristal
(sea CRT o LCD) esta a un 50% de lo trasero, y otros electrodos, que están
original, es cuando se dice que el rodeados por un material aislante
producto llego a su vida util, con lo dieléctrico y cubiertos por una capa
cual, dependiendo el uso, puede no protectora de óxido de magnesio,
resultar un problema mayor. están ubicados en frente de la celda,
a lo largo del panel de cristal frontal.
El circuito carga los electrodos que se
cruzan en cada celda creando
Pantallas de Plasma diferencia de voltaje entre la parte
trasera y la frontal, y provocan que el
gas se ionice y forme el plasma.
Las pantallas de plasma son un tipo Posteriormente, los iones del gas
de pantallas usualmente utilizados en corren hacia los electrodos, donde
televisores de gran tamaño este tipo colisionan emitiendo fotones.
de televisores cuenta con muchas
desventajas lo que reduce la vida del
televisor en muchos casos de manera
drastica.
HISTORIA
Este tipo de pantallas usualmente es
de las mas costosas devido a sus La pantalla de plasma fue inventada
grandes costos de produccion lo cual en 1964 en la Universidad de Illinois
las convierte en una no tan buena por Donald Bitzer, Gene Slottow y el
opcion de compra a comparacion de estudiante Robert Willson, para el
otras. sistema informático PLATO
(Programmed Logic for Automated
Se les llama pantallas de plasma por Teaching Operations: lógica de
que Consta de muchas celdas programación para operaciones
diminutas situadas entre dos paneles automatizadas de enseñanza). Eran
de cristal que contienen una mezcla monocromas (naranja, verde o
de gases nobles (neón y xenón). amarillo) y fueron muy populares al
comienzo de los años setenta por su
El gas en las celdas se convierte
dureza y porque no necesitaban ni
eléctricamente en plasma, el cual
memoria ni circuitos para actualizar la
provoca que una substancia
imagen. A finales de los años setenta
fosforescente (que no es fósforo)
tuvo lugar un largo periodo de caída
emita luz.
en las ventas debido a que las
Los gases xenón y neón en un memorias de semiconductores
televisor de plasma están contenidos hicieron a las pantallas CRT más
en cientos de miles de celdas baratas que las pantallas de plasma.
diminutas entre dos pantallas de No obstante, su tamaño de pantalla
cristal. Los electrodos también se relativamente grande y la poca
encuentran «emparedados» entre los profundidad de su cuerpo las hicieron
dos cristales, en la parte frontal y
559
aptas para su colocación en (comparándolas con las pantallas
vestíbulos y bolsas de valores. LCD) hicieron de las pantallas de
plasma una de las tecnologías de
En 1973, IBM introdujo una pantalla visión para HDTV más populares.
monocroma de 11 pulgadas (483 Durante mucho tiempo se creyó que
mm) que era capaz de mostrar la tecnología LCD era conveniente
simultáneamente cuatro sesiones de tan sólo para pequeños televisores y
terminal de la máquina virtual del IBM que no podía competir con la
3270. Esta fábrica fue trasladada en tecnología del plasma en las
1987 a una compañía llamada pantallas más grandes
Plasmaco que había sido fundada (particularmente de 42 pulgadas en
recientemente por el doctor Larry F. adelante).
Weber (uno de los estudiantes del
doctor Bitzer), Stephen Globus y Sin embargo, tras esto, los cambios y
James Kehoe (que era el encargado mejoras en la tecnología LCD han
de planta de IBM). hecho más pequeña esta diferencia.
Su poco peso, bajos precios, mayor
En 1992, Fujitsu creó la primera resolución disponible (lo que es
pantalla de 15 pulgadas (233 mm) en importante para HDTV) y a menudo
blanco y negro. bajo consumo eléctrico convirtieron a
las pantallas LCD en duras
En 1996, Matsushita Electrical
competidoras en el mercado de los
Industries (Panasonic) compró
televisores. A finales del año 2006 los
Plasmaco, su tecnología y su fábrica
analistas observaron que las
en EE. UU..
pantallas LCD estaban alcanzando a
En 1997, Pioneer empezó a vender el las de plasma, particularmente en el
primer televisor de plasma al público. importante segmento de las pantallas
Las pantallas de plasma actuales se de 40 pulgadas o más, donde los
pueden ver habitualmente en los plasmas habían disfrutado de un
hogares y son más finas y grandes fuerte dominio un par de años antes.
que sus predecesoras. Su pequeño Hoy en día las LCD ya compiten con
grosor les permite competir con otros las de plasma en los segmentos de
aparatos como los proyectores. 50 y 60 pulgadas, donde existe casi
la misma variedad en ambas
El tamaño de las pantallas ha crecido tecnologías. Por otro lado, el precio al
desde aquella pantalla de 15 público se ha invertido, ya que la
pulgadas de 1992. La pantalla de demanda de LCD es alta y la
plasma más grande del mundo ha tecnología basada en plasma está
sido mostrada en el Consumer viendo bajar su precio por debajo del
Electronics Show del año 2008 en de su competidor. Otra tendencia de
Las Vegas (EE. UU.), una pantalla de la industria es la consolidación de los
103 pulgadas creada por Panasonic. fabricantes de pantallas de plasma
con alrededor de cincuenta marcas
Hasta hace poco, su brillo superior, disponibles pero sólo cinco
su tiempo de respuesta más rápido, fabricantes.
su gran espectro de colores y su
mayor ángulo de visión

560
Caracteristicas generales de las televisores de plasma que han
pantallas de plasma reducido el consumo de energía y
han alargado la vida útil del televisor.
En concreto, éste es el tiempo de
vida medio estimado para la pantalla,
Las pantallas de plasma son
el momento en el que la imagen se
brillantes (1000 lux o más por
ha degradado hasta la mitad de su
módulo), tienen un amplia gama de
brillo original. Se puede seguir
colores y pueden fabricarse en
usando pero se considera el final de
tamaños bastante grandes, hasta 262
la vida funcional del aparato.
cm de diagonal. Tienen una
luminancia muy baja a nivel de Los competidores incluyen LCD,
negros, creando un negro que resulta CRT, OLED, AMLCD, DLP, SED-tv,
más deseable para ver películas. etc. La principal ventaja de la
Esta pantalla sólo tiene cerca de 6 cm tecnología del plasma es que
de grosor y su tamaño total pantallas muy grandes pueden ser
(incluyendo la electrónica) es menor fabricadas usando materiales
de 10 cm. Los plasmas usan tanta extremadamente delgados. Ya que
energía por metro cuadrado como los cada píxel es iluminado
televisores CRT o AMLCD. El individualmente, la imagen es muy
consumo eléctrico puede variar en brillante y posee un gran ángulo de
gran medida dependiendo de qué se visión.
esté viendo en él. Las escenas
brillantes (como un partido de fútbol)
necesitarán una mayor energía que
las escenas oscuras (como una Relación de contraste
escena nocturna de una película).
El contraste es la diferencia entre la
Las medidas nominales indican 400
parte más brillante de la imagen y la
vatios para una pantalla de 50
más oscura, medida en pasos
pulgadas. Los modelos relativamente
discretos, en un momento dado.
recientes consumen entre 220 y 310
Generalmente, cuanto más alto es el
vatios para televisores de 50
contraste más realista es la imagen.
pulgadas cuando se está utilizando
Las relaciones de contraste para
en modo cine. La mayoría de las
pantallas de plasma se suelen
pantallas están configuradas con el
anunciar de 15.000:1 a 30.000:1.
modo «tienda» por defecto, y
Esta es una ventaja importante del
consumen como mínimo el doble de
plasma sobre otras tecnologías de
energía que con una configuración
visualización. Aunque no hay ningún
más cómoda para el hogar.
tipo de directriz en la industria acerca
de cómo informar sobre el contraste,
la mayoría de los fabricantes siguen
El tiempo de vida de la última el estándar ANSI o bien realizan
generación de pantallas de plasma pruebas «full-on full-off». El estándar
está estimado en unas 100.000 horas ANSI usa un patrón para la prueba de
(o 30 años a 8 horas de uso por día) comprobación por medio de la cual se
de tiempo real de visionado; sin miden simultáneamente los negros
embargo, se han producido más oscuros y los blancos más

561
luminosos, y se logra una A continuación se muestra una
clasificación más realista y exacta. pequeña comparación entre las dos
Por otro lado, una prueba «full-on full- tecnologías:
off» mide el contraste usando una
pantalla de negro puro y otra de Ventajas de las plasma frente a las
blanco puro, lo que consigue los LCD
valores más altos pero no representa
* Mayor contraste, lo que se
un escenario de visualización típico.
traduce en una mayor capacidad para
Los fabricantes pueden mejorar
reproducir el color negro y la escala
artificialmente el contraste obtenido
completa de grises.
incrementando el contraste y el brillo
para lograr los valores más altos en * Mayor ángulo de visión.
las pruebas. Sin embargo, un
porcentaje de contraste generado * Ausencia de tiempo de respuesta,
mediante este método sería lo que evita el efecto «estela» o
engañoso, ya que la imagen sería «efecto fantasma» que se produce en
esencialmente imposible de ver con ciertos LCD debido a altos tiempos de
esa configuración. refresco (mayores a 12 ms).

Se suele decir a menudo que las * No contiene mercurio, a


pantallas de plasma tienen mejores diferencia de las pantallas LCD.
niveles de negros (y relaciones de
contraste), aunque tanto las pantallas * Colores más suaves al ojo
de plasma como las LCD tienen sus humano.
propios desafíos tecnológicos. Cada * Mayor número de colores y más
celda de una pantalla de plasma debe reales.
ser precargada para iluminarla (de
otra forma la celda no respondería lo * El coste de fabricación de los
suficientemente rápido) y esa paneles de plasma es inferior al de
precarga conlleva la posibilidad de los LCD para las pantallas de mayor
que las celdas no logren el negro tamaño (a partir de 42 pulgadas).
verdadero. Algunos fabricantes han Este coste de fabricación afecta
trabajado mucho para reducir la directamente al PVP.
precarga y el brillo de fondo asociado
hasta el punto en el que los niveles
de negro de los plasmas modernos
Ventajas de las LCD frente a las de
comienzan a rivalizar con los CRT
plasma
(tubos de rayos catódicos). Con la
tecnología LCD, los píxeles negros * Efecto de «pantalla quemada» en
son generados por un método de plasma: si la pantalla permanece
polarización de la luz y son incapaces encendida durante mucho tiempo
de ocultar completamente la luz de mostrando imágenes estáticas (como
fondo subyacente. logotipos o encabezados de noticias)
la pantalla de plasma tiene mayor
tendencia a que la imagen quede fija
Comparación entre plasma y LCD o sobreescrita en la pantalla.

562
* Brillo: el monitor de LCD es capaz LED, porque no es lo mismo ya que
de producir colores más «brillantes», los televisores LED puros son,
más saturados que el de plasma. bastante más caros a día de hoy,
aunque como ventaja es que ofrecen
* Mayor durabilidad: la pantalla de una mejor imagen. Sin embargo los
plasma suele tener menos vida útil y televisores LCD con retroiluminación
variar su funcionamiento con las LED son más baratos, pero
condiciones de altura, dado que consumen más energía y dan una
posee gases que se modifican por menor calidad de imagen.
variaciones físicas. Los LCD no
poseen este inconveniente y tienen Una pantalla de televisión LED
mayor vida útil. dispone a día de hoy de más
conexiones de las que probablemente
Un defecto de la tecnología de se necesiten pero seguramente en un
plasma es que si se utiliza futuro serán necesarias.
habitualmente la pantalla al nivel
máximo de brillo se reduce HDMI será casi con toda probabilidad
significativamente el tiempo de vida el estándar de conexión FULL HD de
del aparato. Por este motivo, muchos alta definición, por eso los modelos
consumidores usan una configuración de LED ya disponen de hasta cuatro
de brillo por debajo del máximo. conexiones de este tipo. Respecto a
los puertos USB también son un
estándar ya en estos televisores, con
el objetivo de que se puedan conectar
Pantalla LED
todo tipo de periféricos o incluso
El televisor LED cada vez tiene más guardar y grabar contenidos de la
presencia en el mercado y poco a televisión a Internet.
poco sus características van siendo
Es conveniente saber también si el
más conocidas entre los
modelo de LED TV ya lleva
consumidores.
incorporado Wifi o puerto Ethernet, ya
Son televisores que pueden emitir que sin ellos no podrá acceder a
con una gran calidad de imagen, su internet desde el televisor sin tener
profundidad es mínima ya que que utilizar un ordenador.
gracias a la tecnología LED, las
pantallas LED son extremadamente
delgadas y además tiene muy bajo
gasto energético.
MATERIALES DE UNA LED
En este sitio web veremos una serie
de artículos con consejos prácticos Materiales especiales e innovadores
con el propósito de ayudar en la en Led Samsung
búsqueda y compra de una televisión
de pantall LED. Las nuevas televisiones LED están
realizadas con materiales muy
Antes de comprar una pantalla LED especiales e innovadores, ya que
hay que saber si es un televisor de descartan el uso de una serie de
LED o un LCD con retroiluminación

563
elementos peligrosos, como el plomo, Entre estos aspectos destacan la
el mercurio y el amoniaco. calidad de las señales analógicas, el
mejor conversor entrelazado a
De esta forma, estas tecnologías progresivo, la autodetección de
hechas a base de materiales muy resolución de la señal de entrada y la
poco voluminosos, suponen un detección del nivel de negro.
importante ahorro en otro tipo de
materiales, como los cables y otros
elementos eléctricos. Para la pantalla,
Samsung LED TV utiliza el cristal Tecnologia en las Leds
líquido como bisel y un doble
modelado por inyección que Pantallas Oled: finas, ahorradoras y...
comienza en un negro profundo y se flexibles
va convirtiendo en un marco
transparente.
Además, como los televisores de LED
no necesitan de retroiluminación
CCFLs, son completamente libres de
mercurio. Así, los componentes con
los que se fabrica Samsung LED TV
permiten eliminar y reciclar los
televisores con un impacto mínimo
para el medio ambiente.
De hecho, durante la fabricación de
estos televisores se ha eliminado Oled es la tecnología de diodos
definitivamente la emisión de orgánicos que darán vida a la nueva
compuestos orgánicos volátiles y generación de pantallas con un
otras sustancias nocivas para el menor grosor, menor consumo, más
entorno. calidad de imagen y flexibilidad
La tecnología Oled no es
Además, para crear los acabados de precisamente nueva, ya que lleva a
cristal no se utiliza pintura en aerosol sus espaldas más de 10 años de
nocivo, lo cual reduce la cantidad de investigaciones, pero hasta ahora
CO2 liberado a la atmósfera durante sólo estaban disponibles en algunos
su fabricación. De la misma forma, el aparatos que incluyen pantallas Oled,
menor peso y el menor tamaño como cámaras de fotos, móviles,
mejora la eficiencia logística y reduce reproductores multimedia portátiles o
los materiales desechados de teclados de ordenador entre otros.
embalaje. Sin embargo, recientemente los
fabricantes han presentado algunos
Por otro lado, Samsung será la única prototipos de televisores Oled y se
marca que dispondrá de un único espera que a finales de 2007, o a
chip propietario para sus televisiones. principios de 2008, se puedan ver ya
Este chip es muy potente y rápido y en las tiendas, al menos en las de
controla todos los procesos de alta Japón.
definición del televisor. Los diodos led orgánicos (Oled por

564
sus siglas en inglés) se diferencian de
otros tipos de diodos emisores de luz
en sus componentes, que mejoran las
prestaciones de muchos de los
aspectos de otras tecnologías
aplicadas a las pantallas. El
funcionamiento de una pantalla Oled
se basa en una serie de puntos
situados sobre una superficie que se
iluminan y cambian de color en
función de la intensidad del estímulo
eléctrico que reciban.

A diferencia de las pantallas LCD, no


es necesaria una iluminación
posterior de los leds, y por tanto, la
profundidad y definición del color
negro, la ausencia de luz, ofrece unos
resultados muy superiores a otros
modelos.

La principal ventaja de las pantallas


Oled frente a otras tecnologías como
LCD es su reducido grosor (3
milímetros) y la gran calidad de
imagen que ofrece, superior al resto.
Esta tecnología permite imprimir una
matriz de leds orgánicos de forma
similar a una impresora de chorro de
VENTAJAS tinta sobre cualquier superficie, no
sólo sobre vidrio.

Esto es muy interesante desde el


momento en que permite también
obtener una gran calidad de imagen
en pantallas flexibles y podría
emplearse en el futuro en tejidos,
ropa y otros materiales. Además,
dada su capacidad para emitir luz
blanca y su bajo consumo, también
podría aplicarse para iluminación o
decoración.
Otra de las ventajas de la tecnología
Oled aplicada a las pantallas es su
menor consumo, al no requerir
iluminación trasera como las LCD,

565
pueden dar mayor un tiempo de uso tecnologías que están reemplazando
en dispositivos que funcionen con a las clásicas pantallas de TV que
baterías como las agendas PDA, aparecieron allá por 1922.
ordenadores portátiles, consolas o
teléfonos móviles. Todos hemos oído hablar de TFT,
LCD, Plasma y OLED, e incluso
combinaciones de ellas, como TFT
LCD, y muchas mas sin saber en que
se diferencian unas de otras. Con
esta guía pretendemos explicar las
ventajas e inconvenientes de estas
tecnologías, así como aclarar
conceptos.
DESVENTAJAS
TFT: En primer lugar hay que aclarar
que TFT no es una tecnología de
Desventajas Led
visualización en sí, sino que
La tecnología Oled también planteaba
simplemente se trata de un tipo
inicialmente algunos retos que los
especial de transistores con el que se
fabricantes han tenido que ir
consigue mejorar la calidad de la
superando, como las limitaciones en
imagen. Su uso más frecuente es
la vida útil de los leds, especialmente
junto con las pantallas LCD, como lo
en la obtención de colores azules.
explicaremos a continuación.
El proceso de fabricación es todavía
costoso y aunque el precio de este LCD y TFT LCD: La tecnología LCD
tipo de pantallas se irá reduciendo a utiliza moléculas de cristal líquido
medida que aumente su producción y colocadas entre diferentes capas que
puedan llegar a ser más baratas que las polarizan y las rotan según se
otros tipos, puede plantear problemas quiera mostrar un color u otro. Su
de reciclaje en el futuro, por el tipo de principal ventaja, además de su
componentes que se utilizan. reducido tamaño, es el ahorro de
energía. Cuando estas pantallas usan
Otra desventaja de la tecnología Oled transistores TFT entonces estamos
es el deterioro en que sufren sus hablando de TFT LCDs, los cuales
elementos, especialmente si se utiliza son los modelos más extendidos en
en condiciones de humedad la actualidad.
PLASMA: Al contrario que las
pantallas LCD, las pantallas de
RESUMEN DE LAS 3 PANTALLAS
plasma utilizan fósforos excitados con
ANALIZADAS
gases nobles para mostrar píxeles y
dotarles de color. Aunque se inventó
en 1964 se trata de la tecnología mas
Led,lcd,plasma: diferencias retrasada, en cuanto a nivel de
implantación, de las 3 que hemos
Desde hace algunos meses, el mencionado debido a que su precio
mercado de las pantallas se está es mas elevado (aunque cada vez la
viendo invadido por nuevas diferencia es menor) y sin embargo

566
su calidad es mucho mejor. En
concreto ofrece mayor ángulo de
visión que una pantalla LCD, mejor
contraste y más realismo entre los
colores mostrados.
OLED: Por ultimo, esta tecnología
que también tiene muy pocos años y
que poco a poco también iremos
viéndola mas constantemente. Se
trata de una variante del LED clásico,
pero donde la capa de emisión tiene
un componente orgánico.
Seguramente habrás escuchado que
las pantallas OLED tienen la ventaja
de no necesitar luz trasera, con lo
que ahorran mucha mas energía que
cualquier otra alternativa. Además, su
costo también es menor. Sin
embargo, su tiempo de uso no es tan
bueno como el de las anteriores
tecnologías que les hemos
comentado.

567
Referencias
http://www.misrespuestas.com/que-es-el-internet.html
http://www.aulapc.es/internet_lared_definicion.html
http://www.gestiopolis.com/administracion-estrategia/seguridad-transacciones-
internet-ecommerce.htm
http://www.abcpedia.com/diccionario/definicion-internet.html
http://sociedadinformacion.fundacion.telefonica.com/DYC/SHI/seccion=1188&id
ioma=es_ES&id=2009100116310136&activo=4.do?elem=6832#
http://www.configurarequipos.com/doc1028.html
http://www.maestrosdelweb.com/editorial/internethis/

Programacion en C++ , pag 14, historia de la internet.


Internet, pag 11, historia y formacion de internet.
Una panoramica de las telecomunicaciones, pag 30.
Internet y la comunicación cientifica, pag 21.

http://jlarienza.blogspot.com/2006/06/el-futuro-de-internet.html

http://www.euroresidentes.com/Blogs/internet/2004/11/el-internet-
del-futuro.htm

http://alt1040.com/2007/09/las-10-tendencias-para-el-internet-del-
futuro

http://axxon.com.ar/not/145/c-1450032.htm

http://www.cad.com.mx/historia_del_internet.htm

http://www.monografias.com/trabajos14/internet-hist/internet-
hist.shtml
http://www.tudiscovery.com/internet/interactivo.shtml

http://www.paralibros.com/passim/p20-tec/pg2058dr.htm

http://angelmaria.com/2007/09/04/libro-sobre-la-historia-de-internet-
en-espana/

http://www.ucm.es/BUCM/ghi/histor.htm

http://www.biografiasyvidas.com/biografia/e/edison.htm
http://www.blogpocket.com/2005/04/19/la-mejor-aportacin-de-albert-einstein/
http://es.wikipedia.org/wiki/Albert_Einstein
http://ciencia-explicada.blogspot.com/2009/06/einstein-su-aportacion-menos-
conocida.html
http://html.rincondelvago.com/vida-e-inventos-de-edison.html
http://aula2.el-mundo.es/aula/noticia.php/2002/11/14/aula1037207114.html
http://www.biografiasyvidas.com/monografia/leonardo/
http://www.practiciencia.com.ar/personas/varios/davinci/aportes/ciencia/index.html
http://es.wikipedia.org/wiki/Fibra_%C3%B3ptica
http://www.textoscientificos.com/redes/fibraoptica
http://guiamexico.com.mx/cableado-estructurado-y-fibra-optica/empresas-guia.html
http://www.textoscientificos.com/redes/fibraoptica1 (2005).
http://www.comoves.unam.mx/articulos/fibraoptica. Ing. José de la Herrán2
(UNAM).
http://www.teoveras.com.do/la-fibra-optica.3 (2010).
http://rtfogrupo18.blogspot.com/2008/03/el-costo-y-mantenimiento-de-la-fibra.html4
(2008).
Page1

http://www2.udec.cl/~jdupre/fibra/fibraop.html5 (2002)
Farley, Tom (2007), “The Cell-Phone Revolution”

Cortés, Ángel (2003). “30 años del primer móvil”Martín Inzaurralde, Jorge Isi,
Javier Garderes, “Funcionamiento de la telefonía celular”

Amaury E. del Valle. “Telefonía celular en Cuba. El futuro pasa por el móvil”

Ana Fernández Marcos (Abril 2004.). “Campos electromagnéticos y salud:


Información y Percepción de riesgo en la población general”

California Institute of Technology

http://www.asocel.org.co/conferencias/conferencia_3.pdf
Page1

You might also like