You are on page 1of 100

Automatización industrial

De Wikipedia, la enciclopedia libre


Saltar a navegación, búsqueda
Automatización Industrial (automatización; del griego antiguo auto: guiado por uno
mismo) es el uso de sistemas o elementos computerizados para controlar maquinarias y/o
procesos industriales sustituyendo a operadores humanos.
El alcance va más allá que la simple mecanización de los procesos ya que ésta provee a
operadores humanos mecanismos para asistirlos en los esfuerzos físicos del trabajo, la
automatización reduce ampliamente la necesidad sensorial y mental del humano. La
automatización como una disciplina de la ingeniería es más amplia que un mero sistema de
control, abarca la instrumentación industrial, que incluye los sensores y transmisores de
campo, los sistemas de control y supervisión, los sistema de transmisión y recolección de
datos y las aplicaciones de software en tiempo real para supervisar y controlar las
operaciones de plantas o procesos industriales.

Las primeras máquinas simples sustituían una forma de esfuerzo en otra forma que fueran
manejadas por el ser humano, tal como levantar un peso pesado con sistema de poleas o
con una palanca. Posteriormente las máquinas fueron capaces de sustituir formas naturales
de energía renovable, tales como el viento, mareas, o un flujo de agua por energía humana.
Los botes a vela sustituyeron a los botes de remos. Todavía después, algunas formas de
automatización fueron controlados por mecanismos de relojería o dispositivos similares
utilizando algunas formas de fuentes de poder artificiales -algún resorte, un flujo canalizado
de agua o vapor para producir acciones simples y repetitivas, tal como figuras en
movimiento, creación de música, o juegos. Dichos dispositivos caracterizaban a figuras
humanas, fueron conocidos como autómatas y datan posiblemente desde 300 AC.
En 1801, la patente de un telar automático utilizando tarjetas perforadas fue dada a Joseph
Marie Jacquard, quien revolucionó la industria del textil.
La parte más visible de la automatización actual puede ser la robótica industrial. Algunas
ventajas son repetitividad, control de calidad más estrecho, mayor eficiencia, integración
con sistemas empresariales, incremento de productividad y reducción de trabajo. Algunas
desventajas son requerimientos de un gran capital, decremento severo en la flexibilidad, y
un incremento en la dependencia del mantenimiento y reparación. Por ejemplo, Japón ha
tenido necesidad de retirar muchos de sus robots industriales cuando encontraron que eran
incapaces de adaptarse a los cambios dramáticos de los requerimientos de producción y no
eran capaces de justificar sus altos costos iniciales.
Para mediados del siglo 20, la automatización había existido por muchos años en una escala
pequeña, utilizando mecanismos simples para automatizar tareas sencillas de manufactura.
Sin embargo el concepto solamente llego a ser realmente práctico con la adición (y
evolución) de las computadoras digitales, cuya flexibilidad permitió manejar cualquier
clase de tarea. Las computadoras digitales con la combinación requerida de velocidad,
poder de computo, precio y tamaño empezaron a aparecer en la década de 1960s. Antes de
ese tiempo, las computadoras industriales era exclusivamente computadoras analógicas y
computadoras híbridas. Desde entonces las computadoras digitales tomaron el control de la
mayoría de las tareas simples, repetitivas, tareas semiespecializadas y especializadas, con
algunas excepciones notables en la producción e inspección de alimentos. Como un famoso
dicho anonimo dice, "para muchas y muy cambiantes tareas, es difícil remplazar al ser
humano, quienes son fácilmente vueltos a entrenar dentro de un amplio rango de tareas,
más aún, son producidos a bajo costo por personal sin entrenamiento."
Existen muchos trabajos donde no existe riesgo inmediato de la automatización. Ningún
dispositivo ha sido inventado que pueda competir contra el ojo humano para la precisión y
certeza en muchas tareas; tampoco el oído humano. El más inútil de los seres humanos
puede identificar y distinguir mayor cantidad de esencias que cualquier dispositivo
automático. Las habilidades para el patrón de reconocimiento humano, reconocimiento de
lenguaje y producción de lenguaje se encuentran más allá de cualquier expectativa de los
ingenieros de automatización.
Computadoras especializadas, son utilizadas para leer entradas de campo a través de
sensores y en base a su programa, generar salidas hacia el campo a través de actuadores.
Esto conduce para controlar acciones precisas que permitan un control estrecho de
cualquier proceso industrial. (Se temía que estos dispositivos fueran vulnerables al error del
año 2000, con consecuencias catastróficas, ya que son tan comunes dentro del mundo de la
industria).
Existen dos tipos distintos: DCS o Sistema de Control Distribuído, y PLC o Controlador
Lógico Programable. El primero era antiguamente orientado a procesos de tipo análogos,
mientras que el segundo se utilizaba en procesos de tipo discreto (ceros y unos).
Actualmente ambos equipos se parecen cada vez más, y cualquiera de los dos puede ser
utilizado en todo tipo de procesos.
Las interfaces Hombre-Máquina (HMI) o interfaces Hombre-Computadora (CHI),
formalmente conocidas como interfaces Hombre-Máquina, son comúnmente empleadas
para comunicarse con los PLCs y otras computadoras, para labores tales como introducir y
monitorear temperaturas o presiones para controles automáticos o respuesta a mensajes de
alarma. El personal de servicio que monitorea y controla estas interfaces son conocidos
como ingenieros de estación.
Otra forma de automatización que involucra computadoras es la prueba de automatización,
donde las computadoras controlan un equipo de prueba automático que es programado para
simular seres humanos que prueban manualmente una aplicación. Esto es acompañado por
lo general de herramientas automáticas para generar instrucciones especiales (escritas como
programas de computadora) que direccionan al equipo automático en prueba en la dirección
exacta para terminar las pruebas.

Mecatrónica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Ramas de la Ingeniería que constituyen a la mecatrónica.

La mecatrónica surge de la combinación sinérgica de distintas ramas de la ingeniería, entre


las que destacan: la mecánica de precisión, la electrónica, la informática y los sistemas de
control. Su principal propósito es el análisis y diseño de productos y de procesos de
manufactura automatizados.

Contenido
[ocultar]
• 1 Descripción
• 2 Antecedentes
• 3 Sistema Mecatrónico
• 4 Líneas de investigación
• 5 Componentes
○ 5.1 Mecanismos
○ 5.2 Actuadores
○ 5.3 Controles
○ 5.4 Sensores
• 6 Análisis y modelado
• 7 Aplicaciones
• 8 Véase también

Descripción [editar]
El término "Mecatrónica" un principio se definió como la integración de la mecánica y la
electrónica en una máquina o producto, pero luego se consolidó como una especialidad de
la ingeniería e incorporó otros elementos como los sistemas de computación, los desarrollos
de la microelectrónica, la inteligencia artificial, la teoría de control y otros relacionados con
la informática, estabilidad y alcanzabilidad. Teniendo como objetivo la optimización de los
elementos industriales a través de la optimización de cada uno de sus subprocesos con
nuevas herramientas sinérgicas.

Antecedentes [editar]
La Mecatrónica tiene como antecedentes inmediatos a la investigación en el área de
Cibernética realizada en 1936 por Turing y en 1948 por Wiener y Morthy, las máquinas de
control numérico, desarrolladas inicialmente en 1946 por Devol, los manipuladores, ya sean
teleoperados, en 1951 por Goertz, o robotizados, en 1954 por Devol, y los autómatas
programables, desarrollados por Bedford Associates en 1968.
En 1969 la empresa japonesa Yaskawa Electric Co. acuña el término Mecatrónica,
recibiendo en 1971 el derecho de marca. En 1982 Yaskawa permite el libre uso del término.
Actualmente existen diversas definiciones de Mecatrónica, dependiendo del área de interés
del proponente. En particular, la UNESCO define a la Mecatrónica como:
"La integración sinérgica de la ingeniería mecánica con la electrónica y
el control inteligente por computadora en el diseño y manufactura de
productos y procesos".

Sin embargo, una manera más interesante de definir la Mecatrónica es posible por:
"Diseño y construcción de sistemas mecánicos inteligentes".

Un sistema mecatrónico se compone principalmente de mecanismos, actuadores, control


(inteligente) y sensores. Tradicionalmente la Mecánica se ha ocupado solo de los
mecanismos y los actuadores, y opcionalmente puede incorporar control. La Mecatrónica
integra obligatoriamente el control en lazo cerrado y por lo tanto también a los sensores.

Sistema Mecatrónico [editar]


Un sistema mecatrónico es aquel sistema digital que recoge señales, las procesa y emite una
respuesta por medio de actuadores, generando movimientos o acciones sobre el sistema en
el que se va a actuar: Los sistemas mecánicos están integrados por sensores,
microprocesadores y controladores. Los robots, las máquinas controladas digitalmente, los
vehículos guiados automáticamente, etc. se deben considerar como sistemas mecatrónicos

Líneas de investigación [editar]


La investigación en el área de Mecatrónica es muy variada y una división que se propone
es: análisis, detectar los problemas de los componentes analógicos y digitales , encontrar
una solución al mismo, comportamiento de los sistemas.

Componentes [editar]
Mecanismos [editar]
En el área de mecanismos, los principales problemas son reducción de complejidad,
eliminación de mecanismos y síntesis de mecanismos mecatrónicos.
La reducción de la complejidad se refiere a reducir el número de elementos del mecanismo,
mediante el uso de control inteligente. La eliminación del mecanismo implica el uso directo
de actuadores y de controles más sofisticados. La síntesis de mecanismos mecatrónicos
consiste en utilizar actuadores directamente en el mecanismo para mejorar su movimiento;
un ejemplo de síntesis es el desarrollo de rodamientos con actuación magnética para
eliminar la fricción. Se caracteriza por una mejor caracterización del mecanismo y el diseño
por computadora.
Actuadores [editar]
Todo mecanismo requiere de una fuente de potencia para operar. Inicialmente esta fuente
de potencia fue de origen animal, posteriormente se aprovechó la fuerza generada por el
flujo de aire o agua, pasando luego a la generación de potencia con vapor, por combustión
interna y actualmente con electricidad. Si esta fuente de potencia es modulable o
controlable, se tiene un actuador. Los principales desarrollos de los actuadores en la
Mecatrónica son: manejo directo, eliminando mecanismos, utilizando actuadores
electromagnéticos, piezoeléctricos y ultrasónicos.También deben considerarse los
actuadores neumáticos u oleo-hidráulicos. Un tipo de actuadores muy utilizados son los
motores eléctricos; se han desarrollado investigaciones en nuevos modelos matemáticos,
nuevos tipos de manejadores y en nuevos tipos de control. Un tipo de actuador que se ha
utilizado mucho en nanomaquinaria son los actuadores electrostáticos.
Controles [editar]
Un área muy desarrollada en la Mecatrónica es el control. Se tienen dos tendencias
importantes: el uso de las técnicas más modernas de la teoría de control automático y el
desarrollo de controles inteligentes, que busca mejorar la percepción del medio ambiente y
obtener una mejor autonomía. Algunos de los avances más importantes en la rama del
control automático son: redes neuronales, modos deslizantes, control de sistemas a eventos
discretos, control adaptable, lógica difusa y control robusto.
Sensores [editar]
Los sensores son dispositivos que permiten medir el estado del mecanismo o del medio
ambiente. La incorporación de sensores a los mecanismos es el resultado de utilizar
controles de lazo cerrado. Un ejemplo muy desarrollado es el uso de la visión artificial, la
cual se usa para determinar la posición y la orientación del mecanismo, del ambiente o de
las herramientas, sin embargo, no siempre es posible medir directamente alguna variable se
estima su valor por medio de observadores del estado y filtros. Por otro lado, se tiene la
fusión de sensores. Un problema que se ha manejado recientemente es el desarrollo de
referenciales \emph{fijos} para determinar la posición y orientación en problemas de
navegación, siendo resuelto por medio de sistemas de posicionamiento global (GPS, por sus
siglas en inglés).

Análisis y modelado [editar]


Por análisis se entiende la obtención de una descripción o modelo de los sistemas por
métodos matemáticos y gráficos. El principal problema radica en que muchos sistemas de
control no se describen con modelos continuos, ya sea en el estado o en el tiempo; mientras
los sistemas mecánicos son modelos continuos. Este problema ha provocado el uso de
nuevas técnicas de modelado, tales como: redes neuronales, redes de Petri, lógica difusa,
onduletas, memorias asociativas, agentes cooperativos, modelos algorítmicos y modelos
lingüísticos.
Los modelos son necesarios para poder realizar síntesis de dispositivos mecatrónicos y
optimización de procesos.

Aplicaciones [editar]
En cuanto a aplicaciones, los rubros más importantes son robótica, sistemas de transporte,
sistemas de manufactura, máquinas de control numérico, nanomáquinas y biomecatrónica.
La robótica es la parte de la técnica de diseño y construcción de autómatas flexibles y
reprogramables, capaces de realizar diversas funciones. Es el nivel de automatización más
flexible y en mucho indica las tendencias futuras del resto de la mecatrónica. Las líneas de
investigación más desarrolladas son: síntesis de manipuladores y herramientas,
manipuladores de cadena cinemática cerradas, robots autónomos, robots cooperativos,
control y teleoperación asincrónicas (por medio de conexiones TCP/IP), estimación del
ambiente, comportamiento inteligente, interfaces hápticas, navegación y locomoción.
La aplicación de la Mecatrónica en el transporte se desarrolla en el diseño de mecanismos
activos (ejemplo: suspensiones activas), control de vibraciones, estabilización de
mecanismos y navegación autónoma.
En la manufactura, la Mecatrónica se ha servido de los modelos de sistemas a eventos
discretos, y los ha aplicado para el diseño óptimo de líneas de producción así como la
optimización de procesos ya existente. También ha ayudado a automatizar las líneas de
producción y generar el concepto de manufactura flexible.
Antecedentes de la Mecatrónica son las máquinas de control numérico. En este tema los
desarrollos más recientes son: análisis, detección y control de vibraciones, y temperatura,
en las herramientas de corte, diagnóstico de las herramientas de corte y prototipaje rápido,
electroerosionado y síntesis por láser.
Las nanomáquinas son un área que se han beneficiado de los desarrollos de la Mecatrónica.
Un ejemplo muy evidente es el desarrollo del disco duro. Las líneas de investigación más
manejadas son: micromanejo, microactuadores y micromaquinado.
La biomecatrónica es la aplicación de la mecatrónica para resolver problemas de sistemas
biológicos, en particular el desarrollo de nuevos tipos de prótesis, simuladores quirúrgicos,
control de posición de instrumental médico (por ejemplo catéteres), sillas de ruedas y
teleoperación quirúrgica.

Tecnología
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

La exactitud de la información de este artículo o


sección está discutida.
En la página de discusión puedes consultar el debate al
respecto.
Los desarrollos tecnológicos logrados por la humanidad le permitieron
abandonar por primera vez la superficie terrestre en la década de 1960,
iniciando así la exploración del espacio exterior.

Tecnología es el conjunto de conocimientos, ordenados científicamente, que permiten


construir objetos y máquinas para adaptar el medio y satisfacer nuestras necesidades. Es
una palabra de origen griego, τεχνολογία, formada por téchnē (τέχνη, "arte, técnica u
oficio") y logía (λογία), el estudio de algo. Aunque hay muchas tecnologías muy diferentes
entre sí, es frecuente usar el término en singular para referirse a una de ellas o al conjunto
de todas. Cuando se lo escribe con mayúscula, tecnología puede referirse tanto a la
disciplina teórica que estudia los saberes comunes a todas las tecnologías, como a
educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías
más importantes.
La actividad tecnológica influye en el progreso social y económico, pero también ha
producido el deterioro de nuestro entorno (biosfera). Las tecnologías pueden ser usadas
para proteger el medio ambiente y para evitar que las crecientes necesidades provoquen un
agotamiento o degradación de los recursos materiales y energéticos de nuestro planeta.
Evitar estos males es tarea no sólo de los gobiernos, sino de todos. Se requiere para ello una
buena enseñanza-aprendizaje de la tecnología en los estudios de enseñanza media o
secundaria y buena difusión de los problemas, diagnósticos y propuestas de solución en los
medios de comunicación social.

Contenido
[ocultar]
• 1 Definición
• 2 Funciones de las tecnologías
• 3 Diferencias entre tecnologías, técnicas, ciencias, y artes
• 4 Métodos de las tecnologías
○ 4.1 Herramientas e instrumentos
○ 4.2 Invención de artefactos
• 5 Hitos del desarrollo tecnológico
○ 5.1 Algunos hitos tecnológicos prehistóricos
○ 5.2 Algunos hitos tecnológicos históricos
• 6 Economía y tecnologías
○ 6.1 Teoría económica
○ 6.2 Industria
○ 6.3 Servicios
○ 6.4 Comercio
○ 6.5 Recursos naturales
○ 6.6 Trabajo
 6.6.1 Taylorismo
 6.6.2 Fordismo
 6.6.3 Toyotismo
 6.6.4 La desaparición y creación de puestos de trabajo
○ 6.7 Publicidad
• 7 Impactos de la tecnología
• 8 Funciones no técnicas de los productos tecnológicos
○ 8.1 Función estética de los objetos tecnológicos
○ 8.2 Función simbólica de los objetos tecnológicos[41]
• 9 Cultura y tecnologías
• 10 Medio ambiente y tecnologías
• 11 Ética y tecnologías
• 12 Tecnologías apropiadas
○ 12.1 Ejemplos de tecnologías apropiadas
• 13 Ludismo
• 14 Oficios técnicos y profesiones tecnológicas
• 15 Referencias
• 16 Bibliografía
• 17 Véase también
• 18 Enlaces externos
[editar] Definición
La versión 1992 del Diccionario de la Real Academia daba las siguientes acepciones de
tecnología:
• 1. Conjunto de los conocimientos propios de un oficio mecánico o arte
industrial. Esta acepción era incompleta porque hay tecnologías que no
corresponden a oficios mecánicos, como las informáticas. Era ambigua
porque sugería una inexistente relación entre tecnologías y artes. Era
tautológica porque las que antiguamente se denominaban artes
industriales hoy se denominan técnicas, concepto que en el habla
cotidiana es sinónimo de tecnología.
• 2. Tratado de los términos técnicos. Esta acepción se refiere sólo a la
terminología técnica, la parte verbalmente expresable de los saberes
tecnológicos.
• 3. Lenguaje propio de una ciencia o de un arte. Esta acepción es similar
a la anterior.
• 4. Conjunto de los instrumentos y procedimientos industriales de un
determinado sector o producto. Esta acepción es sólo aplicable a las
tecnologías industriales.
La versión 2006 del Diccionario de la Real Academia ha reemplazado la primera acepción
por la siguiente:
• 1. Conjunto de teorías y de técnicas que permiten el aprovechamiento
práctico del conocimiento científico. Esta acepción asimila la tecnología
a ciencia aplicada o tecno-ciencia, lo que sólo es válido para algunas
tecnologías, las basadas en saberes científicos.
Es un error común en muchas páginas Web denominar tecnología, a secas, a la tecnología
informática, la tecnología de procesamiento de información por medios artificiales, entre
los que se incluye, pero no de modo excluyente, a las computadoras/ordenadores.
En primera aproximación, una tecnología es el conjunto de saberes, destrezas y medios
necesarios para llegar a un fin predeterminado mediante el uso de objetos artificiales o
artefactos. Esta definición es todavía insuficiente porque no permite diferenciarlas de las
artes y las ciencias, para lo cual hay que analizar las funciones y finalidades de las
tecnologías.

[editar] Funciones de las tecnologías


Históricamente las tecnologías han sido usadas para satisfacer necesidades esenciales
(alimentación, vestimenta, vivienda, protección personal, relación social, comprensión del
mundo natural y social), para obtener placeres corporales y estéticos (deportes, música,
hedonismo en todas sus formas) y como medios para satisfacer deseos (simbolización de
estatus, fabricación de armas y toda la gama de medios artificiales usados para persuadir y
dominar a las personas).
A pesar de lo que afirmaban los luditas, y como el propio Marx señalara refiriéndose
específicamente a las maquinarias industriales,[1] las tecnologías no son ni buenas ni malas.
Los juicios éticos no son aplicables a las tecnologías, sino al uso que hacemos de ellas: un
arma puede usarse para matar a una persona y apropiarse de sus bienes o para salvar la vida
matando un animal salvaje que quiere convertirnos en su presa.
[editar] Diferencias entre tecnologías, técnicas, ciencias, y
artes
Ni el habla cotidiana ni los tratados técnicos establecen claramente la diferencia entre
tecnologías y técnicas. Las tecnologías simples tienden a ser llamadas técnicas (por
ejemplo, la técnica de colocación de clavos). Las tecnologías complejas usan muchas
tecnologías previas simples estableciendo una amplia gradación de complejidad en uno de
cuyos extremos están las tecnologías más complejas, como las electrónicas y las médicas, y
en el otro las técnicas, generalmente manuales y artesanales, más cercanas a la experiencia
directa de las personas como hizo notar Claude Lévi-Strauss.[2] En algún punto intermedio
desaparece o se hace borrosa la distinción entre tecnologías y técnicas. En el lenguaje
técnico es frecuente denominar tecnologías a los saberes prácticos más racionales y
transmisibles con mayor precisión (generalmente a través de textos, gráficos, tablas y
representaciones varias y complejas), mientras que a las técnicas se les asigna un carácter
más empírico que racional.
Algunas de las tecnologías actuales más importantes, como la Electrónica, consisten en la
aplicación práctica de las ciencias (en ese caso el Electromagnetismo y la Física del estado
sólido). Sin embargo, no todas las tecnologías son ciencias aplicadas. Tecnologías como la
agricultura y la ganadería precedieron a las ciencias biológicas en miles de años, y se
desarrollaron de modo empírico, por ensayo y error (y por ello con lentitud y dificultad),
sin necesidad de saberes científicos.[3] La función central de las ciencias es caracterizar bien
la realidad, aunque no sea visible o vaya contra el "sentido común": describir y categorizar
los fenómenos, explicarlos con leyes o principios lo más simples posibles y tal vez (no
siempre) predecirlos.
Las artes, por su parte, requieren de técnicas para su realización (por ejemplo: preparación
de pigmentos y su modo de aplicación en la pintura; fabricación de cinceles y martillos y
modo de fundir el bronce o tallar el mármol, en la escultura). Una diferencia central es que
las técnicas son transmisibles, es decir, pueden ser enseñadas por un maestro y aprendidas
por un aprendiz. Los aspectos más originales de las artes en general no lo son. Decimos,
justa y precisamente, que algo es un art cuando su realización requiere dotes especiales que
no podemos especificar con precisión y parecen ser innatas o propias sólo de una persona
en particular.
Una diferencia importante entre artes, ciencias y tecnologías o técnicas, es su finalidad. La
ciencia busca la verdad (buena correspondencia entre la realidad y las ideas que nos
hacemos de ella). Las artes buscan el placer que da la expresión y evocación de los
sentimientos humanos, la belleza de la formas, los sonidos y los conceptos; el placer
intelectual. Las tecnologías son medios para satisfacer las necesidades y deseos humanos.
Son funcionales, permiten resolver problemas prácticos y en el proceso de hacerlo,
transforman el mundo que nos rodea haciéndolo más previsible, crecientemente artificial y
provocando al mismo tiempo grandes consecuencias sociales y ambientales, en general no
igualmente deseables para todos los afectados.[4]

[editar] Métodos de las tecnologías


Las tecnologías usan, en general, métodos diferentes del científico, aunque la
experimentación es también usado por las ciencias. Los métodos difieren según se trate de
tecnologías de producción artesanal o industrial de artefactos, de prestación de servicios, de
realización u organización de tareas de cualquier tipo.
Un método común a todas las tecnologías de fabricación es el uso de herramientas e
instrumentos para la construcción de artefactos. Las tecnologías de prestación de servicios,
como el sistema de suministro eléctrico hacen uso de instalaciones complejas a cargo de
personal especializado.
[editar] Herramientas e instrumentos
Los principales medios para la fabricación de artefactos son la energía y la información. La
energía permite dar a los materiales la forma, ubicación y composición que están descriptas
por la información. Las primeras herramientas, como los martillos de piedra y las agujas de
hueso, sólo facilitaban la aplicación de fuerza por las personas aplicando los principios de
las máquinas simples.[5] El uso del fuego, que modifica la composición de los alimentos
haciéndolos más fácilmente digeribles, proporciona iluminación haciendo posible la
sociabilidad más allá de los horarios diurnos, proporciona calefacción y mantiene a raya a
los animales feroces, modificó tanto la apariencia como los hábitos humanos.
Las herramientas más elaboradas incorporan información en su funcionamiento, como las
pinzas pelacables que permiten cortar la vaina a la profundidad apropiada para arrancarla
con facilidad sin dañar el alma metálica. El término instrumentos, en cambio, está más
directamente asociado a las tareas de precisión, como en instrumental quirúrgico, y de
recolección de información, como en instrumentación electrónica y en instrumentos de
medición, de navegación náutica y de navegación aérea.
Las máquinas herramientas son combinaciones complejas de varias herramientas
gobernadas (actualmente mediante computadoras/ordenadores) por información obtenida
por instrumentos también incorporados en ellas.
[editar] Invención de artefactos
Aunque con grandes variantes de detalle según el objeto, su principio de funcionamiento y
los materiales usados en su construcción, las siguientes son etapas usuales en la invención
de un artefacto novedoso:
• Identificación del problema práctico a resolver: En esta etapa deben
quedar bien acotados tanto las características intrínsecas del problema,
como los factores externos que lo determinan o condicionan. El
resultado debe expresarse como una función técnica cuya expresión
mínima es la transición, llevada a cabo por el artefacto, de un estado
inicial a un estado final. Por ejemplo, en la tecnología de desalinización
del agua, el estado inicial es agua en su estado natural, el final es esa
agua ya potabilizada, y el artefacto es un desalinizador indefinido. Una
de las características críticas es la concentración de sal del agua, muy
diferente en el agua oceánica que en mares interiores como el Mar
Muerto. Los factores externos son, por ejemplo, las temperaturas
máxima y mínima del agua en las diferentes estaciones y las fuentes de
energía disponibles para la operación del desalinizador.
• Establecimiento de los requisitos que debe cumplir la solución:
Materiales admisibles; cantidad y calidad de mano de obra a usar y su
disponibilidad; costos máximos de fabricación, operación y
mantenimiento; duración mínima requerida del artefacto...
• Principio de funcionamiento: Frecuentemente hay varias maneras
diferentes de resolver un mismo problema, más o menos apropiados al
entorno natural o social. En el caso de la desalinización, el procedimiento
de congelación es especialmente apto para las regiones árticas,
mientras que el de ósmosis inversa lo es para ciudades de regiones
tropicales con amplia disponibilidad de energía eléctrica. La invención de
un nuevo principio de funcionamiento es una de las características
cruciales de la innovación tecnológica. La elección del principio de
funcionamiento, sea ya conocido o especialmente inventado, es el
requisito indispensable para la siguiente etapa, el diseño que precede a
la construcción.
• Diseño del artefacto: Mientras que en la fabricación artesanal lo usual es
omitir esta etapa y pasar directamente a la etapa siguiente de
construcción de un prototipo (método de ensayo y error), el diseño es
requisito obligatorio de todos los procesos de fabricación industrial. Este
diseño se efectúa típícamente usando saberes formalizados como los de
alguna rama de la ingeniería, efectuando cálculos matemáticos,
trazando planos de diverso tipo, eligiendo materiales de propiedades
apropiadas o haciendo ensayos cuando se las desconoce,
compatibilizando la forma de los materiales con la función a cumplir,
descomponiendo el artefacto en partes que faciliten tanto el
cumplimiento de la función como la fabricación y ensamblado...
• Simulación o construcción de un prototipo: Si el costo de fabricación de
un prototipo no es excesivamente alto (donde el tope sea
probablemente el caso de un nuevo modelo de automóvil) su fabricación
permite detectar y resolver problemas no previstos en la etapa de
diseño. Cuando el costo no lo permite, caso del desarrollo de un nuevo
tipo de avión, se usan complejos programas de simulación por
ordenador/computadora, donde un ejemplo simple es la determinación
de las características aerodinámicas usando un modelo a escala en un
túnel de viento.
Según el divulgador científico Asimov:[6]
Inventar exigía trabajar duro y pensar firme. Edison sacaba inventos por
encargo y enseñó a la gente que no eran cuestión de fortuna ni de conciliábulo
de cerebros. Porque -aunque es cierto que hoy disfrutamos del fonógrafo, del
cine, de la luz eléctrica, del teléfono y de mil cosas más que él hizo posibles o
a las que dio un valor práctico- hay que admitir que, de no haberlas inventado
él, otro lo hubiera hecho tarde o temprano: eran cosas que «flotaban en el
aire». Quizás no sean los inventos en sí lo que hay que destacar entre los
aportes de Edison a nuestras vidas. La gente creía antes que los inventos eran
golpes de suerte. El genio, decía Edison, es un uno por ciento de inspiración y
un noventa y nueve por ciento de transpiración. No, Edison hizo algo más que
inventar, y fue dar al proceso de invención un carácter de producción en masa.

Guilford, destacado estudioso de la psicología de la inteligencia,[7] identifica como las


principales destrezas de un inventor las incluidas en lo que denomina aptitudes de
producción divergente. La creatividad, facultad intelectual asociada a todas las
producciones originales, ha sido discutida por de Bono, quien la denomina pensamiento
lateral.[8] Aunque más orientado a las producciones intelectuales, el más profundo estudio
sobre la resolución de problemas cognitivos es hecho por Newell y Simon, en el
celebérrimo libro Human problem solving.[9]
Véase también: Creatividad

[editar] Hitos del desarrollo tecnológico


Artículo principal: Historia de la tecnología

[editar] Algunos hitos tecnológicos prehistóricos

Herramientas de piedra inuit.

Muchas tecnologías han sido inventadas de modo independiente en diferentes lugares y


épocas; se cita a continuación sólo la más antigua invención conocida.
• Armas y herramientas de piedra: Hechas de piedras toscamente
fracturadas, fueron usadas por los primeros homínidos hace más de
1.000.000 de años en África. Las armas permitieron el auge de la caza
de animales salvajes, ventajosa para la alimentación por su mayor
contenido en proteínas. Las herramientas facilitaron el troceado de los
animales, el trabajo del cuero, el hueso y la madera produciendo los
primeros cambios sustanciales de la forma de vida.[10]

Trilla del trigo en el Antiguo Egipto.

• Encendido de fuego: Aunque el fuego fue usado desde tiempos muy


remotos, no hay evidencias de su encendido artificial, seguramente por
fricción, hasta alrededor de 200.000 a. C. El uso del fuego permitió:
protegerse mejor de los animales salvajes, que invariablemente le
temen; prolongar las horas de trabajo útil, con el consiguiente
incremento de relación social; migrar a climas más fríos, usándolo como
calefacción para las moradas; cocinar los alimentos, haciéndolos más
fáciles de digerir y masticar. A esta última característica atribuyen
algunos antropólogos la modificación de la forma de la mandíbula
humana, menos prominente que la de los restantes primates.[11]
• Cestería: No se sabe con certeza cuando se inició, por ser un material de
fácil descomposición. Se presume que fue anterior a la alfarería y la
base de ésta cuando los canastos de fibras o varillas se recubrieron con
arcilla para impermeabilizarlos. Las cestas fueron probablemente los
primeros recipientes y medios de transporte de alimentos y otros objetos
pequeños.

Tejedora aymara del imperio incaico, según Guaman Poma.

• Alfarería: Alrededor del 8.000 a. C. (comienzos del Neolítico) en Europa.


Los hornos de alfarero fueron la base de los posteriores hornos de
fundición de metales, es decir, de la metalurgia.
• Cultivo del trigo: Alrededor del 8.500 a. C., en el Creciente Fértil. La gran
productividad de la agricultura disminuyó el tiempo empleado en las
tareas de alimentación y facilitó el almacenamiento de reservas,
permitiendo un gran aumento de la población humana. Las prácticas
agrícolas desalentaron el nomadismo, dando así origen a las ciudades,
lugar donde se produjo la división social del trabajo y el consiguiente
florecimiento de las tecnologías.[12]
• Metalurgia del cobre: Alrededor del 7.000 a. C., en Turquía.[13] El cobre
fue, en casi todas partes, el primer metal usado por encontrarse
naturalmente en estado puro. Aunque es demasiado blando para hacer
herramientas durables, las técnicas desarrolladas dieron las bases para
el uso del bronce, primero, y del hierro, después.
• Domesticación de cabras y ovejas: Alrededor del 7.000 a. C. en Anatolia
y Persia. La tecnología de domesticación de animales permitió, por
selección artificial, obtener las características más convenientes para el
uso humano (carne, grasa, leche, fibras, cerdas, cuero, cornamentas,
huesos...).[14]
Tableta con escritura cuneiforme de la colección Kirkor Minassian.

• Tejidos de fibras animales y vegetales: Hechos con telares rudimentarios


hace aproximadamente unos 5.000 años, en Anatolia, el Levante
mediterráneo y Egipto. El enorme tiempo necesario para el hilado y
tejido manual de fibras fue el gran problema que resolvió la Revolución
industrial con la invención de los telares mecánicos. Los materiales
difíciles de conseguir, como la seda, las elaboradas técnicas de teñido y
de decoración de vestimentas, hicieron de éstas símbolos de estatus
social. Este fue probablemente, junto con la disponibilidad de armas de
metal, uno de los primeros usos simbólicos de las tecnologías (riqueza e
indestructibilidad, respectivamente).
• Carro con ruedas: La más antigua representación de un carro con ruedas
es la del cuenco de Bronocice. Data de alrededor del 3.500 a. C., en la
región del Cáucaso. No se sabe con certeza si su función como arma de
guerra precedió a la de medio de transporte.
• Escritura:Alrededor del 3.300 a. C., en Sumer, la escritura cuneiforme
sobre tabletas de arcilla se usaba para llevar inventarios y controlar el
pago de impuestos.[15]
Con la invención de la escritura se inician el período histórico y los procesos sistemáticos
de transmisión de información y de análisis racional de las tecnologías, procesos cuya muy
posterior culminación sería el surgimiento de las ciencias.
[editar] Algunos hitos tecnológicos históricos
La siguiente es una breve selección de algunas tecnologías que han tenido un fuerte
impacto, muy brevemente descripto, sobre las actividades humanas.
El cuenco de Bronocice (Museo Arqueológico de Cracovia).

• Domesticación del caballo: Alrededor del 3.000 a. C., en las estepas del
sur de Eurasia. La ampliación del radio de acción y de la capacidad de
transporte, así como su eficacia como arma de guerra, produjeron
enormes modificaciones sociales en las culturas que incorporaron el
caballo (denominadas culturas ecuestres), produciendo su transición de
la vida pastorial a la guerrera.[16]
• Fabricación del vidrio: Alrededor del 3.000 a. C., en Egipto.[17] A pesar de
la sencillez de su fabricación fue inicialmente usado sólo para fabricar
vajilla, en especial copas o vasos, y objetos para el culto religioso. Su
uso en ventanas es muy posterior y fue hecho inicialmente sólo por los
ricos.
• Metalurgia del bronce: Alrededor del 4.500 a. C. en Bang Chieng
(Tailandia). Esta dura aleación de cobre y estaño proporcionó las
primeras armas y herramientas muy duras y poco frágiles.[18]

Ábaco chino tradicional.

• Ábaco: Primera calculadora mecánica, inventado con el nombre suan-


pan' en la corte del Emperador de China Hsi Ling-shi, alrededor del año
2650 a. C. El invento, contemporáneo del primer libro conocido de
aritmética, el Kieuo-chang, se atribuye al Primer Ministro Cheo'u-ly.[19]
• Metalurgia del hierro: Hay trabajos de forjado del hierro de meteoros,
pero su primera obtención por fusión de minerales fue sistemáticamente
hecha recién alrededor del 2.300 a. C. en India, Mesopotamia y Asia
Menor. Las armas y herramientas de hierro tienen resistencia y duración
muy superiores a las de piedra. Su seguramente accidental aleación con
el carbono dio origen al acero, actualmente el material de construcción
por excelencia.[20]
• Brújula: En el año 1160 se inventa en China, bajo el gobierno de los
príncipes Chou, el dispositivo fse-nan (indicador del Sur). Estaba basado
en las propiedades magnéticas del imán natural o magnetita, material
también familiar a los antiguos griegos. Fue el instrumento que permitió
la navegación fuera de la vista de las costas, es decir, de altura.[21]

Caja moderna de tipos móviles, heredera de la de Gutenberg.

• Imprenta de Gutenberg: La técnica de impresión con bloques de madera


ya era conocida por los chinos en el siglo III a. C.[22] El método era
práctico sólo para la impresión de pocos ejemplares de impresos de gran
valor, como láminas artísticas. Johannes Gensfleisch zur Laden, más
conocido como Johannes Gutenberg, desarrolló entre 1437 y 1447 un
método más durable y económico, capaz de grandes tiradas, basado en
tipos de metal fácilmente reemplazables. En la imprenta de Gutenberg
se imprimió por primera vez la Biblia, que antes debía ser
trabajosamente copiada a mano.[23] La generalización de la imprenta
abrió el camino de la Reforma Protestante, divulgó saberes antes
reservados sólo para grupos selectos y sentó las bases de la sociedad de
la información en la que hoy vivimos.
Los "huesos" de Napier.

• Regla de cálculo: Año 1594, Escocia (Gran Bretaña). John Napier o Neper
inventa reglillas calibradas de modo logarítmico para reducir las
multiplicaciones y divisiones a sumas y restas. La regla de cálculo y el
ábaco (que la precedió en varios siglos) fueron los primeros dispositivos
mecánicos de cálculo numérico.]].[24]
• Telar automático: En 1725 el francés Basile Bouchon construye el primer
telar donde se controlan los hilos de la urdimbre con cintas de papel
perforadas, permitiendo repetir complejos diseños sin errores. En 1728,
en Lyon, el tejedor de seda francés Falcon perfecciona el telar de
Bouchon reemplazando las frágiles cintas de papel por tarjetas
perforadas de cartón. El hábil ingeniero francés Jacques Vaucanson
perfecciona poco después el dispositivo, pero es aún demasiado
complejo para ser práctico. En 1807 el francés Joseph-Marie Jacquard
construye un telar práctico totalmente automático. Nació así el primer
dispositivo mecánico completamente programable, remoto antecesor de
las modernas computadoras.[25]

Máquina de vapor de Watt en la Escuela Técnica Superior de Ingenieros


Industriales de la Universidad Politécnica de Madrid.

• Máquina de vapor: Entre 1765 y 1784 el ingeniero escocés James Watt


perfeccionó la máquina de vapor inventada por Thomas Newcomen para
el desagote de las minas de carbón.[26] La potencia y eficiencia de sus
máquinas permitieron su uso por George Stephenson para propulsar la
primera locomotora de vapor.[27] La máquina a vapor permitió la
instalación de grandes telares mecánicos en lugares donde no se
disponía de energía hidráulica; también disminuyó drásticamente los
tiempos de navegación de los barcos movidos por ruedas de paletas y
hélices.
• Vacuna contra la viruela. En 1796 Edward Jenner inventó la primera
vacuna al inyectar a un niño de ocho años una variante benigna de la
viruela humana, la viruela vacuna. Sus investigaciones iniciaron el
método inmunológico de protección contra enfermedades infecciosas
que luego continuaría Louis Pasteur. Junto con el descubrimiento de los
microorganismos y los medicamentos, es uno de los hitos de las
tecnologías médicas.[28]
• Celuloide: En 1860 el químico estadounidense John Wesley Hyatt inventó
el primer plástico artificial (la madera, el cuero y el caucho, por ejemplo,
son plásticos naturales), un nitrato de celulosa denominado celuloide. A
partir de ese momento se multiplicó la invención de materiales plásticos,
los más usados hoy junto con los metales. La facilidad con que se les
puede dar las formas, colores y texturas más variadas, los hace
materiales irremplazable en la fabricación de artefactos de todo tipo.[29]
• Dínamo: Werner von Siemens pone a punto en 1867 (Alemania), el
primer dispositivo capaz de generar industrialmente corrientes eléctricas
(alternas) a partir de trabajo mecánico. La invención de las dínamos
permitió la construcción de usinas eléctricas con la consiguiente
generalización del uso de la electricidad como fuente de luz y potencia
domiciliaria.[22]

Versión moderna del motor de cuatro tiempos de Otto.

• Motor de combustión interna: Nikolaus August Otto estableció en 1861 el


principio de funcionamiento de los motores de cuatro tiempos. En 1876
su invento fue patentado por la fábrica Deutz donde trabajaba, luego
revocada por existir un invento similar anterior deAlphonse Beau de
Rochas, desarrollado independientemente del de Otto.[30] ,[31] La
generalización de los motores de combustión interna alimentados con
destilados del petróleo revolucionó el transporte de pasajeros y de
cargas por tierra, agua y aire, la industria y las construcciones de todo
tipo. Es, al mismo tiempo, el principal responsable de la contaminación
del aire de las grandes ciudades.
• Transistor. Los estudios teóricos de Julius Lilienfeld sentaron las bases de
la comprensión del comportamiento eléctrico de los materiales
semiconductores.[32] En 1939 Walter Schottky describió el efecto de las
uniones PN de semiconductores deliberadamente impurificadas,
terminando de sentar las bases teóricas para la invención del transistor.
En 1948, tras 20 años de investigaciones, John Bardeen, Walter House
Brattain y William Shockley construyeron el primer prototipo operativo
del transistor en los laboratorios de la empresa Bell. El dispositivo
reemplazó pronto a al tríodo, hasta entonces usado para modular y
amplificar corrientes eléctricas, debido a su pequeño tamaño y consumo,
y al bajo costo de su fabricación en masa. El transistor y otros
componentes derivados de él, como los fototransistores, revolucionaron
la electrónica, miniaturizándola y haciéndola portátil, es decir, utilizable
en cualquier lugar.[33]

[editar] Economía y tecnologías


Las tecnologías, aunque no son objeto específico de estudio de la Economía, han sido a lo
largo de toda la historia y son actualmente parte imprescindible de los procesos
económicos, es decir, de la producción e intercambio de cualquier tipo de bienes y
servicios. Desde el punto de vista de los productores de bienes y de los prestadores de
servicios, las tecnologías son el medio indispensable para obtener renta. Desde el punto de
vista de los consumidores, las tecnologías les permiten obtener mejores bienes y servicios,
usualmente (pero no siempre) más baratos que los equivalentes del pasado. Desde el punto
de vista de los trabajadores, las tecnologías disminuyen los puestos de trabajo al
reemplazarlos crecientemente con máquinas. Estas complejas y conflictivas características
de las tecnologías requieren estudios y diagnósticos, pero fundamentalmente soluciones
políticas mediante la adecuada regulación de la distribución de las ganancias que generan.
Archivo:Joseph Alois Schumpeter.jpg

Joseph Alois Schumpeter.

[editar] Teoría económica


Artículo principal: Microeconomía

La mayoría de las teorías económicas da por sentada la disponibilidad de las tecnologías.


Schumpeter es uno de los pocos economistas que asignó a las tecnologías un rol central en
los fenómenos económicos. En sus obras señala que los modelos clásicos de la economía
no pueden explicar los ciclos periódicos de expansión y depresión, como los de Kondratiev,
que son la regla más que la excepción. El origen de estos ciclos, según Schumpeter, es la
aparición de innovaciones tecnológicas significativas (como la introducción de la
iluminación eléctrica domiciliaria por Edison o la del automóvil económico por Ford) que
generan una fase de expansión económica. La posterior saturación del mercado y la
aparición de empresarios competidores cuando desaparece el monopolio temporario que da
la innovación, conducen a la siguiente fase de depresión. El término empresario
schumpeteriano es hoy corrientemente usado para designar a los empresarios innovadores
que hacen crecer su industria gracias a su creatividad, capacidad organizativa y mejoras de
eficiencia.[34]
[editar] Industria
Artículo principal: Industria

Brazo robot soldador

La producción de bienes requiere la recolección, fabricación o generación de todos sus


insumos. La obtención de la materia prima inorgánica requiere las tecnologías mineras La
materia prima orgánica (alimentos, fibras textiles...) requiere de tecnologías agrícolas y
ganaderas. Para obtener los productos finales la materia prima debe ser procesada en
instalaciones industriales de muy variado tamaño y tipo, donde se ponen en juego toda
clase de tecnologías, incluida la imprescindible generación de energía.
Véase también: Industria agroalimentaria y industria automotriz

[editar] Servicios
Artículo principal: Servicio

Hasta los servicios personales requieren de las tecnologías para su buena prestación. Las
ropas de trabajo, los útiles, los edificios donde se trabaja, los medios de comunicación y
registro de información son productos tecnológicos. Servicios esenciales como la provisión
de agua potable, tecnologías sanitarias, electricidad, eliminación de residuos, barrido y
limpieza de calles, mantenimiento de carreteras, teléfonos, gas natural, radio, televisión...
no podrían brindarse sin el uso intensivo de múltiples tecnologías.
Las tecnologías de las telecomunicaciones, en particular, han experimentado enormes
progresos a partir de la instalación en órbita de los primeros satélites de comunicaciones,
del aumento de velocidad, memoria y disminución de tamaño de las/los
computadoras/ordenadores, de la miniaturización de circuitos electrónicos (circuitos
integrados, de la invención de los teléfonos celulares. Esto permite comunicaciones casi
instantáneas entre dos puntos cualesquiera del planeta, pero la mayor parte de la población
todavía no tiene acceso a ellas.
[editar] Comercio
Artículo principal: Comercio

El comercio moderno, medio principal de intercambio de mercancías (productos


tecnológicos), no podría llevarse a cabo sin las tecnologías del transporte fluvial, marítimo,
terrestre y aéreo. Estas tecnologías incluyen tanto los medios de transporte (barcos,
automotores, aviones...), como también las vías de transporte y todas las instalaciones y
servicios necesarios para su eficaz realización: puertos, grúas de carga y descarga,
carreteras, puentes, aeródromos, radares, combustibles... El valor de los fletes,
consecuencia directa de la eficiencia de las tecnologías de transporte usadas, ha sido desde
tiempos remotos y sigue siendo hoy uno de los principales condicionantes del comercio.
[editar] Recursos naturales
Artículo principal: Recurso natural

Un país con grandes recursos naturales será pobre si no tiene las tecnologías necesarias para
su ventajosa explotación, lo que requiere una enorme gama de tecnologías de
infraestructura y servicios esenciales. Asimismo, un país con grandes recursos naturales
bien explotados tendrá una población pobre si la distribución de ingresos no permite a ésta
un acceso adecuado a las tecnologías imprescindibles para la satisfacción de sus
necesidades básicas. En la actual economía capitalista, el único bien de cambio que tiene la
mayoría de las personas para la adquisición de los productos y servicios necesarios para su
supervivencia es su trabajo. La disponibilidad de trabajo, condicionada por las tecnologías,
es hoy una necesidad humana esencial.
[editar] Trabajo
Si bien las técnicas y tecnologías también son parte esencial del trabajo artesanal, el trabajo
fabril introdujo variantes tanto desde el punto de vista del tipo y propiedad de los medios de
producción, como de la organización y realización del trabajo de producción. El alto costo
de las máquinas usadas en los procesos de fabricación masiva, origen del capitalismo, tuvo
como consecuencia que el trabajador perdiera la propiedad, y por ende el control, de los
medios de producción de los productos que fabricaba.[35] Perdió también el control de su
modo de trabajar, de lo que es máximo exponente el taylorismo.
[editar] Taylorismo
Artículo principal: Taylorismo

Según Frederick W. Taylor, la organización del trabajo fabril debía eliminar tanto los
movimientos inútiles de los trabajadores —por ser consumo innecesario de energía y de
tiempo— como los tiempos muertos —aquellos en que el obrero estaba ocioso. Esta
"organización científica del trabajo", como se la llamó en su época, disminuía la incidencia
de la mano de obra en el costo de las manufacturas industriales, aumentando su
productividad. Aunque la idea parecía razonable , no tenía en cuenta las necesidades de los
obreros y fue llevada a límites extremos por los empresarios industriales. La reducción de
las tareas a movimientos lo más sencillos posibles se usó para disminuir las destrezas
necesarias para el trabajo, transferidas a máquinas, reduciendo en consecuencia los salarios
y aumentando la inversión de capital y lo que Karl Marx denominó la plusvalía. Este
exceso de especialización hizo que el obrero perdiera la satisfacción de su trabajo, ya que la
mayoría de ellos nunca veía el producto terminado. Asimismo, llevada al extremo, la
repetición monótona de movimientos generaba distracción, accidentes, mayor ausentismo
laboral y pérdida de calidad del trabajo.[36] Las tendencias contemporáneas, una de cuyas
expresiones es el toyotismo, son de favorecer la iniciativa personal y la participación en
etapas variadas del proceso productivo (flexibilización laboral), con el consiguiente
aumento de satisfacción, rendimiento y compromiso personal en la tarea.
[editar] Fordismo
Artículo principal: Fordismo

Henry Ford, el primer fabricante de automóviles que puso sus precios al alcance de un
obrero calificado, logró reducir sus costos de producción gracias a una rigurosa
organización del trabajo industrial. Su herramienta principal fue la cadena de montaje que
reemplazó el desplazamiento del obrero en busca de las piezas al desplazamiento de éstas
hasta el puesto fijo del obrero. La disminución del costo del producto se hizo a costa de la
transformación del trabajo industrial en una sencilla tarea repetitiva, que resultaba
agotadora por su ritmo indeclinable y su monotonía. La metodología fue satirizado por el
actor y director inglés Charles Chaplin en su clásico film Tiempos modernos y hoy estas
tareas son hechas por robots industriales.
La técnica de producción en serie de grandes cantidades de productos idénticos para
disminuir su precio está perdiendo gradualmente validez a medida que las maquinarias
industriales son crecientemente controladas por computadoras que permiten variar con bajo
costo las características de los productos. Éste es, por ejemplo, el caso del corte de prendas
de vestir, aunque siguen siendo mayoritariamente cosidas por costureras con la ayuda de
máquinas de coser individuales en puestos fijos de trabajo.[36]
[editar] Toyotismo
Artículo principal: Toyotismo

El toyotismo, cuyo nombre proviene de la fábrica de automóviles Toyota, su creadora,


modifica las características negativas del fordismo. Se basa en la flexibilidad laboral, el
fomento del trabajo en equipo y la participación del obrero en las decisiones productivas.
Desde el punto de vista de los insumos, disminuye el costo de mantenimiento de
inventarios ociosos mediante el sistema just in time, donde los componentes son provistos
en el momento en que se necesitan para la fabricación. Aunque mantiene la producción en
cadena, reemplaza las tareas repetitivas más agobiantes, como la soldadura de chasis, con
robots industriales.[37]
[editar] La desaparición y creación de puestos de trabajo
Uno de los instrumentos de que dispone la Economía para la detección de los puestos de
trabajos eliminados o generados por las innovaciones tecnológicas es la matriz insumo-
producto (en inglés, input-output matrix) desarrollada por el economista Wassily Leontief,
cuyo uso por los gobiernos recién empieza a difundirse.[38] La tendencia histórica es la
disminución de los puestos de trabajo en los sectores económicos primarios ( agricultura,
ganadería, pesca, silvicultura) y secundarios (minería, industria, energía y construcción) y
su aumento en los terciarios (transporte, comunicaciones, servicios, comercio, turismo,
educación, finanzas, administración, sanidad). Esto plantea la necesidad de medidas rápidas
de los gobiernos en reubicación de mano de obra, con la previa e indispensable
capacitación laboral.
[editar] Publicidad
La mayoría de los productos tecnológicos se hacen con fines de lucro y su publicidad es
crucial para su exitosa comercialización. La publicidad -que usa recursos tecnológicos
como la imprenta, la radio y la televisión- es el principal medio por el que los fabricantes de
bienes y los proveedores de servicios dan a conocer sus productos a los consumidores
potenciales.
Idealmente la función técnica de la publicidad es la descripción de las propiedades del
producto, para que los interesados puedan conocer cuan bien satisfará sus necesidades
prácticas y si su costo está o no a su alcance. Esta función práctica se pone claramente de
manifiesto sólo en la publicidad de productos innovadores cuyas características es
imprescindible dar a conocer para poder venderlos. Sin embargo, usualmente no se informa
al usuario de la duración estimada de los artefactos o el tiempo de mantenimiento y los
costos secundarios del uso de los servicios, factores cruciales para una elección racional
entre alternativas similares.
Son particularmente engañosas las publicidades de sustancias que proporcionan alguna
forma de placer, como los cigarrillos y el vino. En algunos países, el alto costo que causan
en servicios de salud o de atención de accidentes, hizo que se obligara a advertir en sus
envases los riesgos que acarrea su consumo. Sus abundantes publicidades, aunque lleven la
advertencia en letra chica, nunca mencionan la función técnica de estos productos de
cambiar la percepción de la realidad; centran en cambio sus mensajes en asociar su
consumo con el placer, el éxito y el prestigio.

[editar] Impactos de la tecnología

¿Somos lo que producimos? (óleo de Giuseppe Arcimboldo, circa 1563).

La elección, desarrollo y uso de tecnologías puede tener impactos muy variados en todos
los órdenes del quehacer humano y sobre la naturaleza. Uno de los primeros investigadores
del tema fue McLuhan, quien planteó las siguientes cuatro preguntas a contestar sobre cada
tecnología particular:[39]
• ¿Qué genera, crea o posibilita?
• ¿Qué preserva o aumenta?
• ¿Qué recupera o revaloriza?
• ¿Qué reemplaza o deja obsoleto?
Este cuestionario puede ampliarse para ayudar a identificar mejor los impactos, positivos o
negativos, de cada actividad tecnológica tanto sobre las personas como sobre su cultura, su
sociedad y el medio ambiente:[40]
• Impacto práctico: ¿Para qué sirve? ¿Qué permite hacer que sin ella
sería imposible? ¿Qué facilita?
• Impacto simbólico: ¿Qué simboliza o representa? ¿Qué connota?
• Impacto tecnológico: ¿Qué objetos o saberes técnicos preexistentes lo
hacen posible? ¿Qué reemplaza o deja obsoleto? ¿Qué disminuye o hace
menos probable? ¿Qué recupera o revaloriza? ¿Qué obstáculos al
desarrollo de otras tecnologías elimina?
• Impacto ambiental: ¿El uso de qué recursos aumenta, disminuye o
reemplaza? ¿Qué residuos o emanaciones produce? ¿Qué efectos tiene
sobre la vida animal y vegetal?
• Impacto ético: ¿Qué necesidad humana básica permite satisfacer
mejor? ¿Qué deseos genera o potencia? ¿Qué daños reversibles o
irreversibles causa? ¿Qué alternativas más beneficiosas existen?
• Impacto epistemológico: ¿Qué conocimientos previos cuestiona? ¿Qué
nuevos campos de conocimiento abre o potencia?

[editar] Funciones no técnicas de los productos


tecnológicos
Después de un tiempo, las características novedosas de los productos tecnológicos son
copiadas por otras marcas y dejan de ser un buen argumento de venta. Toman entonces gran
importancia las creencias del consumidor sobre otras características independientes de su
función principal, como las estéticas y simbólicas.
[editar] Función estética de los objetos tecnológicos
Más allá de la indispensable adecuación entre forma y función técnica, se busca la belleza a
través de las formas, colores y texturas. Entre dos productos de iguales prestaciones
técnicas y precios, cualquier usuario elegirá seguramente al que encuentre más bello. A
veces, caso de las prendas de vestir, la belleza puede primar sobre las consideraciones
prácticas. Frecuentemente compramos ropa bonita aunque sepamos que sus ocultos detalles
de confección no son óptimos, o que su duración será breve debido a los materiales usados.
Las ropas son el rubro tecnólogico de máxima venta en el planeta porque son la cara que
mostramos a las demás personas y condicionan la manera en que nos relacionamos con
ellas.
[editar] Función simbólica de los objetos tecnológicos[41]
Cuando la función principal de los objetos tecnológicos es la simbólica, no satisfacen las
necesidades básicas de las personas y se convierten en medios para establecer estatus social
y relaciones de poder.
Las joyas hechas de metales y piedras preciosas no impactan tanto por su belleza (muchas
veces comparable al de una imitación barata) como por ser claros indicadores de la riqueza
de sus dueños. Las ropas costosas de primera marca han sido tradicionalmente indicadores
del estatus social de sus portadores. En la América colonial, por ejemplo, se castigaba con
azotes al esclavo o liberto africano que usaba ropas españolas por pretender ser lo que no
es.
El caso más destacado y frecuente de objetos tecnológicos fabricados por su función
simbólica es el de los grandes edificios: catedrales, palacios, rascacielos gigantes. Están
diseñados para empequeñecer a los que están en su interior (caso de los amplios atrios y
altísimos techos de las catedrales), deslumbrar con exhibiciones de lujo (caso de los
palacios), infundir asombro y humildad (caso de los grandes rascacielos). No es casual que
los terroristas del 11 de septiembre de 2001 eligieran como blanco principal de sus ataques
a las Torres Gemelas de Nueva York, sede de la Organización Mundial de Comercio y
símbolo del principal centro del poderío económico estadounidense.
El Proyecto Apolo fue lanzado por el Presidente John F. Kennedy en el clímax de la Guerra
Fría, cuando EEUU estaba aparentemente perdiendo la carrera espacial frente a los rusos,
para demostrar al mundo la inteligencia, riqueza, poderío y capacidad tecnológica de los
EEUU. Con las pirámides de Egipto, es el más costoso ejemplo del uso simbólico de las
tecnologías.

[editar] Cultura y tecnologías

Preguntas de McLuhan sobre el impacto cultural de una tecnología.

Cada cultura distribuye de modo diferente la realización de las funciones y el usufructo de


sus beneficios. Como la introducción de nuevas tecnologías modifica y reemplaza
funciones humanas, cuando los cambios son suficientemente generalizados puede modificar
también las relaciones humanas, generando un nuevo orden social. Las tecnologías no son
independientes de la cultura, integran con ella un sistema socio-técnico inseparable. Las
tecnologías disponibles en una cultura condicionan su forma de organización, así como la
cosmovisión de una cultura condiciona las tecnologías que está dispuesta a usar.
En su libro Los orígenes de la civilización el historiado Vere Gordon Childe ha
desarrollado detalladamente la estrecha vinculación entre la evolución tecnológica y la
social de las culturas occidentales, desde sus orígenes prehistóricos. Marshall McLuhan ha
hecho lo propio para la época contemporánea en el campo más restringido de las
tecnologías de las telecomunicaciones.[42]

[editar] Medio ambiente y tecnologías


La principal finalidad de las tecnologías es transformar el entorno humano (natural y
social), para adaptarlo mejor a las necesidades y deseos humanos. En ese proceso se usan
recursos naturales (terreno, aire, agua, materiales, fuentes de energía...) y personas que
proveen la información, mano de obra y mercado para las actividades tecnológicas.
El principal ejemplo de transformación del medio ambiente natural son las ciudades,
construcciones completamente artificiales por donde circulan productos naturales como aire
y agua, que son contaminados durante su uso. La tendencia, aparentemente irreversible, es
la urbanización total del planeta. Se estima que en el transcurso de 2008 la población
mundial urbana superará a la rural por primera vez en la historia.[43] [44] Esto ya ha sucedido
en el siglo XX para los países más industrializados. En casi todos los países la cantidad de
ciudades está en continuo crecimiento y la población de la gran mayoría de ellas está en
continuo aumento. La razón es que las ciudades proveen mayor cantidad de servicios
esenciales, puestos de trabajo, comercios, seguridad personal, diversiones y acceso a los
servicios de salud y educación.
Además del creciente reemplazo de los ambientes naturales (cuya preservación en casos
particularmente deseables ha obligado a la creación de parques y reservas naturales), la
extracción de ellos de materiales o su contaminación por el uso humano, está generando
problemas de difícil reversión. Cuando esta extracción o contaminación excede la
capacidad natural de reposición o regeneración, las consecuencias pueden ser muy graves.
Son ejemplos:
• La deforestación.
• La contaminación de los suelos, las aguas y la atmósfera.
• El calentamiento global.
• La reducción de la capa de ozono.
• Las lluvias ácidas.
• La extinción de especies animales y vegetales.
• La desertificación por el uso de malas prácticas agrícolas y ganaderas.
Se pueden mitigar los efectos que las tecnologías producen sobre el medio ambiente
estudiando los impactos ambientales que tendrá una obra antes de su ejecución, sea ésta la
construcción de un caminito en la ladera de una montaña o la instalación de una gran
fábrica de papel a la vera de un río. En muchos países estos estudios son obligatorios y
deben tomarse recaudos para minimizar los impactos negativos (rara vez pueden eliminarse
por completo) sobre el ambiente natural y maximizar (si existen) los impactos positivos
(caso de obras para la prevención de aludes o inundaciones).
Para eliminar completamente los impactos ambientales negativos no debe tomarse de la
naturaleza o incorporar a ella más de los que es capaz de reponer, o eliminar por sí misma.
Por ejemplo, si se tala un árbol se debe plantar al menos uno; si se arrojan residuos
orgánicos a un río, la cantidad no debe exceder su capacidad natural de degradación. Esto
implica un costo adicional que debe ser provisto por la sociedad, transformando los que
actualmente son costos externos de las actividades humanas (es decir, costos que no paga el
causante, por ejemplo los industriales, sino otras personas) en costos internos de las
actividades responsables del impacto negativo. De lo contrario se generan problemas que
deberán ser resueltos por nuestros descendientes, con el grave riesgo de que en el
transcurso del tiempo se transformen en problemas insolubles.
El concepto de desarrollo sustentable o sostenible tiene metas más modestas que el
probablemente inalcanzable impacto ambiental nulo. Su expectativa es permitir satisfacer
las necesidades básicas, no suntuarias, de las generaciones presentes sin afectar de manera
irreversible la capacidad de las generaciones futuras de hacer lo propio. Además del uso
moderado y racional de los recursos naturales, esto requiere el uso de tecnologías
específicamente diseñadas para la conservación y protección del medio ambiente.

[editar] Ética y tecnologías


Cuando el lucro es la finalidad principal de las actividades tecnológicas, caso ampliamente
mayoritario, el resultado inevitable es considerar a las personas como mercaderías.
Cuando hay seres vivos involucrados (animales de laboratorio y personas), caso de las
tecnologías médicas, la experimentación tecnológica tiene restricciones éticas inexistentes
para la materia inanimada.
Las consideraciones morales rara vez entran en juego para las tecnologías militares, y
aunque existen acuerdos internacionales limitadores de las acciones admisibles para la
guerra, como la Convención de Ginebra, estos acuerdos son frecuentemente violados por
los países con argumentos de supervivencia y hasta de mera seguridad.

[editar] Tecnologías apropiadas


Se considera que una tecnología es apropiada cuando tiene efectos beneficiosos sobre las
personas y el medio ambiente. Aunque el tema es hoy (y probablemente seguirá siéndolo
por mucho tiempo) objeto de intenso debate, hay acuerdo bastante amplio sobre las
principales características que una tecnología debe tener para ser social y ambientalmente
apropiada:[45]
• No causar daño previsible a las personas ni daño innecesario a las
restantes formas de vida (animales y plantas).
• No comprometer de modo irrecuperable el patrimonio natural de las
futuras generaciones.
• Mejorar las condiciones básicas de vida de todas las personas,
independientemente de su poder adquisitivo.
• No ser coercitiva y respetar los derechos y posibilidades de elección de
sus usuarios voluntarios y de sus sujetos involuntarios.
• No tener efectos generalizados irreversibles, aunque estos parezcan a
primera vista ser beneficiosos o neutros.
• La inversión de los gobiernos en tecnologías apropiadas debe priorizar
de modo absoluto la satisfacción de las necesidades humanas básicas de
alimentación, vestimenta, vivienda, salud, educación, seguridad
personal, participación social, trabajo y transporte.
Los conceptos tecnologías apropiadas y tecnologías de punta son completamente
diferentes. Las tecnologías de punta, término publicitario que enfatiza la innovación, son
usualmente tecnologías complejas que hacen uso de muchas otras tecnologías más simples.
Las tecnologías apropiadas frecuentemente, aunque no siempre, usan saberes propios de la
cultura (generalmente artesanales) y materias primas fácilmente obtenibles en el ambiente
natural donde se aplican.[46] Algunos autores acuñaron el término tecnologías intermedias
para designar a las tecnologías que comparten características de las apropiadas y de las
industriales.
[editar] Ejemplos de tecnologías apropiadas
• La bioconstrucción o construcción de viviendas con materiales locales,
como el adobe, con diseños sencillos pero que garanticen la estabilidad
de la construcción, la higiene de las instalaciones, la protección contra
las variaciones normales del clima y un bajo costo de mantenimiento,
actividad tecnológica frecuentemente descuidada.[47]
• La letrina abonera seca es una manera higiénica de disponer de los
excrementos humanos y transformarlos en abono sin uso de agua. Es
una tecnología apropiada para ambientes donde el agua es escasa o no
se puede depurar su carga orgánica con facilidad y seguridad.[48]

[editar] Ludismo
El ludismo o luddismo, denominado así por un no se sabe si real o imaginario personaje
destructor de máquinas en la Inglaterra de la Revolución industrial, Ned Ludd, es la
ideología que atribuye a los dispositivos tecnológicos ser la causa de muchos males de la
sociedad moderna. Los luditas consideran que las máquinas quitan puestos de trabajo a las
personas, las alejan de la sana vida natural y destruyen el medio ambiente. Uno de los más
notorios luditas contemporáneos fue Theodore John Kaczynski, el Unabomber, quien mató
e hirió a muchos tecnólogos usando cartas bomba.
Los luditas no diferencian entre las tecnologías y las finalidades para las que son usadas,
englobándolas a todas en la misma categoría. Consideran así, tal vez sin expresarlo
verbalmente, que las tecnologías médicas, que salvan anualmente centenares de millones de
vidas, no tienen diferencias esenciales con las tecnologías de la guerra, que matan a
centenares de miles de personas en el mismo lapso. Este sincretismo elude u oscurece la
necesaria discusión de la concordancia ética entre medios y fines que es la base de los
imperativos categóricos kantianos.
Las elecciones a steward de la Fundación Wikimedia para el [Contraer]
[Ayúdanos
2010 han comenzado. Vota por favor. traduciendo.]

Historia de la electricidad
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Un fragmento de ámbar como el que pudo utilizar Tales de Mileto en su
experimentación del efecto triboeléctrico. El nombre en griego de este material
(ελεκτρον, elektron) se utilizó para nombrar al fenómeno y la ciencia que lo
estudia, a partir del libro De Magnete, Magneticisque Corporibus, et de Magno
Magnete Tellure, de William Gilbert (1600).

Grabado mostrando la teoría del galvanismo según los experimentos de Luigi


Galvani. De viribus electricitatis in motu musculari commentarius, 1792.

La historia de la electricidad se refiere al estudio y uso humano de la electricidad, al


descubrimiento de sus leyes como fenómeno físico y a la invención de artefactos para su
uso práctico.
El fenómeno en sí, fuera de su relación con el observador humano, no tiene historia; y si se
la considerase como parte de la historia natural, tendría tanta como el tiempo, el espacio, la
materia y la energía. Como también se denomina electricidad a la rama de la ciencia que
estudia el fenómeno y a la rama de la tecnología que lo aplica, la historia de la electricidad
es la rama de la historia de la ciencia y de la historia de la tecnología que se ocupa de su
surgimiento y evolución.
Uno de sus hitos iniciales puede situarse hacia el año 600 a. C., cuando el filósofo griego
Tales de Mileto observó que frotando una varilla de ámbar con una piel o con lana, se
obtenían pequeñas cargas (efecto triboeléctrico) que atraían pequeños objetos, y frotando
mucho tiempo podía causar la aparición de una chispa. Cerca de la antigua ciudad griega de
Magnesia se encontraban las denominadas piedras de Magnesia, que incluían magnetita.
Los antiguos griegos observaron que los trozos de este material se atraían entre sí, y
también a pequeños objetos de hierro. Las palabras magneto (equivalente en español a
imán) y magnetismo derivan de ese topónimo.
La electricidad evolucionó históricamente desde la simple percepción del fenómeno, a su
tratamiento científico, que no se haría sistemático hasta el siglo XVIII. Se registraron a lo
largo de la Edad Antigua y Media otras observaciones aisladas y simples especulaciones,
así como intuiciones médicas (uso de peces eléctricos en enfermedades como la gota y el
dolor de cabeza) referidas por autores como Plinio el Viejo y Escribonio Largo,[1] u objetos
arqueológicos de interpretación discutible, como la Batería de Bagdad,[2] un objeto
encontrado en Iraq en 1938, fechado alrededor de 250 a. C., que se asemeja a una celda
electroquímica. No se han encontrado documentos que evidencien su utilización, aunque
hay otras descripciones anacrónicas de dispositivos eléctricos en muros egipcios y escritos
antiguos.
Esas especulaciones y registros fragmentarios son el tratamiento casi exclusivo (con la
notable excepción del uso del magnetismo para la brújula) que hay desde la Antigüedad
hasta la Revolución científica del siglo XVII; aunque todavía entonces pasa a ser poco más
que un espectáculo para exhibir en los salones. Las primeras aportaciones que pueden
entenderse como aproximaciones sucesivas al fenómeno eléctrico fueron realizadas por
investigadores sistemáticos como William Gilbert, Otto von Guericke, Du Fay, Pieter van
Musschenbroek (botella de Leyden) o William Watson. Las observaciones sometidas a
método científico empiezan a dar sus frutos con Luigi Galvani, Alessandro Volta, Charles-
Augustin de Coulomb o Benjamin Franklin, proseguidas a comienzos del siglo XIX por
André-Marie Ampère, Michael Faraday o Georg Ohm. Los nombres de estos pioneros
terminaron bautizando las unidades hoy utilizadas en la medida de las distintas magnitudes
del fenómeno. La comprensión final de la electricidad se logró recién con su unificación
con el magnetismo en un único fenómeno electromagnético descrito por las ecuaciones de
Maxwell (1861-1865).
El telégrafo eléctrico (Samuel Morse, 1833, precedido por Gauss y Weber, 1822) puede
considerarse como la primera gran aplicación en el campo de las telecomunicaciones, pero
no será en la primera revolución industrial, sino a partir del cuarto final del siglo XIX
cuando las aplicaciones económicas de la electricidad la convertirán en una de las fuerzas
motrices de la segunda revolución industrial. Más que de grandes teóricos como Lord
Kelvin, fue el momento de ingenieros, como Zénobe Gramme, Nikola Tesla, Frank
Sprague, George Westinghouse, Ernst Werner von Siemens, Alexander Graham Bell y
sobre todo Thomas Alva Edison y su revolucionaria manera de entender la relación entre
investigación científico-técnica y mercado capitalista. Los sucesivos cambios de paradigma
de la primera mitad del siglo XX (relativista y cuántico) estudiarán la función de la
electricidad en una nueva dimensión: atómica y subatómica.
Multiplicador de tensión Cockcroft-Walton utilizado en un acelerador de
partículas de 1937, que alcanzaba un millón de voltios.

La electrificación no sólo fue un proceso técnico, sino un verdadero cambio social de


implicaciones extraordinarias, comenzando por el alumbrado y siguiendo por todo tipo de
procesos industriales (motor eléctrico, metalurgia, refrigeración...) y de comunicaciones
(telefonía, radio). Lenin, durante la Revolución bolchevique, definió el socialismo como la
suma de la electrificación y el poder de los soviets,[3] pero fue sobre todo la sociedad de
consumo que nació en los países capitalistas, la que dependió en mayor medida de la
utilización doméstica de la electricidad en los electrodomésticos, y fue en estos países
donde la retroalimentación entre ciencia, tecnología y sociedad desarrolló las complejas
estructuras que permitieron los actuales sistemas de I+D e I+D+I, en que la iniciativa
pública y privada se interpenetran, y las figuras individuales se difuminan en los equipos de
investigación.
La energía eléctrica es esencial para la sociedad de la información de la tercera revolución
industrial que se viene produciendo desde la segunda mitad del siglo XX (transistor,
televisión, computación, robótica, internet...). Únicamente puede comparársele en
importancia la motorización dependiente del petróleo (que también es ampliamente
utilizado, como los demás combustibles fósiles, en la generación de electricidad). Ambos
procesos exigieron cantidades cada vez mayores de energía, lo que está en el origen de la
crisis energética y medioambiental y de la búsqueda de nuevas fuentes de energía, la
mayoría con inmediata utilización eléctrica (energía nuclear y energías alternativas, dadas
las limitaciones de la tradicional hidroelectricidad). Los problemas que tiene la electricidad
para su almacenamiento y transporte a largas distancias, y para la autonomía de los aparatos
móviles, son retos técnicos aún no resueltos de forma suficientemente eficaz.
El impacto cultural de lo que Marshall McLuhan denominó Edad de la Electricidad, que
seguiría a la Edad de la Mecanización (por comparación a cómo la Edad de los Metales
siguió a la Edad de Piedra), radica en la altísima velocidad de propagación de la radiación
electromagnética (300.000 km/s) que hace que se perciba de forma casi instantánea. Este
hecho conlleva posibilidades antes inimaginables, como la simultaneidad y la división de
cada proceso en una secuencia. Se impuso un cambio cultural que provenía del enfoque en
"segmentos especializados de atención" (la adopción de una perspectiva particular) y la
idea de la "conciencia sensitiva instantánea de la totalidad", una atención al "campo total",
un "sentido de la estructura total". Se hizo evidente y prevalente el sentido de "forma y
función como una unidad", una "idea integral de la estructura y configuración". Estas
nuevas concepciones mentales tuvieron gran impacto en todo tipo de ámbitos científicos,
educativos e incluso artísticos (por ejemplo, el cubismo). En el ámbito de lo espacial y
político, "la electricidad no centraliza, sino que descentraliza... mientras que el ferrocarril
requiere un espacio político uniforme, el avión y la radio permiten la mayor discontinuidad
y diversidad en la organización espacial".[4]

Contenido
[ocultar]
• 1 Siglo XVII
○ 1.1 William Gilbert: materiales eléctricos y materiales aneléctricos
(1600)
○ 1.2 Otto von Guericke: las cargas eléctricas (1660)
• 2 Siglo XVIII: la Revolución industrial
○ 2.1 Stephen Gray: los efluvios (1729)
○ 2.2 Charles François de Cisternay Du Fay: carga vítrea y carga
resinosa (1733)
○ 2.3 Pieter van Musschenbroek: la botella de Leyden (1745)
○ 2.4 William Watson: la corriente eléctrica (1747)
○ 2.5 Benjamin Franklin: el pararrayos (1752)
○ 2.6 Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)
○ 2.7 Luigi Galvani: el impulso nervioso (1780)
○ 2.8 Alessandro Volta: la pila de Volta (1800)
• 3 Principios del siglo XIX: el tiempo de los teóricos
○ 3.1 Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)
○ 3.2 Hans Christian Ørsted: el electromagnetismo (1819)
○ 3.3 Thomas Johann Seebeck: la termoelectricidad (1821)
○ 3.4 André-Marie Ampère: el solenoide (1822)
○ 3.5 William Sturgeon: el electroimán (1825), el conmutador (1832)
y el galvanómetro (1836)
○ 3.6 Georg Simon Ohm: la ley de Ohm (1827)
○ 3.7 Joseph Henry: inducción electromagnética (1830)
○ 3.8 Johann Carl Friedrich Gauss: Teorema de Gauss de la
electrostática
○ 3.9 Michael Faraday: inducción (1831), generador (1831-1832),
leyes y jaula de Faraday
○ 3.10 Heinrich Friedrich Lenz: ley de Lenz (1834)
○ 3.11 Jean Peltier: efecto Peltier (1834), inducción electrostática
(1840)
○ 3.12 Samuel Morse: telégrafo (1833-1837)
○ 3.13 Ernst Werner M. von Siemens: Locomotora eléctrica (1879)
○ 3.14 Charles Wheatstone: puente de Wheatstone (1843)
○ 3.15 James Prescott Joule: relaciones entre electricidad, calor y
trabajo (1840-1843)
○ 3.16 Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)
○ 3.17 William Thomson (Lord Kelvin): relación entre los efectos
Seebeck y Peltier (1851), cable flexible (1858)
○ 3.18 Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera
chispas de alto voltaje (1851)
○ 3.19 Léon Foucault: corrientes de Foucault (1851)
○ 3.20 Zénobe-Théophile Gramme: la primera dinamo (1870)
○ 3.21 Johann Wilhelm Hittorf: el primer tubo de rayos catódicos
(1872)
○ 3.22 James Clerk Maxwell: las cuatro ecuaciones de Maxwell
(1875)
• 4 Finales del siglo XIX: el tiempo de los ingenieros
○ 4.1 Alexander Graham Bell: el teléfono (1876)
○ 4.2 Thomas Alva Edison: desarrollo de la lámpara incandescente
(1879), Menlo Park y comercialización
○ 4.3 John Hopkinson: el sistema trifásico (1882)
○ 4.4 Heinrich Rudolf Hertz: demostración de las ecuaciones de
Maxwell y la teoría electromagnética de la luz (1887)
○ 4.5 George Westinghouse: el suministro de corriente alterna
(1886)
○ 4.6 Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de
Tesla (1884-1891) y el radiotransmisor (1893)
○ 4.7 Charles Proteus Steinmetz: la histéresis magnética (1892)
○ 4.8 Wilhelm Conrad Röntgen: los rayos X (1895)
○ 4.9 Michael Idvorsky Pupin: la bobina de Pupin (1894) y las
imágenes de rayos X (1896)
○ 4.10 Joseph John Thomson: los rayos catódicos (1897)
○ 4.11 Hermanos Lumière: el inicio del cine (1895)
○ 4.12 Guglielmo Marconi: la telegrafía inalámbrica (1899)
○ 4.13 Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-
1912)
○ 4.14 Gottlob Honold: la magneto de alta tensión, la bujía (1902) y
los faros parabólicos (1913)
• 5 Los cambios de paradigma del siglo XX
○ 5.1 Hendrik Antoon Lorentz: Las transformaciones de Lorentz
(1900) y el efecto Zeeman (1902)
○ 5.2 Albert Einstein: El efecto fotoeléctrico (1905)
○ 5.3 Robert Andrews Millikan: El experimento de Millikan (1909)
○ 5.4 Heike Kamerlingh Onnes: Superconductividad (1911)
○ 5.5 Vladimir Zworykin: La televisión (1923)
○ 5.6 Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)
○ 5.7 Robert Watson-Watt: El radar (1935)
• 6 La segunda mitad del siglo XX: Era Espacial o Edad de la Electricidad
○ 6.1 Televisión
○ 6.2 Ordenadores
○ 6.3 Transistor, Electrónica digital y Superconductividad
○ 6.4 El reto de la generación de electricidad
 6.4.1 Centrales nucleares
 6.4.2 Combustibles fósiles y fuentes renovables
○ 6.5 Robótica y máquinas CNC
○ 6.6 Láser
○ 6.7 Electrificación de los ferrocarriles
○ 6.8 Electromedicina
○ 6.9 Telecomunicaciones e Internet
• 7 Véase también
• 8 Bibliografía
• 9 Referencias
• 10 Enlaces externos
○ 10.1 Vídeos

[editar] Siglo XVII


La Revolución científica que se venía produciendo desde Copérnico en la astronomía y
Galileo en la física no va a encontrar aplicaciones muy tempranas al campo de la
electricidad, limitándose la actividad de los pocos autores que tratan sobre ella a la
recopilación baconiana de datos experimentales, que por el momento no alcanzan a inducir
modelos explicativos.
[editar] William Gilbert: materiales eléctricos y materiales aneléctricos
(1600)
Artículo principal: De Magnete

William Gilbert

El científico inglés William Gilbert (1544-1603) publicó su libro De Magnete, en donde


utiliza la palabra latina electricus, derivada del griego elektron, que significa ámbar, para
describir los fenómenos descubiertos por los griegos.[5] Previamente, el italiano Gerolamo
Cardano había ya distinguido, quizá por primera vez, entre las fuerzas magnéticas y las
eléctricas (De Subtilitate 1550). Gilbert estableció las diferencias entre ambos fenómenos a
raíz de que la reina Isabel I de Inglaterra le ordenara estudiar los imanes para mejorar la
exactitud de las brújulas usadas en la navegación, consiguiendo con este trabajo la base
principal para la definición de los fundamentos de la electrostática y magnetismo. A través
de sus experiencias clasificó los materiales en eléctricos (aislantes) y aneléctricos
(conductores) e ideó el primer electroscopio. Descubrió la imantación por influencia, y
observó que la imantación del hierro se pierde cuando se calienta al rojo. Estudió la
inclinación de una aguja magnética concluyendo que la Tierra se comporta como un gran
imán. El Gilbert es la unidad de medida de la fuerza magnetomotriz.[6]
Véase también: William Gilbert

[editar] Otto von Guericke: las cargas eléctricas (1660)


Artículo principal: Electrostática
Otto von Guericke

Las investigaciones de Gilbert fueron continuadas por el físico alemán Otto von Guericke
(1602-1686). En las investigaciones que realizó sobre electrostática observó que se
producía una repulsión entre cuerpos electrizados luego de haber sido atraídos. Ideó la
primera máquina electrostática y sacó chispas de un globo hecho de azufre, lo cual le llevó
a especular sobre la naturaleza eléctrica de los relámpagos. Fue la primera persona que
estudió la luminiscencia.[7]
Véase también: Otto von Guericke

[editar] Siglo XVIII: la Revolución industrial


La crisis de la conciencia europea renueva el panorama intelectual de finales del siglo XVII
a principios del siglo XVIII y abre las puertas al llamado Siglo de las luces o de la
Ilustración. Instituciones científicas de nuevo cuño, como la Royal Academy inglesa, y el
espíritu crítico que los enciclopedistas franceses extienden por todo el continente, conviven
con el inicio de la Revolución industrial. No obstante, la retroalimentación entre ciencia,
tecnología y sociedad, aún no se había producido. Aparte del pararrayos, ninguna de las
innovaciones técnicas del siglo tuvo que ver con las investigaciones científicas sobre la
electricidad, hecho que no es exclusivo de este campo: la mismísima máquina de vapor
precedió en cien años a la definición de la termodinámica por Sadi Carnot.[8]
[editar] Stephen Gray: los efluvios (1729)
Artículo principal: Conductividad eléctrica

El físico inglés Stephen Gray (1666-1736) estudió principalmente la conductividad


eléctrica de los cuerpos y, después de muchos experimentos, fue el primero en 1729 en
transmitir electricidad a través de un conductor. En sus experimentos descubrió que para
que la electricidad, o los "efluvios" o "virtud eléctrica", como él la llamó, pudiera circular
por el conductor, éste tenia que estar aislado de tierra. Posteriormente estudió otras formas
de transmisión y, junto con los científicos G. Wheler y J. Godfrey, clasificó los materiales
en conductores y aislantes de la electricidad. Inventó una lámpara eléctrica e ideó enchufes,
interruptores y sistemas de instalaciones eléctricas.[9]
Véase también: Stephen Gray

[editar] Charles François de Cisternay Du Fay: carga vítrea y carga resinosa


(1733)
Artículo principal: Carga eléctrica
Charles François du Fay

El científico francés Charles François de Cisternay Du Fay (1698-1739) al enterarse de los


trabajos de Stephen Gray, dedicó su vida al estudio de los fenómenos eléctricos. Du Fay,
entre otros muchos experimentos, observó que una lámina de oro siempre era repelida por
una barra de vidrio electrificada. Publicó sus trabajos en 1733 siendo el primero en
identificar la existencia de dos tipos de cargas eléctricas (denominadas hoy en día positiva y
negativa), que él denominó carga vítrea y carga resinosa, debido a que ambas se
manifestaban de una forma al frotar, con un paño de seda, el vidrio (carga positiva) y de
forma distinta al frotar, con una piel, algunas substancias resinosas como el ámbar o la
goma (carga negativa).
Véase también: C.F.Du Fay

[editar] Pieter van Musschenbroek: la botella de Leyden (1745)


Artículo principal: Botella de Leyden

Pieter van Musschenbroek

El físico holandés Pieter van Musschenbroek (1692-1761), que trabajaba en la Universidad


de Leiden, efectuó una experiencia para comprobar si una botella llena de agua podía
conservar cargas eléctricas. Esta botella consistía en un recipiente con un tapón al cual se le
atraviesa una varilla metálica sumergida en el líquido. La varilla tiene una forma de gancho
en la parte superior al cual se le acerca un conductor cargado eléctricamente. Durante la
experiencia un asistente separó el conductor y recibió una fuerte descarga al aproximar su
mano a la varilla, debida a la electricidad estática que se había almacenado en la botella. De
esta manera fue descubierta la botella de Leyden y la base de los actuales capacitores o
condensadores eléctricos.[10]
Véase también: Pieter van Musschenbroek

[editar] William Watson: la corriente eléctrica (1747)


Artículo principal: Corriente eléctrica

William Watson

Sir William Watson (1715-1787), médico y físico inglés, estudió los fenómenos eléctricos.
Realizó reformas en la botella de Leyden agregándole una cobertura de metal, descubriendo
que de esta forma se incrementaba la descarga eléctrica. En 1747 demostró que una
descarga de electricidad estática es una corriente eléctrica. Fue el primero en estudiar la
propagación de corrientes en gases enrarecidos.[11]
Véase también: William Watson

[editar] Benjamin Franklin: el pararrayos (1752)


Artículo principal: Pararrayos

Retrato de Benjamin Franklin

1752 El polifacético estadounidense Benjamin Franklin (1706-1790) investigó los


fenómenos eléctricos naturales. Es particularmente famoso su experimento en el que,
haciendo volar una cometa durante una tormenta, demostró que los rayos eran descargas
eléctricas de tipo electrostático. Como consecuencia de estas experimentaciones inventó el
pararrayos. También formuló una teoría según la cual la electricidad era un fluido único
existente en toda materia y calificó a las substancias en eléctricamente positivas y
eléctricamente negativas, de acuerdo con el exceso o defecto de ese fluido.[12]
Véase también: Benjamin Franklin

[editar] Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)


Artículo principal: Ley de Coulomb

Charles-Augustin de Coulomb

El físico e ingeniero francés Charles-Augustin de Coulomb (1736 - 1806) fue el primero en


establecer las leyes cuantitativas de la electrostática, además de realizar muchas
investigaciones sobre magnetismo, rozamiento y electricidad. Sus investigaciones
científicas están recogidas en siete memorias, en las que expone teóricamente los
fundamentos del magnetismo y de la electrostática. En 1777 inventó la balanza de torsión
para medir la fuerza de atracción o repulsión que ejercen entre sí dos cargas eléctricas y
estableció la función que liga esta fuerza con la distancia. Con este invento, culminado en
1785, Coulomb pudo establecer la expresión de la fuerza entre dos cargas eléctricas q y Q
en función de la distancia d que las separa, actualmente conocida como Ley de Coulomb:
F = k (q Q) / d2. Coulomb también estudió la electrización por frotamiento y la polarización
e introdujo el concepto de momento magnético. El Coulomb (símbolo C), castellanizado a
Culombio, es la unidad del SI para la medida de la cantidad de carga eléctrica.[13]
Véase también: Charles-Augustin de Coulomb

[editar] Luigi Galvani: el impulso nervioso (1780)


Artículos principales: Impulso nervioso y Galvanismo
Luigi Galvani.

El médico y físico italiano Luigi Galvani (1737-1798) se hizo famoso por sus
investigaciones sobre los efectos de la electricidad en los músculos de los animales.
Mientras disecaba una rana halló accidentalmente que sus patas se contraían al tocarlas con
un objeto cargado de electricidad. Por ello se le considera el iniciador de los estudios del
papel que desempeña la electricidad en el funcionamiento de los organismos animales. De
sus discusiones con otro gran científico italiano de su época, Alessandro Volta, sobre la
naturaleza de los fenómenos observados, surgió la construcción de la primera pila, o
aparato para producir corriente eléctrica continua, llamado pila de Volta. El nombre de
Luigi Galvani sigue hoy asociado con la electricidad a través de términos como galvanismo
y galvanización. Sus estudios preludiaron una ciencia que surgiría mucho después: la
neurofisiología, estudio del funcionamiento del sistema nervioso en la que se basa la
neurología.[14]
Véase también: Luigi Galvani

[editar] Alessandro Volta: la pila de Volta (1800)


Artículo principal: Pila de Volta

Alessandro Volta

El físico italiano Alessandro Volta (1745-1827) inventa la pila, precursora de la batería


eléctrica. Con un apilamiento de discos de cinc y cobre, separados por discos de cartón
humedecidos con un electrólito, y unidos en sus extremos por un circuito exterior, Volta
logró, por primera vez, producir corriente eléctrica continua a voluntad.[15] Dedicó la mayor
parte de su vida al estudio de los fenómenos eléctricos, inventó el electrómetro y el
eudiómetro y escribió numerosos tratados científicos. Por su trabajo en el campo de la
electricidad, Napoleón le nombró conde en 1801. La unidad de tensión eléctrica o fuerza
electromotriz, el Volt (símbolo V), castellanizado como Voltio, recibió ese nombre en su
honor.[15]
Véase también: Alessandro Volta

[editar] Principios del siglo XIX: el tiempo de los teóricos


El propósito de la ciencia optimista surgida de la Ilustración era la comprensión total de la
realidad. En el ámbito de la electricidad la clave sería describir estas fuerzas a distancia
como en las ecuaciones de la mecánica newtoniana. Pero la realidad era mucho más
compleja como para dar fácil cumplimiento a este programa. La capacidad de desviar
agujas imantadas, descubierta por Oersted (1820), y la inducción electromagnética
descubierta por Faraday (1821), acabaron por interrelacionar la electricidad con el
magnetismo y los movimientos mecánicos. La teoría completa del campo electromagnético
tuvo que esperar a Maxwell, e incluso entonces (1864), al comprobarse que una de las
constantes que aparecían en su teoría tenía el mismo valor que la velocidad de la luz, se
apuntó la necesidad de englobar también la óptica en el electromagnetismo.[16]
El romanticismo, con su gusto por lo tétrico y su desconfianza en la razón, añadió un lado
oscuro a la consideración de la electricidad, que excitaba la imaginación de la forma más
morbosa: ¿el dominio humano de tal fuerza de la naturaleza le pondría al nivel creador que
hasta entonces sólo se imaginaba al alcance de seres divinos? Con cadáveres y electricidad
Mary Wollstonecraft Shelley compuso la trama de Frankenstein o el moderno Prometeo
(1818), novela precursora tanto del género de terror como de la ciencia ficción.
[editar] Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)
Artículo principal: Electroquímica

Humphry Davy

1807 Sir Humphry Davy (1778-1829). Químico británico. Se le considera el fundador de la


electroquímica, junto con Volta y Faraday. Davy contribuyó a identificar
experimentalmente por primera vez varios elementos químicos mediante la electrólisis y
estudió la energía involucrada en el proceso. Entre 1806 y 1808 publica el resultado de sus
investigaciones sobre la electrólisis, donde logra la separación del magnesio, bario,
estroncio, calcio, sodio, potasio y boro. En 1807 fabrica una pila con más de 2.000 placas
dobles con la que descubre el cloro y demuestra que se trata de un elemento químico,
dándole ese nombre debido a su color amarillo verdoso. Junto a W.T. Brande consigue
aislar al litio de sus sales mediante electrólisis del óxido de litio (1818). Fue jefe y mentor
de Michael Faraday. Creó además una lámpara de seguridad para las minas que lleva su
nombre (1815) y fue pionero en el control de la corrosión mediante la protección catódica.
En 1805 le fue concedida la Medalla Copley.[17]
Véase también: Humphry Davy

[editar] Hans Christian Ørsted: el electromagnetismo (1819)


Hans Christian Oersted

Artículo principal: Electromagnetismo

El físico y químico danés Hans Christian Ørsted (1777-1851) fue un gran estudioso del
electromagnetismo. En 1813 predijo la existencia de los fenómenos electromagnéticos y en
1819 logró demostrar su teoría empíricamente al descubrir, junto con Ampère, que una
aguja imantada se desvía al ser colocada en dirección perpendicular a un conductor por el
que circula una corriente eléctrica. Este descubrimiento fue crucial en el desarrollo de la
electricidad, ya que puso en evidencia la relación existente entre la electricidad y el
magnetismo. En homenaje a sus contribuciones se denominó Oersted (símbolo Oe) a la
unidad de intensidad de campo magnético en el sistema Gauss. Se cree que también fue el
primero en aislar el aluminio, por electrólisis, en 1825. En 1844 publicó su Manual de
Física Mecánica.[18]
Véase también: Hans Christian Ørsted

[editar] Thomas Johann Seebeck: la termoelectricidad (1821)


Artículo principal: Efecto Peltier-Seebeck

Thomas Johann Seebeck

El médico e investigador físico natural de Estonia, Thomas Johann Seebeck (1770-1831)


descubrió el efecto termoeléctrico. En 1806 descubrió también los efectos de radiación
visible e invisible sobre sustancias químicas como el cloruro de plata. En 1808, obtuvo la
primera combinación química de amoníaco con óxido mercúrico. A principios de 1820,
Seebeck realizó variados experimentos en la búsqueda de una relación entre la electricidad
y calor. En 1821, soldando dos alambres de metales diferentes (cobre y bismuto) en un
lazo, descubrió accidentalmente que al calentar uno a alta temperatura y mientras el otro se
mantenía a baja temperatura, se producía un campo magnético. Seebeck no creyó, o no
divulgó que una corriente eléctrica era generada cuando el calor se aplicaba a la soldadura
de los dos metales. En cambio, utilizó el término termomagnetismo para referirse a su
descubrimiento. Actualmente se lo conoce como efecto Peltier-Seebeck o efecto
termoeléctrico y es la base del funcionamiento de los termopares.[19]
Véase también: Thomas Johann Seebeck

[editar] André-Marie Ampère: el solenoide (1822)


Artículo principal: Corriente eléctrica

André-Marie Ampère

El físico y matemático francés André-Marie Ampère (1775-1836) está considerado como


uno de los descubridores del electromagnetismo. Es conocido por sus importantes
aportaciones al estudio de la corriente eléctrica y el magnetismo que constituyeron, junto
con los trabajos del danés Hans Chistian Oesterd, el desarrollo del electromagnetismo. Sus
teorías e interpretaciones sobre la relación entre electricidad y magnetismo se publicaron en
1822, en su Colección de observaciones sobre electrodinámica y en 1826, en su Teoría de
los fenómenos electrodinámicos. Ampère descubrió las leyes que determinan el desvío de
una aguja magnética por una corriente eléctrica, lo que hizo posible el funcionamiento de
los actuales aparatos de medida. Descubrió las acciones mutuas entre corrientes eléctricas,
al demostrar que dos conductores paralelos por los que circula una corriente en el mismo
sentido, se atraen, mientras que si los sentidos de la corriente son opuestos, se repelen. La
unidad de intensidad de corriente eléctrica, el Ampère (símbolo A), castellanizada como
Amperio, recibe este nombre en su honor.[20]
Véase también: André-Marie Ampère

[editar] William Sturgeon: el electroimán (1825), el conmutador (1832) y el


galvanómetro (1836)
Artículo principal: Electroimán

El físico británico William Sturgeon (1783-1850) inventó en 1825 el primer electroimán.


Era un trozo de hierro con forma de herradura envuelto por una bobina enrollada sobre él
mismo. Sturgeon demostró su potencia levantando 4 kg con un trozo de hierro de 200 g
envuelto en cables por los que hizo circular la corriente de una batería. Sturgeon podía
regular su electroimán, lo que supuso el principio del uso de la energía eléctrica en
máquinas útiles y controlables, estableciendo los cimientos para las comunicaciones
electrónicas a gran escala. Este dispositivo condujo a la invención del telégrafo, el motor
eléctrico y muchos otros dispositivos que fueron base de la tecnología moderna. En 1832
inventó el conmutador para motores eléctricos y en 1836 inventó el primer galvanómetro de
bobina giratoria.[21]
Véase también: William Sturgeon

[editar] Georg Simon Ohm: la ley de Ohm (1827)


Artículo principal: Ley de Ohm

Georg Simon Ohm

Georg Simon Ohm (1789-1854) fue un físico y matemático alemán que estudió la relación
entre el voltaje V aplicado a una resistencia R y la intensidad de corriente I que circula por
ella. En 1827 formuló la ley que lleva su nombre (la ley de Ohm), cuya expresión
matemática es V = I · R. También se interesó por la acústica, la polarización de las pilas y
las interferencias luminosas. En su honor se ha bautizado a la unidad de resistencia eléctrica
con el nombre de Ohm (símbolo Ω), castellanizado a Ohmio.[22]
Véase también: Georg Simon Ohm

[editar] Joseph Henry: inducción electromagnética (1830)

Joseph Henry
Artículo principal: Electroimán

El estadounidense Joseph Henry (1797-1878) fue un físico que investigó el


electromagnetismo y sus aplicaciones en electroimanes y relés. Descubrió la inducción
electromagnética, simultánea e independientemente de Faraday, cuando observó que un
campo magnético variable puede inducir una fuerza electromotriz en un circuito cerrado.
En su versión más simple, el experimento de Henry consiste en desplazar un segmento de
conductor perpendicularmente a un campo magnético, lo que produce una diferencia de
potencial entre sus extremos. Esta fuerza electromotriz inducida se explica por la fuerza de
Lorentz que ejerce el campo magnético sobre los electrones libres del conductor. En su
honor se denominó Henry (símbolo H) a la unidad de inductancia, castellanizada como
Henrio.[23]
Véase también: Joseph Henry

[editar] Johann Carl Friedrich Gauss: Teorema de Gauss de la electrostática


Artículo principal: Ley de Gauss

Carl Friedrich Gauss

1832-1835. El matemático, astrónomo y físico alemán Johann Carl Friedrich Gauss (1777-
1855), hizo importantes contribuciones en campos como la teoría de números, el análisis
matemático, la geometría diferencial, la geodesia, la electricidad, el magnetismo y la óptica.
Considerado uno de los matemáticos de mayor y más duradera influencia, se contó entre los
primeros en extender el concepto de divisibilidad a conjuntos diferentes de los numéricos.
En 1831 se asoció al físico Wilhelm Weber durante seis fructíferos años durante los cuales
investigaron importantes problemas como las Leyes de Kirchhoff y del magnetismo,
construyendo un primitivo telégrafo eléctrico. Su contribución más importante a la
electricidad es la denominada Ley de Gauss, que relaciona la carga eléctrica q contenida en

un volumen V con el flujo del campo eléctrico sobre la cerrada superficie S que encierra
el volumen V, cuya expresión matemática es:

.
En su honor se dio el nombre de Gauss (símbolo G) a la unidad de intensidad de campo
magnético del Sistema Cegesimal de Unidades (CGS). Su relación con la correspondiente
unidad del Sistema Internacional de Unidades (SI), el Tesla (símbolo T), es 1 G = 10-4 T.[24]
Véase también: Johann Carl Friedrich Gauss

[editar] Michael Faraday: inducción (1831), generador (1831-1832), leyes y


jaula de Faraday

Michael Faraday

Artículo principal: Ley de Faraday

El físico y químico inglés Michael Faraday (1791-1867), discípulo de Humphry Davy, es


conocido principalmente por su descubrimiento de la inducción electromagnética, que ha
permitido la construcción de generadores y motores eléctricos, y de las leyes de la
electrólisis por lo que es considerado como el verdadero fundador del electromagnetismo y
de la electroquímica. En 1831 trazó el campo magnético alrededor de un conductor por el
que circula una corriente eléctrica, ya descubierto por Oersted, y ese mismo año descubrió
la inducción electromagnética, demostró la inducción de una corriente eléctrica por otra, e
introdujo el concepto de líneas de fuerza para representar los campos magnéticos. Durante
este mismo periodo, investigó sobre la electrólisis y descubrió las dos leyes fundamentales
que llevan su nombre: 1ª). La masa de sustancia liberada en una electrólisis es directamente
proporcional a la cantidad de electricidad que ha pasado a través del electrólito [masa =
equivalente electroquímico, por la intensidad y por el tiempo (m = c I t)]; 2ª) Las masas de
distintas sustancia liberadas por la misma cantidad de electricidad son directamente
proporcionales a sus pesos equivalentes. Con sus investigaciones se dio un paso
fundamental en el desarrollo de la electricidad al establecer que el magnetismo produce
electricidad a través del movimiento. En su honor se denominó Farad (símbolo F),
castellanizado como Faradio, a la unidad de capacidad eléctrica del SI de unidades. El
Faradio se define como la capacidad de un condensador tal que cuando su carga es un
Culombio, adquiere una diferencia de potencial electrostático de un voltio.[25]
Véase también: Michael Faraday

[editar] Heinrich Friedrich Lenz: ley de Lenz (1834)


Artículo principal: Ley de Lenz
Heinrich Lenz

El físico estonio Heinrich Friedrich Lenz (1804-1865) formuló en 1834 la ley de la


oposición de las corrientes inducidas, conocida como Ley de Lenz, cuyo enunciado es el
siguiente: El sentido de las corrientes, o fuerza electromotriz inducida, es tal que siempre
se opone a la variación del flujo que la produce. También realizó investigaciones
significativas sobre la conductividad de los cuerpos, en relación con su temperatura,
descubriendo en 1843 la relación entre ambas; lo que luego fue ampliado y desarrollado por
James Prescott Joule, por lo que pasaría a llamarse Ley de Joule.[26]
[editar] Jean Peltier: efecto Peltier (1834), inducción electrostática (1840)
Artículo principal: Efecto Peltier

Jean Peltier

El físico francés y relojero de profesión Jean Peltier (1785-1845) descubrió en 1834 que
cuando circula una corriente eléctrica por un conductor formado por dos metales distintos,
unidos por una soldadura, ésta se calienta o enfría según el sentido de la corriente (efecto
Peltier). Dicho efecto ha revestido gran importancia en el desarrollo reciente de
mecanismos de refrigeración no contaminantes. A Peltier se le debe también la
introducción del concepto de inducción electrostática en 1840, referido a la modificación de
la distribución de la carga eléctrica en un material, bajo la influencia de un segundo objeto
próximo a él y que tenga una carga eléctrica.[27]
[editar] Samuel Morse: telégrafo (1833-1837)
Artículo principal: Telégrafo
Morse con un prototipo de su invención

El inventor estadounidense Samuel Finley Breese Morse (1791-1872) es principalmente


conocido por la invención del telégrafo eléctrico y la invención del código Morse. Su
interés por los asuntos de la electricidad se concretó durante el regreso de un viaje por
Europa. Cuando estudiaba en Yale aprendió que si se interrumpía un circuito se veía un
fulgor y se le ocurrió que esas interrupciones podían llegar a usarse como un medio de
comunicación. Al desembarcar de aquel viaje en 1832, ya había diseñado un incipiente
telégrafo y comenzaba a desarrollar la idea de un sistema telegráfico de alambres con un
electromagneto incorporado. El 6 de enero de 1833, Morse realizó su primera demostración
pública con su telégrafo mecánico óptico y efectuó con éxito las primeras pruebas en
febrero de 1837 en un concurso convocado por el Congreso de los Estados Unidos.
También inventó un alfabeto, que representa las letras y números por una serie de puntos y
rayas, conocido actualmente como código Morse, para poder utilizar su telégrafo. En el año
1843, el Congreso de los Estados Unidos le asignó 30.000 dólares para que construyera la
primera línea de telégrafo entre Washington y Baltimore, en colaboración con Joseph
Henry. El 24 de mayo de 1844 Morse envió su famoso primer mensaje: «¿Que nos ha
traído Dios?». Fue objeto de muchos honores y en sus últimos años se dedicó a
experimentar con la telegrafía submarina por cable.[28]
Véase también: Samuel Finley Breese Morse

[editar] Ernst Werner M. von Siemens: Locomotora eléctrica (1879)


Artículo principal: Siemens AG

Werner von Siemens


El ingeniero alemán, Ernst Werner von Siemens (1816-1892) construyó en 1847 un nuevo
tipo de telégrafo, poniendo así la primera piedra en la construcción de la empresa Siemens
AG junto a Johann Georg Halske. En 1841 desarrolló un proceso de galvanización, en 1846
un telégrafo de aguja y presión y un sistema de aislamiento de cables eléctricos mediante
gutapercha, lo que permitió, en la práctica, la construcción y tendido de cables submarinos.
Fue uno de los pioneros de las grandes líneas telegráficas transoceánicas, responsable de la
línea Irlanda-EE.UU (comenzada en 1874 a bordo del buque Faraday) y Gran Bretaña-India
(1870). Aunque probablemente no fue el inventor de la dínamo, la perfeccionó hasta
hacerla confiable y la base de la generación de la corriente alterna en las primeras grandes
usinas. Fue pionero en otras invenciones, como el telégrafo con puntero/teclado para hacer
transparente al usuario el código Morse o la primera locomotora eléctrica, presentada por su
empresa en 1879. Dentro de sus muchos inventos y descubrimientos eléctricos se destacan
la dinamo y el uso de la gutapercha, sustancia plástica extraída del látex, usada como
aislador eléctrico en el recubrimiento de cables conductores. En homenaje a sus
contribuciones en el SI se denomina siemens (símbolo S) a la unidad de conductancia
eléctrica (inversa de la resistencia), previamente llamada mho.[29]
Véase también: Ernst Werner von Siemens

[editar] Charles Wheatstone: puente de Wheatstone (1843)


Artículo principal: Puente de Wheatstone

Charles Wheatstone

El físico e inventor inglés Charles Wheatstone (1802-1875) es especialmente conocido por


ser el primero en aplicar el circuito eléctrico que lleva su nombre (puente de Wheatstone)
para medir resistencias eléctricas. En realidad había sido diseñado previamente por Samuel
Hunter Christie en 1832, con lo que el papel de Wheatstone fue la mejora y popularización,
a partir de 1843. Se utiliza para medir resistencia resistencias desconocidas mediante el
equilibrio de los brazos de un puente en H formado por cuatro resistencias, una de las
cuales es la resistencia a medir. Wheatstone fue un autodidacta que llegó a convertirse en
profesor de filosofía experimental de la Universidad de Londres, en 1834. En colaboración
con el ingeniero William Fothergill Cooke, patentó en 1837 el primer telégrafo eléctrico
británico, simultáneamente con el inventado por Morse. Charles Wheatstone inventó
también un instrumento óptico para la fotografía en tres dimensiones (estereoscopio), un
telégrafo automático y un péndulo electromagnético.[30]
Véase también: Charles Wheatstone
[editar] James Prescott Joule: relaciones entre electricidad, calor y trabajo
(1840-1843)

James Prescott Joule

Artículo principal: Efecto Joule

James Prescott Joule (1818-1889), físico inglés, es conocido por sus estudios sobre la
energía y sus aplicaciones técnicas. Su principal contribución a la electricidad es la
cuantificación de la generación de calor producido por una corriente eléctrica que atraviesa
una resistencia, ley que lleva su nombre (Ley de Joule): Todo cuerpo conductor recorrido
por una corriente eléctrica, desprende una cantidad de calor equivalente al trabajo
realizado por el campo eléctrico para transportar las cargas de un extremo a otro del

conductor durante ese tiempo, formulada como: . También


descubrió la equivalencia entre el trabajo mecánico y la cantidad de calor (cuya unidad
histórica es la caloría). Junto con su compatriota, el físico William Thomson (conocido
posteriormente como lord Kelvin), Joule descubrió que la temperatura de un gas desciende
cuando se expande sin realizar trabajo. Este fenómeno, que se conoce como efecto Joule-
Thomson, es el principio constructivo de los refrigeradores. Alrededor de 1841, junto con el
científico alemán Hermann von Helmholtz, demostró que la electricidad es una forma de
energía y que los circuitos eléctricos cumplen la ley de la conservación de la energía. El
Joule (símbolo J), castellanizado a Julio, es la unidad del Sistema Internacional para la
energía y el trabajo mecánico. Se define como el trabajo realizado por una fuerza de 1
Newton cuando se desplaza paralelamente a sí misma en un 1 metro.[31]
Véase también: James Prescott Joule

[editar] Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)


Gustav Robert Kirchhoff

Artículo principal: Leyes de Kirchhoff

Las principales contribuciones a la ciencia del físico alemán Gustav Robert Kirchhoff
(1824-1887), estuvieron en el campo de los circuitos eléctricos, la teoría de placas, la
óptica, la espectroscopía y la emisión de radiación de cuerpo negro. Kirchhoff propuso el
nombre de radiación de cuerpo negro en 1862. Es responsable de dos conjuntos de leyes
fundamentales en la teoría clásica de circuitos eléctricos y en la emisión térmica. Aunque
ambas se denominan Leyes de Kirchhoff, probablemente esta denominación es más común
en el caso de las Leyes de Kirchhoff de la ingeniería eléctrica. Estas leyes permiten calcular
la distribución de corrientes y tensiones en las redes eléctricas con derivaciones y
establecen lo siguiente: 1ª) La suma algebraica de las intensidades que concurren en un
punto es igual a cero. 2ª) La suma algebraica de los productos parciales de intensidad por
resistencia, en una malla, es igual a la suma algebraica de las fuerzas electromotrices en ella
existentes, cuando la intensidad de corriente es constante. Junto con los químicos alemanes
Robert Wilhelm Bunsen y Joseph von Fraunhofer, fue de los primeros en desarrollar las
bases teóricas y experimentales de la espectroscopia, desarrollando el espectroscopio
moderno para el análisis químico. En 1860 Kirchhoff y Bunsen descubrieron el cesio y el
rubidio mediante la espectroscopia. Kirchhoff también estudio el espectro solar y realizó
importantes investigaciones sobre la transferencia de calor.[32]
Véase también: Gustav Robert Kirchhoff

[editar] William Thomson (Lord Kelvin): relación entre los efectos Seebeck
y Peltier (1851), cable flexible (1858)

William Thomson (Lord Kelvin)

Artículo principal: Efecto Thomson

El matemático inglés William Thomson (Lord Kelvin) (1824-1907), realizó muchos


trabajos de investigación física, por ejemplo, el análisis teórico sobre transmisión por cable,
que hizo posible el desarrollo del cable transatlántico. En 1851 definió la Segunda Ley de la
Termodinámica. En 1858 inventó el cable flexible. Kelvin destacó por sus importantes
trabajos en el campo de la termodinámica y la electrónica gracias a sus profundos
conocimientos de análisis matemático. Es uno de los científicos que más hizo por llevar a la
física a su forma moderna. Es especialmente famoso por haber desarrollado la escala de
temperatura Kelvin. También descubrió en 1851 el llamado efecto Thomson, por el que
logró demostrar que el efecto Seebeck y el efecto Peltier están relacionados. Así, un
material sometido a un gradiente térmico y recorrido por una intensidad intercambia calor
con el medio exterior. Recíprocamente, una corriente eléctrica es generada por el material
sometido a un gradiente térmico y recorrido por un flujo de calor. La diferencia
fundamental entre los efectos Seebeck y Peltier con respecto al efecto Thomson es que éste
último existe para un solo material y no necesita la existencia de una soldadura. Recibió el
título de barón Kelvin en honor a los logros alcanzados a lo largo de su carrera. El Kelvin
es la unidad de medida de temperatura absoluta.[33]
Véase también: Lord Kelvin

[editar] Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera


chispas de alto voltaje (1851)
El físico alemán Heinrich Daniel Ruhmkorff o Rühmkorff (1803-1877) se dedicó
principalmente a la construcción de aparatos e instrumentos eléctricos de gran calidad y
precisión. Ideó en 1851 la bobina de inducción o bobina de Ruhmkorff, popular
instrumento del siglo XIX. De invención anterior a la de los transformadores de corriente
alterna, es un verdadero transformador polimorfo y elevador en el que se obtiene, a partir
de una corriente primaria continua y de poca fuerza electromotriz suministrada por una pila
o batería, otra de alta tensión y alterna. Las elevadas diferentes de potencial producidas
podían ser aplicadas sobre los extremos de un tubo de Crookes para provocar la emisión de
unos rayos que, por su carácter desconocido, fueron denominados rayos X y que empezaron
a ser empleados para realizar fotografías a través de los cuerpos opacos. Estas bobinas
fueron las precursoras de las que se instalan en los automóviles para elevar la tensión en la
bujía de los motores de gasolina para realizar el encendido de la mezcla de combustible.[34]
Véase también: Heinrich Daniel Ruhmkorff

[editar] Léon Foucault: corrientes de Foucault (1851)


Artículo principal: Corriente de Foucault

Jean Bernard Léon Foucault


El físico francés Léon Foucault (1819-1868) inventó el giroscopio, demostró la rotación de
la tierra mediante un péndulo que creó al efecto y midió la velocidad de la luz mediante
espejos giratorios. En el campo de la electricidad, se dedicó al estudio del
electromagnetismo y descubrió las corrientes que llevan su nombre. En septiembre de 1855
descubrió que la fuerza requerida para la rotación de un disco de cobre aumenta cuando se
lo hace rotar entre los polos de un imán. Al mismo tiempo el disco comienza a calentarse
por las corrientes (llamadas "de Foucault") inducidas en el metal.[35]
Véase también: Jean Bernard Léon Foucault

[editar] Zénobe-Théophile Gramme: la primera dinamo (1870)


Artículo principal: Dinamo

Estatua de Zenobe Gramme en París

El científico belga Zénobe-Théophile Gramme (1826-1901) construyó la primera máquina


de corriente continua denominada dinamo que fue un punto de partida de la nueva industria
eléctrica. Una dinamo es una máquina destinada a la transformación de energía mecánica
en eléctrica mediante el fenómeno de la inducción electromagnética. La corriente generada
es producida cuando el campo magnético creado por un imán o un electroimán fijo
(inductor) atraviesa una bobina rotatoria (inducido) colocada en su seno. La corriente
inducida en esta bobina giratoria, en principio alterna es transformada en continua mediante
la acción de un conmutador giratorio, solidario con el inducido, denominado colector,
constituido por unos electrodos denominados delgas. De aquí es conducida al exterior
mediante otros contactos fijos llamados escobillas que hacen contacto por frotamiento con
las delgas del colector. La dinamo fue el primer generador eléctrico apto para uso
industrial. Zénobe Gramme perfeccionó los inventos de dinamos que existían y reinventó el
diseño al proyectar los primeros generadores comerciales a gran escala, que operaban en
París en torno a 1870. Su diseño se conoce como la dinamo de Gramme.[36]
Véase también: Zénobe Gramme

[editar] Johann Wilhelm Hittorf: el primer tubo de rayos catódicos (1872)


Artículo principal: Tubo de Crookes
Johann Wilhelm Hittorf

El catedrático de física y química alemán Johann Wilhelm Hittorf (1824-1914) contribuyó


poderosamente al desarrollo de la electroquímica con innumerables inventos. Por uno de
sus trabajos (tubo de Hittorf, 1872) es considerado precursor del tubo de Crookes con el
que William Crookes dedujo la existencia de los rayos catódicos (1878). Estudió también
las variaciones del espectro al variar la atmósfera. Determinó la íntima dependencia entre la
conductividad eléctrica y la acción química y la división de las sales complejas por la vía de
la corriente. Estudió la alotropía del selenio y del fósforo, describió el comportamiento
electroquímico del cromo y registró la velocidad de emigración de los iones sometidos a la
acción de la corriente eléctrica. Es autor de Über die Wanderung der Ionen während der
Elektrolyse.[37]
Véase también: Johann Wilhelm Hittorf

[editar] James Clerk Maxwell: las cuatro ecuaciones de Maxwell (1875)


Artículo principal: Ecuaciones de Maxwell

James Clerk Maxwell en su juventud

El físico y matemático escocés James Clerk Maxwell (1831-1879) es conocido


principalmente por haber desarrollado un conjunto de ecuaciones que expresan las leyes
fundamentales de la electricidad y el magnetismo así como por la estadística de Maxwell-
Boltzmann en la teoría cinética de gases. También se dedicó a la investigación de la visión
de los colores y los principios de la termodinámica y formuló, teóricamente, que los anillos
de Saturno estaban formados por materia disgregada. Maxwell amplió las investigaciones
que Michael Faraday había realizado sobre los campos electromagnéticos, formulando la
relación matemática entre los campos eléctricos y magnéticos por medio de cuatro
ecuaciones diferenciales (llamadas hoy "las ecuaciones de Maxwell") que relacionan el
campo eléctrico y el magnético para una distribución espacial de cargas y corrientes.
También demostró que la naturaleza de los fenómenos luminosos y electromagnéticos era
la misma y que ambos se propagan a la velocidad de la luz. Su obra más importante es el
Treatise on Electricity and Magnetism (Tratado de electricidad y magnetismo, 1873), en el
que publicó sus famosas ecuaciones. También escribió: Matter and motion (Materia y
movimiento, 1876) y Theory of Heat (Teoría del calor, 1877). La teoría de Maxwell obtuvo
su comprobación definitiva cuando Heinrich Rudolf Hertz obtuvo en 1888 las ondas
electromagnéticas de radio. Sus investigaciones posibilitaron la invención del telégrafo sin
cables y la radio. La unidad de flujo magnético en el sistema cegesimal, el maxwell, recibe
este nombre en su honor.[38]
Véase también: James Clerk Maxwell

[editar] Finales del siglo XIX: el tiempo de los ingenieros


Los años centrales del siglo XIX habían presenciado extraordinarios avances en la
aplicación de la electricidad a las comunicaciones y en 1881 se organizó en París una
Exposición Internacional de Electricidad y un Congrès international des électriciens
(Congreso internacional de electricistas).[39] Aunque para todo ello el conocimiento
científico de la electricidad y el magnetismo había sido imprescindible, los técnicos o
inventores adquirieron un sentimiento de superioridad, e incluso de reticencia hacia los
científicos puros. Incluso la teoría de Maxwell era ignorada por la mayoría de los
ingenieros eléctricos, que en su práctica tecnológica no la necesitaban. Esto no pudo
mantenerse a partir de la demostración experimental de la radiación electromagnética
(Heinrich Hertz, 1888), y en la década de los noventa las nuevas generaciones de ingenieros
incorporaron con mayor confianza las aportaciones teóricas y estuvieron mejor preparados
para las nuevas tecnologías eléctricas que aplicaban los efectos del campo
electromagnético, como la corriente alterna.[16]
Dos invenciones que aplicaban el motor eléctrico a la tracción de vehículos revolucionaron
particularmente la vida urbana, permitiendo una movilidad en el espacio que se convirtió en
movilidad social: el ascensor eléctrico y el tranvía eléctrico (ambas con participación de
Frank J. Sprague). Hasta entonces era habitual que pobres y ricos compartieran la misma
casa en los ensanches burgueses (unos en la planta principal y otros en las buhardillas), con
alturas que no solían superar las cinco o seis plantas. El urbanismo del siglo XX permitió el
crecimiento de megaciudades, con nítidas diferencias entre barrios de ricos y pobres, y con
desplazamientos horizontales kilométricos y de decenas de plantas en vertical (los
rascacielos). El Metro de Londres, que funcionaba con locomotoras de vapor desde 1863,
aplicó la tracción eléctrica para permitir líneas a más profundidad sin tantos requisitos de
ventilación (llamadas deep-level) desde 1890, y el sistema se difundió por otras ciudades
europeas y americanas (Budapest y Glasgow, 1886; Boston, 1897; subte de Buenos Aires,
1913; metro de Madrid, 1919). La electrificación de los ferrocarriles fue posterior (véase
sección Electrificación de los ferrocarriles).

[editar] Alexander Graham Bell: el teléfono (1876)


Alexander Graham Bell

Artículo principal: Teléfono

El escocés-estadounidense Alexander Graham Bell, científico, inventor y logopeda (1847-


1922), se disputó con otros investigadores la invención del teléfono y consiguió la patente
oficial en los Estados Unidos en 1876.[40] Previamente habían sido desarrollados
dispositivos similares por otros investigadores, entre quienes destacó Antonio Meucci
(1871), que entabló pleitos fallidos con Bell hasta su muerte, y a quien suele reconocerse
actualmente la prelación en el invento.
Bell contribuyó de un modo decisivo al desarrollo de las telecomunicaciones a través de su
empresa comercial (Bell Telephone Company, 1877, posteriormente AT&T). También
fundó en la ciudad de Washington el Laboratorio Volta, donde, junto con sus socios,
inventó un aparato que transmitía sonidos mediante rayos de luz (el fotófono, 1880); y
desarrolló el primer cilindro de cera para grabar (1886), lo que sentó las bases del
gramófono. Participó en la fundación de la National Geographic Society y de la revista
Science.[41]
Véase también: Alexander Graham Bell

[editar] Thomas Alva Edison: desarrollo de la lámpara incandescente


(1879), Menlo Park y comercialización

Thomas Alva Edison


Artículo principal: Lámpara incandescente

El inventor norteamericano Thomas Alva Edison (1847-1931) ha sido considerado como el


mayor inventor de todos los tiempos. Aunque se le atribuye la invención de la lámpara
incandescente, su intervención es más bien el perfeccionamiento de modelos anteriores
(Heinrich Göbel, relojero alemán, había fabricado lámparas funcionales tres décadas antes).
Edison logró, tras muchos intentos, un filamento que alcanzaba la incandescencia sin
fundirse: no era de metal, sino de bambú carbonizado. El 21 de octubre de 1879 consiguió
que su primera bombilla luciera durante 48 horas ininterrumpidas, con 1,7 lúmenes por
vatio. La primera lámpara incandescente con un filamento de algodón carbonizado
construida por Edison fue presentada, con mucho éxito, en la Primera Exposición de
Electricidad de Paris (1881) como una instalación completa de iluminación eléctrica de
corriente continua; sistema que inmediatamente fue adoptado tanto en Europa como en
Estados Unidos. En 1882 desarrolló e instaló la primera gran central eléctrica del mundo en
Nueva York. Sin embargo, más tarde, su uso de la corriente continua se vio desplazado por
el sistema de corriente alterna desarrollado por Nikola Tesla y George Westinghouse.
Su visión comercial de la investigación científico-técnica le llevó a fundar el laboratorio de
Menlo Park, donde consiguió un eficaz trabajo en equipo de un gran número de
colaboradores. Gracias a ello llegó a registrar 1093 patentes de inventos desarrollados por
él y sus ayudantes, inventos cuyo desarrollo y mejora posterior han marcado
profundamente la evolución de la sociedad moderna, entre ellos: el fonógrafo, un sistema
generador de electricidad, un aparato para grabar sonidos y un proyector de películas (el
kinetoscopio), uno de los primeros ferrocarriles eléctricos, unas máquinas que hacían
posible la transmisión simultánea de diversos mensajes telegráficos por una misma línea (lo
que aumentó enormemente la utilidad de las líneas telegráficas existentes), el emisor
telefónico de carbón (muy importante para el desarrollo del teléfono, que había sido
inventado recientemente por Alexander Graham Bell), etc. Al sincronizar el fonógrafo con
el kinetoscopio, produjo en 1913 la primera película sonora.
En el ámbito científico descubrió el efecto Edison, patentado en 1883, que consistía en el
paso de electricidad desde un filamento a una placa metálica dentro de un globo de lámpara
incandescente. Aunque ni él ni los científicos de su época le dieron importancia, este efecto
sería uno de los fundamentos de la válvula de la radio y de la electrónica. En 1880 se asoció
con el empresario J. P. Morgan para fundar la General Electric.[42]
Véase también: Thomas Alva Edison

[editar] John Hopkinson: el sistema trifásico (1882)


Artículo principal: Corriente trifásica

El ingeniero y físico inglés John Hopkinson (1849-1898) contribuyó al desarrollo de la


electricidad con el descubrimiento del sistema trifásico para la generación y distribución de
la corriente eléctrica, sistema que patentó en 1882. Un sistema de corrientes trifásicas es el
conjunto de tres corrientes alternas monofásicas de igual frecuencia y amplitud (y por
consiguiente, valor eficaz) que presentan un desfase entre ellas de 120° (un tercio de ciclo).
Cada una de las corrientes monofásicas que forman el sistema se designa con el nombre de
fase. También trabajó en muchas áreas del electromagnetismo y la electrostática. De sus
investigaciones estableció que "el flujo de inducción magnética es directamente
proporcional a la fuerza magnetomotriz e inversamente proporcional a la reluctancia",
expresión muy parecida a la establecida en la Ley de Ohm para la electricidad, y que se
conoce con el nombre de Ley de Hopkinson[43] También se dedicó al estudio de los sistemas
de iluminación, mejorando su eficiencia, así como al estudio de los condensadores.
Profundizó en los problemas de la teoría electromagnética, propuestos por James Clerk
Maxwell. En 1883 dio a conocer el principio de los motores síncronos.[44]
Véase también: John Hopkinson

[editar] Heinrich Rudolf Hertz: demostración de las ecuaciones de Maxwell


y la teoría electromagnética de la luz (1887)

Heinrich Rudolf Hertz

Artículo principal: Efecto fotoeléctrico

El físico alemán Heinrich Rudolf Hertz (1857-1894) demostró la existencia de las ondas
electromagnéticas predichas por las ecuaciones de Maxwell. Fue el primer investigador que
creó dispositivos que emitían ondas radioelectricas y también dispositivos que permitía
detectarlas. Hizo numerosos experimentos sobre su modo y velocidad de propagación (hoy
conocida como velocidad de la luz), en los que se fundamentan la radio y la telegrafía sin
hilos, que él mismo descubrió. En 1887 descubrió el efecto fotoeléctrico. La unidad de
medida de la frecuencia fue llamada Hertz (símbolo Hz) en su honor, castellanizada como
Hercio.[45]
Véase también: Heinrich Rudolf Hertz

[editar] George Westinghouse: el suministro de corriente alterna (1886)


Artículo principal: Corriente alterna
George Westinghouse

El inventor e industrial norteamericano George Westinghouse (1846-1914) se interesó


inicialmente por los ferrocarriles (freno automático de aire, sistema de señales ferroviarias,
aguja de cruce). Posteriormente dedicó sus investigaciones hacia la electricidad, siendo el
principal responsable de la adopción de la corriente alterna para el suministro de energía
eléctrica en Estados Unidos. En ese empeño tecnológico y comercial hubo de vencer la
oposición del popular inventor Thomas Alva Edison, que basaba sus investigaciones y
expansión comercial en la corriente continua y llegaría a sugerir la invención de la silla
eléctrica de corriente alterna como estrategia en esa competencia.
Westinghouse compró al científico croata Nikola Tesla su patente para la producción y
transporte de corriente alterna, que impulsó y desarrolló. Posteriormente perfeccionó el
transformador, desarrolló un alternador y adaptó para su utilización práctica el motor de
corriente alterna inventado por Tesla. En 1886 fundó la compañía eléctrica Westinghouse
Electric & Manufacturing Company, que contó en los primeros años con la decisiva
colaboración de Tesla, con quien logró desarrollar la tecnología necesaria para desarrollar
un sistema de suministro de corriente alterna. Westinghouse también desarrolló un sistema
para transportar gas natural, y a lo largo de su vida obtuvo más de 400 patentes, muchas de
ellas de maquinaria de corriente alterna.[46]
Véase también: George Westinghouse y Guerra de las corrientes

[editar] Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de Tesla


(1884-1891) y el radiotransmisor (1893)

Estatua de Nikola Tesla en las cataratas del Niágara

Artículos principales: Máquina eléctrica y bobina de Tesla

El ingeniero e inventor de origen croata Nikola Tesla (1856-1943) emigró en 1884 a los
Estados Unidos. Es reconocido como uno de los investigadores más destacados en el campo
de la energía eléctrica. El Gobierno de Estados Unidos lo consideró una amenaza por sus
opiniones pacifistas y sufrió el maltrato de otros investigadores mejor reconocidos como
Marconi o Edison.[47]
Desarrolló la teoría de campos rotantes, base de los generadores y motores polifásicos de
corriente alterna. En 1887 logra construir el motor de inducción de corriente alterna y
trabaja en los laboratorios Westinghouse, donde concibe el sistema polifásico para trasladar
la electricidad a largas distancias. En 1893 consigue transmitir energía electromagnética sin
cables, construyendo el primer radiotransmisor (adelantándose a Guglielmo Marconi). Ese
mismo año en Chicago hizo una exhibición pública de la corriente alterna, demostrando su
superioridad sobre la corriente continua de Edison. Los derechos de estos inventos le fueron
comprados por George Westinghouse, que mostró el sistema de generación y transmisión
por primera vez en la World's Columbian Exposition de Chicago de 1893. Dos años más
tarde los generadores de corriente alterna de Tesla se instalaron en la central experimental
de energía eléctrica de las cataratas del Niágara. Entre los muchos inventos de Tesla se
encuentran los circuitos resonantes de condensador más inductancia, los generadores de alta
frecuencia y la llamada bobina de Tesla, utilizada en el campo de las comunicaciones por
radio.
La unidad de inducción magnética del sistema MKS recibe el nombre de Tesla en su honor.
[48]

Véase también: Nikola Tesla

[editar] Charles Proteus Steinmetz: la histéresis magnética (1892)

Charles Proteus Steinmetz

Artículo principal: Histéresis magnética

El ingeniero e inventor de origen alemán Charles Proteus Steinmetz (1865-1923) es


conocido principalmente por sus investigaciones sobre la corriente alterna y por el
desarrollo del sistema trifásico de corrientes alternas. También inventó la lámpara de arco
con electrodo metálico. En 1892 descubrió la histéresis magnética, un fenómeno en virtud
del cual los electroimanes cuyo núcleo es un material ferromagnético (como el hierro) no se
magnetizan al mismo ritmo que la corriente variable que pasa por sus espiras, sino que
existe un retardo. En 1893 desarrolló una teoría matemática aplicable al cálculo de circuitos
en corriente alterna (para lo que introdujo el uso de números complejos) lo que facilitó el
cambio de las nuevas líneas de energía eléctrica, que inicialmente eran de corriente
continua. Sus trabajos contribuyeron en gran medida al impulso y utilización de la
electricidad como fuente de energía en la industria. En 1902 fue designado profesor de la
Universidad de Schenectady, Nueva York, donde permaneció hasta su muerte. Trabajó para
la empresa General Electric.[49]
Véase también: Charles Proteus Steinmetz
[editar] Wilhelm Conrad Röntgen: los rayos X (1895)

Wilhelm Conrad Röntgen

Artículo principal: Rayos X

El físico alemán Wilhelm Conrad Röntgen (1845-1923). Utilizando un tubo de Crookes,


fue quien produjo en 1895 la primera radiación electromagnética en las longitudes de onda
correspondientes a los actualmente llamados Rayos X. Gracias a su descubrimiento fue
galardonado con el primer Premio Nobel de Física en 1901. El premio se concedió
oficialmente: "en reconocimiento de los extraordinarios servicios que ha brindado para el
descubrimiento de los notables rayos que llevan su nombre." Sin embargo, Röntgen no
quiso que los rayos llevaran su nombre aunque en Alemania el procedimiento de la
radiografía se llama "röntgen" debido al hecho de que los verbos alemanes tienen la
desinencia "en". Los rayos X se comienzan a aplicar en todos los campos de la medicina
entre ellos el urológico. Posteriormente otros investigadores utilizaron la radiología para el
diagnóstico de la enfermedad litiásica. Es uno de los puntos culminantes de la medicina de
finales del siglo XIX, sobre el cual se basaron numerosos diagnósticos de entidades
nosológicas, hasta ese momento difíciles de diagnosticar, y siguieron dándose desarrollos
posteriores en el siglo XX y hasta nuestros días (Véase la sección Electromedicina).
En su honor recibe su nombre la unidad de medida de la exposición a la radiación,
establecida en 1928: Roentgen (unidad).[50]
Véase también: Wilhelm Conrad Röntgen

[editar] Michael Idvorsky Pupin: la bobina de Pupin (1894) y las imágenes


de rayos X (1896)
Michael Pupin

Artículos principales: Bobina de Pupin y Radiografía

El físico y electrotécnico serbio Michael Idvorsky Pupin (1854-1935) desarrolló en 1896 un


procedimiento para obtener la fotografía rápida de una imagen obtenida mediante rayos X,
que solamente requería una exposición de una fracción de segundo en lugar de una hora o
más que se empleaba anteriormente. Entre sus numerosos inventos destaca la pantalla
fluorescente que facilitaba la exploración y registro de las imágenes radiológicas obtenidas
con los rayos X. También desarrolló en 1894 un sistema para aumentar en gran medida el
alcance de las comunicaciones telefónicas a través de líneas de hilo de cobre, mediante la
inserción a intervalos regulares a lo largo de la línea de transmisión de unas denominadas
bobinas de carga. Estas bobinas reciben en su honor el nombre de bobina de Pupin y el
método también se denomina pupinización.[51]
Véase también: Michael Pupin

[editar] Joseph John Thomson: los rayos catódicos (1897)


Artículo principal: Electrón

Joseph John Thomson

El físico inglés Joseph John Thomson (1856-1940) descubrió que los rayos catódicos
podían desviarse aplicando un campo magnético perpendicular a su dirección de
propagación y calculó las leyes de dicha desviación. Demostró que estos rayos estaban
constituidos por partículas atómicas de carga negativa que llamó corpúsculos y hoy en día
conocemos como electrones. Demostró que la nueva partícula que había descubierto era
aproximadamente mil veces más ligera que el hidrógeno. Esta fue la primera identificación
de partículas subatómicas, con las grandes consecuencias que esto tuvo en el consiguiente
desarrollo de la ciencia y de la técnica. Posteriormente, midiendo la desviación en campos
magnéticos, obtuvo la relación entre la carga y la masa del electrón. También examinó los
rayos positivos y, en 1912, descubrió la manera de utilizarlos para separar átomos de
diferente masa. El objetivo se consiguió desviando los rayos positivos con campos
electromagnéticos (espectrometría de masa). Así descubrió que el neón tiene dos isótopos
(el neón-20 y el neón-22). Todos estos trabajos sirvieron a Thomson para proponer una
estructura del átomo, que más tarde se demostró incorrecta, ya que suponía que las
partículas positivas estaban mezcladas homogéneamente con las negativas. Thomson
también estudió y experimentó sobre las propiedades eléctricas de los gases y la
conducción eléctrica a través de los mismos, y fue justamente por esa investigación que
recibió el Premio Nobel de Física en 1906.[52]
Véase también: Joseph John Thomson

[editar] Hermanos Lumière: el inicio del cine (1895)


Artículo principal: Historia del cine

Los Hermanos Lumière

A finales del siglo XIX varios inventores estuvieron trabajando en varios sistemas que
tenían un objetivo común: el visionado y proyección de imágenes en movimiento. Entre
1890 y 1895, son numerosas las patentes que se registran con el fin de ofrecer al público las
primeras "tomas de vistas" animadas. Entre los pioneros se encuentran los alemanes Max y
Emil Skladanowski, los estadounidenses Charles F. Jenkins, Thomas Armat y Thomas Alva
Edison (kinetoscopio), y los franceses hermanos Lumière (cinematógrafo). Sin embargo,
aunque ya existían películas no era posible proyectarlas en una sala cinematográfica. El
cine fue oficialmente inaugurado con la primera exhibición pública, en París, el 28 de
diciembre de 1895. La conexión del nuevo invento con la electricidad no fue inmediata,
porque los movimientos mecánicos se producían manualmente (lo que producía problemas
de variación de la velocidad, pero también era utilizado como parte de los efectos
especiales); mientras que la luz de las primeras linternas provenía de una llama generada
por la combustión de éter y oxígeno. Pero usar una llama junto al celuloide (que era
empleado como soporte para las películas, y que es muy inflamable) constituía una fuente
constante de graves peligros para proyeccionistas y espectadores, por lo que se buscaron
sustitutos a la fuente luminosa. Al extenderse las redes eléctricas se empleó el arco eléctrico
incandescente. Inicialmente se usaban dos electrodos de carbón alimentados con una
corriente continua, uno con carga positiva y otra con carga negativa. En la actualidad se
realiza el paso de la corriente continua a través de dos conductores, encerrados en una
cápsula de gas, normalmente xenón. Estas lámparas de xenón llevan en su interior dos
electrodos entre los que salta el arco voltaico que produce la luz. En cuanto a la
motorización eléctrica del funcionamiento de la cámara y del proyector se hizo ineludible
con el tiempo, sobre todo tras el paso al cine sonoro (primera proyección experimental en
París, 1900, y de un modo eficaz en Nueva York, 1923, siendo la primera película El
cantante de jazz, 1927), lo que implicaba también a las tecnologías del registro y
reproducción del sonido, inicialmente obtenido a partir de una banda lateral de opacidad
variable detectada por una celda fotoeléctrica (la banda sonora). A partir de entonces surgió
el concepto de medio audiovisual.
La tecnología del cine ha evolucionado mucho hasta el cine digital del siglo XXI y
simultáneamente ha evolucionado el lenguaje cinematográfico, incluyendo las
convenciones del género y los géneros cinematográficos. Más trascendente aún ha sido la
evolución conjunta de cine y sociedad, y el surgimiento de distintos movimientos
cinematográficos, cinematografías nacionales, etc. En Estados Unidos, Edison fue el
máximo impulsor del cine, consolidando una industria en la que deseaba ser el protagonista
indiscutible al considerarse como el único inventor y propietario del nuevo espectáculo. En
España, la primera proyección la ofreció un enviado de los Lumière a Madrid, el 15 de
mayo de 1896.[53]
Véase también: Hermanos Lumière

[editar] Guglielmo Marconi: la telegrafía inalámbrica (1899)

Guglielmo Marconi

Artículo principal: radio

El ingeniero y físico italiano Guglielmo Marconi (1874-1937), es conocido, principalmente,


como el inventor del primer sistema práctico de señales telegráficas sin hilos, que dio
origen a la radio actual. En 1899 logró establecer comunicación telegráfica sin hilos a
través del canal de la Mancha entre Inglaterra y Francia, y en 1903 a través del océano
Atlántico entre Cornualles, y Saint John's en Terranova, Canadá. En 1903 estableció en los
Estados Unidos la estación WCC, en cuya inauguración cruzaron mensajes de salutación el
presidente Theodore Roosevelt y el rey Eduardo VIII de Inglaterra. En 1904 llegó a un
acuerdo con el Servicio de Correos británico para la transmisión comercial de mensajes por
radio. Las marinas italiana y británica pronto adoptaron su sistema y hacia 1907 había
alcanzado tal perfeccionamiento que se estableció un servicio trasatlántico de telegrafía sin
hilos para uso público. Para la telegrafía fue un gran impulso el poder usar el código Morse
sin necesidad de cables conductores.
Aunque se le atribuyó la invención de la radio, la patente regresó al verdadero inventor, el
austro-húngaro Nikola Tesla, en 1943. También inventó la antena Marconi. En 1909
Marconi recibió, junto con el físico alemán Karl Ferdinand Braun, el Premio Nóbel de
Física por su trabajo.[54]
Véase también: Guglielmo Marconi
[editar] Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-1912)
Artículo principal: Lámpara de vapor de mercurio

El ingeniero eléctrico e inventor estadounidense Peter Cooper Hewitt (1861-1921) se hizo


célebre por la introducción de la lámpara de vapor de mercurio, uno de los más importantes
avances en iluminación eléctrica. En la década de 1890 trabajó sobre las experimentaciones
realizadas por los alemanes Julius Plücker y Heinrich Geissler sobre el fenómeno
fluorescente, es decir, las radiaciones visibles producidas por una corriente eléctrica que
pasa a través de un tubo de cristal relleno de gas. Los esfuerzos de Hewitt se encaminaron a
hallar el gas que resultase más apropiado para la producción de luz, y lo encontró en el
mercurio. La luz obtenida, por este método, no era apta para uso doméstico, pero encontró
aplicación en otros campos de la industria, como en medicina, en la esterilización de agua
potable y en el revelado de películas. En 1901 inventó el primer modelo de lámpara de
mercurio (aunque no registró la patente hasta 1912). En 1903 fabricó un modelo mejorado
que emitía una luz de mejor calidad y que encontró mayor utilidad en el mercado. El
desarrollo de las lámparas incandescentes de filamento de tungsteno, a partir de la década
de 1910, supuso una dura competencia para la lámpara de Hewitt, ya que, a pesar de ser
ocho veces menos eficientes que esta, poseían una luminosidad mucho más atractiva.[55]
Véase también: Peter Cooper Hewitt y Temperatura de color

[editar] Gottlob Honold: la magneto de alta tensión, la bujía (1902) y los


faros parabólicos (1913)

Gottlob Honold

Artículos principales: Magneto y Bujía

El ingeniero alemán Gottlob Honold (1876-1923), que trabajaba en la empresa Robert


Bosch, fue el primero que fabricó una bujía económicamente viable que, conectada a una
magneto de alta tensión, hizo posible el desarrollo de los motores de combustión interna de
ciclo Otto con velocidades de giro de varios miles de revoluciones por minuto y potencias
específicas. Una bujía es el elemento donde se produce una chispa provocando el encendido
de la mezcla de combustible y aire en los cilindros de un motor de ciclo Otto. Las primeras
patentes para la bujía datan de Nikola Tesla (Patente USPTO nº 609,250 en el que se diseña
un sistema temporizado de ignición repetida, en el año 1898), casi al mismo tiempo que
Frederik Richard Simms (GB 24859/1898, 1898) y Robert Bosch (GB 26907/1898). Karl
Benz también inventó su propia versión de bujía. Sin embargo, la bujía de Honold de 1902
era comercialmente viable, de alta tensión y podía realizar un mayor número de chispas por
minuto, razón por la que Daimler. La bujía tiene dos funciones primarias: producir la
ignición de la mezcla de aire y combustible y disipar parte del calor de la cámara de
combustión hacia el bloque motor por conducción térmica. Las bujías se clasifican por lo
que se conoce como rango térmico en función de su conductancia térmica. Las bujías
transmiten energía eléctrica que convierten al combustible en un sistema de energía. Una
cantidad suficiente de voltaje se debe de proveer al sistema de ignición para que pueda
generar la chispa a través de la calibración de la bujía.[56]
En 1913, Honold participó en el desarrollo de los faros parabólicos. Aunque se habían
utilizado anteriormente algunos sistemas de alumbrado para la conducción nocturna, los
primeros faros apenas alumbraban y servían poco más que como sistema de señalización.
Honold concibió la idea de colocar espejos parabólicos detrás de las lámparas para
concentrar el haz luminoso, lo que mejoraba la iluminación del camino sin necesidad de
usar un sistema eléctrico más potente.
Véase también: Gottlob Honold

[editar] Los cambios de paradigma del siglo XX


El efecto fotoeléctrico ya había sido descubierto y descrito por Heinrich Hertz en 1887. No
obstante, carecía de explicación teórica y parecía ser incompatible con las concepciones de
la física clásica. Esa explicación teórica solo fue posible con la obra de Albert Einstein
(entre los famosos artículos de 1905) quien basó su formulación de la fotoelectricidad en
una extensión del trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews
Millikan pasó diez años experimentando para demostrar que la teoría de Einstein no era
correcta pero terminó demostrando que sí lo era. Eso permitió que tanto Einstein como
Millikan recibiesen el premio Nobel en 1921 y 1923 respectivamente.
En 1893 Wilhelm Weber logró combinar la formulación de Maxwell con las leyes de la
termodinámica para tratar de explicar la emisividad del llamado cuerpo negro, un modelo
de estudio de la radiación electromagnética que tendrá importantes aplicaciones en
astronomía y cosmología.
En 1911 se prueba experimentalmente el modelo atómico de Ernest Rutherford (núcleo con
masa y carga positiva y corona de carga negativa), aunque tal configuración había sido
predicha en 1904 por el japonés Hantaro Nagaoka, cuya contribución había pasado
desapercibida.[57]
La llamada Gran Ciencia ligada a la investigación atómica necesitó superar retos
tecnológicos cuantitativamente impresionantes, pues era necesario hacer chocar partículas
con el núcleo atómico con cada vez mayor energía. Esta fue una de las primeras carreras
tecnológicas del siglo XX y que, independientemente del origen nacional de las ideas o
procesos puestos en práctica (muchos de ellos europeos: alemanes, austrohúngaros,
italianos, franceses , belgas o británicos), fueron ganadas por el eficaz e inquietante
complejo científico-técnico-productivo-militar de los Estados Unidos. En 1928 Merle Tuve
utilizó un transformador Tesla para alcanzar los tres millones de voltios. En 1932 John
Cockcroft y Ernest Walton observaron la desintegración de átomos de litio con un
multiplicador voltaico que alcanzaba los 125.000 voltios. En 1937 Robert van de Graaff
construyó generadores de cinco metros de altura para generar corrientes de 5 millones de
voltios. Ernest Lawrence, inspirado por el noruego Rolf Wideröe, construyó entre 1932 y
1940 sucesivos y cada vez mayores ciclotrones, confinadores magnéticos circulares, para
averiguar la estructura de las partículas elementales a base de someterlas a choques a
enormes velocidades.[58]
Los quarks (bautizados así en 1963 y descubiertos sucesivamente en los años 1970 y hasta
fechas tan próximas como 1996), así como las particularidades de su carga eléctrica aún
son una incógnita de la física de hoy en día.
La industria eléctrica crece con la sociedad de consumo de masas y pasa a la fase del
capitalismo monopolista de las grandes corporaciones multinacionales de tipo holding,
como las norteamericanas General Electric (derivada de la compañía de Edison) y
Westinghouse Electric (derivada de la de Westinghouse y Tesla), la Marconi Company
(más puramente multinacional que italiana), las alemanas AEG, Telefunken, Siemens AG y
Braun (esta última, más tardía, debe su nombre a Max Braun, no al físico Carl Ferdinand
Braun) o las japonesas Mitsubishi, Matsushita (Panasonic) Sanyo o Sony (éstas últimas
posteriores a la segunda guerra mundial). Incluso en países pequeños, pero desarrollados, el
sector eléctrico y la electrónica de consumo tuvo presencia temprana y destacada en los
procesos de concentración industrial, como son los casos de la holandesa Philips y la
finlandesa Nokia.
[editar] Hendrik Antoon Lorentz: Las transformaciones de Lorentz (1900) y
el efecto Zeeman (1902)

Lorentz con Einstein en 1921

Artículo principal: Efecto Zeeman

El físico holandés Hendrik Antoon Lorentz (1853-1928) realizó un gran número de


investigaciones en los campos de la termodinámica, la radiación, el magnetismo, la
electricidad y la refracción de la luz, entre las que destaca el estudio de la expresión de las
ecuaciones de Maxwell en sistemas inerciales y sus consecuencias sobre la propagación de
las ondas electromagnéticas. Formuló, conjuntamente con George Francis FitzGerald, una
explicación del experimento de Michelson y Morley sobre la constancia de la velocidad de
la luz, atribuyéndola a la contracción de los cuerpos en la dirección de su movimiento. Este
efecto, conocido como contracción de Lorentz-FitzGerald, sería luego expresado como las
transformaciones de Lorentz, las que dejan invariantes las ecuaciones de Maxwell,
posterior base del desarrollo de la teoría de la relatividad. Nombró a Pieter Zeeman su
asistente personal, estimulándolo a investigar el efecto de los campos magnéticos sobre las
transiciones de spin, lo que lo llevó a descubrir lo que hoy en día se conoce con el nombre
de efecto Zeeman, base de la tomografía por resonancia magnética nuclear. Por este
descubrimiento y su explicación, Lorentz compartió en 1902 el Premio Nobel de Física con
Pieter Zeeman[59]
Véase también: Hendrik Antoon Lorentz

[editar] Albert Einstein: El efecto fotoeléctrico (1905)


Artículo principal: Efecto fotoeléctrico

Albert Einstein Parque de las Ciencias de Granada

Al alemán nacionalizado norteamericano Albert Einstein (1879 – 1955) se le considera el


científico más conocido e importante del siglo XX. El resultado de sus investigaciones
sobre la electricidad llegó en 1905 (fecha trascendental que se conmemoró en el Año
mundial de la física 2005), cuando escribió cuatro artículos fundamentales sobre la física de
pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico
y desarrollaba la relatividad especial y la equivalencia entre masa y energía.
El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se le
ilumina con radiación electromagnética (luz visible o ultravioleta, en general). Ya había
sido descubierto y descrito por Heinrich Hertz en 1887, pero la explicación teórica no llegó
hasta que Albert Einstein le aplicó una extensión del trabajo sobre los cuantos de Max
Planck. En el artículo dedicado a explicar el efecto fotoeléctrico, Einstein exponía un punto
de vista heurístico sobre la producción y transformación de luz, donde proponía la idea de
quanto de radiación (ahora llamados fotones) y mostraba cómo se podía utilizar este
concepto para explicar el efecto fotoeléctrico. Una explicación completa del efecto
fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada.
A Albert Einstein se le concedió el Premio Nobel de Física en 1921.[60]
El efecto fotoeléctrico es la base de la producción de energía eléctrica por radiación solar y
de su aprovechamiento energético. Se aplica también para la fabricación de células
utilizadas en los detectores de llama de las calderas de las grandes usinas termoeléctricas.
También se utiliza en diodos fotosensibles tales como los que se utilizan en las células
fotovoltaicas y en electroscopios o electrómetros. En la actualidad (2008) los materiales
fotosensibles más utilizados son, aparte de los derivados del cobre (ahora en menor uso), el
silicio, que produce corrientes eléctricas mayores.
Véase también: Albert Einstein

[editar] Robert Andrews Millikan: El experimento de Millikan (1909)


Artículo principal: Experimento de Millikan

Robert Andrews Millikan

El físico estadounidense Robert Andrews Millikan (1868-1953) es conocido principalmente


por haber medido la carga del electrón, ya descubierta por J. J. Thomson. Estudió en un
principio la radioactividad de los minerales de uranio y la descarga en los gases. Luego
realizó investigaciones sobre radiaciones ultravioletas.
Mediante su experimento de la gota de aceite, también conocido como experimento de
Millikan, determinó la carga del electrón: 1,602 × 10-19 coulomb. La carga del electrón es la
unidad básica de cantidad de electricidad y se considera la carga elemental porque todos los
cuerpos cargados contienen un múltiplo entero de la misma. El electrón y el protón tienen
la misma carga absoluta, pero de signos opuestos. Convencionalmente, la carga del protón
se considera positiva y la del electrón negativa. Entre sus otras aportaciones a la ciencia
destacan su importante investigación sobre los rayos cósmicos, como él los denominó, y
sobre los rayos X, así como la determinación experimental de la constante de Planck,
midiendo la frecuencia de la luz y la energía de los electrones liberados en el efecto
fotoeléctrico. En 1923 fue galardonado con el Premio Nobel de Física por sus trabajos
para determinar el valor de carga del electrón y el efecto fotoeléctrico.[61]
Véase también: Robert Andrews Millikan

[editar] Heike Kamerlingh Onnes: Superconductividad (1911)

Heike Kamerlingh Onnes


Artículo principal: Superconductividad

El físico holandés Heike Kamerlingh Onnes (1853-1926) se dedicó principalmente al


estudio de la física a bajas temperaturas, realizando importantes descubrimientos en el
campo de la superconductividad eléctrica, fenómeno que sucede cuando algunos materiales
están a temperaturas cercanas al cero absoluto. Ya en el siglo XIX se llevaron a cabo
diversos experimentos para medir la resistencia eléctrica a bajas temperaturas, siendo James
Dewar el primer pionero en este campo. Sin embargo, la superconductividad como tal no se
descubriría hasta 1911, año en que Onnes observó que la resistencia eléctrica del mercurio
desaparecía bruscamente al enfriarse a 4K (-269°C), cuando lo que se esperaba era que
disminuyera gradualmente. En 1913 fue galardonado con el Premio Nobel de Física por, en
palabras del comité, "sus investigaciones en las características de la materia a bajas
temperaturas que permitieron la producción del helio líquido".[62]
Véase también: Heike Kamerlingh Onnes

[editar] Vladimir Zworykin: La televisión (1923)


Artículo principal: Televisión

Vladimir Zworykin

El ingeniero ruso Vladimir Zworykin (1889-1982) dedicó su vida al desarrollo de la


televisión, la electrónica y la óptica. Desde muy joven estaba persuadido de que la solución
práctica de la televisión no sería aportada por un sistema mecánico, sino por la puesta a
punto de un procedimiento que utilizara los tubos de rayos catódicos. Emigró a Estados
Unidos y empezó a trabajar en los laboratorios de la Westinghouse Electric and
Manufacturing Company, en Pittsburg. En la Westinghouse tuvo libertad para continuar
con sus proyectos personales, es decir, sus trabajos sobre la televisión, especialmente sobre
el iconoscopio (1923), un dispositivo que convertía imágenes ópticas en señales eléctricas.
Otro de sus inventos, que posibilitó una televisión enteramente electrónica, fue el
kinescopio que transformaba las señales eléctricas del iconoscopio en imágenes visibles,
aunque de baja resolución. Los trabajos de investigación de Zworykin y de su grupo de
colaboradores no se limitaron sólo a la televisión, abarcaron muchos otros aspectos de la
electrónica, sobre todo los relacionados con la óptica. Su actividad en este campo permitió
el desarrollo de dispositivos tan importantes como los tubos de imágenes y multiplicadores
secundarios de emisión de distintos tipos. Un gran número de aparatos electrónicos
militares utilizados en la segunda guerra mundial son resultado directo de las
investigaciones de Zworykin y de sus colaboradores, quien también participó en la
invención del microscopio electrónico.[63]
Véase también: Vladimir Zworykin

[editar] Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)


Artículo principal: Frecuencia modulada

Edwin Howard Armstrong

El ingeniero eléctrico estadounidense Edwin Howard Armstrong (1890-1954) fue uno de


los inventores más prolíficos de la era de la radio, al desarrollar una serie de circuitos y
sistemas fundamentales para el avance de este sistema de comunicaciones. En 1912
desarrolló el circuito regenerativo, que permitía la amplificación de las débiles señales de
radio con poca distorsión, mejorando mucho la eficiencia de los circuitos empleados hasta
el momento. En 1918 desarrolló el circuito superheterodino, que dio un gran impulso a los
receptores de amplitud modulada (AM). En 1920 desarrolló el circuito super-regenerador,
muy importante en las comunicaciones con dos canales. En 1935 desarrolló el sistema de
radiodifusión de frecuencia modulada (FM) que, además de mejorar la calidad de sonido,
disminuyó el efecto de las interferencias externas sobre las emisiones de radio, haciéndolo
muy inferior al del sistema de amplitud modulada (AM). El sistema de frecuencia
modulada (FM), que es hoy el más empleado en radio y televisión, no se empezó a emplear
comercialmente hasta después de su muerte. Muchas invenciones de Armstrong fueron
reclamadas por otros en pleitos de patente.[64]
Véase también: Edwin Howard Armstrong

[editar] Robert Watson-Watt: El radar (1935)


Artículo principal: Radar

Robert Watson-Watt
El radar (acrónimo de radio detection and ranging, detección y medición de distancias por
radio) fue creado en 1935 y desarrollado principalmente en Inglaterra durante la Segunda
Guerra Mundial. Su mayor impulsor fue el físico Robert Watson-Watt (1892-1973),
director del Laboratorio de Investigación de Radio. Ya en 1932, la Oficina Postal Británica
publicó un informe en el que sus científicos documentaron fenómenos naturales que
afectaban la intensidad de la señal electromagnética recibida: tormentas eléctricas, vientos,
lluvia y el paso de un aeroplano en la vecindad del laboratorio. Arnold Wilkins (1907-
1985), físico ayudante de Watson-Watts, conoció este informe de manera accidental,
conversando con la gente de la Oficina Postal, que se quejaba por la interferencia. Cuando
Wilkins sugirió la posibilidad de utilizar el fenómeno de interferencia de ondas de radio
para detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para trabajar
en el cálculo de los aspectos cuantitativos.
El radar dio a la aviación británica una notable ventaja táctica sobre la alemana durante la
Batalla de Inglaterra, cuando aún era denominado RDF (Radio Direction Finding). En la
actualidad es una de las principales ayudas a la navegación con que cuenta el control de
tráfico aéreo de todo tipo, militar y civil.[65]
Véase también: Robert Watson-Watt

[editar] La segunda mitad del siglo XX: Era Espacial o Edad


de la Electricidad
Artículo principal: Era espacial

Después de la segunda guerra mundial, el mundo bipolar enfrentado a la guerra fría entre
los Estados Unidos y la Unión Soviética presenció la frenética carrera de armamentos y la
carrera espacial que impulsó de modo extraordinario la competencia científica y
tecnológica entre ambos países- En la sociedad de consumo capitalista, orientada al
mercado, algunos de estos logros encontraron aplicación a la vida cotidiana como retorno
tecnológico de lo invertido en las áreas de investigación puntera; caso de algunos rubros de
la industria ligera y los servicios (terciarización), mientras que en el bloque soviético la
planificación estatal privilegiaba la industria pesada. La reconstrucción de Europa
Occidental y Japón permitió que en ambos espacios se pudiera continuar a la vanguardia de
la ciencia y la tecnología, además de contribuir con la fuga de cerebros a los espacios
centrales.
Al científico y el inventor individual, ahora reemplazados en prestigio por el empresario
schumpeteriano, le sucedieron los equipos científicos vinculados a instituciones públicas o
privadas, cada vez más interconectadas y retroalimentadas en lo que se denomina
investigación y desarrollo (I+D) o incluso I+D+I (investigación, desarrollo e innovación).
Los programas de investigación se han hecho tan costosos, con tantas implicaciones y a tan
largo plazo que las decisiones que les afectan han de ser tomadas por instancias políticas y
empresariales de alto nivel, y su publicidad o su mantenimiento en secreto (con fines
estratégicos o económicos) constituyen un problema serio de control social (con principios
democráticos o sin ellos).
La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la denominada
Revolución científico-técnica de la tercera revolución industrial, con avances de las
tecnologías (especialmente la electrónica y la medicina) y las ciencias, que ha dado lugar al
desarrollo de una numerosísima serie de inventos -dependientes de la electricidad y la
electrónica en su diseño y funcionamiento- que transformaron la vida social, primero en las
clases medias de los países desarrollados, y posteriormente en todo el mundo con el
proceso de globalización. El desarrollo de las telecomunicaciones e internet permite hablar
de una sociedad de la información en la que, en los países industrialmente más
desarrollados las decisiones económicas (como consumir, producir y distribuir), sociales
(como el establecimiento de todo tipo de relaciones personales, redes sociales y redes
ciudadanas) y políticas (como informarse y opinar, aunque la democracia electrónica sólo
está esbozada) se transmiten instantáneamente, lo que permitió a Marshall McLuhan hablar
de la Edad de la Electricidad.
La automatización (en estadios más avanzados la robótica, que aún no se ha desarrollado
plenamente) transformó radicalmente los procesos de trabajo industrial. Es posible hablar
ya no de una sociedad industrial opuesta a la sociedad preindustrial, sino incluso una
sociedad postindustrial basada en parámetros completamente nuevos. Entre los inventos
que han contribuido a la base material de esa nueva forma de vida caben destacar:
electrodomésticos, electrónica digital, ordenadores, robótica, satélites artificiales de
comunicación, energía nuclear, trenes eléctricos, refrigeración y congelación de alimentos,
electromedicina,etc.
[editar] Televisión
Artículo principal: Televisión

Diseño de la patente del iconoscopio de Vladimir Zworykin.

1923: El tubo de rayos catódicos era conocido desde finales del siglo XIX, pero su uso
debía esperar al diseño de un emisor eficaz, que se logró con el iconoscopio de Vladimir
Zworykin, un ingeniero ruso que venía diseñando tubos perfeccionados desde 1923. Se
basaba en miles de pequeñas células fotoeléctricas independientes cada una con tres capas:
una intermedia muy fina de mica, otra de una sustancia conductora (grafito en polvo
impalpable o plata) y otra fotosensible compuesta de millares de pequeños globulitos de
plata y óxido de cesio. Este mosaico, conocido con el nombre de mosaico electrónico de
Zworykin, se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante
un sistema de lentes, la imagen a captar. La parte relativa a la recepción y reproducción
fueron tubos catódicos derivados del disector de imagen de Philo Farnsworth (1927).
La primera imagen sobre un tubo de rayos catódicos se había formado en 1911 en el
Instituto Tecnológico de San Petersburgo y consistió en unas rayas blancas sobre fondo
negro, obtenidas por Boris Rosing en colaboración con Zworykin. La captación se realizó
mediante dos tambores de espejos (sistema Weiller) y generaba una exploración
entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran
generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las
bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que
recibía la célula fotoeléctrica.
Hay muchos países (Alemania, Inglaterra, Francia, Estados Unidos) que se disputan la
primacía en las primeras emisiones públicas de televisión, con un procedimiento u otro.
Desde finales de los años veinte se hicieron por procedimientos mecánicos anteriores al
iconoscopio, a cargo de empresas públicas (BBC en Inglaterra) o privadas (CBS o NBC en
Estados Unidos). En los primeros años treinta ya utilizaban el iconoscopio, como las que
tuvieron lugar en París en 1932 con una definición de 60 líneas. La precariedad de las
células empleadas para la captación hacía que se debiera iluminar muy intensamente las
escenas, produciendo tanto calor que sólo era posible el desarrollo del trabajo en los platós
por tiempos breves. Tres años después se emitía con 180 líneas.
Desde finales de los años treinta, culminando en la Feria Mundial de Nueva York de 1939,
se emitían programaciones regulares de televisión que fueron interrumpidas durante la
segunda guerra mundial. Para 1948, la naturaleza futura del invento todavía permitía
imaginaciones ucrónicas como la de George Orwell (1984 (novela)), en que aparece
encarnando la omnipresencia totalitaria del Big Brother (Gran Hermano).
A finales de los años cincuenta se desarrollaron los primeros magnetoscopios y las cámaras
con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos
avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación
electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción. En los
años setenta se implementaron las ópticas Zoom y se empezaron a desarrollar
magnetoscopios más pequeños que permitían la grabación de las noticias en el lugar donde
se producían, con lo que nace el periodismo electrónico o ENG. La implantación de
sucesivas mejoras como la televisión en color y la televisión digital se ve frenado no tanto
por el desarrollo científico-tecnológico, sino por factores comerciales y por la dispersión y
el coste de sustitución de los equipos.[66]
[editar] Ordenadores
Artículo principal: Historia de la informática

Véase también: Microprocesador

ENIAC

1941 La primera computadora electrónica funcional de que se tiene noticia fue la alemana
Z3 de Konrad Zuse, construida en 1941 y destruida en los bombardeos aliados de 1943. La
utilización comercial de este tipo de aparatos, que revolucionaron la gestión de la
información y toda la vida social, económica y científica, tuvo que esperar a los años
cincuenta, tras su desarrollo en Estados Unidos.
La británica Colossus (diseñada por Tommy Flowers en la Estación de Investigación de la
Oficina Postal) y la estadounidense Harvard Mark I (construida por Howard H. Aiken en la
Universidad de Harvard con subvención de IBM entre 1939 y 1943), llegaron a tiempo de
usarse en la fase final de la segunda guerra mundial (1944-1945), la primera en el
descifrado de mensajes alemanes y la segunda para el cálculo de tablas de balística .
Inmediatamente después de la guerra, el Electronic Numerical Integrator And Computer
(Computador e Integrador Numérico Electrónico, ENIAC)[67] utilizado por el Laboratorio
de Investigación Balística del Ejército de los Estados Unidos fue construido en 1946 en la
Universidad de Pennsylvania por John Presper Eckert y John William Mauchly. Consumía
una potencia eléctrica suficiente para abastecer una pequeña ciudad, ocupaba una superficie
de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío, 7.200
diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de
soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores
electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su
programa o software, cuando requería modificaciones, tardaba semanas de instalación
manual. La ENIAC podía resolver 5.000 sumas y 360 multiplicaciones en 1 segundo. Se
desactivó en 1955.
Le sustituyó en la misma institución la Electronic Discrete Variable Automatic Computer
(EDVAC),[68] en 1949. A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el
primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de
arquitectura para la mayoría de las computadoras modernas y un hito en la historia de la
informática. A los diseñadores anteriores se les había unido el gran matemático John von
Neumann. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de
entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor magnético
en 1954 y una unidad de aritmética de punto flotante en 1958. Dejó de estar en activo en
1961.
La UNIVAC I (UNIVersal Automatic Computer I, computadora automática universal I),
también debida a J. Presper Eckert y John William Mauchly, fue la primera computadora
comercial y la primera diseñada desde el principio para su uso en administración y
negocios. El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos
(United States Census Bureau) en 1951 y fue puesto en servicio ese mismo año. Competía
directamente con las máquinas de tarjeta perforada hechas principalmente por IBM. Para
facilitar la compatibilidad de ambos tipos de máquina se construyó un equipo de
procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el
convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las
cintas magnéticas que empleaba alternativamente.
IBM anunció en 1953 la primera producción a gran escala de una computadora, el IBM
650: 2000 unidades desde 1954 hasta 1962. Era un diseño orientado hacia los usuarios de
máquinas contables anteriores, como las tabuladoras electromecánicas (con tarjetas
perforadas) o el modelo IBM 604. Pesaba alrededor de 900 kg, y su unidad de alimentación
unos 1350. Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros. Costaba
500.000 dólares, pero podía alquilarse por 3.500 al mes.
La tercera generación de este tipo de máquinas se inició con IBM 360, la primera en la
historia en ser atacada con un virus informático. Comercializada a partir de 1964, fue la
primera que usaba el término byte para referirse a 8 bits (con cuatro bytes creaba una
palabra de 32-bits). Su arquitectura de computación fue la que a partir de este modelo
siguieron todos los ordenadores de IBM. El sistema también hizo popular la computación
remota, con terminales conectadas a un servidor, por medio de una línea telefónica. Fue una
de las primeras computadoras comerciales que usó circuitos integrados, y podía realizar
tanto análisis numéricos como administración o procesamiento de archivos.
El Intel 4004 (i4004, primero de Intel), un CPU de 4bits, fue lanzado en un paquete de 16
pines CERDIP en 1971, siendo el primer microprocesador en un simple chip, así como el
primero disponible comercialmente. Daría paso a la construcción de los ordenadores
personales. El circuito 4004 fue construido con 2.300 transistores, y fue seguido el año
siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3.300 transistores,
y el 4040, versión revisada del 4004. El CPU que comenzó la revolución del
microcomputador, sería el 8080, usado en el Altair 880. El microprocesador es un circuito
integrado que contiene todos los elementos necesarios para conformar una "unidad central
de procesamiento" (UCP o CPU: Central Process Unit). En la actualidad este tipo de
componente electrónico se compone de millones de transistores, integrados en una misma
placa de silicio.
[editar] Transistor, Electrónica digital y Superconductividad
Artículo principal: Transistor

Artículo principal: Circuito integrado

Artículo principal: Superconductividad

Detalle de un circuito integrado

1948 La electrónica, que estudia y emplea sistemas cuyo funcionamiento se basa en la


conducción y el control del flujo microscópico de los electrones u otras partículas cargadas
eléctricamente, comenzó con el diodo de vacío inventado por John Ambrose Fleming en
1904, dispositivo basado en el efecto Edison. Con el tiempo las válvulas de vacío se fueron
perfeccionando y mejorando, apareciendo otros tipos y miniaturizándose. El paso esencial
lo dio el físico estadounidense Walter Houser Brattain (1902-1987), incorporado en 1929 a
los laboratorios Bell, donde fue partícipe junto con John Bardeen (1908-1991) -incorporado
en 1945- y William Bradford Shockley del invento de un pequeño dispositivo electrónico
semiconductor que cumplía funciones de amplificador, oscilador, conmutador o
rectificador: el transistor. La palabra elegida para denominarlo es la contracción en inglés
de transfer resistor ("resistencia de transferencia"). Sustituto de la válvula termoiónica de
tres electrodos o triodo, el primer transistor de puntas de contacto funcionó en diciembre de
1947; se anunció por primera vez en 1948 pero no se terminó de fabricar hasta 1952, tras
lograr construir un dispositivo con germanio el 4 de julio de 1951, culminando así su
desarrollo. El transistor de unión bipolar apareció algo más tarde, en 1949, y es el
dispositivo utilizado actualmente para la mayoría de las aplicaciones electrónicas. Sus
ventajas respecto a las válvulas son entre otras menor tamaño y fragilidad, mayor
rendimiento energético, menores tensiones de alimentación y consumo de energía. El
transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor
(silicio), razón por la que no necesitan centenares de voltios de tensión para funcionar.
El transistor ha contribuido, como ninguna otra invención, al gran desarrollo actual de la
electrónica y la informática, empleándose comercialmente en todo tipo de aparatos
electrónicos, tanto domésticos como industriales. La primera aplicación de estos
dispositivos se hizo en los audífonos. Por su trabajo con los semiconductores y por el
descubrimiento del transistor, Walter Houser Brattain compartió con Shockley y Bardeen
en 1956 el Premio Nóbel de Física.[69]
La construcción de circuitos electrónicos permitió resolver muchos problemas prácticos
(control, procesado y distribución de información, conversión y distribución de la energía
eléctrica, etc.). En 1958 se desarrolló el primer circuito integrado, que integraba seis
transistores en un único chip, y en 1970 se desarrolló el primer microprocesador (Intel
4004).
En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha
dividido en varias ciencias especializadas, partiendo de la distinción entre electrónica
analógica y electrónica digital; y en los campos de la ingeniería electrónica, la
electromecánica, la informática (diseño de software para su control), la electrónica de
control, las telecomunicaciones y la electrónica de potencia.[70]
En 1951 Bardeen, uno de los diseñadores del transistor, ingresó en la Universidad de
Illinois, nombrando asistente personal al físico Nick Holonyak, el cual posteriormente
diseñaría el primer Diodo LED en 1962. Trabajó junto a Leon N. Cooper y John Robert
Schrieffer para crear la teoría estándar de la superconductividad, es decir, la desaparición
de la resistencia eléctrica en ciertos metales y aleaciones a temperaturas cercanas al cero
absoluto. Por estos trabajos compartió nuevamente, en 1972, el Premio Nobel de Física con
los físicos estadounidenses Leon N. Cooper y John R. Schrieffer. Esto hizo que él fuera el
primer científico que ganó dos premios Nobel en la misma disciplina.[71] Las aplicaciones
de la superconductividad están todavía en las primeras fases de su desarrollo, pero ya han
permitido los electroimanes más poderosos (que se usan en los trenes maglev, resonancia
magnética nuclear y aceleradores de partículas); circuitos digitales y filtros de
radiofrecuencia y microondas para estaciones base de telefonía móvil; o los magnetómetros
más sensibles (uniones Josephson, de los SQUIDs -dispositivos superconductores de
interferencia cuántica-).
[editar] El reto de la generación de electricidad
[editar] Centrales nucleares
Torres de refrigeración de la central nuclear de Cofrentes, España

Artículo principal: Energía nuclear

1951 Una central nuclear es una instalación industrial empleada para la generación de
energía eléctrica a partir de energía nuclear, que se caracteriza por el empleo de materiales
fisionables que mediante reacciones nucleares proporcionan calor. Este calor es empleado
por un ciclo termodinámico convencional para mover un alternador y producir energía
eléctrica. Las centrales nucleares constan de uno o varios reactores.
Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones nucleares
espontáneas o provocadas por el hombre. Estas reacciones se dan en algunos isótopos de
ciertos elementos químicos, siendo el más conocido de este tipo de energía la fisión del
uranio-235 (235U), con la que funcionan los reactores nucleares. Sin embargo, para producir
este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros
isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o el polonio.
Los dos sistemas con los que puede obtenerse energía nuclear de forma masiva son la fisión
nuclear y la fusión nuclear.
El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J. Robert
Oppenheimer, se construyó el Chicago Pile-1 (CP-1), primer reactor nuclear hecho por el
hombre (existió un reactor natural en Oklo). El Departamento de Defensa de los Estados
Unidos propuso el diseño y construcción de un reactor nuclear utilizable para la generación
eléctrica y propulsión en los submarinos a dos empresas distintas norteamericanas: General
Electric y Westinghouse. Estas empresas desarrollaron los reactores de agua ligera tipo
BWR y PWR respectivamente. Los mismos diseños de reactores de fisión se trasladaron a
diseños comerciales para la generación de electricidad. Los únicos cambios producidos en
el diseño con el transcurso del tiempo fueron un aumento de las medidas de seguridad, una
mayor eficiencia termodinámica, un aumento de potencia y el uso de las nuevas tecnologías
que fueron apareciendo.
El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un
reactor nuclear (en el reactor americano EBR-I, con una potencia de unos 100 kW), pero no
fue hasta 1954 cuando se conectó a la red eléctrica una central nuclear (fue la central
nuclear rusa de Obninsk, generando 5 MW con solo un 17% de rendimiento térmico). La
primera central nuclear con un rendimiento comercial fue la británica de Calder Hall, en
Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada posteriormente a 200
MW).[72] El desarrollo de la energía nuclear en todo el mundo experimentó a partir de ese
momento un gran crecimiento, de forma muy particular en Francia y Japón, donde la crisis
del petróleo de 1973 influyó definitivamente, ya que su dependencia en el petróleo para la
generación eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un reactor
RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en
occidente, acabó radicalmente con ese crecimiento. A partir de entonces, con la caída del
bloque del este desde 1989, el movimiento antinuclear, que se opone por un lado al arma
nuclear y por otra parte a la utilización de la energía nuclear, se ha visto desplazado de la
vanguardia del movimiento ecologista por otras cuestiones, como el cambio climático.
En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7
millones de MWh en 2006. La potencia instalada en 2007 era de 370.721 MWe. Aunque
solo 30 países en el mundo poseen centrales nucleares, aproximadamente el 15% de la
energía eléctrica generada en el mundo se produce a partir de energía nuclear, aunque el
porcentaje está actualmente en disminución.[73] La mayoría de los países con centrales
nucleares han suspendido nuevas construcciones debido a los problemas de disposición
final de los combustibles nucleares, cuya actividad (y riesgos para la vida humana) perdura
durante muchos miles de años. Algunos científicos, como el galardonado físico Freeman
Dyson, sostienen que la exageración de los beneficios de la energía nuclear provienen de
una combinación de factores económicos y del sentido de culpa por los bombardeos
atómicos sobre Hiroshima y Nagasaki.
Véase también: Controversia sobre la energía nuclear

[editar] Combustibles fósiles y fuentes renovables


El primer uso industrial de la energía hidráulica para la generación de electricidad
alimentaba mediante una turbina dieciséis lámparas de arco de la fábrica Wolverine en
Grand Rapids (Estados Unidos, 1880).[74] La primera central hidroeléctrica entró en
funcionamiento ese mismo año en Northumberland, Gran Bretaña,[75] y la primera ciudad en
tener un suministro eléctrico fue Godalming, en Surrey (Inglaterra), ese mismo año, a
corriente alterna con un alternador Siemens y una dinamo conectada a una rueda hidráulica,
que funcionó sólo tres años.[76]
Dos años más tarde se abrió la primera central hidráulica estadounidense (río Fox,
Appleton, Wisconsin). El mismo año (1882), Edison abría la primera central eléctrica
urbana comercial. No utilizaba fuentes renovables, sino la generación térmica a petróleo
(con tres veces mayor eficiencia que los modelos anteriores, no comerciales), en Pearl
Street (Nueva York), de 30 kW de potencia a 220-110 V de corriente continua. En 1895, su
competidor, Westinghouse, abre la primera central de corriente alterna en el Niágara.[77] La
desconfianza de Edison hacia la corriente alterna se mantuvo hasta 1892 y hasta finales del
siglo XIX se usaba principalmente corriente continua para la iluminación.[78] El desarrollo
del generador eléctrico y el perfeccionamiento de la turbina hidráulica respondieron al
aumento de la demanda de electricidad del siglo XX, de modo que desde 1920 el porcentaje
la hidroelectricidad en la producción total de electricidad era ya muy significativo. Desde
entonces la tecnología de las principales instalaciones no ha variado sustancialmente. Una
central hidroeléctrica es aquella que se utiliza para la generación de energía eléctrica
mediante el aprovechamiento de la energía potencial del agua embalsada en una presa
situada a más alto nivel que la central. El agua se lleva por una tubería de descarga a la sala
de máquinas de la central, donde mediante enormes turbinas hidráulicas se produce la
generación de energía eléctrica en alternadores.
Las dos características principales de una central hidroeléctrica, desde el punto de vista de
su capacidad de generación de electricidad son:
1. La potencia, que es función del desnivel existente entre el nivel medio
del embalse y el nivel medio de las aguas debajo de la central, y del
caudal máximo turbinable, además de las características de la turbina y
del generador.
2. La energía garantizada en un lapso de tiempo determinado,
generalmente un año, que está en función del volumen útil del embalse,
de la pluviometría anual y de la potencia instalada.
Esta forma de obtener energía eléctrica no está libre problemas medioambientales al
necesitar la construcción de grandes embalses en los que acumular el agua, modificando el
paisaje y los anteriores usos, tanto naturales como humanos, del agua y el entorno afectado.
Proyectos gigantescos (presa de Asuán en Egipto, de Itaipú entre Brasil y Paraguay, o de
las Tres Gargantas en China) tienen repercusiones de todo tipo, e incluso su viabilidad a
largo plazo es cuestionada. Las minicentrales hidráulicas suelen ser mejor consideradas
desde ese punto de vista, aunque su capacidad de generación es mucho más limitada.

Capacidad eólica mundial total instalada y previsiones 1997-2010. Fuente:


WWEA e.V.

Actualmente se encuentra en desarrollo la explotación comercial de la conversión en


electricidad del potencial energético que tiene el oleaje del mar, en las llamadas Centrales
mareomotrices. Estas utilizan el flujo y reflujo de las mareas. En general pueden ser útiles
en zonas costeras donde la amplitud de la marea sea amplia, y las condiciones morfológicas
de la costa permitan la construcción de una presa que corte la entrada y salida de la marea
en una bahía. Se genera energía tanto en el momento del llenado como en el momento del
vaciado de la bahía.
Otras energías renovables, como la energía solar;[79] tienen una historia muy anterior a su
utilización como generadoras de electricidad, e incluso en este campo surgieron tecnologías
ya en el siglo XIX: solar con Edmund Becquerel en 1839 y Augustin Mouchet en 1861;
eólica desde 1881, aunque el desarrollo de rotores verticales eficaces llegó con Klemin,
Savoius y Darrieus, diseñados en 1925, 1929 y 1931).
El impulso actual de las energías renovables proviene de las necesidades energéticas de la
crisis del petróleo de 1973 y, más recientemente, del hecho de que no emitan gases
causantes de efecto invernadero, contrariamente a los combustibles fósiles (carbón, petróleo
o gas natural). La producción de electricidad solar y, sobre todo, eólica está en fuerte auge
aunque aún no ha desarrollado todo su potencial.
Las tecnologías utilizadas en las centrales termoeléctricas que utilizan combustibles fósiles
se han perfeccionado, tanto para obtener una mayor eficiencia energética (ciclo combinado)
como para reducir su impacto contaminante (lluvia ácida), lo que incluye las emisiones de
gases de efecto invernadero (captura y almacenamiento de carbono).
La pila de combustible[80] ligada a las tecnologías del hidrógeno es uno de las últimos
diseños propuestos para la sustitución de las energías tradicionales.
[editar] Robótica y máquinas CNC
Artículos principales: Robot y Control numérico por computadora

1952 Una de las innovaciones más importantes y trascendentales en la producción de todo


tipo de objetos en la segunda mitad del siglo XX ha sido la incorporación de robots,
autómatas programables[81] y máquinas guiadas por control numérico por computadora
(CNC) en las cadenas y máquinas de producción, principalmente en tareas relacionadas con
la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas
innovaciones tecnológicas han sido viables entre otras cosas por el diseño y construcción de
nuevas generaciones de motores eléctricos de corriente continua controlados mediante
señales electrónicas de entrada y salida, y el giro que pueden tener en ambos sentidos, así
como la variación de su velocidad de acuerdo con las instrucciones contenidas en el
programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores
eléctricos: motores paso a paso, servomotores o motores encoder y motores lineales. El
primer desarrollo en el área del control numérico por computadora (CNC) lo realizó el
inventor norteamericano John T. Parsons (Detroit 1913-2007)[82] junto con su empleado
Frank L. Stulen, en la década de 1940, realizando la primera demostración práctica de
herramienta con movimiento programado en 1952.
La robótica es una rama de la tecnología (y que integra el álgebra, los autómatas
programables, las máquinas de estados, la mecánica, la electrónica y la informática), que
estudia el diseño y construcción de máquinas capaces de desempeñar tareas repetitivas,
tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano o tareas
irrealizables sin intervención de una máquina. Esas máquinas, los robots mantienen la
conexión de retroalimentación inteligente entre el sentido y la acción directa bajo el control
de un ordenador previamente programado con las tareas que tiene que realizar. Las
acciones de este tipo de robots son generalmente llevadas a cabo por motores o actuadores
que mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov[83] da una versión
humanizada a través de su conocida serie de relatos, en los que introduce por primera vez el
término robótica con el sentido de disciplina científica encargada de construir y programar
robots. Además, este autor plantea que las acciones que desarrolla un robot deben ser
dirigidas por una serie de reglas morales, llamadas las Tres leyes de la robótica.
Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias, peligrosas,
difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la forma de un
robot industrial usado en las líneas de producción. Otras aplicaciones incluyen la limpieza
de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y
localización de minas terrestres. La manufactura continúa siendo el principal mercado
donde los robots son utilizados. En particular, robots articulados (similares en capacidad de
movimiento a un brazo humano) son los más usados comúnmente. Las aplicaciones
incluyen soldado, pintado y carga de maquinaria. La industria automotriz ha tomado gran
ventaja de esta nueva tecnología donde los robots han sido programados para reemplazar el
trabajo de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un gran
avance en los robots dedicados a la medicina que utiliza robots de última generación en
procedimientos de cirugía invasiva mínima. La automatización de laboratorios también es
un área en crecimiento. Los robots parecen estar abaratándose y empequeñeciéndose en
tamaño, todo relacionado con la miniaturización de los componentes electrónicos que se
utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho
antes de que sean construidos e interactúen con ambientes físicos reales.[84]
[editar] Láser
Artículo principal: Láser

En 1960 el físico norteamericano Charles Townes (1915 -) realizó en la Universidad de


Columbia el descubrimiento que le proporcionaría su salto a la fama científica: fue descrito
como Microwave Amplification by Stimulated Emission of Radiation (máser). Sin embargo
fue el físico norteamericano Gordon Gould (1920-2005) quien patentó los primeros láseres
para usos industriales y militares, a pesar de que hubo muchos pleitos porque varios
científicos estaban estudiando la posibilidad de tecnologías similares a partir de las teorías
desarrolladas por Einstein sobre la emisión estimulada de radiación. Ello fue así porque
Gould fue el científico que primero lo fabricó y le puso el nombre: Light Amplification by
Stimulated Emission of Radiation (Amplificación de Luz por Emisión Estimulada de
Radiación, LASER)[85] No obstante, fue a Charles Townes a quien le fue concedido el
premio Nobel de Física en 1964.
Un láser es un dispositivo que utiliza un efecto de la mecánica cuántica, la emisión inducida
o estimulada, para generar un haz de luz coherente de un medio adecuado y con el tamaño,
la forma y la pureza controlados. El tamaño de los láseres varía ampliamente, desde diodos
láser microscópicos con numerosas aplicaciones, al láser de cristales dopados con neodimio
con un tamaño similar al de un campo de fútbol, usado para la fusión de confinamiento
inercial, la investigación sobre armamento nuclear u otros experimentos físicos en los que
se presenten altas densidades de energía. Desde su invención en 1960 se han vuelto
omnipresentes y se pueden encontrar en miles de variadas aplicaciones en cualquier sector
de la sociedad actual, incluyendo campos tan dispares como la electrónica de consumo y las
tecnologías de la información (sistemas de lectura digital de los discos duros, los CD y los
DVD y del código de barras), hasta análisis científicos y métodos de diagnóstico en
medicina, así como el mecanizado, soldadura o sistemas de corte en sectores industriales y
militares.[86]
[editar] Electrificación de los ferrocarriles
Artículo principal: Locomotoras
Train à Grande Vitesse

Una de las aplicaciones más significativas de la electricidad fue la casi total electrificación
de los ferrocarriles en los países más industrializados. La primera fase de este proceso, más
generalizada que la segunda, fue la sustitución de las locomotoras que utilizaban carbón,
por las locomotoras llamadas diésel que usan combustible obtenido del petróleo. Las
locomotoras diésel-eléctricas consisten básicamente en dos componentes: un motor diésel
que mueve un generador eléctrico y varios motores eléctricos (conocidos como motores de
tracción) que comunican a las ruedas (pares) la fuerza tractiva que mueve a la locomotora.
Generalmente hay un motor de tracción por cada eje, siendo generalmente 4 o 6 en una
locomotora típica. Los motores de tracción se alimentan con corriente eléctrica y luego, por
medio de engranajes , mueven las ruedas. En el caso de las locomotoras diésel no hace falta
que las vías estén electrificadas, y ya se usan en casi todas las vías del mundo estén las vías
electrificadas o no.
El siguiente avance tecnológico fue la puesta en servicio de locomotoras eléctricas directas,
las que usan como fuente de energía la energía eléctrica proveniente de una fuente externa,
para aplicarla directamente a motores de tracción eléctricos. Las locomotoras eléctricas
requieren la instalación de cables eléctricos de alimentación a lo largo de todo el recorrido,
que se sitúan a una altura por encima de los trenes a fin de evitar accidentes. Esta
instalación se conoce como catenaria. Las locomotoras toman la electricidad por un trole,
que la mayoría de las veces tiene forma de pantógrafo y como tal se conoce. El coste de la
instalación de alimentación hace que la tracción eléctrica solamente sea rentable en líneas
de gran tráfico, o bien en vías con gran parte del recorrido en túnel bajo montañas o por
debajo del mar, con dificultades para la toma de aire para la combustión de los otros tipos
de motor. En los años 1980 se integraron como propulsores de vehículos eléctricos
ferroviarios los motores asíncronos, y aparecieron los sistemas electrónicos de regulación
de potencia que dieron el espaldarazo definitivo a la elección de este tipo de tracción por las
compañías ferroviarias. Las dificultades de aplicar la tracción eléctrica en zonas con
climatología extrema hacen que en esos casos, se siga utilizando la tracción diésel, ya que
la nieve intensa y su filtración por ventiladores a las cámaras de alta tensión originan
derivaciones de circuitos eléctricos que dejan inservibles estas locomotoras mientras dure el
temporal. Las bajas temperaturas también afectan de diferente manera al cable de contacto
de la catenaria que pierde la conductividad durante intervalos de tiempo. El hito de los
trenes eléctricos lo constituyen los llamados trenes de alta velocidad cuyo desarrollo ha
sido el siguiente:
1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en utilizar un
trazado propio, y se inauguró para los Juegos Olímpicos de Tokio 1964. 1979 Un tren de
levitación magnética se instaló por primera vez en Hamburgo para la Exhibición
Internacional del Transporte (IVA 79), desarrollando patentes anteriores. Hubo pruebas
posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en
Japón y China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran
Velocidad (en francés: Train à Grande Vitesse), conocido como TGV, es un tipo de tren
eléctrico de alta velocidad desarrollado por la empresa francesa Alstom para hacer
inicialmente el recorrido entre París y Lyon. El TGV es uno de los trenes más veloces del
mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de
mayor velocidad media en un servicio de pasajeros y el de mayor velocidad en condiciones
especiales de prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su
propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo.[87]
[editar] Electromedicina
Artículo principal: Electromedicina

Artículo principal: Radiología

Imagen radiológica en 3D

1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm Röntgen,
quien descubrió que el bombardeo de átomos metálicos con electrones de alta velocidad
produce la emisión de radiaciones de gran energía. Combinados con las tecnologías de la
fotografía, los rayos X permitieron obtener imágenes de partes interiores del cuerpo
humano antes inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en
imprescindibles medios de diagnóstico, formando parte esencial del campo denominado
electromedicina.
Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar, fue la
observación de las estructuras óseas. A partir de la generalización de esta práctica se
desarrolló la radiología como especialidad médica que emplea la radiografía como medio
de diagnóstico, que sigue siendo el uso más extendido de los rayos X. En desarrollos
posteriores se añadieron la tomografía axial computarizada (TAC, en 1967, por un equipo
dirigido por los ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios
Nobel de Medicina en 1979), la resonancia magnética (descubierta como principio en 1938
y aplicada a la imagen de diagnóstico por Paul Lauterbur y Peter Mansfield, premios Nóbel
de 2003) y la angiografía (utilizada desde 1927 por el portugués Egas Moniz, ganador del
premio Nobel en 1949, y desarrollada de forma más segura por la técnica Seldinger desde
1953); así como la utilización terapéutica de la radioterapia.
Los ultrasonidos fueron utilizados por primera vez en medicina por el estadounidense
George Ludwig, a finales de los años 1940, mientras que la ecografía fue desarrollada en
Suecia por los cardiólogos Inge Edler y Carl Hellmuth Hertz (hijo y sobrino nieto de los
famosos físicos), y en el Reino Unido por Ian Donald y el equipo de ginecología del
hospital de Glasgow.
Se aplican otras tecnologías electromédicas en la cardiología, tanto en diagnóstico
(electrocardiograma, utilizado desde 1911, que valió el premio Nobel de 1924 a Augustus
Waller) como en tratamientos (desfibrilador) y prótesis: (los marcapasos y el corazón
artificial). También en áreas como los problemas de audición (mediante los audífonos) o el
diagnóstico y tratamiento de problemas neurológicos y neurofisiológicos.
Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o
(UCI) con equipos electrónicos e informáticos de alta tecnología. Se han mejorado los
equipamientos que realizan análisis clínicos y se han desarrollado microscopios
electrónicos de gran resolución.
Véase también: resonancia magnética, electroterapia, neurología y rayos X

[editar] Telecomunicaciones e Internet


Artículo principal: Telecomunicación

Artículo principal: Internet

Satélite de comunicaciones

1969 El auge de las telecomunicaciones empieza cuando se sitúan en el espacio exterior los
primeros satélites de comunicaciones, satélites artificiales situados en órbita alrededor de la
Tierra que transmiten ondas electromagnéticas; pero este punto culminante tuvo su
prehistoria: El término telecomunicación fue definido oficialmente por primera vez en 1932
durante una conferencia internacional que tuvo lugar en Madrid ("toda transmisión,
emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de
cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas
electromagnéticos").[88] La base matemática sobre la que se desarrollan las
telecomunicaciones dependientes de la electricidad es muy anterior: fue desarrollada por
Maxwell, quien ya predijo que era posible propagar ondas por el espacio libre utilizando
descargas eléctricas (prefacio de Treatise on Electricity and Magnetism, 1873), hecho que
corroboró Heinrich Hertz con el primer transmisor de radio generando radiofrecuencias
entre 31 MHz y 1.25 GHz (1887). No obstante, el inicio de la era de la comunicación rápida
a distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo eléctrico,
al que se añadieron más tarde el teléfono y la revolución de la comunicación inalámbrica
con las ondas de radio. A principios del siglo XX apareció el teletipo que, utilizando el
código Baudot, permitía enviar y recibir texto en algo parecido a una máquina de escribir.
En 1921 la wirephoto o telefoto permitió transmitir imágenes por teléfono (ya se había
hecho telegráficamente desde la Exposición Universal de Londres de 1851 y
comercialmente desde 1863), y a partir de entonces se comercializó el fax por AT&T. Esta
misma compañía norteamericana desarrolló desde 1958 distintos tipos de aparatos digitales
precedentes del módem para las comunicaciones telefónicas, que más tarde se aplicaron a la
transmisión de datos entre computadoras y otros dispositivos. En los años 1960 comienza a
ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de
comunicación y las redes de conmutación de paquetes.
Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales
enviadas desde la estación terrestre y las reemite a otro satélite o de vuelta a los receptores
terrestres. Los satélites son puestos en órbita mediante cohetes espaciales que los sitúan
circundando la Tierra a distancias relativamente cercanas fuera de la atmósfera. Las antenas
utilizadas preferentemente en las comunicaciones vía satélites son las antenas parabólicas,
cada vez más frecuentes en las terrazas y tejados de nuestras ciudades. Tienen forma de
parábola y la particularidad de que las señales que inciden sobre su superficie se reflejan e
inciden sobre el foco de la parábola, donde se encuentra el elemento receptor.
Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de
muchos canales de televisión, el impresionante desarrollo de la telefonía móvil y de
Internet. Internet es un método de interconexión descentralizada de redes de computadoras
implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes
físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus
orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras,
conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU..
El siglo XXI está viviendo los comienzos de la interconexión total a la que convergen las
telecomunicaciones, a través de todo tipo de dispositivos cada vez más rápidos, más
compactos, más poderosos y multifuncionales. Ya no es necesario establecer enlaces físicos
entre dos puntos para transmitir la información de un punto a otro. Debido a la gran
velocidad de propagación de las ondas electromagnéticas, los mensajes enviados desde
cualquier punto de la superficie terrestre o de su atmósfera se reciben casi simultáneamente
en cualquier otro.

[editar] Véase también


• Electricidad
• Historia de la electricidad en España
• Electromecánica

[editar] Bibliografía
• Varios autores (1984). Enciclopedia de Ciencia y Técnica. Tomo V
Electricidad. Salvat Editores S.A. ISBN 84-345-4490-3.
• Miguel Ángel Quintanilla y José Manuel Sánchez Ron (1998) Ciencia,
Tecnología y Sociedad, Madrid : Santillana, ISBN 84-294-4976-0

[editar] Referencias
1. ↑ Bullock, Theodore H. (2005), Electroreception, Springer, pp. 5–7, ISBN
0387231927
Morris, Simon C. (2003), Life's Solution: Inevitable Humans in a Lonely Universe,
Cambridge University Press, pp. 182–185, ISBN 0521827043
2. ↑ Frood, Arran (27 de febrero de 2003), Riddle of 'Baghdad's batteries',
BBC, http://news.bbc.co.uk/1/hi/sci/tech/2804257.stm, consultado el
2008-02-16
3. ↑ Frase muy citada, aquí glosada por Slavoj Žižek Lenin ciberespacial:
¿por qué no? International Socialism N° 95, 2002.
4. ↑ Marshall McLuhan (1964) Understanding Media, p.13; Reversal of the
Overheated Medium, pg. 36 [1]
5. ↑ El primer uso en inglés se debe a Sir Thomas Browne , en Pseudodoxia
Epidemica, 1646.
6. ↑ Biografía de William GilbertInglés [14-5-2008]
7. ↑ Biografía de Otto von Guericke (en inglés) [14-5-2008]
8. ↑ Quintanilla y Sánchez Ron, op. cit, especialmente Ilustración y
Revolución Industrial, pg. 26.
9. ↑ Biografía de Stephen Gray Inglés [15-4-2008]
10.↑ Biografía de Pieter van Musschenbroek Física.net [14-5-2008]
11.↑ Biografía de William Watson Inglés [14-5-2008]
12.↑ Biografía de Benjamin Franklin usembassy-mexico.gov.[14-5-2008]
13.↑ Biografía de Charles-Augustin de Coulomb.www.geocities.com [14-5-
2008]
14.↑ Biografía de Luigi Galvani Epónimos médicos. Historia de la medicina.
[14-5-2008]
a b
15.↑ Biografía de Alessandro Volta Astrocosmo Chile. [15-5-2008]
16.↑ a b Quintanilla y Sánchez Ron, op. cit., especialmente
Electromagnetismo y sociedad, pgs.38-46
17.↑ Biografía de Humpry Davy Inglés. Chemical heritage.org. [15-5-2008]
18.↑ Biografía de Hans Christian Ørsted Museo virtual de ciencia. csic.[15-5-
2008]
19.↑ Biografía de Thomas Johann Seebeck Fisicanet [15-5-2008]
20.↑ Biografía de André-Marie Ampére Astrocosmo Chile. [15-5-2008]
21.↑ Biografía de William Sturgeon Inglés. [15-5-2008]
22.↑ Biografía de Georg Simon Ohm Asifunciona.com [15-5-2008]
23.↑ Biografía de Joseph Henry Fisica.net [31-5-2008]
24.↑ Biografía de Johann Carl Friedrich Gauss (en nglés) [31-5-2008]
25.↑ Biografía de Michael Faraday Astrocosmo.cl. [15-5-2008]
26.↑ Biografía de Heinrich Friederich Lenz geocities.com [17-5-2008]
27.↑ Módulos termoeléctricos Peltier Monografías.com [15-5-2008]
28.↑ Biografía de Samuel Finley Breese Morse Bluesilver.rog [16-5-2008]
29.↑ Biografía de Ernst Werner von Siemens Biografíasy vidas.com [10-5-
2008]
30.↑ Biografía de Charles Wheatstone Buscabiografías.com [16-5-2008]
31.↑ Biografía de James Prescott Joule (en inglès) Geocities.com[16-5-2008]
32.↑ Biografía de Gustav Robert Kirchhoff física.net [17-5-2008]
33.↑ Biografía de William Thomson (Lord Kelvin) Biografías y vida.com [17-
5-2008]
34.↑ Biografía de Heinrich Daniel Ruhmkorff (en inglés) people.clarkson.edu
[19-5-2008]
35.↑ Biografía de León Foucault Biografica.info [17-5-2008]
36.↑ Biografía de Zenobe Gramme (en inglés), chem.ch [17-5-2008]
37.↑ Biografía de Johann Wilhelm Hittorf Biografíasyvidas.com [30-5-2008]
38.↑ Biografía de James Clerk Maxwell Astrocosmo.cl [17-5-2008]
39.↑ Entre el 1 de agosto y el 15 de noviembre y el segundo del 15 de
septiembre al 19 de octubre. (en francés) Exposition internationale
d'électricité
40.↑ Alejandro Graham Bell. Cabezas, José Antonio. Susaeta Ediciones
S.A Vidas Ilustres Barcelona, España ISBN 84-305-1109-1 pg,20. "El
Comité de Recompensas de la Exposición (Exposición Conmemorativa
del Primer Centenario de la Independencia Norteamericana) estudia
detenidamente el aparato, que ya había sido patentado por Bell en 1876
con el número 174.465."
41.↑ «Historia de la National Geographic Society ¿Qué es NG?» (en
español). Consultado el 2008-03-26. Martínez Domínguez
FernandoBiografía de Alexander Graham Bell geocities.com [17-5-2008]
42.↑ Biografía de Thomas Alva Edison asifunciona.com [23-5-2008]
43.↑ Ley de Hopkinsonmembers.fotunecity.es. Magnetismo [19-5-2008]
44.↑ Biografía de John Hopkinson (en inglés) [19-5-2008]
45.↑ Biografía de Heinrich Rudolf Hertz Histel.com [19-5-2008]
46.↑ Biografía de George Westinghouse biográfica info [4-6-2008]
47.↑ Gonzalo Ugidos Tesla, un genio tomado por loco, El Mundo, 25 de
mayo de 2008.
48.↑ Biografía de Nicola Tesla Microsiervos.com [18-5-2008]
49.↑ Biografía de Charles Proteus Steinmetz 100ciaquimica.net [19-5-2008]
50.↑ Biografía de Wilhelm Conrad Röntgen historiadelamedicina.org [20-5-
2008]
51.↑ Biografía de Michael Idvorsky Pupin Biografíasy vidas.com [21-5-2008]
52.↑ Biografía de Joseph John Thomson (en inglés) nobelprize.org [19-5-
2008]
53.↑ Historia del cine Ministerio de Educación y Ciencia España. [22-5-
2008]
54.↑ Biografía de Guglielmo Marconi histel.com [21-5-2008]
55.↑ Biografía de Peter Cooper Hewitt (en inglés) ringwoodmanor.com [20-
5-2008]
56.↑ Biografía de Gottlob Honold (en inglés) Breve historia de Bosch.
bosch.com [20-5-2008]
57.↑ Bryson, Bill (2003-05-06). A Short History of Nearly Everything.
Broadway Books. ISBN 0767908171.
58.↑ Quintanilla y Sánchez Ron, op. cit., especialmente Los antecedentes
de la "Gran Ciencia", pg 76.
59.↑ Biografía de Hendrik Antoon Lorentz astrocosmo.cl [20-5-2008]
60.↑ Biografía de Albert Einstein Astrocosmo.cl [22-5-2008]
61.↑ Biografía de Robert Andrews Millikan (en inglés) nobelprize.org [20-5-
2008]
62.↑ Biofrafía de Heike Kamerlingh Oanes (en inglés) nobelprize.org [20-5-
2008]
63.↑ Biografía de Vladimir Zwirykin Orellana.free.fr.[10-6-2008]
64.↑ Donna HalperBiografía de Edwin Howard Armstrong olradio.com[21-5-
2008]
65.↑ Bill Penley (2002):Early Radar History - an Introduction.
66.↑ Albert Abramson, The History of Television, 1942 to 2000, Jefferson,
NC, and London, McFarland, 2003, ISBN 0786412208; Albert Abramson:
"Zworykin, Pioneer of Television", University of Illinois Press, Champaign,
1995; Biblioteca Luis Arango.
67.↑ Historia de la computción sipan.inictel.gob.pe [30-5-2008]
68.↑ Rolón González, Oscarh[ttp://www.monografias.com/trabajos46/la-
informatica/la-informatica3.shtml EDVAC Artículo técnico]
Monografías.com [31-5-2008]
69.↑ Biografía de Walter Houser Brattain (en inglés).nobelprize.org [21-5-
2008]
70.↑ González Gómez, JuanCircuitos y sistemas digitales Universidad
Pontificia de Salamanca Madrid. [24-5-2008]
71.↑ Martinez Domínguez. FernandoBiografía de Jonh Bardeen Historia de la
electricidad. [21-5-2008]
72.↑ «On This Day: 17 October». BBC News. Consultado el 2006-11-09.
73.↑ IAEA (2007). ENERGY, ELECTRICITY AND NUCLEAR POWER:
DEVELOPMENTS AND PROJECTIONS — 25 YEARS PAST AND FUTURE.
IAEA. ISBN 978-92-0-107407-2. (en inglés)
74.↑ Lester Allan Pelton - Water Turbines and the Beginnings of
Hydroelectricity inventors,about.com [5-6-2008]
75.↑ Rafael Alejo García-Mauricio Centrales hidroeléctricas.thales.coca.es
[5-6-2008]
76.↑ Godalming - Electricity Transcripción de documentos del museo de
Goldaming. [5-6-2008]
77.↑ Historia de la electricidad. Pioneros en acenor.cl [5-6-2008]
78.↑ Edison's Power Plant lowermanhattan,info [5-6-2008]
79.↑ Historia de la tecnología fotovoltaica ceit.es [5-6-2008]
80.↑ Pilas de combustible de hidrógeno Artículo técnico fecyt.es [30-5-
2008]
81.↑ Información general sobre autómatas programables Automátas.org
[30-5-2008]
82.↑ National Inventors Hall of Fame Foundation (2007), John T. Parsons (en
inglés), en invent.org. [19-4-2008]
83.↑ Biografía de Isaac Asimov biografíasyvidas.com [30-5-2008]
84.↑ Pérez Cordero, Víctor HugoLa robótica Geocities.com [26-5-2008]
85.↑ Alboites, VicenteArtículo técnico sobre el LASER omega.ilce.edu.mex
[30-5-2008]
86.↑ Biografía de Charles hard Townes Inglés nobelprize.org[22-5-2008]
87.↑ Historia de la tracción eléctrica gitel unizar.es [1-6-2008]
88.↑ Reunión conjunta en Madrid de la XIII Conferencia de la UTI (Unión
Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica
Internacional) que a partir de entonces se fusionario en la Unión
Internacional de Telecomunicaciones (ITU), 3 de septiembre de 1932.

[editar] Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre Historia de


la electricidad.Commons
• Historia de la electricidad
[editar] Vídeos
• Electricidad y magnetismo
• Historia de la electricidad YouTube
Obtenido de "http://es.wikipedia.org/wiki/Historia_de_la_electricidad"
Categorías: Electricidad | Historia de la ciencia | Historia de la tecnología |
Personas relacionadas con la electricidad

Categoría oculta: Wikipedia:Artículos destacados

Vistas

• Artículo
• Discusión
• Editar
• Historial
Herramientas personales

• Probar Beta
• Registrarse/Entrar
Buscar
Principio del formulario
Ir Buscar

Final del formulario


Navegación
• Portada
• Portal de la comunidad
• Actualidad
• Cambios recientes
• Página aleatoria
• Ayuda
• Donaciones
Imprimir/exportar
• Crear un libro
• Descargar como PDF
• Versión para imprimir
Herramientas

• Lo que enlaza aquí


• Cambios en enlazadas
• Subir archivo
• Páginas especiales
• Enlace permanente
• Citar este artículo
En otros idiomas

• Català
• English
• ‫فارسی‬
• Suomi
• Français
• Italiano
• Português
• Svenska
• தமிழ்
• Esta página fue modificada por última vez el 12:39, 27 ene 2010.
• El texto está disponible bajo la Licencia Creative Commons
Reconocimiento Compartir Igual 3.0; podrían ser aplicables cláusulas
adicionales. Lee los términos de uso para más información.
• Política de privacidad
• Acerca de Wikipedia
• Descargo de responsabilidad
La diferencia del circuito eléctrico con un circuito electrónico, radica en que en éste se
ejerce un control sobre el flujo de la corriente de alguna manera.
Hasta aquí no se ha dicho nada nuevo, pues basta poner un apagador o interruptor, para dejar
pasar o no la corriente por un bombillo o foco. (de ésta manera estaríamos "controlando" flujo
de corriente que atraviesa el bombillo)
La diferencia más importante radica en el "como" se logra controlar este flujo de corriente. Un
circuito electrónico es aquel, donde se controla un flujo de corriente eléctrica mediante otra
señal eléctrica, pudiendo ser ésta otro flujo de corriente eléctrica o una voltaje fijo.
En otras palabras: En un circuito electrónico...
La electricidad es capaz de controlar electricidad.
Históricamente la era electrónica se inicia con el tubo Audion. Este dispositivo controlaba el flujo
de un rayo de electrones, que viajaba en el vacío, entre dos electrodos (estructuras metálicas
dentro del tubo entre las cuales había una diferencia de voltaje).
En el año 1948 se inventó el transistor. Un pequeño dispositivo por todos conocido, con efectos
muy parecidos a los del tubo Audion, pero de dimensiones mucho más pequeñas. El transistor
controla el flujo de los electrones a través de un material semiconductor en vez de hacerlo en el
vacío. A este tipo de electrónica también de le llama Electrónica de estado sólido.
Un transistor controla el flujo de la corriente por medio de corriente o voltaje, en cambio un tubo
al vacío, controla el flujo de la corriente por medio solamente de voltaje.

Electrónica y electricidad
¿Cuál es la diferencia?, Te lo preguntaste alguna vez?, he aquí la respuesta:
Electrónica: Utiliza los fenómenos eléctricos para trasladar información audible,
visual, etc., esta se canaliza a través de una corriente eléctrica a base de cambios en
sus características los cuales se codifican, estos pueden ser amperaje, voltaje,
frecuencia, fase, etc. Cuando el amperaje o el voltaje se alteran de forma controlada
para conducir en forma codificada cierta información reciben el nombre de señales.
Electricidad : Esta aprovecha los fenómenos eléctricos para obtener energía o
potencia con las cuales podemos "mover" cualquier aparato eléctrico.

El hecho de pertenecer a este mundo nos compromete a conocer lo que en el sucede.


La electrónica es base fundamental en los avances que se han establecido y no se
detienen; por lo mismo debemos estar al tanto y saber un poco más cada día. Este
sitio no pretende ser el mejor, pero si contribuir en algo con los amantes de esta
ciencia.

El contenido esta dedicado especialmente a los estudiantes de electrónica, a los que la


practican como hobby y porque no, a los colegas técnicos que algo interesante pueden
encontrar en el. Se incluyen diagramas de circuitos electrónicos, desde el más simple
hasta unos más complejos no dejando por un lado, las instrucciones para su ensamble.
Además incluyo temas relacionados, como por ejemplo, sobre como está constituido
un transistor, tiristores, fet, ujt, etc. Y se podrán trasladar a sitios de interés, ya sea
relacionados con la electrónica o bien, otros temas.

Les agradeceria que toda consulta se haga a través del foro, ya que en ocasiones me
es imposible atenderlas con prontitud, y en el foro, alguien puede hacerlo antes que
yo. De antemano, gracias.

Las elecciones a steward de la Fundación Wikimedia para el [Contraer]


[Ayúdanos
2010 han comenzado. Vota por favor. traduciendo.]

Red de distribución de energía eléctrica


De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

La Red de Distribución de la Energía Eléctrica o Sistema de Distribución de Energía


Eléctrica es un subsistema del Sistema Eléctrico de Potencia cuya función es el suministro
de energía desde la subestación de distribución hasta los usuarios finales (medidor del
cliente).
Los elementos que conforman la red o sistema de distribución son los siguientes:
Subestación de Distribución de casitas: conjunto de elementos (transformadores,
interruptores, seccionadores, etc.) cuya función es reducir los niveles de alta tensión de las
líneas de transmisión (o subtransmisión) hasta niveles de media tensión para su
ramificación en múltiples salidas.
• Circuito Primario:
• Circuito Secundario:

La distribución de la energía eléctrica desde las subestaciones de transformación de la red


de transporte se realiza en dos etapas.
La primera está constituida por la red de reparto, que, partiendo de las subestaciones de
transformación, reparte la energía, normalmente mediante anillos que rodean los grandes
centros de consumo, hasta llegar a las estaciones transformadoras de distribución. Las
tensiones utilizadas están comprendidas entre 25 y 132 kV. Intercaladas en estos anillos
están las estaciones transformadoras de distribución, encargadas de reducir la tensión desde
el nivel de reparto al de distribución en media tensión.
La segunda etapa la constituye la red de distribución propiamente dicha, con tensiones de
funcionamiento de 3 a 30 kV y con una característica muy radial. Esta red cubre la
superficie de los grandes centros de consumo (población, gran industria, etc.), uniendo las
estaciones transformadoras de distribución con los centros de transformación, que son la
última etapa del suministro en media tensión, ya que las tensiones a la salida de estos
centros es de baja tensión (125/220 ó 220/380 V[1] ).
La líneas que forman la red de distribución se operan de forma radial, sin que formen
mallas, al contrario que las redes de transporte y de reparto. Cuando existe una avería, un
dispositivo de protección situado al principio de cada red lo detecta y abre el interruptor
que alimenta esta red.
La localización de averías se hace por el método de "prueba y error", dividiendo la red que
tiene la avería en dos mitades y energizando una de ellas; a medida que se acota la zona con
avería, se devuelve el suministro al resto de la red. Esto ocasiona que en el transcurso de
localización se pueden producir varias interrupciones a un mismo usuario de la red.

Contenido
[ocultar]
• 1 Topologías típicas de redes de distribución
○ 1.1 Red radial o redes en antena
 1.1.1 Ventajas
 1.1.2 Desventajas
○ 1.2 Red en bucle abierto
 1.2.1 Ventajas
 1.2.2 Desventajas
○ 1.3 Red en anillo o en bucle cerrado
 1.3.1 Ventajas
• 2 Criterios para diseño de redes de distribución
○ 2.1 Regulación
○ 2.2 Criterio económico
○ 2.3 Corrientes de cortocircuito
• 3 Sistema de protecciones
• 4 Equipos utilizados en redes de distribución
• 5 Requerimientos regulados para distribución en
algunos países
○ 5.1 Colombia
• 6 Notas
• 7 Véase también
Topologías típicas de redes de distribución [editar]
La topologia de una red de distribucion se refiere al esquema o arreglo de la distribucion,
esto es la forma en que se distribuye la energia por medio de la disposicion de los
segmentos de los circuitos de distribucion. En este sentido se enfoca a la forma como se
distribuye la energia a partir de la fuente de suministro.
Red radial o redes en antena [editar]
Se caracteriza por la alimentación por uno solo de sus extremos transmitiendo la energía en
forma radial a los receptores y el emisor.
Ventajas [editar]
resaltan su simplicidad y la facilidad que presentan para ser equipadas de protecciones
selectivas.
Desventajas [editar]
Su falta de garantía de servicio.
Estas desventajas pueden ser compensadas en la actualidad con los dispositivos modernos
de desconexión automática de la zona en falla llamados "Organos de Corte de Red" o la
utilización de los dispositivos llamados "Reconectadores" que desconectan y cierran la
zona en falla, procurando de esa manera despejar la zona en falla y volver el servicio sobre
la línea completa
Red en bucle abierto [editar]
Esto significa que cualquier punto de consumo, en esta estructura, puede ser alimentado por
dos posibles caminos eléctricos, dado que uno solo de estos dos caminos es efectivo, la
emergencia se realiza mediante esta posibilidad de bucle.
Ventajas [editar]
Todas las ventajas de la distribución en redes radiales y además la posibilidad de alimentar
alternativamente de una fuente u otra, con lo que ante situaciones de falta y utilizando los
OCR y Reconectadores, quedaría siempre fuera de servicio la zona en falta más pequeña
posible y el resto de la línea en servicio
Desventajas [editar]
si la estructura esta alejada del pararrayos la electricidad seria dirigida a las puntas de la
tierra lo cual afectaría a las estructuras cercanas
Red en anillo o en bucle cerrado [editar]
se caracteriza por tener dos de sus extremos alimentados, quedando estos puntos
intercalados en el anillo o bucle.
Ventajas [editar]
Como ventaja fundamental podemos citar su seguridad de servicio y facilidad de
mantenimiento

Criterios para diseño de redes de distribución [editar]


Regulación [editar]
La regulación se relaciona con la caída de tensión en los conductores de una red
determinada, en generadores y transformadores eléctricos. No resulta conveniente que haya
una caída de tensión excesiva en el conductor por que el usuario final o transformador de
MT a BT tensión estaría alimentado por un valor reducido de tensión muy distinto al valor
asignado.
Existen básicamente dos definiciones de regulación, dependiendo del país donde se haga la
instalación:
• Normativa estadounidense: la regulación se define como sigue:

V2n es la tensión en bornes de la carga o transformador


• Normativa europea (IEC): la regulación es definida como:

donde:
V1n es la tensión aguas arriba de la carga o transformador, es decir en el alimentador
La regulación dada por IEC es mayor que la normativa americana.
Criterio económico [editar]
Corrientes de cortocircuito [editar]
Las corrientes de cortocircuito para faltas fase a fase estarán limitadas únicamente por las
impedancias de la fuente, de la línea, y de la propia falta, así aque en la medida que la
fuente disponga de más potencia de cortocircuito circulará por la línea mayor corriente.
Las corrientes de cortocircuito fase a tierra, están limitadas por todas las razones anteriores
pero además por el sistema de puesta a tierra del neutro de la Red. Existen varias formas de
hacerlo. Aislado. Que producen las mínimas corrientes y máximas sobretensiones, quizá
recomendable para distribuciones no muy extensas y que la necesidad de continuar con la
línea en falta en servicio sea imperiosa. La detección de la falta de una forma selectiva tiene
cierta complicación. No obstante, se recomienda que se haga la transferencia a una línea
sana en el menor tiempo posible. Puesto directamente a tierra. Que producen las máximas
corrientes y mínimas sobretensiones, quizá recomendable para distribuciones extensas y
que puedan ser seccionadas mediante dispositivos semiautomáticos o automáticos. La
detección selectiva de la falta resulta fácil, con lo que unido al uso de dispositivos
automáticos "Reconectadores", se dejaría fuera de servicio la zona en falta.
Otras formas intermedias de tratamiento del neutro, "PaT resistivo", "PaT inductivo",
"Corriente muy limitada a unos pocos amperios" "Corriente menos limitada a unos cientos
de amperios", "Corriente muy limitada a unos pocos amperios y conectándola casi
directamente a tierra durante pequeño espacio de tiempo", etc.,etc. todos ellos se pueden
acercar más al sistema aislado o al sistema puesto a tierra y cada diseñador de la Red debe
sopesar detenidamente las desventajas y ventajas de cada sistema en su caso particular.
Hay que tener en cuenta que la correcta elección es muy importante ya que pasados unos
años seá muy difícil reestructurar la Red para cambiar el sistema de puesta a tierra

Sistema de protecciones [editar]


Conductores preaislados, Fusibles, Seccionadores en carga, Seccionalizadores, Organos de
Corte de Red, Reconectadores, Interuptores, Pararrayos antena, Pararrayos autovávulas.
Protecciones secundarias asociadas a tranformadores de medida, como son Relés de
Protección

Equipos utilizados en redes de distribución [editar]

Requerimientos regulados para distribución en algunos


países [editar]
Colombia [editar]
En Colombia los sistemas de distribución, como todo lo relacionado con los sistemas de
potencia, esta regulado por la Comisión de Energía y Gas (CREG). En resolución 70 del 28
de mayo de 1998 se establecen los siguientes niveles de tensión, en los cuales se realizan
las instalaciones de distribución y transmisión:
• Nivel de tensión I: tensiones inferiores a 1 kV
• Nivel de tensión II: tensiones comprendidas entre 1 a 30 kV
• Nivel de tensión III: tensiones comprendidas entre 30 kV y 62 kV
• Nivel de tensión IV: tensiones de valor mayor a 62 kV

Notas [editar]
1. ↑ El nuevo Reglamento Electrotécnico de Baja Tensión exige tensiones
de distribución en baja tensión de 230/400 V.

Véase también [editar]


• Electricidad
Obtenido de "http://es.wikipedia.org/wiki/Red_de_distribuci%C3%B3n_de_energ
%C3%ADa_el%C3%A9ctrica"
Categoría: Red eléctrica

Vistas

• Artículo
• Discusión
• Editar
• Historial
Herramientas personales

• Probar Beta
• Registrarse/Entrar
Buscar
Principio del formulario

Ir Buscar

Final del formulario


Navegación
• Portada
• Portal de la comunidad
• Actualidad
• Cambios recientes
• Página aleatoria
• Ayuda
• Donaciones
Imprimir/exportar
• Crear un libro
• Descargar como PDF
• Versión para imprimir
Herramientas

• Lo que enlaza aquí


• Cambios en enlazadas
• Subir archivo
• Páginas especiales
• Enlace permanente
• Citar este artículo
En otros idiomas

• English

• Esta página fue modificada por última vez el 08:16, 30 ene 2010.
• El texto está disponible bajo la Licencia Creative Commons
Reconocimiento Compartir Igual 3.0; podrían ser aplicables cláusulas
adicionales. Lee los términos de uso para más información.
• Política de privacidad
• Acerca de Wikipedia
• Descargo de responsabilidad