Física Total

Felipe González Robles

PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información. PDF generated at: Sun, 15 Jan 2012 00:14:19 UTC

Contenidos
Artículos
Física Movimiento (física) Electromagnetismo Electricidad Magnetismo Electrónica Mecánica clásica Mecánica cuántica Teoría cuántica de campos Teoría de la relatividad Teoría de la relatividad especial Relatividad general Física estadística Termodinámica Mecánica de medios continuos Mecánica del sólido rígido Mecánica de sólidos deformables Elasticidad (mecánica de sólidos) Plasticidad (mecánica de sólidos) Mecánica de fluidos Astrofísica Astronomía 1 12 28 34 84 89 95 100 106 125 136 150 179 182 193 196 200 204 212 219 221 223

Referencias
Fuentes y contribuyentes del artículo Fuentes de imagen, Licencias y contribuyentes 244 246

Licencias de artículos
Licencia 251

Física

1

Física
La física (del lat. physica, y este del gr. τὰ φυσικά, neutro plural de φυσικός, "naturaleza") es una ciencia natural que estudia las propiedades del espacio, el movimiento , el tiempo, la materia y la energía, así como sus interacciones. «La física es una de las más antiguas disciplinas académicas, tal vez la más antigua a través de la inclusión de la astronomía. En los últimos dos milenios, la física había sido considerada sinónimo de la filosofía, la química, y ciertas ramas de la matemática y la biología, pero durante la Revolución Científica en el siglo XVII surgió para convertirse en una ciencia Si he logrado ver más lejos, ha sido porque he subido a hombros de moderna, única por derecho propio. Sin embargo, en gigantes.Sir Isaac Newton. algunas esferas como la física matemática y la química cuántica, los límites de la física siguen siendo difíciles de distinguir. La física es significativa e influyente, no sólo debido a que los avances en la comprensión a menudo se han traducido en nuevas tecnologías, sino también a que las nuevas ideas en la física resuenan con las demás ciencias, las matemáticas y la filosofía. La física no es sólo una ciencia teórica; es también una ciencia experimental. Como toda ciencia, busca que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar predicciones de experimentos futuros. Dada la amplitud del campo de estudio de la física, así como su desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central, ya que incluye dentro de su campo de estudio a la química, la biología y la electrónica, además de explicar sus fenómenos. La física, en su intento de describir los fenómenos naturales con exactitud y veracidad, ha llegado a límites impensables: el conocimiento actual abarca la descripción de partículas fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una gran probabilidad lo que aconteció en los primeros instantes del nacimiento de nuestro universo, por citar unos pocos campos. Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos como Demócrito, Eratóstenes, Aristarco, Epicuro o Aristóteles, y fue continuada después por científicos como Galileo Galilei, Isaac Newton, William Rowan Hamilton, James Clerk Maxwell, Albert Einstein, Niels Bohr, Werner Heisenberg, Paul Dirac y Richard Feynman, entre muchos otros.

Física

2

Historia de la física
Se conoce que la mayoría de las civilizaciones de la antigüedad trataron desde un principio de explicar el funcionamiento de su entorno; miraban las estrellas y pensaban cómo ellas podían regir su mundo. Esto llevó a muchas interpretaciones de carácter más filosófico que físico; no en vano en esos momentos a la física se le llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de buscar algún tipo de explicación a los fenómenos que les rodeaban.[1] A pesar de que las teorías descriptivas del universo que dejaron estos pensadores eran erradas, estas tuvieron validez por mucho tiempo, casi dos mil años, en parte por la aceptación de la Iglesia Católica de varios de sus preceptos, como la teoría geocéntrica o las tesis de Aristóteles.[2] Esta etapa, denominada oscurantismo en la ciencia, termina cuando Nicolás Copérnico, considerado padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium Coelestium. A pesar de que Copérnico fue el primero en Dios no juega a los dados con el Universo.Albert formular teorías plausibles, es otro personaje al cual se le Einstein.Einstein, deje de decirle a Dios lo que tiene que hacer con sus dados.Niels Bohr. considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de la Universidad de Pisa a finales del siglo XVI cambiaría la historia de la ciencia, empleando por primera vez experimentos para comprobar sus aseveraciones: Galileo Galilei. Mediante el uso del telescopio para observar el firmamento y sus trabajos en planos inclinados, Galileo empleó por primera vez el método científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se les unieron grandes contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal y Christian Huygens.[2] Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la Tierra en lo que él llamó gravedad. En 1687, Isaac Newton, en su obra Philosophiae Naturalis Principia Mathematica, formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal, que transformaron por completo el mundo físico; todos los fenómenos podían ser vistos de una manera mecánica.[3] El trabajo de Newton en este campo perdura hasta la actualidad; todos los fenómenos macroscópicos pueden ser descritos de acuerdo a sus tres leyes. Por eso durante el resto de ese siglo y el posterior siglo XVIII todas las investigaciones se basaron en sus ideas. De ahí que se desarrollaron otras disciplinas, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los conocidos trabajos de Daniel Bernoulli, Robert Boyle y Robert Hooke, entre otros, pertenecen a esta época.[4] En el siglo XIX se producen avances fundamentales en la electricidad y el magnetismo, principalmente de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm, que culminaron en el trabajo de James Clerk Maxwell de 1855, que logró la unificación de ambas ramas en el llamado electromagnetismo. Además, se producen los primeros descubrimientos sobre radiactividad y el descubrimiento del electrón por parte de Joseph John Thomson en 1897.[5] Durante el Siglo XX, la física se desarrolló plenamente. En 1904 se propuso el primer modelo del átomo (Hantarō Nagaoka), confirmado por Ernest Rutherford en 1911. En 1905, Einstein formuló la Teoría de la Relatividad especial, la cual coincide con las Leyes de Newton cuando los fenómenos se desarrollan a velocidades pequeñas

Física comparadas con la velocidad de la luz. En 1915 extendió la Teoría de la Relatividad especial, formulando la Teoría de la Relatividad general, la cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la Teoría cuántica, a fin de explicar resultados experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac, formularon la mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las herramientas teóricas para la Física de la materia condensada.[6] Posteriormente se formuló la Teoría cuántica de campos, para extender la mecánica cuántica de acuerdo con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los 40, gracias al trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, que formularon la teoría de la electrodinámica cuántica. Esta teoría formó la base para el desarrollo de la física de partículas. En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.[6] Los intentos de unificar las cuatro interacciones fundamentales han llevado a los físicos a nuevos campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando se las quiere ver desde un mismo punto de vista. Por eso se han formulado nuevas teorías, como la supergravedad o la teoría de cuerdas, donde se centran las investigaciones a inicios del siglo XXI.

3

Teorías centrales
La física, en su búsqueda de describir la verdad última de la naturaleza, tiene varias bifurcaciones, las cuales podrían agruparse en cinco teorías principales: la mecánica clásica, que describe el movimiento macroscópico; el electromagnetismo, que describe los fenómenos electromagnéticos como la luz; la relatividad, formulada por Einstein, que describe el espacio-tiempo y la interacción gravitatoria; la termodinámica, que describe los fenómenos moleculares y de intercambio de calor; y, finalmente, la mecánica cuántica, que describe el comportamiento del mundo atómico.

Mecánica clásica
Se conoce como mecánica clásica a la descripción del movimiento de cuerpos macroscópicos a velocidades muy pequeñas en comparación con la velocidad de la luz. Existen dos tipos de formulaciones de esta mecánica, conocidas como mecánica newtoniana y mecánica analítica. La mecánica newtoniana, como su nombre indica, lleva intrínsecos los preceptos de Newton. A partir de las tres ecuaciones formuladas por Newton y mediante el cálculo diferencial e integral, se llega a una muy exacta aproximación de los fenómenos físicos. Esta formulación también es conocida como mecánica vectorial, y es debido a que a varias magnitudes se les debe definir su vector en un sistema de referencia inercial privilegiado.[7] La mecánica analítica es una formulación matemática abstracta sobre la mecánica; nos permite desligarnos de esos sistemas de referencia
Giróscopo, un dispositivo mecánico.

privilegiados y tener conceptos más generales al momento de describir un movimiento con el uso del cálculo de variaciones. Existen dos formulaciones equivalentes: la llamada mecánica lagrangiana es una reformulación de la

Física mecánica realizada por Joseph Louis Lagrange que se basa en la ahora llamada ecuación de Euler-Lagrange (ecuaciones diferenciales de segundo orden) y el principio de mínima acción; la otra, llamada mecánica hamiltoniana, es una reformulación más teórica basada en una funcional llamada hamiltoniano realizada por William Hamilton. En última instancia las dos son equivalentes.[7] En la mecánica clásica en general se tienen tres aspectos invariantes: el tiempo es absoluto, la naturaleza realiza de forma espontánea la mínima acción y la concepción de un universo determinado.

4

Electromagnetismo
Véase también: Óptica

El electromagnetismo describe la interacción de partículas cargadas con campos eléctricos y magnéticos. Se puede dividir en electrostática, el estudio de las interacciones entre cargas en reposo, y la electrodinámica, el estudio de las interacciones entre cargas en movimiento y la radiación. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en las ecuaciones de Maxwell.
Magnetósfera terrestre. La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como se describe por la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de los tubos electrónicos.

La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg y Wolfgang Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica es inherentemente relativista y da unas correcciones que se introducen en la descripción de los movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos funcionando a altas tensiones y corrientes. El electromagnetismo abarca diversos fenómenos del mundo real como por ejemplo, la luz. La luz es un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de electromagnetismo. Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como las microondas, antenas, máquinas eléctricas, comunicaciones por satélite, bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar, y la observación remota. Los dispositivos electromagnéticos incluyen transformadores, relés eléctricos, radio / TV, teléfonos, motores eléctricos, líneas de transmisión, guías de onda, fibras ópticas y láseres.

Física

5

Espectro electromagnético.

Relatividad
La relatividad es la teoría formulada principalmente por Albert Einstein a principios del siglo XX, y se divide en dos cuerpos de investigación: la relatividad especial y la relatividad general. En la teoría de la relatividad especial, Einstein, Lorentz y Minkowski, entre otros, unificaron los conceptos de espacio y tiempo, en un ramado tetradimensional al que se le denominó espacio-tiempo. La relatividad especial fue una teoría revolucionaria para su época, con la que el tiempo absoluto de Newton quedó relegado y conceptos como la invariancia en la velocidad de la luz, la dilatación del tiempo, la contracción de la longitud y la equivalencia entre masa y energía fueron introducidos. Además, con las formulaciones de la relatividad especial, las leyes de la física son invariantes en todos los sistemas de referencia inerciales; como consecuencia matemática, se encuentra como límite superior de velocidad a la de la luz y se elimina la causalidad determinista que tenía la física hasta entonces. Hay que indicar que las leyes del movimiento de Newton son un caso particular de esta teoría donde la masa, al viajar a velocidades muy pequeñas, no experimenta variación alguna en longitud ni se transforma en energía, y al tiempo se le puede considerar absoluto.

Dibujo artístico acerca de una prueba realizada con alta precisión por la sonda Cassini al enviar señales a la tierra y al describir la trayectoria predicha.

Por otro lado, la relatividad general estudia la interacción gravitatoria como una deformación en la geometría del espacio-tiempo. En esta teoría se introducen los conceptos de la curvatura del espacio-tiempo como la causa de la interacción gravitatoria, el principio de equivalencia que dice que para todos los observadores locales inerciales las leyes de la relatividad especial son invariantes y la introducción del movimiento de un partícula por líneas geodésicas. La relatividad general no es la única teoría que describe la atracción gravitatoria, pero es la que más datos relevantes comprobables ha encontrado. Anteriormente, a la interacción gravitatoria se la describía matemáticamente por medio de una distribución de masas, pero en esta teoría no solo la masa percibe esta interacción, sino también la energía, mediante la curvatura del espacio-tiempo, y es por eso que se necesita otro lenguaje matemático para poder describirla, el cálculo tensorial. Muchos fenómenos, como la curvatura de la luz por acción de la gravedad y la desviación en la órbita de Mercurio, son perfectamente

Física predichos por esta formulación. La relatividad general también abrió otro campo de investigación en la física, conocido como cosmología, y es ampliamente utilizado en la astrofísica.[8]

6

Termodinámica y mecánica estadística
La termodinámica trata los procesos de transferencia de calor, que es una de las formas de energía, y cómo se puede realizar un trabajo con ella. En esta área se describe cómo la materia en cualquiera de sus fases (sólido, líquido, gaseoso) va transformándose. Desde un punto de vista macroscópico de la materia, se estudia como ésta reacciona a cambios en su volumen, presión y temperatura, entre otras magnitudes. La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley cero), el principio de conservación de la energía (primera ley), el aumento temporal de la Entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).[9]

Transferencia de calor por convección.

Una consecuencia de la termodinámica es lo que hoy se conoce como mecánica estadística. Esta rama estudia, al igual que la termodinámica, los procesos de transferencia de calor, pero, al contrario a la anterior, desde un punto de vista molecular. La materia, como se conoce, está compuesta por moléculas, y el conocer el comportamiento de una sola de sus moléculas nos lleva a medidas erróneas. Es por eso que se debe tratar como un conjunto de elementos caóticos o aleatorios, y se utiliza el lenguaje estadístico y consideraciones mecánicas para describir comportamientos macroscópicos de este conjunto molecular microscópico.[10]

Mecánica cuántica
La mecánica cuántica es la rama de la física que trata los sistemas atómicos y subatómicos, y sus interacciones con la radiación electromagnética, en términos de cantidades observables. Se basa en la observación de que todas las formas de energía se liberan en unidades discretas o paquetes llamados cuantos. Sorprendentemente, la teoría cuántica sólo permite normalmente cálculos probabilísticos o estadísticos de las características observadas de las partículas elementales, entendidos en términos de funciones de onda. La ecuación de Schrödinger desempeña el papel en la mecánica cuántica que las Esquema de una función de onda leyes de Newton y la conservación de la energía hacen en la mecánica monoelectrónica u orbital en tres dimensiones. clásica. Es decir, la predicción del comportamiento futuro de un sistema dinámico, y es una ecuación de onda en términos de una función de onda la que predice analíticamente la probabilidad precisa de los eventos o resultados. En teorías anteriores de la física clásica, la energía era tratada únicamente como un fenómeno continuo, en tanto que la materia se supone que ocupa una región muy concreta del espacio y que se mueve de manera continua. Según la teoría cuántica, la energía se emite y se absorbe en cantidades discretas y minúsculas. Un paquete individual de energía, llamado cuanto, en algunas situaciones se comporta como una partícula de materia. Por otro lado, se encontró que las partículas exponen algunas propiedades ondulatorias cuando están en movimiento y ya no son vistas como localizadas en una región determinada, sino más bien extendidas en cierta medida. La luz u otra radiación emitida o absorbida por un átomo sólo tiene ciertas frecuencias (o longitudes de onda), como puede verse en la línea del espectro asociado al elemento químico representado por tal átomo. La teoría cuántica demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz, o fotones, y es el resultado del hecho de que los electrones del átomo sólo pueden tener ciertos valores de energía permitidos. Cuando un electrón pasa de un

Física nivel permitido a otro, una cantidad de energía es emitida o absorbida, cuya frecuencia es directamente proporcional a la diferencia de energía entre los dos niveles. El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En 1924, Louis de Broglie propuso que, al igual que las ondas de luz presentan propiedades de partículas, como ocurre en el efecto fotoeléctrico, las partículas, a su vez, también presentan propiedades ondulatorias. Dos formulaciones diferentes de la mecánica cuántica se presentaron después de la sugerencia de Broglie. En 1926, la mecánica ondulatoria de Erwin Schrödinger implica la utilización de una entidad matemática, la función de onda, que está relacionada con la probabilidad de encontrar una partícula en un punto dado en el espacio. En 1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de las funciones de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la teoría de Esquema de un orbital en dos dimensiones. Schrödinger. Un descubrimiento importante de la teoría cuántica es el principio de incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la precisión de ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos de que el estado físico de un sistema podría medirse exactamente y utilizarse para predecir los estados futuros tuvo que ser abandonada. Esto supuso una revolución filosófica y dio pie a numerosas discusiones entre los más grandes físicos de la época. La mecánica cuántica se combinó con la teoría de la relatividad en la formulación de Paul Dirac de 1928, lo que, además, predijo la existencia de antipartículas. Otros desarrollos de la teoría incluyen la estadística cuántica, presentada en una forma por Einstein y Bose (la estadística de Bose-Einstein) y en otra forma por Dirac y Enrico Fermi (la estadística de Fermi-Dirac), la electrodinámica cuántica, interesada en la interacción entre partículas cargadas y los campos electromagnéticos, su generalización, la teoría cuántica de campos y la electrónica cuántica. El descubrimiento de la mecánica cuántica a principios del siglo XX revolucionó la física, y la mecánica cuántica es fundamental para la mayoría de las áreas de la investigación actual.

7

Conceptos físicos fundamentales
En general un concepto físico es interpretable sólo en virtud de la teoría física donde aparece. Así la descripción clásica de un gas o un fluido recurre al concepto de medio continuo aún cuando en realidad la materia está formada por átomos discretos, eso no impide que el concepto de medio continuo en el contexto de aplicación de la mecánica de fluidos o la mecánica de sólidos deformables no sea útil. Igualmente la mecánica newtoniana trata el campo gravitatorio como un campo de fuerzas, pero por otra parte la teoría de la relatividad general considera que no existen genuinamente fuerzas gravitatorias sino que los fenómenos gravitatorios son una manifestación de la curvatura del espacio-tiempo. Si se examina una lista larga de conceptos físicos rápidamente se aprecia que muchos de ellos sólo tienen sentido o son definibles con todo rigor en el contexto de una teoría concreta y por tanto no son conceptos fundamentales que deban aparecer en cualquier descripción física del universo. Sin embargo, un conjunto reducido de conceptos físicos aparecen tanto en la descripción de la física clásica, como en la descripción de la física relativista y la de la mecánica cuántica. Estos conceptos físicos que parecen necesarios en cualquier teoría física suficientemente amplia son los llamados conceptos físicos fundamentales, una lista no exhaustiva de los mismos podría ser:

Física

8

Conceptos fundamentales de la Física Magnitudes físicas · Energía · Energía cinética · Momentum · Momentum angular · Masa · Carga eléctrica · Entropía Tipos de entidades físicas: Materia · partícula · campo · onda · espacio-tiempo · observador · Espacio · Tiempo · Posición Construcciones teóricas fundamentales: Lagrangiano · Acción · Ecuaciones de Euler-Lagrange · Ecuación de movimiento · Estado físico · Ley de conservación

Áreas de investigación
Física teórica
La cultura de la investigación en física en los últimos tiempos se ha especializado tanto que ha dado lugar a una separación de los físicos que se dedican a la teoría y otros que se dedican a los experimentos. Los teóricos trabajan en la búsqueda de modelos matemáticos que expliquen los resultados experimentales y que ayuden a predecir resultados futuros. Así pues, teoría y experimentos están relacionados íntimamente. El progreso en física a menudo ocurre cuando un experimento encuentra un resultado que no se puede explicar con las teorías actuales, por lo que hay que buscar un nuevo enfoque conceptual para resolver el problema. La física teórica está muy relacionada con las matemáticas. Esta suministra el lenguaje usado en el desarrollo de las teorías físicas. Los Esquema de la teoría de cuerdas. teóricos confían en el cálculo diferencial e integral, el análisis numérico y en simulaciones por ordenador para validar y probar sus modelos físicos. Los campos de física computacional y matemática son áreas de investigación activas. Los teóricos pueden concebir conceptos tales como universos paralelos, espacios multidimensionales o minúsculas cuerdas que vibran o la teoría del todo, y a partir de ahí, realizar hipótesis físicas.

Materia condensada
La física de la materia condensada se ocupa de las propiedades físicas macroscópicas de la materia, tales como la densidad, la temperatura, la dureza, o el color de un material. Los materiales consisten en un gran número de átomos o moléculas que interactúan entre ellos, por lo que están "condensados", a diferencia de estar libres sin interactuar. La física de la materia condensada busca hacer relaciones entre las propiedades macroscópicas, que se pueden medir, y el comportamiento de sus constituyentes a nivel microscópico o atómico y así comprender mejor las propiedades de los materiales.

Las fases "condensadas" más comunes son sólidos y líquidos, que surgen del enlace químico entre los átomos, debido a la interacción electromagnética. Fases más exóticas son los superfluidos, los condensados de Bose-Einstein encontrados en ciertos sistemas atómicos a muy bajas temperaturas, la fase superconductora de los electrones de conducción de ciertos materiales, y las fases ferromagnética y antiferromagnética de los spines en las redes atómicas.

Efecto Meissner, un ejemplo de superconductividad.

Física La física de la materia condensada es el campo de la física contemporánea más extenso y que involucra a un mayor número de físicos. Históricamente, la física de la materia condensada surgió de la física de estado sólido, que se considera en la actualidad uno de sus principales subcampos. La expresión física de la materia condensada aparentemente fue acuñada por Philip Anderson cuando renombró en 1967 su grupo de investigación, anteriormente llamado de teoría del estado sólido. La física de la materia condensada tiene una gran superposición con la química, la ciencia de materiales, la nanotecnología y la ingeniería.

9

Física atómica y molecular
La física atómica y molecular se centran en el estudio de las interacciones materia-materia y luz-materia en la escala de átomos individuales o estructuras que contienen unos pocos átomos. Ambas áreas se agrupan debido a su interrelación, la similitud de los métodos utilizados, así como el carácter común de las escalas de energía relevantes a sus investigaciones. A su vez, ambas incluyen tratamientos tanto clásicos como cuánticos, ya que pueden tratar sus problemas desde puntos de vista microscópicos y macroscópicos. La investigación actual en física atómica se centra en actividades tales Estructura del diamante. como el enfriamiento y captura de átomos e iones, lo cual es interesante para eliminar "ruido" en las medidas y evitar imprecisiones a la hora de realizar otros experimentos o medidas (por ejemplo, en los relojes atómicos), aumentar la precisión de las mediciones de constantes físicas fundamentales, lo cual ayuda a validar otras teorías como la relatividad o el modelo estándar, medir los efectos de correlación electrónica en la estructura y dinámica atómica, y la medida y comprensión del comportamiento colectivo de los átomos de gases que interactúan débilmente (por ejemplo, en un condensado de Bose-Einstein de pocos átomos). La física molecular se centra en estructuras moleculares y sus interacciones con la materia y con la luz.

Física de partículas o de altas energías
La física de partículas es la rama de la física que estudia los componentes elementales de la materia y las interacciones entre ellos como si éstas fueran partículas. Es llamada también física de altas energías, pues muchas de las partículas elementales no se encuentran en la naturaleza y es necesario producirlas en colisiones de alta energía entre otras partículas, como se hace en los aceleradores de partículas. Los principales centros de estudio sobre partículas son el Laboratorio Nacional Fermi o Fermilab, en Estados Unidos, y el Centro Europeo para la Investigación Nuclear o CERN, en la frontera entre Suiza y Francia. En estos laboratorios lo que se logra es obtener energías similares a las que se cree existieron en el Big Bang, y así se intenta tener cada vez más pruebas del origen del universo.[11]

Ilustración de una desintegración alfa.

En la actualidad, las partículas elementales se clasifican siguiendo el llamado Modelo Estándar en dos grandes grupos: bosones y fermiones. Los bosones son las partículas que interactúan con la materia y los fermiones son las partículas constituyentes de la materia. En el modelo estándar se explica cómo las interacciones fundamentales en forma de partículas (bosones) interactúan con las partículas de materia (fermiones). Así, el electromagnetismo tiene su partícula llamada fotón, la interacción nuclear fuerte tiene al gluón, la interacción nuclear débil a los bosones W y Z y la gravedad a una partícula hipotética llamada gravitón.

Física Entre los fermiones hay más variedad; se encuentran dos tipos: los leptones y los quarks. En conjunto, el modelo estándar contiene 24 partículas fundamentales que constituyen la materia (12 pares de partículas/anti-partículas) junto con 3 familias de bosones de gauge responsables de transportar las interacciones.[12]

10

Astrofísica
La astrofísica y la astronomía son ciencias que aplican las teorías y métodos de otras ramas de la física al estudio de los objetos que componen nuestro variado universo, tales como estrellas, planetas, galaxias y agujeros negros. La astronomía se centra en la comprensión de los movimientos de los objetos, mientras que, grosso modo, la astrofísica busca explicar su origen, su evolución y su comportamiento. Actualmente los términos astrofísica y astronomía se suelen usar indistintamente para referirse al estudio del universo. Esta área, junto a la física de partículas, es una de las áreas más Ilustración de cómo podría verse un agujero estudiadas y más apasionantes del mundo contemporáneo de la física. negro supermasivo. Desde que el telescopio espacial Hubble nos brindó detallada información de los más remotos confines del universo, los físicos pudieron tener una visión más objetiva de lo que hasta ese momento eran solo teorías.[13] Debido a que la astrofísica es un campo muy amplio, los astrofísicos aplican normalmente muchas disciplinas de la física, incluida la mecánica, el electromagnetismo, la mecánica estadística, la termodinámica, la mecánica cuántica, la relatividad, la física nuclear y de partículas, y la física atómica y molecular. Además, la astrofísica está íntimamente vinculada con la cosmología, que es el área que pretende describir el origen del universo.[14]

Biofísica
La biofísica es un área interdisciplinaria que estudia la biología aplicando los principios generales de la física. Al aplicar el carácter probabilístico de la mecánica cuántica a sistemas biológicos, obtenemos métodos puramente físicos para la explicación de propiedades biológicas. Se puede decir que el intercambio de conocimientos es únicamente en dirección a la biología, ya que ésta se ha ido enriqueciendo de los conceptos físicos y no viceversa.[15] Esta área está en constante crecimiento. Se estima que durante los inicios del siglo XXI cada vez la confluencia de físicos, biólogos y químicos a los mismos laboratorios se incrementará. Los estudios en neurociencia, por ejemplo, han aumentado y cada vez han tenido mayores frutos desde que se comenzó a implementar las leyes del electromagnetismo, la óptica y la física molecular al estudio de las neuronas.[16]

La biofísica podría describir físicamente lo que ocurre en nuestro cerebro.

Física

11

Resumen de las disciplinas físicas
Clasificación de la física con respecto a teorías: • • • • Mecánica Clásica Mecánica cuántica Teoría cuántica de campos Teoría de la relatividad

• Relatividad especial • Relatividad general • Mecánica Estadística • Termodinámica • Mecánica de medios continuos • Mecánica del sólido rígido, Mecánica de sólidos deformables, Elasticidad, Plasticidad • Mecánica de fluidos. • Electromagnetismo • Electricidad • Magnetismo • Electrónica • Astrofísica (rama de la astronomía)

Referencias
[1] Rolando Delgado Castillo, Francisco A. Ruiz Martínez (Universidad de Cienfuegos). « De Aristóteles a Ptolomeo (http:/ / es. geocities. com/ rdelgado01/ webhistfis/ 5GreciaromF. htm)». Consultado el 29/01/2008. [2] Rolando Delgado Castillo, Francisco A. Ruiz Martínez (Universidad de Cienfuegos). « Ideas físicas en el Medioevo (http:/ / es. geocities. com/ rdelgado01/ webhistfis/ 6medioevoF. htm#adios)». Consultado el 29/01/2008. [3] Michael Fowler (1995). « Isaac Newton (http:/ / galileoandeinstein. physics. virginia. edu/ lectures/ newton. html)» (en inglés). Consultado el 31/01/2008. [4] Rolando Delgado Castillo, Francisco A. Ruiz Martínez (Universidad de Cienfuegos). « La física del siglo XVIII (http:/ / es. geocities. com/ rdelgado01/ webhistfis/ 7REV2F. htm)». Consultado el 01/02/2008. [5] Rolando Delgado Castillo, Francisco A. Ruiz Martínez (Universidad de Cienfuegos). « Nuevo Paradigma electromagnético en el siglo XIX (http:/ / es. geocities. com/ rdelgado01/ webhistfis/ 8SXIXF. htm)». Consultado el 01/02/2008. [6] Rolando Delgado Castillo, Francisco A. Ruiz Martínez (Universidad de Cienfuegos). « La física del siglo XX (http:/ / es. geocities. com/ rdelgado01/ webhistfis/ 9HitosXXF. htm#electronica)». Consultado el 01/02/2008. [7] Fernando O. Minotti (2004). « Apuntes de Mecánica Clásica (http:/ / www. lfp. uba. ar/ Minotti/ mecanica/ cursomec. pdf)». Consultado el 31/01/2008. [8] Shahen Hacyan (1995). Relatividad para principiantes (http:/ / bibliotecadigital. ilce. edu. mx/ sites/ ciencia/ volumen2/ ciencia3/ 078/ htm/ relativ. htm). Fondo de Cultura Económica. ISBN 968-16-3152-8. . [9] « Conceptos básicos de Termodinámica (http:/ / www. sc. ehu. es/ sbweb/ fisica/ estadistica/ termo/ Termo. html)». Consultado el 01/02/2008. [10] « teoría cinética de los gases (http:/ / www. sc. ehu. es/ sbweb/ fisica/ estadistica/ gasIdeal/ gasIdeal. html)». Consultado el 01/02/2008. [11] Ma José Guerrero (Instituto de Física Teórica UAM). « Partículas elementales (http:/ / www. fisicahoy. com/ fisicaHoy/ pElementales/ pElementales. html)». Consultado el 03/02/2008. [12] Particle Data Group (1999). « La aventura de las partículas (http:/ / pdg. web. cern. ch/ pdg/ particleadventure/ spanish/ index. html)». Consultado el 03/02/2008. [13] Pedro J. Hernández (2003). « La nueva cosmología (http:/ / astronomia. net/ cosmologia/ nuevocosmos. htm)». Consultado el 05/02/2008. [14] Gustavo Yepes (UAM). « Física del Espacio (http:/ / www. fisicahoy. com/ fisicaHoy/ espacio/ espacio. html)». Consultado el 05/02/2008. [15] « Biofísica (http:/ / www. agapea. com/ Biofisica-n157972i. htm)». Consultado el 05/02/2008. [16] Néstor Parga (Departamento de Física Teórica UAM). « Biofísica y el cerebro (http:/ / www. fisicahoy. com/ fisicaHoy/ bioCerebro/ bioCerebro. html)». Consultado el 05/02/2008.

Física

12

Enlaces externos
• • • • • • • • • • • • Wikiversidad alberga proyectos de aprendizaje sobre Física.Wikiversidad Wikimedia Commons alberga contenido multimedia sobre Física. Commons Wikilibros alberga un libro o manual sobre Física. Wikinoticias tiene noticias relacionadas con Física.Wikinoticias Wikiquote alberga frases célebres de o sobre Física. Wikiquote Wikcionario tiene definiciones para física.Wikcionario Experimentos Caseros de Física (http://www.experimentoscaseros.com.ar) Física y Sociedad (http://www.fisicaysociedad.es) Historia de la Física (http://www.lenguasdefuego.net/Fisica_Antigua_I) Artículos de Física (http://omega.ilce.edu.mx:3000/sites/ciencia/html/fisica.html) Enseñanza de la Física (http://fisica.wikidot.com/) Conversión de Unidades (http://www.scribd.com/doc/38070937/Conversion-de-Unidades-Fisica) - Artículo acerca de la conversión de unidades así como su procedimiento.

Wikilibros

• El universo mecánico (http://www.tu.tv/videos/introduccion-al-universo-mecanico) - Documental emitido por RTVE. nso:Fisika

Movimiento (física)
En mecánica, el movimiento es un fenómeno físico que se define como todo cambio de posición en el espacio que experimentan los cuerpos de un sistema con respecto a ellos mismos o a otro cuerpo que se toma como referencia. Todo cuerpo en movimiento describe una trayectoria. La descripción y estudio del movimiento de un cuerpo exige determinar su posición en el espacio en función del tiempo. Para ello es necesario un sistema de referencia o referencial.

Historia del concepto físico

El movimiento es un cambio de posición respecto del tiempo.

Las cuestiones acerca de las causas del movimiento surgieron en la mente del hombre hace más de 25 siglos, pero las respuestas que hoy conocemos no se desarrollaron hasta los tiempos de Galileo Galilei (1564–1642) y Sir. Issac Newton (1642–1727). • Anaximandro pensaba que la naturaleza procedía de la separación, por medio de un eterno movimiento, de los elementos opuestos (por ejemplo, (frío-calor), que estaban encerrados en algo llamado materia primordial. • Demócrito decía que la naturaleza está formada por piezas indivisibles de materia llamadas átomos, y que el movimiento era la principal característica de éstos, siendo el movimiento un cambio de lugar en el espacio.

Movimiento (física) • Aristóteles rechaza el determinismo mecanicista de Demócrito y la idea atomística con el argumento de que no puede existir el vacío subyacente entre las partículas. Según la doctrina aristotélica, la materia está constituida de forma continua, es decir, que no puede dividirse en partes irreductibles. Aristóteles define el movimiento, lo dinámico (το δυνατόν) como la realización (acto) de una capacidad o posibilidad de ser (potencia) en tanto que se está actualizando. Si estoy sentado (acto) y tengo la posibilidad (potencia) de estar de pie, el movimiento consistirá en el paso de la posibilidad ( potencia de estar de pie) al hecho de estar de pie (acto) mientras dura el proceso. El movimiento acaba cuando ya estoy de pie (acto). • Epícuro, un total atomista, se da a la tarea de retomar el concepto de átomo, de Democrito, y de la energía, de Aristóteles, definiendo a la energía como indeterminación absoluta de la materia, lo que comprendemos como materia no másica y a los cuerpos como determinación absoluta de la materia, lo que comprendemos como materia másica. Recordemos que Epícuro es el primer físico absoluto, de ahí se dan dos importantes rasgos, que los cuerpos percibidos son materiales y que la energía, que provoca el movimiento en estos, también es material. La importancia de esta tesis, epicúrea, es inconmensurable en la historia de la física, debido a que resuelve las problemáticas de las tesis expuestas antes de esta, y posteriormente tiene influencia en la física, sobre todo a partir de los s.XVI y s.XVII, gracias al redescubrimiento de Poggio Bracciolini y de Pierre Gassendi de las obras de Epícuro. Un ejemplo claro de influencia esta en Isaac Newton, que de hecho desvirtuó la teoría, llegando así a errores en su Ley de gravitación universal, un error claro es el fundamento que da al movimiento en la gravedad, analógicamente comparado con el determinismo mecanicista de Demócrito. Quienes que confirmaron definitivamente, con sus trabajos, la tesis de Epícuro fueron Max Planck y Albert Einstein, después de veintiún siglos de duda sobre la tesis de Epícuro. • Lucrecio, para evitar el determinismo mecanicista, ya criticado por Aristóteles, toma el pensamiento de Epicuro e introduce la tesis de que los átomos caen en el vacío y experimentan por sí mismos una declinación que les permite encontrarse. De esta forma se trata de imponer un cierto orden a la idea original que suponía que las cosas se formaban con un movimiento caótico de átomos. • A partir de Galileo, los hombres de ciencia comenzaron a desarrollar técnicas de análisis que permitían una descripción cuantificable del fenómeno.

13

Tipos de movimiento
Movimiento rectilíneo uniforme Un movimiento es rectilíneo cuando describe una trayectoria recta y uniforme cuando su velocidad es constante en el tiempo, es decir, su aceleración es nula. Esto implica que la velocidad media entre dos instantes cualesquiera siempre tendrá el mismo valor. Además la velocidad instantánea y media de este movimiento coincidirán. Movimiento rectilíneo uniformemente acelerado' El Movimiento rectilíneo uniformemente acelerado es aquél en el que un cuerpo se desplaza sobre una recta con aceleración constante. Esto implica que en cualquier intervalo de tiempo, la aceleración del cuerpo tendrá siempre el mismo valor. Por ejemplo la caída libre de un cuerpo, con aceleración de la gravedad constante. Movimiento circular El movimiento circular es el que se basa en un eje de giro y radio constante: la trayectoria será una circunferencia. Si, además, la velocidad de giro es constante, se produce el movimiento circular uniforme, que es un caso particular de movimiento circular, con radio fijo y velocidad angular constante. No se puede decir que la velocidad es constante ya que, al ser una magnitud vectorial, tiene módulo y dirección: el módulo de la velocidad permanece constante durante todo el movimiento pero la dirección está constantemente cambiando, siendo en todo momento tangente a la trayectoria circular. Esto implica la presencia de una aceleración que, si bien en este caso no varía al módulo de la velocidad, si varía su dirección. Movimiento ondulatorio Se denomina movimiento ondulatorio al realizado por un objeto cuya trayectoria describe una ondulación. Se corresponde con la trayectoria ideal de un proyectil que se mueve en un medio que no ofrece resistencia al avance y que está sujeto a un campo gravitatorio uniforme. También es posible demostrar que puede

Movimiento (física) ser analizado como la composición de dos movimientos rectilíneos, un movimiento rectilíneo uniforme horizontal y movimiento rectilíneo uniformemente acelerado vertical. Movimiento parabólico Se denomina movimiento parabólico al realizado por un objeto cuya trayectoria describe una parábola. Se corresponde con la trayectoria ideal de un proyectil que se mueve en un medio que no ofrece resistencia al avance y que está sujeto a un campo gravitatorio uniforme. También es posible demostrar que puede ser analizado como la composición de dos movimientos rectilíneos, un movimiento rectilíneo uniforme horizontal y movimiento rectilíneo uniformemente acelerado vertical. Movimiento Pendular El movimiento pendular es una forma de desplazamiento que presentan algunos sistemas físicos como aplicación practica al movimiento armónico simple. A continuación hay tres características del movimiento pendular que son: péndulo simple, péndulo de torsión y péndulo físico. Péndulo simple: El sistema físico llamado péndulo simple esta constituido por una masa puntual m suspendida de un hilo inextensible y sin peso que oscila en el vació en ausencia de fuerza de rozamientos. Dicha masa se desplaza sobre un arco circular con movimiento periódico. Esta definición corresponde a un sistema teórico que en la práctica se sustituye por una esfera de masa reducida suspendida de un filamento ligero. Péndulo de torsión: Se dice que un cuerpo se desplaza con movimiento armónico de rotación en torno a un eje fijo cuando un ángulo de giro resulta función sinusoidal del tiempo y el cuerpo se encuentra sometido a una fuerza recuperadora cuyo momento es proporcional a la elongación angular. Péndulo físico: El péndulo físico, también llamado péndulo compuesto, es un sistema integrado por un sólido de forma irregular, móvil en torno a un punto o ha eje fijos, y que oscila solamente por acción de su peso. movimiento giratorio por las moléculas que producen oxigeno hacia las partículas haciendo así es como se hace uso de el método giratorio que consiste en convertir las figuras planas y darles vuelta.

14

Estudios del movimiento
El gran filósofo griego Aristóteles (384 a. C. – 322 a. C.) propuso explicaciones sobre lo que ocurría en la naturaleza, considerando las observaciones que hacía de las experiencias cotidianas y sus razonamiento, aunque no se preocupaba por comprobar sus afirmaciones. Aristóteles formuló su teoría sobre la caída de los cuerpos afirmando que los más pesados caían más rápido que los más ligeros, es decir entre más peso tengan los cuerpos más rápido caen. Esta teoría fue aceptada por casi dos mil años hasta que en el siglo XVII Galileo realiza un estudio más cuidadoso sobre el movimiento de los cuerpos y su caída, sobre la cual afirmaba: "cualquier velocidad, una vez impartida a un cuerpo se mantendrá constantemente, en tanto no existan causas de aceleración o retardamiento, fenómeno que se observará en planos horizontales donde la fricción se haya reducido al mínimo" Esta afirmación lleva consigo el principio de la inercia de Galileo la cuál brevemente dice: "Si no se ejerce ninguna fuerza sobre un cuerpo, éste permanecerá en reposo o se moverá en línea recta con velocidad constante" . El fue estudiando los movimientos de diversos objetos en un plano inclinado y observó que en el caso de planos con pendiente descendente a una causa de aceleración, mientras que en los planos con pendiente ascendente hay una causa de retardamiento. De esta experiencia razonó que cuando las pendientes de los planos no son descendentes ni ascendentes no debe haber aceleración ni retardamiento por lo que llegó a la conclusión de que cuando el movimiento es a lo largo de un plano horizontal debe ser permanente. Galileo hizo un estudio para comprobar lo que había dicho Aristóteles acerca de la caída de los cuerpos, para hacerlo se subió a lo más alto de la torre de Pisa y soltó dos objetos de distinto peso; y observó que los cuerpos caen a la misma velocidad sin importar su peso, quedando así descartada la teoría de la caída de los cuerpos de Aristóteles.

Movimiento (física)

15

Leyes del movimiento
Leyes de Newton
Las Leyes de Newton, también conocidas como Leyes del movimiento de Newton, son tres principios a partir de los cuales se explican la mayor parte de los problemas planteados por la dinámica, en particular aquellos relativos al movimiento de los cuerpos. Revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el universo. En tanto que constituyen los cimientos no sólo de la dinámica clásica sino también de la física clásica en general. Aunque incluyen ciertas definiciones y en cierto sentido pueden verse como axiomas, Newton afirmó que estaban basadas en observaciones y experimentos cuantitativos; ciertamente no pueden derivarse a partir de otras relaciones más básicas. La demostración de su validez radica en sus predicciones y la validez de esas predicciones fue verificada en todos y cada uno de los casos durante más de dos siglos. Los estudios que el realizó se pueden definir con las siguientes tres leyes que postuló:

Primera ley de Newton o Ley de la inercia
La primera ley del movimiento rebate la idea aristotélica de que un cuerpo sólo puede mantenerse en movimiento si se le aplica una fuerza. Newton expone que:

La primera y segunda ley de Newton, en latín, en la edición original de su obra Principia Mathematica.

Todo cuerpo permanece en su estado inicial de reposo o movimiento uniforme rectilíneo a menos que sobre él se ejerza una fuerza exterior no equilibrada. El ser la primera de las tres leyes de Newton suele inducir a un error muy común atribuyendo el descubrimiento de esta propiedad al propio Newton cuando, en realidad, fue Galileo Galilei en el siglo XVI el primero en observar, estudiar y formalizar dicha propiedad y posteriormente, ya en el siglo XVII, fue tomada por Newton. Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza o una serie de fuerzas cuyo resultante no sea nulo sobre él. Newton toma en cuenta, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como esta a la fricción. En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta.

Movimiento (física)

16

Segunda ley de Newton o Ley de fuerza
La segunda ley del movimiento de Newton afirma que: El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime. Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto, esto es, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se define simplemente en función del momento en que se aplica a un objeto, con lo que dos fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto. A diferencia de la primera ley de Newton que es descriptiva, la segunda ley también conocida como ley del movimiento permite calcular cuantitativamente las fuerzas, las masas y aceleraciones de los cuerpos.

Donde: f= fuerza que se mide en Newton (N) m= masa que se mide en kilogramos o gramos (Kg, g) a= aceleración que se mide en metros sobre segundos al cuadrado (m/s2) Nota: hay que tomar en cuenta que 1 N= kg m/s2 Ejemplo: Calcular la fuerza que se debe aplicar a un cuerpo de 50 kg para producirle una aceleración de 4 m/s2. Datos f= x m= 50 kg a= 4 m/s2 nota: la “x” representa una incógnita ( valor que no se conoce) Fórmula f= m.a Sustitución F= 50 kg. 4 m/s2 F= 200 kg m/s2 F= 200N Resultado: F= 200N

Tercera Ley de Newton o Ley de acción y reacción
La Tercera ley de Newton afirma que: Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y de dirección contraria. La tercera ley es completamente original de Newton (pues las dos primeras ya habían sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes de la mecánica un conjunto lógico y completo. Expone que por cada fuerza que actúa sobre un cuerpo, este realiza una fuerza de igual intensidad, pero de dirección contraria sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre la misma recta, siempre se presentan en pares de igual magnitud y opuestas en dirección. Es importante observar que este principio de acción y reacción relaciona dos fuerzas que no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según sean sus masas. Por lo demás, cada una de esas fuerzas obedece por separado a la segunda ley. Junto con las anteriores leyes, ésta permite enunciar los principios de conservación del momento lineal y del momento angular.

Movimiento (física)

17

Mecánica
La mecánica (Griego Μηχανική y de latín mechanìca o arte de construir una máquina) es la rama de la física que estudia y analiza el movimiento y reposo de los cuerpos, y su evolución en el tiempo, bajo la acción de fuerzas. El conjunto de disciplinas que abarca la mecánica convencional es muy amplio y es posible agruparlas en cuatro bloques principales: La mecánica es una ciencia perteneciente a la física, ya que los fenómenos que estudia son físicos, por ello está relacionada con las matemáticas. Sin embargo, también puede relacionarse con la ingeniería, en un modo menos riguroso. Ambos puntos de vista se justifican parcialmente ya que, si bien la mecánica es la base para la mayoría de las ciencias de la ingeniería clásica, no tiene un carácter tan empírico como éstas y, en cambio, por su rigor y razonamiento deductivo, se parece más a la matemática.

La Mecánica comprende el estudio de las máquinas (Polea simple fija).

Mecánica clásica
La mecánica clásica es una formulación de la mecánica para describir mediante leyes el comportamiento de cuerpos físicos macroscópicos en reposo y a velocidades pequeñas comparadas con la velocidad de la luz. Existen varias formulaciones diferentes, de la mecánica clásica para describir un mismo fenómeno natural, que independientemente de los aspectos formales y metodológicos que utilizan llegan a la misma conclusión. • La mecánica vectorial, deviene directamente de las leyes de Newton, por eso también se le conoce con el gentilicio de newtoniana. Es aplicable a cuerpos que se mueven en relación a un observador a velocidades pequeñas comparadas con la de la luz. Fue construida en un principio para una sola partícula moviéndose en un campo gravitatorio. Se basa en el tratamiento de dos magnitudes vectoriales bajo una relación causal: la fuerza y la acción de la fuerza, medida por la variación del momentum (cantidad de movimiento). El análisis y síntesis de fuerzas y momentos constituye el método básico de la mecánica vectorial. Requiere del uso privilegiado de sistemas de referencia inercial. • La mecánica analítica (analítica en el sentido matemático de la palabra y no filosófico). Sus métodos son poderosos y trascienden de la Mecánica a otros campos de la física. Se puede encontrar el germen de la mecánica analítica en la obra de Leibniz que propone para solucionar los problemas mecánicos otras magnitudes básicas (menos oscuras según Leibniz que la fuerza y el momento de Newton), pero ahora escalares, que son: la energía cinética y el trabajo. Estas magnitudes están relacionadas de forma diferencial. La característica esencial es que, en la formulación, se toman como fundamentos primeros principios generales (diferenciales e integrales), y que a partir de estos principios se obtengan analíticamente las ecuaciones de movimiento.

Movimiento (física)

18

Mecánica cuántica
La mecánica cuántica[1][2] es una de las ramas principales de la física, y uno de los más grandes avances del siglo XX para el conocimiento humano, que explica el comportamiento de la materia y de la energía. Su aplicación ha hecho posible el descubrimiento y desarrollo de muchas tecnologías, como por ejemplo los transistores que se usan más que nada en la computación. La mecánica cuántica describe en su visión más ortodoxa, cómo cualquier sistema físico, y por lo tanto todo el universo, existe en una diversa y variada multiplicidad de estados, los cuales habiendo sido organizados matemáticamente por los físicos, son denominados autoestados de vector y valor propio. De esta forma la mecánica cuántica explica y revela la existencia del átomo y los misterios de la estructura atómica tal cual hoy son entendidos; lo que por otra parte, la física clásica, y más propiamente todavía la mecánica clásica, no podía explicar debidamente los fenómenos actualmente observados por los científicos. De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de perturbaciones.[3] La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)[4] y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria. La mecánica cuántica es la base de los estudios del átomo, los núcleos y las partículas elementales (siendo ya necesario el tratamiento relativista), pero también en teoría de la información, criptografía y química.

Movimiento (física)

19

Cinemática
La Cinemática (del griego κινεω, kineo, movimiento) es la rama de la mecánica clásica que estudia las leyes del movimiento de los cuerpos sin tener en cuenta las causas que lo producen, limitándose, esencialmente, al estudio de la trayectoria en función del tiempo. En la Cinemática se utiliza un sistema de coordenadas para describir las trayectorias, denominado sistema de referencia. La velocidad es el ritmo con que cambia la posición un cuerpo. La aceleración es el ritmo con que cambia su velocidad. La velocidad y la aceleración son las dos principales cantidades que describen cómo cambia su posición en función del tiempo.

Cinemática clásica y sus fundamentos
La cinemática trata del estudio del movimiento de los cuerpos en general, y, en particular, el caso simplificado del movimiento de un punto material. Para sistemas de muchas partículas, tales como los fluidos, las leyes de movimiento se estudian en la mecánica de fluidos. El movimiento trazado por una partícula lo mide un observador respecto a un sistema de referencia. Desde el punto de vista matemático, la Cinemática expresa cómo varían las coordenadas de posición de la partícula (o partículas) en función del tiempo. La función que describe la trayectoria recorrida por el cuerpo (o partícula) depende de la velocidad (la rapidez con la que cambia de posición un móvil) y de la aceleración (variación de la velocidad respecto del tiempo). El movimiento de una partícula (o cuerpo rígido) se puede describir según los valores de velocidad y aceleración, que son magnitudes vectoriales. • Si la aceleración es nula, da lugar a un movimiento rectilíneo uniforme y la velocidad permanece constante a lo largo del tiempo.
Una masa colgada de un muelle se mueve con un movimiento armónico simple.

• Si la aceleración es constante con igual dirección que la velocidad, da lugar al movimiento rectilíneo uniformemente acelerado y la velocidad variará a lo largo del tiempo. • Si la aceleración es constante con dirección perpendicular a la velocidad, da lugar al movimiento circular uniforme, donde el módulo de la velocidad es constante, cambiando su dirección con el tiempo. • Cuando la aceleración es constante y está en el mismo plano que la velocidad y la trayectoria, tenemos el caso del movimiento parabólico, donde la componente de la velocidad en la dirección de la aceleración se comporta como un movimiento rectilíneo uniformemente acelerado, y la componente perpendicular se comporta como un movimiento rectilíneo uniforme, generándose una trayectoria parabólica al componer ambas. • Cuando la aceleración es constante pero no está en el mismo plano que la velocidad y la trayectoria, se observa el efecto de Coriolis. • En el movimiento armónico simple se tiene un movimiento periódico de vaivén, como el del péndulo, en el cual un cuerpo oscila a un lado y a otro desde la posición de equilibrio en una dirección determinada y en intervalos iguales de tiempo. La aceleración y la velocidad son funciones, en este caso, sinusoidales del tiempo. Al considerar el movimiento de traslación de un cuerpo extenso, en el caso de ser rígido, conociendo como se mueve una de las partículas, se deduce como se mueven las demás. Así basta describir el movimiento de una partícula puntual tal como el centro de masa del cuerpo para especificar el movimiento de todo el cuerpo. En la descripción del movimiento de rotación hay que considerar el eje de rotación respecto del cual rota el cuerpo y la distribución de partículas respecto al eje de giro. El estudio del movimiento de rotación de un sólido rígido suele incluirse en la temática de la mecánica del sólido rígido por ser más complicado. Un movimiento interesante es el de una peonza,

Movimiento (física) que al girar puede tener un movimiento de precesión y de nutación Cuando un cuerpo posee varios movimientos simultáneamente, tal como uno de traslación y otro de rotación, se puede estudiar cada uno por separado en el sistema de referencia que sea apropiado para cada uno, y luego, superponer los movimientos.

20

Transformaciones de la energía mecánica
En la naturaleza se realizan diferentes transformaciones de energía. Los seres humanos siempre han necesitado energía para mover los objetos. Cuando se logra que un objeto se mueva o cambie de lugar, decimos que se produce un trabajo mecánico. Los alimentos son la fuente de energía que las personas necesitan y requieren para aplicar una fuerza y así mismo mover un objeto o cuerpo, y algunas máquinas necesitan la energía química de los combustibles como la gasolina o el diésel para poder funcionar y mover un objeto y así mismo generar el trabajo. Cuanta más energía posea un objeto, este tendrá mayor capacidad de realizar un trabajo Al girar de las ruedas, al fluir el agua, el vuelo de las aves, el galopar de un caballo, al correr una persona, todos los movimientos sin excepción son manifestaciones de una forma de energía activa, que permite el movimento, por lo que es llamada energía cinética. Los cuerpos no siempre están en movimiento y no quiere decir que estos no tengan energía, al contrario si la hay por lo que se llama energía potencial. Por ejemplo un automóvil situado en la cumbre de una montaña parado este posee energía potencial debido a su posición y su reposo, sin embargo al descender esa energía potencial se convertirá en energía cinética ya que el automóvil cambio de un estado de reposo a un estado en movimiento. La energía potencial se expresa:

Donde: m = masa g = aceleración de la gravedad h = altura

Trabajo
En mecánica clásica, el trabajo que realiza una fuerza se define como el producto de ésta por el camino que recorre su punto de aplicación y por el coseno del ángulo que forman el uno con el otro.[5] El trabajo es una magnitud física escalar que se representa con la letra (del inglés Work) y se expresa en unidades de energía, esto es en julios o joules (J) en el Sistema Internacional de Unidades. Matemáticamente se expresa como:
Trabajo realizado por una fuerza constante.

Donde

es el trabajo mecánico,

es la magnitud de la fuerza,

es el desplazamiento y

es el ángulo que

forman entre sí el vector fuerza y el vector desplazamiento (véase dibujo). Cuando el vector fuerza es perpendicular al vector desplazamiento del cuerpo sobre el que se aplica, dicha fuerza no realiza trabajo alguno. Asimismo, si no hay desplazamiento, el trabajo también será nulo.

Movimiento (física)

21

Registro del movimiento
La tecnología hoy en día nos ofrece muchas formas de registrar el movimiento efectuado por un cuerpo. Así, para medir la velocidad se dispone del radar de tráfico cuyo funcionamiento se basa en el efecto Doppler. El taquímetro es un indicador de la velocidad de un vehículo basado en la frecuencia de rotación de las ruedas. Los caminantes disponen de podómetros que detectan las vibraciones características del paso y, suponiendo una distancia media característica para cada paso, permiten calcular la distancia recorrida. El vídeo, unido al análisis informático de las imágenes, permite igualmente determinar la posición y la velocidad de los vehículos.

Movimiento molecular
La Dinámica Molecular (DM) es una técnica de simulación en la que se permite que átomos y moléculas interactúen por un período, permitiendo una visualización del movimiento de las partículas. Originalmente fue concebida dentro de la física teórica, aunque hoy en día se utiliza sobre todo en biofísica y ciencia de materiales. Su campo de aplicación va desde superficies catalíticas hasta sistemas biológicos como las proteínas. Si bien los experimentos de cristalografía de rayos X permiten tomar "fotografías estáticas" y la técnica de RMN nos da indicios del movimiento molecular, ningún experimento es capaz de acceder a todas las escalas de tiempo involucradas. Resulta tentador, aunque no es enteramente correcto, describir a la DM como un "microscopio virtual" con alta resolución espacial y temporal. En general, los sistemas moleculares son complejos y consisten de un gran número de partículas, por lo cual sería imposible encontrar sus propiedades de forma analítica. Para evitar este problema, la DM utiliza métodos numéricos. La DM representa un punto intermedio entre los experimentos y la teoría. Puede ser entendida como un experimento en la computadora. Sabemos que la materia está constituida de partículas en movimiento e interacción al menos desde la época de Boltzmann en el siglo XIX. Pero muchos aún se imaginan a las moléculas como los modelos estáticos de un museo. Richard Feynman dijo en 1963 que "todo lo que hacen los seres vivos puede ser entendido a través de los saltos y contorsiones de los átomos. Una de las contribuciones más importantes de la dinámica molecular es crear conciencia de que el DNA y las proteínas son máquinas en movimiento. Se le utiliza para explorar la relación entre estructura, movimiento y función. La dinámica molecular es un campo multidisciplinario. Sus leyes y teorías provienen de las Matemáticas, Física y Química. Emplea algoritmos de las Ciencias de la Computación y Teoría de la información. Permite entender a los materiales y las moléculas no cómo entidades rígidas, sino como cuerpos animados. También se le ha llamado "estadística mecánica numérica" o "la visión de Laplace de la mecánica Newtoniana", en el sentido de predecir el futuro al animar las fuerzas de la naturaleza. Para utilizar esta técnica de forma correcta, es importante entender las aproximaciones utilizadas y evitar caer en el error conceptual de que estamos simulando el comportamiento real y exacto de un sistema molecular. La integración de las ecuaciones de movimiento están mal condicionadas, lo cual genera errores numéricos acumulativos, que pueden ser minimizados seleccionando apropiadamente los algoritmos, pero no eliminados del todo. Por otro lado, las interacciones entre las partículas se modelan con un campo de fuerza aproximado, que puede o no ser adecuado dependiendo del problema que queremos resolver. De cualquier forma, la dinámica molecular nos permite explorar su comportamiento representativo en el espacio fásico. En la DM, hay que balancear el costo computacional y la fiabilidad en los resultados. En la DM clásica se utilizan las Ecuaciones de Newton, cuyo costo computacional es mucho menor que el de las de la mecánica cuántica. Es por ello que muchas propiedades que pueden resultar de interés, como la formación o ruptura de enlaces no puedan ser estudiadas mediante este método ya que no contempla estados excitados o reactividad. Existen métodos híbridos denominados QM/MM (Quantum Mechanics/Molecular Mechanics) en los que un centro reactivo es tratado de modo cuántico mientras que el ambiente que lo rodea se trata de modo clásico. El desafío en

Movimiento (física) este tipo de métodos resulta en la definición de manera precisa de la interacción entre los dos formas de describir el sistema... El resultado de una simulación de dinámica molecular son las posiciones y velocidades de cada átomo de la molécula, para cada instante en el tiempo discretizado. A esto se le llama trayectoria.

22

Ecuaciones de movimiento en mecánica clásica
Históricamente el primer ejemplo de ecuación del movimiento que se introdujo en física fue la segunda ley de Newton para sistemas físicos compuestos de agregados partículas materiales puntuales. En estos sistemas el estado dinámico de un sistema quedaba fijado por la posición y velocidad de todas las partículas en un instante dado. Hacia finales del siglo XVIII se introdujo la mecánica analítica o racional, como generalización de las leyes de Newton aplicables a sistemas de referencia inerciales. Se concibieron dos enfoques básicamente equivalentes conocidos como mecánica lagrangiana y mecánica hamiltoniana, que pueden llegar a un elevado grado de abstracción y formalización. Los ejemplos clásicos de ecuación del movimiento más conocidos son: 1. La segunda ley de Newton que se usa en mecánica newtoniana: 2. Las ecuaciones de Euler-Lagrange que aparecen en mecánica lagrangiana:

3. Las ecuaciones de Hamilton que aparecen en mecánica hamiltoniana:

Cantidad de movimento en mecánica
Mecánica newtoniana
Históricamente el concepto de cantidad de movimiento surgió en el contexto de la mecánica newtoniana en estrecha relación con el concepto de velocidad y el de masa. En mecánica newtoniana se define la cantidad de movimiento lineal como el producto de la masa por la velocidad:

La idea intuitiva tras esta definición está en que la "cantidad de movimiento" dependía tanto de la masa como de la velocidad: si se imagina una mosca y un camión, ambos moviéndose a 40 km/h, la experiencia cotidiana dice que la mosca es fácil de detener con la mano mientras que el camión no, aunque los dos vayan a la misma velocidad. Esta intuición llevó a definir una magnitud que fuera proporcional tanto a la masa del objeto móvil como a su velocidad.

Mecánica lagrangiana y hamiltoniana
En las formulaciones más abstractas de la mecánica clásica, como la mecánica lagrangiana y la mecánica hamiltoniana, además del momento lineal y del momento angular se pueden definir otros momentos, llamados momentos generalizados o momentos conjugados, asociados a cualquier tipo de coordenada generalizada. Se generaliza así la noción de momento. Si se tiene un sistema mecánico definido por su lagrangiano L definido en términos de las coordenadas generalizadas (q1,q2,...,qN) y las velocidades generalizadas, entonces el momento conjugado de la coordenada qi viene dado por:

Cuando la coordenada qi es una de las coordenadas de un sistema de coordenadas cartesianas, el momento conjugado coincide con una de las componentes del momento lineal, y, cuando la coordenada generalizada representa una

Movimiento (física) coordenada angular o la medida de un ángulo, el momento conjugado correspondiente resulta ser una de las componentes del momento angular.

23

Cantidad de movimiento de un medio continuo
Si estamos interesados en averiguar la cantidad de movimiento de, por ejemplo, un fluido que se mueve según un campo de velocidades es necesario sumar la cantidad de movimiento de cada partícula del fluido, es decir, de cada diferencial de masa o elemento infinitesimal:

Tipos de movimiento
Movimiento rectilíneo uniforme
Ejemplo de campo vectorial no conservativo cuyo rotacional no se Un movimiento es rectilíneo cuando describe una anula. trayectoria recta y uniforme cuando su velocidad es constante en el tiempo, es decir, su aceleración es nula. Esto implica que la velocidad media entre dos instantes cualesquiera siempre tendrá el mismo valor. Además la velocidad instantánea y media de este movimiento coincidirán.

Movimiento rectilíneo uniformemente acelerado
El Movimiento rectilíneo uniformemente acelerado es aquél en el que un cuerpo se desplaza sobre una recta con aceleración constante. Esto implica que en cualquier intervalo de tiempo, la aceleración del cuerpo tendrá siempre el mismo valor. Por ejemplo la caída libre de un cuerpo, con aceleración de la gravedad constante.

Movimiento circular
El movimiento circular es el que se basa en un eje de giro y radio constante: la trayectoria será una circunferencia. Si, además, la velocidad de giro es constante, se produce el movimiento circular uniforme, que es un caso particular de movimiento circular, con radio fijo y velocidad angular constante. No se puede decir que la velocidad es constante ya que, al ser una magnitud vectorial esta tiene módulo y dirección. El módulo de la velocidad permanece constante durante todo el movimiento pero la dirección está constantemente cambiando, siendo en todo momento tangente a la trayectoria circular. Esto implica la presencia de una aceleración que, si bien en este caso no varía al módulo de la velocidad, si varía su dirección.

Movimiento (física)

24

Movimiento ondulatorio
Se denomina movimiento ondulatorio al realizado por un objeto cuya trayectoria describe una ondulacion. Se corresponde con la trayectoria ideal de un cuerpo que Onda estacionaria formada por la interferencia entre una onda (azul) se mueve en un medio que no ofrece resistencia al que avanza hacia la derecha y una onda (roja) que avanza hacia la avance y que está sujeto a un campo gravitatorio izquierda. uniforme. También es posible demostrar que puede ser analizado como la composición de dos movimientos rectilíneos, un movimiento rectilíneo uniforme horizontal y movimiento rectilíneo uniformemente acelerado vertical.

Movimiento parabólico
Se denomina movimiento parabólico al realizado por un objeto cuya trayectoria describe una parábola. Se corresponde con la trayectoria ideal de un cuerpo que se mueve en un medio, que no ofrece resistencia al avance y que está sujeto a un campo gravitatorio uniforme. También es posible demostrar que puede ser analizado como la composición de dos movimientos rectilíneos, un movimiento rectilíneo uniforme horizontal y movimiento rectilíneo uniformemente acelerado vertical.

Movimiento pendular
El movimiento pendular es una forma de desplazamiento que presentan algunos sistemas físcos como aplicación practica al movimiento armónico simple. A continuación hay tres características del movimiento pendular que son: péndulo simple, péndulo de torsión y péndulo físico. Se llama movimiento parabólico a la trayectoria que un objeto describe después de haber sido lanzado desde un punto cualquiera del espacio. Si el objeto tiene una densidad de masa suficientemente grande, los experimentos muestran que, a menudo, se puede despreciar la resistencia del aire y suponer que la aceleración del mismo es debida sólo a la gravedad.

Péndulo simple
El sistema físico llamado péndulo simple esta constituido por una masa puntual '"m"' suspendida de un hilo inextensible y sin peso que oscila en el vacío en ausencia de fuerza de rozamientos. Dicha masa se desplaza sobre un arco circular con movimiento periódico. Esta definición corresponde a un sistema teórico que en la práctica se sustituye por una esfera de masa reducida suspendida de un filamento ligero.

Péndulo simple en movimiento armónico con oscilaciones pequeñas.

Movimiento (física)

25

Péndulo de torsión
Un péndulo de torsión es cuando que un cuerpo se desplaza con movimiento armónico de rotación en torno a un eje fijo cuando su ángulo de giro resulta función sin un tiempo específico y el cuerpo se encuentra sometido a una fuerza recuperadora cuyo momento es proporcional a la elongación angular.

Péndulo físico
El péndulo físico, también llamado péndulo compuesto, es un sistema integrado por un sólido de forma irregular, donde el cuerpo esta en torno a un punto o a un eje fijo, y que oscila solamente por acción de su peso, que no pasa por su centro de masa.

Movimiento armónico simple
El movimiento armónico simple (se abrevia m.a.s.), también denominado movimiento vibratorio armónico simple (abreviado m.v.a.s.), es un movimiento periódico que queda descrito en función del tiempo por una función armónica (seno o coseno). Si la descripción de un movimiento requiriese más de una función armónica, en general sería un movimiento armónico, pero no un m.a.s..
Las ondas pueden ser representadas por un

En el caso de que la trayectoria sea rectilínea, la partícula que realiza movimiento armónico simple. un m.a.s. oscila alejándose y acercándose de un punto, situado en el centro de su trayectoria, de tal manera que su posición en función del tiempo con respecto a ese punto es una sinusoide. En este movimiento, la fuerza que actúa sobre la partícula es proporcional a su desplazamiento respecto a dicho punto y dirigida hacia éste.

Movimiento giroscópico
De acuerdo con la mecánica del sólido rígido, además de la rotación alrededor de su eje de simetría, un giróscopo presenta en general dos movimientos principales: la precesión y la nutación. En un giroscopio debemos tener en cuenta que el cambio en el momento angular de la rueda debe darse en la dirección del momento de la fuerza que actúa sobre la rueda.

Características del movimiento
Trayectoria
Es el lugar geométrico de las posiciones sucesivas por las que pasa un cuerpo en su movimiento. La trayectoria depende del sistema de referencia en el que se describa el movimiento; es decir el punto de vista del observador. también es todo el recorrido que un cuerpo humano puede recorrer

Desplazamiento
Es la longitud del camino recorrido por un cuerpo y corresponde a la distancia que hay entre un punto inicial y el final de su trayectoria; está representado por la longitud de la línea recta que une el punto inicial con el punto final.

Un relámpago es el destello emitido por una corriente eléctrica, la trayectoria de los electrones de dicha corriente es una trayectoria fractal.

Movimiento (física)

26

Velocidad
La velocidad es una magnitud física de carácter vectorial que expresa el desplazamiento de un objeto por unidad de tiempo. En el lenguaje cotidiano se emplea las palabras rapidez y velocidad de manera indistinta. En física se hace una distinción entre ellas. De manera muy sencilla, la diferencia es que la velocidad es la rapidez en una dirección determinada. Cuando se dice que un auto viaja a 60 km/hora se está indicando su rapidez. Pero al decir que un auto se desplaza a 60 km/h hacia el norte se está especificando su velocidad. La rapidez describe qué tan aprisa se desplaza un objeto; la velocidad describe que tan aprisa lo hace y en que dirección. Velocidad = Desplazamiento / tiempo

Rapidez
La rapidez o también llamada celeridad es la relación entre la distancia recorrida y el tiempo empleado en recorrerla. Un auto, por ejemplo, recorre un cierto número de kilómetros en una hora que puede ser de 110km/h. La Vuelo del F-22 Raptor a velocidad supersónica. rapidez es una medida de que tan veloz se mueve un objeto. Es la razón de cambio a la que se recorre la distancia, ya que la expresión razón de cambio indica que estamos dividiendo alguna cantidad entre el tiempo, por lo tanto, la rapidez se mide siempre en términos de una unidad de distancia divida entre una unidad de tiempo. Rapidez = Distancia recorrida / tiempo

Aceleración
En física el término aceleración es una magnitud vectorial que se aplica tanto a los aumentos como a las dismninuciones de rapidez en una unidad de tiempo, por ejemplo, los frenos de un auto pueden producir grandes aceleraciones retardantes, es decir, pueden producir un gran decremento por segundo de su rapidez. A esto se le suele llamar desaceleración o aceleración negativa. El término aceleración se aplica tanto a cambios de rapidez como a cambios de dirección. Si recorres una curva con una rapidez constante de 50 km/h, sientes los efectos de la aceleración como una tendencia a inclinarte hacia el exterior de la curva (inercia). Se puede recorrer la curva con rapidez constante, pero la velocidad no es constante ya que la dirección cambia a cada instante, por lo tanto, el estado de movimiento cambia, es decir, se está acelerando. Aceleración = Velocidad / tiempo

Movimiento (física)

27

Fuerza
En física, la fuerza es una magnitud física que mide la intensidad del intercambio de momento lineal entre dos partículas o sistemas de partículas (en lenguaje de la física de partículas se habla de interacción). Según una definición clásica, fuerza es todo agente capaz de modificar la cantidad de movimiento o la forma de los cuerpos materiales. En el Sistema Internacional de Unidades, la fuerza se mide en "Newtons (N)".

Energía
En física, la energía se define como la capacidad para realizar un trabajo, se manifiesta en los cambios físicos, por ejemplo, al elevar un objeto, transportarlo (movimiento), deformarlo o calentarlo. La energía no es un estado físico real, ni una "sustancia intangible" sino una magnitud escalar que se le asigna al estado del sistema físico, es decir, la energía es una herramienta o abstracción matemática de una propiedad de los sistemas físicos. Por ejemplo, se puede decir que un sistema con energía cinética nula está en reposo. La energía se mide con la unidad "joule (J)".

Sonido
El sonido, en física, es cualquier fenómeno que involucre la propagación en forma de ondas elásticas (sean audibles o no), generalmente a través de un fluido (u otro medio elástico) que esté generando el movimiento vibratorio de un cuerpo.

Referencias
[1] De Broglie (1926): Ondes et mouvements, París, Gauthier-Villars [2] Schrödinger, [Quantisierung als Eigenwertproblem (Erste Mitteilung.)], Ann. Phys., 79, p. 361-376, (1926)1924 & 1926 [3] Cohen-Tannoudji, Claude; Bernard Diu, Franck Laloë (1977). Quantum Mechanics. vol.1 (3ª edición). París, Francia: Hermann. pp. 898. ISBN 0-471-16432-1. [4] Halzen, Francis; D.Martin, Alan (1984). Universidad de Wisconsin. ed. Quarks and Lepons: An Introducory Course in Modern Particle Physics. Universidad de Durham (1ª edición). Canadá: Wiley. pp. 396. ISBN QC793.5.Q2522H34. [5] (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=trabajo) Definición de la RAE

Bibliografía
• Una pequeña parte de este articulo corresponde a la información adquirida por el libro enciclopédico Estudios de la naturaleza, Yaditzha Irausquin (2008). • Physics – Physical Science Study Committee (1966). ISBN 978-0-669-97451-5 • Physics (second edition 1996)

Electromagnetismo

28

Electromagnetismo
El electromagnetismo es una rama de la física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Michael Faraday y formulados por primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como ecuaciones de Maxwell.

Ferrofluido que se agrupa cerca de los polos de un magneto poderoso.

El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales o tensoriales dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir, aplicable sólo a un número muy grande de partículas y a distancias grandes respecto de las dimensiones de éstas, el electromagnetismo no describe los fenómenos atómicos y moleculares, para los que es necesario usar la mecánica cuántica. El electromagnetismo considerado como fuerza es una de las cuatro fuerzas fundamentales del universo actualmente conocido.

Historia
Desde la antigua Grecia se conocían los fenómenos magnéticos y eléctricos pero no es hasta inicios del siglo XVII donde se comienza a realizar experimentos y a llegar a conclusiones científicas de estos fenómenos.[1] Durante estos dos siglos, XVII y XVIII, grandes hombres de ciencia como William Gilbert, Otto von Guericke, Stephen Gray, Benjamin Franklin, Alessandro Volta entre otros estuvieron investigando estos dos fenómenos de manera separada y llegando a conclusiones coherentes con sus experimentos. A principios del siglo XIX Hans Christian Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. De ahí es que los trabajos de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday en ese siglo, son unificados por James Clerk Maxwell en 1861 con un conjunto de ecuaciones que describían ambos fenómenos como uno solo, como un fenómeno electromagnético.[1]

Michael Faraday.

Electromagnetismo

29 Las ahora llamadas ecuaciones de Maxwell demostraban que los campos eléctricos y los campos magnéticos eran manifestaciones de un solo campo electromagnético. Además describía la naturaleza ondulatoria de la luz, mostrándola como una onda electromagnética.[2] Con una sola teoría consistente que describía estos dos fenómenos antes separados, los físicos pudieron realizar varios experimentos prodigiosos e inventos muy útiles como la bombilla eléctrica por Thomas Alva Edison o el generador de corriente alterna por Nikola Tesla.[3] El éxito predicitivo de la teoría de Maxwell y la búsqueda de una interpretación coherente de sus implicaciones, fue lo que llevó a Albert Einstein a formular su teoría de la relatividad que se apoyaba en algunos resultados previos de Hendrik Antoon Lorentz y Henri Poincaré.

James Clerk Maxwell.

En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el electromagnetismo tenía que mejorar su formulación con el objetivo de que fuera coherente con la nueva teoría. Esto se logró en la década de 1940 cuando se completó una teoría cuántica electromagnética o mejor conocida como electrodinámica cuántica.

Electrostática
Cuando hablamos de electrostática nos referimos a los fenómenos que ocurren debido a una propiedad intrínseca y discreta de la materia, la carga, cuando es estacionaria o no depende del tiempo. La unidad de carga elemental, es decir, la más pequeña observable, es la carga que tiene el electrón.[4] Se dice que un cuerpo está cargado eléctricamente cuando tiene exceso o falta de electrones en los átomos que lo componen. Por definición el defecto de electrones se la denomina carga positiva y al exceso carga negativa.[5] La relación entre los dos tipos de carga es de atracción cuando son diferentes y de repulsión cuando son iguales. La carga elemental es una unidad muy pequeña para cálculos prácticos, es por eso que en el sistema internacional a la unidad de carga eléctrica, el culombio, se le define como la cantidad de carga de 6,25 x 1018 electrones.[4] El movimiento de electrones por un conductor se Un electroscopio usado para medir la carga denomina corriente eléctrica y la cantidad de carga eléctrica que pasa eléctrica de un objeto. por unidad de tiempo se la define como intensidad de corriente. Se pueden introducir más conceptos como el de diferencia de potencial o el de resistencia, que nos conduciría ineludiblemente al área de circuitos eléctricos, y todo eso se puede ver con más detalle en el artículo principal. El nombre de la unidad de carga se debe a Coulomb quien en 1785 llegó a una relación matemática de la fuerza eléctrica entre cargas puntuales, que ahora se la conoce como ley de Coulomb:

Entre dos cargas puntuales de la distancia

y

existe una fuerza de atracción o repulsión ;y

que varía de acuerdo al cuadrado

entre ellas y de dirección radial

es una constante conocida como permitividad eléctrica.

Las cargas elementales al no encontrarse solas se las debe tratar como una distribución de ellas. Es por eso que debe implementarse el concepto de campo, definido como una región del espacio donde existe una magnitud escalar o vectorial dependiente o independiente del tiempo. Así el campo eléctrico está definido como la región del

Electromagnetismo espacio donde actúan las fuerzas eléctricas. Su intensidad se define como el límite al que tiende la fuerza de una distribución de carga sobre una carga positiva que tiende a cero, así:

30

Y así finalmente llegamos a la expresión matemática que define el campo eléctrico:

Es importante conocer el alcance de este concepto de campo eléctrico, éste nos brinda la oportunidad de conocer cuál es su intensidad y qué ocurre con una carga en cualquier parte de dicho campo sin importar el desconocimiento de qué lo provoca.[6]

Campo eléctrico de cargas puntuales.

Una forma de obtener qué cantidad de fuerza eléctrica pasa por cierto punto o superficie del campo eléctrico es que se ideó el concepto de flujo eléctrico. Este flujo eléctrico se define como la suma de la cantidad de campo que atraviesa un área determinada, así:

El matemático y físico, Carl Friedrich Gauss, demostró que la cantidad de flujo eléctrico en un campo es igual al cociente de la carga encerrada por la superficie en la que se calcula el flujo, , y la permitividad eléctrica, . Esta relación se conoce como ley de Gauss: (1)
Véanse también: Carga eléctrica, Ley de Coulomb, Campo eléctrico, Potencial eléctrico y Ley de Gauss

Magnetostática
No fue sino hasta el año de 1820, cuando Hans Christian Ørsted descubrió que el fenómeno magnético estaba ligado al eléctrico, que se obtuvo una teoría científica para el magnetismo.[7] La presencia de una corriente eléctrica, o sea, de un flujo de carga debido a una diferencia de potencial, genera una fuerza magnética que no varía en el tiempo. Si tenemos una carga a una velocidad , ésta generará un campo magnético fuerza que es perpendicular a la inducida por el
Líneas de fuerza de una barra magnética.

magnética

movimiento en esta corriente, así:

Para determinar el valor de ese campo magnético, Jean Baptiste Biot en 1820,[8] dedujo una relación para corrientes estacionarias, ahora conocida como ley de Biot-Savart:

Electromagnetismo

31

Donde estricta,

es un coeficiente de proporcionalidad conocido como permeabilidad magnética, es el diferencial de longitud de la corriente y

es la intensidad de

corriente, el

es la dirección de la corriente. De manera más

es la inducción magnética, dicho en otras palabras, es el flujo magnético por unidad de área.

Experimentalmente se llegó a la conclusión que las líneas de fuerza de campos magnéticos eran cerradas, eliminando la posibilidad de un monopolo magnético. La relación matemática se la conoce como ley de Gauss para el campo magnético: (2)

Además en la magnetostática existe una ley comparable a la de Gauss en la electrostática, la ley de Ampère. Ésta ley nos dice que la circulación en un campo magnético es igual a la densidad de corriente que exista en una superficie cerrada:

Cabe indicar que esta ley de Gauss es una generalización de la ley de Biot-Savart. Además que las fórmulas expresadas aquí son para cargas en el vacío, para más información consúltese los artículos principales.
Véanse también: Ley de Ampère, Corriente eléctrica, Campo magnético, Ley de Biot-Savart y Momento magnético

dipolar

Electrodinámica clásica
Hasta el momento se han estudiado los campos eléctricos y magnéticos que no varían con el tiempo. Pero los físicos a finales del siglo XIX descubrieron que ambos campos estaban ligados y así un campo eléctrico en movimiento, una corriente eléctrica que varíe, genera un campo magnético y un campo magnético de por si implica la presencia de un campo eléctrico. Entonces, lo primero que debemos definir es la fuerza que tendría una partícula cargada que se mueva en un campo magnético y así llegamos a la unión de las dos fuerzas anteriores, lo que hoy conocemos como la fuerza de Lorentz: (3) Entre 1890 y 1900 Liénard y Wiechert calcularon el campo electromagnético asociado a cargas en movimiento arbitrario, resultado que se conoce hoy como potenciales de Liénard-Wiechert. Por otro lado, para generar una corriente eléctrica en un circuito cerrado debe existir una diferencia de potencial entre dos puntos del circuito, a ésta diferencia de potencial se la conoce como fuerza electromotriz o fem. Ésta fuerza electromotriz es proporcional a la rapidez con que el flujo magnético varía en el tiempo, esta ley fue encontrada por Michael Faraday y es la interpretación de la inducción electromagnética, así un campo magnético que varía en el tiempo induce a un campo eléctrico, a una fuerza electromotriz. Matemáticamente se representada como: (4)

En un trabajo del físico James Clerk Maxwell de 1861 reunió las tres ecuaciones anteriormente citadas (1), (2) y (4) e introdujo el concepto de una corriente de desplazamiento como una densidad de corriente efectiva y llegó a la última de las ecuaciones, la ley de Ampère generalizada (5), ahora conocidas como ecuaciones de Maxwell: (5)

Electromagnetismo Las cuatro ecuaciones, tanto en su forma diferencial como en la integral aquí descritas, fueron las revisiones hechas por Oliver Heaviside. Pero el verdadero poder de éstas ecuaciones, más la fuerza de Lorentz (3), se centra en que juntas son capaces de describir cualquier fenómeno electromagnético, además de las consecuencias físicas que posteriormente se describirán.[9] La genialidad del trabajo de Maxwell es que sus ecuaciones describen un campo eléctrico que va ligado inequívocamente a un campo magnético perpendicular a éste y a la dirección de su propagación, éste campo es ahora llamado campo electromagnético.[10] Además la Esquema de una onda electromagnética. solución de éstas ecuaciones permitía la existencia de una onda que se propagaba a la velocidad de la luz, con lo que además de unificar los fenómenos eléctricos y magnéticos la teoría formulada por Maxwell predecía con absoluta certeza los fenómenos ópticos. Así la teoría predecía a una onda que, contraria a las ideas de la época, no necesitaba un medio de propagación; la onda electromagnética se podía propagar en el vacío debido a la generación mutua de los campos magnéticos y eléctricos. Esta onda a pesar de tener una velocidad constante, la velocidad de la luz c, puede tener diferente longitud de onda y consecuentemente dicha onda transporta energía. La radiación electromagnética recibe diferentes nombres al variar su longitud de onda, como rayos gamma, rayos X, espectro visible, etc.; pero en su conjunto recibe el nombre de espectro electromagnético.

32

Espectro electromagnético.

Véanse también: Fuerza de Lorentz, Fuerza electromotriz, Ley de Ampère, Ecuaciones de Maxwell, Campo

electromagnético, Radiación electromagnética y Espectro electromagnético

Formulación covariante
Clásicamente, al fijar un sistema de referencia, se puede descomponer los campos eléctricos y magnéticos del campo electromagnético. Pero al tener a un observador con movimiento relativo respecto al sistema de referencia, éste medirá efectos eléctricos y magnéticos diferentes de un mismo fenómeno electromagnético. El campo eléctrico y la inducción magnética a pesar de ser elementos vectoriales no se comportan como magnitudes físicas vectoriales, por el contrario la unión de ambos constituye otro ente físico llamado tensor y en este caso el tensor de campo electromagnético.[11] Así, la expresión para el campo electromagnético es:

Y las expresiones covariantes para las ecuaciones de Maxwell (7) y la fuerza de Lorentz (6) se reducen a: (6) (7)

Electromagnetismo

33

Electrodinámica cuántica
Posteriormente a la revolución cuántica de inicios del siglo XX, los físicos se vieron forzados a buscar una teoría cuántica de la interacción electromagnética. El trabajo de Einstein con el efecto fotoeléctrico y la posterior formulación de la mecánica cuántica sugerían que la interacción electromagnética se producía mediante el intercambio de partículas elementales llamadas fotones. La nueva formulación cuántica lograda en la década de los años 40 del siglo XX describía la interacción de este fotón portador de fuerza y las otras partículas portadoras de materia.[12]

Diagrama de Feynman mostrando la fuerza electromagnética entre dos electrones por medio del intercambio de un fotón virtual.

La electrodinámica cuántica es principalmente una teoría cuántica de campos renormalizada. Su desarrollo fue obra de Sinitiro Tomonaga, Julian Schwinger, Richard Feynman y Freeman Dyson alrededor de los años 1947 a 1949.[13] En la electrodinámica cuántica, la interacción entre partículas viene descrita por un lagrangiano que posee simetría local, concretamente simetría de gauge. Para la electrodinámica cuántica, el campo de gauge donde las partículas interactúan es el campo electromagnético y esas partículas son los fotones.[13] Matemáticamente, el lagrangiano para la interacción entre fermiones mediante intercambio de fotones viene dado por:

Donde el significado de los términos son: son las matrices de Dirac. y son los campos o espinores de Dirac que representan las partículas cargadas eléctricamente. es la derivada covariante asociada a la simetría gauge. el operador asociado al potencial vector covariante del campo electromagnético y el operador de campo asociado tensor de campo electromagnético.
Véanse también: Teoría cuántica de campos, Ecuación de Dirac y Modelo estándar

Referencias
[1] Rafael López Valverde. « Historia del Electromagnetismo (http:/ / www. juntadeandalucia. es/ averroes/ ~29009272/ 1999/ articulos/ articulo1. PDF)». Consultado el 13/02/2008. [2] Clerk Maxwell, James (1873). « A Treatise on Electricity and Magnetism (http:/ / en. wikisource. org/ wiki/ A_Treatise_on_Electricity_and_Magnetism)» (en inglés). Consultado el 20 de noviembre de 2007. [3] Tesla, Nikola (1856–1943). « Obras de Nikola Tesla en Wikisource en inglés (http:/ / en. wikisource. org/ wiki/ Author:Nikola_Tesla)» (en inglés). Consultado el 20 de noviembre de 2007. [4] J Villaruso Gato. « Cuestiones:La carga elemental (http:/ / newton. cnice. mecd. es/ 3eso/ electricidad3E/ cuestiones3. htm)». Consultado el 13/02/2008. [5] Ministerio de Educación y Ciencia de España. « Introducción a la Electricidad (http:/ / w3. cnice. mec. es/ recursos/ fp/ electricidad/ ud1/ inicio_elect_1. html)». Consultado el 13/02/2008. [6] Agustín Borrego Colomer. « Campo eléctrico (http:/ / usuarios. iponet. es/ agusbo/ uned/ propios/ apuntes/ electrico. PDF)». Consultado el 14/02/2008.

Electromagnetismo
[7] « Introducción al electromagnetismo (http:/ / www. sociedadelainformacion. com/ departfqtobarra/ magnetismo/ introduccion/ introduccion. htm)». Consultado el 15/02/2008. [8] « Ley de Biot-Savart (http:/ / www. sociedadelainformacion. com/ departfqtobarra/ magnetismo/ biot/ biot. htm)». Consultado el 15/02/2008. [9] David Stern (2004). « Ondas electromagnéticas (http:/ / www-istp. gsfc. nasa. gov/ Education/ Memwaves. html)». Consultado el 17/02/2008. [10] Carlos Fenandez. « La naturaleza de la luz (http:/ / www. monografias. com/ trabajos5/ natlu/ natlu. shtml)». Consultado el 17/02/2008. [11] Landau & Lifshitz. Teoría clásica de los campos. Ed. Reverté. ISBN 84-291-4082-4. [12] Enciclopedia Encarta (2007). « Electrodinámica cuántica (http:/ / es. encarta. msn. com/ encnet/ refpages/ RefArticle. aspx?refid=761563893)». Consultado el 19/02/2008. [13] José Antonio Montiel Tosso (Universidad de Córdoba). « Introducción a la Física cuántica. Electrodinámica cuántica (http:/ / www. fq. profes. net/ apieaula2. asp?id_contenido=48464)». Consultado el 19/02/2008.

34

Bibliografía
• Marcelo Alonso, Edward J. Finn (1976). Física. Fondo Educativo Interamericano. ISBN 84-03-20234-2. • Richard Feynman (1974) (en inglés). Feynman lectures on Physics Volume 2. Addison Wesley Longman. ISBN 0-201-02115-3.

Enlaces externos
• • • Wikimedia Commons alberga contenido multimedia sobre Electromagnetismo. Commons Wikilibros alberga un libro o manual sobre Electromagnetismo. Wikiversidad alberga proyectos de aprendizaje sobre Electromagnetismo.Wikiversidad Wikilibros

Electricidad
La electricidad (del griego ήλεκτρον elektron, cuyo significado es ámbar) es un fenómeno físico cuyo origen son las cargas eléctricas y cuya energía se manifiesta en fenómenos mecánicos, térmicos, luminosos y químicos, entre otros.[1][2][3][4] Se puede observar de forma natural en fenómenos atmosféricos, por ejemplo los rayos, que son descargas eléctricas producidas por la transferencia de energía entre la ionosfera y la superficie terrestre (proceso complejo del que los rayos solo forman una parte). Otros mecanismos eléctricos naturales los podemos encontrar en procesos biológicos, como el funcionamiento del sistema nervioso. Es la base del funcionamiento de muchas máquinas, desde pequeños electrodomésticos hasta sistemas de gran potencia como los trenes de alta velocidad, y de todos los dispositivos electrónicos.[5] Además es esencial para la producción de sustancias químicas como el aluminio y el cloro. También se denomina electricidad a la rama de la física que estudia las leyes que rigen el fenómeno y a la rama de la tecnología que la usa en aplicaciones prácticas. Desde que, en 1831, Faraday descubriera la forma de producir corrientes eléctricas por inducción —fenómeno que permite transformar energía mecánica en energía eléctrica— se ha convertido en una de las formas de energía más importantes para el desarrollo tecnológico debido a su facilidad de generación y distribución y a su gran número de aplicaciones.

Electricidad

35 La electricidad es originada por las cargas eléctricas, en reposo o en movimiento, y las interacciones entre ellas. Cuando varias cargas eléctricas están en reposo relativo se ejercen entre ellas fuerzas electrostáticas. Cuando las cargas eléctricas están en movimiento relativo se ejercen también fuerzas magnéticas. Se conocen dos tipos de cargas eléctricas: positivas y negativas. Los átomos que conforman la materia contienen partículas subatómicas positivas (protones), negativas (electrones) y neutras (neutrones). También hay partículas elementales cargadas que en condiciones normales no son estables, por lo que se manifiestan sólo en determinados procesos como los rayos cósmicos y las desintegraciones radiactivas.[6]

La electricidad en una de sus manifestaciones naturales: el relámpago.

La electricidad y el magnetismo son dos aspectos diferentes de un mismo fenómeno físico, denominado electromagnetismo, descrito matemáticamente por las ecuaciones de Maxwell. El movimiento de una carga eléctrica produce un campo magnético, la variación de un campo magnético produce un campo eléctrico y el movimiento acelerado de cargas eléctricas genera ondas electromagnéticas (como en las descargas de rayos que pueden escucharse en los receptores de radio AM).[7] Debido a las crecientes aplicaciones de la electricidad como vector energético, como base de las telecomunicaciones y para el procesamiento de información, uno de los principales desafíos contemporáneos es generarla de modo más eficiente y con el mínimo impacto ambiental.

Historia de la electricidad
La historia de la electricidad como rama de la física comenzó con observaciones aisladas y simples especulaciones o intuiciones médicas, como el uso de peces eléctricos en enfermedades como la gota y el dolor de cabeza, u objetos arqueológicos de interpretación discutible (la batería de Bagdad).[8] Tales de Mileto fue el primero en observar los fenómenos eléctricos cuando, al frotar una barra de ámbar con un paño, notó que la barra podía atraer objetos livianos.[2][4] Mientras la electricidad era todavía considerada poco más que un espectáculo de salón, las primeras aproximaciones científicas al fenómeno fueron hechas en los siglos XVII y XVIII por investigadores sistemáticos como Gilbert, von Guericke, Henry Cavendish, Du Fay, van Musschenbroek y Watson. Estas observaciones empiezan a dar sus frutos con Galvani, Volta, Coulomb y Franklin, y, ya a comienzos del siglo XIX, con Ampère, Faraday y Ohm. No obstante, el desarrollo de una teoría que unificara la electricidad con el magnetismo como dos manifestaciones de un mismo fenómeno no se alcanzó hasta la formulación de las ecuaciones de Maxwell (1861-1865).

Los desarrollos tecnológicos que produjeron la primera revolución industrial no hicieron uso de la electricidad. Su primera aplicación práctica generalizada fue el telégrafo eléctrico de Samuel Morse (1833), que revolucionó las telecomunicaciones. La generación masiva de electricidad comenzó cuando, a fines del siglo XIX, se extendió la

Michael Faraday relacionó el magnetismo con la electricidad.

Electricidad

36 iluminación eléctrica de las calles y las casas. La creciente sucesión de aplicaciones que esta disponibilidad produjo hizo de la electricidad una de las principales fuerzas motrices de la segunda revolución industrial. Más que de grandes teóricos, como Lord Kelvin, fue éste el momento de grandes inventores como Gramme, Westinghouse, von Siemens y Alexander Graham Bell. Entre ellos destacaron Nikola Tesla y Thomas Alva Edison, cuya revolucionaria manera de entender la relación entre investigación y mercado capitalista convirtió la innovación tecnológica en una actividad industrial. Tesla, un inventor serbio-americano, descubrió el principio del campo magnético rotatorio en 1882, que es la base de la maquinaria de corriente alterna. También inventó el sistema de motores y generadores de corriente alterna polifásica que da energía a la sociedad moderna.

El alumbrado artificial modificó la duración y distribución horaria de las actividades individuales y sociales, de los procesos industriales, del transporte y de las telecomunicaciones. Lenin definió el socialismo como la suma de la electrificación y el poder de los soviets.[9] La sociedad de consumo que se creó en los países capitalistas dependió (y depende) en gran medida del uso doméstico de la electricidad. El desarrollo de la mecánica cuántica durante la primera mitad del siglo XX sentó las bases para la comprensión del comportamiento de los electrones en los diferentes materiales. Estos saberes, combinados con las tecnologías desarrolladas para las transmisiones de radio, permitieron el desarrollo de la electrónica, que alcanzaría su auge con la invención del transistor. El perfeccionamiento, la miniaturización, el aumento de velocidad y la disminución de costo de las computadoras durante la segunda mitad del siglo XX fue posible gracias al buen conocimiento de las propiedades eléctricas de los materiales semiconductores. Esto fue esencial para la conformación de la sociedad de la información de la tercera revolución industrial, comparable en importancia con la generalización del uso de los automóviles. Los problemas de almacenamiento de electricidad, su transporte a largas distancias y la autonomía de los aparatos móviles alimentados por electricidad todavía no han sido resueltos de forma eficiente. Asimismo, la multiplicación de todo tipo de aplicaciones prácticas de la electricidad ha sido —junto con la proliferación de los motores alimentados con destilados del petróleo— uno de los factores de la crisis energética de comienzos del siglo XXI. Esto ha planteado la necesidad de nuevas fuentes de energía, especialmente las renovables.

Configuración electrónica del átomo de cobre. Sus propiedades conductoras se deben a la facilidad de circulación que tiene su electrón más exterior (4s).

Electrostática y electrodinámica
La electrostática es la rama de la física que estudia los fenómenos resultantes de la distribución de cargas eléctricas en reposo, esto es, del campo electrostático.[1] Los fenómenos electrostáticos son conocidos desde la antigüedad. Los griegos del siglo V a. C. ya sabían que al frotar ciertos objetos estos adquirían la propiedad de atraer cuerpos livianos. En 1785 el físico francés Charles Coulomb publicó un tratado donde cuantificaba las fuerzas de atracción y repulsión de cargas eléctricas estáticas y describía, por primera vez, cómo medirlas usando una balanza de torsión. Esta ley se conoce en su honor con el nombre de ley de Coulomb. Durante el siglo XIX se generalizaron las ideas de Coulomb, se introdujo el concepto de campo eléctrico y potencial eléctrico, y se formuló la ecuación de Laplace, que determina el potencial eléctrico en el caso electrostático. Se produjeron también avances significativos en la electrodinámica, que estudia los fenómenos eléctricos producidos por cargas en movimiento. En estos fenómenos aparecen asimismo campos magnéticos, que pueden ser ignorados en el caso de circuitos con corriente eléctrica estacionaria, pero deben ser tomados en cuenta en el caso de circuitos de corriente alterna.

Electricidad Finalmente, en 1864 el físico escocés James Clerk Maxwell unificó las leyes de la electricidad y del magnetismo en un sistema de cuatro ecuaciones en derivadas parciales conocidas como ecuaciones de Maxwell. Con ellas se desarrolló el estudio de los fenómenos eléctricos y magnéticos, mostrando que ambos tipos son manifestaciones del único fenómeno del electromagnetismo, que incluía también a las ondas electromagnéticas.[10]

37

Carga eléctrica
La carga eléctrica es una propiedad que poseen algunas partículas subatómicas y que se manifiesta mediante las fuerzas observadas entre ellas. La materia cargada eléctricamente es influida por los campos electromagnéticos siendo, a su vez, generadora de ellos. La interacción entre carga y campo eléctrico es la fuente de una de las cuatro interacciones fundamentales, la interacción electromagnética. La partícula que transporta la información de estas interacciones es el fotón. Estas fuerzas son de alcance infinito y no se manifiestan de
Interacciones entre cargas de igual y distinta naturaleza.

forma inmediata, sino que tardan un tiempo

, donde

es la

velocidad de la luz en el medio en el que se transmite y entre las cargas.

la distancia

Las dos partículas elementales cargadas que existen en la materia y que se encuentran de forma natural en la Tierra son el electrón y el protón, aunque pueden encontrarse otras partículas cargadas procedentes del exterior (como los muones o los piones). Todos los hadrones (como el protón y el neutrón) además, están constituidos por partículas cargadas más pequeñas llamadas quarks, sin embargo estas no pueden encontrarse libres en la naturaleza. Cuando un átomo gana o pierde un electrón, queda cargado eléctricamente. A estos átomos cargados se les denomina iones. Los trabajos de investigación realizados en la segunda mitad del siglo XIX por el premio Nobel de Física Joseph John Thomson, que le llevaron en 1897 a descubrir el electrón, y de Robert Millikan a medir su carga, determinaron la naturaleza discreta de la carga eléctrica.[11] En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio (símbolo C) y se define como la cantidad de carga que pasa por una sección en 1 segundo cuando la corriente eléctrica es de 1 amperio. Se corresponde con la carga de 6,24 × 1018 electrones aproximadamente. La carga más pequeña que se encuentra en la naturaleza es la carga del electrón (que es igual en magnitud a la del protón y, de signo opuesto): e = 1,602 × 10-19 C (1 eV en unidades naturales).
Véanse también: Átomo, Polarización electroquímica, Experimento de Millikan y Electroscopio

Fuerza entre cargas
Coulomb fue el primero en determinar, en 1785, el valor de las fuerzas ejercidas entre cargas eléctricas.[12] Usando una balanza de torsión determinó que la magnitud de la fuerza con que se atraen o repelen dos cargas eléctricas puntuales en reposo es directamente proporcional al producto de las magnitudes de cada carga e inversamente proporcional al cuadrado de la distancia que las separa.[13]

donde

y

son las cargas,

es la distancia que las separa y la constante de proporcionalidad k depende del

sistema de unidades. Una propiedad fundamental de estas fuerzas es el principio de superposición que establece que, cuando hay varias cargas , la fuerza resultante sobre una cualquiera de ellas es la suma vectorial de las fuerzas ejercidas por todas

Electricidad

38 ejercida sobre la carga puntual en reposo está dada en el SI por:

las demás. La fuerza

donde

denota el vector que une la carga

con la carga

.

Cuando las cargas están en movimiento aparecen también fuerzas magnéticas. La forma más sencilla de describir el fenómeno es con el uso de campos eléctrico ( ) y magnético ( ), de los que a su vez se pueden derivar las fuerzas a partir de la fórmula de Lorentz:

En el caso general de cargas distribuidas de manera arbitraria, no es posible escribir expresiones explícitas de las fuerzas. Hay que resolver las ecuaciones de Maxwell, calcular los campos y derivar las fuerzas a partir de las expresiones de la energía electromagnética.[14]
Véanse también: Fuerza de Lorentz y polarización eléctrica

Campos eléctrico y magnético
Los campos eléctrico y magnético , son campos vectoriales

caracterizables en cada punto del espacio y cada instante del tiempo por un módulo, una dirección y un sentido. Una propiedad fundamental de estos campos es el principio de superposición, según el cual el campo resultante puede ser calculado como la suma vectorial de los campos creados por cada una de las cargas eléctricas. Se obtiene una descripción sencilla de estos campos dando las líneas de fuerza o de campo, que son curvas tangentes a la dirección de los vectores de campo. En el caso del campo eléctrico, esta línea corresponde a la trayectoria que seguiría una carga sin masa que se encuentre libre en el seno del campo y que se deja mover muy lentamente.

Líneas de campo de dos cargas eléctricas de igual valor absoluto y signos opuestos.

Normalmente la materia es neutra, es decir, su carga eléctrica neta es nula. Sin embargo, en su interior tiene cargas positivas y negativas y se localizan corrientes eléctricas en los átomos y moléculas, lo cual da lugar a campos eléctricos y magnéticos. En el caso de dos cargas opuestas se generan campos dipolares, como el representado en la figura de la derecha, donde las cargas de igual magnitud y signos opuestos están muy cercanas entre sí. Estos campos dipolares son la base para describir casos tan fundamentales como los enlaces iónicos en las moléculas, las características como disolvente del agua, o el funcionamiento de las antenas entre otros. Los campos eléctricos y magnéticos se calculan resolviendo las ecuaciones de Maxwell, siendo magnitudes inseparables en general.

Electricidad

39

Electromagnetismo
Se denomina electromagnetismo a la teoría física que unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos son obra de Faraday, pero fueron formulados por primera vez de modo completo por Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales, conocidas como ecuaciones de Maxwell, que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales: densidad de carga eléctrica, corriente eléctrica, desplazamiento eléctrico y corriente de desplazamiento.

Fluido ferroso que se agrupa cerca de los polos de un imán o magneto.

A principios del siglo XIX Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. A partir de esa base Maxwell unificó en 1861 los trabajos de físicos como Ampère, Sturgeon, Henry, Ohm y Faraday, en un conjunto de ecuaciones que describían ambos fenómenos como uno solo, el fenómeno electromagnético.[11] Se trata de una teoría de campos; las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales y son dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los que intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre la materia. Para la descripción de fenómenos a nivel molecular, atómico o corpuscular, es necesario emplear las expresiones clásicas de la energía electromagnética conjuntamente con las de la mecánica cuántica.

Ecuaciones de Maxwell, en su forma diferencial
Nombre de la ley Ley de Gauss Ley de Gauss para el magnetismo o inexistencia del monopolo magnético Ecuación de Maxwell-Faraday (ley de Faraday) Ley de Ampère-Maxwell Forma diferencial

Las ecuaciones de Maxwell describen los campos eléctricos y magnéticos como manifestaciones de un solo campo electromagnético. Además, explican la naturaleza ondulatoria de la luz como parte de una onda electromagnética.[15] Al contar con una teoría unificada consistente que describiera estos dos fenómenos antes separados, se pudieron realizar varios experimentos novedosos e inventos muy útiles, como el generador de corriente alterna inventado por Tesla.[16] El éxito predictivo de la teoría de Maxwell y la búsqueda de una interpretación coherente con el experimento de Michelson y Morley llevó a Einstein a formular la teoría de la relatividad, que se apoyaba en algunos resultados previos de Lorentz y Poincaré. Esta unificación es fundamental para describir las relaciones que existen entre los campos eléctricos variables que se utilizan en la vida diaria —como la corriente alterna utilizada en las redes eléctricas domésticas— y los campos magnéticos que inducen. Entre otras aplicaciones técnicas, se utiliza para el cálculo de antenas de telecomunicaciones y de circuitos eléctricos o electrónicos en los que hay campos eléctricos y magnéticos variables que se generan mutuamente.
Véanse también: Inducción magnética, Ley de Faraday, Onda electromagnética y Fotón

Electricidad

40

Potencial y tensión eléctrica
Se denomina tensión eléctrica o voltaje a la energía potencial por unidad de carga que está asociada a un campo electrostático. Su unidad de medida en el SI son los voltios.[17] A la diferencia de energía potencial entre dos puntos se le denomina voltaje. Esta tensión puede ser vista como si fuera una "presión eléctrica" debido a que cuando la presión es uniforme no existe circulación de cargas y cuando dicha "presión" varía se crea un campo eléctrico que a su vez genera fuerzas en las cargas eléctricas. Matemáticamente, la diferencia de potencial eléctrico entre dos puntos A y B es la integral de línea del campo eléctrico:

Representación esquemática de una resistencia R por la que circula una intensidad de corriente I debido a la diferencia de potencial entre los puntos A y B.

Generalmente se definen los potenciales referidos a un punto inicial dado. A veces se escoge uno situado infinitamente lejos de cualquier carga eléctrica. Cuando no hay campos magnéticos variables, el valor del potencial no depende de la trayectoria usada para calcularlo, sino únicamente de sus puntos inicial y final. Se dice entonces que el campo eléctrico es conservativo. En tal caso, si la carga eléctrica q tan pequeña que no modifica significativamente , la diferencia de potencial eléctrico entre dos puntos A y B será el trabajo W por unidad de carga, que debe ejercerse en contra del campo eléctrico para llevar q desde B hasta A. Es decir:

Otra de las formas de expresar la tensión entre dos puntos es en función de la intensidad de corriente y la resistencia existentes entre ellos. Así se obtiene uno de los enunciados de la ley de Ohm:

En el caso de campos no estacionarios el campo eléctrico no es conservativo y la integral de línea del campo eléctrico contiene efectos provenientes de los campos magnéticos variables inducidos o aplicados, que corresponden a una fuerza electromotriz inducida (f.e.m.), que también se mide en voltios. La fuerza electromotriz, cuyo origen es la inyección de energía externa al circuito, permite mantener una diferencia de potencial entre dos puntos de un circuito abierto o de producir una corriente eléctrica en un circuito cerrado. Esta energía puede representarse por un campo de origen externo cuya circulación (integral de línea sobre una trayectoria cerrada C) define la fuerza electromotriz del generador. Esta expresión corresponde el trabajo que el

generador realiza para forzar el paso por su interior de una carga, del polo negativo al positivo (es decir, en contra de las fuerzas eléctricas), dividido por el valor de dicha carga. El trabajo así realizado puede tener origen mecánico (dínamo), químico (batería), térmico (efecto termoeléctrico) o de otro tipo.

Propiedades eléctricas de los materiales
Origen microscópico
La posibilidad de generar corrientes eléctricas en los materiales depende de la estructura e interacción de los átomos que los componen. Los átomos están constituidos por partículas cargadas positivamente (los protones), negativamente (los electrones) y neutras (los neutrones). La conducción eléctrica de los materiales sólidos, cuando existe, se debe a los electrones más exteriores, ya que tanto los electrones interiores como los protones de los núcleos atómicos no pueden desplazarse con facilidad. Los materiales conductores por excelencia son metales, como el cobre, que usualmente tienen un único electrón en la última capa electrónica. Estos electrones pueden pasar con

Electricidad facilidad a átomos contiguos, constituyendo los electrones libres responsables del flujo de corriente eléctrica. En otros materiales sólidos los electrones se liberan con dificultad constituyendo semiconductores, cuando la liberación puede ser producida por excitación térmica, o aisladores, cuando no se logra esta liberación. Los mecanismos microscópicos de conducción eléctrica son diferentes en los materiales superconductores y en los líquidos. En los primeros, a muy bajas temperaturas y como consecuencia de fenómenos cuánticos, los electrones no interactúan con los átomos desplazándose con total libertad (resistividad nula). En los segundos, como en los electrólitos de las baterías eléctricas, la conducción de corriente es producida por el desplazamiento de átomos o moléculas completas ionizadas de modo positivo o negativo. Los materiales superconductores se usan en imanes superconductores para la generación de elevadísimos campos magnéticos. En todos los materiales sometidos a campos eléctricos se modifican, en mayor o menor grado, las distribuciones espaciales relativas de las cargas negativas (electrones) y positivas (núcleos atómicos). Este fenómeno se denomina polarización eléctrica y es más notorio en los aisladores eléctricos debido a la ausencia de apantallamiento del campo eléctrico aplicado por los electrones libres. Los materiales con alta capacidad de polarización se usan en la construcción de condensadores eléctricos y se denominan dieléctricos. Aquellos cuya polarización es permanente (electretos y materiales ferroeléctricos) se usan para fabricar dispositivos como micrófonos y altavoces, entre otros.

41

Conductividad y resistividad
La conductividad eléctrica es la propiedad de los materiales que cuantifica la facilidad con que las cargas pueden moverse cuando un material es sometido a un campo eléctrico. La resistividad es una magnitud inversa a la conductividad, aludiendo al grado de dificultad que encuentran los electrones en sus desplazamientos, dando una idea de lo buen o mal conductor que es. Un valor alto de resistividad indica que el material es mal conductor mientras que uno bajo indicará que es un buen conductor. Generalmente la resistividad de los metales aumenta con la temperatura, mientras que la de los semiconductores disminuye ante el aumento de la temperatura. Los materiales se clasifican según su conductividad eléctrica o resistividad en conductores, dieléctricos, semiconductores y superconductores.

Conductor eléctrico de cobre.

• Conductores eléctricos. Son los materiales que, puestos en contacto con un cuerpo cargado de electricidad, transmiten ésta a todos los puntos de su superficie. Los mejores conductores eléctricos son los metales y sus aleaciones. Existen otros materiales, no metálicos, que también poseen la propiedad de conducir la electricidad, como son el grafito, las soluciones salinas (por ejemplo, el agua de mar) y cualquier material en estado de plasma. Para el transporte de la energía eléctrica, así como para cualquier instalación de uso doméstico o industrial, el metal más empleado es el cobre en forma de cables de uno o varios hilos. Alternativamente se emplea el aluminio, metal que si bien tiene una conductividad eléctrica del orden del 60% de la del cobre es, sin embargo, un material mucho más ligero, lo que favorece su empleo en líneas de transmisión de energía eléctrica en las redes de alta tensión. Para aplicaciones especiales se utiliza como conductor el oro.[18] La conductividad eléctrica del cobre puro fue adoptada por la Comisión Electrotécnica Internacional en 1913 como la referencia estándar para esta magnitud, estableciendo el International Annealed Copper Standard (Estándar Internacional del Cobre Recocido) o IACS. Según esta definición, la conductividad del cobre recocido medida a 20 °C es igual a 0,58108 S/m.[19] A este valor se lo denomina 100% IACS, y la conductividad del resto de los materiales se expresa como un cierto porcentaje de IACS. La mayoría de los metales tienen valores de conductividad inferiores a 100% IACS, pero existen excepciones como la plata o los cobres especiales de muy alta conductividad, designados C-103 y C-110.[20]

Electricidad • Dieléctricos. Son los materiales que no conducen la electricidad, por lo que pueden ser utilizados como aislantes. Algunos ejemplos de este tipo de materiales son vidrio, cerámica, plásticos, goma, mica, cera, papel, madera seca, porcelana, algunas grasas para uso industrial y electrónico y la baquelita. Aunque no existen materiales absolutamente aislantes o conductores, sino mejores o peores conductores, son materiales muy utilizados para evitar cortocircuitos (forrando con ellos los conductores eléctricos, para mantener alejadas del usuario determinadas partes de los sistemas eléctricos que, de tocarse accidentalmente cuando se encuentran en tensión, pueden producir una descarga) y para confeccionar aisladores (elementos utilizados en las redes de distribución eléctrica para fijar los conductores a sus soportes sin que haya contacto eléctrico). Algunos materiales, como el aire o el agua, son aislantes bajo ciertas condiciones pero no para otras. El aire, por ejemplo, es aislante a temperatura ambiente pero, bajo condiciones de frecuencia de la señal y potencia relativamente bajas, puede convertirse en conductor. La conductividad se designa por la letra griega sigma minúscula ( ) y se mide en siemens por metro, mientras que la resistividad se designa por la letra griega rho minúscula (ρ) y se mide en ohms por metro (Ω•m, a veces también en Ω•mm²/m). La ley de Ohm describe la relación existente entre la intensidad de corriente que circula por un circuito, la tensión de esa corriente eléctrica y la resistencia que ofrece el circuito al paso de dicha corriente: la diferencia de potencial (V) es directamente proporcional a la intensidad de corriente (I) y a la resistencia (R). Se describe mediante la fórmula:

42

Esta definición es válida para la corriente continua y para la corriente alterna cuando se trate de elementos resistivos puros, esto es, sin componente inductiva ni capacitiva. De existir estos componentes reactivos, la oposición presentada a la circulación de corriente recibe el nombre de impedancia.
Véanse también: Impedancia y Resistencia eléctrica

Asociaciones mixtas de resistencias: a) serie de paralelos, b) paralelo de series y c) otras posibles conexiones.

Corriente eléctrica
Se denomina corriente eléctrica al flujo de carga eléctrica a través de un material sometido a una diferencia de potencial. Históricamente, se definió como un flujo de cargas positivas y se fijó el sentido convencional de circulación de la corriente como un flujo de cargas desde el polo positivo al negativo. Sin embargo, posteriormente se observó, gracias al efecto Hall, que en los metales los portadores de carga son electrones, con carga negativa, y se desplazan en sentido contrario al convencional.

A partir de la corriente eléctrica se definen dos magnitudes: la intensidad y la densidad de corriente. El valor de la intensidad de corriente que atraviesa un circuito es determinante para calcular la sección de los elementos conductores del mismo. • La intensidad de corriente (I) en una sección dada de un conductor (s) se define como la carga eléctrica (Q) que atraviesa la sección en una unidad de tiempo (t):

Relación existente entre la intensidad y la densidad de corriente.

Electricidad

43

. Si la intensidad de corriente es constante, entonces • La densidad de corriente (j) es la intensidad de corriente que atraviesa una sección por unidad de superficie de la sección (S).

Corriente continua
Se denomina corriente continua (CC en español, en inglés DC, de Direct Current) al flujo de cargas eléctricas que no cambia de sentido con el tiempo. La corriente eléctrica Rectificador de corriente alterna en continua, con puente de Gratz. Se emplea a través de un material se establece entre dos cuando la tensión de salida tiene un valor distinto de la tensión de entrada. puntos de distinto potencial. Cuando hay corriente continua, los terminales de mayor y menor potencial no se intercambian entre sí. Es errónea la identificación de la corriente continua con la corriente constante (ninguna lo es, ni siquiera la suministrada por una batería). Es continua toda corriente cuyo sentido de circulación es siempre el mismo, independientemente de su valor absoluto. Su descubrimiento se remonta a la invención de la primera pila voltaica por parte del conde y científico italiano Alessandro Volta. No fue hasta los trabajos de Edison sobre la generación de electricidad, en las postrimerías del siglo XIX, cuando la corriente continua comenzó a emplearse para la transmisión de la energía eléctrica. Ya en el siglo XX este uso decayó en favor de la corriente alterna, que presenta menores pérdidas en la transmisión a largas distancias, si bien se conserva en la conexión de redes eléctricas de diferentes frecuencias y en la transmisión a través de cables submarinos. Desde 2008 se está extendiendo el uso de generadores de corriente continua a partir de células fotoeléctricas que permiten aprovechar la energía solar. Cuando es necesario disponer de corriente continua para el funcionamiento de aparatos electrónicos, se puede transformar la corriente alterna de la red de suministro eléctrico mediante un proceso, denominado rectificación, que se realiza con unos dispositivos llamados rectificadores, basados en el empleo de diodos semiconductores o tiristores (antiguamente, también de tubos de vacío).[21]

Corriente alterna
Se denomina corriente alterna (simbolizada CA en español y AC en inglés, de Alternating Current) a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más comúnmente utilizada es la de una onda sinoidal.[22] En el uso coloquial, "corriente alterna" se refiere a la forma en la cual la electricidad llega a los hogares y a las empresas. El sistema usado hoy en día fue ideado fundamentalmente por Nikola Tesla, y la distribución de la corriente alterna fue comercializada por George Westinghouse. Otros que contribuyeron al desarrollo y mejora de este sistema fueron Lucien

Onda senoidal.

Electricidad

44

Gaulard, John Gibbs y Oliver Shallenger entre los años 1881 y 1889. La corriente alterna superó las limitaciones que aparecían al emplear la corriente continua (CC), la cual constituye un sistema ineficiente para la distribución de energía a gran escala debido a problemas en la transmisión de potencia. La razón del amplio uso de la corriente alterna, que minimiza los problemas de trasmisión de potencia, viene determinada por su facilidad de transformación, cualidad de la que carece la corriente continua. La energía eléctrica trasmitida viene dada por el producto de la tensión, la intensidad y el tiempo. Dado que la sección de los conductores de las líneas de transporte de energía eléctrica depende de la intensidad, se puede, mediante un transformador, modificar el voltaje hasta altos valores (alta tensión), disminuyendo en igual proporción la intensidad de corriente. Esto permite que los conductores sean de menor sección y, por tanto, de menor costo; además, minimiza las pérdidas por efecto Joule, que dependen del cuadrado de la intensidad. Una vez en el punto de consumo o en sus cercanías, el voltaje puede ser de nuevo reducido para permitir su uso industrial o doméstico de forma cómoda y segura. Las frecuencias empleadas en las redes de distribución son 50 y 60 Hz. El valor depende del país.
Esquema de conexión.

Voltaje de las fases de un sistema trifásico. Entre cada una de las fases hay un desfase de 120º.

Corriente trifásica Se denomina corriente trifásica al conjunto de tres corrientes alternas de igual frecuencia, amplitud y valor eficaz que presentan una diferencia de fase entre ellas de 120°, y están dadas en un orden determinado. Cada una de las corrientes que forman el sistema se designa con el nombre de fase. La generación trifásica de energía eléctrica es más común que la monofásica y proporciona un uso más eficiente de los conductores. La utilización de electricidad en forma trifásica es mayoritaria para Conexión en triángulo y en estrella. transportar y distribuir energía eléctrica y para su utilización industrial, incluyendo el accionamiento de motores. Las corrientes trifásicas se generan mediante alternadores dotados de tres bobinas o grupos de bobinas, arrolladas en un sistema de tres electroimanes equidistantes angularmente entre sí. Los conductores de los tres electroimanes pueden conectarse en estrella o en triángulo. En la disposición en estrella cada bobina se conecta a una fase en un extremo y a un conductor común en el otro, denominado neutro. Si el sistema está equilibrado, la suma de las corrientes de línea es nula, con lo que el transporte puede ser efectuado usando solamente tres cables. En la disposición en triángulo o delta cada bobina se conecta entre dos hilos de fase, de forma que un extremo de cada bobina está conectado con otro extremo de otra bobina. El sistema trifásico presenta una serie de ventajas, tales como la economía de sus líneas de transporte de energía (hilos más finos que en una línea monofásica equivalente) y de los transformadores utilizados, así como su elevado rendimiento de los receptores, especialmente motores, a los que la línea trifásica alimenta con potencia constante y no pulsada, como en el caso de la línea monofásica.

Electricidad Tesla fue el inventor que descubrió el principio del campo magnético rotatorio en 1882, el cual es la base de la maquinaria de corriente alterna. Él inventó el sistema de motores y generadores de corriente alterna polifásica que da energía al planeta.[23]
Véase también: Motor de corriente alterna

45

Corriente monofásica Se denomina corriente monofásica a la que se obtiene de tomar una fase de la corriente trifásica y un cable neutro. En España y demás países que utilizan valores similares para la generación y trasmisión de energía eléctrica, este tipo de corriente facilita una tensión de 230 voltios, lo que la hace apropiada para que puedan funcionar adecuadamente la mayoría de electrodomésticos y luminarias que hay en las viviendas. Desde el centro de transformación más cercano hasta las viviendas se disponen cuatro hilos: un neutro (N) y tres fases (R, S y T). Si la tensión entre dos fases cualesquiera (tensión de línea) es de 400 voltios, entre una fase y el neutro es de 230 voltios. En cada vivienda entra el neutro y una de las fases, conectándose varias viviendas a cada una de las fases y al neutro; esto se llama corriente monofásica. Si en una vivienda hay instalados aparatos de potencia eléctrica alta (aire acondicionado, motores, etc., o si es un taller o una empresa industrial) habitualmente se les suministra directamente corriente trifásica que ofrece una tensión de 400 voltios.

Circuitos
En electricidad y electrónica se denomina circuito a un conjunto de componentes pasivos y activos interconectados entre sí por conductores de baja resistencia. El nombre implica que el camino de la circulación de corriente es cerrado, es decir, sale por un borne de la fuente de alimentación y regresa en su totalidad (salvo pérdidas accidentales) por el otro. En la práctica es difícil diferenciar nítidamente entre circuitos eléctricos y circuitos electrónicos. Las instalaciones eléctricas domiciliarias se denominan usualmente circuitos eléctricos, mientras que los circuitos impresos Ejemplo de circuito eléctrico. de los aparatos electrónicos se denominan por lo general circuitos electrónicos. Esto sugiere que los últimos son los que contienen componentes semiconductores, mientras que los primeros no, pero las instalaciones domiciliarias están incorporando crecientemente no sólo semiconductores sino también microprocesadores, típicos dispositivos electrónicos. El comportamiento de los circuitos eléctricos que contienen solamente resistencias y fuentes electromotrices de corriente continua está gobernado por las Leyes de Kirchoff. Para estudiarlo, el circuito se descompone en mallas eléctricas, estableciendo un sistema de ecuaciones lineales cuya resolución brinda los valores de los voltajes y corrientes que circulan entre sus diferentes partes. La resolución de circuitos de corriente alterna requiere la ampliación del concepto de resistencia eléctrica, ahora ampliado por el de impedancia para incluir los comportamientos de bobinas y condensadores. La resolución de estos circuitos puede hacerse con generalizaciones de las leyes de Kirchoff, pero requiere usualmente métodos matemáticos avanzados, como el de Transformada de Laplace, para describir los comportamientos transitorios y estacionarios de los mismos.

Electricidad

46

Fenómenos termoeléctricos
Se denominan fenómenos termoeléctricos o termoelectricidad a tres fenómenos relacionados entre sí por las relaciones de Thomson, descubiertas por lord Kelvin:[24] el efecto Seebeck, el efecto Peltier y el calor de Thomson. Cuando dos metales distintos a temperaturas diferentes se ponen en contacto formando una unión bimetálica, entre ambos lados de la unión se genera una fuerza electromotriz. Este fenómeno se denomina efecto Seebeck y es la base del funcionamiento de los Sección de un termopar o termocupla. termopares, un tipo de termómetro usado en el control del flujo de gas en dispositivos domésticos como cocinas, calefactores y calentadores de agua corriente. Cuando se hace circular una corriente a través de una unión bimetálica, para mantener constante la temperatura de la unión hay que entregar o extraer calor, según sea el sentido de circulación. Este fenómeno, llamado efecto Peltier, tiene aplicación práctica en dispositivos de refrigeración pequeños, teniendo la ventaja, a diferencia de los refrigeradores basados en la compresión y descompresión de gases, de no tener partes móviles que se desgasten. Es menos conocido el fenómeno denominado calor de Thomson, descubierto por lord Kelvin. Cuando fluye una corriente a través de un conductor homogéneo de sección transversal constante donde se ha establecido un gradiente de temperatura, para mantener invariable la distribución de temperatura hay que entregar o extraer calor del conductor.[25]

Generación de energía eléctrica
Generación masiva
Desde que Nikola Tesla descubrió la corriente alterna y la forma de producirla en los alternadores, se ha llevado a cabo una inmensa actividad tecnológica para llevar la electricidad a todos los lugares habitados del mundo, por lo que, junto a la construcción de grandes y variadas centrales eléctricas, se han construido sofisticadas redes de transporte y sistemas de distribución. Sin embargo, el aprovechamiento ha sido y sigue siendo muy desigual en todo el planeta. Así, los países industrializados o del Primer mundo son grandes consumidores de energía eléctrica, mientras que los países del llamado Tercer mundo apenas disfrutan de sus ventajas. La generación, en términos generales, consiste en transformar alguna clase de energía no eléctrica, sea esta química, mecánica, térmica o luminosa, entre otras, en energía eléctrica. Para la generación industrial se recurre a instalaciones denominadas centrales eléctricas, que ejecutan alguna de las transformaciones citadas. Estas constituyen el primer escalón del sistema de suministro eléctrico.

Alternador de fábrica textil (Museo de la Ciencia y de la Técnica de Cataluña, Tarrasa).

Las centrales generadoras se pueden clasificar en termoeléctricas (de combustibles fósiles, biomasa, nucleares o solares), hidroeléctricas, eólicas, solares fotovoltaicas o mareomotrices. La mayor parte de la energía eléctrica

Electricidad generada a nivel mundial proviene de los tres primeros tipos de centrales reseñados: termoeléctricas, hidroeléctricas y eólicas. Todas estas centrales, excepto las fotovoltaicas, tienen en común el elemento generador, constituido por un alternador, movido mediante una turbina que será distinta dependiendo del tipo de energía primaria utilizada. La demanda de energía eléctrica de una ciudad, región o país tiene una variación a lo largo del día. Esta variación es función de muchos factores, entre los que se destacan: tipos de industrias existentes en la zona y turnos que realizan en su producción, tipo de electrodomésticos que se utilizan más frecuentemente, tipo de calentador de agua que haya instalado en los hogares, la meteorología, la estación del año y la hora del día en que se considera la demanda. La generación de energía eléctrica debe seguir la curva de demanda y, a medida que aumenta la potencia demandada, se debe incrementar el suministro. Esto conlleva el tener que iniciar la generación con unidades adicionales, ubicadas en la misma central o en centrales reservadas para estos períodos. En general los sistemas de generación se diferencian por el periodo del ciclo en el que deben ser utilizados, siendo normalmente de base la nuclear o la eólica, de valle las termoeléctricas de combustibles fósiles y de pico la hidroeléctrica principalmente. Los combustibles fósiles y la hidroeléctrica también pueden usarse como base si es necesario. Centrales termoeléctricas Una central termoeléctrica o central térmica es una instalación empleada para la generación de energía eléctrica a partir de calor. Este calor puede obtenerse tanto de combustibles fósiles (petróleo, gas natural o carbón) como de la fisión nuclear del uranio u otro combustible nuclear. Las centrales que en el futuro utilicen la fusión también serán centrales termoeléctricas. En su forma más clásica, las centrales termoeléctricas consisten en una caldera en la que se quema el combustible para generar calor que se transfiere a unos tubos por donde circula agua, la cual se evapora. El vapor obtenido, a alta presión y temperatura, se expande a continuación en una turbina de vapor, cuyo movimiento impulsa un alternador que genera la electricidad. En las centrales termoeléctricas denominadas de ciclo combinado se usan los gases de la combustión del gas natural para mover una turbina de gas. Como, tras pasar por la turbina, esos gases todavía se Turbina de una central termoeléctrica. encuentran a alta temperatura, se reutilizan para generar vapor que mueve una turbina de vapor. Cada una de estas turbinas impulsa un alternador, como en una central termoeléctrica común. Las centrales térmicas que usan combustibles fósiles liberan a la atmósfera dióxido de carbono (CO2), considerado el principal gas responsable del calentamiento global. También, dependiendo del combustible utilizado, pueden emitir otros contaminantes como óxidos de azufre (II, IV y VI), óxidos de nitrógeno, partículas sólidas (polvo) y cantidades variables de residuos sólidos. Las centrales nucleares pueden contaminar en situaciones accidentales (véase accidente de Chernóbil) y también generan residuos radiactivos de diversa índole.
Planta nuclear en Cattenom, Francia.

47

Véase también: controversia sobre la energía nuclear

Electricidad

48

Una central térmica solar o central termosolar es una instalación industrial en la que, a partir del calentamiento de un fluido mediante radiación solar y su uso en un ciclo termodinámico convencional, se produce la potencia necesaria para mover un alternador para generación de energía eléctrica como en una central térmica clásica. En ellas es necesario concentrar la radiación solar para que se puedan alcanzar La central termosolar PS10 de 11MW funcionando en Sevilla, España. temperaturas elevadas, de 300 °C hasta 1000 °C, y obtener así un rendimiento aceptable en el ciclo termodinámico, que no se podría obtener con temperaturas más bajas. La captación y concentración de los rayos solares se hacen por medio de espejos con orientación automática que apuntan a una torre central donde se calienta el fluido, o con mecanismos más pequeños de geometría parabólica. El conjunto de la superficie reflectante y su dispositivo de orientación se denomina heliostato. Su principal problema medioambiental es la necesidad de grandes extensiones de territorio que dejan de ser útiles para otros usos (agrícolas, forestales, etc.).[26] Centrales hidroeléctricas Una central hidroeléctrica es aquella que se utiliza para la generación de energía eléctrica mediante el aprovechamiento de la energía potencial del agua embalsada en una presa situada a más alto nivel que la central. El agua fluye por una tubería de descarga a la sala de máquinas de la central, donde mediante turbinas hidráulicas se produce la electricidad en alternadores. Las dos características principales de una central hidroeléctrica, desde el punto de vista de su capacidad de generación de electricidad, son: • La potencia, que es función del desnivel existente entre el nivel medio del embalse y el nivel medio de las aguas debajo de la central, y del caudal máximo que puede mover las turbinas, además de las características de las turbinas y de los generadores. • La energía garantizada en un lapso determinado, generalmente un año, que es función del volumen útil del embalse, de la pluviometría anual y de la potencia instalada.
Turbina Pelton de una central hidroeléctrica. La potencia de una central hidroeléctrica puede variar desde unos pocos megavatios (MW) hasta varios gigavatios (GW). Por debajo de 10 MW se denominan minicentrales. En China se encuentra la mayor central hidroeléctrica del mundo (la Presa de las Tres Gargantas), con una potencia instalada de 22.500 MW. La segunda es la Represa de Itaipú (que pertenece a Brasil y Paraguay), con una potencia instalada de 14.000 MW repartida en 20 turbinas de 700 MW cada una.

La utilización de esta forma de energía presenta problemas medioambientales derivados de la necesidad de construcción de grandes embalses en los que se acumula agua, que deja de poder emplearse para otros usos, tiende a aumentar su salinidad y obstaculiza la circulación de la fauna acuática, entre otros.[27] Las centrales mareomotrices utilizan el flujo y reflujo de las mareas. En general, pueden ser útiles en zonas costeras donde la amplitud de la marea sea amplia y las condiciones morfológicas de la costa permitan la construcción de una presa que corte la entrada y salida de la marea en una bahía. Se genera energía tanto en el momento del llenado como

Electricidad en el momento del vaciado de la bahía. Actualmente se encuentra en desarrollo la explotación comercial de la conversión en electricidad del potencial energético que tiene el oleaje del mar, en las llamadas centrales undimotrices. Centrales eólicas La energía eólica se obtiene del viento, es decir, de la energía cinética generada por efecto de las corrientes de aire o de las vibraciones que dicho viento produce. Los molinos de viento se han usado desde hace muchos siglos para moler el grano, bombear agua u otras tareas que requieren energía. En la actualidad se usan aerogeneradores para generar electricidad, especialmente en áreas expuestas a vientos frecuentes, como zonas costeras, alturas montañosas o islas. La energía del viento está relacionada con el movimiento de las masas de aire que se desplazan de áreas de alta presión atmosférica hacia áreas adyacentes de baja presión, con velocidades proporcionales al gradiente de presión.[29]

49

Capacidad eólica mundial total instalada y previsiones [28] 1997-2010. Fuente: WWEA e.V.

El impacto medioambiental de este sistema de obtención de energía se centra en la muerte de aves por choque con las aspas de los aerogeneradores o la necesidad de extensiones grandes de territorio que se sustraen de otros usos. También hay un impacto estético, pues alteran el paisaje.[30][31] Además, este tipo de energía, al igual que la solar o la hidroeléctrica, están fuertemente condicionadas por las condiciones climatológicas, lo que aleatoriza la cantidad de energía generada. Centrales fotovoltaicas Se denomina energía solar fotovoltaica a la obtención de energía eléctrica a través de paneles fotovoltaicos. Los paneles, módulos o colectores fotovoltaicos están formados por dispositivos semiconductores tipo diodo que, al recibir radiación solar, se excitan y provocan saltos electrónicos, generando una pequeña diferencia de potencial entre sus extremos. El acoplamiento en serie de varios de estos fotodiodos permite la obtención de voltajes mayores en configuraciones muy sencillas y aptas para alimentar pequeños dispositivos electrónicos. A mayor escala, la corriente eléctrica continua que proporcionan los paneles fotovoltaicos se Panel solar. puede transformar en corriente alterna e inyectar en la red eléctrica. En la actualidad (2008) el principal productor de energía solar fotovoltaica es Japón, seguido de Alemania que posee cerca de 5 millones de metros cuadrados de colectores que aportan un 0,03% de su producción energética total. La venta de paneles fotovoltaicos ha crecido en el mundo al ritmo anual del 20% en la década de los noventa. En la Unión Europea el crecimiento medio anual es del 30%, y Alemania tiene el 80% de la potencia instalada de la Unión.[32] Los principales problemas de este tipo de energía son: su elevado coste en comparación con los otros métodos, la necesidad de extensiones grandes de territorio que se sustraen de otros usos, la competencia del principal material con el que se construyen con otros usos (el silicio es el principal componente de los circuitos integrados), o su dependencia de las condiciones climatológicas.[33] Además, si se convierte en una forma de generar electricidad usada de forma generalizada, se deberían considerar sus emisiones químicas a la atmósfera, de cadmio o selenio.[34] Por su falta de constancia puedan ser convenientes sistemas de almacenamiento de energía para que la potencia

Electricidad generada en un momento determinado pueda usarse cuando se solicite su consumo. Se están estudiando sistemas como el almacenamiento cinético, bombeo de agua a presas elevadas, almacenamiento químico, entre otros, que a su vez tendrían un impacto medioambiental.
Véase también: Energía solar espacial

50

Generación a pequeña escala
Grupo electrógeno Un grupo electrógeno es una máquina que mueve un generador de energía eléctrica a través de un motor de combustión interna. Normalmente se utiliza cuando hay déficit en la generación de energía de algún lugar, o cuando hay un corte en el suministro eléctrico y es necesario mantener la actividad. Una de sus utilidades más comunes es en aquellos lugares donde no hay suministro a través de la red eléctrica, generalmente son zonas agrícolas con pocas infraestructuras o viviendas aisladas. Otro caso es en locales de pública concurrencia, hospitales, fábricas, etc., que, a falta de energía eléctrica de red, necesiten de otra fuente de energía alterna para abastecerse en caso de emergencia. Un grupo electrógeno consta de las siguientes partes:

Grupo electrógeno de 500 kVA instalado en un complejo turístico en Egipto.

• Motor de combustión interna. El motor que acciona el grupo electrógeno suele estar diseñado específicamente para ejecutar dicha labor. Su potencia depende de las características del generador. Pueden ser motores de gasolina o diésel. • Sistema de refrigeración. El sistema de refrigeración del motor es problemático, por tratarse de un motor estático, y puede ser refrigerado por medio de agua, aceite o aire. • Alternador. La energía eléctrica de salida se produce por medio de un alternador apantallado, protegido contra salpicaduras, autoexcitado, autorregulado y sin escobillas, acoplado con precisión al motor. El tamaño del alternador y sus prestaciones son muy variables en función de la cantidad de energía que tengan que generar. • Depósito de combustible y bancada. El motor y el alternador están acoplados y montados sobre una bancada de acero. La bancada incluye un depósito de combustible con una capacidad mínima de funcionamiento a plena carga según las especificaciones técnicas que tenga el grupo en su autonomía. • Sistema de control. Se puede instalar uno de los diferentes tipos de paneles y sistemas de control que existen para controlar el funcionamiento, salida del grupo y la protección contra posibles fallos en el funcionamiento. • Interruptor automático de salida. Para proteger al alternador, llevan instalado un interruptor automático de salida adecuado para el modelo y régimen de salida del grupo electrógeno. Existen otros dispositivos que ayudan a controlar y mantener, de forma automática, el correcto funcionamiento del mismo. • Regulación del motor. El regulador del motor es un dispositivo mecánico diseñado para mantener una velocidad constante del motor con relación a los requisitos de carga. La velocidad del motor está directamente relacionada con la frecuencia de salida del alternador, por lo que cualquier variación de la velocidad del motor afectará a la frecuencia de la potencia de salida.

Electricidad Pila voltaica Pila eléctrica es un dispositivo que genera energía eléctrica mediante un proceso químico transitorio. Sus características pierden vigor durante el tiempo de funcionamiento por lo que es necesario renovar sus elementos constituyentes. Una pila es un generador primario con dos terminales llamados polos,electrodos o bornes. Uno de ellos es el polo positivo o ánodo y el otro es el polo negativo o cátodo. En español es habitual llamarla así, mientras que a las pilas recargables o acumuladores se les suele llamar baterías.

51

Esquema funcional de una pila eléctrica.

En 1800 Volta escribió una carta al presidente de la Royal Society londinense dando las nuevas noticias de la primera pila eléctrica. Aunque la apariencia de una pila sea simple, la explicación de su funcionamiento dista de serlo y motivó una gran actividad científica en los siglos XIX y XX, así como diversas teorías. La demanda creciente que tiene este producto en el mercado sigue haciendo de él objeto de investigación intensa. El funcionamiento de una pila se basa en el potencial de contacto entre dos sustancias, mediado por un electrolito.[35] Cuando se necesita una corriente mayor que la que puede suministrar un elemento único, siendo su tensión en cambio la adecuada, se pueden añadir otros elementos en la conexión llamada en paralelo. La capacidad total de una pila se mide en amperios-hora (A•h); es el número máximo de amperios que el elemento puede suministrar en una hora. Es un valor que no suele conocerse, ya que no es muy claro dado que depende de la intensidad solicitada y la temperatura. Un importante avance en la calidad de las pilas ha sido la pila denominada seca, al que pertenecen prácticamente todas las utilizadas hoy día (2008). Las pilas eléctricas, baterías y acumuladores se presentan en unas cuantas formas normalizadas en función de su forma, tensión y capacidad. Los metales y productos químicos constituyentes de las pilas pueden resultar perjudiciales para el medio ambiente. Una vez que la envoltura metálica que recubre las pilas se daña, las sustancias químicas que contienen se ven liberadas al medio ambiente causando contaminación. Con mayor o menor grado, las sustancias son absorbidas por la tierra pudiéndose filtrar hacia los mantos acuíferos y de éstos pueden pasar directamente a los seres vivos, entrando con esto en la cadena alimenticia. Es muy importante no tirarlas a la basura (en algunos países está prohibido), sino llevarlas a centros de reciclado. En algunos países, la mayoría de los proveedores y tiendas especializadas también se hacen cargo de las pilas gastadas. Las pilas son residuos peligrosos por lo que, desde el momento en que se empiezan a reunir, deben ser manejadas por personal capacitado que siga las precauciones adecuadas empleando todos los procedimientos técnicos y legales para el manejo de dicho residuos. Las pilas desechables suelen utilizarse en los aparatos eléctricos portátiles, como por ejemplo juguetes, linternas, relojes, teléfonos móviles, marcapasos, audífonos, calculadoras, ordenadores personales portátiles, reproductores de música, radio transistores, mando a distancia, etc. En todas estas aplicaciones se utilizan también cada vez más baterías recargables.
Véanse también: Almacenamiento de energía, Batería eléctrica, Condensador eléctrico, Supercondensador, Bobina y

Central hidroeléctrica reversible

Electricidad Pilas de combustible Una celda, célula o pila de combustible es un dispositivo electroquímico de generación de electricidad similar a una batería, que se diferencia de esta en estar diseñada para permitir el reabastecimiento continuo de los reactivos consumidos. Esto permite producir electricidad a partir de una fuente externa de combustible y de oxígeno, en contraposición a la capacidad limitada de almacenamiento de energía de una batería. Además, la composición química de los electrodos de una batería cambia según el estado de carga, mientras que en una celda de combustible los electrodos funcionan por la acción de catalizadores, por lo que son mucho más estables. En las celdas de hidrógeno los reactivos usados son hidrógeno en el ánodo y oxígeno en el cátodo. Se puede obtener un suministro continuo de hidrógeno a partir de la electrólisis del agua, lo que requiere una fuente primaria de generación de electricidad, o a partir de reacciones catalíticas que desprenden hidrógeno a partir Pila de hidrógeno. La celda en sí es la estructura cúbica de hidrocarburos. El hidrógeno puede almacenarse, lo que del centro de la imagen. permitiría el uso de fuentes discontinuas de energía como la solar y la eólica. Sin embargo, el hidrógeno gaseoso (H2) es altamente inflamable y explosivo, por lo que se están desarrollando métodos de almacenamiento en matrices porosas de diversos materiales.[36] Generador termoeléctrico de radioisótopos Un generador termoeléctrico de radioisótopos es un generador eléctrico simple que obtiene su energía de la liberada por la desintegración radiactiva de determinados elementos. En este dispositivo, el calor liberado por la desintegración de un material radiactivo se convierte en electricidad directamente gracias al uso de una serie de termopares, que convierten el calor en electricidad gracias al efecto Seebeck en la llamada unidad de calor de radioisótopos (o RHU en inglés). Los RTG se pueden considerar un tipo de batería y se han usado en satélites, sondas espaciales no tripuladas e instalaciones remotas que no disponen de otro tipo de fuente eléctrica o de calor. Los RTG son los dispositivos más adecuados en situaciones donde no haya presencia humana y se necesiten potencias de varios centenares de vatios durante largos períodos, situaciones en las que los generadores convencionales como las pilas de combustible o las baterías no son viables económicamente y donde la falta de luz impide usar células fotovoltaicas.

52

Suministro eléctrico
Se denomina suministro eléctrico al conjunto de etapas que son necesarias para que la energía eléctrica llegue al consumidor final. Como la energía eléctrica es difícil de almacenar, este sistema tiene la particularidad de generar y distribuir la energía conforme ésta es consumida. Por otra parte, debido a la importancia de la energía eléctrica, el suministro es vital para el desarrollo de los países y de interés para los gobiernos nacionales, por lo que estos cuentan con instituciones especializadas en el seguimiento de las tres etapas fundamentales: generación, transmisión y distribución.

Electricidad

53

Diagrama esquematizado del sistema de suministro eléctrico

Transporte de energía eléctrica
La red de transporte es la parte del sistema constituida por los elementos necesarios para llevar hasta los puntos de consumo y a través de grandes distancias la energía generada en las centrales eléctricas. Para ello, los volúmenes de energía eléctrica producidos deben ser transformados, elevándose su nivel de tensión. Esto se hace considerando que para un determinado nivel de potencia a transmitir, al elevar el voltaje se reduce la intensidad de corriente eléctrica que circulará, reduciéndose las pérdidas por efecto Joule. Con este fin se emplean subestaciones elevadoras con equipos eléctricos denominados transformadores. De esta manera, una red de transmisión opera usualmente con voltajes del orden de 220 kV y superiores, denominados alta tensión, de 440 kV.

Torre para el transporte de energía eléctrica.

Parte fundamental de la red son las líneas de transporte. Una línea de transporte de energía eléctrica o línea de alta tensión es el medio físico mediante el que se realiza la transmisión de la energía a grandes distancias. Está constituida tanto por el elemento conductor, usualmente cables de cobre o aluminio, como por sus elementos de soporte, las torres de alta tensión. Los cables de alta tensión están sujetos a tracciones causadas por la combinación de agentes como el viento, la temperatura del conductor, la temperatura del aire, etc. El voltaje y la capacidad de la línea de transmisión afectan el tamaño de estas estructuras principales. Las torres pueden ser postes simples de madera para las líneas de transmisión pequeñas hasta 46 kV. Se emplean estructuras de postes de madera en forma de H, para las líneas de 69 a 231 kV. Se utilizan estructuras de acero independientes, de circuito simple, para las líneas de 161 kV o más. Es posible tener líneas de transmisión de hasta 1.000 kV. El impacto ambiental potencial de las líneas de transmisión incluye la red de transporte, el derecho de vía, las playas de distribución, las subestaciones y los caminos de acceso o mantenimiento. Las estructuras principales de la línea de transmisión son la línea misma, los conductores, las torres y los soportes.[37] Los impactos ambientales negativos de las líneas de transmisión son causados por la construcción, operación y mantenimiento de las mismas. Al colocar líneas a baja altura o ubicarlas próximas a áreas con actividades humanas —como carreteras o edificios— se incrementa el riesgo de electrocución. Normalmente, las normas técnicas reducen este peligro. Las torres y las líneas de transmisión pueden interrumpir la trayectoria de vuelo de los aviones cerca de los aeropuertos y poner en peligro

Electricidad las naves que vuelan muy bajo, especialmente, las que se emplean para actividades agrícolas.[38]
Véase también: Alta tensión eléctrica

54

Distribución de energía eléctrica
La red de distribución es un componente del sistema de suministro, siendo responsabilidad de las compañías distribuidoras. La distribución de la energía eléctrica desde las subestaciones de transformación de la red de transporte se realiza en dos etapas. La primera está constituida por la red de reparto, que, partiendo de las subestaciones de transformación, reparte la energía, normalmente mediante anillos que rodean los grandes centros de consumo, hasta llegar a las estaciones transformadoras de distribución. Las tensiones utilizadas están comprendidas entre 25 y 132 kV. Intercaladas en estos anillos están las estaciones transformadoras de distribución, encargadas de reducir la tensión desde el nivel de reparto al de distribución en media tensión. La segunda etapa la constituye la red de distribución propiamente dicha, con tensiones de funcionamiento de 3 a 30 kV y con una disposición en red radial. Esta red cubre la superficie de los grandes centros de consumo (población, gran industria, etc.), uniendo las estaciones transformadoras de distribución con los centros de transformación, que son la última etapa del suministro en media tensión, ya que las tensiones a la salida de estos centros es de baja tensión (125/220 o 220/380 ).[39] Las líneas que forman la red de distribución se operan de forma radial, sin que formen mallas. Cuando existe una avería, un dispositivo de protección situado al principio de cada red lo detecta y abre el interruptor que alimenta esta red. La localización de averías se hace por el método de "prueba y error", dividiendo la red que tiene la avería en mitades y suministrando energía a una de ellas; a medida que se acota la zona con avería, se devuelve el suministro al resto de la red. Esto ocasiona que en el transcurso de la localización se puedan producir varias interrupciones a un mismo usuario de la red. La topología de una red de distribución se refiere al esquema o arreglo de la distribución, esto es la forma en que se distribuye la energía por medio de la disposición de los segmentos de los circuitos de distribución. Esta topología puede tener las siguientes configuraciones: • Red radial o red en antena: resaltan su simplicidad y la facilidad que presenta para ser equipada de protecciones selectivas. Como desventaja tiene su falta de garantía de servicio. • Red en bucle abierto: tiene todas las ventajas de la distribución en redes radiales y además la posibilidad de alimentar alternativamente de una fuente u otra. • Red en anillo o en bucle cerrado: se caracteriza por tener dos de sus extremos alimentados, quedando estos puntos intercalados en el anillo o bucle. Como ventaja fundamental se puede citar su seguridad de servicio y facilidad de mantenimiento, si bien presenta el inconveniente de una mayor complejidad y sistemas de protección más complicados. Como sistemas de protección se utilizan conductores aislados, fusibles, seccionadores en carga, seccionalizadores, órganos de corte de red, reconectadores, interruptores, pararrayos antena, pararrayos autoválvulas y protecciones secundarias asociadas a transformadores de medida, como son relés de protección.[40]

Electricidad

55

Mediciones eléctricas
Unidades eléctricas
Culombio (C, unidad de carga eléctrica) La introducción de las magnitudes eléctricas requiere añadir una nueva unidad fundamental a la física: la de carga eléctrica. Esta unidad, que no puede derivarse de las unidades de la mecánica, fue originalmente denominada Coulomb (término castellanizado a culombio, cuyo símbolo es C) en honor a Charles-Augustin de Coulomb, primero que midió directamente la fuerza entre cargas eléctricas. Debido a la gran dificultad de medir directamente las cargas eléctricas con precisión, se ha tomado como unidad básica la unidad de corriente eléctrica, que en el Sistema Internacional de Conexión de un amperímetro en un circuito. Unidades es el amperio. La unidad de carga resulta entonces una unidad derivada, que se define como la cantidad de carga eléctrica que fluye durante 1 segundo a través de la sección de un conductor que transporta una intensidad constante de corriente eléctrica de 1 amperio:

Voltio (V, unidad de potencial eléctrico y fuerza electromotriz) El voltio se define como la diferencia de potencial a lo largo de un conductor cuando una corriente con una intensidad de un amperio utiliza un vatio de potencia:

Ohmio (Ω, unidad de resistencia eléctrica) Un ohmio es la resistencia eléctrica que existe entre dos puntos de un conductor cuando una diferencia de potencial constante de 1 voltio aplicada entre estos dos puntos produce, en dicho conductor, una corriente de intensidad 1 amperio, cuando no haya fuerza electromotriz en el conductor:

Siemens (S, unidad de conductancia eléctrica) Un siemens es la conductancia eléctrica que existe entre dos puntos de un conductor que tiene un ohmio de resistencia:

Faradio (F, unidad de capacidad eléctrica) Un faradio es la capacidad de un condensador entre cuyas armaduras aparece una diferencia de potencial eléctrico de 1 voltio cuando está cargado de una cantidad de electricidad igual a un culombio:[41]
Condensador ideal cuya capacidad se expresa en faradios.

Electricidad

56

Tesla (T, unidad de densidad de flujo magnético e inductividad magnética) Un tesla es una inducción magnética uniforme que, repartida normalmente sobre una superficie de un metro cuadrado, produce a través de esta superficie un flujo magnético total de un weber:

Weber (Wb, unidad de flujo magnético) Un weber es el flujo magnético que, al atravesar un circuito de una sola espira, produce en la misma una fuerza electromotriz de 1 voltio si se anula dicho flujo en 1 segundo por decrecimiento uniforme:

Henrio (H, unidad de inductancia) Un henrio es la inductancia de un circuito en el que una corriente que varía a razón de un amperio por segundo da como resultado una fuerza electromotriz autoinducida de un voltio:

Instrumentos de medida
Se denominan instrumentos de medidas de electricidad a todos los dispositivos que se utilizan para medir las magnitudes eléctricas y asegurar así el buen funcionamiento de las instalaciones y máquinas eléctricas. La mayoría son aparatos portátiles de mano y se utilizan para el montaje; hay otros instrumentos que son conversores de medida y otros métodos de ayuda a la medición, el análisis y la revisión. La obtención de datos cobra cada vez más importancia en el ámbito industrial, profesional y privado. Se demandan, sobre todo, instrumentos de medida prácticos, que operen de un modo rápido y preciso y que ofrezcan resultados durante la medición. Existen muchos tipos de instrumentos diferentes siendo los más destacados los amperímetros, voltímetros, óhmetros, multímetros y osciloscopios.[42] Galvanómetro Los galvanómetros son aparatos que se emplean para indicar el paso de corriente eléctrica por un circuito y para la medida precisa de su intensidad. Suelen estar basados en los efectos magnéticos o térmicos causados por el paso de la corriente. En un galvanómetro de imán móvil la aguja indicadora está asociada a un imán que se encuentra situado en el interior de una bobina por la que circula la corriente que tratamos de medir y que crea un campo magnético que, dependiendo del sentido de la misma, produce una atracción o repulsión del imán proporcional a la intensidad de dicha corriente. En el caso de los galvanómetros térmicos, lo que se pone de manifiesto es el alargamiento producido al calentarse, por el Efecto Joule, al paso de la corriente, un hilo muy fino arrollado a un cilindro solidario con la aguja indicadora.
Principio de funcionamiento de un galvanómetro.

Electricidad Amperímetros Un amperímetro es un instrumento que sirve para medir la intensidad de corriente que está circulando por un circuito eléctrico.[43] En su diseño original los amperímetros están constituidos, en esencia, por un galvanómetro cuya escala ha sido graduada en amperios. En la actualidad, los amperímetros utilizan un conversor analógico/digital para la medida de la caída de tensión sobre un resistor por el que circula la corriente a medir. La lectura del conversor es leída por un microprocesador que realiza los cálculos para presentar en un display numérico el valor de la corriente circulante.

57

Amperímetro de pinza.

Para efectuar la medida de la intensidad de la corriente circulante el amperímetro ha de colocarse en serie, para que sea atravesado por dicha corriente. Esto lleva a que el amperímetro debe poseer una resistencia interna lo más pequeña posible, a fin de que no produzca una caída de tensión apreciable. Para ello, en el caso de instrumentos basados en los efectos electromagnéticos de la corriente eléctrica, están dotados de bobinas de hilo grueso y con pocas espiras. Voltímetros Un voltímetro es un instrumento que sirve para medir la diferencia de potencial o voltaje entre dos puntos de un circuito eléctrico cerrado pero a la vez abierto en los polos. Los voltímetros se clasifican por su funcionamiento mecánico, siendo en todos los casos el mismo instrumento: • Voltímetros electromecánicos: en esencia, están constituidos por un galvanómetro cuya escala ha sido graduada en voltios. Existen modelos que separan las corrientes continua y alterna de la señal, pudiendo medirlas independientemente. • Voltímetros electrónicos: añaden un amplificador para proporcionar mayor impedancia de entrada y mayor sensibilidad. • Voltímetros vectoriales: se utilizan con señales de microondas. Además del módulo de la tensión dan una indicación de su fase. • Voltímetros digitales: dan una indicación numérica de la tensión, normalmente en una pantalla tipo LCD. Suelen tener prestaciones adicionales como memoria, detección de valor de pico, verdadero valor eficaz (RMS), selección automática de rango y otras funcionalidades.

Dos voltímetros digitales.

Para efectuar la medida de la diferencia de potencial el voltímetro ha de colocarse en paralelo, esto es, en derivación sobre los puntos entre los que se trata de efectuar la medida. Para ello, en el caso de instrumentos basados en los efectos electromagnéticos de la corriente eléctrica, están dotados de bobinas de hilo muy fino y con muchas espiras, con lo que con poca intensidad de corriente a través del aparato se consigue la fuerza necesaria para el desplazamiento de la aguja indicadora.[44]

Electricidad Óhmetro Un óhmetro u ohmímetro es un instrumento para medir la resistencia eléctrica. El diseño de un óhmetro se compone de una pequeña batería para aplicar un voltaje a la resistencia bajo medida, para luego mediante un galvanómetro medir la corriente que circula a través de la resistencia. La escala del galvanómetro está calibrada directamente en ohmios, ya que en aplicación de la ley de Ohm, al ser el voltaje de la batería fijo, la intensidad circulante a través del galvanómetro sólo va a depender del valor de la resistencia bajo medida, esto es, a menor resistencia mayor intensidad de corriente y viceversa. Existen también otros tipos de óhmetros más exactos y sofisticados, en los que la batería ha sido sustituida por un circuito que genera una corriente de intensidad constante I, la cual se hace circular a través de la resistencia R bajo prueba. Un óhmetro de precisión tiene cuatro terminales, denominados contactos Kelvin. Dos terminales llevan la corriente constante desde el medidor a la resistencia, mientras que los otros dos permiten la medida del voltaje directamente entre terminales Óhmetro. de la misma, con lo que la caída de tensión en los conductores que aplican dicha corriente constante a la resistencia bajo prueba no afecta a la exactitud de la medida.[45] Multímetro Un multímetro, llamado también polímetro o tester, es un instrumento que ofrece la posibilidad de medir distintas magnitudes en el mismo aparato. Las más comunes son las de voltímetro, amperímetro y óhmetro. Es utilizado frecuentemente por el personal técnico en toda la gama de electrónica y electricidad. Existen distintos modelos que incorporan además de las tres funciones básicas antes citadas otras mediciones importantes, tales como medida de inductancias y capacitancias; comprobador de diodos y transistores; o escalas y zócalos para la medida de temperatura mediante termopares normalizados. También hay multímetros con funciones avanzadas que permiten: generar y detectar la frecuencia intermedia de un aparato, así como un circuito amplificador con altavoz para ayudar en la sintonía de Multímetro digital donde pueden medirse varias circuitos de estos aparatos; el seguimiento de la señal a través de todas magnitudes eléctricas. las etapas del receptor bajo prueba; realizar la función de osciloscopio por encima del millón de muestras por segundo en velocidad de barrido, y muy alta resolución; sincronizarse con otros instrumentos de medida, incluso con otros multímetros, para hacer medidas de potencia puntual (potencia = voltaje * intensidad); utilizarse como aparato telefónico, para poder conectarse a una línea telefónica bajo prueba, mientras se efectúan medidas por la misma o por otra adyacente; realizar comprobaciones de circuitos de electrónica del automóvil y grabación de ráfagas de alto o bajo voltaje. Este instrumento de medida por su precio y su exactitud sigue siendo el preferido del aficionado o profesional en electricidad y electrónica. Hay dos tipos de multímetros: analógicos y digitales.

58

Electricidad Osciloscopio Se denomina osciloscopio a un instrumento de medición electrónico para la representación gráfica de señales eléctricas que pueden variar en el tiempo, que permite visualizar fenómenos transitorios así como formas de ondas en circuitos eléctricos y electrónicos y mediante su análisis se puede diagnosticar con facilidad cuáles son los problemas del funcionamiento de un determinado circuito. Es uno de los instrumentos de medida y verificación eléctrica más versátiles que existen y se utiliza en una gran cantidad de aplicaciones técnicas. Un osciloscopio puede medir un gran número de fenómenos, si va provisto del transductor adecuado.

59

Osciloscopio Tektronik.

El osciloscopio presenta los valores de las señales eléctricas en forma de coordenadas en una pantalla, en la que normalmente el eje X (horizontal) representa tiempos y el eje Y (vertical) representa tensiones. La imagen así obtenida se denomina oscilograma. Suelen incluir otra entrada, llamada "eje Z" que controla la luminosidad del haz, permitiendo resaltar o apagar algunos segmentos de la traza. El funcionamiento del osciloscopio está basado en la posibilidad de desviar un haz de electrones por medio de la creación de campos eléctricos y magnéticos. Las dimensiones de la pantalla del TRC están actualmente normalizadas en la mayoría de instrumentos, a 10 cm en el eje horizontal (X) por 8 cm en el eje vertical (Y). El osciloscopio se fabrica bajo muchas formas distintas, no sólo en cuanto al aspecto puramente físico sino en cuanto a sus características internas y por tanto a sus prestaciones y posibilidades de aplicación de las mismas. Existen dos tipos de osciloscopios: analógicos y digitales. Los analógicos trabajan con variables continuas mientras que los digitales lo hacen con variables discretas. Ambos tipos tienen sus ventajas e inconvenientes. Los analógicos son preferibles cuando es prioritario visualizar variaciones rápidas de la señal de entrada en tiempo real. Los osciloscopios digitales se utilizan cuando se desea visualizar y estudiar eventos no repetitivos, como picos de tensión que se producen aleatoriamente. Analizador de espectro Un analizador de espectro es un equipo de medición electrónica que permite visualizar en una pantalla las componentes espectrales de las señales presentes en la entrada, pudiendo ser éstas cualquier tipo de ondas eléctricas, acústicas u ópticas. En el eje de ordenadas suele presentarse en una escala logarítmica el nivel en dB del contenido espectral de la señal. En el eje de abscisas se representa la frecuencia, en una escala que es función de la separación temporal y el número de muestras capturadas. Se Analizador de espectro. denomina frecuencia central del analizador a la que corresponde con la frecuencia en el punto medio de la pantalla. A menudo se mide con ellos el espectro de la potencia eléctrica.[46] En la actualidad está siendo reemplazado por el analizador vectorial de señales.

Electricidad

60

Potencia eléctrica
Se denomina potencia eléctrica (P) a la energía eléctrica consumida por unidad de tiempo. En el Sistema Internacional de Unidades se mide en vatios (W), unidad equivalente a julios por segundo (J/s). La energía consumida por un dispositivo eléctrico se mide en vatios-hora (Wh), o en kilovatios-hora (kWh). Normalmente las empresas que suministran energía eléctrica a la industria y los hogares, en lugar de facturar el consumo en vatios-hora, lo hacen en kilovatios-hora (kWh). La potencia en vatios (W) o kilovatios (kW) de todos los aparatos eléctricos debe figurar junto con la tensión de alimentación en una placa metálica ubicada, generalmente, en la parte trasera de dichos equipos. En los motores, esa placa se halla colocada en uno de sus costados y en el caso de las bombillas de alumbrado el dato viene impreso en el cristal o en su base. Cuando se trata de corriente continua (DC) la potencia eléctrica desarrollada en un cierto instante por un dispositivo de dos terminales es el producto de la diferencia de potencial entre dichos terminales y la intensidad de corriente que pasa a través del dispositivo. Esto es: Cuando el dispositivo es una resistencia de valor R o se puede calcular la resistencia equivalente del dispositivo, a partir de ella la potencia también puede calcularse como

Potencia de cargas reactivas
Para calcular la potencia de algunos tipos de equipos que trabajan con corriente alterna, es necesario tener en cuenta también el valor del factor de potencia o coseno de phi ( ) que poseen. En ese caso se encuentran los equipos que trabajan con carga reactiva o inductiva, es decir, aquellos aparatos que para funcionar utilizan una o más bobinas o enrollado de alambre de cobre, como ocurre, por ejemplo, con los motores eléctricos, o también con los aparatos de aire acondicionado o los tubos fluorescentes. Las cargas reactivas o inductivas, que poseen los motores eléctricos, tienen un factor de potencia menor Relación entre potencias activas, aparentes y reactivas. que “1” (generalmente su valor varía entre 0,85 y 0,98), por lo cual la eficiencia de trabajo del equipo en cuestión y de la red de suministro eléctrico disminuye cuando el factor se aleja mucho de la unidad, traduciéndose en un mayor gasto de energía y en un mayor desembolso económico.

Potencia activa
Es la potencia que representa la capacidad de un circuito para realizar un proceso de transformación de la energía eléctrica en trabajo. Los diferentes dispositivos eléctricos existentes convierten la energía eléctrica en otras formas de energía tales como: mecánica, lumínica, térmica, química, etc. Esta potencia es, por lo tanto, la realmente consumida por los circuitos. Cuando se habla de demanda eléctrica, es esta potencia la que se utiliza para determinar dicha demanda. De acuerdo con su expresión, la ley de Ohm y el triángulo de impedancias:

Resultado que indica que la potencia activa es debida a los elementos resistivos.

Electricidad

61

Elementos de seguridad
Las instalaciones eléctricas disponen de varios elementos de seguridad para disminuir el riesgo de accidentes, como los causados por cortocircuitos, sobrecargas o contacto de personas o animales con elementos en tensión. Un cortocircuito ocurre cuando falla un aparato o línea eléctrica por el que circula corriente, y esta pasa directamente: • del conductor activo o fase al neutro o tierra • entre dos fases en el caso de sistemas polifásicos en corriente alterna • entre polos opuestos en el caso de corriente continua.

El cortocircuito se produce normalmente por fallos en el aislante de los conductores, cuando estos quedan sumergidos en un medio conductor como el agua o por contacto accidental entre conductores aéreos por fuertes vientos o rotura de los apoyos. Debido a que un cortocircuito puede causar daños importantes en las instalaciones eléctricas e incendios en edificios, las instalaciones están normalmente dotadas de fusibles, interruptores magnetotérmicos o diferenciales y tomas de tierra, a fin de proteger a las personas y las cosas.[47] • Fusible: es un dispositivo, constituido por un filamento o lámina de un metal o aleación de bajo punto de fusión, que se intercala en un punto determinado de una instalación eléctrica para que se funda, por efecto Joule, cuando la intensidad de corriente supere, por un cortocircuito o por un exceso de carga, un determinado valor que pudiera hacer peligrar la integridad de los conductores de la instalación con el consiguiente riesgo de incendio o destrucción de otros elementos.[48] • Interruptor magnetotérmico: también denominado disyuntor termomagnético, es un dispositivo utilizado para la protección de los circuitos eléctricos, contra cortocircuitos y sobrecargas, en sustitución de los fusibles. Tienen la ventaja frente a los fusibles de que no hay que reponerlos. Cuando desconectan el circuito debido a una sobrecarga o un cortocircuito, se rearman de nuevo y siguen funcionando. Su funcionamiento se basa en dos de los efectos producidos por la circulación de corriente eléctrica en un circuito: el magnético y el térmico (efecto Joule). El dispositivo consta, por tanto, de dos partes, un electroimán y una lámina bimetálica, conectadas en serie y por las que circula la corriente que va hacia la carga.[49]

Cuadro eléctrico de seguridad en una vivienda, compuesto por limitador de potencia, interruptores magnetotérmicos e interruptores diferenciales.

Fusible industrial de 200 amperios.

• Interruptor diferencial: también llamado disyuntor por corriente diferencial o residual, es un dispositivo electromecánico que se coloca en las instalaciones eléctricas con el fin de proteger a las personas de las derivaciones causadas por faltas de aislamiento entre los conductores activos y tierra o masa de los aparatos. En esencia, el interruptor diferencial consta de dos bobinas, colocadas en serie con los conductores de alimentación de corriente y que producen campos magnéticos opuestos y un núcleo o armadura que mediante un dispositivo mecánico adecuado puede accionar unos contactos. El interruptor corta la corriente eléctrica cuando existe una derivación de corriente a tierra, que si pasa por un cuerpo humano puede tener consecuencias fatales.[50]

Electricidad

62

• Toma de tierra: también denominado hilo de tierra o simplemente tierra, se emplea en las instalaciones eléctricas para evitar el paso de corriente al usuario por un fallo del aislamiento de los conductores activos. La toma a tierra es un camino de poca resistencia a cualquier corriente de fuga para que cierre el circuito "a tierra" en lugar de pasar a través del usuario. Consiste en una pieza metálica enterrada en una mezcla especial de sales y conectada a la instalación eléctrica a través de un cable. En todas las instalaciones interiores según el reglamento, el cable de tierra se identifica por ser su aislante de color verde y amarillo.[51]

Instalación domiciliaria de toma a tierra mediante pica de cobre.

Aplicaciones de la electricidad
Máquinas eléctricas
También se aplica la inducción electromagnética para la construcción de motores movidos por energía eléctrica, que permiten el funcionamiento de innumerables dispositivos. Motor eléctrico Desde que Faraday describió el proceso de inducción y generación de la corriente eléctrica, se iniciaron experiencias y proyectos que culminaron con el invento y fabricación de los diferentes tipos de motores eléctricos que existen. El paso definitivo lo consiguió el ingeniero Tesla que, en 1887, fabricó el primer motor asíncrono trifásico de corriente alterna.

Esquema de un motor eléctrico.

Transformador El origen del transformador se remonta a 1851, cuando el físico alemán Heinrich Daniel Ruhmkorff diseñó la llamada bobina de Ruhmkorff, precursora de los transformadores modernos. El transformador es una máquina eléctrica carente de movimiento que permite aumentar o disminuir el voltaje o tensión en un circuito eléctrico de corriente alterna, manteniendo la frecuencia y la potencia con un alto rendimiento. Los transformadores son dispositivos basados en el fenómeno de la inducción electromagnética y están constituidos, en su forma más simple, por dos bobinas devanadas sobre un núcleo cerrado

Representación esquemática del transformador.

Electricidad de hierro dulce o hierro silicio. Las bobinas o devanados se denominan primario y secundario, según correspondan a la entrada o salida del sistema en cuestión, respectivamente. El funcionamiento se produce cuando se aplica una fuerza electromotriz alterna en el devanado primario, las variaciones de intensidad y sentido de la corriente alterna crearán un campo magnético variable dependiendo de la frecuencia de la corriente. Este campo magnético variable originará, por inducción, la aparición de una fuerza electromotriz en los extremos del devanado secundario. La relación teórica entre la fuerza electromotriz inductora (Ep), la aplicada al devanado primario y la fuerza electromotriz inducida (Es), la obtenida en el secundario, es directamente proporcional al número de espiras de los devanados primario (Np) y secundario (Ns) .

63

La razón de transformación del voltaje entre el bobinado primario y el secundario depende por tanto del número de ruletas que tenga cada uno. Si el número de vueltas del secundario es el triple del primario. En el secundario habrá el triple de tensión.

Esta particularidad tiene su utilidad para el transporte de energía eléctrica a larga distancia, al poder efectuarse el transporte a altas tensiones y pequeñas intensidades y por tanto con pequeñas pérdidas. Esquema funcional de un transformador. El transformador ha hecho posible la distribución de energía eléctrica a todos los hogares, industrias, etc. Si no fuera por el transformador tendría que acortarse la distancia que separa a los generadores de electricidad de los consumidores. El transformador lo encontramos en muchos lugares, en las lámparas de bajo consumo, cargadores de pilas, vehículos, en sótanos de edificios, en las centrales hidroeléctricas y otros generadores de electricidad. Su tamaño puede variar desde muy pequeños a enormes transformadores que pueden pesar más de 500 t.[52]

Máquinas frigoríficas y aire acondicionado
La invención de las máquinas frigoríficas ha supuesto un avance importante en todos los aspectos relacionados con la conservación y trasiego de alimentos frescos que necesitan conservarse fríos para que tengan mayor duración en su estado natural, y en conseguir una climatización adecuada en viviendas y locales públicos. Las máquinas frigoríficas se clasifican en congeladoras y en refrigeradoras. Las de uso industrial están ubicadas en empresas, barcos o camiones que trabajan con alimentos congelados o refrigerados; en el ámbito doméstico se utilizan máquinas conocidas con el nombre de frigorífico y congelador, así como aparatos de aire acondicionado que están presente en muchas viviendas variando en prestaciones y capacidad.

Máquina térmica de frío y calor.

En 1784 William Cullen construye la primera máquina para enfriar, pero hasta 1927 no se fabrican los primeros refrigeradores domésticos (de General Electric). Cuatro años más tarde, Thomas Midgley descubre el freón, que por sus propiedades ha sido desde entonces muy empleado como fluido de trabajo en máquinas de enfriamiento como equipos de aire acondicionado y refrigeradores, tanto a escala industrial como doméstica. Sin embargo, se ha demostrado que el freón y los compuestos químicos similares a él, también conocidos como clorofluorocarburos (CFC), son los principales causantes de la destrucción en la capa de ozono, produciendo el agujero detectado en la Antártida, por lo que en 1987 se firmó el Protocolo de Montreal para restringir el uso de estos compuestos. En la

Electricidad actualidad (2008) todas las máquinas frigoríficas utilizan gases refrigerantes que no perjudican a la capa de ozono.[53] Una máquina frigorífica es un tipo de máquina térmica generadora que transforma algún tipo de energía, habitualmente mecánica, en energía térmica para obtener y mantener en un recinto una temperatura menor a la temperatura exterior. La energía mecánica necesaria puede ser obtenida previamente a partir de otro tipo de energía, como la energía eléctrica mediante un motor eléctrico. Esta transferencia se realiza mediante un fluido frigorígeno o refrigerante, que en distintas partes de la máquina sufre transformaciones de presión, temperatura y fase (líquida o gaseosa); y que es puesto en contacto térmico con los recintos para absorber calor de unas zonas y transferirlo a otras. Una máquina frigorífica debe contener como mínimo los cuatro siguientes elementos: • Compresor: es el elemento que suministra energía al sistema. El refrigerante llega en estado gaseoso al compresor y aumenta su presión. • Condensador: es un intercambiador de calor, en el que se disipa el calor absorbido en el evaporador (más adelante) y la energía del compresor. En el condensador el refrigerante cambia de fase pasando de gas a líquido. • Sistema de expansión: el refrigerante líquido entra en el dispositivo de expansión donde reduce su presión y esta a su vez reduce bruscamente su temperatura. • Evaporador: el refrigerante a baja temperatura y presión pasa por el evaporador, que al igual que el condensador es un intercambiador de temperatura, y absorbe el calor del recinto donde está situado. El refrigerante líquido que entra al evaporador se transforma en gas al absorber el calor del recinto. Tanto en el evaporador como en el condensador la transferencia energética se realiza principalmente en forma de calor latente. Desde el punto de vista económico, el mejor ciclo de refrigeración es aquel que extrae la mayor cantidad de calor (Q2) del foco frío (T2) con el menor trabajo (W). Por ello, se define la eficiencia de una máquina frigorífica como el cociente Q2/W: Eficiencia • Q2: Representa el calor extraído de la máquina frigorífica por los serpentines refrigerantes situados en su interior (congelador). • W: Es el trabajo realizado por el motor que acciona el compresor.

64

Diagrama del ciclo de una bomba térmica simple: 1) condensador, 2) válvula de expansión, 3) evaporador, 4) compresor.

• Q1: Es el calor cedido a los serpentines (o radiador) refrigerantes exteriores (en la parte posterior del aparato y que se elimina al ambiente por una circulación de aire (natural o forzada con auxilio de un ventilador, caso de los aparatos de aire refrigerado). La máquina frigorífica se puede utilizar como calentador (véase Ciclo de Carnot). Para ello, basta con hacer que el foco caliente sea la habitación, T1, y el frío el exterior. Es el principio de funcionamiento de la bomba de calor, que es más ventajosa de utilizar que un caldeo por resistencia eléctrica. Esta doble función de producir frío y calor se utiliza en los equipos modernos de aire acondicionado que se instalan en las viviendas. El ingeniero francés Nicolas Léonard Sadi Carnot fue el primero que abordó el problema del rendimiento de un motor térmico. En España, todas las empresas que se dedican a las actividades relacionadas con máquinas frigoríficas y climatización se encuadran bajo el concepto de frío industrial y los profesionales dedicados a estas tareas reciben el nombre de frigoristas.[54]
Véase también: Ciclo de Carnot

Electricidad

65

Electroimanes
Un electroimán es un tipo de imán en el que el campo magnético se produce mediante el flujo de una corriente eléctrica, desapareciendo en cuanto cesa dicha corriente. Fue inventado por el electricista británico William Sturgeon en 1825. Sturgeon podía regular su electroimán, lo que supuso el principio del uso de la energía eléctrica en máquinas útiles y controlables, estableciendo los cimientos para las comunicaciones electrónicas a gran escala. El tipo más simple de electroimán es un trozo de cable enrollado. Una bobina con forma de tubo recto (parecido a un tornillo) se Electroimán de grandes dimensiones empleado en Fermilab. llama solenoide, y cuando además se curva de forma que los extremos coincidan se denomina toroide. Pueden producirse campos magnéticos mucho más fuertes si se sitúa un «núcleo» de material paramagnético o ferromagnético (normalmente hierro dulce) dentro de la bobina. El núcleo concentra el campo magnético, que puede entonces ser mucho más fuerte que el de la propia bobina. La principal ventaja de un electroimán sobre un imán permanente es que el campo magnético puede ser rápidamente manipulado en un amplio rango controlando la cantidad de corriente eléctrica. Sin embargo, se necesita una fuente continua de energía eléctrica para mantener el campo. En aplicaciones donde no se necesita un campo magnético variable, los imanes permanentes suelen ser superiores. Adicionalmente, éstos pueden ser fabricados para producir campos magnéticos más fuertes que los electroimanes de tamaño similar.[cita requerida] Los electroimanes se usan en muchas situaciones en las que se necesita un campo magnético variable rápida o fácilmente. Muchas de estas aplicaciones implican la deflección de haces de partículas cargadas, como en los casos del tubo de rayos catódicos y el espectrómetro de masa. Los electroimanes son los componentes esenciales de muchos interruptores, siendo usados en los frenos y embragues electromagnéticos de los automóviles. En algunos tranvías, los frenos electromagnéticos se adhieren directamente a los raíles. Se usan electroimanes muy potentes en grúas para levantar pesados bloques de hierro y acero, así como contenedores, y para separar magnéticamente metales en chatarrerías y centros de reciclaje. Los trenes de levitación magnética emplean poderosos electroimanes para flotar sin tocar la pista y así poder ir a grandes velocidades. Algunos trenes usan fuerzas atractivas, mientras otros emplean fuerzas repulsivas. Los electroimanes se usan en los motores eléctricos rotatorios para producir un campo magnético rotatorio y en los motores lineales para producir un campo magnético itinerante que impulse la armadura. Aunque la plata es el mejor conductor de la electricidad, el cobre es el material usado más a menudo debido a su bajo coste. A veces se emplea aluminio para reducir el peso. Calcular la fuerza sobre materiales ferromagnéticos es, en general, bastante complejo. Esto se debe a las líneas de campo de contorno y a las complejas geometrías. Puede simularse usando análisis de elementos finitos. Sin embargo, es posible estimar la fuerza máxima bajo condiciones específicas. Si el campo magnético está confinado dentro de un material de alta permeabilidad, como es el caso de ciertas aleaciones de acero, la fuerza máxima viene dada por:

donde: • F es la fuerza en newtons; • B es el campo magnético en teslas; • A es el área de las caras de los polos en m²; • es la permeabilidad del espacio libre.[55]

Electricidad
Véase también: Motor eléctrico

66

Electroquímica
El área de la química que estudia la conversión entre la energía eléctrica y la energía química es la electroquímica. Los procesos electroquímicos son reacciones redox en donde la energía liberada por una reacción espontánea se transforma en electricidad, o la electricidad se utiliza para inducir una reacción química no espontánea. A este último proceso se le conoce como electrólisis. La palabra electrólisis procede de dos radicales: electro que hace referencia a electricidad, y lisis, que quiere decir ruptura. La electrólisis consiste en la descomposición mediante una corriente eléctrica de sustancias ionizadas denominadas electrolitos. Por ejemplo, en la electrólisis del agua se desprenden oxígeno (O2) e hidrógeno (H2). Las reacciones químicas se dan en la interfase de un conductor eléctrico (llamado electrodo, que puede ser un metal o un semiconductor) y un conductor iónico (el electrolito) pudiendo ser una disolución y en algunos casos especiales, un sólido. Si una reacción química es conducida mediante un voltaje aplicado externamente, se hace referencia a una electrólisis, en cambio, si el voltaje o caída de potencial eléctrico, es creado como consecuencia de la reacción química , se conoce como un "acumulador de energía eléctrica", también llamado batería o celda galvánica.

Diagrama simplificado del proceso de electrólisis.

A finales del siglo XVIII (Ilustración), el anatomista y médico italiano Luigi Galvani marcó el nacimiento de la electroquímica de forma científica al descubrir que al pasar electricidad por las ancas de una rana muerta éstas se contraían, y al tocar ambos extremos de los nervios empleando el mismo escalpelo pero descargado no sucedía nada. Posteriormente, la fabricación de la primera batería de la época moderna fue realizada por Alessandro Volta. Para mediados del siglo XIX, la modelización y estudio de la electroquímica se vieron aclarados por Michael Faraday (leyes de la electrólisis) y John Daniell (pila dependiente solo de iones metálicos zinc-cobre). A partir del siglo XX, la electroquímica permitió el descubrimiento de la carga del electrón por Millikan, y el establecimiento de la moderna teoría de ácidos y bases de Brønsted. Dichas contribuciones han permitido que en la actualidad (2008) la electroquímica se emparente a temas tan diversos que van desde la electroquímica cuántica de Revaz Dogonadze o Rudolph A. Marcus, hasta las celdas fotovoltaicas y la quimioluminiscencia.[56]
Véase también: Electrólisis

Electricidad

67

Electroválvulas
Una electroválvula es un dispositivo diseñado para controlar el flujo de un fluido a través de un conducto como puede ser una tubería. Es de uso muy común en los circuitos hidráulicos y neumáticos de maquinaria e instalaciones industriales. Una electroválvula tiene dos partes fundamentales: el solenoide y la válvula. El solenoide convierte energía eléctrica en energía mecánica para actuar la válvula. Existen varios tipos de electroválvulas. En algunas electroválvulas el solenoide actúa directamente sobre la válvula proporcionando toda la energía necesaria para su movimiento. Es corriente que la válvula se mantenga cerrada por la acción de un muelle y que el solenoide la abra venciendo la fuerza del muelle. También es posible construir electroválvulas biestables que usan un solenoide para abrir la válvula y otro para cerrar o bien un solo solenoide que abre con un impulso y cierra con el siguiente. Las electroválvulas pueden ser cerradas en reposo o normalmente cerradas lo cual quiere decir que cuando falla la alimentación eléctrica quedan cerradas o bien pueden ser del tipo abiertas en reposo o normalmente abiertas que quedan abiertas cuando no hay alimentación.

A- Entrada B- Diafragma C- Cámara de presión D- Conducto de vaciado de presión E- Solenoide F- Salida.

Hay electroválvulas que en lugar de abrir y cerrar lo que hacen es bifurcar o repartir la entrada entre dos salidas. Este tipo de electroválvulas a menudo se usan en los sistemas de calefacción por zonas, lo que permite calentar varias zonas de forma independiente utilizando una sola bomba de circulación. En otro tipo de electroválvula el solenoide no controla la válvula directamente sino que el solenoide controla una válvula piloto secundaria y la energía para la actuación de la válvula principal la suministra la presión del propio fluido.[57]
Véase también: Solenoide

Iluminación y alumbrado
La iluminación o alumbrado público es la acción o efecto de iluminar usando electricidad, vías públicas, monumentos, autopistas, aeropuertos, recintos deportivos, etc., así como la iluminación de las viviendas y especialmente la de los lugares de trabajo cuando las condiciones de luz natural no proporcionan la visibilidad adecuada. En la técnica se refiere al conjunto de lámparas, bombillas, focos, tubos fluorecentes, entre otros, que se instalan para producir la iluminación requerida, tanto a niveles prácticos como decorativos. Con la iluminación se pretende, en primer lugar conseguir un nivel Alumbrado de vías públicas. de iluminación, o iluminancia, adecuado al uso que se quiere dar al espacio iluminado, cuyo nivel dependerá de la tarea que los usuarios hayan de realizar. La iluminación en los centros de trabajo debe prevenir que se produzca fatiga visual, que se ocasiona si los lugares de trabajo y las vías de circulación no disponen de suficiente iluminación, ya sea natural o artificial, adecuada y

Electricidad suficiente durante la noche y cuando no sea suficiente la luz natural.[58] Los locales, los lugares de trabajo y las vías de circulación en los que los trabajadores estén particularmente expuestos a riesgos en caso de avería de la iluminación artificial deben contar con una iluminación de seguridad de intensidad y duración suficiente. La iluminación deficiente ocasiona fatiga visual en los ojos, perjudica el sistema nervioso, degrada la calidad del trabajo y es responsable de una buena parte de los accidentes de trabajo. La fotometría es la ciencia que se encarga de la medida de la luz como el brillo percibido por el ojo humano. Es decir, estudia la capacidad que tiene la radiación electromagnética de estimular el sistema visual. En este ámbito la iluminancia es la cantidad de flujo luminoso emitido por una fuente de luz que incide, atraviesa o emerge de una superficie por unidad de área. Su unidad de medida en el Sistema Internacional de Unidades es el Lux: 1 Lux = 1 Lumen/m². En general, la iluminancia se define según la siguiente expresión:

68

donde: • EV es la iluminancia, medida en luxes. • F es el flujo luminoso, en lúmenes. • dS es el elemento diferencial de área considerado, en metros cuadrados. La siguiente tabla recoge las principales magnitudes fotométricas, su unidad de medida y la magnitud radiométrica asociada:
Magnitud fotométrica Cantidad de luz o energía luminosa Flujo luminoso o potencia luminosa Intensidad luminosa Luminancia Iluminancia Emitancia luminosa Símbolo Unidad lumen•segundo lumen (= cd•sr) candela candela /metro2 lux lux Abreviatura lm•s lm cd cd /m2 lx lx Magnitud radiométrica asociada Energía radiante Flujo radiante o potencia radiante Intensidad radiante Radiancia Irradiancia Emitancia radiante

La candela es una unidad básica del SI. Las restantes unidades fotométricas se pueden derivar de unidades básicas.
Véase también: Lámpara incandescente

Electricidad

69

Producción de calor
El físico británico James Prescott Joule descubrió en la década de 1860 que si en un conductor circula corriente eléctrica, parte de la energía cinética de los electrones se transforma en calor debido al choque que sufren con las moléculas del conductor por el que circulan, elevando la temperatura del mismo. Este efecto es conocido como efecto Joule en honor a su descubridor. Este efecto fue definido de la siguiente manera: "La cantidad de energía calorífica producida por una corriente eléctrica, depende directamente del cuadrado de la intensidad de la corriente, del tiempo que ésta circula por el conductor y de la resistencia que opone el mismo al paso de la corriente". Matemáticamente se expresa como

donde Q es la energía calorífica producida por la corriente;

Un secador de pelo es un ejemplo doméstico del efecto Joule.

I es la intensidad de la corriente que circula y se mide en amperios; R es la resistencia eléctrica del conductor y se mide en ohmios; t es la tiempo el cual se mide en segundos. Así, la potencia disipada por efecto Joule será:

donde V es la diferencia de potencial entre los extremos del conductor. Microscópicamente el efecto Joule se calcula a través de la integral de volumen del campo eléctrico densidad de corriente : por la

La resistencia es el componente que transforma la energía eléctrica en energía calorífica. En este efecto se basa el funcionamiento de los diferentes electrodomésticos que aprovechan el calor en sus prestaciones —braseros, tostadoras, secadores de pelo, calefacciones, etc.— y algunos aparatos empleados industrialmente —soldadores, hornos industriales, etc.— en los que el efecto útil buscado es, precisamente, el calor que desprende el conductor por el paso de la corriente. Sin embargo, en la mayoría de las aplicaciones de la electricidad es un efecto indeseado y la razón por la que los aparatos eléctricos y electrónicos necesitan un ventilador que disipe el calor generado y evite el calentamiento excesivo de los diferentes dispositivos.[59]

Robótica y máquinas CNC
Una de las innovaciones más importantes y trascendentales en la producción de todo tipo de objetos en la segunda mitad del siglo XX ha sido la incorporación de robots, autómatas programables y máquinas guiadas por Control numérico por computadora (CNC) en las cadenas y máquinas de producción, principalmente en tareas relacionadas con la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones tecnológicas han sido viables entre otras cosas por el diseño y construcción de nuevas generaciones de motores eléctricos de corriente continua controlados mediante señales electrónicas de entrada y salida y el giro que pueden tener en ambos sentidos, así como la variación de su velocidad, de acuerdo con las instrucciones contenidas en el programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores eléctricos: motores paso a paso, servomotores o

Electricidad motores encoder, y motores lineales.[60] La robótica es una rama de la tecnología que estudia el diseño y construcción de máquinas capaces de desempeñar tareas repetitivas, tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano o tareas irrealizables sin intervención de una máquina. Las ciencias y tecnologías en las que se basa son, entre otras, el álgebra, los autómatas programables, las máquinas de estados, la mecánica, la electrónica y la informática. Un robot se define como una entidad hecha por el hombre y una conexión de retroalimentación inteligente entre el sentido y la acción directa bajo el control de un ordenador previamente programado con las tareas que tiene que realizar. Las acciones de este tipo de robots son generalmente llevadas a cabo por motores o actuadores que mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov da una versión humanizada a través de su conocida serie de relatos, en los que introduce por primera vez el término robótica con el sentido de disciplina científica encargada de construir y programar robots. Además, este autor plantea que las acciones que desarrolla un robot deben ser dirigidas por una serie de reglas morales, llamadas las Tres leyes de la robótica.[61] Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias, peligrosas, difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la forma de un robot industrial usado en las líneas de producción. Otras aplicaciones incluyen limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y localización de minas terrestres. La manufactura continúa siendo el principal mercado donde los robots son utilizados. En particular, los robots articulados (similares en capacidad de movimiento a un brazo humano) son los más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de maquinaria. La industria automotriz ha tomado gran ventaja de esta nueva tecnología donde los robots han sido programados para reemplazar el trabajo de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un gran avance en los robots dedicados a la medicina que utiliza robots de última generación en procedimientos de cirugía invasiva mínima. La automatización de laboratorios también es un área en crecimiento. Los robots siguen abaratándose y empequeñeciéndose en tamaño, gracias a la miniaturización de los componentes electrónicos que se utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho antes de que sean construidos e interactúen con ambientes físicos reales.

70

Señales luminosas
Se denomina señalización de seguridad al conjunto de señales que, referido a un objeto, actividad o situación determinada, proporcione una indicación o una obligación relativa a la seguridad o la salud en el trabajo mediante una señal en forma de panel, un color, una señal luminosa o acústica, una comunicación verbal o una señal gestual, según proceda.[62] Hay dos tipos de señales luminosas: las que actúan de forma intermitente y las que actúan de forma continuada. Las señales luminosas tienen el siguiente código de colores: • • • • • Rojo: condiciones anormales que precisan de una acción inmediata del operario. Ámbar: atención o advertencia. Verde: máquina dispuesta. Blanco: circuito en tensión. Condiciones normales. Azul: cualquier significado no previsto por los colores anteriores

Cuando se utilice una señal luminosa intermitente, la duración y frecuencia de los destellos deberán permitir la correcta identificación del mensaje, evitando que pueda ser percibida como continua o confundida con otras señales luminosas. Semáforos

Electricidad

71

Un semáforo es un dispositivo eléctrico que regula el tráfico de vehículos y peatones en las intersecciones de vías urbanas que soporten mucho tráfico. También se utilizan semáforos en las vías de trenes para regular el tráfico de convoyes por las vías. El tipo más frecuente tiene tres luces de colores: • Verde, para avanzar • Rojo, para detenerse • Amarillo o ámbar, como paso intermedio del verde a rojo, o precaución si está intermitente. Fue en 1914 cuando se instaló el primer semáforo eléctrico, en Cleveland (Estados Unidos). Contaba con luces rojas y verdes, colocadas sobre unos soportes con forma de brazo y además incorporaba un emisor de zumbidos. Los semáforos han ido evolucionando con el paso del tiempo y actualmente (2008) se están utilizando lámparas a LED para la Semáforo en vía pública. señalización luminosa, puesto que las lámparas de LED utilizan sólo 10% de la energía consumida por las lámparas incandescentes, tienen una vida estimada 50 veces superior, y por tanto generan importantes ahorros de energía y de mantenimiento, satisfaciendo el objetivo de conseguir una mayor fiabilidad y seguridad pública. La óptica de LED está compuesta por una placa de circuito impreso, policarbonato de protección, casquillo roscante E-27, todos estos elementos integrados sobre un soporte cónico. El circuito impreso, policarbonato de protección y envolvente cónica, poseen orificios de ventilación para facilitar la evacuación de calor de su interior.[63]

Telecomunicaciones
El término telecomunicación quedó definido en 1973 por la Unión Internacional de Telecomunicaciones (ITU) en los términos siguientes: "Telecomunicación es toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos".[64] La base matemática sobre la que se apoyan las telecomunicaciones fue desarrollada por el físico inglés James Clerk Maxwell. Maxwell, en el prefacio de su obra Treatise on Electricity and Magnetism (1873), predijo que era posible propagar ondas por el espacio libre utilizando descargas Satélite artificial de comunicaciones. eléctricas, hecho que corroboró Heinrich Hertz en 1887, ocho años después de la muerte de Maxwell, y que, posteriormente, supuso el inicio de la era de la comunicación rápida a distancia. Hertz desarrolló el primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz. Las telecomunicaciones comienzan en la primera mitad del siglo XIX con el telégrafo eléctrico. Más tarde se desarrolló el teléfono, con el que fue posible comunicarse utilizando la voz, y, posteriormente, se produjo la revolución de la comunicación inalámbrica: las ondas de radio. A principios del siglo XX aparece el teletipo que, utilizando el código Baudot, permitía enviar y recibir texto en algo parecido a una máquina de escribir. En 1923 se presentó el primer aparato de televisión, existiendo controversia sobre quién fue el inventor del mismo: Vladimir

Electricidad Kosma Zworykin o Philo Taylor Farnsworth. Ambos hombres estaban trabajando en la creación del aparato de TV al mismo tiempo pero en distintos lugares. Aunque Zworykin consiguió una patente para la televisión en EE.UU. y por ello se le cita habitualmente como el primer inventor, Farnsworth fue capaz de producir primero una verdadera imagen de televisión el 7 de septiembre de 1927.[65] El auge de las telecomunicaciones empieza cuando se sitúan en el espacio los primeros satélites de comunicaciones donde las ondas electromagnéticas se transmiten gracias a la presencia en el espacio de satélites artificiales situados en órbita alrededor de la Tierra. Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales enviadas desde la estación terrestre y las reemite a otro satélite o de vuelta a los receptores terrestres. Los satélites son puestos en órbita mediante cohetes espaciales que los sitúan circundando la Tierra a distancias relativamente cercanas fuera de la atmósfera. Las antenas utilizadas preferentemente en las comunicaciones vía satélite son las antenas parabólicas, que tienen forma de parábola y la particularidad de que las señales que inciden sobre su superficie se reflejan e inciden sobre el foco de la parábola, donde se encuentra el elemento receptor. Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de muchos canales de televisión, el impresionante desarrollo de la telefonía móvil y de Internet. Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU.. En el siglo XXI las telecomunicaciones están evolucionando hacia la interconexión global a través de múltiples dispositivos, cada vez más rápidos, compactos, potentes y multifuncionales. Ya no es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Los hechos ocurridos en un sitio pueden transmitirse a todo el mundo, lo que facilita las comunicaciones, el comercio globalizado y emplear nuevas técnicas de gestión como el método justo a tiempo.

72

Uso doméstico
El uso doméstico de la electricidad se refiere a su empleo en los hogares. Los principales usos son alumbrado, electrodomésticos, calefacción y aire acondicionado. Se está investigando en producir aparatos eléctricos que tengan la mayor eficiencia energética posible, así como es necesario mejorar el acondicionamiento de los hogares en cuanto a aislamiento del exterior para disminuir el consumo de electricidad en el uso de la calefacción o del aire acondicionado, que son los aparatos de mayor consumo eléctrico. Se denominan electrodomésticos a todas las máquinas o aparatos eléctricos que realizan tareas domésticas rutinarias, como pueden ser cocinar, conservar los alimentos o limpiar, tanto para un hogar como para instituciones, comercios o industrias. Los electrodomésticos se clasifican comercialmente en tres grupos:

El empleo de bombillas de bajo consumo supone un ahorro de hasta un 80% de energía respecto a las convencionales.

• La línea marrón hace referencia al conjunto de electrodomésticos de vídeo y audio, tales como televisores, reproductores de música, home cinema, etc. • La línea blanca se refiere a los principales electrodomésticos vinculados a la cocina y limpieza del hogar, tales como cocina, horno, lavadora, frigorífico, lavavajillas, congelador, aire acondicionado, secadora, etc. • Los pequeños electrodomésticos son aparatos eléctricos pequeños que se utilizan para muchas tareas diferentes como las planchas, aspiradoras, estufas, ventiladores, microondas, cafeteras, batidoras, freidoras o depiladoras.

Electricidad En los países de la Unión Europea los fabricantes de electrodomésticos están obligados a etiquetar sus productos con la llamada etiqueta energética, con el fin de contribuir al ahorro energético y a la preservación del medio ambiente. La etiqueta energética es una herramienta informativa que indica la cantidad de energía que consume un electrodoméstico y la eficiencia con que utiliza esa energía, además de otros datos complementarios del aparato. Existen siete clases de etiquetas energéticas que se tipifican, en función de los consumos eléctricos, en diferentes colores y con letras del abecedario de la A (más eficiente) hasta la G (menos eficiente). De esta manera, los usuarios pueden valorar y comparar en el mismo momento de la compra el rendimiento energético de los distintos modelos de un mismo tipo de electrodoméstico. Las comparaciones únicamente se pueden hacer entre electrodomésticos del mismo tipo. Por ejemplo, no es comparable el consumo eléctrico de una lavadora de clase A con el de un lavavajillas de la misma clase, pero sí con el de otra lavadora de clase C. La etiqueta tiene que estar siempre visible en el aparato expuesto. En los casos de ventas por catálogo, por Internet o por cualquier otro medio donde el consumidor no pueda ver los aparatos personalmente también se tienen que incluir las prestaciones energéticas descritas en la etiqueta. Los electrodomésticos que, según la normativa de la Unión Europea, deben llevar obligatoriamente etiqueta energética son los siguientes: frigoríficos, congeladores y aparatos combinados, lavadoras, secadoras y lava-secadoras, lavavajillas, fuentes de luz, aparatos de aire acondicionado, hornos eléctricos, calentadores de agua y otros aparatos que almacenen agua caliente.[66]

73

Uso en la industria
Los principales consumidores de electricidad son las industrias, destacando aquellas que tienen en sus procesos productivos instalados grandes hornos eléctricos, tales como siderúrgicas, cementeras, cerámicas y químicas. También son grandes consumidores los procesos de electrólisis (producción de cloro y aluminio) y las plantas de desalación de agua de mar. En algunos países, por ejemplo España, existen unos contratos de suministro especiales con estos grandes consumidores de electricidad a los que se les concede una tarifa muy baja a cambio de la posibilidad de cortarles el suministro eléctrico (lo que les obliga a un paro técnico), cuando las previsiones meteorológicas prevén olas de calor o de frío intenso, para evitar la saturación del suministro a causa del alto consumo doméstico de aire acondicionado o calefacción. Estos grandes consumidores hacen Diversos tipos de motores eléctricos. también funcionar sus hornos más potentes en horario nocturno cuando la tarifa eléctrica es más reducida. En el caso español, el uso de estas tarifas especiales podría ser prohibido por la Comisión Europea al considerarlas incentivos injustos a costa de los demás usuarios de electricidad.[67] Las industrias también consumen electricidad para suministrar iluminación eléctrica cuando no es posible la iluminación natural, a fin de prevenir que se produzca fatiga visual en los trabajadores, que se ocasiona si los lugares de trabajo y las vías de circulación no disponen de suficiente iluminación, adecuada y suficiente durante la noche.[68] Otro campo general de consumo eléctrico en las empresas lo constituye el dedicado a la activación de las máquinas de climatización tanto de aire acondicionado como de calefacción. El consumo de electricidad de este capítulo puede ser muy elevado si las instalaciones no están construidas de acuerdo con principios ecológicos de ahorro de energía. Asimismo, es de uso industrial la electricidad que se emplea en los diferentes tipos de soldadura eléctrica, procesos de electrólisis, hornos eléctricos industriales utilizados en muchas tareas diferentes, entre otros.

Electricidad Un campo sensible del uso de la electricidad en las empresas o instituciones lo constituyen la alimentación permanente y la tensión constante que deben tener las instalaciones de ordenadores, porque un corte imprevisto de energía eléctrica puede dañar el trabajo que se realiza en el momento del corte. Para evitar estos daños existen unos dispositivos de emergencia que palían de forma momentánea la ausencia de suministro eléctrico en la red.
Véanse también: Electrólisis, Horno eléctrico, Motor eléctrico, Horno, Soldadura y Automatización industrial

74

Uso en el transporte
La electricidad tiene una función determinante en el funcionamiento de todo tipo de vehículos que funcionan con motores de explosión. Para producir la electricidad que necesitan estos vehículos para su funcionamiento llevan incorporado un alternador pequeño que es impulsado mediante una transmisión por polea desde el eje del cigüeñal del motor. Además tienen una batería que sirve de reserva de electricidad para que sea posible el arranque del motor cuando este se encuentra parado, activando el motor de arranque. Los componentes eléctricos más importantes de un vehículo de transporte son los siguientes: alternador, batería, equipo de alumbrado, equipo de encendido, motor de arranque, equipo de señalización y emergencia, instrumentos de control, entre otros.

Vehículos híbridos en Expo 2005.

La sustitución de los motores de explosión por motores eléctricos es un tema aún no resuelto, debido principalmente a la escasa capacidad de las baterías y a la lentitud del proceso de carga así como a su autonomía limitada. Se están realizando avances en el lanzamiento de automóviles híbridos con un doble sistema de funcionamiento: un motor de explosión térmico que carga acumuladores y unos motores eléctricos que impulsan la tracción en las ruedas. Un campo donde ha triunfado plenamente la aplicación de las máquinas eléctricas ha sido el referido al funcionamiento de los ferrocarriles. El proceso de electrificación se ha desarrollado en dos fases. La primera fue la sustitución de las locomotoras que utilizaban carbón por las locomotoras llamadas diésel que utilizaban gasóleo. Las locomotoras diésel-eléctricas consisten básicamente en dos componentes, un motor diésel que mueve un generador eléctrico, y varios motores eléctricos (conocidos como motores de tracción) que comunican a las ruedas la fuerza tractiva que mueve a la locomotora. Los motores de tracción se alimentan con corriente eléctrica y luego, por medio de engranajes, mueven las ruedas. La puesta en servicio de locomotoras eléctricas directas constituyó un avance tecnológico importante. Las locomotoras eléctricas son aquellas que utilizan como fuente de energía la energía eléctrica proveniente de una fuente externa, para aplicarla directamente a motores de tracción eléctricos. Estas locomotoras requieren la instalación de cables de alimentación a lo largo de todo el recorrido, que se sitúan a una altura por encima de los trenes a fin de evitar accidentes. Esta instalación se conoce como catenaria. Las locomotoras toman la electricidad por un trole, que la mayoría de las veces tiene forma de pantógrafo y como tal se conoce. En los años 1980 se integraron como propulsores de vehículos eléctricos ferroviarios los motores asíncronos, y aparecieron los sistemas electrónicos de regulación de potencia que dieron el espaldarazo definitivo a la elección de este tipo de tracción por las compañías ferroviarias. El hito de los trenes eléctricos lo constituyen los llamados trenes de alta velocidad cuyo desarrollo ha sido el siguiente:
Tren de alta velocidad.

Electricidad • En 1964 se inauguró el Shinkansen o tren bala japonés con motivo de los Juegos Olímpicos de Tokio, el primer tren de alta velocidad en utilizar un trazado propio, • En 1979 se instaló en Hamburgo el primer tren de levitación magnética para la Exposición Internacional del Transporte (IVA 79), desarrollando patentes anteriores. Hubo pruebas posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en Japón y China. Se combinan con el sistema de monorraíl. • En 1981 se inauguró la primera línea de Train à Grande Vitesse (Tren de Gran Velocidad), conocido como TGV, un tipo de tren eléctrico de alta velocidad desarrollado por la empresa francesa Alstom. El TGV es uno de los trenes más veloces del mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de mayor velocidad media en un servicio de pasajeros y el de mayor velocidad en condiciones especiales de prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo. A pesar del desarrollo de las locomotoras eléctricas directas, en amplias zonas del planeta se siguen utilizando locomotoras diésel.

75

Uso en la medicina
El 8 de noviembre de 1895, el físico alemán Wilhelm Conrad Röntgen descubrió que, cuando los electrones que se mueven a elevada velocidad chocan con la materia, dan lugar a una forma de radiación altamente penetrante. A esta radiación se le denominó radiación X y su descubrimiento es considerado como uno de los más extraordinarios de la ciencia moderna.[69] Los rayos X han mostrado una gran utilidad en el campo de la Medicina, concretamente en el diagnóstico médico, porque permiten captar estructuras óseas, permitiendo así diagnosticar fracturas o cualquier trastorno óseo.[70] La radiología es la especialidad médica que emplea distintos tipos de radiaciones con fines diagnósticos (detección de enfermedades o dolencias) y terapéuticos (la curación de las mismas). La práctica más extendida es la de los rayos X. En desarrollos posteriores de la radiología se desarrollaron la tomografía axial computarizada TAC y la angiografía.

Imagen radiológica en 3D.

Otras técnicas de imagen médica que no utilizan radiaciones pero sí aparatos eléctricos son la resonancia magnética nuclear (IRM), los ultrasonidos o la ecografía. Para los trastornos coronarios, se utilizan los electrocardiogramas para el diagnóstico y los marcapasos, el corazón artificial y los desfibriladores para el tratamiento. También la neurología y la neurofisiología utilizan equipamientos electrónicos de diagnosis y tratamiento. Asimismo se utiliza láser de alta resolución para intervenciones de lesiones oculares y audífonos para mejorar la audición. Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o (UCI) con equipos electrónicos e informáticos de alta tecnología. La radioterapia utiliza radiaciones ionizantes para tratar el cáncer. Por último, la electricidad ha permitido mejorar los instrumentos y técnicas de análisis clínico, por ejemplo mediante microscopios electrónicos de gran resolución.
Véanse también: Rayos X, Tomografía axial computarizada, Láser, Resonancia magnética nuclear, Electroterapia y

Neurología

Electricidad

76

Electrónica
Electrónica digital
La electrónica es la rama de la física y, fundamentalmente, una especialización de la ingeniería, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente.[71] Mediante el diseño y la construcción de circuitos electrónicos se pueden resolver muchos problemas prácticos. Forma parte de los campos de la ingeniería electrónica, Ingeniería electromecánica y la informática en el diseño de software para su control. Se considera que la electrónica comenzó con el diodo de vacío inventado por Detalle de un circuito integrado. John Ambrose Fleming en 1904. El funcionamiento de este dispositivo está basado en el efecto Edison. Conforme pasaba el tiempo las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos de válvulas. Dentro de los perfeccionamientos de las válvulas se encontraba su miniaturización. Pero fue definitivamente con el transistor, aparecido de la mano de John Bardeen, Walter Houser Brattain y William Bradford Shockley de los Laboratorios Bell Telephone en 1948, cuando se permitió aún una mayor miniaturización de los aparatos. El transistor de unión apareció algo más tarde, en 1949, y es el dispositivo utilizado para la mayoría de las aplicaciones de la electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad, mayor rendimiento energético y menores tensiones de alimentación. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesitan centenares de voltios de tensión para funcionar. En 1958 se desarrolló el primer circuito integrado, que integraba seis transistores en un único chip. En 1970 se desarrolló el primer microprocesador, Intel 4004. En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias ciencias especializadas. La mayor división consiste en distinguir la electrónica analógica de la electrónica digital. La electrónica desarrolla en la actualidad una gran variedad de tareas. Los principales usos de los circuitos electrónicos son el control, el procesado, la distribución de información, la conversión y la distribución de la energía eléctrica. Se puede decir que la electrónica abarca en general las siguientes áreas de aplicación: electrónica de control, telecomunicaciones y electrónica de potencia.[72]

Consumo de energía y eficiencia energética
Los aparatos eléctricos cuando están funcionando generan un consumo de energía eléctrica en función de la potencia que tengan y del tiempo que estén en funcionamiento. En España, el consumo de energía eléctrica se contabiliza mediante un dispositivo precintado que se instala en los accesos a la vivienda, denominado contador, y que cada dos meses revisa un empleado de la compañía suministradora de la electricidad anotando el consumo realizado en ese período. El kilovatio hora (kWh) es la unidad de energía en la que se factura normalmente el consumo doméstico o industrial de electricidad. Equivale a la energía consumida por un aparato eléctrico cuya potencia fuese un kilovatio (kW) y estuviese funcionando durante una hora.

Contador doméstico de electricidad.

Electricidad

77

Ejemplo de factura de consumo de energía eléctrica en un periodo de dos meses (España, 2008)
Concepto Potencia contratada Coste consumo Impuesto electricidad Alquiler de contador Cálculo Valor

5,5 kW x 2 mesesx 1,642355 €/(kW • mes) 18,07 € 966 kWh x 0,091437 €/kWh 106,40 € x 1,05113 x 4,864 % 0,60 €/mes x 2 meses 88.33 € 5,44 € 1,20 € 18,09 € 131,13 €

Impuesto valor añadido (IVA) 16% x suma anterior Total factura

Dado el elevado coste de la energía eléctrica y las dificultades que existen para cubrir la demanda mundial de electricidad y el efecto nocivo para el medio ambiente que supone la producción masiva de electricidad se impone la necesidad de aplicar la máxima eficiencia energética posible en todos los usos que se haga de la energía eléctrica. La eficiencia energética es la relación entre la cantidad de energía consumida de los productos y los beneficios finales obtenidos. Se puede lograr aumentarla mediante la implementación de diversas medidas e inversiones a nivel tecnológico, de gestión y de hábitos culturales en la comunidad.[73]

El refrigerador es el electrodoméstico de los hogares que consume más electricidad, por lo cual se debe hacer un uso racional del mismo para conseguir un buen ahorro.

Salud y electricidad
Se denomina riesgo eléctrico al riesgo originado por la energía eléctrica. Dentro de este tipo de riesgo se incluyen los siguientes:[74] • Choque eléctrico por contacto con elementos en tensión (contacto eléctrico directo), o con masas puestas accidentalmente en tensión (contacto eléctrico indirecto). • Quemaduras por choque eléctrico, o por arco eléctrico. • Caídas o golpes como consecuencia de choque o arco eléctrico. • Incendios o explosiones originados por la electricidad. La corriente eléctrica puede causar efectos inmediatos como quemaduras, calambres o fibrilación, y efectos tardíos como trastornos mentales. Además puede causar efectos indirectos como caídas, golpes o cortes. Los principales factores que influyen en el riesgo eléctrico son:[75] • La intensidad de corriente eléctrica.

Señal de peligro eléctrico.

Electricidad • La duración del contacto eléctrico. • La impedancia del contacto eléctrico, que depende fundamentalmente de la humedad, la superficie de contacto y la tensión y la frecuencia de la tensión aplicada. • La tensión aplicada. En sí misma no es peligrosa pero, si la resistencia es baja, ocasiona el paso de una intensidad elevada y, por tanto, muy peligrosa. La relación entre la intensidad y la tensión no es lineal debido al hecho de que la impedancia del cuerpo humano varía con la tensión de contacto. • Frecuencia de la corriente eléctrica. A mayor frecuencia, la impedancia del cuerpo es menor. Este efecto disminuye al aumentar la tensión eléctrica. • Trayectoria de la corriente a través del cuerpo. Al atravesar órganos vitales, como el corazón, pueden provocarse lesiones muy graves. Los accidentes causados por la electricidad pueden ser leves, graves e incluso mortales. En caso de muerte del accidentado, recibe el nombre de electrocución. En el mundo laboral los empleadores deberán adoptar las medidas necesarias para que de la utilización o presencia de la energía eléctrica en los lugares de trabajo no se deriven riesgos para la salud y seguridad de los trabajadores o, si ello no fuera posible, para que tales riesgos se reduzcan al mínimo.[74]
Véanse también: Descarga electrostática y Radiación no ionizante

78

Electricidad en la naturaleza
Mundo inorgánico
Descargas eléctricas atmosféricas El fenómeno eléctrico más común del mundo inorgánico son las descargas eléctricas atmosféricas denominadas rayos y relámpagos. Debido al rozamiento de las partículas de agua o hielo con el aire, se produce la creciente separación de cargas eléctricas positivas y negativas en las nubes, separación que genera campos eléctricos. Cuando el campo eléctrico resultante excede el de ruptura dieléctrica del medio, se produce una descarga entre dos partes de una nube, entre dos nubes diferentes o entre la parte inferior de una nube y tierra. Esta descarga ioniza el aire por calentamiento y excita transiciones electrónicas moleculares. La brusca dilatación del aire genera el trueno, mientras que el decaimiento de los electrones a sus niveles de equilibrio genera radiación electromagnética, luz. Son de origen similar las centellas y el fuego de San Telmo. Este último es común en los barcos durante las tormentas y es similar al efecto corona que se produce en algunos cables de alta tensión. El daño que producen los rayos a las personas y sus instalaciones puede prevenirse derivando la descarga a tierra, de modo inocuo, mediante pararrayos. Campo magnético terrestre Aunque no se puede verificar experimentalmente, la existencia del campo magnético terrestre se debe casi seguramente a la circulación de cargas en el núcleo externo líquido de la Tierra. La hipótesis de su origen en materiales con magnetización permanente, como el hierro, parece desmentida por la constatación de las inversiones periódicas de su sentido en el transcurso de las eras geológicas, donde el polo norte magnético es remplazado por el sur y viceversa. Medido en tiempos humanos, sin embargo, los polos magnéticos son estables, lo que permite su uso, mediante el antiguo invento chino de la brújula, para la orientación en el mar y en la tierra.

Aurora boreal.

El campo magnético terrestre desvía las partículas cargadas provenientes del Sol (viento solar). Cuando esas partículas chocan con los átomos y moléculas de oxígeno y nitrógeno de la magnetosfera, se produce un efecto

Electricidad fotoeléctrico mediante el cual parte de la energía de la colisión excita los átomos a niveles de energía tales que cuando dejan de estar excitados devuelven esa energía en forma de luz visible. Este fenómeno puede observarse a simple vista en las cercanías de de los polos, en las auroras polares.

79

Mundo orgánico
El bioelectromagnetismo (a veces denominado parcialmente como bioelectricidad o biomagnetismo) es el fenómeno biológico presente en todos los seres vivos, incluidas todas las plantas y los animales, consistente en la producción de campos electromagnéticos (se manifiesten como eléctricos o magnéticos) producidos por la materia viva ( células, tejidos u organismos). Los ejemplos de este fenómeno incluyen el potencial eléctrico de las membranas celulares y las corrientes eléctricas que fluyen en nervios y músculos como consecuencia de su potencial de acción. No debe confundirse con la bioelectromagnética, que se ocupa de los efectos de una fuente externa de electromagnetismo sobre los organismos vivos.
Véanse también: Bioenergética, Electrocito, Electroencefalografía, Electrofisiología, Electromiografía y Potencial de

membrana Impulso nervioso El fenómeno de excitación de los músculos de las patas de una rana, descubierto por Galvani, puso en evidencia la importancia de los fenómenos eléctricos en los organismos vivientes. Aunque inicialmente se pensó que se trataba de una clase especial de electricidad, se verificó gradualmente que estaban en juego las cargas eléctricas usuales de la física. En los organismos con sistema nervioso las neuronas son los canales por los que se trasmiten a los músculos las señales que comandan su contracción y relajación. Las neuronas también transmiten al cerebro las señales de los órganos internos, de la piel y de los transductores que son Grabado antiguo mostrando la excitación del nervio crural de una rana los órganos de los sentidos, señales como dolor, mediante una máquina electrostática. calor, textura, presión, imágenes, sonidos, olores y sabores. Los mecanismos de propagación de las señales por las neuronas, sin embargo, son muy diferentes del de conducción de electrones en los cables eléctricos. Consisten en la modificación de la concentración de iones de sodio y de potasio a ambos lados de una membrana celular. Se generan así diferencias de potencial, variables a lo largo del interior de la neurona, que varían en el tiempo propagándose de un extremo al otro de la misma con altas velocidades.

Electricidad

80

Véase también: Galvanismo

Uso biológico Muchos peces y unos pocos mamíferos tienen la capacidad de detectar la variación de los campos eléctricos en los que están inmersos, entre los que se cuentan los teleostei, las rayas[76] y los ornitorrincos. Esta detección es hecha por neuronas especializadas llamadas neuromastos,[77] que en los gimnótidos están ubicadas en la línea lateral del pez.[78] La localización por medios eléctricos (electrorrecepción) puede ser pasiva o activa. En la localización pasiva el animal sólo detecta la variación de los campos eléctricos circundantes, a los que no genera. Los "peces poco eléctricos" son capaces de generar campos eléctricos débiles a través de órganos y circuitos especiales de neuronas, cuya única función es detectar variaciones del entorno y comunicarse con otros miembros de su especie. Los voltajes generados son inferiores a 1 V y las características de los sistemas de detección y control varían grandemente de especie a especie.[79] Algunos peces, como las anguilas y las rayas eléctricas son capaces de El pez torpedo es uno de los "fuertemente producir grandes descargas eléctricas con fines defensivos u ofensivos, eléctricos". son los llamados peces eléctricos. Estos peces, también llamados "peces fuertemente eléctricos", pueden generar voltajes de hasta 2.000 V y corrientes superiores a 1 A. Entre los peces eléctricos se cuentan los Apteronotidae, Gymnotidae, Electrophoridae, Hypopomidae, Rhamphichthyidae, Sternopygidae, Gymnarchidae, Mormyridae y Malapteruridae.[80]
Véanse también: Magnetorrecepción, Paloma mensajera y Bacteria magnética

Los pequeños hoyos en la cabeza de este lucio contiene neuromastos del sistema de la línea lateral.

Referencias
[1] [2] [3] [4] [5] [6] El pequeño Larousse Ilustrado. Editorial Larousse, S. A.. 2006. ISBN 970-22-1233-2. Enciclopedia ilustrada Cumbre. Mexico:Editorial Cumbre, S. A.. 1958. Gran diccionario enciclopédico siglo xxi. Colombia:Ibalpe Internacional de Ediciones, S. A. DE C.V. 2001. ISBN 958-615-582-X. « Glosario (http:/ / omega. ilce. edu. mx:3000/ sites/ ciencia/ volumen2/ ciencia3/ 107/ htm/ sec_16. htm)». Consultado el 17 de julio de 2008. Varios autores (1984). Enciclopedia de Ciencia y Técnica Tomo 5. Electricidad. Salvat Editores, S. A.. ISBN 84-345-4490-3. Universidad de Perú.. « ¿Qué es la electricidad? (http:/ / www. universidadperu. com/ electricidad-peru. php)». Consultado el 10 de mayo de 2008. [7] Varios autores (1984). Enciclopedia de Ciencia y Técnica Tomo 5 . Electricidad. Salvat Editores S.A. ISBN 84-345-4490-3. [8] Life's Solution: Inevitable Humans in a Lonely Universe, Cambridge University Press, 2003, pp. 182–185, ISBN 0521827043 [9] « Frase muy citada, aquí glosada por [[Slavoj Žižek (http:/ / www. infoamerica. org/ teoria_articulos/ zizek02. htm)], Lenin ciberespacial: ¿por que no?, International Socialism, n.º 95, 2002.]». [10] La web de Física. « Ecuaciones de Maxwell (http:/ / www. lawebdefisica. com/ dicc/ maxwell/ )». Consultado el 11 de mayo de 2008. [11] Profs. Casatroja - Ferreira. « Electrostática (http:/ / www. fisica-facil. com/ Temario/ Electrostatica/ Teorico/ Carga/ centro. htm)». Consultado el 21 de Febrero de 2008. [12] Coulomb, C.A.. Construction et usage d'une balance electrique sur la propriete qu’ont les fils de metal, d’avoir une force de réaction de torsion proportionnelle a l'angle de torsion. Mem. de l’acad. Sci. pags. 569 y 579. 1785. [13] Jackson, J.D.. Classical Electrodynamics. John Wiley & Sons, Inc. 2ª edición. 1975. ISBN 978-0-471-43132-9: [14] Reitz, J. R.; Milford F. J.; Christy, R. W. (1979), Foundations of electromagnetic theory; Addisson-Wesley, Reading (Mass. EE.UU); pp. 125-129 [15] Clerk Maxwell, James (1873). « A Treatise on Electricity and Magnetism (http:/ / en. wikisource. org/ wiki/ A_Treatise_on_Electricity_and_Magnetism)» (en inglés). Consultado el 20 de noviembre de 2007.

Electricidad
[16] Tesla, Nikola (1856–1943). « Obras de Nikola Tesla en Wikisource (http:/ / en. wikisource. org/ wiki/ Author:Nikola_Tesla)» (en inglés). Consultado el 20 de noviembre de 2007. [17] « Diccionario ferroviario (http:/ / fcmaf. castillalamancha. es/ Diccionario/ T. htm)» (2002). Consultado el 24 de julio de 2008. [18] Giordano, José Luis (2006). « El conductor eléctrico, Profísica, Chile. (http:/ / www. profisica. cl/ comofuncionan/ como. php?id=19)». Consultado el 13 de mayo de 2008. [19] « Norma ASTM E1004-02 (http:/ / webstore. ansi. org/ RecordDetail. aspx?sku=ASTM+ E1004-02)». ANSI. Consultado el 4 de mayo de 2008. [20] « Appendix 4 - Types of Copper (http:/ / www. cda. org. uk/ megab2/ elecapps/ pub116/ appen5. htm)» (en inglés). Megabytes on Copper. Copper Development Association. [21] ertec.com py. « Rectificadores de corriente (http:/ / web. archive. org/ web/ 20080914060439/ http:/ / www. sertec. com. py/ telergia/ telergia/ informaciones/ rectificadores_corrientes. html)». Archivado desde el original (http:/ / www. sertec. com. py/ telergia/ telergia/ informaciones/ rectificadores_corrientes. html), el 14/9/2008. Consultado el 8 de julio de 2008. [22] García Alvárez, José Antonio E ¿Qué es la corriente alterna? (http:/ / www. asifunciona. com/ electrotecnia/ ke_corriente_alterna/ ke_corriente_alterna_1. htm) asifunciona.com [23-08-2008] [23] Que es la corriente trifasica (http:/ / www. electroinstalador. com/ informacion/ news/ 2008/ 04/ 24/ nota_tecnica. pdf) electroinstalador.com [27-6-2008] [24] J. F. Nye, Physical properties of crystals, Oxford University Press, 1957, p. 216-218 [25] J. F. Nye (1957). Physical properties of crystals. Oxford University Press. pp. 215-216. [26] EDD (diligencia medioambiental) de proyectos de energías renovables. Guías para los sistemas termosolares. Programa de Medioambiente de las Naciones Unidas (UNEP). (en inglés) (http:/ / www. energy-base. org/ fileadmin/ media/ base/ downloads/ tools_EDD/ edd_solar_thermal. pdf) [27] Impacto ambiental de la energía hidroeléctrica (http:/ / www. consumer. es/ web/ es/ medio_ambiente/ energia_y_ciencia/ 2007/ 03/ 19/ 160873. php) [28] http:/ / www. wwindea. org/ [29] construible.es. « Energía eólica (http:/ / www. construible. es/ noticiasDetalle. aspx?c=19& m=21& idm=158& pat=20& n2=20)». Consultado el 29 de mayo de 2008. [30] El dilema de la energía eólica en la isla Lewis. BBC. (en inglés) (http:/ / news. bbc. co. uk/ nolpda/ ukfs_news/ hi/ newsid_5205000/ 5205430. stm) [31] Los costes ocultos de las turbinas eólicas. NewScientist. (en inglés) (http:/ / www. newscientist. com/ article/ mg19125591. 600) [32] solarweb.net. « Energía solar fotovoltaica (http:/ / www. solarweb. net/ solar-fotovoltaica. php)». Consultado el 29 de mayo de 2008. [33] Aspectos medioambientales de los sistemas fotovoltaicos. IEA PVPS Task 1 Workshop. (1997). (en inglés) (http:/ / www. chem. uu. nl/ nws/ www/ publica/ 97072. htm) [34] Aspectos medioambientales de las células solares (Resumen). E.A. Alsema (1996) para la "Netherlands Agency for Energy and the Environment". (en inglés) (http:/ / www. chem. uu. nl/ nws/ www/ publica/ Publicaties1996/ 96074. pdf) [35] Véase por ejemplo, Francis W. Sears, Electricidad y magnetismo, Editorial Aguilar, Madrid (España), 1958, pp. 142-155. [36] fecyt.es. « Pilas de combustible de hidrógeno Artículo técnico (http:/ / www. fecyt. es/ especiales/ hidrogeno/ descripcion. htm)». Consultado el 30 de mayo de 2008. [37] Libro de Consulta para Evaluación Ambiental (Volumen I; II y III). Trabajos Técnicos del Departamento de Medio Ambiente del Banco Mundial. [38] Red Eléctrica Española. « Transporte de energía eléctrica (http:/ / www. ree. es/ transporte/ transporte. asp)». Consultado el 29 de julio de 2008. [39] El nuevo Reglamento Electrotécnico de Baja Tensión (2002) exige tensiones de distribución en baja tensión de 230/400 V. [40] hezkuntza.ejbv.euskadi.net. « Sistemas de distribución de energía eléctrica (http:/ / www. hezkuntza. ejgv. euskadi. net/ r43-2639/ es/ contenidos/ informacion/ sis_cualif_prof_pv/ es_2020/ adjuntos/ ee233_c. pdf)». Consultado el 30 de julio de 2008. [41] Bureau international des poids et mesures (2006). « cap.2, pág.54 (http:/ / www. bipm. org/ utils/ common/ pdf/ si_brochure_8_fr. pdf)». Le Système international d'unités (8ª edición). ISBN 92-822-2213-6. «Le farad est la capacité d’un condensateur électrique entre les armatures duquel apparaît une différence de potentiel électrique de 1 volt, lorsqu’il est chargé d’une quantité d’électricité égale à 1 coulomb.» [42] pce-iberica.es Catálogo comercial. « Medidores de electricidad (http:/ / www. pce-iberica. es/ Catalogo/ catalogo-electricidad. pdf)». Consultado el 21 de julio de 2008. [43] « Glosario de electrónica (http:/ / www. unicrom. com/ tut_glosarioelectronicaA. asp)». Consultado el 17 de julio de 2008. [44] « Voltimetro Curso técnico (http:/ / web. archive. org/ web/ 20090303123955/ http:/ / 148. 202. 148. 5/ cursos/ 17721/ modulo2/ 2p2/ 2p2. htm)». Archivado desde el original (http:/ / 148. 202. 148. 5/ cursos/ 17721/ modulo2/ 2p2/ 2p2. htm), el 3/3/2009. Consultado el 24 de junio de 2008. [45] PCE Ibérica. « Óhmetro PCE-DM-12 (http:/ / www. pce-iberica. es/ medidor-detalles-tecnicos/ instrumento-de-electricidad/ ohmetro-PCE-DM-12. htm)». Consultado el 11/9/2011. [46] pablin.com.ar. « Analizador de espectro (http:/ / www. pablin. com. ar/ electron/ cursos/ introosc/ index. htm)». Consultado el 21 de julio de 2008. [47] García Alvárez,José Antonio. « Cortocircuito asifunciona.com (http:/ / www. asifunciona. com/ electrotecnia/ af_circuito/ af_circuito_3. htm)». Consultado el 22 de junio de 2008.

81

Electricidad
[48] unicrom.com. « Fusibles (http:/ / www. unicrom. com/ Tut_fusible. asp)». Consultado el 22 de junio de 2008. [49] tuveras.com. « Interruptor magnetotérmico (http:/ / www. tuveras. com/ aparamenta/ magnetotermico. htm)». Consultado el 22 de junio de 2008. [50] eclipse.cl. « Interruptor diferencial (http:/ / www. eclipse. cl/ ei/ instalaciones. htm)». Consultado el 22 de junio de 2008. [51] mtas.es. « Instrucción técnica sobre tomas de tierra (http:/ / www. mtas. es/ insht/ legislation/ RD/ itc_bt_26. htm. )». Consultado el 22 de junio de 2008. [52] sc.ehu.es. « El transformador (http:/ / www. sc. ehu. es/ sbweb/ fisica/ elecmagnet/ induccion/ acoplados/ acoplados. htm)». Consultado el 18 de mayo de 2008. [53] gocisa.es. « Descripción de los frigoríficos (http:/ / www. gocisa. es/ frigorifico. htm)». Consultado el 10 de junio de 2008. [54] Dpto. de Máquinas y Motores Térmicos sc.ehu.es. « Máquina frigorífica (http:/ / www. sc. ehu. es/ nmwmigaj/ maqfrigorifica. htm)». Consultado el 10 de junio de 2008. [55] anser.com.ar.. « Electroimanes (http:/ / web. archive. org/ web/ 20080915081350/ http:/ / www. anser. com. ar/ electroimanes. htm)». Archivado desde el original (http:/ / www. anser. com. ar/ electroimanes. htm), el 15/9/2008. Consultado el 19 de junio de 2008. [56] fisiacanet.com.ar. « Electroquimica, electrólisis y pilas (http:/ / www. fisicanet. com. ar/ monografias/ monograficos2/ es14_electroquimica. php)». Consultado el 25 de junio de 2008. [57] samson.de. « Descripción de una electroválvula (http:/ / www. samson. de/ pdf_in/ t58690es. pdf)». Consultado el 20 de junio de 2008. [58] « Instrucción Técnica Complementaria para Baja Tensión: ITC-BT-28 Instalaciones en locales de pública concurrencia (http:/ / platea. pntic. mec. es/ alabarta/ CVE/ Soporte/ Materiales/ modulo3. pdf)». Consultado el 11/9/2011. [59] Físicanet.com. « Efecto Joule (http:/ / www. fisicanet. com. ar/ fisica/ electrodinamica/ ap02_potencia_electrica. php)». Consultado el 18 de mayo de 2008. [60] Motores para máquinas CNC (http:/ / www. cnc-electronics. com/ motor. html) cnc-electronics.com (Inglés) [23-08-2008] [61] Canalda, José Carlos Leyes de la robótica (http:/ / www. ciencia-ficcion. com/ glosario/ l/ leyelar. htm)ciencia-ficción.com [23-08-2008] [62] Señalización vial (http:/ / www. jfaltasescobar. gov. ar/ senales. htm) jfaltasescobar.gov.ar [23-08-2008] [63] metroight.es. « Semáforos con LED (http:/ / www. metrolight-es. com/ semaforos03. htm)». Consultado el 12 de junio de 2008. [64] Moya Huidoro,José M. « Definición de telecomunicación Sistemas telemáticos ISBN 84-9732-311-4 (http:/ / books. google. com/ books?id=mN5wszBGZEsC& pg=PA74& lpg=PA74& dq=Telecomunicación+ es+ toda+ transmisión,+ emisión+ o+ recepción,+ de+ signos,+ señales,+ escritos,+ imágenes,+ sonidos+ o+ informaciones+ de+ cualquier+ naturaleza+ por+ hilo,+ radioelectricidad,+ medios+ ópticos+ u+ otros+ sistemas+ electromagnéticos". & source=web& ots=uhf6G85fXw& sig=BHTaNsoAiAd_BIj1uJEpdOgByaw& hl=es& sa=X& oi=book_result& resnum=2& ct=result)». Consultado el 15 de julio de 2008. [65] Invención de la televisión (http:/ / www. tech-faq. com/ lang/ es/ who-invented-the-television. shtml& usg=ALkJrhipcaAlZMYkJRbp9LpiJ1Ci353TLg) tech-faq.com [23-08-2008] Página en inglés. [66] WWF. « Etiquetado energético de electrodomésticos (http:/ / web. archive. org/ web/ 20080917200928/ http:/ / topten. wwf. es/ contenidos02. htm)». Archivado desde el original (http:/ / topten. wwf. es/ contenidos02. htm), el 17/9/2008. Consultado el 7 de julio de 2008. [67] Tarifas eléctricas reducidas (http:/ / www. cincodias. com/ articulo/ empresas/ CE/ castiga/ uso/ tarifa/ electrica/ reducida/ industria/ cdscdi/ 20071126cdscdiemp_1/ Tes/ ) cincodías.com [24-08-2008] [68] INSHT Legislación. « Instrucción Técnica Complementaria para Baja Tensión: ITC-BT-28 Instalaciones en locales de pública concurrencia (http:/ / www. mtas. es/ INSHT/ LEGISLATION/ RD/ itc_bt_28. htm)». Consultado el 9 de julio de 2008. [69] « Wilhelm Conrad Röntgen (http:/ / www. historiadelamedicina. org/ Roentgen. html)». Consultado el 17 de julio de 2008. [70] Scoliosis Associates. « Rayos x (http:/ / www. scoliosisassociates. com/ subject. php?pn=rayos-x-029)». Consultado el 17 de julio de 2008. [71] « Definición de electrónica (http:/ / www. definicion. org/ electronica)». [72] González Gómez, Juan (2002). « Circuitos y sistemas digitales (http:/ / www. iearobotics. com/ personal/ juan/ docencia/ apuntes-ssdd-0. 3. 7. pdf)». Universidad Pontificia de Salamanca, Madrid.. Consultado el 24 de mayo de 2008. [73] Agencia chilena de eficiencia energética. « La eficiencia energética (http:/ / www. acee. cl/ 576/ propertyvalue-12850. html)». Consultado el 11/9/2011. [74] Ministerio de la Presidencia, Real Decreto 614/2001, de 8 de junio, sobre disposiciones mínimas para la protección de la salud y seguridad de los trabajadores frente al riesgo eléctrico (http:/ / www. boe. es/ g/ es/ bases_datos/ doc. php?coleccion=iberlex& id=2001/ 11881), BOE n.º 148 de 21-6-2001, España [20-1-2008] [75] Pérez Gabarda, Luis (1995). « NTP 400: Corriente eléctrica: efectos al atravesar el organismo humano (http:/ / www. mtas. es/ insht/ ntp/ ntp_400. htm)». INSHT, Ministerio de Trabajo y Asuntos Sociales, España. Consultado el 21 de Enero de 2008. [76] Kalmijn, A.J. (1966). Electro-perception in sharks and rays. Nature. pp. vol. 212 1232-1233. [77] K. E. Machin y H. W. Lismann (1960). The mode of operation of the electric receptors in Gymnarchus niloticus. Journal of Experimental Biology. pp. vol. 37, pp. 801-811. [78] Losier, Matsubara, B.J, J.A. (1990). Light and Electron Microscopical Studies on the Spherical Neurons in the Electrosensory Lateral Line Lobe of the Gymnotiform Fish. Sternopygus. J. Comp. Neurol.. pp. vol.298 237-249. [79] Véase, por ejemplo, http:/ / www. scholarpedia. org/ article/ Electrolocation. [80] P. Moller (1995). Electric Fishes: History and Behavior. Chapman & Hall, EE. UU.

82

Electricidad

83

Bibliografía
• Jackson, J.D. (1975). Classical Electrodynamics. John Wiley & Sons, Inc. 2ª edición.. ISBN 978-0-471-43132-9. • Feynman, R. y Leighton, R.B. (1987). Física Vol. II: Electromagnetismo y materia. Addison-Wesley Iberoamericana, cop.. ISBN 0-201-06622-X. • Gérardin, Lucien (1968). Bionics. World University Library. ISBN. • Sears, Francis W., Zemansky, Mark W., Young, Hugh D. (2004). Física Universitaria vol. 2 (Electricidad y Magnetismo). Editorial Pearson Educación; Madrid (España). ISBN 970-26-0512-1.

Enlaces externos
• • Wikimedia Commons alberga contenido multimedia sobre ElectricidadCommons. Wikilibros alberga un libro o manual sobre Electricidad. Wikilibros

Webs • Historia de la electricidad (http://www.geocities.com/SiliconValley/Program/7735/) • Museo de la Electricidad de Lisboa (http://minasderiosa.blogspot.com/2008/12/ museu-da-electricidade-lisboa.html) • Tuveras.com, web docente sobre electricidad (http://www.tuveras.com/). • Reglamento Electrotécnico de Baja Tensión REBT (http://www.boe.es/g/es/bases_datos/doc. php?coleccion=iberlex&id=2002/18099) • Historia de la tracción eléctrica (http://gitel.unizar.es/contenidos/cursos/FTE/Web_Ferrocarriles/ INTRODUCCION_HISTORICA(Traccion_electrica).html) consultado el 1 de julio de 2008. • ¿Como usar el multímetro? webelectronica.com (http://www.webelectronica.com.ar/news27/nota07.htm) Vídeos • • • • • Teoría de la electricidad (http://www.youtube.com/watch?v=OzqHAMVz4LY) YouTube Historia de la electricidad (http://www.youtube.com/watch?v=OzqHAMVz4LY) YouTube Ahorro de electricidad (http://www.youtube.com/watch?v=uk4BTDYojkk) YouTube Generación de electricidad (http://www.youtube.com/watch?v=YuoJXBtgxME&feature=related) YouTube Electricidad y magnetismo (http://www.acienciasgalilei.com/videos/3electricidad-mag.htm)

Magnetismo

84

Magnetismo
El magnetismo (del latín magnes, -ētis, imán) es un fenómeno físico por el que los materiales ejercen fuerzas de atracción o repulsión sobre otros materiales. Hay algunos materiales conocidos que han presentado propiedades magnéticas detectables fácilmente como el níquel, hierro, cobalto y sus aleaciones que comúnmente se llaman imanes. Sin embargo todos los materiales son influídos, de mayor o menor forma, por la presencia de un campo magnético. El magnetismo también tiene otras manifestaciones en física, particularmente como uno de los dos componentes de la radiación electromagnética, como por ejemplo, la luz.

Líneas de fuerza magnéticas de un imán de barra, producidas por limaduras de hierro sobre papel.

Breve explicación del magnetismo
Cada electrón es, por su naturaleza, un pequeño imán (véase Momento dipolar magnético electrónico). Ordinariamente, innumerables electrones de un material están orientados aleatoriamente en diferentes direcciones, pero en un imán casi todos los electrones tienden a orientarse en la misma dirección, creando una fuerza magnética grande o pequeña dependiendo del número de electrones que estén orientados. Además del campo magnético intrínseco del electrón, algunas veces hay que contar también con el campo magnético debido al movimiento orbital del electrón alrededor del núcleo. Este efecto es análogo al campo generado por una corriente eléctrica que circula por una bobina (ver dipolo magnético). De nuevo, en general el movimiento de los electrones no da lugar a un campo magnético en el material, pero en ciertas condiciones los movimientos pueden alinearse y producir un campo magnético total medible. El comportamiento magnético de un material depende de la estructura del material y, particularmente, de la configuración electrónica.

Historia
Los fenómenos magnéticos fueron conocidos por los antiguos griegos. Se dice que por primera vez se observaron en la ciudad de Magnesia del Meandro en Asia Menor, de ahí el término magnetismo. Sabían que ciertas piedras atraían el hierro, y que los trocitos de hierro atraídos atraían a su vez a otros. Estas se denominaron imanes naturales.[cita requerida] El primer filósofo que estudió el fenómeno del magnetismo fue Tales de Mileto, filósofo griego que vivió entre 625 a. C. y 545 a. C.[1] En China, la primera referencia a este fenómeno se encuentra en un manuscrito del siglo IV a. C. titulado Libro del amo del valle del diablo: «La magnetita atrae al hierro hacia sí o es atraída por éste».[2] La primera mención sobre la atracción de una aguja aparece en un trabajo realizado entre los años 20 y 100 de nuestra era: «La magnetita atrae a la aguja». El científico Shen Kua (1031-1095) escribió sobre la brújula de aguja magnética y mejoró la precisión en la navegación empleando el concepto astronómico del norte absoluto. Hacia el siglo XII los chinos ya habían desarrollado la técnica lo suficiente como para utilizar la brújula para mejorar la navegación. Alexander Neckham fue el primer europeo en conseguir desarrollar esta técnica en 1187.

Magnetismo El conocimiento del magnetismo se mantuvo limitado a los imanes, hasta que en 1820, Hans Christian Ørsted, profesor de la Universidad de Copenhague, descubrió que un hilo conductor sobre el que circulaba una corriente ejercía una perturbación magnética a su alrededor, que llegaba a poder mover una aguja magnética situada en ese entorno.[3] Muchos otros experimentos siguieron con André-Marie Ampère, Carl Friedrich Gauss, Michael Faraday y otros que encontraron vínculos entre el magnetismo y la electricidad. James Clerk Maxwell sintetizó y explicó estas observaciones en sus ecuaciones de Maxwell. Unificó el magnetismo y la electricidad en un solo campo, el electromagnetismo. En 1905, Einstein usó estas leyes para comprobar su teoría de la relatividad especial,[4] en el proceso mostró que la electricidad y el magnetismo estaban fundamentalmente vinculadas. El electromagnetismo continuó desarrollándose en el siglo XX, siendo incorporado en las teorías más fundamentales, como la teoría de campo de gauge, electrodinámica cuántica, teoría electrodébil y, finalmente, en el modelo estándar.

85

La física del magnetismo
Campos y fuerzas magnéticas
El fenómeno del magnetismo es ejercido por un campo magnético, por ejemplo, una corriente eléctrica o un dipolo magnético crea un campo magnético, éste al girar imparte una fuerza magnética a otras partículas que están en el campo. Para una aproximación excelente (pero ignorando algunos efectos cuánticos, véase electrodinámica cuántica) las ecuaciones de Maxwell (que simplifican la ley de Biot-Savart en el caso de corriente constante) describen el origen y el comportamiento de los campos que gobiernan esas fuerzas. Por lo tanto el magnetismo se observa siempre que partículas cargadas eléctricamente están en movimiento. Por ejemplo, del movimiento de electrones en una corriente eléctrica o en casos del movimiento orbital de los electrones alrededor del núcleo atómico. Estas también aparecen de un dipolo magnético intrínseco que aparece de los efectos cuánticos, p.e. del spin de la mecánica cuántica. La misma situación que crea campos magnéticos (carga en movimiento en una corriente o en un átomo y dipolos magnéticos intrínsecos) son también situaciones en que el campo magnético causa sus efectos creando una fuerza. Cuando una partícula cargada se mueve a través de un campo magnético B, se ejerce una fuerza F dado por el producto cruz:

donde

es la carga eléctrica de la partícula,

es el vector velocidad de la partícula y

es el campo magnético.

Debido a que esto es un producto cruz, la fuerza es perpendicular al movimiento de la partícula y al campo magnético. La fuerza magnética no realiza trabajo mecánico en la partícula, esto cambiaría la dirección del movimiento de ésta, pero esto no causa su aumento o disminución de la velocidad. La magnitud de la fuerza es : donde es el ángulo entre los vectores y .` Una herramienta para determinar la dirección del vector velocidad de una carga en movimiento, es siguiendo la ley de la mano derecha (véase Regla de la mano derecha). El físico alemán Heinrich Lenz formuló lo que ahora se denomina la ley de Lenz, ésta da una dirección de la fuerza electromotriz (fem) y la corriente resultante de una inducción electromagnética.

Magnetismo

86

Dipolos magnéticos
Se puede ver una muy común fuente de campo magnético en la naturaleza, un dipolo. Éste tiene un "polo sur" y un "polo norte", sus nombres se deben a que antes se usaban los magnetos como brújulas, que interactuaban con el campo magnético terrestre para indicar el norte y el sur del globo. Un campo magnético contiene energía y sistemas físicos que se estabilizan con configuraciones de menor energía. Por lo tanto, cuando se encuentra en un campo magnético, un dipolo magnético tiende a alinearse sólo con una polaridad diferente a la del campo, lo que cancela al campo lo máximo posible y disminuye la energía recolectada en el campo al mínimo. Por ejemplo, dos barras magnéticas idénticas pueden estar una a lado de otra normalmente alineadas de norte a sur, resultando en un campo magnético más pequeño y resiste cualquier intento de reorientar todos sus puntos en una misma dirección. La energía requerida para reorientarlos en esa configuración es entonces recolectada en el campo magnético resultante, que es el doble de la magnitud del campo de un magneto individual (esto es porque un magneto usado como brújula interactúa con el campo magnético terrestre para indicar Norte y Sur). Una alternativa formulada, equivalente, que es fácil de aplicar pero ofrece una menor visión, es que un dipolo magnético en un campo magnético experimenta un momento de un par de fuerzas y una fuerza que pueda ser expresada en términos de un campo y de la magnitud del dipolo (p.e. sería el momento magnético dipolar). Para ver estas ecuaciones véase dipolo magnético.

Dipolos magnéticos atómicos
La causa física del magnetismo en los cuerpos, distinto a la corriente eléctrica, es por los dipolos atómicos magnéticos. Dipolos magnéticos o momentos magnéticos, en escala atómica, resultan de dos tipos diferentes del movimiento de electrones. El primero es el movimiento orbital del electrón sobre su núcleo atómico; este movimiento puede ser considerado como una corriente de bucles, resultando en el momento dipolar magnético del orbital. La segunda, más fuerte, fuente de momento electrónico magnético, es debido a las propiedades cuánticas llamadas momento de spin del dipolo magnético (aunque la teoría mecánica cuántica actual dice que los electrones no giran físicamente, ni orbitan el núcleo). El momento magnético general de un átomo es la suma neta de todos los momentos magnéticos de los electrones individuales. Por la tendencia de los dipolos magnéticos a oponerse entre ellos se reduce la energía neta. En un átomo los momentos magnéticos opuestos de algunos pares de electrones se cancelan entre ellos, ambos en un movimiento orbital y en momentos magnéticos de espín. Así, en el caso de un átomo con orbitales electrónicos o suborbitales electrónicos completamente llenos, el momento magnético normalmente se cancela completamente y solo los átomos con orbitales electrónicos semillenos tienen un momento magnético. Su fuerza depende del número de electrones impares. La diferencia en la configuración de los electrones en varios elementos determina la naturaleza y magnitud de los momentos atómicos magnéticos, lo que a su vez determina la diferencia entre las propiedades magnéticas de varios materiales. Existen muchas formas de comportamiento magnético o tipos de magnetismo: el ferromagnetismo, el diamagnetismo y el paramagnetismo; esto se debe precisamente a las propiedades magnéticas de los materiales, por eso se ha estipulado una clasificación respectiva de estos, según su comportamiento ante un campo magnético inducido, como sigue:

Magnetismo Clasificación de los materiales magnéticos
Tipo de material No magnético Características No afecta el paso de las líneas de Campo magnético. Ejemplo: el vacío. Material débilmente magnético. Si se sitúa una barra magnética cerca de él, ésta lo repele. Ejemplo: bismuto (Bi), plata (Ag), plomo (Pb), agua. Presenta un magnetismo significativo. Atraído por la barra magnética. Ejemplo: aire, aluminio (Al), paladio (Pd), magneto molecular. Magnético por excelencia o fuertemente magnético. Atraído por la barra magnética. Paramagnético por encima de la temperatura de Curie (La temperatura de Curie del hierro metálico es aproximadamente unos 770 °C). Ejemplo: hierro (Fe), cobalto (Co), níquel (Ni), acero suave. No magnético aún bajo acción de un campo magnético inducido. Ejemplo: óxido de manganeso (MnO2). Menor grado magnético que los materiales ferromagnéticos. Ejemplo: ferrita de hierro. Materiales ferromagnéticos suspendidos en una matriz dieléctrica. Ejemplo: materiales utilizados en cintas de audio y video. Ferromagnético de baja conductividad eléctrica. Ejemplo: utilizado como núcleo inductores para aplicaciones de corriente alterna.

87

Diamagnético

Paramagnético

Ferromagnético

Antiferromagnético

Ferrimagnético

Superparamagnético

Ferritas

Monopolos magnéticos
Puesto que un imán de barra obtiene su ferromagnetismo de los electrones magneticos microscópicos distribuidos uniformemente a través del imán, cuando un imán es partido a la mitad cada una de las piezas resultantes es un imán más pequeño. Aunque se dice que un imán tiene un polo norte y un polo sur, estos dos polos no pueden separarse el uno del otro. Un monopolo -si tal cosa existe- sería una nueva clase fundamentalmente diferente de objeto magnético. Actuaría como un polo norte aislado, no atado a un polo sur, o viceversa. Los monopolos llevarían "carga magnética" análoga a la carga eléctrica. A pesar de búsquedas sistemáticas a partir de 1931 (como la de 2006), nunca han sido observadas, y muy bien podrían no existir.(ref). Milton menciona algunos eventos no concluyentes (p.60) y aún concluye que "no ha sobrevivido en absoluto ninguna evidencia de monopolos magnéticos".(p.3)

Tipos de materiales magnéticos
Existen diversos tipos de comportamiento de los materiales magnéticos, siendo los principales el ferromagnetismo, el diamagnetismo y el paramagnetismo. En los materiales diamagnéticos, la disposición de los electrones de cada átomo es tal, que se produce una anulación global de los efectos magnéticos. Sin embargo, si el material se introduce en un campo inducido, la sustancia adquiere una imantación débil y en el sentido opuesto al campo inductor. Si se sitúa una barra de material diamagnético en el interior de un campo magnético uniforme e intenso, esta se dispone transversalmente respecto de aquel. Los materiales paramagnéticos no presentan la anulación global de efectos magnéticos, por lo que cada átomo que los constituye actúa como un pequeño imán. Sin embargo, la orientación de dichos imanes es, en general, arbitraria, y el efecto global se anula. Asimismo, si el material paramagnético se somete a la acción de un campo magnético inductor, el campo magnético inducido en dicha sustancia se orienta en el sentido del campo magnético inductor.

Magnetismo Esto hace que una barra de material paramagnético suspendida libremente en el seno de un campo inductor se alinee con este. El magnetismo inducido, aunque débil, es suficiente intenso como para imponer al efecto magnético. Para comparar los tres tipos de magnetismo se emplea la razón entre el campo magnético inducido y el inductor. La rama de la química que estudia las sustancias de propiedades magnéticas interesantes es la magnetoquímica.

88

Electromagnetos
Un electroimán es un imán hecho de alambre eléctrico bobinado en torno a un material magnético como el hierro. Este tipo de imán es útil en los casos en que un imán debe estar encendido o apagado, por ejemplo, las grandes grúas para levantar chatarra de automóviles. Para el caso de corriente eléctrica se desplazan a través de un cable, el campo resultante se dirige de acuerdo con la "regla de la mano derecha." Si la mano derecha se utiliza como un modelo, y el pulgar de la mano derecha a lo largo del cable de positivo hacia el lado negativo ( "convencional actual", a la inversa de la dirección del movimiento real de los electrones), entonces el campo magnético hace una recapitulación de todo el cable en la dirección indicada por los dedos de la mano derecha. Como puede observarse geométricamente, en caso de un bucle o hélice de cable, está formado de tal manera que el actual es viajar en un círculo, a continuación, todas las líneas de campo en el centro del bucle se dirigen a la misma dirección, lo que arroja un 'magnética dipolo ' cuya fuerza depende de la actual en todo el bucle, o el actual en la hélice multiplicado por el número de vueltas de alambre. En el caso de ese bucle, si los dedos de la mano derecha se dirigen en la dirección del flujo de corriente convencional (es decir, el positivo y el negativo, la dirección opuesta al flujo real de los electrones), el pulgar apuntará en la dirección correspondiente al polo norte del dipolo. -->

Magnetos temporales y permanentes
Un imán permanente conserva su magnetismo sin un campo magnético exterior, mientras que un imán temporal sólo es magnético, siempre que esté situado en otro campo magnético. Inducir el magnetismo del acero en los resultados en un imán de hierro, pierde su magnetismo cuando la inducción de campo se retira. Un imán temporal como el hierro es un material adecuado para los electroimanes. Los imanes son hechos por acariciar con otro imán, la grabación, mientras que fija en un campo magnético opuesto dentro de una solenoide bobina, se suministra con una corriente directa. Un imán permanente puede ser la remoción de los imanes de someter a la calefacción, fuertes golpes, o colocarlo dentro de un solenoide se suministra con una reducción de corriente alterna.

Unidades
Unidades del SI relacionadas con el magnetismo
Tesla [T] = unidad de campo magnético. Weber [Wb] = unidad de flujo magnético. Amper [A] = unidad de corriente eléctrica, que genera campos magnéticos.

Otras unidades
• gauss, abreviado como G, es la unidad CGS de inducción magnética (B). • Oersted, es la unidad CGS de campo magnético. • Maxwell, es la unidad CGS de flujo magnético.

Magnetismo

89

Referencias
[1] « Historical Beginnings of Theories of Electricity and Magnetism (http:/ / galileoandeinstein. physics. virginia. edu/ more_stuff/ E& M_Hist. html)» (en inglés). Consultado el 31/05/2007. [2] Li Shu-hua, “Origine de la Boussole 11. Aimant et Boussole,” Isis, Vol. 45, No. 2. (Jul., 1954), p.175 [3] Historia de la física (http:/ / www. mailxmail. com/ curso/ excelencia/ historia_fisica/ capitulo8. htm) [4] A. Einstein: "On the Electrodynamics of Moving Bodies", June 30, 1905. http:/ / www. fourmilab. ch/ etexts/ einstein/ specrel/ www/ . ''

Enlaces externos
• Electromagnetismo: de la ciencia a la tecnología (http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen3/ ciencia3/112/htm/electr.htm) • De la brújula al espín. El magnetismo (http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen2/ciencia3/ 056/htm/brujula.htm)

Electrónica
La electrónica es la rama de la física y especialización de la ingeniería, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente. Utiliza una gran variedad de conocimientos, materiales y dispositivos, desde los semiconductores hasta las válvulas termoiónicas. El diseño y la gran construcción de circuitos electrónicos para resolver problemas prácticos forma parte de la electrónica y de los campos de la ingeniería electrónica, electromecánica y la informática en el diseño de software para su control. El estudio de nuevos dispositivos semiconductores y su tecnología se suele considerar una rama de la física, más concretamente en la rama de ingeniería de materiales.

Detalle de un circuito integrado SMD.

Historia
Se considera que la electrónica comenzó con el diodo de vacío inventado por John Ambrose Fleming en 1904. El funcionamiento de este dispositivo está basado en el efecto Edison. Edison fue el primero que observó en 1883 la emisión termoiónica, al colocar una lámina dentro de una bombilla para evitar el ennegrecimiento que producía en Circuito electrónico sobre una placa para la ampolla de vidrio el filamento de carbón. Cuando se polarizaba prototipos positivamente la lámina metálica respecto al filamento, se producía una pequeña corriente entre el filamento y la lámina. Este hecho se producía porque los electrones de los átomos del filamento, al recibir una gran cantidad de energía en forma de calor, escapaban de la atracción del núcleo (emisión termoiónica) y, atravesando el espacio vacío dentro de la bombilla, eran atraídos por la polaridad positiva de la lámina. El otro gran paso lo dio Lee De Forest cuando inventó el triodo en 1906. Este dispositivo es básicamente como el diodo de vacío, pero se le añadió una rejilla de control situada entre el cátodo y la placa, con el objeto de modificar la nube electrónica del cátodo, variando así la corriente de placa. Este fue un paso muy importante para la fabricación de los primeros amplificadores de sonido, receptores de radio, televisores, etc.

Electrónica Conforme pasaba el tiempo, las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos, como los tetrodos (válvulas de cuatro electrodos), los pentodos (cinco electrodos), otras válvulas para aplicaciones de alta potencia, etc. Dentro de los perfeccionamientos de las válvulas se encontraba su miniaturización. Pero fue definitivamente con el transistor, aparecido de la mano de Bardeen y Brattain, de la Bell Telephone, en 1948, cuando se permitió aún una mayor miniaturización de aparatos tales como las radios. El transistor de unión apareció algo más tarde, en 1949. Este es el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación, etc. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesita centenares de voltios de tensión para funcionar. A pesar de la expansión de los semiconductores, todavía se siguen utilizando las válvulas en pequeños círculos audiófilos, porque constituyen uno de sus mitos[1] más extendidos. El transistor tiene tres terminales (el emisor, la base y el colector) y se asemeja a un triodo: la base sería la rejilla de control, el emisor el cátodo, y el colector la placa. Polarizando adecuadamente estos tres terminales se consigue controlar una gran corriente de colector a partir de una pequeña corriente de base. En 1958 se desarrolló el primer circuito integrado, que alojaba seis transistores en un único chip. En 1970 se desarrolló el primer microprocesador, Intel 4004. En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias disciplinas especializadas. La mayor división es la que distingue la electrónica analógica de la electrónica digital. La electrónica es, por tanto, una de las ramas de la ingeniería con mayor proyección en el futuro, junto con la informática.

90

Aplicaciones de la electrónica
La electrónica desarrolla en la actualidad una gran variedad de tareas. Los principales usos de los circuitos electrónicos son el control, el procesado, la distribución de información, la conversión y la distribución de la energía eléctrica. Estos dos usos implican la creación o la detección de campos electromagnéticos y corrientes eléctricas. Entonces se puede decir que la electrónica abarca en general las siguientes áreas de aplicación: • Electrónica de control • Telecomunicaciones • Electrónica de potencia

Sistemas electrónicos
Un sistema electrónico es un conjunto de circuitos que interactúan entre sí para obtener un resultado. Una forma de entender los sistemas electrónicos consiste en dividirlos en las siguientes partes: 1. Entradas o Inputs – Sensores (o transductores) electrónicos o mecánicos que toman las señales (en forma de temperatura, presión, etc.) del mundo físico y las convierten en señales de corriente o voltaje. Ejemplo: El termopar, la foto resistencia para medir la intensidad de la luz, etc. 2. Circuitos de procesamiento de señales – Consisten en piezas electrónicas conectadas juntas para manipular, interpretar y transformar las señales de voltaje y corriente provenientes de los transductores. 3. Salidas o Outputs – Actuadores u otros dispositivos (también transductores) que convierten las señales de corriente o voltaje en señales físicamente útiles. Por ejemplo: un display que nos registre la temperatura, un foco o sistema de luces que se encienda automáticamente cuando esté oscureciendo. Básicamente son tres etapas: La primera (transductor), la segunda (circuito procesador) y la tercera (circuito actuador).

Electrónica

91

Como ejemplo supongamos un televisor. Su entrada es una señal de difusión recibida por una antena o por un cable. Los circuitos de procesado de señales del interior del televisor extraen la información sobre el brillo, el color y el sonido de esta señal. Los dispositivos de salida son un tubo de rayos catódicos que convierte las señales electrónicas en imágenes visibles en una pantalla y unos altavoces. Otro ejemplo puede ser el de un circuito que ponga de manifiesto la temperatura de un proceso, el transductor puede ser un termocouple, el circuito de procesamiento se encarga de convertir la señal de entrada en un nivel de voltaje (comparador de voltaje o de ventana) en un nivel apropiado y mandar la información decodificándola a un display donde nos dé la temperatura real y si esta excede un límite preprogramado activar un sistema de alarma (circuito actuador) para tomar las medida pertinentes.

Señales electrónicas
Es la representación de un fenómeno físico o estado material a través de una relación establecida; las entradas y salidas de un sistema electrónico serán señales variables. En electrónica se trabaja con variables que toman la forma de Tensión o corriente estas se pueden denominar comúnmente señales.Las señales primordialmente pueden ser de dos tipos: • Variable analógica–Son aquellas que pueden tomar un número infinito de valores comprendidos entre dos límites. La mayoría de los fenómenos de la vida real dan señales de este tipo. (presión, temperatura, etc.) • Variable digital– También llamadas variables discretas, entendiéndose por estas, las variables que pueden tomar un número finito de valores. Por ser de fácil realización los componentes físicos con dos estados diferenciados, es este el número de valores utilizado para dichas variables, que por lo tanto son binarias. Siendo estas variables más fáciles de tratar (en lógica serían los valores V y F) son los que generalmente se utilizan para relacionar varias variables entre sí y con sus estados anteriores.

Tensión
Es la diferencia de potencial generada entre los extremos de un componente o dispositivo eléctrico. También podemos decir que es la energía capaz de poner en movimiento los electrones libres de un conductor o semiconductor. La unidad de este parámetro es el voltio (V). Existen dos tipos de tensión: la continua y la alterna. • Voltaje continuo (VDC) –Es aquel que tiene una polaridad definida, como la que proporcionan las pilas, baterías y fuentes de alimentación. • Voltaje Alterno (VAC) .- –Es aquel cuya polaridad va cambiando o alternando con el transcurso del tiempo. Las fuentes de voltaje alterno más comunes son los generadores y las redes de energía doméstica.

Electrónica

92

Corriente eléctrica
También denominada intensidad, es el flujo de electrones libres a través de un conductor o semiconductor en un sentido. La unidad de medida de este parámetro es el amperio (A). Al igual que existen tensiones continuas o alternas, las intensidades también pueden ser continuas o alternas, dependiendo del tipo de tensión que se utiliza para generar estos flujos de corriente.

Resistencia
Es la propiedad física mediante la cual todos los materiales tienden a oponerse al flujo de la corriente. La unidad de este parámetro es el Ohmio (Ω). No debe confundirse con el componente resistor. La propiedad inversa es la conductancia eléctrica.

Circuitos electrónicos
Se denomina circuito electrónico a una serie de elementos o componentes eléctricos (tales como resistencias, inductancias, condensadores y fuentes) o electrónicos, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas. Los circuitos electrónicos o eléctricos se pueden clasificar de varias maneras:
Por el tipo de información Analógicos Digitales Mixtos Por el tipo de régimen Periódico Transitorio Permanente Por el tipo de señal De corriente continua De corriente alterna Mixtos Por su configuración Serie Paralelo Mixtos

Componentes
Para la síntesis de circuitos electrónicos se utilizan componentes electrónicos e instrumentos electrónicos. A continuación se presenta una lista de los componentes e instrumentos más importantes en la electrónica, seguidos de su uso más común: • • • • • • • Altavoz: reproducción de sonido. Cable: conducción de la electricidad. Conmutador: reencaminar una entrada a una salida elegida entre dos o más. Interruptor: apertura o cierre de circuitos, manualmente. Pila: generador de energía eléctrica. Transductor: transformación de una magnitud física en una eléctrica (ver enlace). Visualizador: muestra de datos o imágenes.

Dispositivos analógicos (algunos ejemplos)
• • • • • • • • • Amplificador operacional: amplificación, regulación, conversión de señal, conmutación. condensador: almacenamiento de energía, filtrado, adaptación impedancias. Diodo: rectificación de señales, regulación, multiplicador de tensión. Diodo Zener: regulación de tensiones. Inductor: adaptación de impedancias. Potenciómetro: variación de la corriente eléctrica o la tensión. Relé: apertura o cierre de circuitos mediante señales de control. Resistor o Resistencia: división de intensidad o tensión, limitación de intensidad. Transistor: amplificación, conmutación.

Electrónica

93

Dispositivos digitales
• • • • Biestable: control de sistemas secuenciales. Memoria: almacenamiento digital de datos. Microcontrolador: control de sistemas digitales. Puerta lógica: control de sistemas combinacionales.

Dispositivos de potencia
• • • • • • DIAC: control de potencia. Fusible: protección contra sobre-intensidades. Tiristor: control de potencia. Transformador: elevar o disminuir tensiones, intensidades, e impedancia aparente. Triac: control de potencia. Varistor: protección contra sobre-tensiones.

Equipos de medición
Los equipos de medición de electrónica se utilizan para crear estímulos y medir el comportamiento de los Dispositivos Bajo Prueba (DUT por sus siglas en inglés).La medición de magnitudes mecánicas, térmicas, eléctricas y químicas se realiza empleando dispositivos denominados sensores y transductores. El sensor es sensible a los cambios de la magnitud a medir, como una temperatura, una posición o una concentración química. El transductor convierte estas mediciones en señales eléctricas, que pueden alimentar a instrumentos de lectura, registro o control de las magnitudes medidas. Los sensores y transductores pueden funcionar en ubicaciones alejadas del observador, así como en entornos inadecuados o impracticables para los seres humanos. Algunos dispositivos actúan de forma simultánea como sensor y transductor. Un termopar consta de dos uniones de diferentes metales que generan una pequeña tensión que depende del diferencial término entre las uniones. El termistor es una resistencia especial, cuyo valor de resistencia varía según la temperatura. Un reóstato variable puede convertir el movimiento mecánico en señal eléctrica. Para medir distancias se emplean condensadores de diseño especial, y para detectar la luz se utilizan fotocélulas. Para medir velocidades, aceleración o flujos de líquidos se recurre a otro tipo de dispositivos. En la mayoría de los casos, la señal eléctrica es débil y debe ser amplificada por un circuito electrónico. A continuación presentamos una lista de los más equipos de medición más importantes: • Galvanómetro: mide el cambio de una determinada magnitud, como la intensidad de corriente o tensión (o voltaje). Se utiliza en la construcción de Amperímetros y Voltímetros analógicos. • Amperímetro y pinza amperimétrica: miden la intensidad de corriente eléctrica. • Óhmetro o puente de Wheatstone: miden la resistencia eléctrica. Cuando la resistencia eléctrica es muy alta (sobre los 1 M-ohm) se utiliza un megóhmetro o medidor de aislamiento. • Voltímetro: mide la tensión. • Multímetro o polímetro: mide las tres magnitudes citadas arriba, además de continuidad eléctrica y el valor B de los transistores (tanto PNP como NPN). • Vatímetro: mide la potencia eléctrica. Está compuesto de un amperímetro y un voltímetro. Dependiendo de la configuración de conexión puede entregar distintas mediciones de potencia eléctrica, como la potencia activa o la potencia reactiva. • Osciloscopio: miden el cambio de la corriente y el voltaje respecto al tiempo. • Analizador lógico: prueba circuitos digitales. • Analizador de espectro: mide la energía espectral de las señales. • Analizador vectorial de señales: como el analizador espectral pero con más funciones de demodulación digital. • Electrómetro: mide la carga eléctrica. • Frecuencímetro o contador de frecuencia: mide la frecuencia.

Electrónica • Reflectómetro de dominio de tiempo (TDR): prueba la integridad de cables largos. • Capacímetro: mide la capacidad eléctrica o capacitancia. • Contador eléctrico: mide la energía eléctrica. Al igual que el vatímetro, puede cofigurarse para medir energía activa (consumida) o energía reactiva.

94

Teoría de la electrónica
• Métodos matemáticos en electrónica • Circuitos digitales • Electrónica analógica

Referencias
[1] Kite, Thomas (2001). « Signal Processing Seminar: Debunking Audio Myths (http:/ / signal. ece. utexas. edu/ seminars/ dsp_seminars/ 01fall/ AudioMyths. pdf)». The Embedded Signal Processing Laboratory - University of Texas at Austin.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Electrónica. Commons Wikilibros • Wikilibros alberga un libro o manual sobre Electrónica. • Asociación de Robótica y Domotica De España A.R.D.E. (http://www.webdearde.com) • Curso de electrónica básica (http://www.circuitoselectronicos.org/2010/03/ videotutoriales-de-electronica-basica.html) • IEEE (http://www.ieee.org/) Instituto de ingenieros eléctricos y electrónicos. • Simbología electrónica (http://www.simbologia-electronica.com/)

Mecánica clásica

95

Mecánica clásica
La mecánica clásica es una formulación de la mecánica para describir mediante leyes el comportamiento de cuerpos físicos macroscópicos en reposo y a velocidades pequeñas comparadas con la velocidad de la luz. Existen varias formulaciones diferentes, de la mecánica clásica para describir un mismo fenómeno natural, que independientemente de los aspectos formales y metodológicos que utilizan llegan a la misma conclusión.

• La mecánica vectorial, deviene directamente de las leyes de Newton, por eso también se le conoce con el gentilicio de newtoniana. Es aplicable a cuerpos que se mueven en relación a un observador a velocidades pequeñas comparadas con la de la luz. Fue construida en un principio para una sola partícula moviéndose en un campo gravitatorio. Se basa en el tratamiento de dos magnitudes vectoriales bajo una relación causal: la fuerza y la acción de la fuerza, medida por la variación del momentum (cantidad de movimiento). El análisis y síntesis de fuerzas y momentos constituye el método básico de la mecánica vectorial. Requiere del uso privilegiado de sistemas de referencia inercial.

El Sistema Solar puede ser explicado con gran aproximación mediante la mecánica clásica, concretamente, mediante las leyes de Newton y la ley de la gravitación universal de Newton. Sólo algunas pequeñas desviaciones en el perihelio de mercurio que fueron descubiertos tardíamente no podían ser explicadas por las teoría de Newton y sólo pudieron ser explicados mediante la teoría de la relatividad general de Einstein.

• La mecánica analítica (analítica en el sentido matemático de la palabra y no filosófico). Sus métodos son poderosos y trascienden de la Mecánica a otros campos de la física. Se puede encontrar el germen de la mecánica analítica en la obra de Leibniz que propone para solucionar los problemas mecánicos otras magnitudes básicas (menos oscuras según Leibniz que la fuerza y el momento de Newton), pero ahora escalares, que son: la energía cinética y el trabajo. Estas magnitudes están relacionadas de forma diferencial. La característica esencial es que, en la formulación, se toman como fundamentos primeros principios generales (diferenciales e integrales), y que a partir de estos principios se obtengan analíticamente las ecuaciones de movimiento.

Mecánica clásica

96

Principios básicos e invariantes
Los presupuestos básicos de la mecánica clásica son los siguientes: 1. El Principio de Hamilton o principio de mínima acción (del cual las leyes de Newton son una consecuencia). 2. La existencia de un tiempo absoluto, cuya medida es igual para cualquier observador con independencia de su grado de movimiento. 3. El estado de una partícula queda completamente determinado si se conoce su cantidad de movimiento y posición siendo estas simultáneamente medibles. Indirectamente, este enunciado puede ser reformulado por el principio de causalidad. En este caso se habla de predictibilidad teóricamente infinita: matemáticamente si en un determinado Trayectoria de una partícula y su posición en función del instante se conocieran (con precisión infinita) las tiempo. posiciones y velocidades de un sistema finito de N partículas teóricamente pueden ser conocidas las posiciones y velocidades futuras, ya que en principio existen las funciones vectoriales que proporcionan las posiciones de las partículas en cualquier instante de tiempo. Estas funciones se obtienen de unas ecuaciones generales denominadas ecuaciones de movimiento que se manifiestan de forma diferencial relacionando magnitudes y sus derivadas. Las funciones se obtienen por integración, una vez conocida la naturaleza física del problema y las condiciones iniciales. Es interesante notar que en mecánica relativista el supuesto (2) es inaceptable aunque sí son aceptables los supuestos (1) y (3). Por otro lado, en mecánica cuántica no es aceptable el supuesto (3) (en la mecánica cuántica relativista ni el supuesto (2) ni el (3) son aceptables). Aunque la mecánica clásica y en particular la mecánica newtoniana es adecuada para describir la experiencia diaria (con eventos que suceden a velocidades muchísimo menores que la velocidad de la luz y a escala macroscópica), debido a la aceptación de estos tres supuestos tan restrictivos como (1), (2) y (3), no puede describir adecuadamente fenómenos electromagnéticos con partículas en rápido movimiento, ni fenómenos físicos microscópicos que suceden a escala atómica. Sin embargo, esto no es un demérito de la teoría ya que la simplicidad de la misma se combina con la adecuación descriptiva para sistemas cotidianos como: cohetes, movimiento de planetas, moléculas orgánicas, trompos, trenes y trayectorias de móviles macroscópicos en general. Para estos sistemas cotidianos es muy complicado siquiera describir su movimientos en términos de la teorías más generales como: • La mecánica relativista, que va más allá de la mecánica clásica y trata con objetos moviéndose a velocidades relativamente cercanas a la velocidad de la luz). En mecánica relativista siguen siendo válido los supuestos básicos 1 y 3 aunque no el 2. • La mecánica cuántica que trata con sistemas de reducidas dimensiones (a escala semejante a la atómica), y la teoría cuántica de campos (ver tb. campo) trata con sistemas que exhiben ambas propiedades. En mecánica cuántica son válidos los supuestos básicos 1 y 2, pero no el 3. Mientras que en teoría cuántica de campos sólo se mantiene el supuesto 1.

Mecánica clásica

97

Mecánica newtoniana
La mecánica newtoniana o mecánica vectorial es una formulación específica de la mecánica clásica que estudia el movimiento de partículas y sólidos en un espacio euclídeo tridimensional. Aunque la teoría es generalizable, la formulación básica de la misma se hace en sistemas de referencia inerciales donde las ecuaciones básicas del movimientos se reducen a las Leyes de Newton, en honor a Isaac Newton quien hizo contribuciones fundamentales a esta teoría. En mecánica vectorial precisamos de tres ecuaciones escalares, o una ecuación vectorial, para el caso más simple de una sola partícula:

y en el caso de sistemas formados por N partículas puntuales, el número de ecuaciones escalares es igual a 3N. En mecánica newtoniana también pueden tratarse los sólidos rígidos mediante una ecuación vectorial para el movimiento de traslación del sólido y otra ecuación vectorial para el movimiento de rotación del sólido:

Estas ecuaciones constituyen la base de partida de la mecánica del sólido rígido.

Mecánica analítica
La mecánica analítica es una formulación más abstracta y general, que permite el uso en igualdad de condiciones de sistemas inerciales o no inerciales sin que, a diferencia de las leyes de Newton, la forma básica de las ecuaciones cambie. La mecánica analítica tiene, básicamente dos formulaciones: la formulación lagrangiana y la formulación hamiltoniana. Las dos llegan básicamente a los mismo resultados físicos, aunque la elección del enfoque puede depender del tipo de problema. El germen de la mecánica analítica puede encontrarse en los trabajos de Leibniz y en la definición de dos magnitudes escalares básicas: la energía cinética y el trabajo. Estas magnitudes están relacionadas de forma diferencial por la ecuación del principio de fuerzas vivas:

Una propiedad notable de este principio es que siendo el movimiento general un fenómeno en varias dimensiones, parece misterioso que con dos magnitudes escalares relacionadas mediante una sola ecuación diferencial, podamos predecir la evolución de los sistemas mecánicos (en la mecánica vectorial precisamos de ecuaciones siendo el número de partículas). Aunque las formulaciones lagrangiana y hamiltoniana son esencialmente equivalentes, siendo más conveniente un enfoque u otro según el objeto del análisis. Formalmente cabe señalar que la mecánica lagrangiana se describe el movimiento de un conjunto de N partículas puntuales mediante coordenadas generales sobre el fibrado tangente del llamado espacio de configuración mediante un sistema de N ecuaciones diferenciales ordinarias de segundo orden. En cambio en mecánica hamiltoniana el movimiento se describe mediante 2N ecuaciones diferenciales de primer orden sobre una variedad simpléctica formada a partir del fibrado tangente mencionado. El conjunto de transformaciones de coordenadas que permitan resolver el problema es más amplio en mecánica hamiltoniana.

Mecánica clásica

98

Mecánica lagrangiana
La mecánica lagrangiana tiene la ventaja de ser suficientemente general como para que las ecuaciones de movimiento sean invariantes respecto a cualquier cambio de coordenadas. Eso permite trabajar con sistema de referencia inerciales o no-inerciales en pie de igualdad. Para un sistema de n grados de libertad, la mecánica lagrangiana proporciona un sistema de n ecuaciones diferenciales ordinarias de segundo orden, llamadas ecuaciones del movimiento que permiten conocer como evolucionará el sistema. La forma explícita de las ecuaciones tiene la forma: (*)

Donde

es la expresión de lagrangiano en el sistema de coordenadas generalizadas . Aunque en general la integración del sistema de ecuaciones (*) no es sencilla,

resulta de gran ayuda reducir el número de coordenadas del problema buscando magnitudes conservadas, es decir, magnitudes que no varían a lo largo del tiempo. Las magnitudes conservadas también se suelen llamar integrales del movimiento y suelen estar asociadas a leyes de conservación comunes. En mecánica lagrangiana existe un modo muy elegante de buscar integrales de movimiento a partir del teorema de Noether. De acuerdo con este teorema cuando un lagrangiano es invariante bajo un grupo de simetría uniparamétrico entonces cualquier generador del álgebra de Lie asociada a ese grupo uniparmétrico es proporcional a una magnitud conservada: • Así cuando un problema físico tiene algún tipo de simetría rotacional, su lagrangiano es invariante bajo algún grupo de rotación y tenemos que se conserva el momento angular. • Cuando un problema físico presenta simetría traslacional, es decir, cuando las fuerzas que actúan sobre un sistema de partículas son idénticas en cualquier posición a lo largo de una línea, tenemos que en esa dirección se conserva el momento lineal. • La ley de conservación de la energía está asociada a una simetría de traslación en el tiempo. Cuando las ecuaciones básicas de un sistema son iguales en todos los instantes del tiempo y los parámetros que determinan el problema no dependen del tiempo, entonces la energía de dicho sistema se conserva. La mecánica lagrangiana puede generalizarse de forma muy abstracta e incluso ser usada en problemas fuera de la física (como en el problema de determinar las geodésicas de una variedad de Riemann). En esa forma abstracta la mecánica lagrangina se construye como un sistema dinámico sobre el fibrado tangente de cierto espacio de configuración aplicándose diversos teoremas y temas de la geometría diferencial.

Mecánica clásica

99

Mecánica hamiltoniana
La mecánica hamiltoniana es similar, en esencia, a la mecánica lagrangiana, aunque describe la evolución temporal de un sistema mediante ecuaciones diferenciales de primer orden, lo cual permite integrar más fácilmente las ecuaciones de movimiento. En su forma canónica las ecuaciones de Hamilton tienen la forma:

Donde H es la hamiltoniano, y

función

de Hamilton o son los pares de

coordenadas canónicas conjugadas del problema. Usualmente las variables tipo qi se interpretan como coordenadas generalizadas de posición y las pi como momentos asociados a las velocidades.

Espacio de fases de un péndulo forzado. El sistema se hace caótico.

Sin embargo, una característica notable de la mecánica hamiltoniana es que trata en pie de igualdad los grados de libertad asociados a la posición y a la velocidad de una partícula. De hecho en mecánica hamiltoniana no podemos distinguir formalmente entre coordenadas generalizadas de posición y coordenadas generaliadas de momento. De hecho se puede hacer un cambio de coordenadas en que las posiciones queden convertidas en momentos y los momentos en posiciones. Como resultado de esta descripción igualitaria entre momentos y posiciones la mecánica hamiltoniana admite transformaciones de coordenadas mucho más generales que la mecánica lagrangiana. Esa mayor libertad en escoger coordenadas generalizadas se traduce en una mayor capacidad para poder integrar las ecuaciones de movimiento y determinar propiedades de las trayectorias de partículas. Una generalización de la mecánica hamiltoniana es la geometría simpléctica, en esa forma la mecánica hamiltoniana es usada para resolver problemas no físicos, incluso para la matemática básica. Algunas generalizaciones y regeneralizaciones de la mecánica hamiltoniana son: • La geometría simpléctica • La geometría de contacto que propiamente es una generalización de la anterior. • La mecánica de Nambu que es una especie de mecánica hamiltoniana con varios hamiltonianos simultáneos.[cita requerida]

Mecánica relativista y mecánica cuántica
La mecánica relativista va más allá de la mecánica clásica y trata con objetos moviéndose a velocidades relativamente cercanas a la velocidad de la luz. En mecánica relativista siguen siendo válido los supuestos básicos 1 y 3 aunque no el 2. La mecánica cuántica trata con sistemas de reducidas dimensiones (a escala semejante a la atómica), y la teoría cuántica de campos (véase también campo) trata con sistemas que exhiben ambas propiedades. En mecánica cuántica son válidos los supuestos básicos 1 y 2, pero no el 3. Mientras que en teoría cuántica de campos sólo se mantiene el supuesto 1.

Mecánica cuántica

100

Mecánica cuántica
La mecánica cuántica[1][2] es una de las ramas principales de la Física, y uno de los más grandes avances del siglo XX para el conocimiento humano; es la que explica el comportamiento de la materia y de la energía. Su aplicación ha hecho posible el descubrimiento y desarrollo de muchas tecnologías, como por ejemplo los transistores, componentes masivamente utilizados en prácticamente cualquier aparato que tenga alguna parte funcional electrónica. La mecánica cuántica describe, en su visión más ortodoxa, cómo cualquier sistema físico, y por lo tanto todo el universo, existe en una diversa y variada multiplicidad de estados, los cuales habiendo sido Imagen ilustrativa de la dualidad onda-partícula, en el cual se puede organizados matemáticamente por los físicos, son ver cómo un mismo fenómeno puede tener dos percepciones denominados autoestados de vector y valor propio. De distintas. esta forma la mecánica cuántica puede explicar y revelar la existencia del átomo y los misterios de la estructura atómica tal como hoy son entendidos; fenómenos que la física clásica, o más propiamente la mecánica clásica, no puede explicar debidamente. De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante la teoría de perturbaciones.[3] La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)[4] y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria. La mecánica cuántica es la base de los estudios del átomo, su núcleo y las partículas elementales (siendo ya necesario el tratamiento relativista), pero también en teoría de la información, criptografía y química. Las técnicas derivadas de la aplicación de la mecánica cuántica suponen, en mayor o menor medida, el 30 por ciento del PIB de los Estados Unidos.[5]

Introducción
La mecánica cuántica es la última de las grandes ramas de la física. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar lo que nos rodea, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría electromagnética generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Pues bien, usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica daba infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos. Es en el seno de la mecánica estadística donde nacen las ideas cuánticas en 1900. Al físico alemán Max Planck se le ocurrió un truco matemático: que si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua se dejaba de obtener un infinito como resultado, con lo que eliminaba el problema y, además, el resultado obtenido concordaba con lo que después era medido. Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de

Mecánica cuántica energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.[6] La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las correspondientes leyes de movimiento con lo que se conoce como teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica. Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo. El siguiente paso importante se dio hacia 1925, cuando Louis de Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, (a la que llamó momentum), y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia», cuya existencia había propuesto de Broglie y varios experimentos sugerían que eran reales. La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

101

Mecánica cuántica

102

Desarrollo histórico
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas anteriores de la mecánica clásica o la electrodinámica: • Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por segundo. • Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y discretos denotados por un número cuántico n=1, 2, 3,... y mismas especies de objetos exhiben un valores definidos de momento angular caracterizados por la notación: s, p, d,... Las comportamiento corpuscular, de áreas brillantes en la figura corresponden a densidades elevadas de probabilidad de partícula, («partícula» quiere decir un encontrar el electrón en dicha posición. objeto que puede ser localizado en una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula. • Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas, en una amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con precisión si se hace referencia a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron algunas de las mayores comprobaciones de la mecánica cuántica. • Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía. • Efecto Compton. El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica y la física de partículas. La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.

Mecánica cuántica

103

Suposiciones más importantes
Las suposiciones más importantes de esta teoría son las siguientes: • Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula queda regido por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias. • Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre un «salto cuántico» hacia un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del estado original). • Existen diferencias perceptibles entre los estados ligados y los que no lo están. • La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados no ligados la energía se comporta como un continuo.

Descripción de la teoría bajo la interpretación de Copenhague
Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda. Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es determinística si sobre el sistema no se realiza ninguna medida aunque esta evolución es estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de Schrödinger. Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al núcleo. Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias o estados propios del observable en cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son descritas por la función de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la

Mecánica cuántica posición observada x. La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida.

104

Formulación matemática
En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable , mientras que la descripción de un sistema sin traslación pero con un espín es el espacio . La evolución temporal de un estado cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central. Cada magnitud observable queda representada por un operador lineal hermítico definido sobre un dominio denso del espacio de estados. Cada estado propio de un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del observable en aquel estado propio. El espectro de un operador puede ser continuo o discreto. La medida de un observable representado por un operador con espectro discreto sólo puede tomar un conjunto numerable de posibles valores, mientras que los operadores con espectro continuo presentan medidas posibles en intervalos reales completos. Durante una medida, la probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectral del operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan.

Relatividad y la mecánica cuántica
El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad general y la mecánica cuántica, aunque ambas teorías parecen contradecirse mutuamente. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del quántum están incuestionablemente apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente. El mismo Einstein es conocido por haber rechazado algunas de las demandas de la mecánica cuántica. A pesar de ser claramente inventivo en su campo, Einstein no aceptó la interpretación ortodoxa de la mecánica cuántica tales como la aserción de que una sola partícula subatómica puede ocupar numerosos espacios al mismo tiempo. Einstein tampoco aceptó las consecuencias de entrelazamiento cuántico aún más exóticas de la paradoja de Einstein-Podolsky-Rosen (o EPR), la cual demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitraria. Sin embargo, este efecto no viola la causalidad, puesto que no hay transferencia posible de información. De hecho, existen teorías cuánticas que incorporan a la relatividad especial —por ejemplo, la electrodinámica cuántica, la cual es actualmente la teoría física más comprobada— y éstas se encuentran en el mismo corazón de la física moderna de partículas.

Mecánica cuántica

105

Referencias
[1] De Broglie (1926): Ondes et mouvements, París, Gauthier-Villars [2] Schrödinger, [Quantisierung als Eigenwertproblem (Erste Mitteilung.)], Ann. Phys., 79, p. 361-376, (1926)1924 & 1926 [3] Cohen-Tannoudji, Claude; Bernard Diu, Franck Laloë (1977). Quantum Mechanics. vol.1 (3ª edición). París, Francia: Hermann. pp. 898. ISBN 0-471-16432-1. [4] Halzen, Francis; D.Martin, Alan. Universidad de Wisconsin. ed. Quarks and Lepons: An Introducory Course in Modern Particle Physics. Universidad de Durham (1ª edición). Canadá: Wiley. pp. 396. ISBN QC793.5.Q2522H34. [5] Cf. Luis Alonso, «Filosofía de la física», Investigación y Ciencia, 405, junio de 2010, págs. 94-96 (94). [6] Vitaliĭ Isaakovich Rydnik (1987). Qué es la mecánica cuántica. Ediciones Quinto Sol. ISBN 37693524.

Bibliografía
• Andrade e Silva, J.; Lochak, Georges (1969). Los cuantos. Ediciones Guadarrama. ISBN 978-84-250-3040-6. • Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX", Cuadernos de Historia Contemporánea, nº 27, 2005, INSS 0214-400-X (http://www.ucm.es/info//hcontemp/leoc/hciencia.htm) • Otero Carvajal, Luis Enrique: "La teoría cuántica y la discontinuidad en la física", Umbral, Facultad de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras (http://www.ucm.es/info/hcontemp/leoc/ la teoria cuantica.pdf) • de la Peña, Luis (2006). Introducción a la mecánica cuántica (3 edición). México DF: Fondo de Cultura Económica. ISBN 968-16-7856-7.

Enlaces externos
• • • • Portal:Física. Contenido relacionado con Física. Wikimedia Commons alberga contenido multimedia sobre Mecánica cuántica. Commons Wikiversidad alberga proyectos de aprendizaje sobre Mecánica cuántica.Wikiversidad Wikiquote alberga frases célebres de o sobre Mecánica cuántica. Wikiquote

Wikilibros • Wikilibros alberga un libro o manual sobre Mecánica cuántica.

• Wikcionario tiene definiciones para Mecánica cuántica.Wikcionario • Introducción a la mecánica cuántica (http://www.nucleares.unam.mx/~vieyra/cuant1.html#intro) • Mecánica de Ondas (pwg.gsfc.nasa.gov) (http://pwg.gsfc.nasa.gov/stargaze/MQ7.htm) • Experimentos sobre Interferencia de Ondas (http://www.maloka.org/f2000/schroedinger/index.html)(Para estudiantes jóvenes) • El Nacimiento de la Mecánica Cuántica (http://inquietudes.wordpress.com/2008/02/23/ el-nacimiento-de-la-mecanica-cuantica/) • Breve Historia de la Física Teórica (http://www.geocities.com/bdsp1626/Fisica.htm) • Frecuencias Cuánticas (http://elcanaldegabriel.wordpress.com/2009/12/14/frecuencias-cuanticas/)

Teoría cuántica de campos

106

Teoría cuántica de campos

Dispersión de neutrones. La dispersión inelástica de neutrones en un cristal es el resultado de la interacción de un neutrón lanzado contra los átomos de la red cristalina en vibración. En teoría cuántica de campos, el proceso se modeliza de manera más sencilla al considerar los cuantos de las ondas sonoras del cristal, los fonones, entendiéndolo como la absorción o emisión de un fonón por el neutrón.

Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas. La teoría cuántica de campos (también denominada teoría de campos cuánticos, TCC[1], o QFT, sigla en inglés de quantum field theory) es una disciplina de la física que aplica los principios de la mecánica cuántica a los sistemas clásicos de campos continuos, como por ejemplo el campo electromagnético. Una consecuencia inmediata de esta teoría es que el comportamiento cuántico de un campo continuo es equivalente al de un sistema de partículas[2] cuyo número no es constante, es decir, que pueden crearse o destruirse.[3] Su principal aplicación es a la física de altas energías, donde se combina con los postulados de la relatividad especial. En ese régimen es capaz de acomodar todas las especies de partículas subatómicas conocidas y sus interacciones, así como de realizar predicciones muy genéricas, como la relación entre espín y estadística, la simetría CPT, la existencia de antimateria, etc.[4] También es una herramienta habitual en el campo de la física de la materia condensada, donde se utiliza para describir las excitaciones colectivas de sistemas de muchas partículas, y explicar fenómenos como la

Teoría cuántica de campos superconductividad, la superfluidez o el efecto Hall cuántico.[5] En particular, la teoría cuántica del campo electromagnético, conocida como electrodinámica cuántica, fue el primer ejemplo de teoría cuántica de campos que se estudió y es la teoría física probada experimentalmente con mayor precisión.[6] Los fundamentos de la teoría de campos cuántica fueron desarrollados entre los años 20 y los años 50, por Dirac, Fock, Pauli, Tomonaga, Schwinger, Feynman, y Dyson, entre otros.

107

Historia

Richard Feynman, Shin'ichirō Tomonaga y Julian Schwinger recibieron el premio Nobel de física en 1965 por el desarrollo de la electrodinámica cuántica. El desarrollo de la teoría cuántica de campos se llevó a cabo simultáneamente con el de la propia mecánica cuántica.[7] Entre 1926 y 1928 se desarrollaron los primeros intentos de encontrar una ecuación de onda relativista, debidos al propio Erwin Schrödinger y a Paul Dirac. Por otro lado, en 1926 Werner Heisenberg, Pascual Jordan y Max Born calcularon el espectro de energías de la radiación en ausencia de cargas —el problema del cuerpo negro—, en el primer ejemplo de teoría cuántica de campos aplicada al campo electromagnético. Esto condujo a una reformulación de las mencionadas ecuaciones de onda relativistas, conocida como segunda cuantización, de forma que pasaron a describir campos en lugar de funciones de onda. Esta reinterpretación fue llevada a cabo por Heisenberg, Wolfgang Pauli, Vladimir Fock, Wendell Furry, Robert Oppenheimer y Victor Weisskopf. A pesar de sus éxitos iniciales, la teoría cuántica de campos tenía problemas teóricos muy serios. El cálculo de muchas cantidades físicas en apariencia diminutas, como las pequeñas correcciones a los niveles energéticos del electrón en el átomo de hidrógeno —la llamada estructura fina—, daba un valor infinito, un resultado sin sentido. Este «problema de las divergencias» se superó durante las décadas de 1930 y 1940 por Julian Schwinger, Freeman Dyson, Richard Feynman y Shin'ichiro Tomonaga entre otros, mediante una técnica conocida como renormalización. Esta etapa culminó con el desarrollo de la moderna electrodinámica cuántica —QED, por Quantum Electrodynamics—. La técnica de los diagramas de Feynman, un procedimiento gráfico de cálculo desarrollado por Richard Feynman, se convirtió en una de las herramientas básicas de la teoría cuántica de campos.

Teoría cuántica de campos En la década de 1950 QED fue generalizada a una clase más general de teorías conocidas como teorías gauge, comenzando con el trabajo de Chen Ning Yang y Robert Mills, .[8]A finales de la década de 1960, Sheldon Glashow, Abdus Salam y Steven Weinberg unificaron las interacciones electromagnética y débil en la teoría electrodébil —una teoría gauge— mediante el concepto de ruptura espontánea de simetría, introducido originariamente para explicar la superconductividad.[9] Sin embargo, no fue hasta la década de 1970 cuando el modelo estándar de la física de partículas quedó establecido. El modelo de unificación electrodébil no recibió especial atención hasta que, en 1971, Gerardus 't Hooft y Martinus Veltman demostraron que las teorías con simetrías espontáneamente rotas podían ser renormalizadas.[10] Por otro lado, la intensidad de las interacciones fuertes entre hadrones fue un desafío para los teóricos de campos hasta el desarrollo del concepto de la libertad asintótica de los quarks por Frank Wilczek, David Gross y Hugh David Politzer en 1973.[11] También durante la década de 1970, la teoría cuántica de campos «rompió los grilletes de los diagramas de Feynman», al descubrirse que las soluciones no perturbativas de las ecuaciones de los campos clásicos juegan un papel crucial a nivel cuántico.[12] Además, la actitud hacia la técnica de la renormalización y hacia la teoría cuántica de campos en general fue cambiando progresivamente, gracias a los avances de —entre otros— Kenneth Wilson en física de la materia condensada. El espíritu «efectivo» de esta disciplina, en la que la descripción total de un sistema es irrealizable, influyó en la física de partículas, proveyendo a la aparición de los infinitos de una interpretación física.[13]

108

Principios básicos
Motivaciones y definición
Limitaciones en la mecánica cuántica La ecuación de Schrödinger, una de las más importantes de la mecánica cuántica, describe la evolución de un sistema cuántico en el tiempo.[14] La forma convencional de esta ecuación es:[15] (1)

donde Ψ(r) ≡ Ψ(r1,...,rn) es la función de onda de n partículas, m su masa, y V su energía potencial. Sin embargo, en esta forma básica, la ecuación de Schrödinger no es capaz de describir algunos aspectos de ciertos sistemas físicos: Creación y destrucción Durante la evolución de este sistema, el número de partículas se mantiene finito e invariable —a saber, n—. Sin embargo, en experimentos de altas energías es corriente que el número de partículas varíe —por ejemplo en la desintegración de un neutrón, o la aniquilación de un electrón y un positrón en fotones—, como consecuencia de la famosa relación masa-energía de la relatividad. Además, en el contexto de física del estado sólido, las excitaciones de un colectivo de átomos se reinterpretan como cuasipartículas, como el fonón,[16] cuyo número es también variable. La ecuación de Schrödinger (1) no es apropiada para describir estos sistemas en el que el número de cuerpos no es fijo.[3][17] Invariancia relativista Esta ecuación no refleja las propiedades de la cinemática relativista. Su límite clásico describe el movimiento de una partícula bajo las leyes de la mecánica galileana, en lugar de la mecánica relativista: el primer término de la izquierda en (1) se corresponde con la energía cinética no relativista p2/2m,[18] en lugar de la expresión relativista (p2c2+m2c4)1/2.[19] Campo clásico

Teoría cuántica de campos Las interacciones entre las n partículas del sistema tienen lugar mediante fuerzas a distancia, dadas por el portencial V. Sin embargo, en la física clásica existen sistemas más generales, que no pueden entenderse mediante este esquema. Es por ejemplo el caso de un conjunto de cargas eléctricas en movimiento: para describir su evolución es necesario tener en cuenta de forma independiente a las propias partículas cargadas, así como también al campo electromagnético que generan.[18] En general, la ecuación (1) no es válida para sistemas de campos continuos. Es posible modificar la ecuación de Schrödinger para hacerla invariante relativista, dando por resultado la ecuación de Klein-Gordon o la ecuación de Dirac. Sin embargo, estas tienen muchas propiedades insatisfactorias: por ejemplo, predicen la existencia de partículas con energía negativa, de modo que el sistema resulta ser inestable.[20] Estos defectos son debidos a que dichas ecuaciones tampoco contemplan la posibilidad de que las partículas puedan crearse o destruirse y, como se menciona en el primer epígrafe, es inconsistente suponer una teoría relativista con un número constante de partículas en interacción.[3][17] Definición de campo cuántico Una teoría cuántica de campos es el resultado de aplicar las reglas de cuantización al sistema de una teoría clásica de campos.[21] Esto permite estudiar los aspectos cuánticos de los campos continuos, como el campo electromagnético. Las reglas de cuantización dictan que un sistema clásico descrito por coordenadas qi pasa a estar descrito por una función de onda Ψ(qi). A cada cantidad observable (como las propias coordenadas qi, los momentos pi, etc.) le corresponde un operador actuando sobre esta función de onda. Esquemáticamente:

109

Cuantización de partículas
Teoría clásica Estado del sistema Coordenadas qi Teoría cuántica Función de onda Ψ(qi)

Cantidades medibles qi, pi, funciones O(qi,pi) Operadores

Una teoría clásica de campos es un tipo particular de sistema clásico, cuyas «coordenadas» son campos: funciones definidas en cada punto del espacio y que evolucionan en el tiempo, φ(r). Las reglas de cuantización dictan que a cada una de estas «coordenadas» le corresponde a su vez un operador.[22] Sin embargo, la cuantización de un campo presenta aspectos singulares. Las reglas de cuantización aplicadas a un campo continuo revelan que sus posibles estados se corresponden, no con una función de onda Ψ(qi), sino con los de un colectivo de partículas idénticas (cuánticas) cuyo número no es necesariamente constante. Esquemáticamente:

Cuantización de campos
Teoría clásica Estado del sistema Funciones φ(r) Teoría cuántica Estados con 0 partículas, 1 partícula Ψ(q), 2 partículas Ψ(q,q'), etc.

Cantidades medibles φ(r), derivadas ∂φ(r), funcionales O(φ(r),∂φ(r)) Operadores

Debido a esta propiedad, la teoría cuántica de campos es la herramienta básica para estudiar sistemas de partículas cuyo número varía —que pueden crearse y destruirse—, como las colisiones relativistas o las cuasipartículas en física del estado sólido.[3][21]

Teoría cuántica de campos

110

Límite continuo. En la aproximación de límite continuo, una cadena de átomos en vibración se modeliza mediante un campo continuo φ(x).

Modos normales. Los modos normales de un sistema físico son sus vibraciones colectivas más simples, como las de esta membrana elástica.

Segunda cuantización. Un sistema de dos osciladores cuánticos es equivalente a un sistema con un número variable de partículas de «dos clases». (Más información)

Teoría cuántica de campos

111

Segunda cuantización
El proceso de aplicar las reglas de cuantización a un campo e identificar sus posibles estados cuánticos con los de un colectivo de partículas se denomina segunda cuantización.[23] Para ello se explota la analogía que existe entre campo y osciladores, teniendo en cuenta los rasgos particulares de estos últimos en mecánica cuántica. Campo versus osciladores
Véanse también: Mecánica de medios continuos y Oscilador armónico cuántico

En mecánica clásica, un campo continuo es equivalente a un conjunto de múltiples osciladores acoplados entre si. El ejemplo habitual para entender esta equivalencia es un sólido elástico. Este sistema puede describirse macroscópicamente mediante, por ejemplo, la densidad o la tensión en cada punto del mismo; cantidades que se representan mediante campos continuos. Por otro lado, también es posible describir el sólido como una red de partículas unidas entre si por «muelles» —o sea, que se ejercen fuerzas elásticas—, lo que conforma un sistema de osciladores acoplados. La primera descripción —el campo y sus ecuaciones— es una aproximación de la segunda —los osciladores— cuando se considera la separación media entre partículas muy pequeña, o de otro modo, en el límite continuo.[24] Esta equivalencia presenta un aspecto importante cuando se examina el comportamiento dinámico del sistema. Visto como un conjunto de osciladores acoplados, las vibraciones (clásicas) de los átomos en el sólido son una superposición de sus modos normales: sus vibraciones colectivas elementales, o «armónicos». Visto como un continuo de materia, las ondas de —por ejemplo— la densidad del sólido son una superposición de ondas planas, las ondas más simples. Cada modo normal o armónico del conjunto de osciladores se corresponde con una cierta onda plana del campo en el límite continuo.
Osciladores acoplados Límite continuo Dinámica en términos de: Modos normales Límite continuo Dinámica en términos de: Ondas planas Campo continuo

Existen campos clásicos que no se corresponden con el límite clásico de ningún sistema mecánico, como por ejemplo el campo electromagnético. Sin embargo, la analogía matemática de sus ecuaciones con las de un sistema de osciladores «abstractos» sigue siendo válida.[25] Las características propias del campo cuántico aparecen al explotar en mecánica cuántica esta equivalencia entre osciladores y campo. La energía de un oscilador armónico cuántico está cuantizada, de modo que sólo puede ser un múltiplo de su frecuencia ω:[26]

ℏ es la constante de Planck y N = 0, 1, 2, ... es un número entero no negativo. En un sistema de osciladores cuánticos acoplados la energía también está discretizada, y es la suma de la energía de cada modo normal, visto como un oscilador independiente: (2) donde cada ωmodo i es la frecuencia de un modo normal y cada Nmodo i = 0, 1, 2, ... el nivel de excitación de dicho modo. Sin embargo, esta energía es la misma que tendría un sistema de múltiples partículas si los posibles valores para su energía fueran los ℏωmodo i, y el número de partículas en cada uno de esos niveles de energía fuera precisamente Nmodo i. El número de estas «cuasipartículas» depende de la manera precisa en la que vibre el conjunto de osciladores —de los Nmodo i—. Esta igualdad no es sólo matemática: las propiedades de ambos estados son idénticas, aunque describen sistemas distintos. En resumen, las vibraciones de un conjunto de osciladores cuánticos acoplados se

Teoría cuántica de campos comportan como partículas cuánticas de número variable. En el caso particular de un sólido elástico, a estas cuasipartículas se las denomina fonones. Este razonamiento también se aplica en el caso de un campo cuántico. Sus ecuaciones son un límite de las ecuaciones de un sistema de osciladores, abstractos o no. Al descomponer el campo en ondas planas, su energía viene dada por la ecuación (2), y sus posibles estados se corresponden con un colectivo de partículas de número variable.[27] Espacio de Fock El espacio de estados del sistema de partículas obtenido a partir del campo cuántico se denomina un espacio de Fock.[28] Un estado de este sistema queda especificado por el número de partículas en cada nivel de energía ℏωmodo i o, de manera equivalente, por el número cuántico Nmodo i de cada modo normal en la ecuación (2); los llamados números de ocupación.[29] Esto se denota de manera más compacta como:
Estados del sistema:

112

Por ejemplo, en el caso de cuatro partículas, en los estados 1.º, 2.º, 2.º y 4.º, el estado total del sistema se describe como |1, 2, 0, 1, 0, ...〉, especificando: una partícula en el primer estado, dos en el segundo, ninguna en el tercero, una en el cuarto, ninguna en el quinto, etc. Al estado sin ninguna partícula |0〉 ≡ |0, 0, 0, ...〉, en el que todos los niveles de energía están desocupados, se le denomina el vacío.[30] Un rasgo importante de la cuantización del campo es que las partículas obtenidas son indistinguibles. Por ejemplo, dado el estado |1, 1, 0, 0, ...〉, donde una partícula está en el 1.er nivel de energía y otra en el 2.º, al intercambiar dichas partículas no se obtiene un estado distinto: sigue habiendo una partícula en el nivel 1 y otra en el nivel 2. Además, no hay límite al número de partículas en cada nivel, ya que los números cuánticos Nmodo i pueden ser arbitrariamente grandes. Esto significa que las partículas del sistema son bosónicas.[31] Para trabajar con un sistema de fermiones, es necesario modificar el formalismo.

Dinámica del campo cuántico
Campo cuántico libre La analogía entre osciladores y campo de la segunda cuantización se aplica directamente en el proceso de cuantización de un campo libre, aquel cuyas ecuaciones de campo son lineales. La equivalencia con un sistema de osciladores armónicos acoplados es exacta, y la energía del campo viene dada por la ecuación (2): es la suma de la energía de cada partícula individual. Puesto que no hay contribuciones adicionales, las partículas son libres y no interaccionan entre sí, de ahí el nombre de campo libre.[32] Como consecuencia de la ausencia de interacción, el número de dichas partículas permanece constante.[33] Existen sutilezas a tener en cuenta dependiendo del tipo de campo involucrado, o en el caso fermiónico, aunque el proceso y resultados básicos son los mismos.[34] Fermiones Las excitaciones de un campo toman la forma de un conjunto de bosones, visto este como el límite clásico de un conjunto de osciladores. Sin embargo, existen multitud de partículas llamadas fermiones que respetan el principio de exclusión de Pauli, como el electrón y el protón. Este formalismo de segunda cuantización «intuitivo» no es capaz de describir un conjunto de fermiones, cuyos números de ocupación solo pueden valer 0 o 1.[29] La razón por la que aparece la estadística bosónica puede rastrearse hasta las reglas de cuantización utilizadas. Existen unas leyes de conmutación canónicas propias de todo sistema cuántico, que especifican el comportamiento del operador campo y su momento conjugado π(r):

Teoría cuántica de campos Estas relaciones de conmutación implican que los estados cuánticos son simétricos y corresponden a bosones, mientras que los estados de múltiples fermiones deberían ser antisimétricos. Por ello, para obtener un sistema de fermiones cuantizando un campo ψ se imponen reglas «con el signo incorrecto», es decir, de anti-conmutación:[35]

113

La elección de este signo —y con él, la estadística de las partículas resultantes— no es arbitraria, sino que existe una relación entre el espín y la estadística. Espín y estadística
Véase también: Teorema espín-estadística

La teoría de campos concreta que es cuantizada determina las propiedades de las partículas que aparecen como sus modos normales. En particular, el tipo de campo determina el espín de las mismas. Algunos ejemplos son:[36] • Un campo escalar que obedece la ecuación de Klein-Gordon resulta en una teoría de bosones de espín 0, como ciertos mesones. • Un campo espinorial que obedece la ecuación de Dirac resulta en una teoría de fermiones de espín 1/2, como los electrones o los protones. • Las ecuaciones del campo electromagnético —un campo vectorial— producen una teoría de bosones de espín 1, los fotones. Estas teorías de campos son relativistas: sus ecuaciones correspondientes respetan la simetría Lorentz. Las partículas que aparecen en la versión cuántica de dichas teorías también lo son: se rigen por la cinemática relativista. De este modo, una teoría cuántica de campos es capaz de describir la dinámica de partículas (cuánticas) de acuerdo con la relatividad especial. Las teorías cuánticas de campos no relativistas también se utilizan: es el caso por ejemplo de la teoría de los fonones. Estos ejemplos respetan la relación empírica que existe entre el espín y la estadística de las partículas: el espín de un bosón (fermión) toma siempre valores enteros (semienteros). Si se intenta la cuantización de un campo escogiendo la estadística contraria —por ejemplo cuantizando el campo escalar con reglas de anticonmutación, intentando obtener fermiones; o viceversa para el campo espinorial— se obtienen resultados físicamente inconsistentes.[37] Puede probrarse que esto es general: en teoría cuántica de campos esta relación entre espín y estadística se demuestra como consecuencia directa de la unión entre mecánica cuántica y relatividad especial, el llamado teorema espín-estadística.[38] Algunas de estas teorías de campos fueron investigadas inicialmente como ecuaciones de Schrödinger relativistas para un cuerpo, sin éxito. Esto motivó el nombre de segunda cuantización: los campos a los que se aplicaban las reglas de cuantización eran funciones de onda, obtenidas a su vez de aplicar esas reglas a una partícula puntual.[39] Campo cuántico en interacción Si la teoría de campos que se cuantiza es no lineal, las partículas que se obtienen interaccionan entre sí. En estas teorías las ecuaciones del campo son no lineales, involucrando productos de campos entre sí. De otro modo, el hamiltoniano[40] de dicho campo es a su vez no cuadrático: involucra productos de tres o más campos.[41] La gran mayoría de las teorías con interés para la física incluyen términos de interacción. La expresión siguiente para Hint proporciona diversos ejemplos:

• La interacción de Yukawa describe las fuerzas entre nucleones —neutrones y protones, campo Ψ— mediadas por mesones (piones de hecho, campo φ).[42] El término de interacción es proporcional a φΨΨ.

Teoría cuántica de campos • El campo de Higgs es un hipotético mediador entre todas las partículas elementales en el modelo estándar. Viene representado por Φ y un bosón de espín 0 asociado. Los propios bosones de Higgs interaccionan entre sí, con un término dado por Φ4. • La electrodinámica cuántica es la teoría cuántica que describe la interacción entre radiación —fotones, campo Aμ— y fermiones cargados —como electrones o quarks, descritos por un campo espinorial ψ—. El término de interacción es de la forma Aψψ. Acompañando a cada producto de campos, hay una constante numérica, llamada constante de acoplo, que calibra lo intensa que es la interacción.[43] Por ejemplo, en el tercer término, e es la carga eléctrica del electrón.[42] Para el cálculo de observables, como probabilidades de scattering en un experimento de física de partículas, en general no se conoce como tratar estos términos de forma exacta y se trabaja con ellos de manera perturbativa, mediante diagramas de Feynman.[44] En una teoría de campos en interacción el número de partículas puede variar, lo que permite describir sistemas en los que el número de partículas presentes varía. Esto es debido a la presencia de los términos no cuadráticos: necesariamente contienen productos de operadores destrucción y creación en un número descompensado.[45] Otra consecuencia de la interacción entre campos cuánticos es la presencia de antipartículas: si las partículas de un cierto sistema interaccionan entre sí y poseen alguna carga cuyo valor se conserva —como la carga eléctrica o la carga de color—, para poder describirlo mediante una teoría cuántica de campos es necesario asumir la existencia de una «copia» para cada partícula, con idéntica masa pero carga opuesta.[46]

114

Enfoques alternativos
Véanse también: Teoría cuántica de campos axiomática y Teoría cuántica de campos en espacio-tiempo curvo

La descripción de la teoría cuántica de campos como la cuantización canónica de un campo y la subsecuente asociación a un sistema de partículas de número indeterminado es uno de los enfoques mayoritarios para «definirla». Sin embargo existen otras maneras de presentar y estudiar la teoría. El formalismo de la integral de caminos es equivalente a la cuantización canónica, y puede tomarse como postulado inicial.[47] Otra posibilidad, en el contexto de la física de altas energías, es derivar las leyes más generales posibles que aunen mecánica cuántica y relatividad especial, para describir el comportamiento de las partículas subatómicas. Estas leyes necesariamente toman la forma de una teoría cuántica de campos.[48] Ambas posibilidades son complementarias en cuanto a lo que consideran inicialmente más fundamental: el campo o las partículas. Desde un punto de vista matemático, la teoría cuántica de campos no posee el mismo nivel de rigor que la mecánica cuántica más elemental. Esto ha motivado el interés de estudiarla con un enfoque formal o axiomático, intentando encontrar estructuras matemáticas completamente rigurosas que capturen sus características principales.[49] El caso particular del campo de Yang-Mills constituye el enunciado de uno de los problemas del milenio. Existen también generalizaciones de la teoría cuántica de campos en distintos contextos. La teoría de campos a temperatura finita describe procesos termodinámicos con creación y destrucción de partículas, e incorpora modificaciones similares a las de la física estadística cuántica. La teoría cuántica de campos en espacio-tiempo curvo es el formalismo necesario para describir el campo cuántico en presencia de gravedad.

Teoría cuántica de campos

115

Aspectos clave
Diagramas de Feynman
Los experimentos de física de altas energías involucran habitualmente colisiones de partículas a altas velocidades.[50] La teoría cuántica de campos permite calcular los detalles de dichas colisiones, a partir de la probabilidad[51] M de que estas ocurran:

Esta expresión relaciona la probabilidad de encontrar las partículas
[52]

tras la colisión, partiendo de las partículas

, en términos de S, la llamada matriz de scattering: un operador que recoge la evolución del sistema durante el experimento. Este operador puede obtenerse mediante un desarrollo perturbativo, en términos del hamiltoniano de interacción:[53] , donde se ha escrito explícitamente la constante de acoplo g. Este desarrollo supone que la interacción es débil o pequeña, frente a la probabilidad de no interacción. Los diagramas (o reglas) de Feynman son una técnica para calcular dicha probabilidad de manera gráfica. Estos diagramas representan todos las posibles «versiones» subyacentes a un proceso dado: las partículas en interacción emiten o absorben un cierto número de partículas virtuales, que median las fuerzas entre ellas. Estos procesos virtuales ocurren debido a la incertidumbre inherente a una teoría cuántica. La energía necesaria para la aparición de estas partículas virtuales proviene de la relación de incertidumbre entre energía y tiempo: , de modo que estas «existen» por muy poco tiempo. En realidad, las partículas virtuales son sólo una abstracción y no pueden detectarse. El proceso físico real —la colisión— se entiende como una suma de todos estos procesos virtuales.[54][21] Por ejemplo, en el estudio de la dispersión Compton de un electrón por un fotón en electrodinámica cuántica (QED), la amplitud cuántica viene dada por: (3)

En estos diagramas, las líneas curvadas son fotones y las líneas rectas, electrones. El estado inicial y final son las líneas externas, iguales en todos los diagramas, puesto que todos corresponden al mismo experimento. La propagación de partículas se representa mediante líneas internas, y la emisión o absorción de un fotón por un electrón mediante vértices. Utilizando estos elementos, pueden escribirse todos los (infinitos) diagramas que contribuyen a este experimento. La exactitud del cálculo aumenta con el número de vértices, que es igual a la potencia de la constante de acoplo en el desarrollo perturbativo. Así, los dos primeros diagramas del miembro derecho son proporcionales a e2 y el siguiente, a e4, donde e, la carga del electrón, es la constante de acoplo en QED.[54] Las distintas versiones de la dispersión Compton pueden leerse «cronológicamente» en cada diagrama del miembro derecho de izquierda a derecha: en el primer diagrama, el electrón absorbe el fotón incidente y más tarde emite el fotón saliente; en el segundo, el electrón emite el fotón final y más tarde absorbe el fotón inicial; etc. Los diagramas de Feynman son más que una técnica de cálculo, sino que constituyen la «piedra angular de la física de partículas».[55] Se consideran tan o más relevantes incluso que la propia teoría cuántica de campos de la que surgen, pues en ellos se reflejan los principios físicos subyacentes más importantes, y son la herramienta básica para

Teoría cuántica de campos analizar las colisiones relativistas.[56] Sin embargo, existen numerosos fenómenos en teoría cuántica de campos que no pueden ser analizados como una perturbación, como el confinamiento en QCD, o las soluciones no perturbativas.

116

Métodos funcionales. Soluciones no perturbativas
Véase también: Integral de caminos (mecánica cuántica)

El formalismo de integral de caminos de la mecánica cuántica es un conjunto de reglas de cuantización alternativo que ofrece los mismos resultados que la cuantización canónica ordinaria. En este formalismo, todas las posibles trayectorias clásicas contribuyen a las amplitudes cuánticas: (4) En esta expresión, 〈x t|x' t'〉 es la probabilidad[51] de que la partícula se propague de x a x' entre los instantes t y t'; γ es una posible trayectoria entre dichos puntos del espacio-tiempo; y S[γ] es la acción de la partícula, un funcional [57] de la trayectoria que determina las ecuaciones de movimiento clásicas. En teoría cuántica de campos en particular, el formalismo de integral de caminos se usa habitualmente, permitiendo calcular la probabilidad de un proceso como una suma de las contribuciones de cada posible configuración del campo clásico.[58] La integral de caminos ofrece una serie de ventajas a la hora de obtener las reglas de Feynman y analizar las simetrías del sistema de forma directa, así como para aprovechar las analogías de la teoría cuántica de campos con la física estadística. Además, resulta indispensable para el análisis de las soluciones no perturbativas de la misma.[59] El desarrollo perturbativo utilizado en las teorías de campos en interacción —por ejemplo, a la hora de calcular diagramas de Feynman— se basa en corregir las soluciones más triviales —las de campo libre—, considerando los términos de interacción como una perturbación pequeña comparada con estas. Sin embargo, en algunas teorías existen soluciones no perturbativas: soluciones de las ecuaciones de campo en las que las correcciones de la interacción no son pequeñas, y que no pueden ser aproximadas a través del citado desarrollo perturbativo. Todas las configuraciones clásicas del campo contribuyen a las amplitudes cuánticas, como se deduce de (7), luego dichas soluciones se han de tener en consideración.[59] Existen muchas clases de soluciones no perturbativas con diferentes efectos físicos:[60] • Los solitones u ondas solitarias son soluciones de ecuaciones de ondas no lineales que se propagan sin alterar su forma. Una teoría de campos con soluciones solitónicas presenta dos tipos de partículas al ser cuantizada: aquellas asociadas con sus modos normales —las mencionadas «soluciones triviales corregidas»—; y aquellas asociadas a las soluciones solitónicas, cuyas masas en general dependen de manera no analítica de las masas y constantes de acoplo del campo, como por ejemplo MS = m / g.[61] Esto implica en particular que en el régimen de interacción débil —g pequeño— la masa del solitón es grande comparada con la de las partículas ordinarias —ya que 1 / g es grande—. • Los instantones son soluciones de la versión euclídea de unas ecuaciones de campo dadas —en las que la variable tiempo se sustituye por una coordenada espacial adicional— localizadas alrededor de un punto. Vistas desde el punto de vista de la teoría original dichas soluciones están concentradas alrededor de un evento —un punto del espacio-tiempo—, de ahí su nombre. Los instantones son responsables de multitud de efectos como ciertas anomalías axiales, confinamiento en algunos modelos sencillos o la (ausente) violación de CP en la cromodinámica cuántica.

Teoría cuántica de campos

117

Polarización del vacío. La presencia de una carga eléctrica desnuda (divergente) polariza el vacío, con lo que los pares virtuales partícula-antipartícula la apantallan, resultando en una carga física finita.[62]

Modelo de Ising. La renormalización permite examinar sistemas físicos a distintas escalas de energía. En la imagen, los distintos dipolos en el modelo de Ising pueden agruparse de manera efectiva en «bloques», que interaccionan entre sí en una versión renormalizada del sistema inicial. Otros ejemplos incluyen monopolos magnéticos, vortex lines, domain walls, skyrmiones, etc.

Renormalización
En las aplicaciones tempranas de la teoría cuántica de campos se constató que el cálculo de ciertas cantidades en este formalismo arroja un valor infinito. Este resultado aparece a menudo al aumentar la precisión de un cálculo cualquiera, más allá del orden más bajo de aproximación en la serie perturbativa.[63] Por ejemplo, el tercer diagrama de la dispersión Compton, mostrado en (3), es divergente: su valor es infinito.[64] La renormalización es un método que se desarrolló para extraer de estas divergencias las cantidades finitas susceptibles de medirse experimentalmente. La solución del problema pasa por reconocer que en los cálculos perturbativos se extrapola la teoría a distancias arbitrariamente cortas (o equivalentemente, a energías arbitrariamente altas),[65] de ahí el nombre de «divergencias ultravioletas». Por ejemplo, el tercer diagrama de la dispersión Compton en (3) contiene una «porción» denominada la auto-energía del electrón Σ, dada por:

en la que un fotón virtual es emitido y reabsorbido por un electrón. Sumar sobre todas las versiones virtuales de la dispersión Compton implica sumar la contribución de cada diagrama pero además, en este en particular, sumar sobre todos los posibles valores de energía y momento del fotón virtual, mediante la expresión: (5) ,

que es sencillamente divergente.[64] Al identificar dicha extrapolación como la fuente del resultado infinito, se puede examinar qué parte del mismo corresponde verdaderamente a la cantidad física, cuyo valor es necesariamente finito.

Teoría cuántica de campos En particular los infinitos desaparecen al considerar que deben «absorberse» en los parámetros de la teoría. En el ejemplo de la auto-energía Σ, el proceso es el siguiente. Primero, se pasa a utilizar una teoría regularizada, una versión «falsa» de la teoría original pero libre de divergencias, cuyos resultados sólo pueden ser una aproximación de los «auténticos». En esta teoría regularizada se hace patente que las constantes m0 y e0 de la ecuación (5), la masa y la carga del campo, no se corresponden con la masa y la carga del electrón. Es decir, la presencia de la interacción establece una diferencia entre los parámetros físicos de las partículas y los parámetros desnudos del campo utilizados en los cálculos. Establecida la relación entre ellos, puede reescribirse la fórmula (5) en términos de los verdaderos parámetros físicos, y se comprueba entonces que es finita.[66] Este proceso posee además cierta ambigüedad. La sustracción de dos cantidades divergentes para obtener una diferencia finita no determina por completo esta última, sino que depende de la definición de los parámetros físicos que se adopte. Para ello existe más de un criterio posible, como por ejemplo expresar los resultados en función no de la carga eléctrica e, sino de la «carga efectiva a una energía dada», e(E). Estos parámetros «alternativos» son «constantes que corren»,[67] es decir, que varían con la energía, y ofrecen ciertas ventajas a la hora de realizar cálculos en distintas escalas de energía. Esta técnica, llamada grupo de renormalización,[68] no sólo es de utilidad práctica, sino que aporta una visión nueva del papel de las divergencias y de la teoría de campos en general. Así, la renormalización puede ser entendida como el proceso de aislar los grados de libertad relevantes para un proceso físico, ignorando contribuciones demasiado «lejanas» en energía.[69] El proceso de absober los infinitos en los parámetros de una teoría no puede llevarse a cabo siempre. Las teorías para las que esto sí es posible son llamadas renormalizables, como por ejemplo las interacciones del modelo estándar. La interacción gravitatoria, sin embargo, es un ejemplo de teoría no renormalizable: para reabsorber todos sus infinitos hace falta considerar un número infinito de parámetros. Las teorías no renormalizables tienen menos poder de predicción, pero aún así se utilizan a menudo como teorías efectivas.[70]

118

Teorías gauge
Una teoría gauge es una teoría cuántica de campos con una cierta estructura que mimetiza la de la electrodinámica cuántica (o QED). QED es la versión cuántica de la electrodinámica clásica, que describe la interacción entre cargas eléctricas y radiación. En QED, las cargas eléctricas interaccionan mediante el intercambio de fotones, los cuantos del campo electromagnético. Las ecuaciones clásicas de la electrodinámica poseen una propiedad denominada invariancia gauge,[71] de forma que de cada solución para el potencial electromagnético Aμ se puede obtener otra, Aμ + ∂μρ, sin más que añadir el gradiente de una función arbitraria, ρ(t,x). Sin embargo todos estos potenciales distintos corresponden a un único campo electromagnético. A esta propiedad se la denomina una simetría local, ya que la transformación de las soluciones varía según el punto del espacio-tiempo —segun el valor de ρ—, y es indispensable a la hora de aplicar las reglas de cuantización de forma consistente y obtener QED.[72]

Cromodinámica cuántica como teoría gauge. Cada tipo de quark (u o d en la imagen) posee tres «copias» de distinto «color». Los gluones actúan como bosón intermediario entre partículas con color (como un fotón entre partículas con carga eléctrica).

Una teoría gauge no abeliana es una versión más general de QED. En una teoría gauge no abeliana, una serie de partículas poseen múltiples cargas: cantidades que, como la carga eléctrica, se mantienen constantes. Estas partículas cargadas interaccionan entre sí mediante el intercambio de varios bosones gauge intermediarios —parecidos al fotón—. Sin embargo, en el caso no abeliano, los bosones intermediarios también poseen carga e interaccionan entre

Teoría cuántica de campos sí —a diferencia del caso de QED, donde el fotón no está cargado eléctricamente y no interacciona consigo mismo—. Los bosones gauge son no masivos en general, aunque el fenómeno de ruptura espontánea de simetría puede dotarlos de masa. Las teorías gauge no abelianas se obtienen cuantizando las ecuaciones de un campo de Yang-Mills Aμa.[73] Estas son similares a las del campo electromagnético, aunque más complejas —son no lineales—, y también tienen una propiedad de invariancia gauge parecida a la de las ecuaciones de Maxwell. Un ejemplo de teoría gauge no abeliana es la cromodinámica cuántica (véase imagen). Las teorías gauge son una parte esencial de la formulación del modelo estándar de las partículas fundamentales, que es precisamente una teoría gauge basada en tres grupos de simetría. A nivel cuántico poseen rasgos únicos que las hacen interesantes, como el confinamiento y la libertad asintótica en algunos casos, o la ausencia de bosones de Goldstone en una ruptura espontánea de simetría. La relatividad general puede ser entendida también como una teoría gauge, asociada a la conservación de la energía y el momento.

119

Simetrías. Ruptura espontánea y anomalías

Simetrías aproximadas. Suponiendo que las masas de los tres quarks u, d y s son iguales, existe una simetría de sabor que clasifica (entre otros) los bariones ligeros —el protón, el neutrón y otros, como el Σ— de acuerdo al diagrama superior. Dichos quarks tienen masas diferentes, luego la simetría no es perfecta: estos bariones respetan dicha clasificación pero presentan también diferencias de masa.

Anomalías. La simetría aproximada mencionada arriba «impide» la desintegración de un pion en fotones. Como es sólo aproximada, se esperaba que la desintegración de hecho tuviera lugar, aunque lentamente; y sin embargo en los años 60 se constató que ocurría 1000 veces más rápido de lo previsto. Esto condujo al descubrimiento de las anomalías, pues la simetría (aproximada) que prohíbe este proceso en realidad no existe a nivel cuántico.[74] Las simetrías tienen un papel fundamental en la física. Si las ecuaciones de movimiento de un sistema son invariantes bajo un cierto grupo de transformaciones, una consecuencia general es la existencia de cantidades conservadas. En teoría cuántica de campos las simetrías son también una herramienta crucial. En una teoría relativista, la invariancia Lorentz determina las posibles especies de partículas en función de su masa y espín. Las simetrías bajo transformaciones internas —como un cambio de fase o una transformación unitaria de los campos— implican la conservación de cantidades como la carga eléctrica, el isoespín, la carga de color, etc. Incluso cuando una simetría no es exacta —las ecuaciones sí cambian bajo sus transformaciones—, puede ser útil asumirla como cierta dentro de cierto rango de aproximación adecuado, si con eso se consigue un entendimiento cualitativo de algún fenómeno.[75] Es el caso por ejemplo de la conservación del sabor en las colisiones a altas energías. Además de simetrías exactas y aproximadas, pueden darse otras dos posibilidades de interés: ruptura espontánea de simetría y anomalías. El fenómeno de la ruptura espontánea de simetría[76] es común a todos los sistemas cuánticos con infinitos grados de libertad, como la teoría cuántica de campos.[77] Una simetría espontáneamente rota es aquella que, siendo exacta, sus efectos no son evidentes, puesto que los estados de mínima energía del sistema no son invariantes bajo dicha

Teoría cuántica de campos simetría. Su presencia se manifiesta indirectamente por la aparición de unas partículas conocidas como bosones de Goldstone; o por la presencia de bosones gauge masivos, si la simetría involucrada es una simetría local —si es la simetría asociada con una teoría gauge—. • Un ejemplo común es un material ferromagnético: por debajo de cierta temperatura, la magnetización del material apunta en una determinada dirección en el espacio. Aunque las leyes físicas involucradas son invariantes bajo rotaciones, para adoptar un estado de mínima energía es necesario que la magnetización de cada dominio apunte en una misma dirección. En este sistema se producen excitaciones colectivas conocidas como magnones u ondas de espín, que se corresponden con los bosones de Goldstone de la simetría espontáneamente rota.[78] • La ruptura espontánea de simetría tiene un papel crucial en el modelo estándar de la física de partículas, a través del mecanismo de Higgs, una «pieza» de dicho modelo. La fuerza electrodébil parece explicarse con facilidad mediante una teoría gauge, cuya simetría correspondiente prohíbe que las partículas con carga débil sean masivas, cuando de hecho lo son. Estas masas no nulas son análogas a la dirección de la magnetización de un material ferromagnético: corresponden al valor a baja energía del postulado campo de Higgs. En particular, los bosones W± y Z0, intermediarios de la interacción débil, son también masivos. Las anomalías son violaciones de una simetría en un sistema cuántico, el cual se obtuvo cuantizando un sistema clásico que sí poseía esta simetría. Son muy frecuentes en las teorías cuánticas de campos pues, como parte del proceso de renormalización, estas han de ser regularizadas para lidiar con sus resultados infinitos. Este paso intermedio en general viola las simetrías de la teoría, y no siempre es posible restablecerlas en la teoría renormalizada.[79] • La llamada anomalía conforme ocurre de forma habitual,[80] en teorías que clásicamente son invariantes bajo dilataciones: es decir, cuyo comportamiento es el mismo independientemente de las distancias físicas involucradas, o de las energías.[65] En general esta simetría no permanece en la teoría cuántica, donde la intensidad de las fuerzas varía con la energía. • La anomalía denominada axial está relacionada con los números cuánticos conservados en el sistema. Por ejemplo, en la «versión clásica» del modelo estándar, tanto el número leptónico como el número bariónico son cargas conservadas.[81] Sin embargo, se demuestra que existen fenómenos no perturbativos que permiten una variación de ambos números.[82] Las anomalías pueden representar una inconsistencia en la teoría si afectan a una simetría gauge, dado que estas son fundamentales para eliminar grados de libertad no físicos del sistema.[79] Simetrías discretas. CPT Algunas simetrías discretas tienen un papel especial en teoría cuántica de campos, en particular en el contexto de la física de partículas, debido al descubrimiento de que algunas interacciones fundamentales no respetan la paridad ni la conjugación de carga. Esto significa que se comportan de manera diferente «vistas en un espejo», o cambiado cada partícula por su antipartícula correspondiente. Estas simetrías está relacionadas con la simetría de inversión temporal —que determina el comportamiento de las interacciones al cambiar la dirección del tiempo— a través del denominado teorema CPT, que asegura que la combinación de las tres operaciones deja inalterado cualquier sistema relativista cuántico.[83]

120

Teoría cuántica de campos

121

Aplicaciones
Física de altas energías
En el ámbito de la física de altas energías se estudian los componentes elementales de la materia y sus interacciones. Para ello es necesario utilizar una gran cantidad de energía en relación al número de partículas involucradas y así descomponer la materia. En este régimen, es inevitable el uso de una teoría cuántica de campos para dar cuenta de la cinemática relativista de las partículas. En la actualidad, la teoría denominada modelo estándar recoge los fenómenos conocidos a escala subatómica. Esta teoría clasifica todos los constituyentes de la «materia» en tres familias de quarks, componentes de los hadrones como el protón y el neutrón; y de leptones: el electrón y partículas similares, junto con los neutrinos. Todas estas partículas son fermiones de espín 1/2 y, a excepción de los neutrinos, están cargadas eléctricamente. Además todas tienen masa, aunque el descubrimiento de las masas (extremadamente pequeñas) de los neutrinos es reciente aún, y no se incluye en el modelo estándar.[84] El modelo estándar es una teoría gauge: las interacciones entre estas partículas ocurren mediante el intercambio de bosones gauge de espín 1. Todas salvo los neutrinos interaccionan electromagnéticamente a través del fotón. Los quarks poseen carga de color, y pueden intercambiarse gluones. Además, todos estos fermiones poseen una carga denominada isoespín débil, que hace que interaccionen entre sí a través de los bosones débiles Z0 y W± los cuales, a diferencia de los fotones y gluones, tienen masa. Estas tres interacciones se conocen como la interacción electromagnética, la interacción fuerte y la interacción débil. El modelo estándar incluye una partícula de espín 0 y sin carga denomidada bosón de Higgs cuya existencia Superconductor. Levitación magnética de un imán no está demostrada aún, y que interaccionaría con todas sobre un superconductor. [85] las que tienen masa, incluida ella misma. Su presencia explicaría precisamente las masas no nulas de las partículas, que en apariencia contradicen la conservación del isoespín débil. El modelo estándar ha alcanzado un alto grado de precisión en sus predicciones, aunque existen múltiples fenómenos que no explica, como el origen de la masa de los neutrinos, la naturaleza de la materia oscura, la interacción gravitatoria, etc.[86] Tampoco existe una explicación teórica satisfactoria del comportamiento de los quarks dentro de los hadrones que forman a baja energía, más allá de cálculos aproximados en el retículo.[87]

Evento del quark top en CDF. El quark top es la última partícula del modelo estándar descubierta hasta la fecha (en Tevatrón en 1995).

Teoría cuántica de campos

122

Física de la materia condensada
El ejemplo básico del formalismo de segunda cuantización pertenece a la disciplina de la física del estado sólido: la descripción de las oscilaciones de los átomos en un sólido como cuasipartículas llamadas fonones. En física de la materia condensada existen muchos sistemas que se analizan términos similares, aprovechando la comodidad de las técnicas de many body («muchos cuerpos»), aún cuando la creación y destrucción de partículas no necesariamente se dé en realidad. La teoría de campos permite describir de manera efectiva las excitaciones colectivas de un sistema de muchas partículas en una fase dada.[88] Algunos ejemplos de problemas en los que se aplica son la teoría BCS de la superconductividad, el efecto Hall cuántico o el ferromagnetismo y antiferromagnetismo. Muchos de los aspectos característicos de la teoría cuántica de campos están involucrados en estos fenómenos: ruptura espontánea de simetría, invariancia gauge, modelos sigma no-lineales, etc.[89] Parte de estas propiedades de la teoría cuántica de campos se descubrieron o plantearon inicialmente en el contexto de física de la materia condensada. El concepto de ruptura espontánea de simetría fue desarrollado para explicar la superconductividad antes de ser adaptado al mecanismo de Higgs. La técnica del grupo de renormalización, donde se examina el cambio en los parámetros de una teoría dependiendo de la escala a la que se la examine, aparece de manera natural en materia condensada al analizar, por ejemplo, el modelo de Ising.[9]

Referencias y notas
Notas
[1] No confundir con «teoría clásica de campos». [2] La palabra «partícula» se utiliza en mecánica cuántica a nivel introductorio para enfatizar al comportamiento clásico de un punto material, frente al comportamiento ondulatorio de la luz. Las partículas microscópicas, como los átomos o los fotones, presentan un comportamiento intermedio, caracterizado por la dualidad onda-corpúsculo. Mientras no se diga lo contrario, en este artículo la palabra «partícula» —y sin excepción, «partícula cuántica»— se refiere a este segundo significado. [3] Nair, 2005, p. 7. [4] Itzykson y Zuber, 1980, p. 107. [5] Nair, 2005, p. VII. [6] Ver Peskin y Schroeder, 1995, p. 198. [7] Esta primera parte —hasta 1950— está basada en Weinberg, 1995, §1. [8] Cao, 1997, §9.2. [9] Véase Zee, 2003, §VI.8 y Steven Weinberg. « From BCS to the LHC (http:/ / cerncourier. com/ cws/ article/ cern/ 32522)» (en inglés). Consultado el 19-6-2011. [10] Cao, 1997, p. 323. [11] Weinberg, 1996, §18.7. [12] Zee, 2003, §V.6. [13] Véase Zee, 2003, §VIII.3 y Kuhlmann, 2009, §3.4. [14] Esta evolución es determinista mientras no el sistema no se vea alterado por una medida —cuyo resultado es no determinista—. Véase Ynduráin, 2003, §2.2. [15] Ynduráin, 2003, §4.7 [16] Del griego , «voz». [17] Véase Zee, 2003, p. 3 y la Introducción de Ynduráin, 1989. [18] Sakurai, 1967, §1-1. [19] Itzykson y Zuber, 1987, p. 47. [20] Ver Weinberg, 1995, p. 11. [21] Peskin y Schroeder, 1995, §2.1. [22] Es decir, para cada r, a φ(r) le corresponde un operador. Véase Ynduráin, 2003, p. 266. Esta dependencia de r debe entenderse en un sentido distribucional. Véase Wald, Robert (1994) (en inglés). Quantum field theory in curved spacetime and black hole thermodynamics. The University of Chicago Press. p. 36. ISBN 0226870278. [23] Véase Peskin y Schroeder, 1995, §2.3. Para el origen de este nombre, véase Espín y estadística. [24] Esta parte está referida a sistemas sencillos con ecuaciones de movimiento lineales. Véase Goldstein, 1998, §12.1. [25] Bogoliubov, Nikolay; Shirkov, Dmitry (1982) (en inglés). Quantum fields. Benjamin-Cummings Pub. Co. p. 8. ISBN 0-8053-0983-7. [26] Se ignora en este párrafo la constante aditiva ℏω/2. La fórmula correcta puede encontrarse en Ynduráin, 2003, §7.2 o Sakurai, 1994, §2.3.

Teoría cuántica de campos
[27] En el caso del campo, al tomar el límite continuo, los modos normales pueden ser continuos a su vez. Véase Ynduráin, 2003, §7.5.3 y §19 para esta parte. [28] Sterman, 1993, p. 41. [29] Abrikosov, A.A. (1965). «I, §3. Second quantisation» (en inglés). Methods of quantum field theory in statistical physics. Pergamon Press. OCLC 222056583 (http:/ / worldcat. org/ oclc/ 222056583).. [30] Sakurai, 1967, p. 27. [31] Peskin, 1995, p. 22. [32] Weinberg, 1995, §3.1 [33] Weinberg, 1995, p. 31 [34] La cuantización de los campos libres, escalar, espinorial o vectorial, puede encontrarse en multitud de referencias, como Nair, 2005, Peskin y Schroeder, 1995 o Sterman, 1993. [35] Nair, 2005, p. 29. [36] Nair, 2005, p. 8. [37] Como estados de energía negativa o probabilidades negativas. Véase Nair, 2005, p. 31. [38] Véase Weinberg, 1995, §5.7, y una de las primeras demostraciones en Pauli, Wolfgang (1940), « The connection between spin and statistics (http:/ / prola. aps. org/ abstract/ PR/ v58/ i8/ p716_1)» (en inglés), Physical Review 58, pp. 716-722, , consultado el 19-6-2011. [39] Véase Peskin y Schroeder, 1995, p. 19. Esta denominación, de uso estándar en física, puede resultar confusa (véase Weinberg, 1995, pp. 19,28). [40] O, de forma equivalente, el lagrangiano. [41] Zee, 2003, §I.7. [42] Peskin y Schroeder, 1995, §4.1 [43] Nair, 2005, p. 55. [44] Ynduráin, 1989, §8.1. [45] Véase Srednicki, Mark Allen (2007) (en inglés). Quantum field theory. Cambridge University Press. p. 12. ISBN 9780521864497. Esto implica que el hamiltoniano y el operador número de partículas no conmuten en el caso no cuadrático. De ahí que el número de partículas no se mantenga constante, ya que las leyes de conservación cuánticas requieren la conmutación con el hamiltoniano. Véase Cohen-Tannoudji, Claude; Diu, Bernard; Laloe, Frank (1991). «Chapter III: The postulates of quantum mechanics» (en inglés). Quantum mechanics. Wiley-Interscience. ISBN 0-471-16433-X, §D-2-c. [46] Weinberg, 1995, p. 199. [47] Véase Peskin y Schroeder, 1995, p. 283 y Weinberg, 1995, p. 384. [48] Véase el Preface de Weinberg, 1995. [49] Kuhlmann, 2009, §4.1. [50] Véase la introducción de Weinberg, 1995, §3 y el comienzo de Peskin y Schroeder, 1995, §4.5. [51] En realidad, se trata de una amplitud de probabilidad: un número complejo z cuyo módulo al cuadrado es la probabilidad propiamente dicha, P = |z|2. [52] y describen una colección de diversas partículas, no necesariamente las mismas al principio y al final, en distintos estados de

123

movimiento. Se obvian en el texto los detalles de la fórmula correcta. Véase Weinberg, 1995, §3.2. [53] Se obvian en el texto los detalles de la fórmula de la serie de Dyson. Véase Peskin y Schroeder, 1995, p. 85. [54] « Feynman Diagrams (http:/ / www2. slac. stanford. edu/ vvc/ theory/ feynman. html)» (en inglés). Consultado el 19-6-2011. [55] La cita aparece en Martin, Brian Robert; Shaw, Graham (2008) (en inglés). Particle physics. John Wiley and Sons. p. 9. ISBN 9780470032930. [56] Véase la Introduction de Veltman, Martinus (1994) (en inglés). Diagrammatica. The path to Feynman rules. Cambridge University Press. ISBN 0521456924, y el Preface de Bjorken, James D.; Drell, Sidney D. (1965) (en inglés). Relativistic quantum fields. McGraw-Hill. ISBN 9780070054943. [57] Sakurai, 1994, p. 258. [58] Para utilizar esta técnica en el caso de campos fermionicos, es necesario considerar unos «números anticonmutativos» —que cumplen ξθ = −θξ dados ξ y θ números cualesquiera—, denominados números de Grassmann. [59] Véase la introducción de Weinberg, 1995, §9 y de Peskin y Schroeder, 1995, §9. [60] Para esta parte, véase Rajaraman, 1989, §1 y Weinberg, 1996, §23. [61] Nair, 2005, p. 468. [62] Peskin, 1995, p. 255. [63] Cao, 1997, p. 186. [64] Véase Peskin y Schroeder, 1995, p. 216 y en adelante. [65] Téngase en cuenta que la energía de una partícula proporciona una escala de longitud: su longitud de onda de De Broglie [66] Para una exposición más detallada, véase Nair, 2005, §9.5. [67] «Running coupling constants». [68] A pesar del nombre, no guarda ninguna relación con la teoría de grupos. Véase Weinberg, 1996, p. 111. [69] Véase para el grupo de renormalización, la introducción de Weiberg, 1996, §18. [70] Véase por ejemplo Weinberg, 1995, §12.3. .

Teoría cuántica de campos
[71] Pronunciado [ɡeɪdʒ], «calibre» en inglés. [72] Esto es debido a que en la cuantización aparecen polarizaciones no físicas para el fotón. Véase Itzykson y Zuber, 1980, §3-2-1. [73] La cuantización del campo de Yang-Mills resulta en una teoría de bosones gauge en interacción. Pueden añadirse otras partículas cargadas, como fermiones, cuantizando otros campos acoplados a este. [74] En particular, una parte de esta simetría asegura la conservación del número fermiónico axial U(1)A, que se violaría en dicho proceso. La anomalía no afecta a toda la simetría (no empeora las diferencias de masa de los bariones ligeros comentadas previamente), sólo a esta corriente axial. Véase Weinberg, 1996, §22.1 para los detalles de este proceso. [75] Donoghue, John; Golowich, Eugene; Holstein, Barry (1992) (en inglés). Dynamics of the Standard Model. Cambridge University Press. pp. 13. ISBN 0521476526. [76] El nombre es engañoso, ya que a fin de cuentas la simetría es exacta. Véase Coleman, 1985, 116. [77] Itzykson y Zuber, 1980, p. 525. [78] Véase para este ejemplo Zee, 2003, p. 199 y Coleman, 1985, §2.1. [79] Nair, 2005, §13.1. [80] Véase la introducción en Collins, John C. (1984). «13. Anomalies» (en inglés). Renormalization. Cambridge University Press. ISBN 0-521-24261-4. [81] Es decir, dichas simetrías son respetadas en el lagrangiano del modelo estándar. [82] Dicha variación no perturbativa es tal que ambos incrementos siempre se compensan entre sí: ni el número de bariones B ni el de leptones L son conservados —aunque por muy poco—, pero sí lo es su diferencia B − L. Véase Weinberg, 1996, p. 454. [83] Weinberg, 1995, §5.8. [84] Véase la introducción de Langacker, 2010, §7.7. [85] En el caso de los neutrinos existen otras posibilidades. Véase la introducción de Langacker, 2010, §7.7. [86] Véase el Preface de Langacker, 2010. [87] Peskin y Schroeder, 1995, §22.1 [88] Véase el Preface de Altland, Alexander; Simons, Benjamin D. (2010) (en inglés). Condensed matter field theory. Cambridge University Press. ISBN 9780521769754. [89] Puede encontrarse una exposición completa en Zee, 2003, §V y §VI.

124

Referencias

Bibliografía
• Cao, Tian Yu (1997) (en inglés). Conceptual developments of 20th century field theories. Cambridge University Press. ISBN 0521431786. • Coleman, Sidney (1985) (en inglés). Aspects of symmetry. Cambridge University Press. ISBN 0521318270. • Goldstein, Herbert (1998). Mecánica clásica. Editorial Reverté. ISBN 978-84-291-4306-5. • Itzykson, Claude; Zuber, Jean-Bernard (1980) (en inglés). Quantum field theory. McGraw-Hill International Book Co.. ISBN 0-07-032071-3. • Langacker, Paul (2010) (en inglés). The Standard Model and beyond. CRC Press. ISBN 978-1-4200-7906-7. • Kuhlmann, Meinard. Edward N. Zalta (ed.): « Quantum field theory (http://plato.stanford.edu/archives/ spr2009/entries/quantum-field-theory/)». The Stanford Encyclopedia of Philosophy (Spring 2009 Edition). Consultado el 29-11-2011. • Nair, V. Parameswaran (2005) (en inglés). Quantum field theory: a modern perspective. Springer Science. ISBN 0-387-21386-4. • Peskin, Michael; Schroeder, Daniel (1995) (en inglés). An introduction to quantum field theory. Westview Press. ISBN 0-201-50397-2. • Rajaraman, R. (1989) (en inglés). Solitons and instantons. North-Holland. ISBN 0-444-87047-4. • Sakurai, Jun John (1967) (en inglés). Advanced quantum mechanics. Addison-Wesley Publishing Company. ISBN 978-0201067101. • Sakurai, Jun John (1994) (en inglés). Modern quantum mechanics. Addison-Wesley Publishing Company. ISBN 0-201-53929-2. • Sterman, George (1993) (en inglés). An introduction to quantum field theory. Cambridge University Press. ISBN 0521322588.

Teoría cuántica de campos • Weinberg, Steven (1995) (en inglés). The quantum theory of fields I: Foundations. Cambridge University Press. ISBN 0-521-55001-7. • Weinberg, Steven (1996) (en inglés). The quantum theory of fields II: Modern applications. Cambridge University Press. ISBN 0-521-55002-5. • Zee, A. (2003) (en inglés). Quantum field theory in a nutshell. Princeton University Press. ISBN 0-691-01019-6. • Ynduráin, Francisco José (2003). Mecánica cuántica (2ª edición). Ariel. ISBN 84-344-8060-3. • Ynduráin, Francisco José (1989). Mecánica cuántica relativista (con una introducción a la teoría cuántica de campos). Alianza Editorial. ISBN 978-84-206-8129-0.

125

Bibliografía adicional
• Dirac, Paul A.M. (1968). Principios de mecánica cuántica. Ariel. Depósito legal: B 18229-1968. • Berestetskii, V.B.; Lifshitz, E.M.; Pitaevskii, L.P. (1971). Teoría cuántica relativista, 1. Curso de física teórica. Volumen 4. Editorial Reverté. ISBN 978-84-291-4084-2. • Berestetskii, V.B.; Lifshitz, E.M.; Pitaevskii, L.P. (1981). Teoría cuántica relativista, 2. Curso de física teórica. Volumen 5. Editorial Reverté. ISBN 978-84-291-4085-9. • Kittel, Charles (1997). Introducción a la física del estado sólido (3ª edición). Reverté. ISBN 84-291-4317-3.

Enlaces externos
Wikilibros • Wikilibros alberga un libro o manual sobre Teoría cuántica de campos. • Fields por Warren Siegel (http://insti.physics.sunysb.edu/~siegel/errata.html) (gratis; 800 páginas)

Teoría de la relatividad
La teoría de la relatividad incluye dos teorías (la de la relatividad especial y la de la relatividad general) formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo. La primera teoría, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento. La segunda, de 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana pero coincide numéricamente con ella en campos gravitatorios débiles. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios. No fue hasta el 7 de marzo de 2010 cuando fueron mostrados públicamente los manuscritos originales de Einstein por parte de la Academia Israelí de Ciencias, aunque la teoría se había publicado en 1905. El manuscrito tiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, y fue donado por Einstein a la Universidad Hebrea de Jerusalén en 1925 con motivo de su inauguración. [1][2][3]

Dibujo artístico sobre la teoría de la relatividad

Teoría de la relatividad

126

Conceptos principales
La idea esencial de ambas teorías es que dos observadores que se mueven relativamente uno al lado del otro con distinta velocidad, (si la diferencia es mucho menor que la velocidad de la luz, no resulta apreciable), a menudo obtendrán diferentes medidas del tiempo (intervalos de tiempo) y el espacio (distancias) para describir las mismas series de eventos. Es decir, la percepción del espacio y el tiempo depende del estado de movimiento del observador o es relativa al observador. Sin embargo, a pesar de esta relatividad del Sello de correos soviético cuyo motivo es Albert Einstein con su espacio y el tiempo, existe una forma más sutil de famosa ecuación . invariancia física, ya que el contenido de las leyes físicas será el mismo para ambos observadores. Esto último significa que, a pesar de que los observadores difieran en el resultado de medidas concretas de magnitudes espaciales y temporales, encontrarán que las ecuaciones que relacionan las magnitudes físicas tienen la misma forma, con independencia de su estado de movimiento. Este último hecho se conoce como principio de covariancia.

Relatividad especial
La teoría de la relatividad especial, también llamada teoría de la relatividad restringida, publicada por Einstein en 1905, describe la física del movimiento en el marco de un espacio-tiempo plano, describe correctamente el movimiento de los cuerpos incluso a grandes velocidades y sus interacciones electromagnéticas y se usa básicamente para estudiar sistemas de referencia inerciales. Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son considerados como originadores de la teoría. Si bien la teoría resolvía un buen número de problemas del electromagnetismo y daba una explicación del experimento de Michelson-Morley, esta teoría no proporciona una descripción relativista del campo gravitatorio. Tras la publicación del artículo de Einstein, la nueva teoría de la relatividad especial fue aceptada en unos pocos años por la práctica totalidad de los físicos y los matemáticos, de hecho personas como Poincaré o Lorentz habían estado muy cerca de llegar al mismo resultado que Einstein. La forma geométrica definitiva de la teoría se debe a Hermann Minkowski, antiguo profesor de Einstein en la Politécnica de Zürich; acuñó el término "espacio-tiempo" (Raumzeit) y le dio la forma matemática adecuada.[4] El espacio-tiempo de Minkowski es una variedad tetradimensional en la que se entrelazaban de una manera insoluble las tres dimensiones espaciales y el tiempo. En este espacio-tiempo de Minkowski, el movimiento de una partícula se representa mediante su línea de universo (Weltlinie), una curva cuyos puntos vienen determinados por cuatro variables distintas: las tres dimensiones espaciales ( , , ) y el tiempo ( ). El nuevo esquema de Minkowski obligó a reinterpretar los conceptos de la métrica existentes hasta entonces. El concepto tridimensional de punto fue sustituido por el de evento. La magnitud de distancia se reemplaza por la magnitud de intervalo.

Teoría de la relatividad

127

Relatividad general
La relatividad general fue publicada por Einstein en 1915, y fue presentada como conferencia en la Academia de Ciencias Prusiana el 25 de noviembre. La teoría generaliza el principio de relatividad de Einstein para un observador arbitrario. Esto implica que las ecuaciones de la teoría deben tener una forma de covariancia más general que la covariancia de Lorentz usada en la teoría de la relatividad especial. Además de esto, la teoría de la relatividad general propone que la propia geometría del espacio-tiempo se ve afectada por la presencia de materia, de lo cual resulta una teoría relativista del campo gravitatorio. De hecho la teoría de la relatividad general predice que el espacio-tiempo no será plano en presencia de materia y que la curvatura del espacio-tiempo será percibida como un campo gravitatorio.

Esquema de la curvatura del espacio-tiempo alrededor de una masa con simetría esférica.

Debe notarse que el matemático alemán David Hilbert escribió e hizo públicas las ecuaciones de la covarianza antes que Einstein. Ello resultó en no pocas acusaciones de plagio contra Einstein, pero probablemente sea más, porque es una teoría (o perspectiva) geométrica. La misma postula que la presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.

Formalismo de la teoría de la relatividad
Véanse también: Espacio-tiempo, Cuadrivector y Tensor

Partículas
En teoría de la relatividad una partícula puntual queda representada por un par , donde es una curva diferenciable, llamada línea de universo de la partícula, y m es un escalar que representa la masa en reposo. El vector tangente a esta curva es un vector temporal llamado cuadrivelocidad, el producto de este vector por la masa en reposo de la partícula es precisamente el cuadrimomento. Este cuadrimomento es un vector de cuatro componentes, tres de estas componentes se denominan espaciales y representan el análogo relativista del momento lineal de la mecánica clásica, la otra componente denominada componente temporal representa la generalización relativista de la Representación de la línea de universo de una partícula. como no es energía cinética. Además dada una curva arbitraria en posible reproducir un espacio-tiempo de cuatro dimensiones, en la figura se representa sólo la proyección sobre 2 dimensiones el espacio-tiempo puede definirse a lo largo de ella el espaciales y una temporal. llamado intervalo relativista, que se obtiene a partir del tensor métrico, el intervalo relativista medido a lo largo de la trayectoria de una partícula es proporcional al intervalo de tiempo propio o intervalo de tiempo percibido por dicha partícula.

Teoría de la relatividad

128

Campos
Cuando se consideran campos o distribuciones continuas de masa se necesita algún tipo de generalización para la noción de partícula. Un campo físico posee momentum y energía distribuidos en el espacio-tiempo, el concepto de cuadrimomento se generaliza mediante el llamado tensor de energía-impulso que representa la distribución en el espacio-tiempo tanto de energía como de momento lineal. A su vez un campo dependiendo de su naturaleza puede representarse por un escalar, un vector o un tensor. Por ejemplo el campo electromagnético se representa por un tensor de segundo orden totalmente antisimétrico o 2-forma. Si se conoce la variación de un campo o una distribución de materia, en el espacio y en el tiempo entonces existen procedimientos para construir su tensor de energía-impulso.

Magnitudes físicas
En relatividad, estas magnitudes físicas son representadas por vectores 4-dimensionales o bien por objetos matemáticos llamados tensores, que generalizan los vectores, definidos sobre un espacio de cuatro dimensiones. Matemáticamente estos 4-vectores y 4-tensores son elementos definidos del espacio vectorial tangente al espacio-tiempo (y los tensores se definen y se construyen a partir del fibrado tangente o cotangente de la variedad que representa el espacio-tiempo).

Correspondencia entre E3[5] y M4[6]
Espacio tridimensional euclideo Espacio-tiempo de Minkowski Punto Distancia Velocidad Momentum Evento Intervalo Tetravelocidad Tetramomentum

El intervalo relativista
El intervalo relativista puede definirse en cualquier espacio-tiempo sea este plano como en la relatividad especial o curvo como en relatividad general. Sin embargo por simplicidad discutiremos inicialmente el concepto de intervalo para el caso de un espacio-tiempo plano. El tensor métrico del espacio-tiempo plano de Minkowski se designa con la letra y en coordenadas galileanas o inerciales toma la siguiente forma:[7]

El intervalo, la distancia tetradimensional, se representa mediante la expresión

se calcula del siguiente modo:

Los intervalos pueden ser clasificados en tres categorías: Intervalos espaciales (cuando temporales (si es positivo) y nulos (cuando

es negativo),

). Como el lector habrá podido comprobar, los intervalos

nulos son aquellos que corresponden a partículas que se mueven a la velocidad de la luz, como los fotones: La distancia recorrida por el fotón es igual a su velocidad (c) multiplicada por el tiempo y por lo tanto el intervalo se hace nulo.

Teoría de la relatividad

129 Los intervalos nulos pueden ser representados en forma de cono de luz, popularizados por el celebérrimo libro de Stephen Hawking, Historia del Tiempo. Sea un observador situado en el origen, el futuro absoluto (los sucesos que serán percibidos por el individuo) se despliega en la parte superior del eje de ordenadas, el pasado absoluto (los sucesos que ya han sido percibidos por el individuo) en la parte inferior, y el presente percibido por el observador en el punto 0. Los sucesos que están fuera del cono de luz no nos afectan, y por lo tanto se dice de ellos que están situados en zonas del espacio-tiempo que no tienen relación de causalidad con la nuestra.

Imaginemos, por un momento, que en la galaxia Andrómeda, situada a 2 millones de años luz de nosotros, sucedió un cataclismo cósmico hace 100.000 Reproducción de un cono de luz, en el que se representan dos años. Dado que 1) la luz de Andrómeda tarda 2 dimensiones espaciales y una temporal (eje de ordenadas). El observador se sitúa en el origen, mientras que el futuro y el pasado millones de años en llegar hasta nosotros y 2) nada absolutos vienen representados por las partes inferior y superior del puede viajar a una velocidad superior a la de los eje temporal. El plano correspondiente a t = 0 se denomina plano de fotones, es evidente, que no tenemos manera de simultaneidad o hipersuperficie de presente. Los sucesos situados enterarnos de lo que sucedió en dicha Galaxia hace tan dentro de los conos están vinculados al observador por intervalos temporales. Los que se sitúan fuera, por intervalos espaciales. sólo 100.000 años. Se dice por lo tanto que el intervalo existente entre dicha hipotética catástrofe cósmica y nosotros, observadores del presente, es un intervalo espacial ( ), y por lo tanto, no puede afectar a los individuos que en el presente viven en la Tierra: Es decir, no existe relación de causalidad entre ese evento y nosotros. Análisis El único problema con esta hipótesis, es que a el entrar en un agujero negro, se anula el espacio tiempo, y como ya sabemos, algo que contenga algún volumen o masa, debe tener como mínimo un espacio donde ubicarse, el tiempo en ese caso, no tiene mayor importancia, pero el espacio juega un rol muy importante en la ubicación de volúmenes, por lo que esto resulta muy improbable, pero no imposible para la tecnología. Podemos escoger otro episodio histórico todavía más ilustrativo: El de la estrella de Belén, tal y como fue interpretada por Johannes Kepler. Este astrónomo alemán consideraba que dicha estrella se identificaba con una supernova que tuvo lugar el año 5 a. C., cuya luz fue observada Imagen de la galaxia Andrómeda tomada por el telescopio Spitzer. ¿Pueden llegar por los astrónomos chinos contemporáneos, hasta nosotros sucesos acaecidos tan sólo 100.000 años atrás? Evidentemente no. y que vino precedida en los años anteriores Se dice por tanto que entre tales eventos y nosotros existe un intervalo espacial. por varias conjunciones planetarias en la constelación de Piscis. Esa supernova probablemente estalló hace miles de años atrás, pero su luz no llegó a la tierra hasta el año 5 a. C. De ahí que el intervalo existente entre dicho evento y las observaciones de los astrónomos egipcios y megalíticos (que tuvieron lugar varios siglos antes de Cristo) sea un intervalo espacial, pues la radiación de la supernova nunca pudo llegarles. Por el contrario, la explosión de la supernova por un lado, y las observaciones

Teoría de la relatividad realizadas por los tres magos en Babilonia y por los astrónomos chinos en el año 5 a. C. por el otro, están unidas entre sí por un intervalo temporal, ya que la luz sí pudo alcanzar a dichos observadores. El tiempo propio y el intervalo se relacionan mediante la siguiente equivalencia: , es decir, el intervalo es igual al tiempo local multiplicado por la velocidad de la luz. Una de las características tanto del tiempo local como del intervalo es su invarianza ante las transformaciones de coordenadas. Sea cual sea nuestro punto de referencia, sea cual sea nuestra velocidad, el intervalo entre un determinado evento y nosotros permanece invariante. Esta invarianza se expresa a través de la llamada geometría hiperbólica: La ecuación del intervalo tiene la estructura de una hipérbola sobre cuatro dimensiones, cuyo término independiente coincide con el valor del cuadrado del intervalo ( ), que como se acaba de decir en el párrafo anterior, es constante. Las asíntotas de la hipérbola vendrían a coincidir con el cono de luz.

130

Cuadrivelocidad, aceleración y cuadrimomentum
En el espacio-tiempo de Minkowski, las propiedades cinemáticas de las partículas se representan fundamentalmente por tres magnitudes: La cuadrivelocidad (o tetravelocidad) , la cuadriaceleración y el cuadrimomentum (o tetramomentum). La cuadrivelocidad es un cuadrivector tangente a la línea de universo de la partícula, relacionada con la velocidad coordenada de un cuerpo medida por un observador en reposo cualquiera, esta velocidad coordenada se define con la expresión newtoniana , donde son el tiempo coordenado y las coordenadas espaciales medidas por el observador, para el cual la velocidad newtoniana ampliada vendría dada por . Sin

embargo, esta medida newtoniana de la velocidad no resulta útil en teoría de la relatividad, porque las velocidades newtonianas medidas por diferentes observadores no son fácilmente relacionables por no ser magnitudes covariantes. Así en relatividad se introduce una modificación en las expresiones que dan cuenta de la velocidad, introduciendo un invariante relativista. Este invariante es precisamente el tiempo propio de la partícula que es fácilmente relacionable con el tiempo coordenado de diferentes observadores. Usando la relación entre tiempo propio y tiempo coordenado: se define la cuadrivelocidad [propia] multiplicando por las de la velocidad coordenada: . La velocidad coordenada de un cuerpo con masa depende caprichosamente del sistema de referencia que escojamos, mientras que la cuadrivelocidad propia es una magnitud que se transforma de acuerdo con el principio de covariancia y tiene un valor siempre constante equivalente al intervalo dividido entre el tiempo propio ( ), o lo que es lo mismo, a la velocidad de la luz c. Para partículas sin masa, como los fotones, el procedimiento anterior no se puede aplicar, y la cuadrivelocidad puede definirse simplemente como vector tangente a la trayectoria seguida por los mismos. La cuadriaceleración puede ser definida como la derivada temporal de la cuadrivelocidad ( ). Su

magnitud es igual a cero en los sistemas inerciales, cuyas líneas del mundo son geodésicas, rectas en el espacio-tiempo llano de Minkowski. Por el contrario, las líneas del mundo curvadas corresponden a partículas con aceleración diferente de cero, a sistemas no inerciales. Junto con los principios de invarianza del intervalo y la cuadrivelocidad, juega un papel fundamental la ley de conservación del cuadrimomentum. Es aplicable aquí la definición newtoniana del momentum ( ) como la masa (en este caso conservada, ) multiplicada por la velocidad (en este caso, la cuadrivelocidad), y por lo tanto , teniendo en cuenta que . La cantidad de sus componentes son los siguientes:

momentum conservado es definida como la raíz cuadrada de la norma del vector de cuadrimomentum. El momentum conservado, al igual que el intervalo y la cuadrivelocidad propia, permanece invariante ante las transformaciones de coordenadas, aunque también aquí hay que distinguir entre los cuerpos con masa y los fotones. En los primeros, la magnitud del cuadriomentum es igual a la masa multiplicada por la velocidad de la luz ( ). Por el contrario, el cuadrimomentum conservado de los fotones es igual a la magnitud de su momentum tridimensional ( ).

Teoría de la relatividad Como tanto la velocidad de la luz como el cuadrimomentum son magnitudes conservadas, también lo es su producto, al que se le da el nombre de energía conservada ( ), que en los cuerpos con masa equivale a la masa multiplicada por la velocidad de la luz al cuadrado ( al momentum multiplicado por la velocidad de la luz ( Componentes Magnitud del cuadrimomentum Magnitud en cuerpos con masa Magnitud en fotones (masa = 0) Energía Energía en cuerpos con masa (cuerpos en reposo, p=0) Energía en fotones (masa en reposo = 0) La aparición de la Relatividad Especial puso fin a la secular disputa que mantenían en el seno de la mecánica clásica las escuelas de los mecanicistas y los energetistas. Los primeros sostenían, siguiendo a Descartes y Huygens, que la magnitud conservada en todo movimiento venía constituida por el momentum total del sistema, mientras que los energetistas -que tomaban por base los estudios de Leibniz- consideraban que la magnitud conservada venía conformada por la suma de dos cantidades: La fuerza viva, equivalente a la mitad de la masa multiplicada por la velocidad al cuadrado ( ) a la que hoy denominaríamos "energía cinética", y la fuerza muerta, equivalente a la altura por la constante g ( ), que correspondería a la "energía potencial". Fue el físico alemán Hermann von Helmholtz el que primero dio a la fuerzas leibnizianas la denominación genérica de energía y el que formuló la Ley de conservación de la energía, que no se restringe a la mecánica , que se extiende también a otras disciplinas físicas como la termodinámica. La mecánica newtoniana dio la razón a ambos postulados, afirmando que tanto el momentum como la energía son magnitudes conservadas en todo movimiento sometido a fuerzas conservativas. Sin embargo, la Relatividad Especial dio un paso más allá, por cuanto a partir de los trabajos de Einstein y Minkowski el momentum y la energía dejaron de ser considerados como entidades independientes y se les pasó a considerar como dos aspectos, dos facetas de una única magnitud conservada: el cuadrimomentum. , la famosa fórmula de Einstein) y en los fotones )

131

Componentes y magnitud de los diferentes conceptos cinemáticos
Concepto Intervalo Componentes Expresión algebraica Partículas con masa Fotones

Cuadrivelocidad

Cuadrivelocidad no definida

Aceleración (sistemas inerciales) (sistemas no inerciales)

Aceleración no definida

Teoría de la relatividad

132

Cuadrimomentum

El tensor de energía-impulso (Tab)
Tres son las ecuaciones fundamentales que en física newtoniana describen el fenómeno de la gravitación universal: La primera, afirma que la fuerza gravitatoria entre dos cuerpos es proporcional al producto de sus masas e inversamente proporcional al cuadrado de su distancia (1); la segunda, que el potencial gravitatorio ( ) en un determinado punto es igual a la masa multiplicada por la constante G y dividida por la distancia r (2); y la tercera, finalmente, es la llamada ecuación de Poisson (3), que indica que el laplaciano[8] del potencial gravitatorio es igual a , donde es la densidad de masa en una determinada región esférica.
Tensor de tensión-energía

Sin embargo, estas ecuaciones no son compatibles con la Relatividad Especial por dos razones: • En primer lugar la masa no es una magnitud absoluta, sino que su medición deriva en resultados diferentes dependiendo de la velocidad relativa del observador. De ahí que la densidad de masa no puede servir de parámetro de interacción gravitatoria entre dos cuerpos. • En segundo lugar, si el concepto de espacio es relativo, también lo es la noción de densidad. Es evidente que la contracción del espacio producida por el incremento de la velocidad de un observador, impide la existencia de densidades que permanezcan invariables ante las transformaciones de Lorentz. Por todo ello, resulta necesario prescindir del término , situado en el lado derecho de la fórmula de Poisson y sustituirlo por un objeto geométrico-matemático que permanezca invariante ante las transformaciones de Lorentz: Dicho objeto fue definido por Einstein en sus ecuaciones de universo y recibe el nombre de tensor de energía-momentum ( ). Sus coeficientes describen la cantidad de tetramomentum que atraviesa una hipersuperficie , normal al vector unitario . De este modo, el tensor de energía momentum puede expresarse mediante la siguiente ecuación:

O lo que es lo mismo: El componente

del tetramomentum es igual a la integral de hipersuperficie

del

tensor de tensión-energía. En un fluido ideal, del que están ausentes tanto la viscosidad como la conducción de calor, los componentes del tetramomentum se calculan de la siguiente forma: ,

Teoría de la relatividad donde es la densidad de masa-energía (masa por unidad de volumen tridimensional), es la cuadrivelocidad del fluido, y es la presión

133

hidrostática,

es la matriz inversa del tensor métrico de la variedad.

Además, si los componentes del tensor se miden por un observador en reposo relativo respecto al fluido, entonces, el tensor métrico viene constituido simplemente por la métrica de Minkowski:

Puesto que además la tetravelocidad del fluido respecto al observador en reposo es: . como consecuencia de ello, los coeficientes del tensor de tensión-energía son los siguientes:

Donde

es la densidad de masa, y

son los

componentes tridimensionales de la presión hidrostática. Como vemos, el campo gravitatorio tiene dos fuentes diferentes: La masa y el momentum del fluido en cuestión. Los efectos gravitatorios originados por la masa se denominan efectos gravitoeléctricos, mientras que aquellos que se deben al momentum reciben el nombre de efectos gravitomagnéticos. Los primeros tienen una intensidad superior a los segundos, que sólo se manifiestan en aquellos casos en los que las partículas del fluido se mueven con una velocidad cercana a la de la luz (se habla entonces de fluidos relativistas): Es el caso de los chorros (jets) que Parte de la materia que cae en el disco de acreción de un agujero emanan del centro de la galaxia y que se propulsan en negro es expulsada a gran velocidad en forma de chorros. En supuestos como éste, los efectos gravitomagnéticos pueden llegar a las dos direcciones marcadas por el eje de rotación de alcanzar cierta importancia. este cuerpo cósmico; de la materia que se precipita hacia un agujero negro; y del fluido estelar que se dirige hacia el centro de la estrella cuando se ésta entra en colapso. En este último caso, durante las fases finales del proceso de contracción de la estrella, la presión hidrostática puede llegar a ser tan fuerte como para llegar a acelerar el colapso, en lugar de ralentizarlo. Podemos, a partir del tensor de tensión-energía, calcular cuánta masa contiene un determinado volumen del fluido: Retomando la definición de este tensor expuesta unas líneas más arriba, se puede definir al coeficiente como la cantidad de momentum : (esto es, la masa) que atraviesa la hipersuperficie . En el espacio-tiempo de (eje x), (eje y), y Minkowski, la hipersuperficie (eje z). Podemos por tanto escribir: es aquella región que se define por las tres bases vectoriales normales al vector

es, por tanto, un volumen tridimensional, definido por los vectores base

Teoría de la relatividad Del mismo modo, es posible deducir matemáticamente a partir del tensor de tensión-energía la definición newtoniana de presión, introduciendo en la mentada ecuación cualquier par de índices que sean diferentes de cero:

134

La hipersuperficie

es aquella región del espacio-tiempo definida por los tres vectores unitarios normales a y , correspondientes a los ejes y y z; y del vector temporal —o

(se trata de los dos vectores espaciales,

, como se prefiera—). Esta definición nos permite descomponer la integral de hipersuperficie en una integral temporal (cuyo integrando viene definido por ) y otra de superficie (esta vez bidimensional, ):

Finalmente, derivamos parcialmente ambos miembros de la ecuación respecto al tiempo, y teniendo en cuenta que la fuerza no es más que la tasa de incremento temporal del momentum obtenemos el resultado siguiente:

Que contiene la definición newtoniana de la presión como fuerza ejercida por unidad de superficie.

El tensor electromagnético (Fab)
Las ecuaciones deducidas por el físico escocés James Clerk Maxwell demostraron que electricidad y magnetismo no son más que dos manifestaciones de un mismo fenómeno físico: el campo electromagnético. Ahora bien, para describir las propiedades de este campo los físicos de finales del siglo XIX debían utilizar dos vectores diferentes, los correspondientes los campos eléctrico y magnético. Fue la llegada de la Relatividad Especial la que permitió describir las propiedades del electromagnetismo con un sólo objeto geométrico, el vector cuadripotencial, cuyo componente temporal se correspondía con el potencial eléctrico, mientras que sus componentes espaciales eran los mismos que los del potencial magnético.

De este modo, el campo eléctrico puede ser entendido como la suma del gradiente del potencial eléctrico más la derivada temporal del potencial magnético:

y el campo magnético, como el rotacional del potencial magnético:

Las propiedades del campo electromagnético pueden también expresarse utilizando un tensor de segundo orden denominado tensor de Faraday y que se obtiene diferenciando exteriormente al vector cuadripotencial

La fuerza de Lorentz puede deducirse a partir de la siguiente expresión:

Donde q es la carga y

la cuadrivelocidad de la partícula.

Teoría de la relatividad

135

Referencias
[1] Diario El Universal (Venezuela). « Exponen en Israel manuscrito de la teoría de la relatividad de Einstein (http:/ / www. eluniversal. com/ 2010/ 03/ 07/ cul_ava_exponen-en-israel-ma_07A3543215. shtml)» (en español). Diario El Universal. Consultado el 07 de marzo de 2010. [2] Agencia EFE. « El manuscrito de la teoría de la relatividad expuesto por primera vez (http:/ / www. google. com/ hostednews/ epa/ article/ ALeqM5jFb5iKXDcWvGb1W7jgQ4iYaoDJGg)» (en español). Agencia EFE, alojado por Google. Consultado el 07 de marzo de 2010. [3] Gavin Rabinowitz. « Einstein's theory of relativity on display for first time (http:/ / www. google. com/ hostednews/ afp/ article/ ALeqM5gA8xgEZPec9SPYpIY-jRE3Wigd0g)» (en inglés). Agencia AFP, alojado por Google. Consultado el 07 de marzo de 2010. [4] El espacio euclídeo es una variedad tridimensional. El espacio-tiempo de Minkowski es una variedad de cuatro dimensiones, de las cuales tres son espaciales y una temporal. [5] Es decir, el espacio euclídeo. La letra E corresponde a la inicial del matemático Euclides, y el número 3 al número de dimensiones espaciales. [6] M4 es el espacio-tiempo de Minkowski. M es la inicial de Minokwski y 4 es el número de dimensiones de las que se compone la variedad. [7] Conviene señalar que existen dos convenciones, la más usada en teoría cuántica relativista usa mientras que en cosmología y relatividad se usa más comúnmente básicamente equivalentes. [8] laplaciano: Divergencia de un gradiente. y el resto de componentes negativas, y el resto de componentes positivas. Ambas convenciones son

Bibliografía
• Girbau, J.: "Geometria diferencial i relativitat", Ed. Universitat Autònoma de Catalunya, 1993. ISBN 84-7929-776-X.

Enlaces externos
• Wikiquote alberga frases célebres de o sobre Teoría de la relatividad. Wikiquote • Wikimedia Commons alberga contenido multimedia sobre Teoría de la relatividad. Commons • La Relatividad sin fórmulas, en eltamiz.com (http://eltamiz.com/relatividad-sin-formulas/) (13-05-09) • Surveying the shunting line of a ray of light of the space (http://www.homenews.com.br/mod. php?mod=forum&op=threadview&topicid=78&forumid=6) trd. (en portugués)

Teoría de la relatividad especial

136

Teoría de la relatividad especial
La Teoría de la relatividad especial, también llamada Teoría de la relatividad restringida, es una teoría física publicada en 1905 por Albert Einstein. Surge de la observación de que la velocidad de la luz en el vacío es igual en todos los sistemas de referencia inerciales y de obtener todas las consecuencias del principio de relatividad de Galileo, según el cual cualquier experimentación realizada en un sistema de referencia inercial se desarrollará de manera idéntica en cualquier otro sistema inercial. La Teoría de la relatividad especial estableció nuevas ecuaciones que permitían pasar de un sistema de referencia inercial a otro. Las ecuaciones correspondientes conducen a fenómenos que chocan con el sentido común, siendo uno de los más asombrosos y más famosos la llamada paradoja de los gemelos.

Teoría de la Relatividad, parte de Walk of Ideas, en la Isla de los Museos (Berlín).Festejando el Año mundial de la física 2005 en el centenario de la publicación de la ecuación más famosa del mundo.

La relatividad especial tuvo también un impacto en la filosofía, eliminando toda posibilidad de existencia de un tiempo y de un espacio absoluto en el conjunto del universo.

Historia
A finales del siglo XIX los físicos pensaban que la mecánica clásica de Newton, basada en la llamada relatividad de Galileo (origen de las ecuaciones matemáticas conocidas como transformaciones de Galileo), describía los conceptos de velocidad y fuerza para todos los observadores (o sistemas de referencia). Sin embargo, Hendrik Lorentz y otros habían comprobado que las ecuaciones de Maxwell, que gobiernan el electromagnetismo, no se comportaban de acuerdo a las leyes de Newton cuando el sistema de referencia varía (por ejemplo, cuando se considera el mismo problema físico desde el punto de vista de dos observadores que se mueven uno respecto del otro). El experimento de Michelson y Morley sirvió para confirmar que la velocidad de la luz permanecía constante, independientemente del sistema de referencia en el cual se medía, contrariamente a lo esperado de aplicar las transformaciones de Galileo. En 1905 un desconocido físico alemán publicó un artículo que cambió radicalmente la percepción del espacio y el tiempo que se tenía en ese entonces. En su Zur Elektrodynamik bewegter Körper,[1] Albert Einstein revolucionó al mundo al postular lo que ahora conocemos como Teoría de la Relatividad Especial. Esta teoría se basaba en el Principio de relatividad y en la constancia de la velocidad de la luz en cualquier sistema de referencia inercial. De ello Einstein dedujo las ecuaciones de Lorentz. También reescribió las relaciones del momento y de la energía cinética para que éstas también se mantuvieran invariantes. La teoría permitió establecer la equivalencia entre masa y energía y una nueva definición del espacio-tiempo. De ella se derivaron predicciones y surgieron curiosidades. Como ejemplos, un observador atribuye a un cuerpo en movimiento una longitud más corta que la que tiene el cuerpo en reposo y la duración de los eventos que afecten al cuerpo en movimiento son más largos con respecto al mismo evento medido por un observador en el sistema de referencia del cuerpo en reposo. En 1912, Wilhelm Wien, premio Nobel de Física de 1911, propuso a Lorentz y a Einstein para este galardón por la teoría de la relatividad, expresando Aunque Lorentz debe ser considerado como el primero en encontrar la expresión matemática del principio de la relatividad, Einstein consiguió reducirlo desde un principio simple. Debemos pues considerar el mérito de los dos investigadores como comparable.

Teoría de la relatividad especial Wilhelm Wien[2] Einstein no recibió el premio Nobel por la relatividad especial pues el comité, en principio, no otorgaba el premio a teorías puras. El Nobel no llegó hasta 1921, y fue por su trabajo sobre el efecto fotoeléctrico.

137

Postulados
• Primer postulado - Principio especial de relatividad - Las leyes de la física son las mismas en todos los sistemas de referencia inerciales. En otras palabras, no existe un sistema inercial de referencia privilegiado, que se pueda considerar como absoluto. • Segundo postulado - Invariancia de c - La velocidad de la luz en el vacío es una constante universal, c, que es independiente del movimiento de la fuente de luz.

Velocidad de la luz desde la Tierra a la Luna.

El poder del argumento de Einstein está en la manera como deriva en resultados sorprendentes y plausibles a partir de dos simples hipótesis y cómo estas predicciones fueron confirmadas por las observaciones experimentales.

Principio de Relatividad
Henri Poincaré, matemático francés, sugirió a finales del siglo XIX que el principio de relatividad establecido desde Galileo (la invariancia galileana) se mantiene para todas las leyes de la naturaleza. Joseph Larmor y Hendrik Lorentz descubrieron que las ecuaciones de Maxwell, la piedra angular del electromagnetismo, eran invariantes solo por una variación en el tiempo y una cierta unidad longitudinal, lo que produjo mucha confusión en los físicos, que en aquel tiempo estaban tratando de argumentar las bases de la teoría del éter, la hipotética substancia sutil que llenaba el vacío y en la que se transmitía la luz. El problema es que este éter era incompatible con el principio de relatividad. En su publicación de 1905 en electrodinámica, Henri Poincaré y Albert Einstein explicaron que, con las transformaciones hechas por Lorentz, este principio se mantenía perfectamente invariable. La contribución de Einstein fue el elevar a este axioma a principio y proponer las transformadas de Lorentz como primer principio. Además descartó la noción de tiempo absoluto y requirió que la velocidad de la luz en el vacío sea la misma para todos los observadores, sin importar si éstos se movían o no. Esto era fundamental para las ecuaciones de Maxwell, ya que éstas necesitan de una invarianza general de la velocidad de la luz en el vacío.

Teoría de la relatividad especial

138

Covariancia de Lorentz
La teoría de la relatividad especial además busca formular todas las leyes físicas de forma que tengan validez para todos los observadores inerciales. Por lo que cualquier ley física debería tener una forma matemática invariante bajo unas transformaciones de Lorentz.

Transformaciones de Lorentz
Como hemos mencionado, los físicos de la época habían encontrado una inconsistencia entre la completa descripción del electromagnetismo realizada por Maxwell y la mecánica clásica. Para ellos, la luz era una onda electromagnética transversal que se movía por un sistema de referencia privilegiado, al cual lo denominaban éter. Hendrik Antoon Lorentz trabajó en resolver este problema y fue desarrollando unas transformaciones para las cuales las ecuaciones de Maxwell quedaban invariantes y sin necesidad de utilizar ese hipotético éter. La propuesta de Lorentz de 1899, conocida como la Teoría electrónica de Lorentz, no excluía —sin embargo— al éter. En la misma, Lorentz proponía que la interacción eléctrica entre dos cuerpos cargados se Diferentes sistemas de referencia para un mismo fenómeno. realizaba por medio de unos corpúsculos a los que llamaba electrones y que se encontraban adheridos a la masa en cada uno de los cuerpos. Estos electrones interactuaban entre sí mediante el éter, el cual era contraído por los electrones acorde a transformaciones específicas, mientras estos se encontraban en movimiento relativo al mismo. Estas transformaciones se las conoce ahora como transformaciones de Lorentz. La formulación actual fue trabajo de Poincaré, el cual las presentó de una manera más consistente en 1905. Se tiene un sistema S de coordenadas y un sistema S' de coordenadas , de aquí las

ecuaciones que describen la transformación de un sistema a otro son: ,      donde ,      ,      es la velocidad de la luz en el vacío.

es el llamado factor de Lorentz y

Contrario a nuestro conocimiento actual, en aquel momento esto era una completa revolución, debido a que se planteaba una ecuación para transformar al tiempo, cosa que para la época era imposible. En la mecánica clásica, el tiempo era un invariante. Y para que las mismas leyes se puedan aplicar en cualquier sistema de referencia se obtiene otro tipo de invariante a grandes velocidades (ahora llamadas relativistas), la velocidad de la luz.

Teoría de la relatividad especial

139

Simultaneidad
Directamente de los postulados expuestos arriba, y por supuesto de las transformaciones de Lorentz, se deduce el hecho de que no se puede decir con sentido absoluto que dos acontecimientos hayan ocurrido al mismo tiempo en diferentes lugares. Si dos sucesos ocurren simultáneamente en lugares separados espacialmente desde el punto de vista de un observador, cualquier otro observador inercial que se mueva respecto al primero los presencia en instantes distintos.[3] Matemáticamente, esto puede comprobarse en la primera ecuación de las transformaciones de Lorentz:

Dos eventos simultáneos verifican observador con movimiento relativo obtiene

, pero si sucedieron en lugares distintos (con . Sólo en el caso y

), otro

(sucesos simutáneos

en en el mismo punto) no ocurre esto. El concepto de simultaneidad puede definirse como sigue. Dados dos eventos puntuales E1 y E2, que ocurre respectivamente en instantes de tiempo t1 y t2, y en puntos del espacio P1 = (x1, y1, z1) y P2 = (x2, y2, z2), todas las teorías físicas admiten que estos sólo pueden darse una, de tres posibilidades mutuamente excluyentes:[4] 1. Es posible para un observador estar presente en el evento E1 y luego estar en el evento E2, y en ese caso se afirma que E1 es un evento anterior a E2. Además si eso sucede no puede existir otro observador que verifique 2. 2. Es posible para un observador estar presente en el evento E2 y luego estar en el evento E1, y en ese caso se afirma que E1 es un evento posterior a E2. Además si eso sucede no puede existir otro observador que verifique 1. 3. Es imposible para algún observador puntual, estar presente simultáneamente en los eventos E1 y E2. Dado un evento cualquiera, el conjunto de eventos puede dividirse según esas tres categorías anteriores. Es decir, todas las teorías físicas permiten fijado un evento, clasificar a los demás eventos: en (1) pasado, (2) futuro y (3) resto de eventos (ni pasados ni futuros). En mecánica clásica esta última categoría está formada por los sucesos llamados simultáneos, y en mecánica relativista eventos no relacionados causalmente con el primer evento. Sin embargo, la mecánica clásica y la mecánica relativista difieren en el modo concreto en que esa división entre pasado, futuro y otros puede hacerse y en si dicho carácter es absoluto o relativo de dicha partición.

Dilatación del tiempo y contracción de la longitud
Como se dijo previamente, el tiempo en esta teoría deja de ser absoluto como se proponía en la mecánica clásica. O sea, el tiempo para todos los observadores del fenómeno deja de ser el mismo. Si tenemos un observador inmóvil haciendo una medición del tiempo de un acontecimiento y otro que se mueva a velocidades relativistas, los dos relojes no tendrán la misma medición de tiempo. Mediante la transformación de Lorentz nuevamente llegamos a comprobar esto. Se coloca un reloj ligado al sistema S y otro al S', lo que nos indica que . Se tiene las transformaciones y sus inversas en términos de la diferencia de coordenadas:

y

Teoría de la relatividad especial

140

Si despejamos las primeras ecuaciones obtenemos para sucesos que satisfagan De lo que obtenemos que los eventos que se realicen en el sistema en movimiento S' serán más largos que los del S. La relación entre ambos es esa . Este fenómeno se lo conoce como dilatación del tiempo. Si se dice que el tiempo varía a velocidades relativistas, la longitud también lo hace. Un ejemplo sería si tenemos a dos observadores inicialmente inmóviles, éstos miden un vehículo en el cual solo uno de ellos "viajará" a grandes velocidades, ambos obtendrán el mismo resultado. Uno de ellos entra al vehículo y cuando adquiera la suficiente velocidad mide el vehículo obteniendo el resultado esperado, pero si el que esta inmóvil lo vuelve a medir, obtendrá un valor menor. Esto se debe a que la longitud también se contrae.

Gráfico que explica la contracción de Lorentz.

Volviendo a las ecuaciones de Lorentz, despejando ahora a x y condicionando a

se obtiene:

de lo cual podemos ver que existirá una disminución debido al cociente. Estos efectos solo pueden verse a grandes velocidades, por lo que en nuestra vida cotidiana las conclusiones obtenidas a partir de estos cálculos no tienen mucho sentido. Un buen ejemplo de estas contracciones y dilataciones fue propuesto por Einstein en su paradoja de los gemelos.

Cantidades relativistas
Composición de velocidades
La composición de velocidades es el cambio en la velocidad de un cuerpo al ser medida en diferentes sistemas de referencia inerciales. En la física pre-relativista se calculaba mediante

donde v′ es la velocidad del cuerpo con respecto al sistema S′, u la velocidad con la que este sistema se aleja del sistema "en reposo" S, y v es la velocidad del cuerpo medida en S.

El pájaro se mueve con velocidad v respecto al sistema S. Sin embargo, desde el punto de vista del piloto del avión, el pájaro se aleja de él a una velocidad v′ mayor, dada por las fórmulas del texto.

Sin embargo, debido a las modificaciones del espacio y el tiempo, esta relación no es válida en Relatividad Especial. Mediante las transformadas de Lorentz puede obtenerse la fórmula correcta:

Teoría de la relatividad especial

141

Al observar con cuidado esta fórmula se nota que si tomamos para el cuerpo una velocidad en el sistema S igual a la de la luz (el caso de un fotón, por ejemplo), su velocidad en S′ sigue siendo v′=c, como se espera debido al segundo postulado. Además, si las velocidades son muy pequeñas en comparación con la luz, se obtiene que esta fórmula se aproxima a la anterior dada por Galileo.

Masa, momento y Energía Relativista
El concepto de masa en la teoría de la relatividad especial tiene dos bifurcaciones: la masa invariante y la masa relativista aparente. La masa relativista aparente es la masa aparente que va a depender del observador y se puede incrementar dependiendo de su velocidad, mientras que la invariante es independiente del observador e invariante. Matemáticamente tenemos que: donde es la masa relativista aparente, es la invariante y es el

factor de Lorentz. Notemos que si la velocidad relativa del factor de Lorentz es muy baja, la masa relativa tiene el mismo valor que la masa invariante pero si ésta es comparable con la velocidad de la luz existe una variación entre ambas. Conforme la velocidad se vaya aproximando a la velocidad de la luz, la masa relativista tenderá a infinito.

Cantidad de movimiento
Al existir una variación en la masa relativista aparente, la cantidad de movimiento de un cuerpo también debe ser redefinida. Según Newton, la cantidad de movimiento está definida por donde era la masa del cuerpo. Como esta masa ya no es invariante, nuestra nueva "cantidad de movimiento relativista" tiene el factor de Lorentz incluido así:

Sus consecuencias las veremos con más detenimiento en la sección posterior de fuerza.

Equivalencia de masa y energía
La relatividad especial postula una ecuación para la energía, la cual inexplicablemente llegó a ser la ecuación más famosa del planeta, E=mc2. A esta ecuación también se la conoce como la equivalencia entre masa y energía. En la relatividad, la energía y el momento de una partícula están relacionados mediante la ecuación:

Equivalencia entre masa y energía.

Esta relación de energía-momento formulada en la relatividad nos permite observar la independencia del observador tanto de la energía como de la cantidad de momento. Para velocidades no relativistas, la energía puede ser aproximada mediante una expansión de una serie de Taylor así

encontrando así la energía cinética de la mecánica de Newton. Lo que nos indica que esa mecánica no era más que un caso particular de la actual relatividad. El primer término de esta aproximación es lo que se conoce como la energía en reposo (energía potencial), ésta es la cantidad de energía que puede medir un observador en reposo de acuerdo con lo postulado por Einstein. Esta energía en reposo no causaba conflicto con lo establecido anteriormente por Newton, porque ésta es constante y además persiste la energía en movimiento. Einstein lo describió de esta manera:

Teoría de la relatividad especial Bajo esta teoría, la masa ya no es una magnitud inalterable pero sí una magnitud dependiente de (y asimismo, idéntica con) la cantidad de energía.[5] Albert Einstein

142

Fuerza
En mecánica newtoniana la fuerza no relativista puede obtenerse simplemente como la derivada temporal del momento lineal: , Pero contrariamente postula la mecánica newtoniana, aquí el momento no es simplemente la masa en reposo por la velocidad. Por lo que la ecuación ya no es válida en relatividad. Si introducimos la definición correcta del momento lineal, usando la masa aparente relativista entonces obtenemos la expresión relativista correcta:

donde

es la masa relativista aparente. Calculando la fuerza anterior se observa el hecho que la fuerza podría no

tener necesariamente la dirección de la aceleración, como se deduce desarrollando la ecuación anterior:

Introduciendo las aceleraciones normal y tangencial:

Existen dos casos particulares de movimiento de una partícula donde la fuerza es siempre paralela a la aceleración, que son el movimiento rectilíneo uniformemente acelerado y el movimiento circular uniforme; en el primer caso el factor de proporcionalidad es y el en segundo

La geometría del espacio tiempo
La relatividad especial usa tensores y cuadrivectores para representar un espacio pseudo-euclídeo. Este espacio, sin embargo, es similar al espacio euclídeo tridimensional en muchos aspectos y es relativamente fácil trabajar en él. El tensor métrico que da la distancia elemental (ds) en un espacio euclídeo se define como:

donde

son diferenciales de las tres coordenadas cartesianas espaciales. En la geometría de la

relatividad especial, se añade una cuarta dimensión imaginaria dada por el producto ict, donde t es el tiempo, c la velocidad de la luz e i la unidad imaginaria: quedando el intervalo relativista, en forma diferencial, como: El factor imaginario se introduce para mostrar el carácter pseudoeuclídeo de la geometría espacio-tiemporal. Si se reducen las dimensiones espaciales a 2, se puede hacer una representación física en un espacio tridimensional,

Teoría de la relatividad especial

143

Se puede ver que las geodésicas con medida cero forman un cono dual definido por la ecuación

La ecuación anterior es la de círculo con

.

Si se extiende lo anterior a las tres dimensiones espaciales, las geodésicas nulas son esferas concéntricas, con radio = distancia = c por tiempo.
Cono dual.

Este doble cono de distancias nulas representa el horizonte de visión de un punto en el espacio. Esto es, cuando se mira a las estrellas y se dice: La estrella de la que estoy recibiendo luz tiene X años, se está viendo a través de esa línea de visión: una geodésica de distancia nula. Se está viendo un suceso a metros, y segundos en el pasado. Por esta razón, el doble cono es también conocido como cono de luz (El punto inferior
Esferas concéntricas.

de la izquierda del diagrama inferior representa la estrella, el origen representa el observador y la línea representa la geodésica nula, el "horizonte de visión" o cono de luz). Es importante notar que sólo los puntos interiores al cono de luz de un evento pueden estar en relación causal con ese evento.

Causalidad e imposibilidad de movimientos más rápidos que la luz
Previo a esta teoría, el concepto de causalidad estaba determinado: para una causa existe un efecto. Anteriormente, gracias a los postulados de Laplace, se creía que para todo acontecimiento se debía obtener un resultado que podía predecirse. La revolución en este concepto es que se "crea" un cono de luz de posibilidades (Véase gráfico adjunto). Se observa este cono de luz y ahora un acontecimiento en el cono de luz del pasado no necesariamente nos conduce a un solo efecto en el cono de luz futuro. Desligando así la causa y el efecto. El observador que se sitúa en el vértice del cono ya no puede indicar qué causa del cono del pasado provocará el efecto en el cono del futuro. Asumiendo el principio de causalidad obtenemos que ninguna partícula de masa positiva puede viajar más rápido que la luz. A pesar que este concepto no es tan

Un evento en un cono de luz temporal.

claro para la relatividad general.

Teoría de la relatividad especial Pero no solo el principio de causalidad imposibilita el movimiento más rápido que el de la luz. Imagínese un cuerpo que experimenta una fuerza durante una cantidad infinita de tiempo. Tenemos entonces que: (donde dp es

144

el diferencial de la cantidad de movimiento y dt el del tiempo). Sabemos que la cantidad de movimiento relativista presenta la ecuación: y mientras más esta cantidad de movimiento se acerca al infinito, V se acerca a c. Lo que para un observador inmóvil determinaría que la inercia del cuerpo estaría aumentando indefinidamente. En el modelo estándar existen unas partículas aún teóricas que podrían viajar más rápido que la luz, los taquiones, aunque éstas siguen siendo aún hipotéticas.

Formulación de la Relatividad Especial
La relatividad especial a pesar de poder ser descrita con facilidad por medio de la mecánica clásica y ser de fácil entendimiento, tiene una compleja matemática de por medio. Aquí se describe a la relatividad especial en la forma de la covariancia de Lorentz. La posición de un evento en el espacio-tiempo está dado por un vector contravariante cuatridimensional, sus componentes son:

esto es que

,

,

y

. Los superíndices de esta sección describen contravarianza y

no exponente a menos que sea un cuadrado o se diga lo contrario. Los superíndices son índices covariantes que tienen un rango de cero a tres como un gradiente del espacio tiempo del campo φ:

Métrica y transformación de coordenadas
Habiendo reconocido la naturaleza cuatridimensional del espacio-tiempo, se puede empezar a emplear la métrica de Minkowski, η, dada en los componentes (válidos para cualquier sistema de referencia) así:

su inversa es

Luego se reconoce que las transformaciones co-ordenadas entre los sistemas de referencia inerciales están dadas por el tensor de transformación de Lorentz Λ. Para el caso especial de movimiento a través del eje x, se tiene:

que es simplemente la matriz de un boost (como una rotación) entre las coordenadas x y t. Donde μ' indica la fila y ν la columna. También β y γ están definidos como:

Más generalmente, una transformación de un sistema inercial (ignorando la translación para simplificarlo) a otro debe satisfacer:

donde hay un sumatorio implícita de

y

de cero a tres en el lado derecho, de acuerdo con el Convenio de

sumación de Einstein. El grupo de Poincaré es el grupo más general de transformaciones que preservan la métrica de Minkowski y ésta es la simetría física subyacente a la relatividad especial.

Teoría de la relatividad especial Todas las propiedades físicas cuantitativas son dadas por tensores. Así para transformar de un sistema a otro, se usa la muy conocida ley de transformación tensorial

145

donde

es la matriz inversa de

.

Para observar como esto es útil, transformamos la posición de un evento de un sistema de coordenadas S a uno S', se calcula

que son las transformaciones de Lorentz dadas anteriormente. Todas las transformaciones de tensores siguen la misma regla. El cuadrado de la diferencia de la longitud de la posición del vector construido usando

es un invariante. Ser invariante significa que toma el mismo valor en todos los sistemas inerciales porque es un escalar (tensor de rango 0), y así Λ no aparece en esta transformación trivial. Se nota que cuando el elemento línea es negativo es el diferencial del tiempo propio, mientras que cuando es positivo, es el diferencial de la distancia propia. El principal valor de expresar las ecuaciones de la física en forma tensorial es que éstas son luego manifestaciones invariantes bajo los grupos de Poincaré, así que no tenemos que hacer cálculos tediosos o especiales para confirmar ese hecho. También al construir tales ecuaciones encontramos usualmente que ecuaciones previas que no tienen relación, de hecho, están conectadas cercanamente al ser parte de la misma ecuación tensorial.

Cuadrivelocidad y cuadriaceleración
Ahora podemos definir igualmente la velocidad y la aceleración mediante simples leyes de transformación. La velocidad en el espacio-tiempo Uμ está dada por

Reconociendo esto, podemos convertir buscando una ley sobre las composiciones de velocidades en un simple estado acerca de transformaciones de velocidades de cuatro dimensiones de una partícula de un sistema a otro. Uμ también tiene una forma invariante:

Así la cuadrivelocidad tiene una magnitud de c. Esta es una expresión del hecho que no hay tal cosa como la coordenada en reposo en relatividad: al menos, si se está siempre moviéndose a través del tiempo. Para la cuadriaceleración, ésta viene dada por . Dado esto, diferenciando la ecuación para τ produce

así en relatividad, la aceleración y la velocidad en el espacio-tiempo son ortogonales.

Teoría de la relatividad especial

146

Cuadrimomento
El momento lineal y la energía se combinan en un cuadrivector covariante:

donde m es la masa invariante. La magnitud invariante del cuadrimomento es:

Podemos trabajar con que este es un invariante por el argumento de que éste es primero un escalar, no interesa qué sistema de referencia se calcule y si la transformamos a un sistema donde el momento total sea cero.

Se observa que la energía en reposo es un invariante independiente. Una energía en reposo se puede calcular para partículas y sistemas en movimiento, por traslación de un sistema en que el momento es cero. La energía en reposo está relacionada con la masa de acuerdo con la ecuación antes discutida:

Nótese que la masa de un sistema de medida en su sistema de centro de momento (donde el momento total es cero) está dado por la energía total del sistema en ese marco de referencia. No debería ser igual a la suma de masas individuales del sistema medido en otros sistemas.

Cuadrifuerza
Al usar la tercera ley de Newton, ambas fuerzas deben estar definidas como la tasa de cambio del momentum respecto al mismo tiempo coordenado. Esto es, se requiere de las fuerzas definidas anteriormente. Desafortunadamente, no hay un tensor en cuatro dimensiones que contenga las componentes de un vector de fuerza en tres dimensiones entre sus componentes. Si una partícula no está viajando a c, se puede transformar en una fuerza de tres dimensiones del sistema de referencia de la partícula en movimiento entre los observadores de este sistema. A éstos se los suele llamar fuerza de cuatro dimensiones. Es la tasa de cambio del anterior vector de cuatro dimensiones de energía momento con respecto al tiempo propio. La versión covariante de esta fuerza es:

donde

es el tiempo propio.

En el sistema en reposo del objeto, la componente del tiempo de esta fuerza es cero a menos que la masa invariante del objeto este cambiando, en ese caso la tasa de cambio es negativa y es c2 veces. En general, se piensa que las componentes de la fuerza de cuatro dimensiones no son iguales a las componentes de la fuerza de tres porque ésta de tres está definida por la tasa de cambio del momento con respecto al tiempo coordenado, así ; mientras que la .

fuerza en cuatro dimensiones está definida por la tasa de cambio del momento respecto al tiempo propio, así

En un medio continuo, la densidad de fuerza en tres dimensiones combinada con la densidad de potencia forma un vector de cuatro dimensiones covariante. La parte espacial es el resultado de dividir la fuerza en pequeñas células (en el espacio tridimensional) por el volumen de la célula. El componente del tiempo es negativo de la potencia

Teoría de la relatividad especial transferida a la célula divida para el volumen de la célula.

147

Unificando el electromagnetismo
Investigaciones teóricas en el electromagnetismo clásico indicaron el camino para descubrir la propagación de onda. Las ecuaciones generalizando los efectos electromagnéticos encontraron que la velocidad de propagación finita de los campos E y B requiere comportamientos claros en partículas cargadas. El estudio general de cargas en movimiento forma un potencial de Liénard-Wiechert, que es un paso a través de la relatividad especial. La transformación de Lorentz del campo eléctrico de una carga en movimiento por un observador en reposo en un sistema de referencia resulta en la aparición de un término matemático comúnmente llamado campo magnético. Al contrario, el campo magnético generado por las cargas en movimiento desaparece y se convierte en un campo electrostático en un sistema de referencia móvil. Las ecuaciones de Maxwell son entonces simplemente ajustes empíricos a los efectos de la relatividad especial en un modelo clásico del universo. Como los campos eléctricos y magnéticos son dependientes de los sistemas de referencia y así entrelazados, en el así llamado campo electromagnético. La relatividad especial provee las reglas de transformación de cómo los campos electromagnéticos en un sistema inercial aparecen en otro sistema inercial.

Electromagnetismo
Las ecuaciones de Maxwell en la forma tridimensional son de por sí consistentes con el contenido físico de la relatividad especial. Pero debemos reescribirlas para hacerlas invariantes.[6] La densidad de carga cuatridimensional: y la densidad de corriente son unificadas en el concepto de vector

La ley de conservación de la carga se vuelve:

El campo eléctrico

y la inducción magnética

son ahora unificadas en un tensor de

campo electromagnético (de rango 2, antisimétrico covariante):

La densidad de la fuerza de Lorentz

ejercida en la materia por el campo electromagnético es:

La ley de Faraday de inducción y la ley de Gauss para el magnetismo se combinan en la forma:

A pesar de que se ven muchas ecuaciones, éstas se pueden reducir a solo cuatro ecuaciones independientes. Usando la antisimetría del campo electromagnético se puede reducir a la identidad o redundar en todas las ecuaciones excepto las que λ, μ, ν = 1,2,3 o 2,3,0 o 3,0,1 o 0,1,2.

Teoría de la relatividad especial

148

Sistemas no inerciales y relatividad especial
Existe cierta confusión sobre los límites de la teoría especial de la relatividad. Por ejemplo, con frecuencia en textos de divulgación se repite que dentro de esta teoría sólo pueden tratarse sistemas de referencia inerciales, en los cuales la métrica toma la forma canónica. Sin embargo, como diversos autores se han encargado de demostrar la teoría puede tratar igualmente sistemas de referencia no inerciales.[7] Obviamente el tratamiento de sistemas no inerciales en la teoría de la relatividad especial resulta más complicado que el de los sistemas inerciales. Einstein y otros autores consideraron antes del desarrollo de la relatividad general casi exclusivamente sistemas de coordenadas relacionados por transformaciones de Lorentz, razón por la cual se piensa que esta teoría es sólo aplicable a sistemas inerciales.

Relatividad general
Actualmente se considera como relatividad general el estudio del espacio-tiempo deformado por campos gravitatorios, dejando el estudio de los sistemas de referencia acelerados en espacios planos dentro de la relatividad especial. Igualmente la relatividad general es una de las teorías más relevantes para la construcción de modelos cosmológicos sobre el origen del universo. La teoría general de la relatividad fue introducida históricamente en conexión con el principio de equivalencia y el intento de explicar la identidad entre la masa inercial y la masa gravitatoria. En esta teoría se usaban explícitamente sistemas de coordenadas no relacionados entre sí por transformaciones de Lorentz o similares, con lo cual claramente en la resolución de muchos problemas se hacía patente el uso de sistemas de referencia no inerciales. Estos hechos condujeron a la confusión en muchos textos de divulgación de que los sistemas no inerciales requieren del desarrollo de la teoría general de la relatividad.

Tests de postulados de la relatividad especial
• • • • • Experimento Michelson-Morley – arrastre del éter. Experimento Hamar – obstrucción del flujo del éter. Experimento Trouton-Noble – torque en un condensador producido por el arrastre del éter. Experimento Kennedy-Thorndike – contracción del tiempo. Experimento sobre las formas de emisión.

Referencias
[1] « Zur Elektrodynamik bewegter Körper (http:/ / www. pro-physik. de/ Phy/ pdfs/ ger_890_921. pdf)» (en alemán, PDF). Annalen der Physik (Berna) 17:  pp. pp. 891-921. 1905. . Consultado el 13 de agosto de 2009. [2] Pais, Abraham (1984). El señor es sutil...: la ciencia y la vida de Albert Einstein. Barcelona : Ariel. ISBN 84-344-8013-1. [3] Cualquier observador inercial que se mueva en una dirección no ortogonal a la separación espacial de los sucesos. [4] Robert M. Wald, General Relativity, p. 4 [5] Albert Einstein (1927). « Isaac Newton (http:/ / www. pbs. org/ wgbh/ nova/ newton/ einstein. html)» (en inglés). Smithsonian Annual Report. NOVA. Consultado el 13 de agosto de 2009. [6] E. J. Post (1962). Formal Structure of Electromagnetics: General Covariance and Electromagnetics. Dover Publications Inc. ISBN 0-486-65427-3. [7] A. A. Logunov (1998). Curso de Teoría de la Relatividad y de la gravitación. Moscú: Universidad Estatal de Lomonósov. ISBN 5-88417-162-5.

Teoría de la relatividad especial

149

Bibliografía
• Alemañ Berenguer, Rafael Andrés (2004). Relatividad para todos. ISBN 84-95495-43-0. • Alemañ Berenguer, Rafael Andrés (2005). Física para todos. ISBN 84-95495-60-0. • Bertrand Russell, El ABC de la relatividad, 1925.

Enlaces externos
• • Wikimedia Commons alberga contenido multimedia sobre Teoría de la relatividad especial. Commons Wikiquote alberga frases célebres de o sobre Teoría de la relatividad especial. Wikiquote

Wikilibros • • Wikilibros alberga un libro o manual sobre Teoría de la Relatividad para torpes. Wikcionario tiene definiciones para Relatividad Especial.Wikcionario

Wikinoticias • Artículos en Wikinoticias: Dos alemanes aseguran haber superado la velocidad de la luz • Contenido sencillo sobre relatividad (en inglés) (http://www-gap.dcs.st-and.ac.uk/~history/HistTopics/ Special_relativity.html) • Einstein y la revolución científica del siglo XX (http://www.ucm.es/info//hcontemp/leoc/hciencia.htm) • Einstein y la teoría especial de la relatividad. La abolición del espacio y el tiempo absolutos (http://www.ucm. es/info/hcontemp/leoc/Einstein y la relatividad especial.pdf) • Ejercicios sobre Relatividad Especial (http://www.hverdugo.cl/relatividad.htm) • Notas sobre Relatividad Especial (http://foro.migui.com/phpbb/viewtopic.php?t=1353) • "On the Electrodynamics of Moving Bodies", el artículo de Einstein donde plantea la RE (Jun 1905)(traducción al inglés) (http://www.fourmilab.ch/etexts/einstein/specrel/www/) • Relatividad sin fórmulas (http://eltamiz.com/2007/05/13/relatividad-sin-formulas-preludio/) • Vídeos de objetos vistos a velocidades cuasilumínicas (http://www.tat.physik.uni-tuebingen.de/~weiskopf/ gallery/index.html) (Universidad de Tübingen) • Artículo "Realitividad para tontos" (http://weblogpv.blogspot.com/2006/01/ teora-de-la-relatividad-para-tontos-i.html) • Artículo original de Einstein en español (http://www.uam.es/personal_pdi/ciencias/jcuevas/Teaching/ articulo-original.pdf)

Relatividad general

150

Relatividad general
Algunas partes de este artículo pueden resultar complicadas, en ese caso se recomienda Introducción a la relatividad general La teoría general de la relatividad o relatividad general es una teoría del campo gravitatorio y de los sistemas de referencia generales, publicada por Albert Einstein en 1915 y 1916. El nombre de la teoría se debe a que generaliza la llamada teoría especial de la relatividad. Los principios fundamentales introducidos en esta generalización son el Principio de equivalencia, que describe la aceleración y la gravedad como aspectos distintos de la misma realidad, la noción de la curvatura del espacio-tiempo y el principio de covariancia generalizado. La intuición básica de Einstein fue postular que en un punto concreto no se puede distinguir experimentalmente entre un cuerpo acelerado uniformemente y un campo gravitatorio uniforme. La teoría general de la relatividad permitió también reformular el campo de la cosmología.

Historia

Representación artística de la explosión de la supernova SN 2006gy, situada a 238 millones de años luz. De ser válido el principio de acción a distancia, las perturbaciones de origen gravitatorio de este estallido nos afectarían inmediatamente, más tarde nos llegarían las de origen electromagnético, que se transmiten a la velocidad de la luz.

Poco después de la publicación de la teoría de la relatividad en 1905, Albert Einstein comenzó a pensar en cómo incorporar la gravedad en su nuevo marco relativista. En 1907, comenzando con un sencillo experimento mental basado en un observador en caída libre, se embarcó en lo que sería una búsqueda de ocho años de una teoría relativista de la gravedad. Después de numerosos desvíos y falsos comienzos, su trabajo culminó en noviembre de 1915 con la presentación a la Academia Prusiana de Ciencias de lo que hoy son conocidas como las ecuaciones de campo de Einstein. Estas ecuaciones especifican cómo la geometría del espacio y el tiempo está influenciado por la materia presente, y forman el núcleo de la teoría de la relatividad general de Einstein. Las ecuaciones de campo de Einstein son no lineales y muy difíciles de resolver. Einstein utilizó los métodos de aproximación en la elaboración de las predicciones iniciales de la teoría. Pero ya en 1916, el astrofísico Karl Schwarzschild encontró la primera solución exacta no trivial de las ecuaciones de campo de Einstein, la llamada Métrica de Schwarzschild. Esta solución sentó las bases para la descripción de las etapas finales de un colapso gravitacional, y los objetos que hoy conocemos como agujeros negros. En el mismo año, los primeros pasos hacia la generalización de la solución de Schwarzschild a los objetos con carga eléctrica fueron tomadas, que finalmente resultaron en la solución de Reissner-Nordström, ahora asociada con la carga eléctrica de los agujeros negros. En 1917, Einstein aplicó su teoría al universo en su conjunto, iniciando el campo de la cosmología relativista. En línea con el pensamiento contemporáneo, asumió un universo estático, añadiendo un nuevo parámetro a su ámbito original ecuaciones -la constante cosmológica- para reproducir esa "observación". En 1929, sin embargo, el trabajo de Hubble y otros han demostrado que nuestro universo se está expandiendo. Esto es fácilmente descrito por las soluciones encontradas por Friedmann para la expansión cosmológica en 1922, que no requieren de una constante cosmológica. Lemaître utilizó estas soluciones para formular la primera versión de los modelos del Big Bang, en la

Relatividad general que nuestro universo ha evolucionado desde un estado anterior extremadamente caliente y denso. Einstein declaró más tarde la constante cosmológica el mayor error de su vida. Durante ese período, la relatividad general se mantuvo como una especie de curiosidad entre las teorías físicas. Fue claramente superior a la gravedad newtoniana, siendo consistente con la relatividad especial y contestaba varios efectos no explicados por la teoría newtoniana. El mismo Einstein había demostrado en 1915 cómo su teoría explica el avance del perihelio anómalo del planeta Mercurio sin ningún parámetro arbitrario. Del mismo modo, en una expedición de 1919 liderada por Eddington confirmaron la predicción de la relatividad general para la desviación de la luz estelar por el Sol durante el eclipse total de Sol del 29 de mayo de 1919, haciendo a Einstein instantáneamente famoso. Sin embargo, la teoría ha entrado en la corriente de la física teórica y la astrofísica sólo con el desarrollo de aproximadamente entre 1960 y 1975, ahora conocido como la edad de oro de la relatividad general. Los físicos empezaron a comprender el concepto de un agujero negro, e identificar la manifestacion de objetos astrofísicos como los cuásares. Cada vez más precisas, las pruebas del sistema solar confirmaron el poder predictivo de la teoría, y la cosmología relativista, también se volvió susceptible a encaminar pruebas observacionales.

151

¿Por qué es necesaria la teoría de relatividad general?
Los éxitos explicativos de la teoría de la relatividad especial condujeron a la aceptación de la teoría prácticamente por la totalidad de los físicos. Eso llevó a que antes de la formulación de la relatividad general existieran dos teorías físicas incompatibles: • La teoría especial de la relatividad, covariante en el sentido de Lorentz, que integraba adecuadamente el electromagnetismo, y que descarta explícitamente las acciones instantáneas a distancia. • La teoría de la gravitación de Newton, explícitamente no-covariante, que explicaba de manera adecuada la gravedad mediante acciones instantáneas a distancia (concepto de fuerza a distancia). La necesidad de buscar una teoría que integrase, como casos límites particulares, las dos anteriores requería la búsqueda de una teoría de la gravedad que fuese compatible con los nuevos principios relativistas introducidos por Einstein. Además de incluir la gravitación en una teoría de formulación covariante, hubo otra razón adicional. Einstein había concebido la teoría especial de la relatividad como una teoría aplicable sólo a sistemas de referencia inerciales, aunque realmente puede generalizarse a sistemas acelerados sin necesidad de introducir todo el aparato de la relatividad general. La insatisfacción de Einstein con su creencia de que la teoría era aplicable sólo a sistemas inerciales le llevó a buscar una teoría que proporcionara descripciones físicas adecuadas para un sistema de referencia totalmente general. Esta búsqueda era necesaria, ya que según la relatividad especial ninguna información puede viajar a mayor velocidad que la luz, y por lo tanto no puede existir relación de causalidad entre dos eventos unidos por un intervalo espacial. Sin embargo, uno de los pilares fundamentales de la gravedad newtoniana, el principio de acción a distancia, supone que las alteraciones producidas en el campo gravitatorio se transmiten instantáneamente a través del espacio. La contradicción entre ambas teorías es evidente, puesto que asumir las tesis de Newton llevaría implícita la posibilidad de que un observador fuera afectado por las perturbaciones gravitatorias producidas fuera de su cono de luz. Einstein resolvió este problema interpretando los fenómenos gravitatorios como simples alteraciones de la curvatura del espacio-tiempo producidas por la presencia de masas. De ello se deduce que el campo gravitatorio, al igual que el campo electromagnético, tiene una entidad física independiente y sus variaciones se transmiten a una velocidad finita en forma de ondas gravitacionales. La presencia de masa, energía o momentum en una determinada región de la variedad tetradimensional, provoca la alteración de los coeficientes de la métrica, en una forma cuyos detalles pormenorizados analizaremos en las secciones siguientes. En esta visión, la gravitación sólo sería una pseudo-fuerza (equivalente a la fuerza de Coriolis, o a la fuerza centrífuga) efecto de haber escogido un sistema de referencia no-inercial.

Relatividad general

152

Principios generales
Las características esenciales de la teoría de la relatividad general son las siguientes: • El principio general de covariancia: las leyes de la física deben tomar la misma forma matemática en todos los sistemas de coordenadas. • El movimiento libre inercial de una partícula en un campo gravitatorio se realiza a través de trayectorias geodésicas. • El principio de equivalencia o de invariancia local de Lorentz: las leyes de la relatividad especial (espacio plano de Minkowski) se aplican localmente para todos los observadores inerciales.

Principio de covariancia
El principio de covariancia es la generalización de la teoría de la relatividad especial, donde se busca que las leyes físicas tengan la misma forma en todos los sistemas de referencia. Esto último equivale a que todos los sistemas de referencia sean indistinguibles, y desde el punto de vista físico equivalentes. En otras palabras, que cualquiera que sea el movimiento de los observadores, las ecuaciones tendrán la misma forma matemática y contendrán los mismos términos. Ésta fue la principal motivación de Einstein para que estudiara y postulara la relatividad general. El principio de covariancia sugería que las leyes debían escribirse en términos de tensores, cuyas leyes de transformación covariantes y contravariantes podían proporcionar la "invariancia" de forma buscada, satisfaciéndose el principio físico de covariancia.

El principio de equivalencia
Un hito fundamental en el desarrollo de la teoría de la relatividad general lo constituyó el principio enunciado por Albert Einstein en el año 1912: principio de equivalencia, al que su autor calificó como «la idea más feliz de mi vida». Dicho principio supone que un sistema que se encuentra en caída libre y otro que se mueve en una región del espacio-tiempo sin gravedad se encuentran en un estado físico sustancialmente similar: en ambos casos se trata de sistemas inerciales. La mecánica clásica distinguía entre cuerpos de movimiento inercial (en reposo o moviéndose a velocidad constante) o cuerpos de movimiento no inercial (aquellos sometidos a un movimiento acelerado). En virtud de la segunda ley de Newton, toda aceleración estaba causada por la aplicación de una fuerza exterior. La relación entre fuerza y aceleración se expresaba mediante esta fórmula:

Los dos astronautas de la imagen se encuentran en una nave en caída libre. Por ello no experimentan gravedad alguna (su estado se describe coloquialmente como de "gravedad cero"). Se dice por ello que son observadores inerciales.

Donde a la aceleración, F la fuerza y m la masa. La fuerza podía ser de origen mecánico, electromagnético o, cómo no, gravitatorio. Según los cálculos de Galieo y de Newton, la aceleración gravitatoria de los cuerpos era constante y equivalía a 9,8 m/s2 sobre la superficie terrestre. La fuerza con la que un cuerpo era atraído hacia el centro de la Tierra se denominaba peso. Evidentemente, según los principios de la mecánica clásica un cuerpo en caída libre no es un sistema inercial, puesto que se mueve aceleradamente dentro del campo gravitatorio en que se encuentra.

Relatividad general Sin embargo, la teoría de la relatividad considera que los efectos gravitatorios no son creados por fuerza alguna, sino que encuentran su causa en la curvatura del espacio-tiempo generada por la presencia de materia. Por ello, un cuerpo en caída libre es un sistema (localmente) inercial, ya que no está sometido a ninguna fuerza (porque la gravedad no es como tal en relatividad general). Un observador situado en un sistema inercial (como una nave en órbita) no experimenta ninguna aceleración y es incapaz de discernir si está atravesando o no, un campo gravitatorio. Como consecuencia de ello, las leyes de la física se comportan como si no existiera curvatura gravitatoria alguna. De ahí que el principio de equivalencia también reciba el nombre de Invariancia Local de Lorentz: En los sistemas inerciales rigen los principios y axiomas de la relatividad especial. El principio de equivalencia implica asimismo que los observadores situados en reposo sobre la superficie de la tierra no son sistemas inerciales (experimentan una aceleración de origen gravitatorio de unos 9,8 metros por segundo al cuadrado, es decir, "sienten su peso").

153

Ejemplos de sistemas inerciales según el Principio de Equivalencia
Sistema ¿Es inercial? ¿Es inercial? (Principio de Equivalencia) (Mecánica newtoniana) Sí No Sí Sí Sí No Sí No No No

Cuerpo en caída libre Cuerpo en reposo sobre la superficie terrestre Planeta orbitando alrededor del sol Nave precipitándose hacia la tierra Cohete despegando desde una base de lanzamiento

Aunque la mecánica clásica tiene en cuenta la aceleración medida por un observador en reposo respecto al campo gravitatorio (p.e. un astrónomo); el Principio de Equivalencia, contrariamente, toma en consideración la aceleración experimentada por un observador situado en el sistema en cuestión: cualquier cuerpo que se mueva sin restricciones por un campo gravitatorio puede ser considerado como un sistema inercial. Es el caso de los planetas que orbitan en torno del Sol y de los satélites que orbitan alrededor de los primeros: los habitantes de la Tierra no llegan a percibir si nos estamos acercando o alejando del Sol, ni si nos encontramos en el afelio o en el perihelio, a pesar de las enormes diferencias de la gravedad solar. La gravedad se convierte, en virtud del Principio de Equivalencia, en una fuerza aparente, como la fuerza centrífuga y la fuerza de Coriolis: en estos dos últimos supuestos su aparición es debida a la elección de un marco de referencia acelerado (un observador situado en la superficie de una esfera en rotación). En el caso de la gravedad, únicamente percibimos la fuerza aparente gravitatoria cuando escogemos un sistema de referencia no inercial (en reposo sobre la superficie terrestre), pero no cuando nos situamos en otro que sí lo es (un cuerpo en caída libre). Aunque el principio de equivalencia fue históricamente importante en el desarrollo de la teoría, no es un ingrediente necesario de una teoría de la gravedad, como prueba el hecho de que otras teorías métricas de la gravedad, como la teoría relativista de la gravitación prescindan del principio de equivalencia. Además conviene señalar que el principio de equivalencia no se cumple en presencia de campos electromagnéticos, por ejemplo una partícula cargada moviéndose a lo largo de una geodésica de un espacio-tiempo cualquiera en general emitirá radiación, a diferencia de una partícula cargada moviéndose a lo largo de una geodésica del espacio de Minkowski. Ese y otros hechos sugieren que el principio de equivalencia a pesar de su equivalencia histórica no es parte esencial de una teoría relativista de la gravitación.

Relatividad general

154

Formulación y consideraciones generales
No te preocupes por tus problemas con las matemáticas; te aseguro que los míos son mucho mayores. A. Einstein, en una carta a una niña de nueve años. Matemáticamente, Einstein modelizó la geometría del espacio-tiempo por una variedad pseudoriemanniana y sus ecuaciones de campo establecen que la curvatura seccional de esta variedad en un punto está relacionada directamente con el tensor de energía en dicho punto. Dicho tensor es una medida de la densidad de materia y energía. La curvatura le dice a la materia como moverse, y de forma recíproca la materia le dice al espacio como curvarse. La ecuación de campo posible no es única, habiendo posibilidad de otros modelos sin contradecir la observación. La relatividad general se distingue de otras teorías de la gravedad por la simplicidad de acoplamiento entre materia y curvatura. Aunque todavía no existe una teoría cuántica de la gravedad que incorpore tanto a la mecánica cuántica como a la teoría de la relatividad general y que proponga una ecuación de campo gravitatorio que sustituya a la de Einstein, pocos físicos dudan que una teoría cuántica de la gravedad pondrá a la relatividad general en el límite apropiado, así como la relatividad general predice la ley de la gravedad en el límite no relativista.

La curvatura del espacio-tiempo
La aceptación del principio de equivalencia por Albert Einstein le llevó a un descubrimiento ulterior: la contracción o curvatura del tiempo como consecuencia de la presencia de un campo gravitatorio, que quedó expresado en su artículo de 1911 "Sobre la influencia de la gravedad en la propagación de la luz".[1] Supongamos que un fotón emitido por una estrella cercana se aproxima a la Tierra. En virtud de la ley de conservación del tetramomentum la energía conservada del fotón permanece invariante. Por otro lado, el principio de equivalencia implica que un observador situado en el fotón (que es un sistema inercial, es decir, se halla en caída libre) no experimenta ninguno de los efectos originados por el campo gravitatorio terrestre. De ello se deduce que la energía conservada del fotón no se altera como consecuencia de la acción de la gravedad, y tampoco lo hace la frecuencia de la luz, ya que, según la conocida fórmula de la física cuántica, la energía de un fotón es igual a su frecuencia v multiplicada por la constante de Planck h: E = hν. Ahora bien, si las observaciones las realizara un astrónomo situado en la superficie de la Tierra, esto es, en reposo respecto su campo gravitatorio, los resultados serían muy diferentes: el astrónomo podría comprobar cómo el fotón, por efecto de su caída hacia la Tierra, va absorbiendo progresivamente energía potencial gravitatoria y, como consecuencia de esto último, su frecuencia se corre hacia el azul.[2] Los fenómenos de absorción de energía por los fotones en caída libre y corrimiento hacia el azul se expresan matemáticamente mediante las siguientes ecuaciones:
En la imagen se reproduce el corrimiento gravitacional hacia el rojo de un fotón que escapa del campo gravitatorio solar y se dirige hacia la Tierra. En este caso, la onda electromagnética pierde progresivamente energía y su frecuencia disminuye conforme aumenta la distancia al Sol. en

donde

es la energía medida por un observador

reposo respecto al campo gravitatorio (en este caso un astrónomo), el potencial gravitatorio de la región donde se encuentra éste, la energía conservada del fotón, la constante de Planck. la

frecuencia de emisión,

es la frecuencia percibida por el observador (y corrida hacia el azul) y

Relatividad general Ahora bien, en el párrafo anterior hemos demostrado que la energía conservada del fotón permanece invariante. Por tanto, ¿cómo es posible que exista esta divergencia entre los resultados de la medición de la energía obtenidos por el astrónomo ( ) y la energía conservada del fotón ( )? La única manera de resolver esta contradicción es considerando que el tiempo se ralentiza como consecuencia de la presencia de un campo gravitatorio. De este modo, la citada ecuación: puede escribirse de este modo:

155

Es decir, la frecuencia es igual al número de ciclos que tienen lugar en un determinado período (generalmente, un segundo). Donde es el tiempo medido por un observador situado a una distancia infinita del cuerpo masivo (y por lo tanto no experimenta la atracción gravitatoria de éste), mientras que es el tiempo medido por un observador bajo la influencia del campo gravitatorio y en reposo respecto a este (como, por ejemplo, una persona situada sobre la superficie terrestre). De ahí se deduce que cerca de un cuerpo masivo el tiempo se ralentiza, siguiendo estas reglas matemáticas:

En una singularidad espacio-temporal (como las que existen en el interior de los agujeros negros), la densidad de masa-materia y el campo gravitatorio tienden al infinito, lo que provoca la congelación del tiempo y por lo tanto la eliminación de todo tipo de procesos dinámicos:

La contracción del tiempo debido a la presencia de un campo gravitatorio fue confirmada experimentalmente en el año 1959 por el experimento Pound-Rebka-Snider, llevado a cabo en la universidad de Harvard. Se colocaron detectores electromagnéticos a una cierta altura y se procedió a emitir radiación desde el suelo. Todas las mediciones que se realizaron confirmaron que los fotones habían experimentado un corrimiento hacia el rojo durante su ascenso a través del campo gravitatorio terrestre. Hoy en día, el fenómeno de la contracción del tiempo tiene cierta importancia en el marco del servicio localizador GPS, cuyas exigencias de exactitud requieren de una precisión extrema: Basta con que se En la imagen, dos partículas en reposo relativo, en un produzca un retraso de 0.04 microsegundos en la señal espacio-tiempo llano. para que se produzca un error de posicionamiento de unos 10 metros. De ahí que las ecuaciones de Einstein hayan de ser tenidas en cuenta al calcular la situación exacta de un determinado objeto sobre la superficie terrestre. Desde un punto de vista teórico, el artículo de Einstein de 1911 tuvo una importancia aún mayor. Pues, la

Relatividad general

156

contracción del tiempo conllevaba también, en virtud de los principios de la relatividad especial, la contracción del espacio. De ahí que fuera inevitable a partir de este momento descartar la existencia de un espacio-tiempo llano, y fuera necesario asumir la curvatura de la variedad espacio-temporal como consecuencia de la presencia de masas. En la relatividad general, fenómenos que la mecánica clásica atribuye a la acción de la fuerza de gravedad, tales como una caída libre, la órbita de un planeta o la trayectoria de una nave espacial, son interpretados como efectos geométricos del movimiento en un espacio-tiempo curvado. De hecho una partícula libre en un campo gravitatorio sigue líneas de curvatura mínima a través de este espacio tiempo-curvado. Finalmente, podemos hacer referencia a la desviación de los rayos de la luz como consecuencia de la presencia de un cuerpo masivo, fenómeno que da lugar a efectos ópticos como las lentes gravitacionales o los anillos de Einstein. Frente de onda desviado. Experimento de Eddington. Lente gravitacional.

Se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas ("rectas"), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.

Relatividad general

157

Los diferentes tensores y escalares de la relatividad general
La derivada covariante
Uno de los conceptos esenciales sobre el que gira toda la teoría de la relatividad general es el de derivada covariante (a veces impropiamente llamada conexión afín), que fue definida por primera vez por el matemático italiano Tullio Levi-Civita y que puede ser considerada tanto desde una perspectiva física como desde otra matemática. Desde un punto de vista físico, la derivada ordinaria de la velocidad es la aceleración de un cuerpo medida por un observador externo en reposo respecto a un campo gravitatorio (por ejemplo, un astrónomo situado sobre la superficie terrestre). En este caso el observador se mantiene a una distancia r constante del centro de masas, pero no así el objeto observado, que progresivamente se va aproximando al origen del campo gravitatorio. Por el contrario, la derivada covariante de la velocidad
[4]

ó

Los cuerpos en caída libre (como las naves en órbita) son sistemas inerciales en los que la derivada covariante de su velocidad es nula ( ). Por ello, no experimentan ningún tipo de aceleración inercial provocada por la "fuerza gravitatoria". Sin embargo, un observador externo, como un astrónomo situado en la Tierra, puede observar cómo dicho cuerpo en caída libre se aproxima a la Tierra con una aceleración creciente (de ahí que la derivada ordinaria de la velocidad en este caso sea diferente a cero -

es la aceleración medida por un observador comóvil, es

decir, que está en reposo respecto al cuerpo en caída libre (por ejemplo, el piloto de un avión en caída libre o los tripulantes de una nave espacial con sus motores apagados). En resumidas cuentas, la derivada ordinaria se utiliza para -) computar la aceleración ordinaria de un cuerpo, mientras que la derivada covariante es empleada para calcular su aceleración inercial. Según la mecánica galileana y newtoniana estos dos tipos de aceleración son idénticos, y en base a este axioma se desarrollaron nuevos principios mecánicos como el Principio de d'Alembert. Sin embargo, del principio de equivalencia de Einstein se deduce que cuando un cuerpo está sometido a un campo gravitatorio, su aceleración ordinaria cambia, pero no su aceleración inercial. De ahí que para Einstein fuera absolutamente necesario introducir en su teoría el concepto de derivada covariante. Desde un punto de vista estrictamente matemático, el cálculo de la derivada covariante tiene lugar a través de un sencillo procedimiento. Se procede en primer lugar al cómputo de la derivada parcial covariante y luego se generaliza ésta. La derivada ordinaria se aplica exclusivamente sobre los componentes de un vector, mientras que la derivada covariante se aplica también sobre las bases del espacio vectorial:

Sobre esta ecuación procedemos a aplicar la regla del producto (o de Leibniz),

Relatividad general

158

Llegados a este punto introducimos una nueva notación, los símbolos de Christoffel, que pueden ser definidos como el componente de la derivada parcial de respecto a : . De este modo:

Realizamos un intercambio de índices (

por

) en el último

término del segundo miembro de la ecuación:
Dice la leyenda apócrifa que fue la manzana de un árbol la que provocó que Newton se diera cuenta que los objetos caen y por lo tanto aceleran como consecuencia de la gravitación universal. Y es que los objetos en reposo sobre la superficie terrestre experimentan, como consecuencia de la fuerza aparente gravitatoria, una aceleración inercial de (y por lo tanto la derivada covariante de su velocidad también tiene ese valor [3] ). Sin embargo, dichos objetos, puesto que están en reposo, tienen una aceleración relativa nula respecto a un observador terrestre (es decir, la derivada ordinaria de su velocidad es cero ( )

Y obtenemos con ello los componentes de la derivada parcial covariante de la velocidad, que equivalen a la expresión entre paréntesis:

Generalizamos dichos componentes multiplicándolos por el componente de la tetravelocidad ( ) y obtenemos

con ello la derivada covariante de la velocidad:

Puesto que para un observador inercial (p.e. un cuerpo en caída libre) siguiente forma:

, esta última ecuación toma la

Estas fórmulas reciben el nombre de ecuación de las líneas geodésicas, y se utilizan para calcular la aceleración gravitatoria de cualquier cuerpo.

Relatividad general

159

A los lectores principiantes puede chocarles la propia definición de los símbolos de Christoffel. A fin de cuentas, en el espacio euclideo, la derivada de una base (por ejemplo ) respecto a otra cordenada (pongamos ) es siempre cero, por la simple razón de que las bases de ambas coordenadas son ortogonales. Sin embargo, esto no sucede así en las variedades curvas, como por ejemplo las superficies de un cilindro o de una esfera: En tales casos, los símbolos de Christoffel no son iguales a cero, sino que son funciones de las derivadas del tensor métrico. La relación matemática entre estas dos magnitudes matemáticas se expresa mediante la siguiente ecuación:

Los símbolos de Christoffel constituyen el parámetro principal que determina cuán grande es el grado de curvatura existente en una región determinada y con su ayuda podemos conocer cuál va a ser la trayectoria de una geodésica en un espacio curvo. En el caso de la variedad espacio-temporal, la Teoría de la Relatividad afirma que la curvatura viene originada por la presencia de tetramomentum y por ello, cuanta mayor sea la densidad de materia existente en una determinada región, mayores serán los valores de los símbolos de Christoffel.

Con ayuda de la ecuación de las líneas geodésicas podemos determinar la aceleración radial y angular de la Tierra respecto al Sol. Puesto que la curvatura gravitatoria los valores de los símbolos de Christoffel aumentan conforme nos acercamos al Sol, de ello se deduce que la aceleración de la Tierra es máxima en las proximidades del perihelio, exactamente tal y como predicen las [5] [6] leyes de Newton y Kepler.

Los principios de general covariancia y de acoplamiento mínimo
En un espacio-tiempo curvo, las leyes de la física se modifican mediante el Principio de acoplamiento mínimo, que supone que las ecuaciones matemáticas en cuya virtud se expresan aquellas experimentan las siguientes modificaciones: • La derivada ordinaria es sustituida por la derivada covariante. • La métrica de Minkowski es sustituida por una formulación general del tensor métrico.

De este modo, la ecuación galileana de los sistemas inerciales se transforma en virtud de dicho principio en la ecuación relativista de las líneas geodésicas:

Ley de conservación de la energía:

Sin embargo, en virtud del principio de simetría de los símbolos de Christoffel, las leyes electromagnéticas en general no experimentan modificaciones debidas a la curvatura gravitatoria:

Relatividad general

160

Alteración de las leyes físicas producida por la curvatura
Objeto o ley físico-matemática Espacio-tiempo llano Espacio-tiempo curvo ¿Se produce alteración por la curvatura? Sí

Ley de conservación de la energía Tensor electromagnético Ecuaciones de Maxwell Velocidad de la luz Ecuación de un sistema inercial Aceleración Volumen

No No No Sí Sí Sí

• Ecuación líneas geodésicas

El tensor de Riemann y la curvatura de las líneas de universo
Véanse también: Tensor de curvatura, Transporte paralelo y Fuerza de marea

La medición de la curvatura de cualquier variedad (ya se trate del espacio-tiempo, de una esfera o de una silla de montar) viene determinada por el tensor de curvatura o tensor de Riemann, que es una función de los símbolos de Christoffel y sus derivadas de primer orden. El tensor de Riemann tiene una importancia fundamental a la hora de calcular la desviación de dos líneas en origen paralelas cuando se desplazan a través de una superficie curva. Es bien sabido que en una variedad llana las líneas paralelas jamás se cortan, pero sin embargo esta regla no rige en el caso de las superficies curvas de geometría elíptica. Supongamos que dos viajeros salen del Ecuador en dirección norte. En ambos casos, el ángulo que la trayectoria de su barco forma con el Ecuador es inicialmente de 90º, por lo que se trata de dos líneas paralelas. Sin embargo, conforme los viajeros se van desplazando hacia el norte, su distancia recíproca se hace cada vez más pequeña hasta que se hace nula en el Polo Norte, que es donde se cortan sus trayectorias de viaje. Para calcular la tasa de aproximación entre las dos geodésicas utilizamos la siguiente ecuación:

Aproximación de dos geodésicas (en verde) en una superficie esférica. Su vector de separación (primero rosa, luego azul) va progresivamente contrayéndose conforme nos acercamos al Polo Norte, siguiendo las pautas marcadas por el tensor de Riemann.

donde

y

representan el recorrido desde el Ecuador de ambas líneas geodésicas y

la distancia de

separación entre ellas.

Relatividad general

161 En el espacio-tiempo, que también es una variedad curva, las cosas funcionan de un modo parecido: el tensor de Riemann determina la aceleración recíproca entre las líneas de universo de dos sistemas inerciales (p.e. dos asteroides que se acercan progresivamente como consecuencia de su mutua atracción gravitatoria). Para calcular dicha aceleración, aplicamos de nuevo la conocida fórmula, modificándola ligeramente:

donde
Aceleración recíproca de dos líneas de universo geodésicas. Como vemos, conforme se avanza en la coordenada temporal, el tensor de Riemann curva las geodésicas y provoca el acercamiento recíproco de las dos partículas.

es un parámetro afín (el tiempo local) y

y

son

los vectores de cuadrivelocidad de ambos cuerpos que, según el esquema de Minkowski, equivalen geométricamente a campos vectoriales tangentes a ambas líneas de universo.

Todo esto nos conecta con lo que en física newtoniana se denominan fuerzas de marea, responsables de múltiples fenómenos astronómicos y cuya base teorética reposa en el planteamiento siguiente: Supongamos que una determinada nave espacial está cayendo a un agujero negro. Es evidente que la proa de la nave experimenta una fuerza gravitatoria más intensa que la popa, por el simple hecho de que la primera está más próxima que la segunda al horizonte de sucesos. Si la diferencia de aceleraciones entre la proa y la popa es lo suficientemente intensa, la nave puede llegar a distorsionarse y quebrarse definitivamente. El gradiente gravitatorio es también responsable del ciclo de mareas: Las zonas de la tierra más cercanas a la Luna, experimentan una mayor atracción gravitatoria que las más lejanas a ella, lo que provoca que el agua del mar se acumule en aquellas áreas de la superficie terrestre que están alineadas con la Luna.

Fuerzas de marea.

En relatividad general, la aceleración de marea viene originada por el tensor de Riemann. Hay una correspondencia casi natural entre las ecuaciones newtonianas y las relativistas. En efecto, la ecuación newtoniana utilizada para computar las fuerzas de marea es la siguiente:

donde a es la aceleración de marea,

el potencial gravitatorio y

la distancia entre las dos partículas. Las fuerzas

de marea vienen determinadas por las derivadas de segundo orden del potencial gravitatorio. Desde el punto de vista relativista, las fuerzas de marea vienen determinadas por el tensor de Riemann y si la región del espacio tiene una escasa densidad de cuadrimomento y una distribución uniforme de la curvatura, los componentes aquél toman aproximadamente los valores siguientes:

para el resto de los índices De ahí que sea muy simple deducir la ecuación clásica partir de la relativista:

Relatividad general

162

Como se puede deducir de los párrafos anteriores, en relatividad general las fuerzas de marea están determinadas por el tensor de Riemann y las primeras derivadas de los símbolos de Christoffel. Si estas magnitudes tienen un valor no nulo, el diferencial de los símbolos de Christoffel provoca la dispersión de las geodésicas correspondientes a partículas de un fluido determinado.

Las geodésicas (trayectorias inerciales en el espacio-tiempo) vienen determinadas por los valores de los símbolos de Christoffel. Si éstos son constantes, las partículas de un fluido se mueven uniformemente, a una misma velocidad y aceleración, y no se altera su distancia entre sí. Pero si los componentes de los símbolos de Christoffel varían a lo largo de una determinada región, ello conlleva la divergencia de las líneas de universo y la distorsión del fluido, en la medida en que cada una de sus partes constituyentes acelera distintamente. Las fuerzas de marea y el tensor de Riemann tienen una importancia fundamental en la formación y configuración de los sistemas planetarios, así como en multitud de procesos astrofísicos y cosmológicos. Sirva de ejemplo nuestro propio Sistema Solar: Hace cerca de 4.500 millones de años, una nube molecular alcanzó la densidad y la compresión suficientes como para transformarse en un sistema planetario. La mayor parte del material de la nube se precipitó sobre en torno al núcleo, dando lugar al Sol. Sin embargo, ciertas cantidades de gas y de polvo continuaron rotando bajo la forma de un disco de acreción, y se aglutinaron para

En esta recreación artística se reproducen el planeta y los dos cinturones de asteroides que orbitan alrededor de la estrella Épsilon Eridani.

dar origen a planetesimales y posteriormente a planetas. Sin embargo, en la zona situada entre Marte y Júpiter, los tensores de Riemann correspondientes a las masas del Sol y de Júpiter generaron unas intensas fuerzas de marea que dispersaron las líneas de universo de los planetesimales allí situados, impidiendo que se agregaran entre sí para dar lugar a un cuerpo masivo. Los planetesimales permanecieran dispersos bajo la forma de un cinturón de asteroides. Este fenómeno que acaba de describirse no es exclusivo de nuestro Sistema Solar, sino que ha sido observado en multitud de sistemas exoplanetarios descubiertos desde principios de los años noventa hasta la actualidad, como los mostrados en las ilustraciones de esta sección. Las fuerzas de marea también poseen cierta importancia en el desarrollo de otros fenómenos astronómicos como las supernovas de tipo II, deflagraciones cósmicas que suelen tener lugar en el

El sistema planetario de la estrella HD 69830 viene compuesto por un masivo cinturón de asteroides y por tres exoplanetas de masa neptuniana cuyos efectos gravitatorios dispersan las líneas de universo de los asteroides, impidiendo que se agreguen para formar nuevos planetas.

marco de sistemas estelares dobles. En efecto, en los sitemas binarios es frecuente que una estrella masiva orbite alrededor de una enana blanca. Si el tamaño de la primera sobrepasa el límite de Roche, el tensor de Riemann

Relatividad general generado por la masa de la enana blanca extrae material de las capas exteriores de su compañera y lo precipita sobre la enana blanca, en torno a la cual dicho material orbita formando un disco de acreción. El plasma queda sometido a enormes temperaturas que provocan la emisión de rayos X y la aparición de explosiones periódicas conocidas con el nombre de supernovas de tipo II.

163

El significado físico del tensor de Ricci
Según la teoría de la gravitación universal, una masa esférica de gas reduce su volumen (como consecuencia de la atracción recíproca de sus moléculas) con una aceleración equivalente a :

Es evidente, que dicha ecuación no es compatible con la relatividad especial, por las razones reseñadas anteriormente: 1. El parámetro , que mide la densidad de masa, ha de ser sustituido por el tensor de energía-tensión , que permanece invariable ante las transformaciones de Lorentz y tiene en cuenta los efectos gravitatorios de la energía y la presión, y no sólo los de la masa. 2. Por otro lado, según la teoría de la relatividad general, los efectos gravitatorios no son causados por ningún tipo de "fuerza misteriosa" sino por la curvatura del espacio-tiempo.

En la ilustración se reproducen los efectos del tensor de Ricci (concretamente su componente ) sobre un volumen tridimensional esférico: conforme aumenta el tiempo, dicho volumen se reduce. El autor de la imagen se ha permitido la siguiente licencia: Aunque los ejes de coordenadas representan dos dimensiones espaciales y una temporal, el volumen de la esfera está definido por tres dimensiones espaciales.

En este sentido, cabe señalar que en un espacio-tiempo curvo la aceleración del volumen viene cuantificada por un objeto geométrico específico, el tensor de Ricci , que puede definirse como la aceleración coordenada del hipervolumen , normal al vector unitario . De este modo, el componente expresa la aceleración temporal del volumen tridimensional:

La relación entre el tensor métrico y el tensor de Ricci se expresa a través de la llamada ecuación de flujo de Ricci, que tiene la forma siguiente:

Según esta ecuación, la existencia de valores positivos del tensor de Ricci implica la disminución a lo largo del tiempo de los coeficientes del tensor métrico, y como consecuencia de ello la disminución de los volúmenes en esa región de la variedad. Por el contrario, la presencia de valores negativos en el tensor de Ricci lleva consigo una expansión progresiva de las distancias, las superficies y los volúmenes. Por todo lo dicho, los tensores de energía-momentum y de Ricci permitían expresar de manera tensorial y covariante la fórmula de Poisson, y de ahí que originalmente Einstein propusiera las siguientes ecuaciones de universo:

En relatividad general, el tensor de Ricci tiene la particularidad de representar aquellos efectos gravitatorios originados por la presencia inmediata de cuadrimomento, que son con gran diferencia los más importantes a gran

Relatividad general escala. El tensor de Ricci rige, pues, la mayor parte de los procesos astrofísicos que tienen lugar a amplias escalas: constituye una medida de la contracción de nubes moleculares que dan lugar al nacimiento de estrellas y planetas; cuantifica el colapso de las grandes cuerpos estelares y su conversión en enanas blancas, estrellas de neutrones y agujeros negros; y proporciona una medida de la expansión del universo. Del tensor de Ricci, particularmente de la forma que toma en los campos gravitatorios esféricos (como las estrellas estáticas),[7] se deriva la llamada Ley de equilibrio hidrostático, que regula el equilibrio entre la presión del fluido estelar[8] (que tiende a expandir el volumen de la estrella) y la curvatura gravitatoria (que lo contrae). Este equilibrio se mantiene prácticamente durante toda la vida de la estrella y sólo se rompe en dos ocasiones diferentes: 1) Cuando la estrella deviene en una gigante roja, en cuyo caso los efectos de la presión de radiación[9] desbordan los del tensor de Ricci, y como resultado, el volumen de la estrella se expande hasta alcanzar una nueva situación de equilibrio. 2) Cuando la estrella agota su combustible. Se produce entonces un descenso en la presión del fluido, y la estrella, bien se transforma en una enana blanca, en una estrella de neutrones, o bien colapsa definitivamente convirtiéndose en un agujero negro.

164

Las ecuaciones de Universo de Einstein
Einstein tuvo pronto que modificar ligeramente sus ecuaciones de universo, pues estas no eran compatibles con la ley de la conservación de la energía [Demostración 1]. Esto constriñó a Einstein a modificar sus ecuaciones de Universo, que adquirieron su forma definitiva tras la publicación en 1915 del artículo Aplicación de la teoría de la relatividad general al campo gravitatorio:[10]

Donde universal y

es el tensor de Ricci,

el tensor métrico,

el escalar de Ricci,

la constante de gravitación

el tensor de energía-impulso. El miembro izquierdo de la ecuación recibe el nombre genérico de y satisface las mismas relaciones de conservación que el

tensor de Einstein, se representa con la notación tensor de tensión-energía:

Teniendo en cuenta que el escalar de curvatura

es proporcional a la traza del tensor de Einstein

, las

ecuaciones de universo de Einstein pueden reformularse de la manera siguiente:

Relatividad general Aplicación a fluido perfecto En un fluido no relativista,[11] como una nebulosa o una estrella de la secuencia principal, todos los componentes del tensor de energía-impulso son nulos o de muy poca importancia, salvo el elemento , que corresponde a la densidad de masa y que es el único que contribuye sensiblemente a la atracción gravitatoria y a la curvatura del espacio-tiempo. Si deseamos medir la contracción de volumen producida por la masa-energía presente en una determinada región, hemos de aplicar las ecuaciones de universo de Einstein:

165

Si el observador está situado en reposo respecto al fluido en cuestión, podemos multiplicar ambos lados de la ecuación por dos vectores temporales de coordenadas :

Tras ello obtenemos:
Corriente de chorro emanando del centro de una galaxia.

Donde

es la presión del fluido, que en general es muy pequeña comparada con

, por lo que tenemos es una inferior a

ligera corrección de la anteriormente citada fórmula newtoniana. Como vemos, la atracción gravitatoria viene determinada no sólo por la masa-energía sino también por la presión, aunque la contribución de ésta es la de la primera. Por eso, en las regiones del espacio-tiempo sometidas a bajas presiones y temperaturas, como las nebulosas o nuestro Sistema Solar, la masa es prácticamente la única fuente de atracción gravitatoria y por ello las ecuaciones de la gravitación universal newtonianas constituyen una muy buena aproximación de la realidad física. En cambio, en fluidos sometidos a altas presiones, como las estrellas que se colapsan, la materia que se precipita en los agujeros negros o los chorros que son expelidos de los centros de las galaxias; en todos ellos la presión puede tener cierta importancia a la hora de computar la atracción gravitatoria y la curvatura del espacio-tiempo.

El tensor de Weyl
Es importante notar que, puesto en un espacio-tiempo de cuatro dimensiones, el tensor pleno de curvatura contiene más información que la curvatura de Ricci. Eso significa que las ecuaciones del de campo anteriores, con Λ = 0, no especifican completamente el tensor de curvatura sino una parte del mismo, el tensor de Ricci. La parte de la curvatura no especificada por las ecuaciones de Einstein, coincide precisamente con el tensor de Weyl. Eso significa que las ecuaciones de Einstein no especifican por completo el tensor de curvatura, ni la forma global del universo.

Relatividad general

166

La constante cosmológica
Véase también: Constante cosmológica

Desde el principio Einstein apreció que matemáticamente el miembro derecho de su ecuación de campo podía incluir un término proporcional al tensor métrico sin que se violara el principio de conservación de la energía. Aunque inicialmente no incluyó dicho término, ya que no parecía tener una interpretación física razonable; más tarde lo incluyó. Esto se debió a que en sus primeros intentos de encontrar soluciones exactas a las ecuaciones de campo consideró que lo que hoy conocemos como modelo estacionario de Einstein. Einstein apreció que esa solución, explicaba adecuadamente los datos disponibles en su tiempo, y correspondía a un universo estático similar a los datos observados. Sin embargo, dicha solución era inestable matemáticamente lo cual no parecía corresponderse con la estabilidad física observable, y se dio cuenta de que con el término proporcional a la métrica la solución podía ser similar pero esta vez estable. Por esa razón Einstein introdujo en sus ecuaciones un término proporcional al tensor métrico. Siendo la constante de proporcionalidad precisamente la constante cosmológica. El trabajo de varios científicos (FLRW): Alexander Friedman, Georges Lemaître, Howard Percy Robertson y Arthur Geoffrey Walker, probó que existían soluciones estables no estacionarios sin el término proporcional a la constante cosmológica. Y aunque Einstein inicialmente había rechazado el trabajo de Friedman por describir un universo en expansión que no parecía ser descriptivamente adecuado a un universo que él creía estacionario, los datos del corrimiento al rojo del astrónomo Edwin Hubble sólo parecían explicables mediante un modelo de universo en expansión. Esto convenció a Einstein de que la solución FLRW era de hecho correcta y descriptivamente adecuada y por tanto la constante cosmológica innecesaria. Recientemente la evidencia de la aceleración de la expansión del Universo han llevado a reintroducir la constante cosmológica diferente de cero como una de las posibles explicaciones del fenómeno.

Resumen Significado físico de los diferentes tensores de la Relatividad general
Tensor Derivada ordinaria Derivada covariante Notación Significado físico Aceleración medida por un observador externo en reposo Aceleración inercial medida por un observador comóvil, situado en la propia línea de universo del cuerpo observado Distancia (o, en su caso, intervalo) entre dos puntos (eventos) del espacio(-tiempo) Presencia inmediata de cuadrimomento en una región del espacio-tiempo

Tensor métrico Tensor de tensión energía Tensor de Riemann Tensor de Ricci Escalar de Ricci Tensor de Weyl

Aceleración recíproca de dos líneas de universo Aceleración de un volumen (3 dimensiones) o un hipervolumen (4 dimensiones) Aceleración de la superficie que encierra dicho volumen o hipervolumen Fuerzas de marea generadas por las ondas gravitatorias

Relatividad general

167

Principales ecuaciones de la relatividad general
Denominación Ecuaciones de universo de Einstein Ecuación de las líneas geodésicas Desviación geodésica Desarrollo Significado físico Contracción de un fluido como consecuencia de la presencia inmediata de cuadrimomento Movimiento de un sistema inercial en el espacio-tiempo Fuerzas de marea entre dos partículas que caen en un mismo campo gravitatorio

Soluciones de las ecuaciones de campo de Einstein
Matemáticamente las ecuaciones de campo de Einstein son complicadas porque constituyen un sistema de 10 ecuaciones diferenciales no lineales independientes. La complejidad de dicho sistema de ecuaciones y las dificultades asociadas para plantear el problema como un problema de valor inicial bien definido, hicieron que durante mucho tiempo sólo se contara con un puñado de soluciones exactas caracterizadas por un alto grado de simetría. En la actualidad se conocen algunos centenares de soluciones exactas de las ecuaciones de Einstein. Históricamente la primera solución importante fue obtenida por Karl Schwarzschild en 1915, esta solución conocida posteriormente como métrica de Schwarzschild, representa el campo creado por un astro estático y con simetría esférica. Dicha solución constituye una muy buena aproximación al campo gravitatorio dentro del sistema solar, lo cual permitió someter a confirmación experimental la teoría general de la relatividad explicándose hechos previamente no explicados como el avance del perihelio de Mercurio y prediciendo nuevos hechos más tarde observados como la deflexión de los rayos de luz de un campo gravitatorio. Además las peculiaridades de esta solución condujeron al descubrimiento teórico de la posibilidad de los agujeros negros, y se abrió todo una nueva área de la cosmología relacionada con ellos. Lamentablemente el estudio del colapso gravitatorio y los agujeros negros condujo a la predicción de las singularidades espaciotemporales, deficiencia que revela que la teoría de la relatividad general es incompleta. Algunas otras soluciones físicamente interesantes de las ecuaciones de Einstein son: • La métrica de Kerr que describe el campo gravitatorio de un astro en rotación. Esta solución bajo ciertas circunstancias también contiene un agujero negro de Kerr. • La métrica de Friedman-Lemaître-Robertson-Walker, realmente es un conjunto paramétrico de soluciones asociadas a la teoría del Big Bang que es capaz de explicar la estructura del universo a gran escala y la expansión del mismo. • El universo de Gödel, que en su forma original no parece describrir un universo realista o parecido al nuestro, pero cuyas propiedades matemáticamente interesante constituyeron un estímulo para buscar soluciones más generales de las ecuaciones para ver si ciertos fenómenos eran o no peculiares de las soluciones más sencillos. Por otra parte, el espacio-tiempo empleado en la teoría especial de la relatividad, llamado espacio de Minkowski es en sí mismo una solución de las ecuaciones de Einstein, que representa un espacio-tiempo vacío totalmente de materia. Fuera de las soluciones exactas y a efectos comparativos con la teoría de campo gravitatorio también es interesante la aproximación para campos gravitatorios débiles y las soluciones en formadas de ondas gravitatorias.

Relatividad general

168

No linealidad
Cuando Einstein formuló en 1915 las ecuaciones de universo de la Relatividad general, el científico alemán pensó, en un principio, que dichas ecuaciones eran insolubles debido a su carácter no lineal, que se manifestaba tanto desde un punto de vista físico como desde otro matemático: • En el plano estrictamente físico, la no linealidad de las ecuaciones de campo de Einstein se deriva del mutuo condicionamiento entre el tetramomentum y la curvatura del espacio tiempo. Así, la densidad de masa, contenida en el coeficiente , provoca una contracción (parametrizada a través de ) del volumen tridimensional que de nuevo vuelve a alterar el densidad de masa, y así sucesivamente. Este movimiento cíclico recuerda a la autoinductancia el electromagnetismo y no suele tener importancia en campos gravitatorios de baja intensidad, pero sí ha de tenerse en cuenta en el cálculo de las perturbaciones gravitatorias originadas por una alta concentración local de tetramomentum, como sucede en el caso de los agujeros negros o los fluidos relativistas. De una manera mas intuitiva la no linealidad de las ecuaciones de Einstein puede pensarse desde el punto de vista físico de la siguiente manera: Dada una distribución de materia, esta producirá una curvatura del espacio o "campo gravitatorio" el cual contiene energía. Dado que E=mc2 dicha energía a su vez generará otra curvatura o "campo gravitatorio" el cual a su vez contendrá cierta energía y así sucesivamente. Esta retroalimentación entre la fuente (materia) y el efecto (curvatura) está representada en el caracter no lineal de las ecuaciones de Einstein. • Desde un punto de vista matemático, el miembro izquierdo de la igualdad tanto funciones lineales como derivadas de primer y de segundo orden del tensor métrico No es posible, pues, construir una función de tipo . contiene , lo que hace .

imposible despejar los coeficientes de este último a partir de los valores del tensor de energía momentum

Soluciones para coordenadas esféricas: Campo exterior
Para sorpresa de Albert Einstein, pocas semanas después de la publicación de sus ecuaciones de campo llegó a su despacho un correo de Karl Schwarzschild, un profesor universitario que en esos momentos se encontraba en el frente de la I guerra mundial, realizando trabajos de balística para las unidades de artillería del ejército alemán. En esa histórica carta se contenían las primeras soluciones exactas de las ecuaciones de la relatividad general, que serían conocidas por la posteridad con el nombre genérico de Solución de Schwarzschild. El principio sobre el que pivotaba dicha solución era el siguiente: Dado que el Principio de la Covariancia General permitía hacer funcionar las ecuaciones de campo de la relatividad general en cualquier sistema de coordenadas, Schwarzschild procedió a calcular los valores de los tensores de energía-momento y de Einstein en coordenadas espacio-temporales esféricas . El alto grado de simetría proporcionado por dicho sistema de coordenadas, así como el carácter estático de la métrica, permitieron integrar directamente el conjunto de ecuaciones diferenciales. Siendo en el caso general el tensor métrico para un problema con simetría esférica de la forma: (SE)

Para el espacio la parte exterior de un astro esférica más concretamente se tenía:

Las comprobaciones experimentaqles mostraron que la métrica de Schwarzschild describe con enorme precisión lo que sucede en sistemas esféricos estáticos, similares al sistema solar.

Relatividad general

169

Soluciones para coordenadas esféricas: Equilibrio estelar
Las ecuaciones de un campo con simetría esférica (SE) permiten también estudiar la curvatura en el interior de las estrellas masivas. El resultado de ese análisis, es que para estrellas de la secuencia principal del diagrama de Hertzsprung-Russell, la curvatura originada por la gravedad es compensada por la presión de la materia estelar. Esa compensación conduce a una ley de equilibrio hidrostático que hace que la estrella, aún sometida a su propio campo gravitatorio, pueda mantener durante millones de años su volumen y su densidad a niveles constantes. Matemáticamente, el hecho de que la métrica tenga un carácter estático implica los valores del tensor se mantengan

estables en el tiempo. La ley de equilibrio hidrostático que relaciona la densidad y la presión en una estrella esférica viene dada por ecuación de Tolman-Oppenheimer-Volkoff:

La masa del Sol, así como su volumen y su temperatura se han mantenido estables durante millones de años.

Donde: son la presión y la densidad a una distancia r del centro del astro. es la masa encerrada en una esfera de radio r.

Soluciones para coordenadas esféricas: Colapso gravitatorio
La solución de Schwarzschild permitió aplicar los postulados de la relatividad general a disciplinas como la mecánica celeste y la astrofísica, lo cual supuso una verdadera revolución en el estudio de la cosmología: Apenas seis años después de la publicación de los trabajos de Einstein, el físico ruso Aleksander Fridman introdujo el concepto de singularidad espacio-temporal, definido como un punto del espacio-tiempo en el que confluyen todas las geodésicas de las partículas que habían atravesado el horizonte de sucesos de un agujero negro. En condiciones normales, la curvatura producida por la masa de los cuerpos y las partículas es compensada por la temperatura o la presión del fluido y por fuerzas de tipo electromagnético, cuyo estudio es objeto de la física de fluidos y del estado sólido. Sin embargo, cuando la materia alcanza cierta densidad, la presión de las moléculas no es capaz de compensar la intensa atracción gravitatoria. La curvatura del espacio-tiempo y la contracción del fluido aumentan cada vez a mayor velocidad: el final lógico de este proceso es el surgimiento de una singularidad, un punto del espacio-tiempo donde la curvatura y la densidad de tetramomentum son infinitas. Ahora bien, el físico Subrahmanyan Chandrasekhar fue el primero en darse cuenta que la gravedad podía ser contenida no sólo por fuerzas de tipo mecánico, sino también por un fenómeno de origen cuántico al que llamó presión de degeneración, derivado del principio de exclusión de Pauli y que era capaz de sostener a estrellas cuya masa no superase el límite de Chandrasekhar. Estas ideas tan audaces le costaron caras a su autor, que fue ridiculizado en público por Sir Arthur Eddington durante un congreso de astrónomos. Sin embargo, los cálculos de Chandrasekhar se revelaron certeros, y sirvieron de base para la comprensión de un tipo estelar cuya naturaleza física hasta entonces era desconocida: la enana blanca.

Relatividad general

170

Aproximaciones en coordenadas armónicas
Dado que para muchos sistemas físicos no resulta sencillo obtener las expresiones exactas de las soluciones de las ecuaciones de Einstein, los físicos teóricos han desarrollado aproximaciones bastante precisas empleando series de potencias. De entre ellas las más importantes funcionan en coordenadas armónicas y reciben los nombres de aproximación posnewtoniana y aproximación para campos gravitatorios débiles. En virtud del principio de la covariancia general, ya examinado en secciones anteriores, es posible hacer funcionar a las ecuaciones de universo de Einstein en cualquier tipo de coordenadas, incluidas las armónicas, que son aquéllas en las que se cumple la relación (como, por ejemplo, en el caso de las coordenadas cartesianas). Se hace necesario en este punto distinguir con claridad entre los conceptos de planitud del espacio-tiempo y armonicidad de un sistema de coordenadas: en una espacio-tiempo de curvatura nula, como el espacio-tiempo de Minkowski, es posible utilizar coordenadas no-armónicas como las esféricas o las cilíndricas, sin que ello implique que el espacio se curve, ya que la curvatura es una cualidad instrínseca de cualquier variedad e independiente de nuestro sistema de referencia. Para campos gravitatorios poco intensos, como los existentes en el espacio interestelar, es recomendable utilizar la llamada aproximación para campos débiles, que es, como veremos, muy similar en su estructura a la fórmula de Poisson newtoniana, si bien las diferencias con esta última son enormes. La fórmula de Poisson afirma que el laplaciano del potencial gravitatorio es igual :

Ondas gravitatorias. La solución en el vacío de la aproximación para campos gravitatorios débiles ( )

tiene una estructura similar a la ecuación diferencial de ondas de d'Alembert, de lo que se deduce que las perturbaciones de la métrica tienen una naturaleza ondulatoria y se transmiten a través del espacio-tiempo a la velocidad de la luz.

Relatividad general

171 Esta fórmula plantea un grave inconveniente, y es que presupone el principio de acción a distancia: No tiene en cuenta el retardo en la medición del campo gravitatorio realizada por un determinado observador (pongamos, un observador en la tierra) situado a cierta distancia a la masa del cuerpo que genera dicho campo gravitatorio (p.e. el Sol, situado a 8 minutos luz de nuestro planeta). De ahí que uno de los primeros intentos de compatibilizar la teoría de la Relatividad Especial y la Gravitación Universal consistiera en sustituir el laplaciano de la fórmula de Poisson por un d'Alembertiano, una de cuyas soluciones es,

En la imagen se reproducen las ondas gravitatorias emitidas por una estrella durante su colapso.

precisamente, un potencial retardado:

Como vemos, el potencial gravitatorio medido por el observador en el tiempo t, es proporcional a la densidad de masa que tiene el cuerpo estelar observado en el tiempo t - r/c, donde c es la velocidad de la luz, r es la distancia entre el observador y el objeto y r/c es el retardo, es decir, el tiempo que la luz tarda en desplazarse desde la estrella en cuestión hasta el observador. Ahora bien, la relatividad general es una teoría métrica de la gravedad, y explica los fenómenos gravitatorios en términos de perturbaciones de la métrica. Es conveniente, por tanto, introducir en nuestra ecuación el pseudotensor , que representa la desviación de los coeficientes del tensor métrico respecto a la métrica de Minkowski . Aplicando el límite newtoniano, en cuya virtud es igual a , obtenemos el resultado siguiente:

Fórmula de Poisson Aproximación para campos débiles

A grandes rasgos, la sustitución del laplaciano

por el d'alembertiano

viene exigida por la obligada en lugar del potencial como

eliminación del principio de acción a distancia; el empleo del pseudotensor

elemento definitorio del campo gravitatorio es una consecuencia de la del carácter métrico de la teoría de la relatividad general; y finalmente, la eliminación, en el lado derecho de la ecuación, del parámetro y su sustitución por la expresión tensorial viene exigida por el principio de la covariancia general.

Relatividad general

172 Sin embargo, en el análisis de la evolución de sistemas astronómicos como el solar o el formado por estrellas dobles o tripoles, la aproximación para campos débiles no es útil, ya que el uso de esta última se restringe a zonas del espacio-tiempo con poca densidad de tetramomentum. En estos casos es preferida la aproximación posnewtoniana que como su propio nombre indica prescinde del empleo de la compleja notación del cálculo tensorial y describe el movimiento de los cuerpos celestes utilizando los conceptos matemáticos que empleó el propio Newton a la hora describir las leyes de la mecánica y de la gravitación universal (vectores, gradientes, etc.).

La aproximación posnewtoniana permite a los astrónomos calcular con suma precisión la posición y el movimiento de los planetas del Sistema Solar, teniendo en cuenta los efectos relativistas.

En los siglos XVIII y XIX, astrónomos como Laplace y Le Verrier habían aplicado los postulados de la mecánica newtoniana al estudio de la evolución del Sistema Solar, obteniendo unos resultados muy fructuosos: La precisión de los cálculos astronómicos obtenidos había permitido incluso prever la existencia de un planeta hasta entonces nunca observado por los astrónomos, Neptuno. Por este motivo no es de extrañar que cuando la relatividad general obtuvo pleno reconocimiento, se desarrollase por parte de los astrofísicos una aproximación que siguiera en su estructura el modelo newtoniano y que fuese fácilmente aplicable tanto por los astrónomos como por los ordenadores. De acuerdo con la teoría clásica de la gravitación, la aceleración de un cuerpo en caída libre es el gradiente negativo del potencial gravitatorio:

Como ya se ha avanzado en secciones anteriores, esta fórmula presupone la asunción del principio newtoniano de acción a distancia, contrario a los postulados de la Relatividad Especial, y además no tiene en cuenta los efectos gravitatorios generados por la energía y por el momentum. La aproximación posnewtoniana soslaya estos inconvenientes introduciendo otros dos nuevos potenciales: el potencial , que constituye una aproximación en segundo grado del potencial y el potencial , derivado de la presencia de momentum en el fluido.

Potenciales de la aproximación posnewtoniana
Notación Expresión Algebraica Significado físico Potencial newtoniano (densidad de masa) Retardo del potencial newtoniano, densidad de energía

Potencial derivado del momentum

Las ecuaciones de movimiento quedarían reformuladas de la siguiente forma:

Relatividad general

173

Soluciones relacionadas con los modelos de Universo
Existen un cierto número de soluciones exactas de las ecuaciones que describen un universo completo y por tanto pueden ser consideradas modelos cosmológicos entre ellas destacan: • Métrica de Friedman-Lemaître-Robertson-Walker, que describe un tipo de universo homogéneo, isótropo y en expansión y puede considerarse una primera aproximación de la forma de nuestro universo a gran escala. • Universo de Gödel, obtenida por el matemático Kurt Gödel representa un universo homogéneo e isótropo con materia en rotación. Aunque no se considera que describa un universo similar al nuestro tiene la importante propiedad de contener curvas temporales cerradas que representan un ejemplo contraintuitivo donde un observador puede viajar a su propio pasado sin violar ninguna ley física conocida.

Predicciones de la relatividad general
Se considera que la teoría de la relatividad general fue comprobada por primera vez en la observación de un eclipse total de Sol en 1919, realizada por Sir Arthur Eddington, en la que se ponía de manifiesto que la luz proveniente de estrellas lejanas se curvaba al pasar cerca del campo gravitatorio solar, alterando la posición aparente de las estrellas cercanas al disco del Sol. Desde entonces muchos otros experimentos y aplicaciones han demostrado las predicciones de la relatividad general. Entre algunas de las predicciones se encuentran:

Efectos gravitacionales
• Desviación gravitacional de luz hacia el rojo en presencia de campos con intensa gravedad: La frecuencia de la luz decrece al pasar por una región de elevada gravedad. Confirmado por el experimento de Pound y Rebka (1959). • Dilatación gravitacional del tiempo: Los relojes situados en condiciones de gravedad La más famosa de las primeras verificaciones positivas de la teoría de la elevada marcan el tiempo más lentamente relatividad, ocurrió durante un eclipse solar de 1919, que se muestra en la que relojes situados en un entorno sin imagen tomada por Sir Arthur Eddington de ese eclipse, que fue usada para confirmar que el campo gravitatorio del sol curvaba los rayos de luz de gravedad. Demostrado experimentalmente estrellas situadas tras él. con relojes atómicos situados sobre la superficie terrestre y los relojes en órbita del Sistema de Posicionamiento Global (GPS por sus siglas en inglés). También, aunque se trata de intervalos de tiempo muy pequeños, las diferentes pruebas realizadas con sondas planetarias han dado valores muy cercanos a los predichos por la relatividad general. • Efecto Shapiro (dilatación gravitacional de desfases temporales): Diferentes señales atravesando un campo gravitacional intenso necesitan mayor tiempo para atravesar dicho campo. • Decaimiento orbital debido a la emisión de radiación gravitacional. Observado en púlsares binarios.

Relatividad general • Precesión geodésica: Debido a la curvatura del espacio-tiempo, la orientación de un giroscopio en rotación cambiará con el tiempo. Esto se comprobó exitosamente en Mayo de 2011 por el satélite Gravity Probe B.

174

Efectos rotatorios
Esto implica el comportamiento del espacio-tiempo alrededor de un objeto masivo rotante. • Fricción del marco de referencia. Un objeto en plena rotación va a arrastrar consigo al espacio-tiempo, causando que la orientación de un giroscopio cambie con el tiempo. Para una nave espacial en órbita polar, la dirección de este efecto es perpendicular a la precisión geodésica. • El principio de equivalencia fuerte: incluso objetos que gravitan en torno a ellos mismos van a responder a un campo gravitatorio externo en la misma manera que una partícula de prueba lo haría.

Otros efectos
• Gravitones: De acuerdo con la teoría cuántica de campos, la radiación gravitacional debe ser compuesta por cuantos llamados gravitones. La relatividad general predice que estos serán partículas de espín 2. Todavía no han sido observados.

Comprobaciones
La teoría de la relatividad general ha sido confirmada en numerosas formas desde su aparición. Por ejemplo, la teoría predice que la línea del universo de un rayo de luz se curva en las proximidades de un objeto masivo como el Sol. La primera comprobación empírica de la teoría de la relatividad fue a este respecto. Durante los eclipses de 1919 y 1922 se organizaron expediciones científicas para realizar esas observaciones. Después se compararon las posiciones aparentes de las estrellas con sus posiciones aparentes algunos meses más tarde, cuando aparecían de noche, lejos del Sol. Einstein predijo un desplazamiento aparente de la posición de 1,745 segundos de arco para una estrella situada justo en el borde del Sol, y desplazamientos cada vez menores de las estrellas más distantes. Se demostró que sus cálculos sobre la curvatura de la luz en presencia de un campo gravitatorio eran exactos. En los últimos años se han llevado a cabo mediciones semejantes de la desviación de ondas de radio procedentes de quásares distantes, utilizando interferómetros de radio. Las medidas arrojaron unos resultados que coincidían con una precisión del 1% con los valores predichos por la relatividad general. Otra confirmación de la relatividad general está relacionada con el perihelio del planeta Mercurio. Hacía años que se sabía que el perihelio (el punto en que Mercurio se encuentra más próximo al Sol) gira en torno al Sol una vez cada tres millones de años, y ese movimiento no podía explicarse totalmente con las teorías clásicas. En cambio, la teoría de la relatividad sí predice todos los aspectos del movimiento, y las medidas con radar efectuadas recientemente han confirmado la coincidencia de los datos reales con la teoría con una precisión de un 0,5%. Se han realizado otras muchas comprobaciones de la teoría, y hasta ahora todas parecen confirmarla. Prácticamente con la más reciente prueba del satélite Gravity Probe B, se podría considerar a la teoría como una ley.

Aplicaciones prácticas
Los relojes en los satélites GPS requieren una sincronización con los situados en tierra para lo que hay que tener en cuenta la teoría general de la relatividad y la teoría especial de la relatividad. Si no se tuviese en cuenta el efecto que sobre el tiempo tiene la velocidad del satélite y su gravedad respecto a un observador en tierra, se produciría un adelanto de 38 microsegundos por día en el reloj del satélite (sin corrección, su reloj retrasaría al día 7 microsegundos como consecuencia de la velocidad y adelantaría 45 microsegundos por efecto de la gravedad), que a su vez provocarían errores de varios kilómetros en la determinación de la posición.[12] Puede considerarse otra comprobación de ambas teorías.

Relatividad general

175

Relación con otras teorías físicas
En esta parte, la mecánica clásica y la relatividad especial están entrelazadas debido a que la relatividad general en muchos modos es intermediaria entre la relatividad especial y la mecánica cuántica. Sujeto al principio de acoplamiento mínimo, las ecuaciones físicas de la relatividad especial pueden ser convertidas a su equivalente de la relatividad general al reemplazar la métrica de Minkowski (ηab) con la relevante métrica del espacio-tiempo (gab) y reemplazando cualquier derivada normal con derivadas covariantes.

Inercia
Tanto en mecánica cuántica como en relatividad se asumía que el espacio, y más tarde el espacio-tiempo, eran planos. En el lenguaje de cálculo tensorial, esto significaba que Rabcd = 0, donde Rabcd es el tensor de curvatura de Riemann. Adicionalmente, se asumía que el sistema de coordenadas era un sistema de coordenadas cartesianas. Estas restricciones le permitían al movimiento inercial ser descrito matemáticamente como: donde • x es un vector de posición, • ,y • τ es tiempo propio. Hay que notar que en la mecánica clásica, xa es tridimensional y τ ≡ t, donde t es una coordenada de tiempo. En la relatividad general, si estas restricciones son usadas en la forma de espacio-tiempo y en el sistema de coordenadas, éstas se perderán. Ésta fue la principal razón por la cual se necesitó una definición diferente de movimiento inercial. En relatividad especial, el movimiento inercial ocurre en el espacio de Minkowski como parametrizada por el tiempo propio. Esto se generaliza a espacios curvos matemáticamente mediante la ecuación de las geodésicas: donde • es un símbolo de Christoffel (de otro modo conocido como conexión de Levi-Civita). Como x es un tensor de rango uno, estas ecuaciones son cuatro y cada una está describiendo la segunda derivada de una coordenada con respecto al tiempo propio. (En la métrica de Minkowski de la relatividad especial, los valores de conexión son todos ceros. Esto es lo que convierte a las ecuaciones geodésicas de la relatividad general en para el espacio plano de la relatividad especial).
a

Gravitación
En gravitación, la relación entre la teoría de la gravedad de Newton y la relatividad general son gobernadas por el principio de correspondencia: la relatividad general tiene que producir los mismos resultados, así como la gravedad lo hace en los casos donde la física newtoniana ha demostrado ser certera. Alrededor de objetos simétricamente esféricos, la teoría de la gravedad de Newton predice que los otros objetos serán acelerados hacia el centro por la ley:

Donde: , es la masa del objeto atraído, , es la distancia al objeto atraído, y es un vector de unidad identificando la dirección al objeto masivo. En la aproximación de campo débil de la relatividad general tiene que existir una aceleración en coordenadas idénticas. En la solución de Schwarzschild, la misma aceleración de la fuerza de gravedad es obtenida cuando la constante de integración es igual a 2m (donde m = GM/c2).

Relatividad general

176

Electromagnetismo
El electromagnetismo planteó un obstáculo fundamental para la mecánica clásica, debido a que las ecuaciones de Maxwell no son invariantes según la relatividad galileana. Esto creaba un dilema que fue resuelto por el advenimiento de la relatividad especial. En forma tensorial, las ecuaciones de Maxwell son: ,y Donde: , es el tensor de campo electromagnético, y , es una cuadricorriente. El efecto de un campo electromagnético en un objeto cargado de masa m es entonces:

Donde es el cuadrimomento del objeto cargado. En la relatividad general, las ecuaciones de Maxwell se convierten en and . La ecuación para el efecto del campo electromagnético sigue siendo la misma, aunque el cambio de métrica modificará sus resultados. Notesé que al integrar esta ecuación para cargas aceleradas las hipótesis habituales no son válidas (ya que implican que una carga sujeta en un campo gravitato debe comportarse como si estuviera uniformemente acelerada, lo que muestra que una carga uniformemente acelerada no puede radiar).

Conservación de energía-momentum
En la mecánica clásica, la conservación de la energía y el momentum son manejados separadamente. En la relatividad especial, la energía y el momentum están unidos en el cuadrimomento y los tensores de energía. Para cualquier interacción física, el tensor de energía-impulso satisface la ley local de conservación siguiente:

En la relatividad general, esta relación es modificada para justificar la curvatura, convirtiéndose en:

donde ∇ representa aquí la derivada covariante. A diferencia de la mecánica clásica y la relatividad especial, en la relatividad general no es siempre posible definir claramente la energía total y el momentum. Esto a menudo causa confusión en espacio-tiempos dependientes del tiempo, en los que no existen vectores de Killing temporales, los cuales no parecen conservar energía, aunque la ley local siempre se satisfaga (Ver energía de Arnowitt, Deser y Misner).

Transición de la relatividad especial a la relatividad general
La teoría de la relatividad especial presenta covariancia de Lorentz esto significa que tal como fue formulada las leyes de la física se escriben del mismo modo para dos observadores que sean inerciales. Einstein estimó, inspirado por el principio de equivalencia que era necesaria una teoría que presentara una para la que valiera un principio de covariancia generalizado, es decir, en que las leyes de la física se escribieran de la misma forma para todos los posibles observadores fueron estos inerciales o no, eso le llevó a buscar una teoría general de la relatividad. Además el hecho de que la propia teoría de la relatividad fuera incompatible con el principio de acción a distancia le hizo comprender que necesitaba además que esta teoría general incorporase una descripción adecuada del campo

Relatividad general gravitatorio. Hoy sabemos que Einstein consideraba que la teoría de la relatividad sólo era aplicable a sistemas de referencia inerciales estrictamente, aunque Logunov ha probado en el marco de la teoría relativista de la gravitación que de hecho fijado un observador inercial o no, cualquier otro que se mueva con velocidad uniforme respecto al primero escribirá las leyes físicas de la misma forma. Probando así que la relatividad especial de hecho es más general de lo que Einstein creyó en su momento. Además el trabajo de Logunov prueba que siempre que el espacio-tiempo sea plano puede establecerse para cada observador existe un grupo decaparamétrico de transformaciones de coordenadas que generaliza las propiedades del grupo de Lorentz para observadores no inerciales. El principio de geometrización y el principio de equivalencia fueron las piedras angulares en las que Einstein basó su búsqueda de una nueva teoría, tras haber fracasado en el intento de formular una teoría relativista de la gravitación a partir de un potencial gravitatorio. La teoría escalar de la gravitación de Nordström[13] y la interpretación geométrica que extrajo de ella Adriaan Fokker (1914), el estudiante de doctorado de Hendrik Lorentz, llevaron a Einstein a poder relacionar el tensor de energía-impulso con la curvatura escalar de Ricci de un espacio-tiempo con métrica:

177

que involucraba la métrica del espacio-tiempo plano y un campo escalar relacionado con el campo gravitatorio. La superación de las deficiencias de la teoría de la gravitación escalar de Nordström llevaron a Einstein a formular las ecuaciones correctas de campo.

Referencias
[1] En alemán: "Über den Einfluß der Schwerkfraft auf die Ausbreitung des Lichtes" [2] Ello como consecuencia de la fórmula de Planck, que supone que cuanto más energéticos sean los fotones, más alta es su frecuencia. [3] Escogemos un sistema de coordenadas esférico, compuesto de tres grados de libertad: Latitud . Los componentes y , longitud y distancia respecto al centro

de la aceleración son iguales a cero. La aceleración gravitatoria tiene lugar exclusivamente en dirección al

centro de la Tierra. [4] Ambas notaciones son alternativas. [5] La gravitación universal newtoniana establece que la fuerza (y por lo tanto la aceleración radial) de atracción ejercida por el Sol sobre la tierra es inversamente proporcional al cuadrado de la distancia de ambos cuerpos celestes [6] La tercera ley de Kepler afirma que los planetas barren áreas iguales en tiempos iguales. Para que esta ley mantenga su validez en toda la trayectoria orbital terrestre es necesario que la aceleración angular sea máxima en las regiones próximas al perihelio, de tal manera que se compense con ello las menores dimensiones del radio. [7] Más adelante analizaremos con profundidad este tema en el capítulo dedicado a la métrica de Schwarzschild. [8] En las estrellas de la secuencia principal, la presión viene integrada por dos elementos diferentes: La presión molecular, que es causada por la energía cinética de los átomos e iones del fluido estelar, y que viene parametrizada por la ecuación de Boltzmann , y la presión de radiación, que es aquella originada por los fotones. Ambos tipos de presión tienden a compensarse en virtud de un proceso físico denominado Bremsstrahlung (radiación de freno). De este modo, los fotones, que en el núcleo del átomo son generados con niveles de energía correspondientes al especro de los rayos gamma, salen del sol con frecuencias del espectro ultravioleta y sobre todo, del de la luz visible. [9] Dichos efectos se ven incrementados por el desencadenamiento de reacciones termonucleares en todas las capas de la estrella, y no sólo en su núcleo [10] En alemán: "Anwendung der allgemeinen Relativitätstheorie auf das Gravitationsfeld" [11] La relatividad general distingue entre fluidos relativistas, que viajan a velocidades cercanas a la de la luz, y no relativistas, que lo hacen a velocidades relativamente bajas. Al respecto, léase Teoría de la Relatividad. [12] Guillermo Sánchez. « Sistema posicionamiento global (GPS) y las teorías de la relatividad (http:/ / web. usal. es/ ~guillermo/ publications/ Popularscience/ GPSyRelatividadporGuillermoSanchez. pdf)». [13] Ver por ejemplo, Nordström's theory of gravitation (http:/ / en. wikipedia. org/ wiki/ Nordström's_theory_of_gravitation)

Relatividad general

178

Bibliografía
• Hawking, Stephen; and Ellis, G. F. R. (1973). The Large Scale Structure of Space-Time. Cambridge: Cambridge University Press. ISBN 0-521-09906-4. • Misner, Thorne and Wheeler, Gravitation, Freeman, (1973), ISBN 0-7167-0344-0. • Robert M. Wald, General Relativity, Chicago University Press, ISBN 0-226-87033-2. • Steven Weinberg, Gravitation and Cosmology: principles and applications of the general theory of relativity, Wiley (1972), ISBN 0-471-92567-5.

Enlaces externos
• • • •
Página introductoria a la relatividad general de la Universidad de Illinois

(http://archive.ncsa.uiuc.edu/Cyberia/NumRel/ (http://kolmogorov.unex.es/~navarro/relatividad/

GenRelativity.html) (en inglés)
Tesis de Juan Antonio Navarro González de la Universidad de Extremadura

apuntrel.pdf)
Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX, Cuadernos de Historia Contemporánea, nº 27, 2005, INSS 0214-400-X

(http://www.ucm.es/info//hcontemp/leoc/hciencia.htm) (http://www.ucm.es/info/hcontemp/

Otero Carvajal, Luis Enrique: "Einstein y la teoría de la relatividad. Del Universo estático al Universo en expansión", Umbral, revista de la Facultad de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras

leoc/Einstein y la relatividad general.pdf) •
Otero Carvajal, Luis Enrique: "La cosmología relativista. Del Universo estático al Universo en expansión", en Umbral, revista de la Facultad de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras

(http://www.ucm.es/info/hcontemp/leoc/la

cosmologia relativista.pdf) •
¿Hacia una nueva prueba de la relatividad general? Artículo en Astroseti.org

(http://www.astroseti.org/vernew.

php?codigo=2061) • http://es.groups.yahoo.com/group/relatividad/foro sobre relatividad en español • http://www.relatividad.org/bhole/relatividad.htm apuntes sobre relatividad • Relatividad sin fórmulas (http://eltamiz.com/category/fisica/relatividad-sin-formulas/page/2/)

Física estadística

179

Física estadística
La física estadística o mecánica estadística es una rama de la física que mediante técnicas estadísticas es capaz de deducir el comportamiento de los sistemas físicos macroscópicos a partir de ciertas hipótesis sobre los elementos o partículas que conforman dichos sistemas. Los sistemas macroscópicos son aquellos que tienen un número de partículas parecido al número de Avogadro, cuyo valor aproximadamente igual a es increíblemente grande, por lo que el tamaño de dichos sistemas suele ser fácilmente concebible por el ser humano, aunque el tamaño de cada partícula constituyente sea de escala átomica. Un ejemplo de un sistema macroscópico es, por ejemplo, un vaso de agua. La importancia del uso de las técnicas estadísticas para estudiar estos sistemas radica en que al ser sistemas tan grandes es imposible, incluso para las más avanzadas computadoras, llevar un registro del estado físico de cada partícula y predecir el comportamiento del sistema mediante las leyes de la mecánica, además de ser impracticable el conocer tanta información de un sistema real. La utilidad de la física estadística consiste en ligar el comportamiento microscópico de los sistemas con su comportamiento macroscópico, de modo que conociendo el comportamiento de uno se pueden averiguar detalles del comportamiento del otro. Permite describir numerosos campos de naturaleza estocástica como las reacciones nucleares; los sistemas biológicos, químicos, neurológicos; etc..

Ejemplos de aplicación
Empíricamente, la termodinámica ha estudiado los gases y ha establecido su comportamiento macroscópico con alto grado de acierto. Gracias a la fisica estadística es posible deducir las leyes termodinámicas que rigen el comportamiento macroscópico de este gas, como la ecuación de estado del gas ideal o la ley de Boyle-Mariotte, a partir de la suposición de que las partículas en el gas no están sometidas a ningún potencial y se mueven libremente con una energía cinética igual a colisionando entre sí y con las paredes del recipiente de forma elástica. El

comportamiento macroscópico del gas depende de tan sólo unas pocas variables macroscópicas (como la presión, el volumen y la temperatura). Este enfoque particular para estudiar el comportamiento de los gases se llama teoría cinética. Para predecir el comportamiento de un gas, la mecánica exigiría calcular la trayectoria exacta de cada una de las partículas que lo componen (lo cual es un problema inabordable). La termodinámica hace algo radicalmente opuesto, establece unos principios cualitativamente diferentes a los mecánicos para estudiar una serie de propiedades macroscópicas sin preguntarse en absoluto por la naturaleza real de la materia de estudio. La mecánica estadística media entre ambas aproximaciones: ignora los comportamientos individuales de las partículas, preocupándose en vez de ello por promedios. De esta forma podemos calcular las propiedades termodinámicas de un gas a partir de nuestro conocimiento genérico de las moléculas que lo componen aplicando leyes mecánicas.

Historia
Los años cincuenta del siglo XIX marcaron un hito en el estudio de los sistemas térmicos. Por esos años la termodinámica, que había crecido básicamente mediante el estudio experimental del comportamiento macroscópico de los sistemas físicos a partir de los trabajos de Nicolas Léonard Sadi Carnot, James Prescott Joule, Clausius y Kelvin, era una disciplina estable de la física. Las conclusiones teóricas deducidas de las primeras dos leyes de la termodinámica coincidían con los resultados experimentales. Al mismo tiempo, la teoría cinética de los gases, que se había basado más en la especulación que en los cálculos, comenzó a emerger como una teoría matemática real. Sin embargo, fue hasta que Ludwig Boltzmann en 1872 desarrolló su teorema H y de este modo estableciera el enlace directo entre la entropía y la dinámica molecular. Prácticamente al mismo tiempo, la teoría cinética comenzó a dar a

Física estadística luz a su sofisticado sucesor: la teoría del ensamble. El poder de las técnicas que finalmente emergieron redujo la categoría de la termodinámica de "esencial" a ser una consecuencia de tratar estadísticamente un gran número de partículas que actuaban bajo las leyes de la mecánica clásica. Fue natural, por tanto, que esta nueva disciplina terminara por denominarse mecánica estadística o física estadística.

180

Aplicación en otros campos
La mecánica estadística puede construirse sobre las leyes de la mecánica clásica o la mecánica cuántica, según sea la naturaleza del problema a estudiar. Aunque, a decir verdad, las técnicas de la mecánica estadística pueden aplicarse a campos ajenos a la propia física, como por ejemplo en economía. Así, se ha usado la física estadística para deducir la distribución de la renta, y la distribución de Pareto para las rentas altas puede deducirse mediante la mecánica estadística, suponiendo un estado de equilibrio estacionario para las mismas (ver econofísica).

Relación estadística-termodinámica
La relación entre estados microscópicos y macroscópicos (es decir, la termodinámica) viene dada por la famosa fórmula de Ludwig Boltzmann de la entropía:

donde y

es el número de estados microscópicos compatibles con una energía, volumen y número de partículas dado

es la constante de Boltzmann.

En el término de la izquierda tenemos la termodinámica mediante la entropía definida en función de sus variables naturales, lo que da una información termodinámica completa del sistema. A la derecha tenemos las configuraciones microscópicas que definen la entropía mediante esta fórmula. Estas configuraciones se obtienen teniendo en cuenta el modelo que hagamos del sistema real a través de su hamiltoniano mecánico. Esta relación, propuesta por Ludwig Boltzmann, no la aceptó inicialmente la comunidad científica, en parte debido a que contiene implícita la existencia de átomos, que no estaba demostrada hasta entonces. Esa respuesta del medio científico, dicen, hizo que Boltzmann, desahuciado, decidiera quitarse la vida. Actualmente esta expresión no es la más apropiada para realizar cálculos reales. Ésta es la llamada ecuación puente en el Colectivo Micro Canónico. Existen otros colectivos, como el Colectivo Canónico o el Colectividad macrocanónica, que son de más interés práctico.

Postulado fundamental
El postulado fundamental de la mecánica estadística, conocido también como postulado de equiprobabilidad a priori, es el siguiente: Dado un sistema aislado en equilibrio, el sistema tiene la misma probabilidad de estar en cualquiera de los microestados accesibles. Este postulado fundamental es crucial para la mecánica estadística, y afirma que un sistema en equilibrio no tiene ninguna preferencia por ninguno de los microestados disponibles para ese equilibrio. Si Ω es el número de microestados disponibles para una cierta energía, entonces la probabilidad de encontrar el sistema en uno cualquiera de esos microestados es p = 1/Ω; El postulado es necesario para poder afirmar que, dado un sistema en equilibrio, el estado termodinámico (macroestado) que está asociado a un mayor número de microestados es el macroestado más probable del sistema. Puede ligarse a la función de teoría de la información, dada por:

Física estadística Cuando todas las rho son iguales, la función de información I alcanza un mínimo. Así, en el macroestado más probable además es siempre uno para el que existe una mínima información sobre el microestado del sistema. De eso se desprende que en un sistema aislado en equilibrio la entropía sea máxima (la entropía puede considerarse como una medida de desorden: a mayor desorden, mayor desinformación y, por tanto, un menor valor de I).

181

La entropía como desorden
En todos los libros de termodinámica se interpreta la entropía como una medida del desorden del sistema. De hecho, a veces se enuncia el segundo principio de la termodinámica diciendo: El desorden de un sistema aislado sólo aumenta. Es importante saber que esta relación viene, como acabamos de saber, de la mecánica estadística. La termodinámica no es capaz de establecer esta relación por sí misma, pues no se preocupa en absoluto por los estados microscópicos. En este sentido, la mecánica estadística es capaz de demostrar la termodinámica, ya que, partiendo de unos principios más elementales (a saber, los mecánicos), obtiene por deducción estadística el segundo principio. Fue ésa la gran contribución matemática de Ludwig Boltzmann a la termodinámica.[1]

Procedimientos de cálculo
La formulación moderna de esta teoría se basa en la descripción del sistema físico por un elenco de conjuntos o colectividad que representa la totalidad de configuraciones posibles y las probabilidades de realización de cada una de las configuraciones. A cada colectividad se le asocia una función de partición que, por manipulaciones matemáticas, permite extraer los valores termodinámicos del sistema. Según la relación del sistema con el resto del Universo, se distinguen generalmente tres tipos de colectividades, en orden creciente de complejidad: • la colectividad microcanónica describe un sistema completamente aislado, por tanto con energía constante, que no intercambia energía, ni partículas con el resto del Universo; • la colectividad canónica describe un sistema en equilibrio térmico con un foco térmico exterior; sólo puede intercambiar energía en forma de transferencia de calor con el exterior; • la colectividad gran canónica reemplaza a la colectividad canónica para sistemas abiertos que permiten el intercambio de partículas con el exterior.
Tabla resumen de colectividades en física estadística Variables fijas Función microscópica Colectividades : Microcanónica E, N, V o B Número de microestados Canónica T, N, V o B Función de partición canónica Gran canónica T, μ, V o B Función de partición gran canónica

Función macroscópica

Física estadística

182

Referencias
[1] Véase el capítulo 10, "Un mundo dentro del mundo", de El ascenso del hombre, de Jacob Bronowski (versión en español de Alejandro Ludlow Wiechers/BBC, Bogotá, 1979, Fondo Educativo Interamericano, no. 0853). Y, en inglés, el video de los últimos minutos del capítulo correspondiente de esa serie de divulgación científica: (http:/ / www. youtube. com/ watch?v=C2p9By0qXms).

Otras lecturas
• Landau, L.D.; Lifshitz, E. M. (1980). Statistical Physics. Pergamon Press Ltd. 0-08-023039-3. • Pathria R. K. (2001). Statistical Mechanics. Butterworth Heinemann. 0 7506 2469 8.

Termodinámica
La termodinámica (del griego θερμo-, termo, que significa «calor»[1] y δύναμις, dínamis, que significa «fuerza»)[2] es la rama de la física que describe los estados de equilibrio a nivel macroscópico.[3] Constituye una teoría fenomenológica, a partir de razonamientos deductivos, que estudia sistemas reales, sin modelizar y sigue un método experimental.[4] Los estados de equilibrio son estudiados y definidos por medio de magnitudes extensivas tales como la energía interna, la entropía, el volumen o la composición molar del sistema,[5] o por medio de magnitudes no-extensivas derivadas de las anteriores como la temperatura, presión y el potencial químico; otras magnitudes tales como la imanación, la fuerza electromotriz y las asociadas con la mecánica de los medios continuos en general también pueden ser tratadas por medio de la termodinámica.

Sistema termodinámico típico mostrando la entrada desde una fuente de calor (caldera) a la izquierda y la salida a un disipador de calor (condensador) a la derecha. El trabajo se extrae en este caso por una serie de pistones.

Es importante recalcar que la termodinámica ofrece un aparato formal aplicable únicamente a estados de equilibrio,[6] definidos como aquel estado hacia «el que todo sistema tiende a evolucionar y caracterizado porque en el mismo todas las propiedades del sistema quedan determinadas por factores intrínsecos y no por influencias externas previamente aplicadas».[7] Tales estados terminales de equilibrio son, por definición, independientes del tiempo, y todo el aparato formal de la termodinámica --todas las leyes y variables termodinámicas--, se definen de tal modo que podría decirse que un sistema está en equilibrio si sus propiedades pueden ser descritas consistentemente empleando la teoría termodinámica.[8] Los estados de equilibrio son necesariamente coherentes con los contornos del sistema y las restricciones a las que esté sometido. Por medio de los cambios producidos en estas restricciones (esto es, al retirar limitaciones tales como impedir la expansión del volumen del sistema, impedir el flujo de calor, etc), el sistema tenderá a evolucionar de un estado de equilibrio a otro;[9] comparando ambos estados de equilibrio, la termodinámica permite estudiar los procesos de intercambio de masa y energía térmica entre sistemas térmicos diferentes. Para tener un mayor manejo se especifica que calor significa «energía en tránsito» y dinámica se refiere al «movimiento», por lo que, en esencia, la termodinámica estudia la circulación de la energía y cómo la energía infunde movimiento. Históricamente, la termodinámica se desarrolló a partir de la necesidad de aumentar la eficiencia de las primeras máquinas de vapor. Como ciencia fenomenológica, la termodinámica no se ocupa de ofrecer una interpretación física de sus magnitudes. La primera de ellas, la energía interna, se acepta como una manifestación macroscópica de las leyes de conservación de la energía a nivel microscópico, que permite caracterizar el estado energético del sistema macroscópico.[10] El punto de partida para la mayor parte de las consideraciones termodinámicas son los principios de la termodinámica, que postulan que la energía puede ser intercambiada entre sistemas en forma de calor o trabajo, y que sólo puede

Termodinámica hacerse de una determinada manera. También se introduce una magnitud llamada entropía,[11] que se define como aquella función extensiva de la energía interna, el volumen y la composición molar que toma valores máximos en equilibrio: el principio de maximización de la entropía define el sentido en el que el sistema evoluciona de un estado de equilibrio a otro.[12] Es la mecánica estadística, íntimamente relacionada con la termodinámica, la que ofrece una interpretación física de ambas magnitudes: la energía interna se identifica con la suma de las energías individuales de los átomos y moléculas del sistema, y la entropía mide el grado de orden y el estado dinámico de los sistemas, y tiene una conexión muy fuerte con la teoría de información.[13] En la termodinámica se estudian y clasifican las interacciones entre diversos sistemas, lo que lleva a definir conceptos como sistema termodinámico y su contorno. Un sistema termodinámico se caracteriza por sus propiedades, relacionadas entre sí mediante las ecuaciones de estado. Éstas se pueden combinar para expresar la energía interna y los potenciales termodinámicos, útiles para determinar las condiciones de equilibrio entre sistemas y los procesos espontáneos. Con estas herramientas, la termodinámica describe cómo los sistemas responden a los cambios en su entorno. Esto se puede aplicar a una amplia variedad de temas de ciencia e ingeniería, tales como motores, transiciones de fase, reacciones químicas, fenómenos de transporte, e incluso agujeros negros. Los resultados de la termodinámica son esenciales para la química, la física, la ingeniería química, etc, por nombrar algunos.

183

Leyes de la termodinámica
Principio cero de la termodinámica
Este principio establece que existe una determinada propiedad, denominada temperatura empírica θ, que es común para todos los estados de equilibrio termodinámico que se encuentren en equilibrio mutuo con uno dado. Tiene tremenda importancia experimental «pues permite construir instrumentos que midan la temperatura de un sistema» pero no resulta tan importante en el marco teórico de la termodinámica. El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables empíricas usadas para definir o dar a conocer un estado del sistema (presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión superficial, coordenadas en el plano x, y) no son dependientes del tiempo. El tiempo es un parámetro cinético, asociado a nivel microscópico; el cual a su vez esta dentro de la físico química y no es parámetro debido a que a la termodinámica solo le interesa trabajar con un tiempo inicial y otro final. A dichas variables empíricas (experimentales) de un sistema se las conoce como coordenadas térmicas y dinámicas del sistema. Este principio fundamental, aún siendo ampliamente aceptado, no fue formulado formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que recibiese el nombre de principio cero.

Primera ley de la termodinámica
También conocida como principio de conservación de la energía para la termodinámica «en realidad el primer principio dice más que una ley de conservación», establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará. Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Loreto Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica. La ecuación general de la conservación de la energía es la siguiente:

Termodinámica Que aplicada a la termodinámica teniendo en cuenta el criterio de signos termodinámico, queda de la forma:

184

Donde U es la energía interna del sistema (aislado), Q es la cantidad de calor aportado al sistema y W es el trabajo realizado por el sistema. Esta última expresión es igual de frecuente encontrarla en la forma ∆U = Q + W. Ambas expresiones, aparentemente contradictorias, son correctas y su diferencia está en que se aplique el convenio de signos IUPAC o el Tradicional (véase criterio de signos termodinámico).

Segunda ley de la termodinámica
Esta ley arrebata la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir completamente toda la energía de un tipo en otro sin pérdidas. De esta forma, la segunda ley impone restricciones para las transferencias de energía que hipotéticamente pudieran llevarse a cabo teniendo en cuenta sólo el primer principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud física llamada entropía, de tal manera que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la variación de la entropía siempre debe ser mayor que cero.

ilustración de la segunda ley mediante una máquina térmica

Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura, hasta lograr un equilibrio térmico. La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su equivalente en el trabajo mecánico obtenido. Existen numerosos enunciados equivalentes para definir este principio, destacándose el de Clausius y el de Kelvin.

Termodinámica Enunciado de Clausius En palabras de Sears es: «No es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada». Enunciado de Kelvin No existe ningún dispositivo que, operando por ciclos, absorba calor de una única fuente (E.absorbida), y lo convierta íntegramente en trabajo (E.útil). Enunciado de Kelvin—Planck Es imposible construir una máquina térmica Diagrama del ciclo de Carnot en función de la presión y el volumen. que, operando en un ciclo, no produzca otro efecto que la absorción de energía desde un depósito, y la realización de una cantidad igual de trabajo. Otra interpretación Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que el rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo, siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor sea el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.

185

Tercera ley de la termodinámica
La tercera de las leyes de la termodinámica, propuesta por Walther Nernst, afirma que es imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de procesos físicos. Puede formularse también como que a medida que un sistema dado se aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero absoluto. No es una noción exigida por la termodinámica clásica, así que es probablemente inapropiado tratarlo de «ley». Es importante recordar que los principios o leyes de la termodinámica son sólo generalizaciones estadísticas, válidas siempre para los sistemas macroscópicos, pero inaplicables a nivel cuántico. El demonio de Maxwell ejemplifica cómo puede concebirse un sistema cuántico que rompa las leyes de la termodinámica. Asimismo, cabe destacar que el primer principio, el de conservación de la energía, es la más sólida y universal de las leyes de la naturaleza descubiertas hasta ahora por las ciencias.

Termometría
La termometría se encarga de la medición de la temperatura de cuerpos o sistemas. Para este fin, se utiliza el termómetro, que es un instrumento que se basa en el cambio de alguna propiedad de la materia debido al efecto del calor; así se tiene el termómetro de mercurio y de alcohol, que se basan en la dilatación, los termopares que deben su funcionamiento al cambio de la conductividad eléctrica, los ópticos que detectan la variación de la intensidad del rayo emitido cuando se refleja en un cuerpo caliente.

Termodinámica Para poder construir el termómetro se utiliza el principio cero de la termodinámica, que dice: «Si un sistema A que está en equilibrio térmico con un sistema B, está en equilibrio térmico también con un sistema C, entonces los tres sistemas A, B y C están en equilibrio térmico entre sí».

186

Demostración de la existencia de la temperatura empírica de un sistema con base en la ley cero
Para dos sistemas en equilibrio termodinámico representados por sus respectivas coordenadas termodinámicas (x1, y1) y (x2, y2) tenemos que dichas coordenadas no son función del tiempo, por lo tanto es posible hallar una función que relacionen dichas coordenadas, es decir:

Sean

tres

sistemas

hidrostáticos, A, B, C, representados por sus respectivas . Si A y C están en equilibrio debe existir una función tal que:

termodinámicas:

Es decir:

Donde las funciones

y

dependen de la naturaleza de los fluidos.

Análogamente, para el equilibrio de los fluidos B y C:

Es decir:

Con las mismas consideraciones que las funciones

y

dependen de la naturaleza de los fluidos.

La condición dada por la ley cero de la termodinámica de que el equilibrio térmico de A con C y de B con C implica asimismo el equilibrio de A y B puede expresarse matemáticamente como:

Lo que nos conduce a la siguiente expresión:

Entonces, llegamos a la conclusión de que las funciones eliminación de la variable termodinámica común

y

deben ser de naturaleza tal que se permita la

. Una posibilidad, que puede demostrarse única, es:

Asimismo:

Una vez canceladas todas las partes que contienen a

podemos escribir:

Mediante una simple repetición del argumento, tenemos que:

Y así sucesivamente para cualquier número de sistemas en equilibrio termodinámico. Hemos demostrado que para todos los sistemas que se hallen en equilibrio termodinámico entre sí, existen sendas funciones cuyos valores numéricos son iguales para cada uno de dichos sistemas en equilibrio. Este valor numérico puede ser representado con la letra griega θ y será definido como la temperatura empírica de los sistemas en equilibrio termodinámico. Así, tenemos que todo equilibrio termodinámico entre dos sistemas es equivalente a un equilibrio térmico de los mismos, es decir, a una igualdad de temperaturas empíricas de estos.

Termodinámica

187

Propiedades termométricas
Una propiedad termométrica de una sustancia es aquella que varía en el mismo sentido que la temperatura, es decir, si la temperatura aumenta su valor, la propiedad también lo hará, y viceversa.

Escalas de temperatura
Lo que se necesita para construir un termómetro son puntos fijos, es decir, procesos en los cuales la temperatura permanece constante. Ejemplos de procesos de este tipo son el proceso de ebullición y el proceso de fusión. Los puntos generalmente utilizados son el proceso de ebullición y de solidificación de alguna sustancia, durante los cuales la temperatura permanece constante. Existen varias escalas para medir temperaturas, las más importantes son la escala Celsius, la escala Kelvin y la escala Fahrenheit. Escala Celsius Para esta escala, se toman como puntos fijos, los puntos de ebullición y de solidificación del agua, a los cuales se les asignan los valores de 100 y 0 respectivamente. En esta escala, estos valores se escriben como 100° y 0°. Esta unidad de medida se lee grado Celsius y se denota por °C. El grado Celsius, es la unidad creada por Anders Celsius para su escala de temperatura. Se tomó para el Kelvin y es la unidad de temperatura más utilizada internacionalmente. A partir de su creación en 1750 fue denominado grado centígrado (se escribía °c, en minúscula). Pero en 1948 se decidió el cambio en la denominación oficial para evitar confusiones con la unidad de ángulo también denominada grado centígrado (grado geométrico), aunque la denominación previa se sigue empleando extensamente en el uso coloquial. Hasta 1954 se definió asignando el valor 0 a la temperatura de congelación del agua, el valor 100 a la de temperatura de ebullición «ambas medidas a una atmósfera de presión» y dividiendo la escala resultante en 100 partes iguales, cada una de ellas definida como 1 grado. Estos valores de referencia son muy aproximados pero no correctos por lo que, a partir de 1954, se define asignando el valor 0,01 °C a la temperatura del punto triple del agua y definiendo 1 °C como la fracción 1/273,16 de la diferencia con el cero absoluto. Conversión de unidades La magnitud de un grado Celsius (1 °C) es equivalente a la magnitud de un Kelvin (1 K), puesto que esta unidad se define como igual a la primera. Sin embargo, las escalas son diferentes porque la escala Kelvin toma como valor 0 el cero absoluto. Dado que al cero absoluto corresponde un valor de -273,15 °C, la temperatura expresada en °C y K difiere en 273,15 unidades. Escala Kelvin o absoluta En este caso, la escala fue establecida por la escala kelvin, donde el valor de 0° corresponde al cero absoluto, temperatura en la cual las moléculas y átomos de un sistema tienen la mínima energía térmica posible. Ningún sistema macroscópico puede tener una temperatura inferior. En escala Celsius esta temperatura corresponde a -273 °C. Esta unidad de medida se lee Kelvin y se denota por [K]. Esta unidad se llama también Escala Absoluta y es también la unidad adoptada por el Sistema Internacional de Unidades. Dado que 0 K corresponden a -273,15 °C, se puede hallar una fórmula de conversión, entre la escala Celsius y la escala Kelvin, de la siguiente forma:

donde la letra T representa la temperatura en Kelvin y la letra tc representa la temperatura en grados Celsius.

Termodinámica Escala Fahrenheit En esta escala también se utilizaron puntos fijos para construirla, pero en este caso fueron los puntos de solidificación y de ebullición del cloruro amónico en agua. Estos puntos se marcaron con los valores de 0 y 100 respectivamente. La unidad de esta escala se llama grado Fahrenheit y se denota por °F. Dado que en escala Celsius, los valores de 0 °C y 100 °C corresponden a 32 °F y 212 °F respectivamente, la fórmula de conversión de grados Celsius a Fahrenheit es:

188

aquí el símbolo tf representa la temperatura en grados Fahrenheit y el símbolo tc representa la temperatura en grados Celsius. Escala Rankine Es una escala de temperaturas muy utilizada en los EE.UU., y es semejante a la escala Kelvin. Al igual que esta, presenta un cero en el cero absoluto, por lo que también es una «escala absoluta», con la diferencia de que los intervalos de grado son idénticos al intervalo de grado Fahrenheit.

Sistema y ambiente
En el estudio de la termodinámica la atención está dirigida al interior de un sistema, aunque se adopte un punto de vista macroscópico, sólo se consideran aquellas magnitudes de este tipo que tienen relación con el estado interno del sistema. Para poder entender las magnitudes involucradas en este tema, se hace necesario definir los conceptos de sistema y estado de un sistema.

Sistema
Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un sistema estrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto. Ponemos unos ejemplos: • Un sistema abierto: es cuando existe un intercambio de masa y de energía con los alrededores; es por ejemplo, un coche. Le echamos combustible y él desprende diferentes gases y calor. • Un sistema cerrado: es cuando no existe un intercambio de masa con el medio circundante, sólo se puede dar un intercambio de energía; un reloj de cuerda, no introducimos ni sacamos materia de él. Solo precisa un aporte de energía que emplea para medir el tiempo. • Un sistema aislado: es cuando no existe el intercambio ni de masa y energía con los alrededores; ¿Cómo encontrarlo si no podemos interactuar con él? Sin embargo un termo lleno de comida caliente es una aproximación, ya que el envase no permite el intercambio de materia e intenta impedir que la energía (calor) salga de él. El universo es un sistema aislado, ya que la variación de energía es cero

Termodinámica

189

Medio externo
Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está formado por el mechero, el aire, etc.

Equilibrio térmico
Toda sustancia por encima de los 0 kelvin (-273,15 °C) emite calor. Si dos sustancias en contacto se encuentran a diferente temperatura, una de ellas emitirá más calor y calentará a la más fría. El equilibrio térmico se alcanza cuando ambas emiten, y reciben la misma cantidad de calor, lo que iguala su temperatura. • Nota: estrictamente sería la misma cantidad de calor por gramo, ya que una mayor cantidad de sustancia emite más calor a la misma temperatura.

Variables termodinámicas
Las variables que tienen relación con el estado interno de un sistema, se llaman variables termodinámicas o coordenadas termodinámicas, y entre ellas las más importantes en el estudio de la termodinámica son: • la masa • • • • el volumen la densidad la presión la temperatura

En termodinámica es muy importante estudiar sus propiedades, las cuáles podemos dividirlas en dos: • propiedades intensivas: son aquellas que no dependen de la cantidad de sustancia o del tamaño de un sistema, por lo que cuyo valor permanece inalterable al subdividir el sistema inicial en varios subsistemas, por este motivo no son propiedades aditivas. • propiedades extensivas: son las que dependen de la cantidad de sustancias del sistema, y son recíprocamente equivalentes a las intensivas. Una propiedad extensiva depende por tanto del «tamaño» del sistema. Una propiedad extensiva tiene la propiedad de ser aditiva en el sentido de que si se divide el sistema en dos o más partes, el valor de la magnitud extensiva para el sistema completo es la suma de los valores de dicha magnitud para cada una de las partes. Algunos ejemplos de propiedades extensivas son la masa, el volumen, el peso, cantidad de sustancia, energía, entropía, entalpía, etc. En general el cociente entre dos magnitudes extensivas nos da una magnitud intensiva, por ejemplo la división entre masa y volumen nos da la densidad.

Estado de un sistema
Un sistema que puede describirse en función de coordenadas termodinámicas se llama sistema termodinámico y la situación en la que se encuentra definido por dichas coordenadas se llama estado del sistema.

Equilibrio térmico
Un estado en el cual dos coordenadas termodinámicas independientes X e Y permanecen constantes mientras no se modifican las condiciones externas se dice que se encuentra en equilibrio térmico. Si dos sistemas se encuentran en equilibrio térmico se dice que tienen la misma temperatura. Entonces se puede definir la temperatura como una propiedad que permite determinar si un sistema se encuentra o no en equilibrio térmico con otro sistema. El equilibrio térmico se presenta cuando dos cuerpos con temperaturas diferentes se ponen en contacto, y el que tiene mayor temperatura cede energía térmica en forma de calor al que tiene más baja, hasta que ambos alcanzan la misma

Termodinámica temperatura. Algunas definiciones útiles en termodinámica son las siguientes.

190

Foco térmico
Un foco térmico es un sistema que puede entregar y/o recibir calor, pero sin cambiar su temperatura.

Contacto térmico
Se dice que dos sistema están en contacto térmico cuando puede haber transferencia de calor de un sistema a otro.

Procesos termodinámicos
Se dice que un sistema pasa por un proceso termodinámico, o transformación termodinámica, cuando al menos una de las coordenadas termodinámicas no cambia. Los procesos más importantes son: • • • • Procesos isotérmicos: son procesos en los que la temperatura no cambia. Procesos isobáricos: son procesos en los cuales la presión no varía. Procesos isócoros: son procesos en los que el volumen permanece constante. Procesos adiabáticos: son procesos en los que no hay transferencia de calor alguna.

• Procesos diatermicos: son procesos que dejan pasar el calor fácilmente. Por ejemplo, dentro de un termo donde se colocan agua caliente y cubos de hielo, ocurre un proceso adiabático, ya que el agua caliente se empezará a enfriar debido al hielo, y al mismo tiempo el hielo se empezará a derretir hasta que ambos estén en equilibrio térmico, sin embargo no hubo transferencia de calor del exterior del termo al interior por lo que se trata de un proceso adiabático.

Rendimiento termodinámico o eficiencia
Un concepto importante en la ingeniería térmica es el de rendimiento. El rendimiento de una máquina térmica se define como:

donde, dependiendo del tipo de máquina térmica, estas energías serán el calor o el trabajo que se transfieran en determinados subsistemas de la máquina. Teorema de Carnot Nicolas Léonard Sadi Carnot en 1824 demostró que el rendimiento de alguna máquina térmica que tuviese la máxima eficiencia posible (a las que en la actualidad se denotan con su nombre) y que operase entre dos termostatos (focos con temperatura constante), dependería sólo de las temperaturas de dichos focos. Por ejemplo, el rendimiento para un motor térmico de Carnot viene dado por:

donde

y

son las temperaturas del termostato caliente y del termostato frío, respectivamente, medidas en

Kelvin. Este rendimiento máximo es el correspondiente al de una máquina térmica reversible, la cual es sólo una idealización, por lo que cualquier máquina térmica construida tendrá un rendimiento menor que el de una máquina reversible operando entre los mismos focos.

Termodinámica

191

Dilatación térmica
La dilatación térmica corresponde al efecto en el cual, las sustancias se «agrandan» al aumentar la temperatura. En objetos sólidos, la dilatación térmica produce un cambio en las dimensiones lineales de un cuerpo, mientras que en el caso de líquidos y gases, que no tienen forma permanente, la dilatación térmica se manifiesta en un cambio en su volumen.

Dilatación lineal
Consideremos primero la dilatación térmica de un objeto sólido, cuyas dimensiones lineales se pueden representar por , y que se dilata en una cantidad . Experimentalmente se ha encontrado que para casi todas las sustancias y dentro de los límites de variación normales de la temperatura, la dilatación lineal proporcional al tamaño inicial l0 y al cambio en la temperatura = donde = . , es decir: es directamente

se llama coeficiente de dilatación lineal, cuya unidad es el recíproco del grado, es decir [°C]-1.

Dilatación superficial
Es el mismo concepto que el de dilatación lineal salvo que se aplica a cuerpos a los que es aceptable y preferible considerarlos como regiones planas; por ejemplo, una plancha metálica. Al serle transmitida cierta cantidad de calor la superficie del objeto sufrirá un incremento de área: A. = donde = .

se llama coeficiente de dilatación superficial.

Dilatación volumétrica
La dilatación volumetrica de un líquido o un gas se observa como un cambio de volumen sustancia de volumen V0, relacionado con un cambio de temperatura V es directamente proporcional al volumen inicial V0 y al cambio de temperatura V en una cantidad de t. En este caso, la variación de volumen t, para la mayor parte de las

sustancias y dentro de los límites de variación normalmente accesibles de la temperatura, es decir: = donde = .

se llama coeficiente de dilatación volumétrica, medida en la misma unidad que el coeficiente de

dilatación lineal 2 alfa. Se puede demostrar fácilmente usando el álgebra que:

Análogamente se puede obtener el coeficiente de dilatación superficial

dado por:

Termodinámica

192

Diagramas termodinámicos
• • • • Diagrama PVT Diagrama de fase Diagrama p-v Diagrama T-s

Referencias
Notas
[1] « termo- (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=termo-)», Diccionario de la lengua española (vigésima segunda edición), Real Academia Española, 2001, . [2] « dinámico (http:/ / buscon. rae. es/ draeI/ SrvltConsulta?TIPO_BUS=3& LEMA=dinámico)», Diccionario de la lengua española (vigésima segunda edición), Real Academia Española, 2001, . [3] Callen, H., Thermodynamics and an Introduction to Thermostatistics, 2nd Ed., Wiley, 1985 [4] Ver Zemansky, 1985. [5] Callen, H., Thermodynamics and an Introduction to Thermostatistics, 2nd Ed., Wiley, 1985 [6] Reif, F., Fundamentals of Statistical and Thermal Physics, McGraww-Hill, New York, 1985, pag. 3 [7] Callen, H. Thermodynamics and an Introduction to Thermostatisticas, 2nd Ed., Wiley, 1985 [8] Cfr. Callen, H., 1985 [9] Cfr.Callen, H., 1985; Reif, F., 1985 [10] Reif, F., Fundamentals of Statistical and Thermal Physics, McGraw-Hill, New York, 1985 [11] La entropía se define en termodinámica clásica para sistemas que se encuentran en equilibrio termodinámico y fuera de él no tiene sentido. [12] Cfr. Callen, H., 1985 [13] Cfr. Reif, F, 1985

Bibliografía
• Boltzmann, Ludwig (1986). Escritos de mecánica y termodinámica. Alianza Editorial. ISBN 842060173X. • Pérez Cruz, Justo R. (2005). La Termodinámica de Galileo a Gibbs (http://www.gobiernodecanarias.org/ educacion/3/Usrn/fundoro/web_fcohc/005_publicaciones/mhc/mhc_htm/mhc9_termodinamica.htm). Fundación Canaria Orotava de Historia de la Ciencia. ISBN 978-84-609-7580-9. • Planck, Max (1990). Treatise on Thermodynamics. Dover Publications. ISBN 048666371X. • Zemansky, Mark W. (1985). Calor y termodinámica. ISBN 84-85240-85-5. • Callen, Herbert B. (1985). Thermodynamics and an Introduction to Thermostatistics. • Reif, Federick (1985). Fundamentals of Statistical and Thermal Physics.

Enlaces externos
• • • Wikimedia Commons alberga contenido multimedia sobre TermodinámicaCommons. Wikcionario tiene definiciones para termodinámica.Wikcionario Wikiversidad alberga proyectos de aprendizaje sobre Termodinámica.Wikiversidad

Mecánica de medios continuos

193

Mecánica de medios continuos
La mecánica de medios continuos (MMC) es una rama de la física (específicamente de la mecánica) que propone un modelo unificado para sólidos deformables, sólidos rígidos y fluidos. Físicamente los fluidos se clasifican en líquidos y gases. El término medio continuo se usa tanto para designar un modelo matemático, como cualquier porción de material cuyo comportamiento se puede describir adecuadamente por ese modelo.

Introducción
Un medio Continuo se concibe como una porción de materia formada por un conjunto infinito de partículas (que forman parte, por ejemplo, de un sólido, de un fluido o de un gas) que va a ser estudiado macroscópicamente, es decir, sin considerar las posibles discontinuidades existentes en el nivel microscópico (nivel atómico o molecular). En consecuencia, en el tratamiento matemático ideal de un medio continuo se admite usualmente que no hay discontinuidades entre las partículas y que la descripción matemática de este medio y de sus propiedades se puede realizar mediante funciones continuas. Existen tres continuos: grandes grupos de medios
Descripción matemática de la deformación de un medio continuo.

• Mecánica del sólido rígido • Mecánica de sólidos deformables. • Mecánica de fluidos, que distingue a su vez entre: • Fluidos compresibles. • Fluidos incompresibles.

Modelo matemático
En el modelo planteado por la mecánica de medios continuos las magnitudes físicas como la energía o la cantidad de movimiento pueden ser manejadas en el límite infinitesimal. Por esa razón las relaciones básicas en mecánica de medios continuos toman la forma de ecuaciones diferenciales. Los tipos básicos de ecuaciones usadas en mecánica de medios continuos son: • Ecuaciones Constitutivas que caracterizan las propiedades del material que trata de modelarse como medio continuo. • Leyes de conservación que son leyes física fundamentales como: • Conservación de la cantidad de movimiento. • Conservación de la energía. Puesto que las propiedades de los sólidos y fluidos no dependen del sistema de coordenadas elegido para su estudio, las ecuaciones de la mecánica de medios continuos tienen forma tensorial. Es decir, las magnitudes básicas que aparecen en la mecánica de medios continuos son tensores lo cual permite escribir las ecuaciones en una forma básica que no varia de un sistema de coordenadas a otro.

Mecánica de medios continuos

194

Movimiento del medio
El movimiento de medio continuo necesita especificar cómo se mueve cada uno de los puntos materiales que componen el medio a lo largo del tiempo. Eso implica que no basta un número finito de coordenadas sino para cada punto se requiere una función del tiempo que describa su posición en cada instante. Usualmente la descripción del movimiento se realiza a partir de una configuración inicial. Esta configuración inicial está formada por todos los puntos del espacio que inicialmente estaban ocupados por el medio continuo, por lo que el movimiento puede realizarse mediante una aplicación del tipo:

El movimiento del punto material de coordenadas iniciales

vendrá dado por:

A partir de esa función se puede definir el gradiente de deformación en cada punto como la derivada jacobiana de la anterior aplicación:

A partir de ese gradiente puede definirse el tensor deformación y el tensor velocidad de deformación. Y a partir de ellos en función del tipo de material que forme el medio continuo se puede obtener el tensor de tensiones mediante la ecuación constitutiva del medio.

Sólidos y fluidos
La diferencia fundamental entre sólidos deformables y fluidos es que las tensiones en un punto en un instante dado en los sólidos se ven influidas por el valor actual de la deformación en dicho punto, es decir, las tensiones dependen de cuanto difiere la "forma original" o configuración natural y el estado actual. Por el contrario, en un fluido las tensiones en un punto sólo dependen de un escalar llamado presión (p) y de la velocidad de deformación , pero no la deformación misma. Por ejemplo en un sólido elástico homogéneo ecuación constitutiva tiene la forma:

Mientras que un fluido tiene una ecuación constitutiva de un fluido es del tipo:

Un sólido viscoelástico tiene tensiones que siguen dependiendo de la deformación aunque al igual que un fluido el valor de la tensión se ve afectado por la velocidad de deformación, así un sólido viscoelástico homogéneo de tipo diferencial podría tener una ecuación constitutiva del tipo:

Es interesante notar que la ecuación de equilibrio:

Donde es la densidad del medio. es la derivada material, es el campo de velocidades, es la densidad de fuerza por unidad de masa es el tensor tensión

Mecánica de medios continuos Es válida tanto para sólidos deformables como para fluidos. En el caso de fluidos newtonianos se substituye el tensor tensión por la expresión constitutiva en términos de la velocidad de deformación la ecuación anterior se convierte en la ecuación de Navier-Stokes para el fluido.

195

Límites de aplicabilidad
Aunque la mecánica de medios continuos es un modelo que permite investigar las propiedades de sólidos deformables y fluidos con gran precisión, hay que recordar que a escalas muy pequeñas la materia está hecha de átomos. Y esa naturaleza atómica de la materia da lugar a cierto tipo de microestructura heterogénea que viola alguno de los principios de la mecánica de medios continuos. Sin embargo, pese a esta dificultad, la mecánica de medios continuos es una aproximación válida en la mayoría de situaciones macroscópicas en las que la microestructura asociada a la naturaleza atómica de la materia puede ser ignorada (en los fluidos, el número de Knudsen se usa para determinar hasta qué punto la hipótesis continuidad del medio es adecuada).

Disciplinas de la MMC
Mecánica de mecánica de sólidos deformables. La mecánica de medios sólidos deformables es la rama de la física que continuos trata de medios continuos que tienen una forma definida no determinada enteramente por el recipiente o conjunto de constricciones sobre la superficie del sólido. Elasticidad, que describe los materiales que recuperan su forma si se retiran las fuerzas causantes de la deformación. Plasticidad, que describe los materiales que sufren deformaciones permanentes y no recuperables tras la aplicación de fuerzas suficientemente grandes. Fluido no-newtoniano Reología Dado que algunos materiales presentan viscoelasticidad (una combinación de comportamiento elástico y viscoso), la distinción entre la mecánica de sólidos y la mecánica de fluidos es difusa.

Mecánica de fluidos (incluyendo hidrostática e hidrodinámica), que trata de la física de fluidos. Una propiedad importante de los fluidos es su viscosidad, que es una fuerza interna generada por un fluido que se opone al movimiento del mismo.

Fluido newtoniano

Mecánica del sólido rígido

196

Mecánica del sólido rígido
La mecánica de un sólido rígido es aquella que estudia el movimiento y equilibrio de sólidos materiales ignorando sus deformaciones. Se trata, por tanto, de un modelo matemático útil para estudiar una parte de la mecánica de sólidos, ya que todos los sólidos reales son deformables. Se entiende por sólido rígido un conjunto de puntos del espacio que se mueven de tal manera que no se alteran las distancias entre ellos, sea cual sea la fuerza actuante (matemáticamente, el movimiento de un sólido rígido viene dado por un grupo uniparamétrico de isometrías).

Cinemática del sólido rígido
Centro de gravedad

Movimiento complejo de un sólido rígido, que presenta precesión alrededor de la dirección del momento angular además rotación según su eje de simetría

El centro de gravedad o centro de masas de un sistema continuo es el punto geométrico definido como: (1) En mecánica del sólido rígido, el centro de masa se usa porque tomando un sistema de coordenadas centrado en él, la energía cinética total K puede expresarse como , siendo M la masa total del cuerpo, V la velocidad de traslación del centro de masas y Krot la energía de rotación del cuerpo, expresable en términos de la velocidad angular y el tensor de inercia.

Velocidad angular
Sea una partícula cualquiera de un sólido rígido el cual se desplaza girando. Dado que todos los puntos están rígidamente conectados podemos hacer la siguiente descomposición de posición y velocidades, tomando un punto de referencia arbitrario : (2a) (2b) (2c) Donde • • • • es vector posición del punto o partícula es la posición de un punto de referencia del sólido es la orientación, que viene dada por una matriz ortogonal es la posición de la partícula con respecto al punto de referencia del cuerpo a lo largo del tiempo con una

orientación variable. • es la posición de la partícula con respecto al punto de referencia del cuerpo en la orientación de referencia inicial. • es la velocidad angular • es la velocidad total de la partícula • is la velocidad "traslacional" o velocidad del punto de referencia.

Mecánica del sólido rígido

197

Momento angular o cinético
El momento angular es una magnitud física importante porque en muchos sistemas físicos constituye una magnitud conservada, a la cual bajo ciertas condiciones sobre las fuerzas es posible asociarle una ley de conservación. El hecho de que el momento angular sea bajo ciertas circunstancias una magnitud cuyo valor permanece constante puede ser aprovechado en la resolución de las ecuaciones de movimiento. En un instante dado, y fijado un punto del espacio en un punto del espacio O, se define el momento angular LO de un sistema de partículas respecto a ese punto como la integral siguiente:

Donde

son el volumen del sólido y la densidad másica en cada punto, y

son la velocidad de una

partícula del cuerpo y el vector de posición respecto a O. Conviene recordar que el valor de la magnitud anterior depende de qué punto O se elija. Para el estudio de sólidos rígidos en movimiento conviene escoger un "punto móvil" (es decir, para cada instante del tiempo consideraremos un punto diferente del espacio). Por ejemplo podemos evaluar el momento angular respecto al centro de masas G del sólido: (3)

Donde se ha introducido la abreviación

.

Espacio de configuración de un sólido rígido
La mecánica lagrangiana para describir un sistema mecánico con un grado finito de grados de libertad se define como una variedad diferenciable llamada espacio de configuración. El movimiento del sistema o evolución con el tiempo se describe como un conjunto de trayectorias a lo largo del espacio de configuración. Para un sólido rígido con un punto inmóvil (sólo existe rotación) el espacio de configuración viene dado por la variedad diferenciable del grupo de rotación SO(3). Cuando el sólido tiene traslación y rotación de todos sus puntos el espacio de configuración es E+(n), el subgrupo de isometría del grupo euclídeo (combinaciones de traslaciones y rotaciones.

Tensor de inercia
Cuando se estudia el movimiento de un sólido rígido resulta conveniente descomponerlo en un movimiento de traslación más un movimiento de rotación: 1. Para describir la traslación sólo necesitamos calcular las fuerzas resultantes y aplicar las leyes de Newton como si se tratara de puntos materiales. 2. En cambio la descripción de la rotación es más compleja, ya que necesitamos alguna magnitud que de cuenta de como está distribuida la masa alrededor de cierto punto o eje de rotación (por ejemplo un eje que pase por el centro de masa). Esa magnitud es el tensor de inercia que caracteriza la inercia rotacional del sólido. Ese tensor de inercia sólido rígido se define como un tensor simétrico de segundo orden tal que la forma cuadrática construida a partir del tensor y la velocidad angular ω da la energía cinética de rotación, es decir: (4) No sólo la energía cinética se puede expresar sencillamente en términos del tensor de inercia, si reescribimos la expresión (3) para el momento angular introduciendo en ella la definición del tensor de inercia, tenemos que este tensor es la aplicación lineal que relaciona la velocidad angular y el momento angular:

Mecánica del sólido rígido (5)

198

Ecuaciones del movimiento
Ángulos de Euler
Los ángulos de Euler son tres coordenadas angulares que permiten relacionar la orientación de un sistema de ejes respecto a otro. En mecánica del sólido rígido se consideran normalmente dos sistemas de referencia: un sistema de ejes fijo o asociado a un observador inercial y otro móvil respecto al primero pero solidario con el sólido rígido. Aunque técnicamente es posible plantear las ecuaciones de Newton para el sistema inercial relacionando las magnitudes del sistema asociado al sólido rígido mediante la matriz de rotación asociada a los ángulos de Euler, resulta un sistema de ecuaciones poco práctico debido a que en ese sistema el tensor de inercia varía con el tiempo. Por otro lado, los ángulos de Euler proporcionan tres coordenadas generalizadas adecuadas para describir el movimiento de sólidos rígidos mediante los métodos de la mecánica lagrangiana.

Ecuaciones de Euler
Cuando las ecuaciones del movimiento de un sólido rígido se expresan en un sistema de referencia no inercial solidario con los ejes principales de inercia del sólido rígido toman una fórmula particularmente simple conocida como ecuaciones de Euler. En general, en este sistema de referencia es mucho más sencillo integrar las ecuaciones de movimientos que en un sistema de referencia inercial y no solidario con el cuerpo. Las ecuaciones de Euler para el movimiento de un sólido rígido tienen la forma:

donde

son las componentes vectoriales del momento o torque total aplicado, son las componentes del vector velocidad angular

son los momentos principales

de inercia y

según los ejes principales de inercia.

Peonza simétrica
Se llama peonza simétrica a un sólido rígido de revolución, con dos de sus momentos de inercia principales iguales . Como en una peonza simétrica se pueden escoger arbitrariamente los ejes 1 y 2, conviene aprovechar ese hecho para simplificar las expresiones tomando el eje 1 paralelo a la línea nodal de los ángulos de Euler lo cual equivale a que ψ = 0. Lo cual lleva a que las velocidades angulares en el sistema de referencia no inercial vengan dadas por:

La energía cinética de rotación una peonza simétrica puede expresarse en términos de los ángulos de Euler sencillamente:

Por otro lado si se toma el eje Z del sistema de referencia alineado con el momento angular del sólido rígido se tiene que las componentes del momento angular y la relación con la velocidad angular son:

Mecánica del sólido rígido

199

Escribiendo componente a componente estas ecuaciones se tiene que:

La primera ecuación nos dice que en el movimiento libre de una peonza simétrica esta no cabecea, es decir, no hay movimiento de nutación ya que el ángulo formado por eje de rotación y el momento angular se mantiene constante en el movimiento. La segunda describe el movimiento de precesión de acuerdo con el cual el eje de rotación (que coincide con la dirección de la velocidad angular) gira alrededor de la dirección del momento angular (eje Z). La tercera ecuación da la velocidad de rotación del sólido alrededor de su tercer eje de inercia.

Peonza asimétrica
Una peonza asimétrica es un sólido rígido tal que ninguno de sus tres momentos principales de inercia tiene el mismo valor, es común nombrarlos en orden ascendente como: . En el movimiento de giro libre de una peonza tiene dos integrales de movimiento: (6a) (6b) Como sólo existen tres coordenadas angulares y existen esas dos restricciones las componentes del momento angular sólo pueden variar a lo largo de una curva dada por la intersección del elipsoide (6a) y la esfera (6b). Así mismo puede verse que el giro alrededor de los ejes de inercia asociado a los momentos es estable mientras que el asociado a es inestable, es decir, cualquier pequeña perturbación cambia drásticamente las trayectorias del las ecuaciones paramétricas de variación de las velocidades angulares vienen dadas movimiento. Para

por las funciones elípticas de Jacobi:

con:

Si

basta intercambiar los subíndices 1 y 3 en las anteriores expresiones. las funciones elípticas de Jacobi se reducen a funciones

Finalmente conviene observar que cuando

trigonométricas ordinarias, y las ecuaciones del movimiento se reducen a las de una peonza simétrica:

Mecánica del sólido rígido

200

Principio del trabajo virtual
Véase también: Principio de los trabajos virtuales

El principio del trabajo virtual establece que si un cuerpo está en equilibrio, entonces la suma algebraica del trabajo virtual realizado por todas las fuerzas y los momentos de par que actúan sobre el cuerpo, es cero para cualquier desplazamiento virtual del cuerpo.[1]

Sólido rígido en mecánica cuántica
La formulación cuántica se realiza mediante la cuantización de la variedad simpléctica 12-dimensional asociada a un sólido rígido. El espacio de configuración de un sólido rígido es SO(3) x R3 y por tanto un espacio de Hilbert adecuado para el sólido rígido es isomorfo al producto tensorial de espacios de funciones de cuadrado integrable , donde son respectivamente la medida de Haar de SO(3) y la medida de Lebesgue de R3. Dada la compacidad de SO(3), la energía cinética de rotación puede considerarse como una suma directa de operadores actuando sobre espacios vectoriales de dimensión finita.

Referencias
[1] Hibbeler, R. C. (2010).Ingeniería mecánica-Estática (12° edición). Pearson Prentice Hall

Bibliografía
• Landau, L.D.; Lifshitz E.M.. «VI». En Reverté. Mecánica (2ª edición). Barcelona. pp. 115-157. ISBN 84-291-4080-6.

Mecánica de sólidos deformables
La mecánica de los sólidos deformables estudia el comportamiento de los cuerpos sólidos deformables ante diferentes tipos de situaciones como la aplicación de cargas o efectos térmicos. Estos comportamientos, más complejos que el de los sólidos rígidos, se estudian en mecánica de sólidos deformables introduciendo los conceptos de deformación y de tensión. Una aplicación típica de la mecánica de sólidos deformables es determinar a partir de una cierta geometría original de sólido y unas fuerzas aplicadas sobre el mismo, si el cuerpo cumple ciertos requisitos de resistencia y rigidez. Para resolver ese problema, en general es necesario determinar el campo de tensiones y el campo de deformaciones del sólido. Las ecuaciones necesarias para ello son: • ecuaciones de equilibrio, que relacionan tensiones internas del sólido con las cargas aplicadas. Las ecuaciones de la estática son deducibles de las ecuaciones de equilibrio. • ecuaciones constitutivas, que relacionan tensión y deformación, y en las que pueden intervenir también otras magnitudes como temperatura, velocidad de deformación, deformaciones plásticas acumuladas, variables de endurecimiento, etc. • ecuaciones de compatibilidad, a partir de la cual pueden calcularse los desplazamientos en función de las deformaciones y las condiciones de contorno o enlace con el exterior.

Mecánica de sólidos deformables

201

Tipos de sólidos deformables
Los sólidos deformables difieren unos de otros en su ecuación constitutiva. Según sea la ecuación constitutiva que relaciona las magnitudes mecánicas y termodinámicas relevantes del sólido, se tiene la siguiente clasificación para el comportamiento de sólidos deformables: • Comportamiento elástico, se da cuando un sólido se deforma adquiriendo mayor energía potencial elástica y, por tanto, aumentando su energía interna sin que se produzcan transformaciones termodinámicas irreversibles. La característica más importante del comportamiento elástico es que es reversible: si se suprimen las fuerzas que provocan la deformación el sólido vuelve al estado inicial de antes de aplicación de las cargas. Dentro del comportamiento elástico hay varios subtipos: • Elástico lineal isótropo, como el de la mayoría de metales no deformados en frío bajo pequeñas deformaciones. • Elástico lineal no-isótropo, la madera es material ortotrópico que es un caso particular de no-isotropía. • Elástico no-lineal, ejemplos de estos materiales elásticos no lineales son la goma, el caucho y el hule, también el hormigón o concreto para esfuerzos de compresión pequeños se comporta de manera no-lineal y aproximadamente elástica. • Comportamiento plástico: aquí existe irreversibilidad; aunque se retiren las fuerzas bajo las cuales se produjeron deformaciones elásticas, el sólido no vuelve exactamente al estado termodinámico y de deformación que tenía antes de la aplicación de las mismas. A su vez los subtipos son: • Plástico puro, cuando el material "fluye" libremente a partir de un cierto valor de tensión. • Plástico con endurecimiento, cuando para que el material acumule deformación plástica es necesario ir aumentando la tensión. • Plástico con ablandamiento. • Comportamiento viscoso que se produce cuando la velocidad de deformación entra en la ecuación constitutiva, típicamente para deformar con mayor velocidad de deformación es necesario aplicar más tensión que para obtener la misma deformación con menor velocidad de deformación pero aplicada más tiempo. Aquí se pueden distinguir los siguientes modelos: • Visco-elástico, en que las deformaciones elásticas son reversibles. Para velocidades de deformaciones arbitrariamente pequeñas este modelo tiende a un modelo de comportamiento elástico. • Visco-plástico, que incluye tanto el desfasaje entre tensión y deformación por efecto de la viscosidad como la posible aparición de deformaciones plásticas irreversibles. En principio, un sólido de un material dado es susceptible de presentar varios de estos comportamientos según sea el rango de tensión y deformación que predomine. Uno u otro comportamiento dependerá de la forma concreta de la ecuación constitutiva que relaciona parámetros mecánicos importantes como la tensión, la deformación, la velocidad de deformación y la deformación plástica, junto con parámetros como las constantes elásticas, la viscosidad y parámetros termodinámicos como la temperatura o la entropía.

Mecánica de sólidos deformables

202

Ecuaciones constitutivas
Los sólidos elásticos son el tipo de sólido deformable de más sencillo tratamiento, ya que son materiales "sin memoria" en que el valor de las tensiones en un punto en un instante dado dependen sólo de las deformaciones en el mismo punto y no de las deformaciones anteriores (ni el valor de otras magnitudes en un instante anterior). Para un sólido elástico la ecuación constitutiva funcionalmente es de la forma: (1)

Si el sólido elástico además es homogéneo, la función especificación anterior

sólo dependerá del primer argumento. En la

denota el conjunto de tensores simétricos en el espacio euclídeo tridimensional. Si

el material no responde a una ecuación como la anterior entonces el material es anelástico. Los materiales anelásticos se caracterizan por ser materiales "con memoria" en los que la tensión actual en punto depende de la deformación en el mismo punto en algún instante anterior. La viscoelasticidad es el tipo de fenómeno de memoria más simple, aunque otros fenómenos como la existencia de plasticidad son formas de anelasticidad que requieren un tratamiento más complejo. Un material con memoria totalmente general responde a una ecuación más compleja: (2)

Obsérvese que ahora el segundo argumento de

no está sobre un espacio vectorial finito (tensores simétricos

de orden dos), sino sobre un espacio funcional (funciones que toman valores sobre los tensores de orden dos). Ahora no basta con especificar el valor actual de la deformación sino que es necesario especificar el valor para cualquier instante de tiempo lo cual requiere especificar una función del tiempo con lo cual el primer argumento pertenece a un espacio infinitodimensional. Afortunadamente el tratamiento de los materiales viscoelásticos y elastoplásticos convencionales puede hacerse con ecuaciones constitutivas menos generales que (2). Los sólidos viscoelásticos y elastoplásticos son casos particulares de (2) pueden definirse sobre espacios de dimensión finita. Por ejemplo un sólido viscoelástico de tipo diferencial con complejidad 1, el tipo más simple de viscoelasticidad, pude ser descrito simplemente mediante una ecuación constitutiva del tipo: (3)

Si la complejidad es más alta, bastaría añadir derivadas segundas o terceras hasta el orden adecuado. Para un sólido viscoelástico lineal, puede verse que (3) es un caso particular de (2) ya que en un sólido viscoelástico lineal cuya función de relajación sea la tensión se relaciona con la deformación mediante:

que es una ecuación del tipo (3) que es lineal en todos sus argumentos. Para un material elastoplástico los efectos "de memoria" del material se representan mediante una variable interna, asociada a la deformación plástica, cuyo valor numérico va a depender de la historia pasada del material: Pero comosólo importa el valor actual de la variable interna las variables seguirán definidas sobre un espacio de dimensión finita. Un material elastoplástico no dependiente de la velocidad de deformación puede representarse por una sistema de ecuaciones del tipo: (4)

Donde las variables internas incluyen la deformación plástica y posiblemente otras magnitudes. Si el material es viscoelastoplástico entonces hay que complicar un poco más la primera ecuación anterior:

Mecánica de sólidos deformables (5)

203

Materiales elásticos
Los materiales elásticos son el tipo más simple de sólido deformable donde las tensiones en un punto depende sólo de las deformaciones coocurrentes en el mismo punto. Esa restricción hace que los materiales elásticos sean sistemas termodinámicamente reversibles donde no hay disipación. Dentro de los maeriales elásticos además es frecuente la diferencia entre materiales elásticos lineales, donde la ecuación constitutiva (1) es una función lineal en su primer argumento y además las deformaciones sean pequeñas( . Matemáticamente los materiales elásticos lineales son fácilmente tratables y gran parte de las aplicaciones prácticas y el análsiis estructural se basan en este tipo de materiales. Sin embargo, la linealidad entre deformaciones y desplazamientos sólo se da aproximadamente para pequeñas deformaciones y en general los problemas con grandes deformaciones, requieren su tratamiento mediante elasticidad no lineal. Este tratamiento es sustancialmente más complejo desde el punto de vista matemático.

Teoría de la elasticidad lineal
Para materiales que tienen un comportamiento elástico lineal, o aproximadamente lineal, para pequeñas o moderadas deformaciones. El cálculo de tensiones y deformaciones puede hacerse usando la teoría lineal de la elasticidad. Esta teoría resuelve los problemas de mecánica de sólidos planteando un [[sistema de ecuaciones diferenciales en derivadas parciales. Desde el punto de vista físico los diversos subsistemas de ecuaciones que incluye esta teoría son: • Ecuaciones de equilibrio interno. Que relacionan las fuerzas volumétricas (bi) con las derivadas de las tensiones (σij) en el interior del sólido:

• Ecuaciones de equilibrio externo. Que relacionan las fuerzas superficiales o fuerzas de contacto (fi) aplicadas en la superficie del sólido con el valor de las tensiones en el controno del sólido:

• Ecuaciones constitutivas o ecuaciones de Lamé-Hooke. Son ecuaciones algebraicas y lineales que relacionan el valor de las componentes del tensor tensión con el valor del tensor deformación:

• Relación entre desplazamientos y deformaciones. Que relacionan las componentes del tensor de deformaciones (εij) con las componentes del vector de desplazamiento u = (ux, uy, uz):

• Condiciones de contorno, que fijan el valor del desplazamiento para algunos puntos del contorno exterior, normalmente los puntos que sean puntos de unión del sólido deformable a alguna otra estructura o elemento resistente sobre el que se apoye o ancle.

Mecánica de sólidos deformables

204

Resistencia de materiales
Ciertos problemas sencillos de la mecánica de sólidos deformables con geometrías simples pueden tratarse mediante la resistencia de materiales clásica. En especial para el cálculo de vigas y cuando la concentración de tensiones no es particularmente pueden plantearse ecuaciones diferenciales ordinarias en una variable para el cálculo de tensiones y deformaciones, lo cual hace muy fácil el encontrar soluciones analíticas que aproximen las tensiones del problema real tridimensional. Además, muchos problemas que son indeterminados según el modelo de la mecánica del sólido rígido (problemas hiperestáticos), son resolubles en el modelo de sólidos deformables gracias a que se usan ecuaciones adicionales (ecuación constitutiva y ecuaciones de compatibilidad). Normalmente estas ecuaciones adicionales se escriben en términos de esfuerzos, deformaciones o desplazamientos (Véase también: teoremas de Castigliano, ecuaciones de Navier-Bresse, teoremas de Mohr). Una de las principales aplicaciones de la mecánica de sólidos deformables es el cálculo de estructuras en ingeniería y arquitectura. Como campo de estudio, la mecánica de sólidos deformables forma parte de la mecánica de medios continuos. Cabe señalar que los métodos simplifcados usados en resistencia de materiales también pueden extenderse a materiales con cierto tipo de plasticidad o materiales viscoelásticos, por lo que la resistencia de materiales no está limitada estrictamente a materiales elásticos, aunque en la práctica la resistencia de materiales no elásticos es poco usada en la práctica, siendo más común el uso de códigos basados en elementos finitos u otros métodos computacionales y el tratamiento no simplificado de la geometría.

Elasticidad (mecánica de sólidos)
En física e ingeniería, el término elasticidad designa la propiedad mecánica de ciertos materiales de sufrir deformaciones reversibles cuando se encuentran sujetos a la acción de fuerzas exteriores y de recuperar la forma original si estas fuerzas exteriores se eliminan.

Una varilla elástica vibrando, es un ejemplo de sistema donde la energía potencial elástica se transforma en energía cinética y viceversa.

Introducción
La elasticidad es estudiada por la teoría de la elasticidad, que a su vez es parte de la mecánica de sólidos deformables. La teoría de la elasticidad (TE) como la mecánica de sólidos (MS) deformables describe cómo un sólido (o fluido totalmente confinado) se mueve y deforma como respuesta a fuerzas exteriores. La diferencia entre la TE y la MS es que la primera sólo trata sólidos en que las deformaciones son termodinámicamente reversibles y en los que el estado tensiones en un punto en un instante dado dependen sólo de las deformaciones en el mismo punto y no de las deformaciones anteriores (ni el valor de otras magnitudes en un instante anterior). Para un sólido elástico la ecuación constitutiva funcionalmente es de la forma:

Elasticidad (mecánica de sólidos)

205

donde

denota el conjunto de tensores simétricos de segundo orden del espacio euclídeo. Si el sólido es

homogéneo el valor de la función anterior no penderá del segundo argumento. La propiedad elástica de los materiales está relacionada, como se ha mencionado, con la capacidad de un sólido de sufrir transformaciones termodinámicas reversibles e independencia de la velocidad de deformación (los sólidos viscoelásticos y los fluidos, por ejemplo, presentan tensiones dependientes de la velocidad de deformación). Cuando sobre un sólido deformable actúan fuerzas exteriores y éste se deforma se produce un trabajo de estas fuerzas que se almacena en el cuerpo en forma de energía potencial elástica y por tanto se producirá un aumento de la energía interna. El sólido se comportará elásticamente si este incremento de energía puede realizarse de forma reversible, en este caso decimos que el sólido es elástico.

Elasticidad lineal
Un caso particular de sólido elástico se presenta cuando las tensiones y las deformaciones están relacionadas linealmente, mediante la siguiente ecuación constitutiva:

Cuando eso sucede decimos que tenemos un sólido elástico lineal. La teoría de la elasticidad lineal es el estudio de sólidos elásticos lineales sometidos a pequeñas deformaciones de tal manera que además los desplazamientos y deformaciones sean "lineales", es decir, que las componentes del campo de desplazamientos u sean muy aproximadamente una combinación lineal de las componentes del tensor deformación del sólido. En general un sólido elástico lineal sometido a grandes desplazamientos no cumplirá esta condición. Por tanto la teoría de la elasticidad lineal sólo es aplicable a: • Sólidos elásticos lineales, en los que tensiones y deformaciones estén relacionadas linealmente (linealidad material). • Deformaciones pequeñas, es el caso en que deformaciones y desplazamientos están relacionados linealmente. En este caso puede usarse el tensor deformación lineal de Green-Lagrange para representar el estado de deformación de un sólido (linealidad geométrica). Debido a los pequeños desplazamientos y deformaciones a los que son sometidos los cuerpos, se usan las siguientes simplificaciones y aproximaciones para sistemas estables: • Las tensiones se relacionan con las superficies no deformadas • Las condiciones de equilibrio se presentan para el sistema no deformado Para determinar la estabilidad de un sistema hay presentar las condiciones de equilibrio para el sistema deformado.

Elasticidad (mecánica de sólidos)

206

Tensión

Componentes del tensor tensión en un punto P de un sólido deformable.

La tensión en un punto se define como el límite de la fuerza aplicada sobre una pequeña región sobre un plano π que contenga al punto dividida del área de la región, es decir, la tensión es la fuerza aplicada por unidad de superficie y depende del punto elegido, del estado tensional de sólido y de la orientación del plano escogido para calcular el límite. Puede probarse que la normal al plano escogido nπ y la tensión tπ en un punto están relacionadas por: Donde T es el llamado tensor tensión, también llamado tensor de tensiones, que fijada una base vectorial ortogonal viene representado por una matriz simétrica 3x3:

Donde la primera matriz es la forma común de escribir el tensor tensión en física y la segunda forma usa las convenciones comunes en ingeniería. Dada una región en forma de ortoedro con caras paralelas a los ejes coordenados situado en el interior un sólido elástico tensionado las componentes σxx, σyy y σzz dan cuenta de cambios de longitud en las tres direcciones, pero que no distorsinan los ángulos del ortoedro, mientras que las componentes σxy, σyz y σzx están relacionadas con la distorsión angular que convertiría el ortoedro en un paralelepípedo.

Deformación
En teoría lineal de la elasticidad dada la pequeñez de las deformaciones es una condición necesaria para poder asegurar que existe una relación lineal entre los desplazamientos y la deformación. Bajo esas condiciones la deformación puede representarse adecuadamente mediante el tensor deformación infinitesimal que viene dada por:

Los componentes de la diagonal principal contienen los alargamientos (dilataciones), mientras que el resto de los componentes del tensor son los medios desplazamientos. Las componentes están linealmente relacionadas con los desplazmientos mediante esta relación:

Elasticidad (mecánica de sólidos)

207

Ecuaciones constitutivas de Lamé-Hooke
Las ecuaciones de Lamé-Hooke son las ecuaciones constitutivas de un sólido elástico lineal, homogéneo e isótropo, tienen la forma:

En el caso de un problema unidimensional, σ = σ11, ε = ε11, C11 = E y la ecuación anterior se reduce a: Donde E es el módulo de elasticidad longitudinal o módulo de Young y G el módulo de elasticidad transversal. Para caracterizar el comportamiento de un sólido elástico lineal e isótropo se requieren además del módulo de Young otra constante elástica, llamada coeficiente de Poisson (ν) y el coeficiente de temperatura (α). Por otro lado, las ecuaciones de Lamé para un sólido elástico lineal e isótropo pueden ser deducidas del teorema de Rivlin-Ericksen, que pueden escribirse en la forma:

Ciertos materiales muestran un comportamiento sólo aproximadamente elástico, mostrando por ejemplo variación de la deformación con el tiempo o fluencia lenta. Estas deformaciones pueden ser permanentes o tras descargar el cuerpo pueden desaparecer (parcial o completamente) con el tiempo (viscoplasticidad, viscoelasticidad). Además algunos materiales pueden presentar plasticidad es decir pueden llegar a exhibir pequeñas deformaciones permanentes, por lo que las ecuaciones anteriores en muchos casos tampoco constituyen una buena aproximación al comportamiento de estos materiales.

Ecuaciones de equilibrio
Equilibrio interno Cuando las deformaciones no varían con el tiempo, el campo de tensiones dado por el tensor tensión representa un estado de equilibrio con las fuerzas de volumen b = (bx,by,bz) en todo punto del sólido, lo cual implica que el campo de tensiones satisface estas condiciones de equilibrio:

Elasticidad (mecánica de sólidos) Equilibrio en el contorno Además de las últimas ecuaciones deben cumplirse las condiciones de contorno, sobre la superficie del sólido, que relacionan el vector normal a la misma n = (nx,ny,nz) (dirigido hacia el exterior) con las fuerzas por unidad de superficie que actúan en el mismo punto de la superficie f = (fx,fy,fz):

208

Problema elástico
Un problema elástico lineal queda definido por la geometría del sólido, las propiedades de dicho material, unas fuerzas actuantes y unas condiciones de contorno que imponen restricciones al movimiento de cuerpo. A partir de esos elementos es posible encontrar un campo de tensiones internas sobre el sólido (que permitirá identificar los puntos que soportan más tensión) y un campo de desplazamientos (que permitirá encontrar si la rigidez del elemento resistente es la adecuada para su uso). Para platear el problema elástico son necesarias las nociones que han sido descritas en las secciones anteriores, que describen las tensiones, las deformaciones y los desplazamientos de un cuerpo. Todas estas magnitudes vienen descritas por 15 funciones matemáticas: • Las seis componentes del tensor de tensiones • Las tres componentes del vector de desplazamientos: • Las seis componentes del tensor de deformaciones: y . y . .

Para comprobar si se cumplen estas relaciones, formadas por 15 funciones, el siguiente paso es comprobar si las relaciones descritas hasta ahora bastan para describir completamente el estado de un cuerpo. Una condición necesaria para ello es que el número de ecuaciones disponibles coincida con el número de incógnitas. Las ecuaciones diponibles son: • Las tres ecuaciones de equilibrio de Cauchy. • Las seis ecuaciones de compatibilidad de Saint-Venant, que aseguran que se los desplazamientos y deformaciones están adecaudamente relacionados. • Las seis ecuaciones constitutivas, para un material elástico lineal isótropo y homogéneo estas ecuaciones vienen dadas por las ecuaciones de Lamé-Hooke. Estas 15 ecuaciones igualan exactamente el número de incógnitas. Un método común es sustituir las relaciones entre desplazamientos y deformaciones en las ecuaciones constitutivas, lo cual hace que se cumplan las ecuaciones de compatibilidad trivialmente. A su vez el resultado de esta sustitución se puede introducir en las ecuaciones de equilibrio de Cauchy lo cual convierte el anterior sistema en un sistema de tres ecuaciones en derivadas paraciales y tres desplazamientos como incógnita. De esta manera se llega a un sistema de 15 ecuaciones con 15 incognitas. La formulación más simple para resolver el problema elástico es la llamada formulación de Navier, esta formulación reduce el sistema a un sistema de tres ecuaciones diferenciales para los desplazamientos. Esto se logra insertando en las ecuaciones de equilibrio las ecuaciones propias del material, las ecuaciones de los desplazamientos y las ecuaciones de las deformaciones podemos expresar nuestro sistema de ecuaciones en un sistema de tres ecuaciones diferenciales parciales. Si lo reducimos hacia las componentes del vector de desplazamientos llegamos a las ecuaciones de Navier:

Elasticidad (mecánica de sólidos)

209

Que con el operador Nabla y el operador de Laplace se dejan escribir como:

Mediante consideraciones energéticas se puede demostrar que estas ecuaciones presentan una única solución.

Elasticidad y Diseño mecánico
En ingeniería mecánica es frecuente plantear problemas elásticos para decidir la adecuación de un diseño. En ciertas situaciones de interés práctico no es necesario resolver el problema elástico completo sino que basta con plantear un modelo simplificado y aplicar los métodos de la resistencia de materiales para calcular aproximadamente tensiones y desplazamientos. Cuando la geometría involucrada en el diseño mecánico es compleja la resistencia de materiales suele ser insuficiente y la resolución exacta del problema elástico inabordable desde el punto de vista práctico. En esos casos se usan habitualmente métodos numéricos como el Método de los elementos finitos para resolver el problema elástico de manera aproximada. Un buen diseño normalmente incorpora unos requisitos de: • resistencia adecuada, • rigidez adecuada, • estabilidad global y elástica.

Elasticidad no lineal
En principio, el abandono del supuesto de pequeñas deformaciones obliga a usar un tensor deformación no lineal y no infinitesimal, como en la teoría lineal de la elasticidad donde se usaba el tensor deformación lineal infinitesimal de Green-Lagrange. Eso complica mucho las ecuaciones de compatibilidad. Además matemáticamente el problema se complica, porque las ecuaciones resultantes de la anulación de ese supuesto incluyen fenómenos de no linealidad geométrica (pandeo, abolladura, snap-through,...). Si además de eso el sólido bajo estudio no es un sólido elástico lineal nos vemos obligados a substituir la ecuaciones de Lamé-Hooke por otro tipo de ecuaciones constitutivas capaces de dar cuenta de la no linealidad material. Además de las mencionadas existen otras no linealidades en una teoría de la elasticidad para grandes deformaciones. Resumiendo las fuentes de no linealidad serían:[1] • El tensor deformación no se relaciona linealmente con el desplazamiento , concretamente es una aplicación cuadrática del gradiente de deformación: . • Para muchos materiales la ecuación constitutiva es no lineal. • Las ecuaciones de equilibrio sobre el dominio ocupado por el sólido, escrito en términos del segundo tensor de Piola-Kirchhoff son nolineales: y . Donde es el difeomorfismo que da la relación entre los puntos antes y después de la deformación. • En algunos casos, como las cargas muertas las fuerzas que aparecen en los segundos miembros de las ecuaciones experesados en el dominio de referencia incluyen no linealidades, por ejemplo cuando en la configuración deformada aparece una presión normal a la superficie, eso comporta que • Las condiciones de incomprensibilidad, de positividad del jacobiano de la deformación, o de la inyectividad en el caso de contactos que evian la autopenetración del sólido deformado también imponen ecuaciones adicionales que se expresan en forma de ecuaciones no lineales.

Elasticidad (mecánica de sólidos)

210

Deformación
Una deformación elástica finita implica un cambio de forma de un cuerpo, debido a la condición de reversibilidad ese cambio de forma viene representado por un difeomorfismo. Formalmente si representa la forma del cuerpo antes de deformarse y un difeomordismo: la forma del cuerpo después de deformarse, la deformación viene dada por

El tensor deformación puede definirse a partir del gradiente de deformación jacobiana de la transformación anterior:

que no es otra cosa que la matriz

Existen diversas representaciones alternativas según se escojan las coordenadas materiales iniciales sobre el cuerpo sin deformar (X, Y, Z) o las coordenadas sobre el cuerpo deformado (x, y, z):

El primero de los dos tensores deformación recibe el nombre de tensor de deformación de Green-Lagrange, mientras que el segundo de ellos es el tensor deformación de Almansi. Además de estos tensores en las ecuaciones constitutivas, por simplicidad de cálculo, se usan los tensores de Cauchy-Green derecho e izquierdo:

Ecuaciones constitutivas
Existen muchos modelos de materiales elásticos no lineales diferentes. Entre ellos destaca la familia de materiales hiperelásticos, en los que la ecuación constitutiva puede derivarse de un potencial elástico W que representa la energía potencial elástica. Este potencial elástico comúnmente es una función de los invariantes algebraicos del tensor deformación de Cauchy-Green:

En este tipo de materiales el tensor tensión de Cauchy viene dado en función del potencial elástico y el tensor espacial de Almansi mediante la expresión:[2]

Donde:

Un material elástico lineal es un caso particular de lo anterior donde: (#)

Elasticidad (mecánica de sólidos)

211

Aproximación hasta segundo orden
Si se desarrolla (#) hasta primer orden se obtiene la ecuación constitutiva de la elasticidad lineal para un sólido isótropo, que depende sólo de dos constantes elásticas:

Donde en esa expresión al igual que en las siguientes se aplicará el convenio de sumación de Einstein para subíndices repetidos. Un material cuya ecuación constitutiva tiene la forma lineal anterior se conoce como material de Saint Venant-Kirchhoff. Si se desarrolla la expresión (#) hasta segundo orden entonces aparecen cuatro constantes elásticas más:

Un material cuya ecuación constitutiva viene dada por la ecuación anterior se conoce como material de Murnaghan.[3] En componentes se tiene:

O equivalentemente:

Donde: es la deformación volumétrica.

El modelo de Murnaghan anterior representa la generalización más obvia de un material de Saint Venant-Kirchhoff, aunque en la práctica es de interés limitado la expresión anterior, ya que Novozhilov[4] mediante argumentos termodinámicos sugiere que la respuesta de un material sólo debe contener potencias impares del tensor deformación.

Referencia
[1] [2] [3] [4] Philippe C. Ciarlet, Mathematical Elasticity, Vol. 1, pp. 250-251. J. R. Atkin & N. Fox, 1980, p. 65-67. Murnaghan, F. D. (1937): "Finite deformations of an elastic solid", en American Journal of Mathematics, 59, pp. 235-260. V. V. Novozhilov (1953): Foundations of Non-linear Theory of Elasticity, Graylock Press, Rochester

Bibliografía
• Ciarlet, Philippe G. (en inglés). Mathematical Elasticity: Volume I: Three Dimensional Elasticity. North-Holland. ISBN 0-444-81776-X. • Atkin, Raymond John; Fox, Norman (en inglés). An introduction to the Theory of Elasticity. North-Holland. ISBN 0-486-44241-1.

Enlaces externos
• Apuntes de Elasticidad (http://santiagomarquezd.googlepages.com/Apunteselasticidad.zip)

Plasticidad (mecánica de sólidos)

212

Plasticidad (mecánica de sólidos)
La plasticidad es la propiedad mecánica de un material anelástico, natural, artificial, biológico o de otro tipo, de deformarse permanente e irreversiblemente cuando se encuentra sometido a tensiones por encima de su rango elástico, es decir, por encima de su límite elástico. En los metales, la plasticidad se explica en términos de desplazamientos irreversibles de dislocaciones.

Introducción
En los materiales elásticos, en particular en muchos metales dúctiles, un esfuerzo uniaxial de tracción pequeño lleva aparejado un comportamiento elástico. Eso significa que pequeños incrementos en la tensión de tracción comporta pequeños incrementos en la deformación, si la carga se vuelve cero de nuevo el cuerpo recupera exactamente su forma original, es decir, se tiene una deformación completamente reversible. Sin embargo, se ha comprobado experimentalmente que Ejemplo típico de curva tensión-deformación para un esfuerzo uniaxial de tracción, en un metal dúctil con comportamiento elasto-plástico: el comportamiento es elástico lineal existe un límite, llamado límite para pequeñas deformaciones (tramo recto de color azul) y presenta plasticidad a partir de elástico, tal que si cierta función cierto límite. homogénea de las tensiones supera dicho límite entonces al desaparecer la carga quedan deformaciones remanentes y el cuerpo no vuelve exactamente a su forma. Es decir, aparecen deformaciones no-reversibles. Este tipo de comportamiento elasto-plástico descrito más arriba es el que se encuentra en la mayoría de metales conocidos, y también en muchos otros materiales. El comportamiento perfectamente plástico es algo menos frecuente, e implica la aparición de deformaciones irreversibles por pequeña que sea la tensión, la arcilla de modelar y la plastilina se aproximan mucho a un comportamiento perfectamente plástico. Otros materiales además presentan plasticidad con endurecimiento y necesitan esfuerzos progresivamente más grandes para aumentar su deformación plástica total. E incluso los comportamientos anteriores puden ir acompañados de efectos viscosos, que hacen que las tensiones sean mayores en casos de velocidades de deformación altas, dicho comportamiento se conoce con el nombre de visco-plasticidad. La plasticidad de los materiales está relacionada con cambios irreversibles en esos materiales. A diferencia del comportamiento elástico que es termodinámicamente reversible, un cuerpo que se deforma plásticamente experimenta cambios de entropía, como desplazamientos de las dislocaciones. En el comportamiento plástico parte de la energía mecánica se disipa internamente, en lugar de transformarse en energía potencial elástica. Microscópicamente, en la escala de la red cristalina de los metales, la plasticidad es una consecuencia de la existencia de ciertas imperfecciones en la red llamadas dislocaciones. En 1934, Egon Orowan, Michael Polanyi y Geoffrey Ingram Taylor, más o menos simultáneamente llegaron a la conclusión de que la deformación plástica de materiales dúctiles podía ser explicada en términos de la teoría de dislocaciones. Para describir la plasticidad

Plasticidad (mecánica de sólidos) usualmente se usa un conjunto de ecuaciones diferenciales no lineales y dependientes del tiempo que describen los cambios en las componentes del tensor deformación y el tensor tensión con respecto al estado de deformación-tensión previo y el incremento de deformación en cada instante.

213

Historia de la disciplina
La base de la moderna teoría de la plasticidad fue asentada en el siglo XIX con los trabajos de Tresca, Saint-Venant, Lévy y Bauschinger. A principios del siglo XX se hicieron algunos avances en la comprensión del fenómeno por parte de Prandtl, Von Mises y A. Reuss. En esta primera fase se introdujo el concepto de deformación irreversible, criterios de fallo, endurecimiento y plasticidad perfecta, además de la forma incremental de las ecuaciones constitutivas de la deformación plástica. Justo después de la Segunda Guerra Mundial aparecieron los trabajos de Prager, Drucker y Hill se logró una mayor claridad de la formulación y se estableció la convexidad de las superficies de fluencia. Poco después, a partir de 1960, se produjeron ciertos avances matemáticos en la teoría de ecuaciones en derivadas parciales y las desigualdades variacionales que resultarían ser particularmente provechosos para la teoría de la plasticidad. Esos avances probaron que el marco natural para resolver los problemas de valor inicial en sólidos elastoplásticos eran las desigualdades variacionales. La confluencia de ciertos avances en el terreno de la mecánica de sólidos y las matemáticas dieron lugar a nuevos desarrollos teóricos, de los cuales son un ejemplo los artículos de Moreau, las monografías de Duvaut y J.L. Lions y Temam.

Modelos de plasticidad
En general un modelo de plasticidad requiere definir varios elementos: • En primer lugar en el espacio de tensiones principales se requiere definir la llamada región de tensiones admisibles, que será un conjunto cerrado (y posiblemente compacto) de dicho espacio de tensiones. La frontera de dicho conjunto usualmente se denomina superficie de fluencia. • Para puntos del sólido cuyas tensiones principales estén contenidas en el interior de la región de tensiones admisibles el comportamiento es elástico. Sin embargo, para puntos de la superficie de fluencia es necesario definir una "regla de flujo" que explicita como aumentarán la deformación plástica en función de la tasa de aumento de la tensión y otros parámetros internos si se aumenta la solicitación sobre un material que ha alcanzado su límite de fluencia. • Los modelos de plasticidad imperfecta requerirán la definición de un conjunto de variables internas que den cuenta del endurecimiento y del desplazamiento de la región de tensiones admisibles a lo largo del tiempo en función de las tasas de aumento de las otras variables. La existencia de variables internas como el grado de plastificación (deformación plástica), el endurecimiento y otras hace que la relación entre tensiones y deformaciones sea más compleja que en el caso elástico, en particular, dado un nivel de deformación elástica las tensiones no pueden conocerse a menos que se conozca como han variado las variables internas. El hecho de tener que tener en cuenta como varían las variables internas hace que un problema elastoplástico en general sólo pueda ser unívocamente resuelto como problema dinámico resolviendo simultáneamente las ecuaciones del siguiente sistema:

Donde la primera relación expresa la ecuación constitutiva entre la tensión mecánica ( ), la deformación ( ), las variables internas ( ), para cada punto del sólido. La segunda relación es la ecuación en derivadas parciales que recoge el equilibrio de fuerzas entre las tensiones internas y las fuerzas aplicadas ( ) y la última es la ecuación diferencial ordinaria que da la regla de flujo que expresa como aumentan las variables internas (en particular la

Plasticidad (mecánica de sólidos) deformación plástica) con el tiempo una vez el material alcanza un estado de tensiones donde aparece fluencia.

214

Descomposición de la deformación
La descripción de un material plástico requiere tanto de variables que describan la deformación total, como variables internas que describan los cambios irreversibles que tienen lugar en el interior del material. Estas variables intervienen además en las relaciones de disipación del material. Las consideraciones termodinámicas llevan a que la energía libre de Gibbs g [por unidad de volumen] esté relacionada con la energía libre de Helmholtz f, las tensiones y las deformaciones mediane la relación:

Donde: energía libre de Gibbs y energía libre de Helmhotz por unidad de volumen, son las componentes del tensor de tensiones, son las componentes del tensor deformación y son un conjunto de variables internas relacionadas con los cambios irreversibles en el material La relación anterior implica: (*)

Experimentalmente se conoce que el tensor de complianza de deformación plástica, lo que a su vez implicará:

no parece verse afectado por los procesos irreversibles

Y en ese caso existe una descomposición aditiva de la deformación, en deformación elástica y deformación plástica, porque bajo la hipótesis de independencia de de la deformación plástica, (*) puede ser integrada en la forma:

Por otra parte la ley de flujo está limitada por una desigualdad asociada a la disipación plástica de la energía. Esta desigualdad se deriva de la segunda ley de la termodinámica en la forma de Clausius-Duhem:

Donde: son la energía libre de Helmholtz y la entropía por unidad de volumen. son la temperatura y el flujo de calor a través de la superificie.

Ecuaciones constitutivas de plasticidad
La ley de Hooke usada para materiales elásticos reversibles y lineales es una ecuación constitutiva en que las tensiones se describen como el producto de componentes tensoriales del tensor de constantes elásticas por las componentes del tensor deformación. En dicha ley las tensiones son combinaciones lineales de las deformaciones, y no existe potencia disipación de energía y por tanto irreversibilidad. Por esas razones no pueden describir la plasticidad. De hecho la descripción matemática de la plasticidad debe incluir tanto la irreversibilidad o disipación de energía como la no-linealidad de las expresiones que relacionan tensiones y deformaciones. De hecho, existen un buen número de modelos matemáticos de plasticidad con estas características. En todos los modelos de plasticidad la relación entre tensiones y deformaciones son del tipo:

Plasticidad (mecánica de sólidos) (1)

215

Donde en la ecuación anterior y en las siguientes se usa el convenio de sumación de Einstein sobre índices repetidos, y donde además: , son las componentes del tensor de constantes elásticas del material. , son las componentes del tensor deformación. , son las componentes de la deformación plástica. La diferencia básica entre los diversos modelos de plasticidad es la superficie de fluencia y por tanto la manera en que se computan las deformaciones plásticas, además de las posibles variaciones en la componente viscoplástica. De hecho un modelo de plasticidad además de la ecuación (1) necesita especificar dos relaciones más: • Especificacación de la superficie de fluencia, que relaciona la tensión de fluencia de deformación plástica: (2) con el estado de tensión y

• La ley de flujo plástico: (3)

Donde , representan la velocidad de deformación plástica. , la derivada respecto al tiempo de la tensión de fluencia. , un conjunto de funciones prescritas dependientes del modelo que explicitan como crecen las deformaciones plásticas. Si se derivan las ecuaciones (1) y (2) respecto al tiempo y se añade la ecuación (3) se tiene un sistema de tres ecuaciones diferenciales ordinarias respecto al tiempo, que junto con las correspondientes ecuaciones de contorno describiendo las cargas, los valores iniciales y otras restricciones forman un problema elastoplástico cuya solución es única en el caso lineal. En el caso no lineal no considerado aquí no se ha demostrado la unicidad.

Modelo de plasticidad J2
Este es un modelo elasto-plástico isótropo sin vicosidad ni endurecimiento y es uno de los modelos elasto-plásticos más sencillos. La tensión en cada instante viene dada por una tensión puramente elástica independiente de la velocidad de deformación: (1a)

Donde la superficie de fluencia y la zona plástica vienen dadas por el segundo invariante o invariante cuadrático del tensor desviador. (2a)

Las ecuaciones básicas adicionales de la evolución temporal del límite de fluencia y la deformación elástica son: (2b)

Plasticidad (mecánica de sólidos)

216

Donde: , es la tensión de fluencia. , es el módulo de elasticidad longitudinal en el dominio plástico.

Siendo las condiciones iniciales existentes antes de la aparición de plastificación son:

Modelo elastoplástico hidrodidámico
Este modelo atribuye un comportamiento elástico al material por debajo de límite de fluencia y atribuye aumentos de la deformación plástica por encima de él. La velocidad de deformación no juega ningún papel dentro de él. Las relaciones entre tensión y deformación son de la forma: (1b)

Donde la superficie de fluencia y la zona donde se producen deformaciones plástica es la misma que en el modelo de plasticidad J2, lo cual significará que existirá aumento de la deformación plástica siempre y cuando: (2c)

(2d)

Las ecuaciones adicionales de la evolución temporal del límite de fluencia y la deformación plástica son: (2e)

Donde el instante inicial se ha tomado antes de que apareciera plastificación.

Modelo visco-elastoplástico de Krieg-Key
Este modelo es un modelo elasto-plástico con endurecimiento cinemático, una vez pasado el punto de fluencia del material. La relación entre tensiones y deformaciones viene dada por una contribución elástica más una contribución plástica. En el caso isotrópico la superficie de fluencia se toma como el lugar geométrico:[1] (2f)

Donde: recibe el nombre de tensión de fluencia.

Plasticidad (mecánica de sólidos) , es un parámetro que define la superficie de fluencia, cuando las tensiones caen fuera de la superficie de fluencia se acumula más deformación plástica. , son las componentes de la parte desviadora del tensor tensión. es la velocidad de deformación co-rotacional que puede obtenerse a partir de la derivada temporal del tensor deformación mediante:

217

La versión isótropa de este modelo contiene 7 constantes del material: dos constantes elásticas parámetros de de plasticidad , dos parámetros de viscoelásticos y el parámetro de endurecimiento

, dos .

Plasticidad en los metales
En los metales, la plasticidad frecuentemente aparece relacionada con el desplazamiento de dislocaciones en el interior del material. Los metales usualmente están formados por cristales con planos razonablemente bien alineados dentro de cada cristal, aunque siempre existen algunas dislocaciones y planos atómicos incompletos. A partir de un cierto valor de la tensión esas dislocaciones sufren desplazamientos, que constituyen transformaciones irreversibles que absorben energía y cuyas deformaciones asociadas no se recuperan cuando desaparece el esfuerzo.

Cálculo plástico en estructura metálica
El cálculo plástico se refiere al cálculo de esfuerzos, tensiones y deformaciones en ingeniería estructural de elementos que tienen un comportamiento plástico. A diferencia de los mecanismos que deben operar de manera reversible las estructuras estáticas pueden ser proyectadas para trabajar por encima del dominio elástico, lográndose con ello un aprovechamiento más completo de su capacidad resistente. Esto se debe a que una vez rebasado el dominio elástico de reversibilidad, algunos materiales de construcción siguen teniendo capacidad para resistir esfuerzos mayores, por endurecimiento cinemático, aún a costa de sufrir transformaciones internas irreversibles. En estructura metálica el cálculo plástico consiste básicamente en identificar los puntos de aparición de rótulas plásticas o regiones de plastificación que una vez completamente plastificadas se convierten en articulaciones, llamadas "rótulas de plastificación". Para encontrar para qué valor de la carga se forma una rótula plástica se representa la estructura por una estructura elástica lineal donde todas las rótulas de plastificación ya formadas se han substituido por articulaciones. La aparición de rótulas de plastificación reduce el grado de hiperestaticidad ampliando el número de grados de libertad. Cuando aparece el suficiente número de rótulas plásticas la estructura se convierte en un mecanismo, y la configuración del mismo da el mecanismo de colapso de al estructura. El cálculo plástico es especialmente útil en estructuras hiperestáticas con condiciones de enlaces redundantes. El cálculo plástico incluye la identificación de los modos de colapso por formación de rótulas plásticas, y la carga necesaria para la plastificación de todas las rótulas. La carga última plástica es el valor a partir del cual la estructura queda convertida en mecanismo por plastificación de la última rótula. En una estructura con una única carga aplicada cuasiestáticamente la primera rótula de plastificación se habrá acabado de formar cuando el momento máximo iguale el momento plástico, para calcularlo se considera una carga arbitraria de ensayo aplicada en el mismo punto que la carga original y se calculan los momentos flectores en todos los puntos en función de dicha carga , entonces la carga de formación de la primera rótula PR,1se calcula simplemente como:

Donde: , son respectivamente el momento plástico, el momento resistente plástico y la tensión de fluencia.

Plasticidad (mecánica de sólidos) Una vez identificada la primera rótula, se prosigue calculando una estructura como la original pero en la que el punto de formación de la rótula de plastificación se ha sustituido por una articulación, se considera una nueva carga de ensayo, se ve en qué otro punto se da ahora el momento máximo y se determina que carga se necesita para que el nuevo punto, teniendo en cuenta el momento flector total que ya tenía en la fase anterior, para que el momento iguale al momento plástico:

218

El procedimiento anterior es generalizable al caso de varias cargas P1, ...,Pn que se incrementan cuasiestáticamente de manera uniparamétrica Pi = Pi(λ). En el caso más general en que cada carga varía independientemente, el estado final dependerá de qué cargas aumenten más rápidamente por lo que la resistencia última en régimen plástico sólo puede determinarse si se especifica la variación de todas las cargas en el tiempo: Pi = Pi(t).

Cálculo plástico en hormigón armado
También en el cálculo de estructuras de hormigón armado se admite que las barras de acero sometidas a tracción adquieran deformaciones plásticas, ya que el acero tiene un comportamiento plástico con endurecimiento, y al rebasar su límite elástico se endure pudiendo soportar mayores tensiones que antes de adquirir deformaciones plásticas. Este endurecimiento o aumento de la capacidad resistente del acero en tracción permite economizar, y construir estructuras con una menor cantidad de acero.

Plasticidad de los suelos
En el caso de algunos terrenos húmedos, la plasticidad es la propiedad que les permite ser moldeados aplicándoles fuerzas externas, y mantener las formas adquiridas, aun cuando la humedad y las fuerzas externas desaparezcan. Según Atterberg[2] se pueden definir dos límites de plasticidad,[3] el máximo y el mínimo. Con porcentaje de humedad por encima del límite máximo de plasticidad, la masa terrosa adquiere fluidez y pierde su capacidad de mantener la forma, y si el terreno tiene un porcentaje de humedad por debajo del límite mínimo de plasticidad, la masa terrosa se vuelve quebradiza, y no se puede moldear.[4] Es evidente que no todos los suelos tienen la misma plasticidad; las arenas y los limos tienen una plasticidad baja o muy baja, mientras que suelos con alto contenido de arcillas tienen una plasticidad mayor. En línea general puede afirmarse que terrenos con un contenido de arcilla inferior al 15% no son plásticos.[5] Para cada uno de los límites de plasticidad, el máximo y el mínimo, corresponde, en función del terreno, un porcentaje de humedad, la diferencia entre los dos porcentajes de humedad límites de llama número o índice de plasticidad. Tanto los límites de plasticidad como también el correspondiente número de plasticidad o índice de plasticidad varían, obviamente de terreno a terreno, en función principalmente de la textura y más precisamente del contenido de coloides inorgánicos. Otro factor importante que influencia la plasticidad es el tipo de cationes disponibles.[6] Generalmente el ion K+ disminuye los dos límites de plasticidad y el índice de plasticidad, mientras que el ion Na+ disminuye los límites de plasticidad, pero aumenta el índice de plasticidad; los cationes Mg++ y Ca++ aumentan la plasticidad, pero los terrenos saturados con ellos requieren una cantidad elevada de agua para alcanzar el estado de plasticidad, al contrario de los saturados con cationes de K+. El efecto de hidratación y de dispersión del Na+ determinan una plasticidad de los suelos saturados con este catión mayor de la que alcanzan los terrenos saturados con cationes bivalentes. Generalmente, la influencia de los diversos cationes sobre la plasticidad varia con la calidad y la naturaleza de la arcilla. La materia orgánica contenida en el suelo también tiene un efecto importante en la plasticidad de los suelos.[7] En general los estratos superiores del suelo tienen una plasticidad mayor que los estratos más profundos. Esto puede

Plasticidad (mecánica de sólidos) atribuirse a la mayor presencia de material orgánico en las capas superiores del terreno.

219

Referencias
[1] Krieg, R.D. and Key, S.W., Implementation of a time dependent plasticity theory into structural computer programs. In: Stricklin, J.A., Saczalski, K.J. (Eds.), Constitutive Equations in Viscoplasticity: Computational and Engineering Aspects, AMD-20, ASEM, New York. pp. 125-137. [2] Ver también: Límites de Atterberg [3] T.William Lambe, Mecánica de Suelos. Impreso en México,1997. ISBN 968-18-1894-6 [4] Constantino Constantinidis. Bonifica ed irrigazione. Edagricole, Bologna, 1970 [5] C. Constantinidis. 1970. pag.186-187. [6] Baver, L.D. - 1928. The Relation of Exchangeable Cations to the Phisical Properties of Soils. J.Am.Soc.Agron., 20: 921-941. [7] Baver, L.D. - 1930. The effect of Organic Matter Upon Several Physical Properties of Soils. J.Am.Soc.Agron., 22: 703-708.

Mecánica de fluidos
La mecánica de fluidos es la rama de la mecánica de medios continuos (que a su vez es una rama de la física) que estudia el movimiento de los fluidos (gases y líquidos) así como las fuerzas que los provocan.[1] La característica fundamental que define a los fluidos es su incapacidad para resistir esfuerzos cortantes (lo que provoca que carezcan de forma definida). También estudia las interacciones entre el fluido y el contorno que lo limita. La hipótesis fundamental en la que se basa toda la mecánica de fluidos es la hipótesis del medio continuo

Hipótesis básicas
Como en todas las ramas de la ciencia, en la mecánica de fluidos se parte de hipótesis en función de las cuales se desarrollan todos los conceptos. En particular, en la mecánica de fluidos se asume que los fluidos verifican las siguientes leyes: • conservación de la masa y de la cantidad de movimiento. • primera y segunda ley de la termodinámica.

Hipótesis del medio continuo
La hipótesis del medio continuo es la hipótesis fundamental de la mecánica de fluidos y en general de toda la mecánica de medios continuos. En esta hipótesis se considera que el fluido es continuo a lo largo del espacio que ocupa, ignorando por tanto su estructura molecular y las discontinuidades asociadas a esta. Con esta hipótesis se puede considerar que las propiedades del fluido (densidad, temperatura, etc.) son funciones continuas. La forma de determinar la validez de esta hipótesis consiste en comparar el camino libre medio de las moléculas con la longitud característica del sistema físico. Al cociente entre estas longitudes se le denomina número de Knudsen. Cuando este número adimensional es mucho menor a la unidad, el material en cuestión puede considerarse un fluido (medio continuo). En el caso contrario los efectos debidos a la naturaleza molecular de la materia no pueden ser despreciados y debe utilizarse la mecánica estadística para predecir el comportamiento de la materia. Ejemplos de situaciones donde la hipótesis del medio continuo no es válida pueden encontrarse en el estudio de los plasmas.

Concepto de partícula fluida
Este concepto esta muy ligado al del medio continuo y es sumamente importante en la mecánica de fluidos. Se llama partícula fluida a la masa elemental de fluido que en un instante determinado se encuentra en un punto del espacio. Dicha masa elemental ha de ser lo suficientemente grande como para contener un gran número de moléculas, y lo suficientemente pequeña como para poder considerar que en su interior no hay variaciones de las propiedades macroscópicas del fluido, de modo que en cada partícula fluida podamos asignar un valor a estas propiedades. Es

Mecánica de fluidos importante tener en cuenta que la partícula fluida se mueve con la velocidad macroscópica del fluido, de modo que está siempre formada por las mismas moléculas. Así pues un determinado punto del espacio en distintos instantes de tiempo estará ocupado por distintas partículas fluidas.

220

Descripciones lagrangiana y euleriana del movimiento de un fluido
A la hora de describir el movimiento de un fluido existen dos puntos de vista. Una primera forma de hacerlo es seguir a cada partícula fluida en su movimiento, de manera que buscaremos unas funciones que nos den la posición, así como las propiedades de la partícula fluida en cada instante. Ésta es la descripción Lagrangiana. Una segunda forma es asignar a cada punto del espacio y en cada instante, un valor para las propiedades o magnitudes fluidas sin importar que en ese instante, la partícula fluida ocupa ese volumen diferencial. Ésta es la descripción Euleriana, que no está ligada a las partículas fluidas sino a los puntos del espacio ocupados por el fluido. En esta descripción el valor de una propiedad en un punto y en un instante determinado es el de la partícula fluida que ocupa dicho punto en ese instante. La descripción euleriana es la usada comúnmente, puesto que en la mayoría de casos y aplicaciones es más útil. Usaremos dicha descripción para la obtención de las ecuaciones generales de la mecánica de fluidos.

Ecuaciones generales de la mecánica de fluidos
Las ecuaciones que rigen toda la mecánica de fluidos se obtienen por la aplicación de los principios de conservación de la mecánica y la termodinámica a un volumen fluido. Para generalizarlas usaremos el teorema del transporte de Reynolds y el teorema de la divergencia (o teorema de Gauss) para obtener las ecuaciones en una forma más útil para la formulación euleriana. Las tres ecuaciones fundamentales son: la ecuación de continuidad, la ecuación de la cantidad de movimiento, y la ecuación de la conservación de la energía. Estas ecuaciones pueden darse en su formulación integral o en su forma diferencial, dependiendo del problema. A este conjunto de ecuaciones dadas en su forma diferencial también se le denomina ecuaciones de Navier-Stokes (las ecuaciones de Euler son un caso particular de la ecuaciones de Navier-Stokes para fluidos sin viscosidad). No existe una solución general a dicho conjunto de ecuaciones debido a su complejidad, por lo que para cada problema concreto de la mecánica de fluidos se estudian estas ecuaciones buscando simplificaciones que faciliten la resolución del problema. En algunos casos no es posible obtener una solución analítica, por lo que hemos de recurrir a soluciones numéricas generadas por ordenador. A esta rama de la mecánica de fluidos se la denomina mecánica de fluidos computacional. Las ecuaciones son las siguientes: Ecuación de continuidad: -Forma integral: -Forma diferencial: Ecuación de cantidad de movimiento: -Forma integral: -Forma diferencial: Ecuación de la energía -Forma integral:

Mecánica de fluidos

221

-Forma diferencial: Para un desarrollo más profundo de estas ecuaciones ver el artículo ecuaciones de Navier-Stokes

Referencias
[1] Mott, Robert (1996). «1». Mecánica de fluidos aplicada (4ª edición). México: Pearson Educación. ISBN 0-02-384231-8.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Mecánica de fluidosCommons. • Bomba de arriete: mecanica de fluidos en "live" (http://www.youtube.com/watch?v=FF0_JXlPGQE)

Astrofísica
El término astrofísica se refiere al estudio de la física del universo. Si bien se usó originalmente para denominar la parte teórica de dicho estudio, la necesidad de dar explicación física a las observaciones astronómicas ha llevado a cabo que los términos astronomía y astrofísica sean usados en forma equivalente.

Imagen de la galaxia de Andrómeda en Infrarrojo.

Una vez que se comprendió que los elementos que forman parte de los "objetos celestes" eran los mismos que conforman la Tierra, y que las mismas leyes de la física se aplican a ellos, había nacido la astrofísica como una aplicación de la física a los fenómenos observados por la astronomía. La astrofísica se basa pues en la asunción de que las leyes de la física y la química son universales, es decir, que son las mismas en todo el universo. La mayoría de los astrónomos (si no todos) tienen una sólida preparación en física, y las observaciones son siempre puestas en su contexto astrofísico, así que los campos de la astronomía y astrofísica están frecuentemente enlazados.

Historia
La astrofísica nace con la observación, realizada a comienzos del siglo XIX por J. von Fraunhofer (1787-1826) de que la luz del Sol, atravesando un espectroscopio (aparato capaz de descomponer la luz en sus colores fundamentales), da lugar a un espectro continuo sobre el cual se sobreimprimen líneas verticales, que son la huella de algunos de los elementos químicos presentes en la atmósfera solar, por ejemplo el hidrógeno y el sodio. Este descubrimiento introdujo un nuevo método de análisis indirecto, que permite conocer la constitución química de las estrellas lejanas y clasificarlas. Otros medios de investigación fundamentales para la astrofísica son la fotometría (medida de la intensidad de la luz emitida por los objetos celestes) y la astrofotografía o fotografía astronómica. La astrofísica es una ciencia tanto experimental, en el sentido que se basa en observaciones, como teórica, porque formula hipótesis sobre situaciones físicas no directamente accesibles. Otra gran zona de investigación de la astrofísica está constituida por el estudio de las características físicas de las estrellas. La astrofísica también estudia la composición y la estructura de la materia interestelar, nubes de gases y polvo que ocupan amplias zonas del espacio y que en una época eran consideradas absolutamente vacías. Los métodos de

Astrofísica investigación astrofísica son también aplicados al estudio de los planetas y cuerpos menores del sistema solar, de cuya composición y estructura, gracias a las investigaciones llevadas a cabo por satélites artificiales y sondas interplanetarias, se ha podido lograr un conocimiento profundo, que en muchos casos ha permitido modificar convicciones muy antiguas.

222

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Astrofísica. Commons • Instituto de Astrofísica de [1] Canarias. • Instituto de Astrofísica de [2] Andalucía. Observatorios: • Observatorio de Sierra Nevada [3] (Granada). • Observatorio de Calar Alto [4] (Sierra de Los Filabres, Almería). Instituto Nacional de Astrofísica Óptica y Electrónica de [5] México. Atlas celeste [6]. Laboratorio de astrofísica espacial y física fundamental [7] Madrid. Círculo Astronómico [8] (Información y enlaces acerca de diferentes observatorios en el hemisferio sur -principalmente Chile- y tópicos relacionados al tema) Centro de Investigaciones Astronomicas [9], Venezuela

• • • • •

Referencias
[1] [2] [3] [4] [5] [6] [7] [8] [9] http:/ / www. iac. es/ http:/ / www. iaa. es/ http:/ / www. osn. iaa. es/ http:/ / www. caha. es/ http:/ / www. inaoep. mx/ http:/ / www. iespana. es/ cartes-du-ciel/ http:/ / laeff. inta. es/ http:/ / www. circuloastronomico. cl/ observatorios/ observatorios. html http:/ / www. cida. gob. ve/

Astronomía

223

Astronomía
La astronomía es la ciencia que se ocupa del estudio de los cuerpos celestes del Universo, incluidos los planetas y sus satélites, los cometas y meteoroides, las estrellas y la materia interestelar, los sistemas de estrellas llamados galaxias y los cúmulos de galaxias; por lo que estudia sus movimientos y los fenómenos ligados a ellos. Su registro y la investigación de su origen viene a partir de la información que llega de ellos a través de la radiación electromagnética o de cualquier otro medio. La astronomía ha estado ligada al ser humano desde la antigüedad y todas las El Hubble: telescopio ubicado fuera de la atmósfera que observa civilizaciones han tenido contacto con esta ciencia. objetos celestes. Sus maravillosas imágenes han asombrado al Personajes como Aristóteles, Tales de Mileto, mundo. Es el icono de la astronomía moderna. Anaxágoras, Aristarco de Samos, Hiparco de Nicea, Claudio Ptolomeo, Hipatia de Alejandría, Nicolás Copérnico, Santo Tomás de Aquino, Tycho Brahe, Johannes Kepler, Galileo Galilei, Isaac Newton han sido algunos de sus cultivadores. Es una de las pocas ciencias en las que los aficionados aún pueden desempeñar un papel activo, especialmente en el descubrimiento y seguimiento de fenómenos como curvas de luz de estrellas variables, descubrimiento de asteroides y cometas, etc.

Etimología
Etimológicamente, la palabra "astronomía" proviene del latín astronomĭa, que a su vez deriva del griego αστρονομία ('astronomía' compuesto por άστρον 'astron' «estrella» y seguido de νόμος 'nomos' «regla, norma»). La mayor parte de las ciencias utilizan el sufijo griego λογια ('logía' «tratado, estudio»), como por ejemplo cosmología y biología. De hecho, "astronomía" debía propiamente haberse llamado "astrología", pero esta denominación ha sido usurpada por la pseudociencia que hoy en día es conocida con dicho nombre. Por ello no debe confundirse la astronomía con la astrología. Aunque ambas comparten un origen común, son muy diferentes. Mientras que la astronomía es una ciencia estudiada a través del método científico, la astrología es una pseudociencia que sigue un sistema de creencias no probadas o abiertamente erróneas. En general se encarga de estudiar la supuesta influencia de los astros sobre la vida de los hombres.

Astronomía

224

Breve historia de la Astronomía
En casi todas las religiones antiguas existía la cosmogonía, que intentaba explicar el origen del universo, ligando éste a los elementos mitológicos. La historia de la astronomía es tan antigua como la historia del ser humano. Antiguamente se ocupaba, únicamente, de la observación y predicciones de los movimientos de los objetos visibles a simple vista, quedando separada durante mucho tiempo de la Física. En Sajonia-Anhalt, Alemania, se encuentra el famoso Disco celeste de Nebra, que es la representación más antigua conocida de la bóveda celeste. Quizá fueron los astrónomos chinos quienes dividieron, por primera vez, el cielo en constelaciones. En Europa, las doce constelaciones que marcan el movimiento anual del Sol fueron denominadas constelaciones zodiacales. Los antiguos griegos hicieron importantes contribuciones a la astronomía, entre ellas, la definición de magnitud. La astronomía precolombina poseía calendarios muy exactos y parece ser que las pirámides de Egipto fueron construidas sobre patrones astronómicos muy precisos. La cultura griega clásica primigenia postulaba que la Tierra era plana. En el modelo aristotélico lo celestial pertenecía a la perfección -"cuerpos celestes perfectamente esféricos moviéndose en órbitas circulares perfectas"-, mientras que lo terrestre era imperfecto; estos dos reinos se consideraban como opuestos. Aristóteles defendía la teoría geocéntrica para desarrollar sus postulados. Fue probablemente Eratóstenes quien diseñara la esfera armilar que es un astrolabio para mostrar el movimiento aparente de las estrellas alrededor de la tierra.

Stonehenge, 2800 a. C.: se supone que esta construcción megalítica se realizó sobre conocimientos astronómicos muy precisos. Un menhir que supera los 6 m de altura indica, a quien mira desde el centro, la dirección exacta de la salida del Sol en el solsticio de verano. Algunos investigadores opinan que ciertas cavidades pudieron haber servido para colocar postes de madera capaces de indicar puntos de referencia en el recorrido de la Luna.

Aristóteles inauguró toda una nueva perspectiva de la visión cósmica, formalizando el modelo astronómico, contra el astrológico.

La astronomía observacional estuvo casi totalmente estancada en Europa durante la Edad Media, a excepción de algunas aportaciones como la de Alfonso X el Sabio con sus tablas alfonsíes, o los tratados de Alcabitius, pero floreció en el mundo con el Imperio persa y la cultura árabe. Al final del siglo X, un gran observatorio fue construido cerca de Teherán (Irán), por el astrónomo persa Al-Khujandi, quien observó una serie de pasos meridianos del Sol, lo que le permitió calcular la oblicuidad de la eclíptica. También en Persia, Omar Khayyam elaboró la reforma del calendario que es más preciso que el calendario juliano acercándose al Calendario Gregoriano. A finales del siglo IX, el astrónomo persa Al-Farghani escribió ampliamente acerca del movimiento de los Esfera armilar. cuerpos celestes. Su trabajo fue traducido al latín en el siglo XII. Abraham Zacuto fue el responsable en el siglo XV de adaptar las teorías astronómicas conocidas hasta el momento para aplicarlas a la navegación de la marina portuguesa. Ésta aplicación permitió a Portugal ser la puntera en el mundo de los descubrimientos de nuevas tierras fuera de Europa.

Astronomía

225

Revolución científica
Durante siglos, la visión geocéntrica de que el Sol y otros planetas giraban alrededor de la Tierra no se cuestionó. Esta visión era lo que para nuestros sentidos se observaba. En el Renacimiento, Nicolás Copérnico propuso el modelo heliocéntrico del Sistema Solar. Su trabajo De Revolutionibus Orbium Coelestium fue defendido, divulgado y corregido por Galileo Galilei y Johannes Kepler, autor de Harmonices Mundi, en el cual se desarrolla por primera vez la tercera ley del movimiento planetario. Galileo añadió la novedad del uso del telescopio para mejorar sus observaciones. La disponibilidad de datos Vista parcial de un monumento dedicado a Copérnico en Varsovia. observacionales precisos llevó a indagar en teorías que explicasen el comportamiento observado (véase su obra Sidereus Nuncius). Al principio sólo se obtuvieron reglas ad-hoc, cómo las leyes del movimiento planetario de Kepler, descubiertas a principios del siglo XVII. Fue Isaac Newton quien extendió hacia los cuerpos celestes las teorías de la gravedad terrestre y conformando la Ley de la gravitación universal, inventando así la mecánica celeste, con lo que explicó el movimiento de los planetas y consiguiendo unir el vacío entre las leyes de Kepler y la dinámica de Galileo. Esto también supuso la primera unificación de la astronomía y la física (véase Astrofísica). Tras la publicación de los Principios Matemáticos de Isaac Newton (que también desarrolló el telescopio reflector), se transformó la navegación marítima. A partir de 1670 aproximadamente, utilizando instrumentos modernos de latitud y los mejores relojes disponibles se ubicó cada lugar de la Tierra en un planisferio o mapa, calculando para ello su latitud y su longitud. La determinación de la latitud fue fácil pero la determinación de la longitud fue mucho más delicada. Los requerimientos de la navegación supusieron un empuje para el desarrollo progresivo de observaciones astronómicas e instrumentos más precisos, constituyendo una base de datos creciente para los científicos. A finales del siglo XIX se descubrió que, al descomponer la luz del Sol, se podían observar multitud de líneas de espectro (regiones en las que había poca o ninguna luz). Experimentos con gases calientes mostraron que las mismas líneas podían ser observadas en el espectro de los gases, líneas específicas correspondientes a diferentes elementos químicos. De esta manera se demostró que los elementos químicos en el Sol (mayoritariamente hidrógeno) podían encontrarse igualmente en la Tierra. De hecho, el helio fue descubierto primero en el espectro del Sol y sólo más tarde se encontró en la Tierra, de ahí su

Ilustración de la teoría del "Big Bang" o primera gran explosión y de la evolución esquemática del universo desde entonces.

nombre.

Astronomía Se descubrió que las estrellas eran objetos muy lejanos y con el espectroscopio se demostró que eran similares al Sol, pero con una amplia gama de temperaturas, masas y tamaños. La existencia de la Vía Láctea como un grupo separado de estrellas no se demostró sino hasta el siglo XX, junto con la existencia de galaxias externas y, poco después, la expansión del universo, observada en el efecto del corrimiento al rojo. La astronomía moderna también ha descubierto una variedad de objetos exóticos como los quásares, púlsares, radiogalaxias, agujeros negros, estrellas de neutrones, y ha utilizado estas observaciones para desarrollar teorías físicas que describen estos objetos. La cosmología hizo grandes avances durante el siglo XX, con el modelo del Big Bang fuertemente apoyado por la evidencia proporcionada por la astronomía y la física, como la radiación de fondo de microondas, la Ley de Hubble y la abundancia cosmológica de los elementos químicos. Durante el siglo XX, la espectrometría avanzó, en particular como resultado del nacimiento de la física cuántica, necesaria para comprender las observaciones astronómicas y experimentales.

226

Astronomía Observacional
Estudio de la orientación por las estrellas
Para ubicarse en el cielo, se agruparon las estrellas que se ven desde la Tierra en constelaciones. Así, continuamente se desarrollan mapas (cilíndricos o cenitales) con su propia nomenclatura astronómica para localizar las estrellas conocidas y agregar los últimos descubrimientos.
La Osa Mayor es una constelación tradicionalmente utilizada como punto de referencia celeste para la orientación tanto marítima como terrestre.

Aparte de orientarse en la Tierra a través de las estrellas, la astronomía estudia el movimiento de los objetos en la esfera celeste, para ello se utilizan diversos sistemas de coordenadas astronómicas. Estos toman como referencia parejas de círculos máximos distintos midiendo así determinados ángulos respecto a estos planos fundamentales. Estos sistemas son principalmente: • Sistema altacimutal, u horizontal que toma como referencias el horizonte celeste y el meridiano del lugar. • Sistemas horario y ecuatorial, que tienen de referencia el ecuador celeste, pero el primer sistema adopta como segundo círculo de referencia el meridiano del lugar mientras que el segundo se refiere al círculo horario (círculo que pasa por los polos celestes).

Representación virtual en 3D de la situación de las galaxias de nuestro grupo local en el espacio.

• Sistema eclíptico, que se utiliza normalmente para describir el movimiento de los planetas y calcular los eclipses; los círculos de referencia son la eclíptica y el círculo de longitud que pasa

por los polos de la eclíptica y el punto γ. • Sistema galáctico, se utiliza en estadística estelar para describir movimientos y posiciones de cuerpos galácticos. Los círculos principales son la intersección del plano ecuatorial galáctico con la esfera celeste y el círculo máximo que pasa por los polos de la Vía Láctea y el ápice del Sol (punto de la esfera celeste donde se dirige el movimiento solar). La astronomía de posición es la rama más antigua de esta ciencia. Describe el movimiento de los astros, planetas, satélites y fenómenos como los eclipses y tránsitos de los planetas por el disco del Sol. Para estudiar el movimiento de los planetas se introduce el movimiento medio diario que es lo que avanzaría en la órbita cada día suponiendo movimiento uniforme. La astronomía de posición también estudia el movimiento diurno y el movimiento anual del

Astronomía Sol. Son tareas fundamentales de la misma la determinación de la hora y para la navegación el cálculo de las coordenadas geográficas. Para la determinación del tiempo se usa el tiempo de efemérides ó también el tiempo solar medio que está relacionado con el tiempo local. El tiempo local en Greenwich se conoce como Tiempo Universal. La distancia a la que están los astros de la Tierra en el de universo se mide en unidades astronómicas, años luz o pársecs. Conociendo el movimiento propio de las estrellas, es decir lo que se mueve cada siglo sobre la bóveda celeste se puede predecir la situación aproximada de las estrellas en el futuro y calcular su ubicación en el pasado viendo como evolucionan con el tiempo la forma de las constelaciones.

227

Con un pequeño telescopio pueden realizarse grandes observaciones. El campo amateur es amplio y cuenta con muchos seguidores.

Instrumentos de observación
Para observar la bóveda celeste y las constelaciones más conocidas no hará falta ningún instrumento, para observar cometas o algunas nebulosas sólo serán necesarios unos prismáticos, los grandes planetas se ven a simple vista; pero para observar detalles de los discos de los planetas del sistema solar o sus satélites mayores bastará con un telescopio simple. Si se quiere observar con profundidad y exactitud determinadas características de los astros, se requieren instrumentos que necesitan de la precisión y tecnología de los últimos avances científicos. Astronomía visible El telescopio fue el primer instrumento de observación del cielo. Aunque su invención se le atribuye a Hans Lippershey, el primero en utilizar este invento para la astronomía fue Galileo Galilei quien decidió construirse él mismo uno. Desde aquel momento, los avances en este instrumento han sido muy grandes como mejores lentes y sistemas avanzados de posicionamiento.
Galileo Galilei observó gracias a su telescopio cuatro lunas del planeta Júpiter, un gran descubrimiento que chocaba diametralmente con los postulados tradicionalistas de la Iglesia Católica de la época.

Actualmente, el telescopio más grande del mundo se llama Very Large Telescope y se encuentra en el observatorio Paranal, al norte de Chile. Consiste en cuatro telescopios ópticos reflectores que se conjugan para realizar observaciones de gran resolución.

Astronomía Astronomía del espectro electromagnético o radioastronomía Se han aplicado diversos conocimientos de la física, las matemáticas y de la química a la astronomía. Estos avances han permitido observar las estrellas con muy diversos métodos. La información es recibida principalmente de la detección y el análisis de la radiación electromagnética (luz, infrarrojos, ondas de radio), pero también se puede obtener información de los rayos cósmicos, neutrinos y meteoros. Estos datos ofrecen información muy importante sobre los astros, su composición química, temperatura, velocidad en el espacio, movimiento propio, distancia desde la Tierra y pueden plantear hipótesis sobre su formación, desarrollo estelar y fin. El análisis desde la Tierra de las radiaciones (infrarrojos, rayos x, rayos gamma, etc.) no sólo resulta obstaculizado por la absorción atmosférica, sino que el problema principal, vigente también en el vacío, consiste en distinguir la señal recogida del "ruido de fondo", es decir, de la enorme emisión infrarroja producida por la Tierra o por los El Very Large Array. Como muchos otros telescopios, éste es propios instrumentos. Cualquier objeto que no se halle a un array interferométrico formado por muchos radiotelescopios 0 K (-273,15 °C) emite señales electromagnéticas y, por más pequeños. ello, todo lo que rodea a los instrumentos produce radiaciones de "fondo". Hasta los propios telescopios irradian señales. Realizar una termografía de un cuerpo celeste sin medir el calor al que se halla sometido el instrumento resulta muy difícil: además de utilizar película fotográfica especial, los instrumentos son sometidos a una refrigeración continua con helio o hidrógeno líquido. La radioastronomía se basa en la observación por medio de los radiotelescopios, unos instrumentos con forma de antena que recogen y registran las ondas de radio o radiación electromagnética emitidas por los distintos objetos celestes. Estas ondas de radio, al ser procesadas ofrecen un espectro analizable del objeto que las emite. La radioastronomía ha permitido un importante incremento del conocimiento astronómico, particularmente con el descubrimiento de muchas clases de nuevos objetos, incluyendo los púlsares (o magnétares), quásares, las denominadas galaxias activas, radiogalaxias y blázares. Esto es debido a que la radiación electromagnética permite "ver" cosas que no son posibles de detectar en las astronomía óptica. Tales objetos representan algunos de los procesos físicos más extremos y energéticos en el universo. Este método de observación está en constante desarrollo ya que queda mucho por avanzar en esta tecnología.

228

Astronomía

229

Astronomía de infrarrojos Gran parte de la radiación astronómica procedente del espacio (la situada entre 1 y 1000μm) es absorbida en la atmósfera. Por esta razón, los mayores telescopios de radiación infrarroja se construyen en la cima de montañas muy elevadas, se instalan en aeroplanos especiales de cota elevada, en globos, o mejor aún, en satélites de la órbita terrestre.

Diferencia entre la luz visible e infrarroja en la Galaxia del Sombrero ó Messier 104.

Astronomía ultravioleta La astronomía ultravioleta basa su actividad en la detección y estudio de la radiación ultravioleta que emiten los cuerpos celestes. Este campo de estudio cubre todos los campos de la astronomía. Las observaciones realizadas mediante este método son muy precisas y han realizado avances significativos en cuanto al descubrimiento de la composición de la materia interestelar e intergaláctica, el de la periferia de las estrellas, la evolución en las interacciones de los sistemas de estrellas dobles y las propiedades físicas de los quásares y de otros sistemas estelares activos. En las Imagen que ofrece una observación ultravioleta de los observaciones realizadas con el satélite artificial Explorador anillos de Saturno. Esta reveladora imagen fue Internacional Ultravioleta, los estudiosos descubrieron que la Vía obtenida por la sonda Cassini-Huygens. Láctea está envuelta por un aura de gas con elevada temperatura. Este aparato midió asimismo el espectro ultravioleta de una supernova que nació en la Gran Nube de Magallanes en 1987. Este espectro fue usado por primera vez para observar a la estrella precursora de una supernova.

Astronomía

230

Astronomía de rayos X La emisión de rayos x se cree que procede de fuentes que contienen materia a elevadísimas temperaturas, en general en objetos cuyos átomos o electrones tienen una gran energía. El descubrimiento de la primera fuente de rayos x procedente del espacio en 1962 se convirtió en una sorpresa. Esa fuente denominada Scorpio X-1 está situada en la constelación de Escorpio en dirección al centro de la Vía Láctea. Por este descubrimiento Riccardo Giacconi obtuvo el Premio Nobel de Física en 2002.

La Galaxia elíptica M87 emite señales electromagnéticas en todos los espectros conocidos.

Astronomía de rayos gamma Los rayos gamma son radiaciones emitidas por objetos celestes que se encuentran en un proceso energético extremadamente violento. Algunos astros despiden brotes de rayos gamma o también llamados BRGs. Se trata de los fenómenos físicos más luminosos del universo produciendo una gran cantidad de energía en haces breves de rayos que pueden durar desde unos segundos hasta unas pocas horas. La explicación de estos fenómenos es aún objeto de controversia. Los fenómenos emisores de rayos gamma son frecuentemente explosiones de supernovas, su estudio también intenta clarificar el origen de la primera explosión del universo o big bang.

El observatorio espacial Swift está específicamente diseñado para percibir señales gamma del universo y sirve de herramienta para intentar clarificar los fenómenos observados.

El Observatorio de Rayos Gamma Compton -ya inexistente- fue el segundo de los llamados grandes observatorios espaciales (detrás del telescopio espacial Hubble) y fue el primer observatorio a gran escala de estos fenómenos. Ha sido reemplazado recientemente por el satélite Fermi. El observatorio orbital INTEGRAL observa el cielo en el rango de los rayos gamma blandos o rayos X duros. A energías por encima de unas decenas de GeV, los rayos gamma sólo se pueden observar desde el suelo usando los llamados telescopios Cherenkov como MAGIC. A estas energías el universo también puede estudiarse usando partículas distintas a los fotones, tales como los rayos cósmicos o los neutrinos. Es el campo conocido como Física de Astropartículas.

Astronomía

231

Astronomía Teórica
Los astrónomos teóricos utilizan una gran variedad de herramientas como modelos matemáticos analíticos y simulaciones numéricas por computadora. Cada uno tiene sus ventajas. Los modelos matemáticos analíticos de un proceso por lo general, son mejores porque llegan al corazón del problema y explican mejor lo que está sucediendo. Los modelos numéricos, pueden revelar la existencia de fenómenos y efectos que de otra manera no se verían.[1][2] Los teóricos de la astronomía ponen su esfuerzo en crear modelos teóricos e imaginar las consecuencias observacionales de estos modelos. Esto ayuda a los observadores a buscar datos que puedan refutar un modelo o permitan elegir entre varios modelos alternativos o incluso contradictorios. Los teóricos, también intentan generar o modificar modelos para conseguir nuevos datos. En el caso de una inconsistencia, la tendencia general es tratar de hacer modificaciones mínimas al modelo para que se corresponda con los datos. En algunos casos, una gran cantidad de datos inconsistentes a través del tiempo puede llevar al abandono total de un modelo. Los temas estudiados por astrónomos teóricos incluyen: dinámica estelar y evolución estelar; formación de galaxias; origen de los rayos cósmicos; relatividad general y cosmología física, incluyendo teoría de cuerdas.

La mecánica celeste
La astromecánica o mecánica celeste tiene por objeto interpretar los movimientos de la astronomía de posición, en el ámbito de la parte de la física conocida como mecánica, generalmente la newtoniana (Ley de la Gravitación Universal de Isaac Newton). Estudia el movimiento de los planetas alrededor del Sol, de sus satélites, el cálculo de las órbitas de cometas y asteroides. El estudio del movimiento de la Luna alrededor de la Tierra fue por su complejidad muy importante para el desarrollo de la ciencia. El movimiento extraño de Urano, causado por las perturbaciones de un planeta hasta entonces desconocido, permitió a Le Verrier y Adams descubrir sobre el papel al planeta Neptuno. El descubrimiento de una pequeña desviación en el avance del perihelio de Mercurio se atribuyó inicialmente a un planeta cercano al Sol hasta que Einstein la explicó con su Teoría de la Relatividad.

Astrofísica
La astrofísica es una parte moderna de la astronomía que estudia los astros como cuerpos de la física estudiando su composición, estructura y evolución. Sólo fue posible su inicio en el siglo XIX cuando gracias a los espectros se pudo averiguar la composición física de las estrellas. Las ramas de la física implicadas en el estudio son la física nuclear (generación de la energía en el interior de las estrellas) y la física relativística. A densidades elevadas el plasma se transforma en materia degenerada; esto lleva a algunas de sus partículas a adquirir altas velocidades que deberán estar limitadas por la velocidad de la luz, lo cual afectará a sus condiciones de degeneración. Asimismo, en las cercanías de los objetos muy masivos, estrellas de neutrones o agujeros negros, la materia que cae se acelera a velocidades relativistas emitiendo radiación intensa y formando potentes chorros de materia.

Astronomía

232

Estudio de los objetos celestes
El sistema solar desde la astronomía
Véase también: Anexo:Cronología del descubrimiento de los planetas del Sistema Solar y sus satélites naturales

El estudio del Universo o Cosmos y más concretamente del Sistema Solar ha planteado una serie de interrogantes y cuestiones, por ejemplo cómo y cuándo se formó el sistema, por qué y cuándo desaparecerá el Sol, por qué hay diferencias físicas entre los planetas, etc. Es difícil precisar el origen del Sistema Solar. Los científicos creen que puede situarse hace unos 4.600 millones de años, cuando una inmensa nube de gas y polvo empezó a contraerse Posición figurada de los planetas y el sol en el sistema solar, separados por planetas probablemente, debido a la explosión interiores y exteriores. de una supernova cercana. Alcanzada una densidad mínima ya se autocontrajo a causa de la fuerza de la gravedad y comenzó a girar a gran velocidad, por conservación de su momento cinético, al igual que cuando una patinadora repliega los brazos sobre si misma gira más rápido. La mayor parte de la materia se acumuló en el centro. La presión era tan elevada que los átomos comenzaron a fusionarse, liberando energía y formando una estrella. También había muchas colisiones. Millones de objetos se acercaban y se unían o chocaban con violencia y se partían en trozos. Algunos cuerpos pequeños (planetesimales) iban aumentando su masa mediante colisiones y al crecer, aumentaban su gravedad y recogían más materiales con el paso del tiempo (acreción). Los encuentros constructivos predominaron y, en sólo 100 millones de años, adquirió un aspecto semejante al actual. Después cada cuerpo continuó su propia evolución. Astronomía del Sol El Sol es la estrella que, por el efecto gravitacional de su masa, domina el sistema planetario que incluye a la Tierra. Es el elemento más importante en nuestro sistema y el objeto más grande, que contiene aproximadamente el 98% de la masa total del sistema solar. Mediante la radiación de su energía electromagnética, aporta directa o indirectamente toda la energía que mantiene la vida en la Tierra. Saliendo del Sol, y esparciéndose por todo el Sistema solar en forma de espiral tenemos al conocido como viento solar que es un flujo de partículas, fundamentalmente protones y neutrones. La interacción de estas partículas con los polos magnéticos de los planetas y con la atmósfera genera las auroras polares boreales o australes. Todas estas partículas y radiaciones son absorbidas por la atmósfera. La ausencia de auroras durante el Mínimo de Maunder se achaca a la falta de actividad del Sol.

Astronomía

233 A causa de su proximidad a la Tierra y como es una estrella típica, el Sol es un recurso extraordinario para el estudio de los fenómenos estelares. No se ha estudiado ninguna otra estrella con tanto detalle. La estrella más cercana al Sol, Próxima Centauri, está a 4,2 años luz.

El Sol (todo el Sistema Solar) gira alrededor del centro de la Vía Láctea, nuestra galaxia. Da una vuelta cada 225 millones de años. Ahora se mueve hacia la constelación de Hércules a 19 km/s. Actualmente el Sol se Uno de los fenómenos más desconcertantes e impactantes que podemos observar estudia desde satélites, como el en nuestro planeta, son las auroras boreales. Fueron misterio hasta hace poco pero Observatorio Heliosférico y Solar (SOHO), recientemente han sido explicadas, gracias al estudio de la astronomía del Sol. dotados de instrumentos que permiten apreciar aspectos que, hasta ahora, no se habían podido estudiar. Además de la observación con telescopios convencionales, se utilizan: el coronógrafo, que analiza la corona solar, el telescopio ultravioleta extremo, capaz de detectar el campo magnético, y los radiotelescopios, que detectan diversos tipos de radiación que resultan imperceptibles para el ojo humano. El sol es una de las 200.000 millones a 400.000 millones de estrellas de nuestra galaxia. Es una enana amarilla corriente, que esta a 8,5 minutos-luz de la tierra y es de media edad. Con 1,4 millones de kilómetros de diámetro, contiene el 99,8 por ciento de la masa de nuestro sistema solar, la cual se consume a un ritmo de 5 millones de toneladas por segundo, produciendo 383.000 millones de megavatios de energía. Además el sol es similar a una bomba de hidrógeno por la colosal fusión nuclear de hidrógeno que mantiene en su núcleo y la gran cantidad de energía que emite cada segundo. El equilibrio que mantiene su tamaño es la contraposición entre su gravedad y la expulsión continua de energía. También es una estrella de tercera generación. El protio, el isótopo de hidrógeno más abundante de la naturaleza, con su núcleo solamente compuesto por un protón, es además el combustible que alimenta las fusiones nucleares en el corazón de las estrellas gracias a cuya ingente energía emitida las estrellas brillan incluyendo a nuestro sol. La parte visible del Sol está a 6.000 °C y la corona, más alejada, a 2.000.000 °C. Estudiando al Sol en el ultravioleta se llegó a la conclusión de que el calentamiento de la corona se debe a la gran actividad magnética del Sol. Los límites del Sistema Solar vienen dados por el fin de su influencia o heliosfera, delimitada por un área denominada Frente de choque de terminación o Heliopausa. Historia de la observación del Sol El estudio del Sol se inicia con Galileo Galilei de quien se dice que se quedó ciego por observar los eclipses. Hace más de cien años se descubre la espectroscopia que permite descomponer la luz en sus longitudes de onda, gracias a esto se puede conocer la composición química, densidad, temperatura, situación los gases de su superficie, etc. En los años 50 ya se conocía la física básica del Sol, es decir, su composición gaseosa, la temperatura elevada de la corona, la importancia de los campos magnéticos en la actividad solar y su ciclo magnético de 22 años.

Astronomía

234

Las primeras mediciones de la radiación solar se hicieron desde globos hace un siglo y después fueron aviones y dirigibles para mejorar las mediciones con aparatos radioastronómicos. En 1914, C. Abbot envió un globo para medir la constante solar (cantidad de radiación proveniente del sol por centímetro cuadrado por segundo). En 1946 el cohete V-2 militar ascendió a 55 km con un espectrógrafo solar a bordo; este fotografió al sol en longitudes de onda ultravioletas. En 1948 (diez años antes de la fundación de la NASA) ya se fotografió al Sol en rayos X. Algunos cohetes fotografiaron ráfagas solares en 1956 en un pico de actividad solar.

Imagen que ofrece una fotografía del sol en rayos x.

En 1960 se lanza la primera sonda solar denominada Solrad. Esta sonda monitoreó al sol en rayos x y ultravioletas, en una longitud de onda muy interesante que muestra las emisiones de hidrógeno; este rango de longitud de onda se conoce como línea Lyman α. Posteriormente se lanzaron ocho observatorios solares denominados OSO. El OSO 1 fue lanzado en 1962. Los OSO apuntaron constantemente hacia el Sol durante 17 años y con ellos se experimentaron nuevas técnicas de transmisión fotográfica a la tierra. El mayor observatorio solar ha sido el Skylab. Estuvo en órbita durante nueve meses en 1973 y principios de 1974. Observó al Sol en rayos g, X, ultravioleta y visible, y obtuvo la mayor cantidad de datos (y los mejor organizados) que hayamos logrado jamás para un objeto celeste. En 1974 y 1976 las sondas Helios A y B se acercaron mucho al Sol para medir las condiciones del viento solar. No llevaron cámaras. En 1980 se lanzó la sonda Solar Max, para estudiar al Sol en un pico de actividad. Tuvo una avería y los astronautas del Columbia realizaron una complicada reparación.

Imagen en la que pueden apreciarse las manchas solares.

Manchas solares George Ellery Hale descubrió en 1908 que las manchas solares (áreas más frías de la fotosfera) presentan campos magnéticos fuertes. Estas manchas solares se suelen dar en parejas, con las dos manchas con campos magnéticos que señalan sentidos opuestos. El ciclo de las manchas solares, en el que la cantidad de manchas solares varía de menos a más y vuelve a disminuir al cabo de unos 11 años, se conoce desde principios del siglo XVIII. Sin embargo, el complejo modelo magnético asociado con el ciclo solar sólo se comprobó tras el descubrimiento del campo magnético del Sol.

Astronomía El fin del Sol: ¿el fin de la vida humana? En el núcleo del Sol hay hidrógeno suficiente para durar otros 4.500 millones de años, es decir, se calcula que está en plenitud, en la mitad de su vida. Tal como se desprende de la observación de otros astros parecidos, cuando se gaste este hidrógeno combustible, el Sol cambiará: según se vayan expandiendo las capas exteriores hasta el tamaño actual de la órbita de la Tierra, el Sol se convertirá en una gigante roja, algo más fría que hoy pero 10 000 veces más brillante a causa de su enorme tamaño. Sin embargo, la Tierra no se consumirá porque se moverá en espiral hacia afuera, como consecuencia de la pérdida de masa del Sol. El Sol seguirá siendo una gigante roja, con reacciones nucleares de combustión de helio en el centro, durante sólo 500 millones de años. No tiene suficiente masa para atravesar sucesivos ciclos de combustión nuclear o un cataclismo en forma de explosión, como les ocurre a algunas estrellas. Después de la etapa de gigante roja, se encogerá hasta ser una enana blanca, aproximadamente del tamaño de la Tierra, y se enfriará poco a poco durante varios millones de años. Astronomía de los planetas, satélites y otros objetos del sistema solar Una de las cosas más fáciles de observar desde la Tierra y con un telescopio simple son los objetos de nuestro propio Sistema Solar y sus fenómenos, que están muy cerca en comparación de estrellas y galaxias. De ahí que el aficionado siempre tenga a estos objetos en sus preferencias de observación. Los eclipses y los tránsitos astronómicos han ayudado a medir las dimensiones del sistema solar. Dependiendo de la distancia de un planeta al Sol, tomando la Tierra como observatorio de base, los planetas se dividen en dos grandes grupos: planetas interiores y planetas exteriores. Entre estos planetas encontramos que cada uno presenta condiciones singulares: la curiosa geología de Mercurio, los movimientos retrógrados de algunos como Venus, la vida en la Tierra, la curiosa red de antiguos ríos de Astronomía lunar: el cráter mayor es el Dédalo, fotografiado por la Marte, el gran tamaño y los vientos de la atmósfera de tripulación del Apollo 11 mientras orbitaba la Luna en 1969. Júpiter, los anillos de Saturno, el eje de rotación Ubicado cerca del centro de la cara oculta de la luna, tiene un diámetro de alrededor de 93 kilómetros. inclinado de Urano o la extraña atmósfera de Neptuno, etc. Algunos de estos planetas cuentan con satélites que también tienen singularidades; de entre estos, el más estudiado ha sido la Luna, el único satélite de la Tierra, dada su cercanía y simplicidad de observación, conformándose una historia de la observación lunar. En la Luna hallamos claramente el llamado bombardeo intenso tardío, que fue común a casi todos los planetas y satélites, creando en algunos de ellos abruptas superficies salpicadas de impactos. Los llamados planetas terrestres presentan similitudes con la Tierra, aumentando su habitabilidad planetaria, es decir, su potencial posibilidad habitable para los seres vivos. Así se delimita la ecósfera, un área del sistema solar que es propicia para la vida.

235

Astronomía

236

Más lejos de Neptuno encontramos otros planetoides como por ejemplo el hasta hace poco considerado planeta Plutón, la morfología y naturaleza de este planeta menor llevó a los astrónomos a cambiarlo de categoría en la llamada redefinición de planeta de 2006 aunque posea un satélite compañero, Caronte. Estos planetas enanos, por su tamaño no pueden ser considerados planetas como tales, pero presentan similitudes con éstos, siendo más grandes que los asteroides. Algunos son: Eris, Sedna o 1998 WW31, este último singularmente binario y de los denominados cubewanos. A todo este compendio de planetoides se les denomina coloquialmente objetos o planetas transneptunianos. También existen hipótesis sobre un planeta X que vendría a explicar algunas incógnitas, como la ley de Titius-Bode o la concentración de objetos celestes en el acantilado de Kuiper. Entre los planetas Marte y Júpiter encontramos una concentración inusual de asteroides conformando una órbita alrededor del sol denominada cinturón de asteroides. En órbitas dispares y heteromorfas se encuentran los Vista que presentó el cometa McNaught a su paso próximo a la cometas, que subliman su materia al contacto con el Tierra en enero de 2007. viento solar, formando colas de apariencia luminosa; se estudiaron en sus efímeros pasos por las cercanías de la Tierra los cometas McNaught o el Halley. Mención especial tienen los cometas Shoemaker-Levy 9 que terminó estrellándose contra Júpiter o el 109P/Swift-Tuttle, cuyos restos provocan las lluvias de estrellas conocidas como Perseidas o lágrimas de San Lorenzo. Estos cuerpos celestes se concentran en lugares como el cinturón de Kuiper, el denominado disco disperso o la nube de Oort y se les llama en general cuerpos menores del Sistema Solar. En el Sistema Solar también existe una amplísima red de partículas, meteoroides de diverso tamaño y naturaleza, y polvo que en mayor o menor medida se hallan sometidos al influjo del efecto Poynting-Robertson que los hace derivar irremediablemente hacia el Sol. Astronomía de los fenómenos gravitatorios El campo gravitatorio del Sol es el responsable de que los planetas giren en torno a este. El influjo de los campos gravitatorios de las estrellas dentro de una galaxia se denomina marea galáctica. Tal como demostró Einstein en su obra Relatividad general, la gravedad deforma la geometría del espacio-tiempo, es decir, la masa gravitacional de los cuerpos celestes deforma el espacio, que se curva. Este efecto provoca distorsiones en las observaciones del cielo por efecto de los campos gravitatorios, haciendo que se observen juntas galaxias que están muy lejos unas de otras. Esto es debido a que existe materia que no podemos ver que altera la gravedad. A estas masas se las denominó materia oscura. Encontrar materia oscura no es fácil ya que no brilla ni refleja la luz, así que los astrónomos se apoyan en la gravedad, que puede curvar la luz de estrellas distantes cuando hay suficiente masa presente, muy parecido a cómo una lente distorsiona una imagen tras ella, de ahí el término lente gravitacional o anillo de Einstein. Gracias a las leyes de la física, conocer cuánta luz se curva dice a los astrónomos cuánta masa hay. Cartografiando las huellas de

Astronomía la gravedad, se pueden crear imágenes de cómo está distribuida la materia oscura en un determinado lugar del espacio. A veces se presentan anomalías gravitatorias que impiden realizar estos estudios con exactitud, como las ondas gravitacionales provocadas por objetos masivos muy acelerados. Los agujeros negros son singularidades de alta concentración de masa que curva el espacio, cuando éstas acumulaciones masivas son producidas por estrellas le les denomina agujero negro estelar; esta curva espacial es tan pronunciada que todo lo que se acerca a su perímetro es absorbido por este, incluso la luz (de ahí el nombre). El agujero negro Q0906+6930 es uno de los más masivos de los observados. Varios modelos teóricos, como por ejemplo el agujero negro de Schwarzschild, aportan soluciones a los planteamientos de Einstein. Astronomía cercana y lejana La astronomía cercana abarca la exploración de nuestra galaxia, por tanto comprende también la exploración del Sistema Solar. No obstante, el estudio de las estrellas determina si éstas pertenecen o no a nuestra galaxia. El estudio de su clasificación estelar determinará, entre otras variables, si el objeto celeste estudiado es "cercano" o "lejano". Tal como hemos visto hasta ahora, en el Sistema Solar encontramos diversos objetos (v. El Sistema Solar desde la astronomía) y nuestro sistema solar forma parte de una galaxia que es la Vía Láctea. Nuestra galaxia se compone de miles de millones de objetos celestes que giran en espiral desde un centro muy denso donde se mezclan varios tipos de estrellas, otros sistemas solares, nubes interestelares o nebulosas, etc. y encontramos objetos como IK Pegasi, Tau Ceti o Gliese 581 que son soles cada uno con determinadas propiedades diferentes. La estrella más cercana a nuestro sistema solar es Próxima Centauri que se encuentra a 4,2 años luz. Esto significa que la luz procedente de dicha estrella tarda 4,2 años en llegar a ser percibida en La Tierra desde que es emitida.

237

Un caso particular lo hallamos en Andrómeda que dado su grandísimo tamaño y luminiscencia es posible apreciarla luminosa a simple vista. Llega a nosotros con una asombrosa nitidez a pesar de la enorme distancia que nos separa de ella: dos millones y medio de años luz; es decir, si sucede cualquier cosa en dicha galaxia, tardaremos dos millones y medio de años en percibirlo, o dicho de otro modo, lo que vemos ahora de ella es lo que sucedió hace dos millones quinientos mil años.

Estos soles o estrellas forman parte de numerosas constelaciones que son formadas por estrellas fijas aunque la diferencia de sus velocidades de deriva dentro de nuestra galaxia les haga variar sus posiciones levemente a lo largo del tiempo, por ejemplo la Estrella Polar. Estas estrellas fijas pueden ser o no de nuestra galaxia. La astronomía lejana comprende el estudio de los objetos visibles fuera de nuestra galaxia, donde encontramos otras galaxias que contienen, como la nuestra, miles de millones de estrellas a su vez. Las galaxias pueden no ser visibles dependiendo de si su centro de gravedad absorbe la materia (v. agujero negro), son demasiado pequeñas o simplemente son galaxias oscuras cuya materia no tiene luminosidad. Las galaxias a su vez derivan alejándose unas de otras cada vez más, lo que apoya la hipótesis de que nuestro universo actualmente se expande. Las galaxias más cercanas a la nuestra (aproximadamente 30) son denominadas el grupo local. Entre estas galaxias se encuentran algunas muy grandes como Andrómeda, nuestra Vía Láctea y la Galaxia del Triángulo. Cada galaxia tiene propiedades diferentes, predomino de diferentes elementos químicos y formas (espirales, elípticas, irregulares, anulares, lenticulares, en forma de remolino, o incluso con forma espiral barrada entre otras

Astronomía más sofisticadas como cigarros, girasoles, sombreros, etc.). Cosmología La cosmología en rasgos generales estudia la historia del universo desde su nacimiento. Hay numerosos campos de estudio de esta rama de la astronomía. Varias investigaciones conforman la cosmología actual, con sus postulados, hipótesis e incógnitas. La cosmología física comprende el estudio del origen, la evolución y el destino del Universo utilizando los modelos terrenos de la física. La cosmología física se desarrolló como ciencia durante la primera mitad del siglo XX como consecuencia de diversos acontecimientos y descubrimientos encadenados durante dicho período. • Principio cosmológico • Constante cosmológica Formación y evolución de las estrellas • • • • • Corrimiento al rojo Fuerzas fundamentales Aceleración de la expansión del Universo Inestabilidad de Jeans Interacción nuclear fuerte

238

Astronáutica
• Asistencia gravitatoria Expediciones espaciales • Pioneer 10 y Anomalía de las Pioneer
Astronomía estelar, Evolución estelar: La nebulosa de hormiga (Mz3). La expulsión de gas de una estrella moribunda en el centro muestra patrones simétricos diferentes de los patrones caóticos esperados de una explosión ordinaria.

Hipótesis destacadas
• • • • • • • • • • Aceleración de la expansión del Universo Hipótesis Némesis Colonización de Mercurio Teoría del Big Bang y la Nucleosíntesis primordial Teoría del Estado Estacionario Expansión cósmica en escala Ambiplasma Inflación cósmica Forma del Universo Destino último del Universo

Apéndices
Apéndice I - Astrónomos relevantes en la Historia
A lo largo de la historia de toda la humanidad ha habido diferentes puntos de vista con respecto a la forma, conformación, comportamiento y movimiento de la tierra, hasta llegar al punto en el que vivimos hoy en día. Actualmente hay una serie de teorías que han sido comprobadas científicamente y por lo tanto fueron aceptadas por los científicos de todo el mundo. Pero para llegar hasta este punto, tuvo que pasar mucho tiempo, durante el cual coexistieron varias teorías diferentes, unas más aceptadas que otras. A continuación se mencionan algunas de las

Astronomía aportaciones más sobresalientes realizadas a la Astronomía.
Tales de Mileto Siglo VII a. C. Aproximadamente Concibió la redondez de la tierra. Teorizó que la Tierra era una esfera cubierta por una superficie redonda que giraba alrededor de esta (así explicaba la noche) y que tenía algunos agujeros por los cuales se observaba, aun en la oscuridad nocturna, un poco de la luz exterior a la tierra; la que él llamo "fuego eterno". Sostuvieron que el planeta era esférico y que se movía en el espacio. Tenían evidencia de nueve movimientos circulares; los de las estrellas fijas, los de los 5 planetas, los de la Tierra, la Luna y el Sol. Dedujo que la Tierra era redonda basándose en la sombra de esta sobre la Luna durante un eclipse lunar. Concibió a la Tierra inmóvil y como centro del Universo. Sostenía que la Tierra era inmóvil y, además era el centro del Universo.

239

Discípulos de Pitágoras Siglo V a. C. Aproximadamente Platón del 427 a. C. al 347 a. C. Aristóteles del 384 a. C. - 322 a. C. Aristarco de Samos del 310 a. C. al 230 a. C. Eratóstenes del 276 a. C. al 194 a. C. Hiparco de Nicea Año 150 a. C. Posidonio de Apamea del 135 a. C. al 31 a. C. Claudio Ptolomeo Año 140. Nicolás Copérnico (1477 - 1543). Galileo Galilei (1564 - 1642).

Sostenía que la Tierra giraba, que se movía y no era el centro del Universo, proponiendo así el primer modelo heliocéntrico. Además determinó la distancia Tierra-Luna y la distancia Tierra-Sol. Su contribución fue el cálculo de la circunferencia terrestre.

Observó y calculó que la Tierra era esférica y estaba fija. El Sol, la Luna y los planetas giraban alrededor de su propio punto. Observó que las mareas se relacionaban con las fases de la Luna.

Elaboró una enciclopedia astronómica llamada Almagesto.

Consideró al sol en el centro de todas las órbitas planetarias.

Con su telescopio observó que Júpiter tenía cuatro lunas que lo circundaban. Observó las fases de Venus y montañas en la Luna. Apoyó la teoría de Copérnico.

Johannes Kepler (1571 - 1630).

Demostró que los planetas no siguen una órbita circular sino elíptica respecto del Sol en un foco del elipse derivando de esto en su primera ley. La segunda ley de Kepler en la cual afirma que los planetas se mueven más rápidamente cuando se acercan al Sol que cuando están en los extremos de las órbitas. En la tercera ley de Kepler establece que los cuadrados de los tiempos que tardan los planetas en recorrer su órbita son proporcionales al cubo de su distancia media al Sol.

Isaac Newton (1642 - 1727).

Estableció la ley de la Gravitación Universal: “Las fuerzas que mantienen a los planetas en sus órbitas deben ser recíprocas a los cuadrados de
sus distancias a los centros respecto a los cuáles gira”.

Estableció el estudio de la gravedad de los cuerpos. Probó que el Sol con su séquito de planetas viaja hacia la constelación del Cisne. Albert Einstein (1879 - 1955). Desarrolló su Teoría de la Relatividad.

Astronomía Ampliaciones Entre otros: • • • • • • • • • • • Henrietta Swan Leavitt Hipatia Gerard Kuiper Edwin Hubble • Milton Humason Harlow Shapley Alexander Friedmann Vesto Slipher Georges Édouard Lemaître Herman Bondi, Thomas Gold y Fred Hoyle George Gamow Vera Rubin

240

Apéndice II - Ramas de la astronomía
Debido a la amplitud de su objeto de estudio la Astronomía se divide en diferentes ramas. Aquellas ramas no están completamente separadas. La astronomía se encuentra dividida en cuatro grandes ramas: • Astronomía de posición. Tiene por objeto situar en la esfera celeste la posición de los astros midiendo determinados ángulos respecto a unos planos fundamentales, utilizando para ello diferentes sistemas de coordenadas astronómicas. Es la rama más antigua de esta ciencia. Describe el movimiento de los astros, planetas, satélites y fenómenos como los eclipses y tránsitos de los planetas por el disco del Sol. También estudia el movimiento diurno y el movimiento anual del Sol y las estrellas. Incluye la descripción de cada uno de los planetas, asteroides y satélites del Sistema Solar. Son tareas fundamentales de la misma la determinación de la hora y la determinación para la navegación de las coordenadas geográficas. • Mecánica celeste. Tiene por objeto interpretar los movimientos de la astronomía de posición, en el ámbito de la parte de la física conocida como mecánica, generalmente la newtoniana (Ley de la Gravitación Universal de Isaac Newton). Estudia el movimiento de los planetas alrededor del Sol, de sus satélites, el cálculo de las órbitas de cometas y asteroides. El estudio del movimiento de la Luna alrededor de la Tierra fue por su complejidad muy Astronomía planetaria o Ciencias planetarias: un fenómeno similar a importante para el desarrollo de la ciencia. El un tornado en Marte. Fotografiado por el Mars Global Surveyor, la movimiento extraño de Urano, causado por las línea larga y oscura está formada por un vórtice de la atmósfera marciana. El fenómeno toca la superficie (mancha negra) y asciende perturbaciones de un planeta hasta entonces por la orilla del cráter. Las vetas a la derecha son dunas de arena del desconocido, permitió a Le Verrier y Adams fondo del cráter. descubrir sobre el papel al planeta Neptuno. El descubrimiento de una pequeña desviación en el avance del perihelio de Mercurio se atribuyó inicialmente a un planeta cercano al Sol hasta que Einstein la explicó con su Teoría de la Relatividad. • Astrofísica. Es una parte moderna de la astronomía que estudia los astros como cuerpos de la física estudiando su composición, estructura y evolución. Sólo fue posible su inicio en el siglo XIX cuando gracias a los espectros se pudo averiguar la composición física de las estrellas. Las ramas de la física implicadas en el estudio son la física nuclear (generación de la energía en el interior de las estrellas) y la física de la relatividad. A densidades elevadas

Astronomía el plasma se transforma en materia degenerada; esto lleva a algunas de sus partículas a adquirir altas velocidades que deberán estar limitadas por la velocidad de la luz, lo cual afectará a sus condiciones de degeneración. Asimismo, en las cercanías de los objetos muy masivos, estrellas de neutrones o agujeros negros, la materia que cae se acelera a velocidades relativistas emitiendo radiación intensa y formando potentes chorros de materia. • Cosmología. Es la rama de la astronomía que estudia los orígenes, estructura, evolución y nacimiento del universo en su conjunto.

241

Apéndice III - Campos de estudio de la astronomía
Campos de estudio principales • Astrometría. Estudio de la posición de los objetos en el cielo y su cambio de posición. Define el sistema de coordenadas utilizado y la cinemática de los objetos en nuestra galaxia. • Astrofísica. Estudio de la física del universo, incluyendo las propiedades de objetos astronómicos (luminosidad, densidad, temperatura, composición química). • Cosmología. Estudio del origen del universo y su evolución. El estudio de la cosmología es la máxima expresión de la astrofísica teórica. • Formación y evolución de las galaxias. Estudio de la formación de galaxias y su evolución. • Astronomía galáctica. Estudio de la estructura y componentes de nuestra galaxia y de otras. • Astronomía extragaláctica. Estudio de objetos fuera de la Vía Láctea. • Astronomía estelar. Estudio de las estrellas, su nacimiento, evolución y muerte. • Evolución estelar. Estudio de la evolución de las estrellas desde su formación hasta su muerte como un despojo estelar.
Astronomía extragaláctica: lente gravitacional. Esta imagen muestra varios objetos azules con forma de anillo, los cuales son imágenes múltiples de la misma galaxia, duplicados por el efecto de lente gravitacional del grupo de galaxias amarillas en el centro de la fotografía. La lente es producida por el campo gravitacional del grupo que curva la luz aumentando y distorsionando la imagen de objetos más distantes.

• Formación estelar. Estudio de las condiciones y procesos que llevan a la formación de estrellas en el interior de nubes de gas. • Ciencias planetarias. Estudio de los planetas del Sistema Solar y de los planetas extrasolares. • Astrobiología. Estudio de la aparición y evolución de sistemas biológicos en el universo.

Astronomía Otros campos de estudio • • • • Arqueoastronomía Astroquímica Astrodinámica Astronáutica

242

Campos de la astronomía por la parte del espectro utilizado Atendiendo a la longitud de onda de la radiación electromagnética con la que se observa el cuerpo celeste la astronomía se divide en: • Astronomía óptica, cuando la observación utiliza exclusivamente la luz en las longitudes de onda que pueden ser detectadas por el ojo humano, o muy cerca de ellas (alrededor de 400-800 nm). Es la rama más antigua. • Radioastronomía. Para la observación utiliza radiación con longitudes de onda de mm a cm, similar a la usada en radiodifusión. La astronomía óptica y de radio puede realizarse usando observatorios terrestres porque la atmósfera es transparente en esas longitudes de onda. • Astronomía infrarroja. Utiliza detectores de luz infrarroja (longitudes de onda más largas que la correspondiente al rojo). La luz infrarroja es fácilmente absorbida por el vapor de agua, así que los observatorios de infrarrojos deben establecerse en lugares altos y secos. • Astronomía de alta energía. Incluye la astronomía de rayos X, astronomía de rayos gamma y astronomía ultravioleta, así como el estudio de los neutrinos y los rayos cósmicos. Las observaciones se pueden hacer únicamente desde globos aerostáticos u observatorios espaciales.

Apéndice V - Investigaciones activas y futuras
Investigadores relevantes • NASA • ESA • Sociedad Planetaria

Apéndice VI - Líneas de tiempo en astronomía
• • • • • • • Astronomía del sistema solar Astronomía estelar Cosmología Mapas y catálogos astronómicos Satélites artificiales y sondas espaciales Satélites naturales Tecnología de observación astronómica

Astronomía

243

Referencias
[1] H. Roth, A Slowly Contracting or Expanding Fluid Sphere and its Stability, Phys. Rev. (39, p;525–529, 1932) [2] A.S. Eddington, Internal Constitution of the Stars

Bibliografía
Por orden alfabético del título de las obras: • Astronomía, José Luis Comellas. Editorial Rialp (1983). • Claroscuro del Universo, Mariano Moles Villamate. CSIC (2007). (http://libros.csic.es/product_info. php?products_id=105) • Cosmos, Carl Sagan. Editorial Planeta (1980). • Curso de Astronomía general, Bakulin, Kononóvich y Moroz. Editorial MIR (1987). • De Saturno a Plutón, Isaac Asimov. Alianza Editorial (1984). • El cometa Halley, José Luis Comellas y Manuel Cruz. Aula Abierta Salvat, Salvat Editores (1985). • El mundo de los planetas, Wulff Heintz. Ediciones Iberoamericanas (1968). • El nuevo Sistema Solar, varios autores. Libros de "Investigación y Ciencia". Editorial Prensa Científica (1982). • Guía de las Estrellas y los Planetas, Patrick Moore. Ediciones Folio (1982). • Historia del Telescopio, Isaac Asimov. Alianza Editorial (1986). • • • • • • Introducción a la Astrofotografía, José García García. Equipo Sirius. La exploración de Marte, José Luis Sérsic. Editorial Labor (1976). Objetivo Universo, Alejandro Feinstein, Horacio Tignanelli. Ediciones Colihue (1996). Planetas del Sistema Solar, Mijail Márov. Editorial MIR (1985). Sol, lunas y planetas. Erhard Keppler. (Ed. Salvat Editores, Biblioteca Científica Salvat, 1986). Un viaje al Cosmos en 52 semanas, Antxón Alberdi y Silbia López de Lacalle. CSIC (2007). (http://libros.csic. es/product_info.php?cPath=77&products_id=103)

Enlaces externos
• • • • Wikimedia Commons alberga contenido multimedia sobre Astronomía. Commons Wikcionario tiene definiciones para astronomía.Wikcionario Wikinoticias tiene noticias relacionadas con Astronomía.Wikinoticias Wikiquote alberga frases célebres de o sobre Astronomía. Wikiquote

nso:Thutanaledi

Fuentes y contribuyentes del artículo

244

Fuentes y contribuyentes del artículo
Física  Fuente: http://es.wikipedia.org/w/index.php?oldid=52977078  Contribuyentes: 3coma14, 4lex, AFLastra, ARN, Abece, Agremon, Agualin, Airunp, Aitorzubiaurre, Alberto Salguero, Aleator, Alefisico, AlexXx, Alexan, Amgc56, Anthonyes, Antón Francho, Arquen, Asiderisas, Açipni-Lovrij, Baiji, Balderai, Banfield, Barcex, Bcoto, Belascoaran mx, Bernard, Beto29, Bluemask, Boninho, BuenaGente, Carlatf, Carolingio93, Celia Guadalupe, Chicolinux, Chris K, Comae, Comakut, Cookie, Corderodedios, Corrector1, Cristianrock2, DamianK, Dangelin5, Darksboc, Davius, Diegusjaimes, Diogeneselcinico42, Dionisio, Dodo, Dorieo, Durero, EPEDANO, EdRamos, Eduardosalg, Edub, Egas, Ejmeza, Eligna, Emiduronte, Equi, Er Komandante, Erick Emanuel, Error de inicio de sesión, FAR, FeRmO, Fegarzond, FelBalart, Felipe5420456, FilemonGonzales, Flores,Alberto, Fonsi80, Foundling, Franco68, FrancoGG, Gabriel Vidal, Gaijin, GermanX, Gerwoman, Gizmo II, Globalphilosophy, Glueball, Gmagno, Götz, HHH, Halfdrag, Hispa, Homo logos, Huhsunqu, Humberto, Ianuslorenzo, Iceman 5, Icvav, Iluntasun, Inocoweb, JASONIBARRA, Javitorvic, Jcaraballo, Jerome92, Jkbw, Johanna alexandra, Jomra, Jorge 2701, Jorge c2010, JorgeGG, Julie, Jurock, Kadellar, Kismalac, Kved, Latiniensis, Laura Fiorucci, Leandrod, Lema, Leo rain, Leonpolanco, Loco085, Locutus, Lolovx, Luis Fer Gonzalez, MI GENERAL ZAPATA, Mac, MadriCR, Mafores, Magister Mathematicae, Mahadeva, Makete, Maldoror, ManuelGR, Manuelt15, Manwë, Marcelo2891, MarcoAurelio, Mariano mario06, Matdrodes, Mathmartin, Matiasleoni, Maveric149, Mel 23, Mierdra, Miguel-murcia, Moriel, Mpeinadopa, Muro de Aguas, Murphy era un optimista, Netito777, Nicop, Nikoo13, NoahKarin, Oderfla, OlazxD, Olivares86, Originalpulsar, Oxartum, PACO, Pablo323, Paintman, Petruss, PhJ, Phirosiberia, Piolinfax, Pitufox27, Pleira, PoLuX124, Ppfk, Racsocruz1, Ragarzond, Renly, Rigenea, Roberrpm, Rodriguez olvera stephanie anahi, Roman.astaroth, Rovnet, SAVE THE World, Sabbut, Sanbec, Savh, Sebrev, Semproneta, Sergio Andres Segovia, SergioN, Shooke, Srbanana, Tano4595, Technopat, Tecna99, Thorongil, Tirithel, Tomatejc, Tostadora, Tuncket, Turco feo, Unaiaia, Valyag, Varano, Vitamine, Vuestra vieja, Wricardoh, Xabier, Xenoforme, Yabama, Ynitram, Yrithinnd, Yufradt, Zeitus, Zupez zeta, conversion script, Álvaro Morales, Ángel Luis Alfaro, 472 ediciones anónimas Movimiento (física)  Fuente: http://es.wikipedia.org/w/index.php?oldid=52743170  Contribuyentes: Acratta, Airunp, AlEEjANDRAAH, Aleestra, Algarabia, Andre Engels, Andreasmperu, Andreateletrabajo, Angel GN, Aqui c, Arturo Reina, Axxgreazz, Banfield, BlackBeast, Cgb, Cookie, Daniel bellorin, Davius, Diegusjaimes, Digigalos, Dodo, Draxtreme, Eduardosalg, Flextron, Fsd141, Gengiskanhg, Götz, HUB, Huhsunqu, Ihazevich, Isha, Ivanovick solano, JMPerez, Jafeluv, JakobVoss, Jkbw, Jorge c2010, Joseaperez, Latiniensis, Lauranrg, Leonpolanco, MadriCR, Maldoror, ManuelMore, Matdrodes, Muro de Aguas, Mutari, Nachosan, Netito777, Oblongo, Oswaldo00, Pabloes, PeiT, PhJ, PoLuX124, Poco a poco, Roberrpm, SABASA1012, SAVE THE World, Savh, Seanver, Sparedcoast, Superzerocool, Taichi, Tamorlan, Tano4595, Technopat, Tirithel, Tomatejc, Tostadora, WEITER, Wesisnay, Xuankar, Ángel Luis Alfaro, 296 ediciones anónimas Electromagnetismo  Fuente: http://es.wikipedia.org/w/index.php?oldid=52807013  Contribuyentes: .José, 4lex, AdriánnnIII, Airunp, Aleator, Alefisico, Alvaro qc, Angel GN, Antón Francho, Arcibel, B1mbo, Berfito, Bernard, Beto29, Camilo, Carmin, Charlitos, Cinabrium, Csoliverez, Cucaracha, David0811, Davius, Dem, Dermot, DoN vErDuGo, Dodo, Dudu678, Dzegarra, Emilioar 2000, Epiovesan, Equi, Escarapela, Ezequiel3E, FAR, Feliciano, Fmariluis, FrancoGG, GermanX, Gonis, Hardland, Hispa, Ignacioerrico, Isha, Isumaeru, JMCC1, Jamrb, Jarke, Jekter, Jfayads, Jjafjjaf, Joseaperez, Jsanchezes, Kismalac, LP, Lang, Laura Fiorucci, Lucien leGrey, LuisArmandoRasteletti, Makete, Maldoror, Manolo456, Manuelt15, Manwë, Matdrodes, Maveric149, McMalamute, Mgjuandejesus, Millars, Moriel, Mysticblood, Netito777, Ninrouter, Nixón, Noilegrus, OMenda, Orgullomoore, PACO, Pablerin, Pabloallo, Pan con queso, Phirosiberia, Pilaf, Pleira, PoLuX124, Poco a poco, Porao, Pyr0, Ralphloren171, Rjgalindo, RoyFocker, Rumpelstiltskin, Sabbut, Snakeeater, Suetonio2, Suisui, Tano4595, Taty2007, Template namespace initialisation script, Tirithel, Tostadora, Vic Fede, Vitamine, Wricardoh, Zupez zeta, conversion script, host-64-110-138-151.interpacket.net, 260 ediciones anónimas Electricidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=52444775  Contribuyentes: 3coma14, 80-25-127-91.uc.nombres.ttd.es, Airunp, Aitorzubiaurre, Aladiah, Alberto00p000c, Aleposta, Alexan, Alexandra vargas montes, Alhen, Andreasmperu, Angel wiki, Antón Francho, Arcibel, Astaffolani, Açipni-Lovrij, Baiji, Barbol, Belgrano, Berfito, Beto29, Boja, Bricolador, Camilo, Carmen monica, Chewie, Cmontero, Cobalttempest, CommonsDelinker, Csoliverez, Danesda, Danielba894, Deleatur, Diegusjaimes, Dnu72, Dodo, Dorieo, Draxtreme, Dvelasquez, Edmenb, Eduardosalg, El bart089, Eli22, Eligna, Elisardojm, Elkingkapo, Elliniká, Emiduronte, Emo22, Er Komandante, Euratom, Fcrespo, Feliciano, Felipealvarez, Ferbr1, Flores,Alberto, Foundling, Gaius iulius caesar, Ganon, Gnovaro, Greek, Gusgus, HUB, Hamiltha, Hejacava007, Helena 44, Hispalois, Humberto, Icvav, Ignacio Icke, Ing.fabian.lopez, Isaac newton, Isha, Itnas19, J.delanoy, JEDIKNIGHT1970, JMCC1, JMPerez, Javichan, Javierito92, Javyries, Jcaraballo, Jefrcast, Jjvaca, Jkbw, Jmazu, Jomra, Jorge c2010, JorgeGG, Jorgelrm, Ketamino, Kismalac, Kved, LMLM, Laura Fiorucci, Leonpolanco, Linkedark, Lironcareto, Lnieves, Loco085, Loqu, Lourdes Cardenal, Lucariomon, Lucien leGrey, Luis Eduardo Ysabel, Mac, MadriCR, Magister Mathematicae, Mahadeva, Manuel cristian, ManuelGR, Manuelt15, MarcoAurelio, Martin H., Matdrodes, Matiasasb, Maveric149, Maxklein, Mcalarconraddatz, Metrónomo, Miguelbueno, Mjuarez, Mono92, Moriel, Mortadelo2005, Mpeinadopa, Muerte001, Muro de Aguas, Nethac DIU, Netito777, Nioger, Nixón, Nudecline, Ornitododo, Ortisa, Osiris fancy, PACO, Paintman, Pan con queso, Pedro Nonualco, Petruss, Pirenne, Platonides, PoLuX124, Poco a poco, Porao, Rafa606, Rastrojo, Ricardogpn, Roberpl, Rojasyesid, Romanovich, RoyFocker, Sanbec, Sauron, Savh, Ser hop, Speedplus, Superzerocool, Susleriel, Taichi, Tano4595, Technopat, Tirithel, Tomatejc, Tortillovsky, Tostadora, Trioptio, Txo, Ubaldodige, Varano, Vic Fede, Vitamine, Wdwd, Wikiléptico, Wikipedico wikipedico, William1509, Willtron, XABIEL16, Xosema, Yeza, YoNkYVb, Yrithinnd, Zamduy, Zoe0, conversion script, du-148-221-200-114.prodigy.net.mx, Ángel Luis Alfaro, 463 ediciones anónimas Magnetismo  Fuente: http://es.wikipedia.org/w/index.php?oldid=52909621  Contribuyentes: 4lex, Adriv145, Airwolf, Alefisico, Aleposta, Allforrous, Alma máter, Alvaro qc, Amanuense, Angel GN, Antur, Arturo ruiz figueroa, Açipni-Lovrij, Banfield, BlackBeast, CHV, Camilo, Chlewey, Cibercrank, Cobalttempest, CommonsDelinker, Cratón, Cristianbalderramaelmejor, David0811, Davius, Diegusjaimes, Dorieo, Dossier2, Durero, Edmenb, Eduardosalg, El Michy, Eligna, Elliniká, Emijrp, Emmanuel0036, Espesoji, Filipo, Foundling, Gaius iulius caesar, GermanX, HUB, Halfdrag, Humberto, Internete, Ivanovick solano, J.M.Domingo, J.d.f.p, J.delanoy, Jack kido, Jaimesal, Jarfil, Javierito92, Jin Rey Yagburt, Jkbw, Jordi de Caldes, JorgeGG, Jurock, Kalifame, Kirchhla, Kismalac, Kved, Laura Fiorucci, Leodan93, Leonpolanco, Lucien leGrey, Mafores, Magister Mathematicae, Makete, Marcosroza, Matdrodes, Matrix234, Mel 23, Montgomery, Mooth, Muro de Aguas, Neodimio, Netito777, Nioger, Nohemi11, Noiko jones, Oblongo, Oscar ., PACO, Pan con queso, PhJ, Phirosiberia, Pleira, PoLuX124, Poco a poco, Prometheus, Queninosta, Qwertyytrewqqwerty, R2D2!, Rastrojo, Rauensteiner, Raystorm, Roberto Fiadone, Rodriguma, Santiperez, Savh, Snakeyes, Technopat, Teles, Tesla07, Thingg, Tirithel, TrentLane, Ultranovatronic, Vic Fede, Vicovision, Vitamine, Wilfredor, XalD, Yekaterina, Yeza, ZrzlKing, 596 ediciones anónimas Electrónica  Fuente: http://es.wikipedia.org/w/index.php?oldid=52574843  Contribuyentes: -jem-, .Sergio, 194-VIGO-X10.libre.retevision.es, 333, Alcandorea, Alejandrosilvestri, Amanuense, Andreasmperu, Angel GN, Angus, Antur, Antón Francho, AqueronteBlog, Arrt-932, Arturomania, Açipni-Lovrij, Baiji, Belb, Beto29, BetoCG, Bhaal, Bobson, Brainup, Bucephala, C h a n-Wiki, C'est moi, Carfe200, CarlosArturoAcosta, Cdmarchionne, Cronos x, DISELEC, DJ Nietzsche, Daconta, Damianzona, David0811, Davidmhe, Diegusjaimes, Dionisio, EBRO30, Edmenb, Eduardoarturo00, Edub, Eligna, Elsenyor, Emiduronte, Ente X, Erhdavid, Felipeacydc, Fernando Estel, Fmariluis, FrancoGG, Gaius iulius caesar, Gengiskanhg, Guapoben, Gug, Gustronico, Gökhan, HUB, House, Humberto, Ignacio Icke, Irus, Isha, J.delanoy, JMoreno1051, Jajejijojuju, JaviMad, Javier Carro, Javierito92, Jcaraballo, Jhalvico, Jkbw, Jorge c2010, Jorgelrm, Josemontero9, Jsanchezes, Jugones55, Jurock, Klystrode, Kokoo, Komputisto, Kved, Lancaster, Leonardo, Leonpolanco, Lordblacksuca, Lukitas, Luqquino, MadriCR, Magister Mathematicae, Maldoror, Marvelshine, Matdrodes, Mathiasmiranda, Matiasasb, Mauricioperezperez, Moriel, Murphy era un optimista, Máximo de Montemar, Netito777, Niqqo115, Nixón, Nomemires, O9IO8S, Oscar ., PACO, Paintman, Pan con queso, Pati, Perico ico, Pertile, Platonides, PoLuX124, Poco a poco, Pompilio Zigrino, Queninosta, Qwertyytrewqqwerty, Rastrojo, Raulshc, RedTony, Renly, Retama, Rodrigova, Rondador, Rosarinagazo, Rosarino, RoyFocker, Sanbec, Santiperez, Sauron, Savh, Shooke, Siina, Simpale, Snakefang, Snakeyes, Soulreaper, Srbanana, Super braulio, Tano4595, Technopat, Tierramar722, Tomatejc, Tortillovsky, Triku, Txo, Valjuan, Vitamine, Wilfredor, XalD, Xiiniita, Zamduy, conversion script, 590 ediciones anónimas Mecánica clásica  Fuente: http://es.wikipedia.org/w/index.php?oldid=52852194  Contribuyentes: AC87CB7C.ipt.aol.com, Agremon, Alberto Lopez Viñals, Aleator, Alefisico, Aletheia Lux, Arturo Reina, Biasoli, Casta2k, Comae, Crodrigue1, Davidsilva 97, Davius, DefLog, Desatonao, Desdeluego, Dodo, Egas, Eloy, FelipeTroy, Fmercury1980, Frutoseco, Fsd141, GermanX, Humbefa, JMCC1, Joseaperez, Manu 001, ManuelGR, Matdrodes, Maveric149, Moriel, Nicoguaro, Norbertok, Opinador, Ortisa, PhatomLord, Pino, Pleira, Ppja, Qubit, RITOMO1, Ripero, SMP, Saloca, Sauron, Srbanana, Tano4595, Tostadora, Wyan, conversion script, 69 ediciones anónimas Mecánica cuántica  Fuente: http://es.wikipedia.org/w/index.php?oldid=52947876  Contribuyentes: .José, 3coma14, 4lex, Agualin, Akma72, Alberto Lopez Viñals, Alberto5000, Alefisico, Alejandrosanchez, Alvaro qc, Amanuense, Andreasmperu, Andreateletrabajo, Angel GN, Antón Francho, Arctosouros, Artheliane, Asasia, AstroNomo, Baiji, Baranda, BetoCG, Camima, Carlos Miguel Alvarado, Catrachito, Cladin99, CleverChemist, Cobalttempest, Comae, Comakut, David0811, Davius, Diegusjaimes, Dodo, Dreitmen, Edgar waldir, Eduardosalg, Eduardosdo, Einsteinbohr, Eligna, Emijrp, Fformica61, Fradies, Gabriellocutor, Gacq, Gersan2008, Gerwoman, Googolplanck, Gsrdzl, Gusgus, Götz, HUB, Halfdrag, Hispa, Humbefa, Humberto, Héctor Guido Calvo, Ialad, Isha, Ivn, JMCC1, Javierito92, Jcaraballo, Jclerman, Jjafjjaf, Jkbw, Jordi bernal, Jorge c2010, JorgeGG, Joseaperez, Juan Mayordomo, Juancar24578, Kismalac, Kordas, Kovan, Kyucita, LFCN, Lasai, Laura Fiorucci, Lisandrogui, Lovesk, Luis Felipe Schenone, MEGAXD, MadriCR, Magister Mathematicae, Mahadeva, Maldoror, Manroit, Manuge, Marb, Mariano12 1989, Matdrodes, Mateorenecarmona, Maveric149, Mimomellamo, Mofously, Moleculax, Moraleh, Moriel, Mortadelo2005, Morza, Mrkoz, Muro de Aguas, Mxn, Neodop, Netito777, Nixón, Numbo3, OrH+, Pan con queso, PedroMCh, Peyrona, Piojoso-89, Pleira, PoLuX124, Pollo1902, Pompilio Zigrino, Punsett, Retama, Ricardogpn, Rimac, Rmcampero, Rosarino, RoyFocker, Rubpe19, Rαge, SaeedVilla, Sanbec, Savh, SergioN, Sincro, Soulreaper, Srbanana, Super braulio, Taichi, Tano4595, Tirithel, Tomatejc, Tostadora, Troyas, Unic, Vic26, Wikiléptico, Wricardoh, Xabier, Xavigarz, Xosema, Xuankar, Yefri, Yeza, Yoliminina, Zorosandro, Çom3ç4ç4, 423 ediciones anónimas Teoría cuántica de campos  Fuente: http://es.wikipedia.org/w/index.php?oldid=52967853  Contribuyentes: 4lex, Agremon, Agualin, Alexav8, Andreasmperu, Andreateletrabajo, AstroNomo, Baiji, Biasoli, Davius, DefLog, Diegusjaimes, Freemagister, Gabriellocutor, GermanX, Gustronico, Humbefa, JorgeGG, Juan Mayordomo, Kismalac, Laura Fiorucci, Magister Mathematicae, Marhaiden, Máximo de Montemar, Nixón, Oxartum, PoLuX124, Porao, Quijav, Sabbut, Snakeyes, Srbanana, Super braulio, Tzihue, Ugly, Urdangaray, Walterpfeifer, XanaG, Zufs, 47 ediciones anónimas Teoría de la relatividad  Fuente: http://es.wikipedia.org/w/index.php?oldid=52865857  Contribuyentes: .José, Alberto Salguero, AldanaN, Alefisico, Andreasmperu, Angel GN, Angus, Ansalto, Antoni Bosch editor, Antón Francho, Ascánder, AstroNomo, Açipni-Lovrij, BF14, Baiji, Banck, Banfield, Benjaminrg, BetelMayet, Bonnot, Bruno Tonello, BuenaGente, CLAMP96, Cheveri,

Fuentes y contribuyentes del artículo
Christopher Simpson, Cinabrium, Cipión, Cmkb, Cobalttempest, CommonsDelinker, Ctrl Z, DVdm, Dalton2, David0811, Davidmartindel, Davius, Diegusjaimes, Dimenson, Dodo, Drake 81, Dreitmen, Eamezaga, Eduardosalg, Ehurtado, Elvire, Emiduronte, Emijrp, Equi, Er Chupakabra, Fhaidel, Fmercury1980, Foundling, Fsd141, Gabriel Vidal Álvarez, Ganzua919, Gorospe, HUB, Halfdrag, Hawking, Humbefa, Humberto, Hurtaksk, Ialad, Isha, Ishu 2, Ivan.gz, JMCC1, Jarisleif, Jcaraballo, Jkbw, Jmlarraz, JohnRodriguez577, Jorge c2010, Jorghex, Ketamino, Kismalac, KnightRider, Kordas, LeCire, Leotronx, Lourdes Cardenal, Luis Cortés Barbado, Luisminho 76, Maldoror, Manuel Trujillo Berges, Manwë, MarcoAurelio, Marsal20, Matdrodes, Maveric149, Mel 23, Mfropelato, Miguel303xm, Moraleh, Moriel, Mutari, Naeyol negast, Netito777, Ninovolador, Numbo3, Oblongo, Oscar ., Paradise2, Paul 14, PedroMCh, PeiT, Petronas, Petruss, Phirosiberia, Pleira, PoLuX124, Poco a poco, Psychophanta, Queninosta, QuiRóH, Rafaelg64, Ravave, Rbo159, Relleu, Richy, Roche, Romero Schmidtke, S3o33be3l, Savh, Schekinov Alexey Victorovich, Sebasgs, Sebrev, Skider, Srbanana, Tano4595, Technopat, Telifon, Template namespace initialisation script, Tirithel, Titoxd, Tutuluz, Unknown, Varano, Vic Fede, Virgi, Vitamine, Wricardoh, Xhaju, Zevlag, Zuirdj, 451 ediciones anónimas Teoría de la relatividad especial  Fuente: http://es.wikipedia.org/w/index.php?oldid=52426135  Contribuyentes: .Sergio, 213-4-22-173.uc.nombres.ttd.es, 3coma14, 4lex, Abgenis, Airunp, Alefisico, Alhen, Allforrous, Anoe, AstroNomo, Astroalicante, Axxgreazz, Betomg88, BuenaGente, CASF, Canyq, Carlos Quesada, Cdaniel91, Cobalttempest, Comae, Crimassa, Davius, DefLog, Desatonao, Diegusjaimes, Dodo, Dorieo, Eduardosalg, Escoffie, FAR, Fisica en la vida, FrancoGG, Frmerced, Fsd141, Furado, GermanX, Gimlinu, God Emel, Guilloip, Gustronico, HUB, Hafernandez, Heylan, Ingold, Innuendoibrahim, Integral triple, Interwiki, Iulius1973, JMCC1, Jabernal, Jahnfi, Jclarkripton 1804, Jkbw, Johnbojaen, Jorge c2010, Joseaperez, Josecrevillente, Jurock, Ketamino, Kiroh, Kismalac, KnightRider, Kved, Leztilita1, Maldoror, Marsal20, Matdrodes, Maveric149, Mel 23, MelissaChanOwO, Melocoton, Mescalier, Michel r, Mirkovich, Montgomery, Moriel, Nihilo, Paintman, PasabaPorAqui, Petronas, Pinar, Platonides, Pleira, Porao, Praheotec, Pybalo, Queninosta, Rastrojo, Raystorm, Relampagos, Rjbox, Sanbec, Sauron, Savh, Shooke, Sigmanexus6, Simão Aiex, Tano4595, Taty2007, Thorongil, Torbellino, Vitamine, Wricardoh, Xavigarz, conversion script, Ángel Luis Alfaro, 287 ediciones anónimas Relatividad general  Fuente: http://es.wikipedia.org/w/index.php?oldid=52983217  Contribuyentes: .Sergio, Agak, Agremon, Airunp, Alefisico, Alejandrocaro35, Alhen, Andreasmperu, Antón Francho, Arnji, Arístides Herrera Cuntti, Ascánder, AstroNomo, Astroalicante, Athatriel, Augusto yakoby, Bedorlan, Brostoni, BuenaGente, Cinabrium, Comae, CommonsDelinker, Danielba894, Danielpineros, Dark, DasAuge, Davius, DefLog, Dianai, Diegusjaimes, Dodo, Dominican, Doreano, Dorieo, Drake 81, Durero, Elsenyor, Emijrp, Enriqueglez, Filipo, Fmercury1980, FrancoGG, Fsd141, GermanX, Ggenellina, Ginés90, Gustronico, Götz, Hafernandez, Hapussai, Harveybc, Ingenioso Hidalgo, Isha, Ivan.gz, JMCC1, Jahnfi, Jkbw, Jorge c2010, Joseaperez, Juan Marquez, Juansempere, Karl.lark, Kismalac, LeonardoRob0t, Leotero, Loqu, MaeseLeon, Magister Mathematicae, Mahadeva, Maldoror, Marcosroza, Marsal20, Matdrodes, Matiasleoni, Mel 23, Millars, Moraleh, Moriel, Netito777, Numbo3, Omega, Orbixal, Oscar ., Pabloallo, Pan con queso, Pati, Pedro Nonualco, Petronas, Pff, Phirosiberia, Poco a poco, Porao, Proximo.xv, Quesada, Razorblade, Rsg, Rémih, Sanbec, Simão Aiex, Smoken Flames, Srbanana, Tano4595, Technopat, Terencio, Thor8, Tostadora, Tuliopa, Vic Fede, Vitamine, Will vm, Wing-ezp, Wricardoh, Xavigarz, Xenoforme, Yameharte, Youandme, Zuirdj, Álvaro Morales, 375 ediciones anónimas Física estadística  Fuente: http://es.wikipedia.org/w/index.php?oldid=52891718  Contribuyentes: Af3, Agremon, Alefisico, BaronHarkonnen, Carlos.Gracia-Lázaro, Comae, Correogsk, Daniel De Leon Martinez, Davius, Donnacho, Dsuarez, Elwikipedista, Gabriel Vidal Álvarez, Gato ocioso, Héctor Guido Calvo, Ivn, Jorge c2010, Lauranrg, Lopezpablo 87, Maldoror, Marb, Moriel, Muro de Aguas, Nga, Ontureño, Pacachava, Petronas, Saloca, Sergioller, Tano4595, Tasamd, Yrithinnd, 34 ediciones anónimas Termodinámica  Fuente: http://es.wikipedia.org/w/index.php?oldid=52938388  Contribuyentes: .José, .Sergio, 207.42.183.xxx, 3coma14, 4lex, Adriansm, Af3, Alberto Salguero, Alefisico, Alexav8, Alhen, Allforrous, Alvaro qc, Amadís, Amanuense, Andreasmperu, Andres.ordonez, Angel GN, Angiolo, Antón Francho, Arona, AshlyFuller, AstroNomo, Atila rey, Augusto yakoby, Açipni-Lovrij, BF14, Bachtold, Banfield, Belb, Bernardogu ar, Beto29, BlackBeast, Burny, C'est moi, Caiser, Camilo, Campeador 690, Carlosgarcia956, Ceancata, Chayinator, Clementito, CleverChemist, Cobalttempest, Comae, Correogsk, Corroc, Cyberdelic, Dangelin5, Dannyd1351, Dark Bane, Dasmandr, Davius, Deleatur, Diegusjaimes, Dontworry, Drake 81, Draxtreme, Eclypse-gt, Edgardavid, Eduardosalg, Edumape, El insasiable negro, El oso negro, Elliniká, Elsebapizarro, Emiduronte, Equi, Espince, Estelamargentina12, FAL56, FAR, Fernando Estel, Fformica61, Fibonacci, Foundling, FrancoGG, Frutoseco, Gaeddal, Ganiserb, GermanX, Grillitus, Gusgus, Götz, HUB, Halfdrag, Hispa, Ialad, Ingolll, Integral triple, Interwiki, Isha, Ivanics, JMCC1, Jaimegc1227, Javierito92, Jcaraballo, Jkbw, Jmcastano, Joelcuervo, Jorge C.Al, JorgeGG, Jsportillo, Jx3m, Ketakopter, Kismalac, Kurasak, Kved, LP, Leiro & Law, Leonpolanco, Ljruizor, Lluvia, Locucho, Loqu, Lungo, MI GENERAL ZAPATA, Magister Mathematicae, Mahadeva, Maldoror, Maleiva, Manuelt15, Manwë, Mar del Sur, Marcos.moya, Marhaiden, Matdrodes, Maveric149, Mgsanchezs, Miaow Miaow, Miss Manzana, Mon VaMpL, Moriel, Muro de Aguas, Murphy era un optimista, Mushii, MythicalDragon, Nestor Makhno, Netito777, Nicadapa, Nicop, No sé qué nick poner, Noilegrus, OboeCrack, Octubre1987, Ortisa, Oscar ., Oscarp, Paintman, Patrickpedia, Petruss, PoLuX124, Poco a poco, Ppfk, Quezadav, Rafa606, Ralphloren171, Raulshc, Retama, Richy, Rjgalindo, Roberrpm, Rrmsjp, Rtewter25, RubiksMaster110, Ruy Pugliesi, Rαge, Sabbut, Sargentgarcia89, Savh, Seanmup, Seanver, Siquisai, Snakeyes, Srbanana, Stoker, Super braulio, Superzerocool, THergenhahn, Tano4595, Techgenius, Technopat, Tlaoakaiser, Tomatejc, Tortillovsky, Vivero, Wikiléptico, Wilfredor, conversion script, 695 ediciones anónimas Mecánica de medios continuos  Fuente: http://es.wikipedia.org/w/index.php?oldid=52045576  Contribuyentes: Biaiaa, Bucephala, Davius, Dodo, Fsd141, Jarisleif, Lauranrg, Leonpolanco, Nicoguaro, Tano4595, Vitamine, 16 ediciones anónimas Mecánica del sólido rígido  Fuente: http://es.wikipedia.org/w/index.php?oldid=51740744  Contribuyentes: 3coma14, 4e to 4e, Agualin, Algarabia, Asasia, Baiji, ChongDae, Davius, Digigalos, Edgarhh, Erbrumar, GermanX, Jkbw, LPFR, Lauranrg, Lluvia, Matdrodes, Meruelo, NACLE, Serrano23, Tano4595, UAwiki, Wecamaje, 27 ediciones anónimas Mecánica de sólidos deformables  Fuente: http://es.wikipedia.org/w/index.php?oldid=49618056  Contribuyentes: Daniel De Leon Martinez, Davius, Docfredderick, Jkbw, Lauranrg, Nakor, Pedro71, Ppja, Tano4595, 13 ediciones anónimas Elasticidad (mecánica de sólidos)  Fuente: http://es.wikipedia.org/w/index.php?oldid=52524697  Contribuyentes: Algarabia, Alhen, Andreasmperu, Banfield, Bcoto, BlackBeast, Cam367, Camilo, Davius, Diegusjaimes, Dorieo, Durero, Edmenb, Francisco Quiumento, Furlong, Gonzalo88, Gsrdzl, HiTe, Humberto, Ialad, Ignacio Icke, J.delanoy, Josemonsalve2, Kippel, Kved, Maldoror, Manueldiazmdq, Manuelt15, Manwë, Mig, Murtagh(Espina), Netito777, Nixón, Njumi, Petruss, Pieter, PoLuX124, Santiagomarquezd, Sermed, Smoken Flames, Taichi, Tano4595, Walnut2008, Yeza, 95 ediciones anónimas Plasticidad (mecánica de sólidos)  Fuente: http://es.wikipedia.org/w/index.php?oldid=52630271  Contribuyentes: 3coma14, Alfredobi, Coren, Davius, Diegusjaimes, F.A.A, Farisori, HUB, Humbefa, Leonpolanco, MarcoAurelio, Matdrodes, PePeEfe, VanKleinen, 44 ediciones anónimas Mecánica de fluidos  Fuente: http://es.wikipedia.org/w/index.php?oldid=50704857  Contribuyentes: .Sergio, Af3, Allforrous, Andres Rojas, Antón Francho, Arjonais, Baiji, Bicholoco, Correogsk, Crodrigue1, Dark Bane, Davius, Diegusjaimes, Ejmeza, Eloy, Equi, Fededoc, Fsd141, Ggenellina, Gustrefox, HighwaytoHell, Iceman 5, Interwiki, Jasón, Javi pk, Jstitch, Lampsako, Matdrodes, Moriel, Muro de Aguas, NACLE, NaSz, Nixón, Ortellado, Pan con queso, Plober, Quezadav, Rana rana, Raulshc, Rtewter25, Sauron, Stifax, Tano4595, Technopat, Thingg, Tirithel, Troodon, Vitamine, 114 ediciones anónimas Astrofísica  Fuente: http://es.wikipedia.org/w/index.php?oldid=52878227  Contribuyentes: 142857, Adbz8, Aguerrap, Alefisico, Allforrous, Amanuense, Angel GN, Antapaj, Antur, Antón Francho, Açipni-Lovrij, Chris pinto, Dan1294xx, Diegusjaimes, Dodo, Dpeinador, Eduardosalg, Emijrp, Espilas, Fran89, GermanX, Gerwoman, Greek, Hardcoded, Itztli, J.delanoy, JMCC1, Jcastillon, Jjafjjaf, Jkbw, Matdrodes, Mistwalker7, Moriel, Novellón, Prietoquilmes, Rafernan, Sigmanexus6, Sms, Sniper7, Tatvs, Wiki637, Wricardoh, Xenoforme, 85 ediciones anónimas Astronomía  Fuente: http://es.wikipedia.org/w/index.php?oldid=52738636  Contribuyentes: -Javier-, 142857, 3coma14, 3signmain, AFLastra, Accrama, Adl805, Aeveraal, Airunp, Al final eran 5 los 3 chiflados, Alberto5000, Albireo3000, Aleator, Allforrous, Andreasmperu, Angel GN, Antur, Antón Francho, Armando-Martin, Arroway, Ascánder, Asdert43, Astrobiologo, Aurelianofg, Authenticmaya, Açipni-Lovrij, Baiji, Balderai, Banfield, Barcex, Barsoom, Belb, BlackBeast, Camilo, Cantero, Carlosblh, Carrigue94, Celtist, Cieloscuro, Cinabrium, Cocu, Comu nacho, Cookie, Cratón, Crisneda2000, Culebrin, Curly de los 3 chiflados, DJ Nietzsche, Deleatur, Denniss, Diegusjaimes, Dove, Dxman, Echando una mano, Edgargc 95, Edmenb, Eduardosalg, Efepe, Ejmeza, El astronomo, ElPora, Eleuc, Elliniká, Elnombreyaestausado, Eloy, Elsenyor, Emijrp, Ensada, Eqinox, Errebe, Espacioprofundo, Especiales, Estef80, Eufrosine, Ezarate73, Ferjo1987, Fillbit, Foundling, Fremen, Frigotoni, Fuser23, Gaius iulius caesar, Galandil, Gengiskanhg, Gons, Gordillo566, Guille, HUB, Halfdrag, Hno3, Hortografia, Humbefa, Instituto INKAL, Irojasp, Isha, Isidora S. H., Ismas, JEDIKNIGHT1970, Jae58, Jahnc, JaviMad, Javier Carro, Jcastillon, Jcortina, Jjvaca, Jkbw, Jmvgpartner, Jorge c2010, Jorge1945, Jorgelu321, Jstitch, Jurock, K-PO2.0, Kanon6996, Karshan, Kender00, Kordas, LFCN, LP, Larry de los 3 chiflados, Latiniensis, Laura Fiorucci, Le K-li, Lexinerus, Liazahaya, Loco085, Lucien leGrey, Luis enrique peralta perez, Lycaon83, MI GENERAL ZAPATA, MILEPRI, Mac, Magister Mathematicae, Maldoror, Mamen012, Marcosmza1962, Martinwilke1980, Matdrodes, Maveric149, Mel 23, Mervin97, Metrónomo, Miguel Barberá, Miguelio, Mikelb, Moe de los 3 chiflados, Montgomery, Morza, Mrodmza1962, Mundokeko, Muro de Aguas, Mushii, Navelegante, Nayromi, Nicop, Nixón, NiñoDelPireo, Nopetro, NudoMarinero, OboeCrack, P.o.l.o., Pabloallo, Paintman, Palcianeda, Patricio.lorente, PePeEfe, Pepejuancho, Pereza.c, Petronas, Petruss, Pinar, Platonides, PoLuX124, Poco a poco, Ppfk, Prietoquilmes, Prometheus, Pyr0, RDD, Rferrero, Robertec, Roberto Fiadone, Robin Hood, Rondador, RubiksMaster110, Ryuuga, Rαge, SPQRes, SaeedVilla, Sanbec, Sarandongah, Savh, Scandar, Sebtor, Shooke, Sigmanexus6, Sigmaoctantis, Simeón el Loco, Sonriesierestu, Soy el dueño de wikpedua, Stormnight, Supernova13, Superzerocool, Taichi, Tano4595, Taty2007, Technopat, Tico, Tirithel, Tomatejc, Topsecretuniverse, Torpado, Turismoastronomico, VanKleinen, Varano, Veon, WarGamerz, White Master King, Wikielwikingo, Worldcitizen, Wricardoh, Xabier, Xandi, Xavigarz, Xgarciaf, Xoao 12, Yerman alex, Yeza, Yiyielpatron, conversion script, 534 ediciones anónimas

245

Fuentes de imagen, Licencias y contribuyentes

246

Fuentes de imagen, Licencias y contribuyentes
Archivo:Newtons cradle animation smooth.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Newtons_cradle_animation_smooth.gif  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: DemonDeLuxe (Dominique Toussaint) Archivo:Niels Bohr Albert Einstein by Ehrenfest.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Niels_Bohr_Albert_Einstein_by_Ehrenfest.jpg  Licencia: Public Domain  Contribuyentes: Paul Ehrenfest Original uploader was Graf at de.wikipedia Archivo:Gyroscope operation.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Gyroscope_operation.gif  Licencia: Public Domain  Contribuyentes: Bensin, Juiced lemon, Kieff, Roomba, Santosga, SharkD, Wst, 9 ediciones anónimas Archivo:Magnetosphere rendition.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Magnetosphere_rendition.jpg  Licencia: Public Domain  Contribuyentes: w:NASANASA Archivo:Electromagnetic spectrum (es).gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Electromagnetic_spectrum_(es).gif  Licencia: Public Domain  Contribuyentes: André Oliva Archivo:Cassini-science-br.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Cassini-science-br.jpg  Licencia: Public Domain  Contribuyentes: Pieter Kuiper, Steff Archivo:Convection.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Convection.gif  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: User:Oni Lukos Archivo:2D Wavefunction (2,2) Surface Plot.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:2D_Wavefunction_(2,2)_Surface_Plot.png  Licencia: Public Domain  Contribuyentes: Inductiveload Archivo:3D Wavefunction (2,2,2).gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:3D_Wavefunction_(2,2,2).gif  Licencia: Public Domain  Contribuyentes: Inductiveload Archivo:Apfel partikel.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Apfel_partikel.jpg  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: Nina Hernitschek Archivo:Supraleitung.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Supraleitung.jpg  Licencia: Public Domain  Contribuyentes: Kropotkine 113, Saperaud, 1 ediciones anónimas Archivo:Diamond animation.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Diamond_animation.gif  Licencia: Public Domain  Contribuyentes: User:Brian0918 Archivo:Alphadecay.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Alphadecay.jpg  Licencia: Creative Commons Attribution 2.5  Contribuyentes: Belfer00, Burkhard HF, Church of emacs, D-Kuru, Inductiveload, Joey-das-WBF, Karelj, Pieter Kuiper, 2 ediciones anónimas Archivo:Supermassiveblackhole nasajpl.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Supermassiveblackhole_nasajpl.jpg  Licencia: Public Domain  Contribuyentes: Esrever, WilyD Archivo:Fmrtuebersicht.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Fmrtuebersicht.jpg  Licencia: Public Domain  Contribuyentes: Original uploader was M.R.W.HH at de.wikipedia Archivo:Wikiversity-logo-Snorky.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiversity-logo-Snorky.svg  Licencia: desconocido  Contribuyentes: Archivo:Commons-logo.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg  Licencia: logo  Contribuyentes: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. Archivo:Wikibooks-logo.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikibooks-logo.svg  Licencia: logo  Contribuyentes: User:Bastique, User:Ramac et al. Archivo:Wikinews-logo.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikinews-logo.svg  Licencia: logo  Contribuyentes: Vectorized by Simon 01:05, 2 August 2006 (UTC) Updated by Time3000 17 April 2007 to use official Wikinews colours and appear correctly on dark backgrounds. Originally uploaded by Simon. Archivo:Spanish Wikiquote.SVG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Spanish_Wikiquote.SVG  Licencia: logo  Contribuyentes: James.mcd.nz Archivo:Wiktionary-logo-es.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wiktionary-logo-es.png  Licencia: logo  Contribuyentes: es:Usuario:Pybalo Archivo:Leaving Yongsan Station.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Leaving_Yongsan_Station.jpg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Danleo, FREEZA, J o, LERK, 아흔, 1 ediciones anónimas Archivo:Newtons laws in latin.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Newtons_laws_in_latin.jpg  Licencia: Public Domain  Contribuyentes: Bestiasonica, JdH, Man vyi, Tttrung, Wst, 4 ediciones anónimas Archivo:Polea-simple-fija.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polea-simple-fija.jpg  Licencia: GNU Free Documentation License  Contribuyentes: César Rincón Archivo:Simple harmonic oscillator.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Simple_harmonic_oscillator.gif  Licencia: Public Domain  Contribuyentes: Oleg Alexandrov Archivo:Trabajo.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Trabajo.png  Licencia: Creative Commons Attribution-Share Alike  Contribuyentes: Ignacio Marcoux Archivo:Vector field.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Vector_field.svg  Licencia: Public Domain  Contribuyentes: Fibonacci. Archivo:Standing wave 2.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Standing_wave_2.gif  Licencia: Public Domain  Contribuyentes: BrokenSegue, Cdang, Fractaler, Kersti Nebelsiek, Kieff, Pieter Kuiper, 9 ediciones anónimas Archivo:Simple Pendulum Oscillator.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Simple_Pendulum_Oscillator.gif  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Tibbets74 Archivo:Simple harmonic motion animation.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Simple_harmonic_motion_animation.gif  Licencia: Public Domain  Contribuyentes: User:Evil_saltine Archivo:Lightnings sequence 2 animation.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Lightnings_sequence_2_animation.gif  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: original data: Sebastien D'ARCO, animate: Koba-chan Archivo:F-22 supersonic 090622-N-7780S-014.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:F-22_supersonic_090622-N-7780S-014.jpg  Licencia: Public Domain  Contribuyentes: Mass Communication Specialist 2nd Class Kyle Steckler, U.S. Navy Archivo:Ferrofluid poles.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ferrofluid_poles.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Gregory F. Maxwell < gmaxwell@gmail.com> Archivo:M Faraday Th Phillips oil 1842.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:M_Faraday_Th_Phillips_oil_1842.jpg  Licencia: Public Domain  Contribuyentes: w:Thomas PhillipsThomas Phillips Archivo:James-clerk-maxwell 1.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:James-clerk-maxwell_1.jpg  Licencia: Public Domain  Contribuyentes: Ahellwig, EugeneZelenko, Kilom691, Luestling Archivo:Gold leaf electroscope Deschanel.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Gold_leaf_electroscope_Deschanel.png  Licencia: Public Domain  Contribuyentes: Agustin Privat-Deschanel Archivo:ElectricField3Charges.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ElectricField3Charges.svg  Licencia: Public Domain  Contribuyentes: Campo_electrico_cargas_puntuales.PNG: Lalo49 derivative work: kismalac Archivo:Magnet0873.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Magnet0873.png  Licencia: Public Domain  Contribuyentes: Newton Henry Black Archivo:Onde electromagnetique.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Onde_electromagnetique.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: SuperManu Archivo:EM Spectrum Properties es.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:EM_Spectrum_Properties_es.svg  Licencia: Public Domain  Contribuyentes: Crates. Original version in English by Inductiveload Archivo:Feynmann Diagram Coulomb.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Feynmann_Diagram_Coulomb.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: User:OliverOberlach, User:joelholdsworth Archivo:Tormenta sobre Madrid (Salamanca) 01.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tormenta_sobre_Madrid_(Salamanca)_01.jpg  Licencia: Creative Commons Attribution 2.0  Contribuyentes: FlickreviewR, Zaqarbal Archivo:SS-faraday.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SS-faraday.jpg  Licencia: Public Domain  Contribuyentes: Frobles, Luigi Chiesa, Paddy, Quibik, Red Rooster, Serinde, 1 ediciones anónimas Archivo:Atomo di rame.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Atomo_di_rame.svg  Licencia: Public Domain  Contribuyentes: ARTE, Roomba, Wst, 2 ediciones anónimas

Fuentes de imagen, Licencias y contribuyentes
Archivo:Cargas electricas.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Cargas_electricas.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: http://commons.wikimedia.org/wiki/User:Chanchocan Archivo:Electric dipole field lines.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Electric_dipole_field_lines.svg  Licencia: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0  Contribuyentes: Sharayanan Archivo:Polaridad.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polaridad.png  Licencia: Public Domain  Contribuyentes: José Luis Gálvez Archivo:Stranded lamp wire.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Stranded_lamp_wire.jpg  Licencia: Public Domain  Contribuyentes: Scott Ehardt Archivo:AsociacionesMixtas.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:AsociacionesMixtas.png  Licencia: Public Domain  Contribuyentes: José Luis Gálvez Archivo:densité de courant.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Densité_de_courant.png  Licencia: GNU Free Documentation License  Contribuyentes: Charlitos, Darapti, TommyBee Archivo:Gratz.rectifier.en.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Gratz.rectifier.en.svg  Licencia: Creative Commons Attribution 3.0  Contribuyentes: Wdwd Archivo:Sinus2.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Sinus2.png  Licencia: GNU Free Documentation License  Contribuyentes: Josemontero9, Maksim, WikipediaMaster Archivo:3-phase-voltage.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:3-phase-voltage.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: User:Tomia Archivo:TT-earthing.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:TT-earthing.png  Licencia: Public domain  Contribuyentes: Guam, Paddy Archivo:Transformacion Delta-Estrella.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Transformacion_Delta-Estrella.svg  Licencia: Public Domain  Contribuyentes: Delta-Star_Transformation.svg: jjbeard derivative work: Xosema (talk) Archivo:EjemploCircuito.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:EjemploCircuito.png  Licencia: Public Domain  Contribuyentes: José Luis Gálvez Archivo:Module thermoelectrique segmente.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Module_thermoelectrique_segmente.png  Licencia: GNU Free Documentation License  Contribuyentes: Original uploader was David Berardan at fr.wikipedia Archivo:Alternador de fábrica textil.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Alternador_de_fábrica_textil.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Frobles Archivo:Turbina de vapor.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Turbina_de_vapor.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Frobles Archivo:Nuclear Power Plant Cattenom.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Nuclear_Power_Plant_Cattenom.jpg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Stefan Kühn Archivo:PS10 solar power tower 2.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:PS10_solar_power_tower_2.jpg  Licencia: Creative Commons Attribution 2.0  Contribuyentes: afloresm Archivo:Turbina hidraúlica.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Turbina_hidraúlica.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Frobles Archivo:Wind 2006andprediction en.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wind_2006andprediction_en.png  Licencia: Public Domain  Contribuyentes: WWEA e.V. Archivo:Solar Panels.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Solar_Panels.jpg  Licencia: Creative Commons Attribution 2.0  Contribuyentes: Apalsola, FlickrLickr, FlickreviewR, JackyR, Saibo, Tetris L, VIGNERON, Wst Archivo:Cumminspower.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Cumminspower.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Frobles Archivo:Pila galvanica.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Pila_galvanica.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Original uploader was Joselarrucea at es.wikipedia Archivo:Fuel cell NASA p48600ac.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Fuel_cell_NASA_p48600ac.jpg  Licencia: Public Domain  Contribuyentes: Stahlkocher, Warden, 1 ediciones anónimas Archivo:Redelectrica2.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Redelectrica2.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Inductiveload, PACO, Tothwolf, Túrelio, WikipediaMaster, 4 ediciones anónimas Archivo:Electric transmission lines.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Electric_transmission_lines.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Guam, NJR ZA, Robert Weemeyer, 1 ediciones anónimas Archivo:Amperímetro.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Amperímetro.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Albedo-ukr, Emijrp, PACO Archivo:Condensador.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Condensador.png  Licencia: Public Domain  Contribuyentes: José Luis Gálvez Archivo:Moving coil instrument principle.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Moving_coil_instrument_principle.png  Licencia: GNU Free Documentation License  Contribuyentes: Søren Peo Pedersen (User:Peo) Archivo:Tongtester.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tongtester.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Tothwolf, Tttrung, WikipediaMaster Archivo:Voltmeter.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Voltmeter.jpg  Licencia: GNU Free Documentation License  Contribuyentes: User:Ravn Archivo:Ohmmeter.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ohmmeter.jpg  Licencia: Public Domain  Contribuyentes: Cyberius Archivo:Digital Multimeter Aka.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Digital_Multimeter_Aka.jpg  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: André Karwath aka Aka Archivo:Tektronix 465 Oscilloscope.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tektronix_465_Oscilloscope.jpg  Licencia: Creative Commons Attribution 3.0  Contribuyentes: Elborgo Archivo:FSL.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:FSL.jpg  Licencia: Creative Commons Attribution 3.0  Contribuyentes: Rohde & Schwarz GmbH & Co. KG, Mühldorfstraße 15, D-81671 München, http://www.rohde-schwarz.com Archivo:DiagramaPotenciasWPde.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:DiagramaPotenciasWPde.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Original uploader was Togo at es.wikipedia Archivo:Cuadro de seguridad eléctrica en una vivienda.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Cuadro_de_seguridad_eléctrica_en_una_vivienda.JPG  Licencia: GNU Free Documentation License  Contribuyentes: Frobles Archivo:200AIndustrialFuse.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:200AIndustrialFuse.jpg  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: Dmitry G, Glenn, Matanya (usurped), Plugwash, Stunteltje Archivo:HomeEarthRodAustralia1.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:HomeEarthRodAustralia1.jpg  Licencia: GNU Free Documentation License  Contribuyentes: 1-1111, Commander Keane, Dmitry G, Ies, Tano4595 Archivo:Electric motor cycle 2.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Electric_motor_cycle_2.png  Licencia: GNU Free Documentation License  Contribuyentes: Dmitry G, Isi, Tano4595 Archivo:Transformador.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Transformador.png  Licencia: GNU Free Documentation License  Contribuyentes: User:PACO Archivo:Transformer under load.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Transformer_under_load.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Me Archivo:Air handling unit.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Air_handling_unit.JPG  Licencia: Public Domain  Contribuyentes: P199 Archivo:Heatpump.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Heatpump.svg  Licencia: Public Domain  Contribuyentes: Drawn in Inkscape by Ilmari Karonen. Archivo:Fermilab - 400 MeV Lambertson Magnet.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Fermilab_-_400_MeV_Lambertson_Magnet.jpg  Licencia: Public Domain  Contribuyentes: Avron, NH2501, Teslaton Archivo:electrólisis.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Electrólisis.png  Licencia: desconocido  Contribuyentes: Original uploader was Mbarousse at es.wikipedia Imagen:Solenoid Valve.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Solenoid_Valve.png  Licencia: Public Domain  Contribuyentes: Alfonso Gonzalez Archivo:Veřejné osvětlení.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Veřejné_osvětlení.jpg  Licencia: Public Domain  Contribuyentes: User:ŠJů Archivo:Hair dryer.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hair_dryer.jpg  Licencia: Creative Commons Attribution-ShareAlike 1.0 Generic  Contribuyentes: Magnus Manske

247

Fuentes de imagen, Licencias y contribuyentes
Archivo:Traffic Lights 012.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Traffic_Lights_012.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Gateman1997 Archivo:ACRIMSat Animation.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ACRIMSat_Animation.gif  Licencia: Public Domain  Contribuyentes: ElRaki, GDK Archivo:Kompaktleuchtstofflampe.jpeg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Kompaktleuchtstofflampe.jpeg  Licencia: GNU Free Documentation License  Contribuyentes: Dmitry G, Ikiwaner, Mattes, Outsider80, Saperaud Archivo:Motors01CJC.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Motors01CJC.jpg  Licencia: GNU Free Documentation License  Contribuyentes: en:User:C_J_Cowie Archivo:EXPO 2005 of Three IMTS(s) organization.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:EXPO_2005_of_Three_IMTS(s)_organization.jpg  Licencia: desconocido  Contribuyentes: User:Gnsin Archivo:TGVReBéziers.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:TGVReBéziers.jpg  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: Andrés Ignacio Martínez Soto Archivo:3D SSD.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:3D_SSD.gif  Licencia: Public Domain  Contribuyentes: Original uploader was KieranMaher at en.wikibooks Archivo:InternalIntegratedCircuit2.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:InternalIntegratedCircuit2.JPG  Licencia: GNU Free Documentation License  Contribuyentes: Angeloleithold, Gmaxwell, Gustavb, Jurema Oliveira, NaSH, Pieter Kuiper, Swatnio, 1 ediciones anónimas Archivo:Contador doméstico de electricidad.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Contador_doméstico_de_electricidad.JPG  Licencia: Creative Commons Attribution-Share Alike  Contribuyentes: Frobles Archivo:Koelkast open.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Koelkast_open.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Maksim, Santosga, Smurrayinchester Archivo:High voltage warning.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:High_voltage_warning.svg  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: User:Duesentrieb Archivo:Auroraborealissm.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Auroraborealissm.jpg  Licencia: Public Domain  Contribuyentes: Nard the Bard, Ustas Archivo:Esp-galvani.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Esp-galvani.gif  Licencia: Public Domain  Contribuyentes: Original uploader was Biopresto at it.wikipedia Archivo:PikeHead.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:PikeHead.JPG  Licencia: GNU Free Documentation License  Contribuyentes: Piet Spaans Archivo:Torpedo fuscomaculata2.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Torpedo_fuscomaculata2.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Factumquintus, Haplochromis, 1 ediciones anónimas Archivo:Chip.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Chip.jpg  Licencia: Public Domain  Contribuyentes: Mardus, Newmanbe, Plugwash, Red devil 666 Archivo:Protoboard circuito multivibradores.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Protoboard_circuito_multivibradores.jpg  Licencia: Creative Commons Attribution-Share Alike  Contribuyentes: Josemontero9 - Juan José Montero Rodríguez Archivo:Sistemaselectronicos.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Sistemaselectronicos.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: Bhaal Archivo:Solar sys.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Solar_sys.jpg  Licencia: Public Domain  Contribuyentes: Harman Smith and Laura Generosa (nee Berwin), graphic artists and contractors to NASA's Jet Propulsion Laboratory. Archivo:Trajektorie.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Trajektorie.svg  Licencia: Public Domain  Contribuyentes: Original uploader was Pajs at cs.wikipedia Archivo:Espaco de fase do pendulo caotico.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Espaco_de_fase_do_pendulo_caotico.svg  Licencia: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0  Contribuyentes: Thotypous (Paulo Matias) Archivo:Dualite.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Dualite.jpg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Jean-Christophe BENOIST Archivo:HAtomOrbitals.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:HAtomOrbitals.png  Licencia: GNU Free Documentation License  Contribuyentes: Admrboltz, Benjah-bmm27, Dbc334, Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 6 ediciones anónimas Archivo:Nuvola apps katomic.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Nuvola_apps_katomic.svg  Licencia: GNU Lesser General Public License  Contribuyentes: David Vignoni, traced by User:Stannered Archivo:Neutron-crystal scattering.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Neutron-crystal_scattering.png  Licencia: GNU Lesser General Public License  Contribuyentes: Neutron-crystal_scattering.svg: *Blue_sphere.svg: User:Booyabazooka; recoloured by User:Stannered Green_sphere.svg: User:Booyabazooka; recoloured by User:Stannered Nuvola_apps_krec.svg: ? derivative work: kismalac (talk) Archivo:Classical-quantum.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Classical-quantum.svg  Licencia: GNU Lesser General Public License  Contribuyentes: Neutron-crystal_scattering.svg: *Blue_sphere.svg: User:Booyabazooka; recoloured by User:Stannered Green_sphere.svg: User:Booyabazooka; recoloured by User:Stannered Nuvola_apps_krec.svg: ? derivative work: kismalac (talk) derivative work: kismalac Archivo:Feynman at Los Alamos.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Feynman_at_Los_Alamos.jpg  Licencia: Public Domain  Contribuyentes: Feynman_and_Oppenheimer_at_Los_Alamos.jpg: unknown derivative work: Materialscientist (talk) Archivo:Tomonaga.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tomonaga.jpg  Licencia: Public Domain  Contribuyentes: Nobel foundation Archivo:Schwinger.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Schwinger.jpg  Licencia: Public Domain  Contribuyentes: Nobel foundation Archivo:Continuum-limit.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Continuum-limit.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: kismalac Archivo:Membrane-normal-modes.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Membrane-normal-modes.gif  Licencia: Public Domain  Contribuyentes: Drum_vibration_mode01.gif: Oleg Alexandrov Drum_vibration_mode02.gif: Oleg Alexandrov Drum_vibration_mode03.gif: Oleg Alexandrov derivative work: kismalac Archivo:SecondQuantization.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SecondQuantization.gif  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: User:kismalac Archivo:ComptonScattering.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ComptonScattering.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: ElectronPositronAnnihilation.svg: Dirk Hünniger, Joel Holdsworth derivative work: kismalac Archivo:Polarization.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polarization.svg  Licencia: Creative Commons Zero  Contribuyentes: User:kismalac Archivo:RenormalizationIsingModel.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:RenormalizationIsingModel.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: User:kismalac Archivo:SelfE.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SelfE.svg  Licencia: Public Domain  Contribuyentes: Jari Laamanen Archivo:Quarks.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Quarks.gif  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: QCD.gif: Manishearth derivative work: kismalac Archivo:Baryon-octet.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Baryon-octet.svg  Licencia: Public Domain  Contribuyentes: Trassiorf Archivo:Pion-2gamma.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Pion-2gamma.png  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: kismalac Archivo:CDF Top Event.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:CDF_Top_Event.jpg  Licencia: Public Domain  Contribuyentes: Original uploader was Ylai at en.wikipedia Archivo:Levitation_superconductivity.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Levitation_superconductivity.JPG  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: Julien Bobroff (user:Jubobroff), Frederic Bouquet (user:Fbouquet), LPS, Orsay, France Archivo:Albert Einstein 1979 USSR Stamp.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Albert_Einstein_1979_USSR_Stamp.jpg  Licencia: Public Domain  Contribuyentes: П. Бендель Archivo:Gravitation space source.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Gravitation_space_source.png  Licencia: GNU Free Documentation License  Contribuyentes: Adam majewski, Duesentrieb, Schekinov Alexey Victorovich, Superborsuk, WikipediaMaster Archivo:Lineamundo.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Lineamundo.PNG  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Fmercury1980, Pieter Kuiper, Schekinov Alexey Victorovich Archivo:World line-es.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:World_line-es.svg  Licencia: Public Domain  Contribuyentes: K. Aainsqatsi Archivo:Andromeda Galaxy Spitzer.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Andromeda_Galaxy_Spitzer.jpg  Licencia: Public Domain  Contribuyentes: NASA/JPL-Caltech/P. Barmby (Harvard-Smithsonian Center for Astrophysics)

248

Fuentes de imagen, Licencias y contribuyentes
Archivo:TensorTensiónEnergía.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:TensorTensiónEnergía.png  Licencia: GNU Free Documentation License  Contribuyentes: Belfer00, Fmercury1980, Kilom691, Schekinov Alexey Victorovich Archivo:Accretion disk.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Accretion_disk.jpg  Licencia: Public domain  Contribuyentes: 84user, Bebenko, Dcljr, Saperaud, 6 ediciones anónimas Archivo:Relativity5 Walk of Ideas Berlin.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Relativity5_Walk_of_Ideas_Berlin.JPG  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Lienhard Schulz Archivo:Speed of light from Earth to Moon.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Speed_of_light_from_Earth_to_Moon.gif  Licencia: GNU Free Documentation License  Contribuyentes: en:User:Cantus Archivo:MinkowskiDiagram.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MinkowskiDiagram.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Minkowski_diagram_-_asymmetric.png: Wolfgangbeyer derivative work: kismalac Archivo:LorentzContraction.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:LorentzContraction.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Graph_for_explanation_of_Lorentz_contraction.png: Spirituelle derivative work: kismalac Archivo:composition.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Composition.svg  Licencia: GNU Free Documentation License  Contribuyentes: EA-18G.svg: Hummingbird_flight.svg: Karta24 (talk) derivative work: kismalac (talk) Archivo:Relativity-formula.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Relativity-formula.png  Licencia: Public Domain  Contribuyentes: User:Tysto Archivo:Sr1.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Sr1.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Czupirek, Fernando S. Aldado, Gerbrant, Pérez, 2 ediciones anónimas Archivo:Sr3.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Sr3.jpg  Licencia: GNU Free Documentation License  Contribuyentes: w:en:user:Kevin Baasuser:Kevin Baas Archivo:SN 2006gy, NASA illustration.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SN_2006gy,_NASA_illustration.jpg  Licencia: Public Domain  Contribuyentes: Credit: NASA/w:Chandra X-ray ObservatoryCXC/M.Weiss Archivo:S95e5221.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:S95e5221.jpg  Licencia: Public Domain  Contribuyentes: NASA Archivo:Gravitational red-shifting.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Gravitational_red-shifting.png  Licencia: GNU Free Documentation License  Contribuyentes: ArséniureDeGallium, Bdk, Mahahahaneapneap, Tano4595, Vlad2i, 1 ediciones anónimas Archivo:Líneas de universo llanas.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Líneas_de_universo_llanas.PNG  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Fmercury1980 Archivo:Líneas de universo curvas.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Líneas_de_universo_curvas.PNG  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Fmercury1980 Archivo:STS-107 crew in orbit.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:STS-107_crew_in_orbit.jpg  Licencia: Public Domain  Contribuyentes: Not known (and will likely never be known), but as it was taken during the mission and ultimately recovered by NASA, it is in the public domain. Archivo:Malus florentina0.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Malus_florentina0.jpg  Licencia: GNU Free Documentation License  Contribuyentes: Quadell Archivo:Geodesiques.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Geodesiques.png  Licencia: Creative Commons Attribution-ShareAlike 1.0 Generic  Contribuyentes: Loveless Archivo:Metric globe.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Metric_globe.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Mapos Archivo:Curvatura de Riemann.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Curvatura_de_Riemann.png  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: Fmercury1980 Archivo:Tidal-forces.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tidal-forces.png  Licencia: GNU Free Documentation License  Contribuyentes: Bryan Derksen, Eman, Justass, Mdd, RuM, Tano4595, WikipediaMaster Archivo:NASA-JPL-Caltech - Double the Rubble (PIA11375) (pd).jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:NASA-JPL-Caltech_-_Double_the_Rubble_(PIA11375)_(pd).jpg  Licencia: Public Domain  Contribuyentes: NASA/JPL-Caltech Archivo:ESO - Planetary System Around HD 69830 II (by).jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ESO_-_Planetary_System_Around_HD_69830_II_(by).jpg  Licencia: desconocido  Contribuyentes: ESO Archivo:Tensor de Ricci.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tensor_de_Ricci.PNG  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Fmercury1980 Archivo:Rotating Black Hole.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Rotating_Black_Hole.jpg  Licencia: Public Domain  Contribuyentes: Vassil, Work permit Archivo:Celestia sun.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Celestia_sun.jpg  Licencia: Public Domain  Contribuyentes: NikoLang Archivo:146978main gwave lg5.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:146978main_gwave_lg5.jpg  Licencia: Public Domain  Contribuyentes: Henze, NASA Archivo:Star collapse to black hole.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Star_collapse_to_black_hole.png  Licencia: Creative Commons Attribution-Sharealike 2.5  Contribuyentes: Mapos, Pieter Kuiper Archivo:1919 eclipse negative.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:1919_eclipse_negative.jpg  Licencia: Public Domain  Contribuyentes: ComputerHotline, EugeneZelenko, Fastfission, Infrogmation, Quibik, 4 ediciones anónimas Archivo:Triple expansion engine animation.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Triple_expansion_engine_animation.gif  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: User:Emoscopes Archivo:HeatEngine.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:HeatEngine.svg  Licencia: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0  Contribuyentes: Maquina_termica.png: gonfer derivative work: kismalac Archivo:Carnot cycle p-V diagram.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot_cycle_p-V_diagram.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Dake, Keta, 3 ediciones anónimas Archivo:Continuum body deformation.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Continuum_body_deformation.svg  Licencia: Creative Commons Attribution 3.0  Contribuyentes: Cflm001, Nicoguaro Archivo:Precessing-top.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Precessing-top.gif  Licencia: GNU Free Documentation License  Contribuyentes: LP, Newone, Tano4595, WikipediaMaster Archivo:VibratingGlassBeam.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:VibratingGlassBeam.jpg  Licencia: Public Domain  Contribuyentes: Ben pcc Archivo:Stress in a continuum.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Stress_in_a_continuum.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: Sanpaz Archivo:stress-strain1-es.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Stress-strain1-es.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes: Stress-strain1.svg: Moondoggy Original uploader was Pbroks13 at en.wikipedia derivative work: PePeEfe (talk) Archivo:Andromeda galaxy Ssc2005-20a1.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Andromeda_galaxy_Ssc2005-20a1.jpg  Licencia: Public Domain  Contribuyentes: User:Ceranthor, User:Noodle snacks, User:Superborsuk Archivo:Hubble 01.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hubble_01.jpg  Licencia: Public Domain  Contribuyentes: NASA Archivo:Stonehenge back wide.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Stonehenge_back_wide.jpg  Licencia: Creative Commons Attribution-Sharealike 2.0  Contribuyentes: Frédéric Vincent Archivo:Busto di Aristotele conservato a Palazzo Altaemps, Roma. Foto di Giovanni Dall'Orto.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Busto_di_Aristotele_conservato_a_Palazzo_Altaemps,_Roma._Foto_di_Giovanni_Dall'Orto.jpg  Licencia: Attribution  Contribuyentes: User:g.dallorto Archivo:Armillary sphere.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Armillary_sphere.png  Licencia: Public Domain  Contribuyentes: User:Looxix Archivo:Warsaw2oh.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Warsaw2oh.jpg  Licencia: GNU Free Documentation License  Contribuyentes: DocentX, Sfu, Szczebrzeszynski, 2 ediciones anónimas

249

Fuentes de imagen, Licencias y contribuyentes
Archivo:Evolución Universo WMAP.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Evolución_Universo_WMAP.jpg  Licencia: Public Domain  Contribuyentes: Derived. Spanish translation by Luis Fernández García Archivo:Ursa major star name.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ursa_major_star_name.png  Licencia: Creative Commons Attribution-Sharealike 2.0  Contribuyentes: Luigi Chiesa Archivo:Lokale Gruppe 3D Nachbarschaft.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Lokale_Gruppe_3D_Nachbarschaft.png  Licencia: GNU Free Documentation License  Contribuyentes: Factumquintus, KGyST, Maksim Archivo:Télescope Sky Watcher.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Télescope_Sky_Watcher.JPG  Licencia: Public Domain  Contribuyentes: Editor at Large, Jastrow, Jim.henderson, Juiced lemon, Rogilbert, 1 ediciones anónimas Archivo:Galileo-sustermans.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Galileo-sustermans.jpg  Licencia: Public Domain  Contribuyentes: Bcrowell, G.dallorto, Mattes, Reame, Shakko Archivo:USA.NM.VeryLargeArray.02.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:USA.NM.VeryLargeArray.02.jpg  Licencia: GNU General Public License  Contribuyentes: user:Hajor Archivo:Ssc2005-11a.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ssc2005-11a.jpg  Licencia: Public Domain  Contribuyentes: Infrared: NASA/JPL-Caltech/R. Kennicutt (University of Arizona), and the SINGS Team; Visible: Hubble Space Telescope/Hubble Heritage Team Archivo:Saturn's A Ring From the Inside Out.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Saturn's_A_Ring_From_the_Inside_Out.jpg  Licencia: Public Domain  Contribuyentes: NASA/JPL/University of Colorado Archivo:M87 jet.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:M87_jet.jpg  Licencia: Public domain  Contribuyentes: NASA and The Hubble Heritage Team (STScI/AURA) Archivo:Nasa swift satellite.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Nasa_swift_satellite.jpg  Licencia: Public Domain  Contribuyentes: CarolSpears, GDK, VlSimpson Archivo:Polarlicht.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polarlicht.jpg  Licencia: Public Domain  Contribuyentes: United States Air Force photo by Senior Airman Joshua Strang Archivo:Sun in X-Ray.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Sun_in_X-Ray.png  Licencia: Public Domain  Contribuyentes: NASA Goddard Laboratory for Atmospheres Archivo:Sun920607.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Sun920607.jpg  Licencia: Public Domain  Contribuyentes: NASA Archivo:Moon Dedal crater.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Moon_Dedal_crater.jpg  Licencia: Public Domain  Contribuyentes: Krinkle, Spiritia, 2 ediciones anónimas Archivo:Comet P1 McNaught04 - 23-01-07.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Comet_P1_McNaught04_-_23-01-07.jpg  Licencia: desconocido  Contribuyentes: Fir0002 Archivo:Andromeda galaxy.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Andromeda_galaxy.jpg  Licencia: Public Domain  Contribuyentes: NASA/JPL/California Institute of Technology Archivo:Ant Nebula.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ant_Nebula.jpg  Licencia: Public Domain  Contribuyentes: NASA, ESA & the Hubble Heritage Team (STScI/AURA). Acknowledgment: R. Sahai (Jet Propulsion Lab), B. Balick (University of Washington Archivo:Dust.devil.mars.arp.750pix.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Dust.devil.mars.arp.750pix.jpg  Licencia: Public Domain  Contribuyentes: Bdamokos, Ruslik0, Saperaud, TheDJ Archivo:grav.lens1.arp.750pix.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Grav.lens1.arp.750pix.jpg  Licencia: Public domain  Contribuyentes: STScl/NASA

250

Licencia

251

Licencia
Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/