You are on page 1of 26

FUNDAMENTOS

MATEMÁTICOS.
INDICE
1.1. NOTACIÓN INDICIAL.

1.2. OPERACIONES DE TENSORES.

1.3. MÉTODOS PARA EL CÁLCULO DE VALORES Y


VECTORES PROPIOS.

1.4. GRADIENTE, DIVERGENCIA Y ROTACIONAL.

1.5. TEOREMAS DE GREEN Y STOKES


1.1.NOTACIÓN INDICIAL.
El convenio de sumación de Einstein, notación de Einstein o notación indicial a la convención utilizada para
abreviar la escritura de sumatorios, en el que se suprime el símbolo de sumatorio (representado con la
letra griega sigma - Σ)
Definición. Dada una expresión lineal en en la que se escriben todos sus términos de forma explícita: Esta
puede expresarse convencionalmente como el sumatorio: La notación de Einstein obtiene una expresión
aún más condensada eliminando el signo de sumatorio y entendiendo que en la expresión resultante un
índice indica suma sobre todos los posibles valores del mismo.

Índice. Un índice utilizado en la notación de Einstein puede aparecer en forma de producto hasta dos veces
en mismo término de una expresión, por lo que las siguientes expresiones son válidas
En cálculo de tensores es también común utilizar una de las ocurrencias como un subíndice y la
otra como un superíndice. Por ejemplo, en la siguiente expresión en . Un índice que se repite dos
veces en el mismo término de una ecuación se conoce como índice mudo, por ejemplo: Un índice
que se repite en cada uno de los términos de una expresión a excepción de los términos
constantes se conoce como índice libre: Los índices libres no se expanden en forma de sumatorio,
sino que representan un sistema de ecuaciones independientes.
1.2. Operaciones de Tensores.
Producto tensorial y producto exterior. Dados dos tensores se puede definir entre ellos el
llamado producto tensorial cuyo resultado es un tensor de tipo más complejo cuyas
componentes pueden obtenerse a partir de los tensores originales. El producto de dos tensores
es un tensor cuyo rango es la suma de los rangos dados por los dos tensores. Este producto
implica la multiplicación ordinaria de los componentes de un tensor y es llamado producto
exterior.
Por ejemplo:
Subir y bajar índices. En una variedad riemanniana existe la posibilidad de definir una operación
sobre tensores, que en general no puede realizarse en una variedad cualquiera.

Contracción. La contracción de tensores es una operación que reduce el orden total de un


tensor. Esta operación reduce un tensor tipo a otro tipo . En términos de componentes, esta
operación se logra sumando el índice de un tensor contravariante y un covariante.

Producto interno. El producto interno de dos tensores se produce al


contraer el producto exterior de los tensores.
1.3. Métodos para el cálculo de valores y
vectores propios
En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador
lineal son los vectores no nulos que, cuando son transformados por el operador, dan
lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección
Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados
por la transformación o se ven multiplicados por un escalar, y por tanto no varían su dirección

El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado

Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio,
además del vector nulo, que no es un vector propio

La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado

El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus


valores propios
Casos de interes espcial. Intuitivamente, para las transformaciones lineales del
espacio de dos dimensiones , los vectores propios son:
Rotación: ningún vector propio de valores reales (existen en cambio pares valor propio, vector
propio complejos).
Reflexión: los vectores propios son perpendiculares y paralelos al eje de simetría, los valores
propios son -1 y 1, respectivamente
Escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de
escala
Proyección sobre una recta: los vectores propios con el valor propio 1 son paralelos a la línea,
vectores propios con el valor propio 0 son paralelos a la dirección de la proyección
Cálculo de valores propios y vectores propios de matrices. Si se quiere calcular los valores propios de
una matriz dada y ésta es pequeña, se puede calcular simbólicamente usando el polinomio
característico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se
debe usar un método numérico
Encontrando vectores propios. Una vez que se conocen los valores propios λ, los vectores propios se
pueden hallar resolviendo el sistema de ecuaciones homogéneo:

Una forma más sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se
basa en el teorema de Cayley-Hamilton que establece que cada matriz cuadrada satisface su propio
polinomio característico.
Cálculo numérico. En la práctica, los valores propios de las matrices extensas no se calculan
usando el polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las
raíces exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el teorema
de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o superior) no pueden
expresarse usándose simplemente raíces enésimas. Existen algoritmos eficientes para aproximar
raíces de polinomios, pero pequeños errores en la estimación de los valores propios pueden dar
lugar a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para
encontrar vectores propios y valores propios son iterativos. La manera más fácil es el método de
las potencias: se escoge un vector aleatorio y se calcula una secuencia de vectores unitarios
Esta sucesión casi siempre convergerá a un vector propio correspondiente al mayor
valor propio. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin
embargo, hay métodos más populares, como la descomposición QR, que se basan en
él.
1.4. Gradiente, divergencia y rotacional.
. El gradiente se define como el campo vectorial cuyas funciones coordenadas son las derivadas
parciales del campo escalar, esto es:

Una forma equivalente de definir el gradiente es como el único vector que, multiplicado por el
vector unitario, da la derivada direccional del campo escalar:
Con la definición anterior, el gradiente está caracterizado de forma unívoca. El gradiente se
expresa alternativamente mediante el uso del operador nabla:
Interpretación del gradiente. De forma geométrica el gradiente es un vector que
se encuentra normal (perpendicular) a la curva de nivel en el punto que se está
estudiando, llámese , (tiempo, temperatura), etcétera. Algunos ejemplos son:
Considere una habitación en la cual la temperatura se define a través de un campo escalar, de
tal manera que en cualquier punto , la temperatura es . Asumiremos que la temperatura no
varía con respecto al tiempo. Siendo esto así, para cada punto de la habitación, el gradiente en
ese punto nos dará la dirección en la cual se calienta más rápido. La magnitud del gradiente nos
dirá cuán rápido se calienta en esa dirección

Considere una montaña en la cual su altura en el punto se define como El gradiente de H en ese
punto estará en la dirección para la que hay un mayor grado de inclinación. La magnitud del
gradiente nos mostrará cuán empinada se encuentra la pendiente
Divergencia. La divergencia de un campo vectorial mide la diferencia entre el flujo entrante y el
flujo saliente de un campo vectorial sobre la superficie que rodea a un volumen de control, por
tanto, si el campo tiene "fuentes" o "sumideros" la divergencia de dicho campo será diferente de
cero.

Divergencia de un campo vectorial. La divergencia de un campo vectorial en un punto es un


campo escalar, y se define como el flujo del campo vectorial por unidad de volumen conforme el
volumen alrededor del punto tiende a cero:
Coordenadas cartesianas. Cuando la definición de divergencia se aplica
al caso de un campo expresado en coordenadas cartesianas,
Coordenadas ortogonales. Sin embargo, para un caso más general de coordenadas ortogonales
curvilíneas, como las cilíndricas o las esféricas, la expresión se complica debido a la dependencia
de los vectores de la base con la posición. La expresión para un sistema de
coordenadas ortogonales es:
Coordenadas generales. En sistemas de coordenadas generales, no necesariamente ortogonales,
la divergencia de un vector puede expresarse en términos de las derivadas parciales respecto a
las coordenadas y el determinante del tensor métrico:
Rotacional. En el cálculo vectorial, el rotacional o rotor es un operador vectorial que
muestra la tendencia de un campo vectorial a inducir rotación alrededor de un punto.
Matemáticamente, esta idea se expresa como el límite de la circulación del
campo vectorial, cuando la curva sobre la que se integra se reduce a un punto:
Fuente vectorial y escalar. Al campo vectorial, J, que se obtiene
calculando el rotacional de un campo F en cada punto,

Se conoce como las fuentes vectoriales de F (siendo las fuentes escalares las que se obtienen
mediante la divergencia).
Un campo cuyo rotacional es nulo en todos los puntos del espacio se denomina irrotacional o se
dice que carece de fuentes vectoriales. Y si está definido sobre un dominio simplemente conexo
entonces dicho campo puede expresarse como el gradiente de una función escalar, o dicho de
otra forma, el campo deriva de un potencial:
Expresión en formas cartesianas.
Partiendo de la definición mediante un límite, puede demostrarse que la
expresión, en coordenadas cartesianas, del rotacional es
1.5. Teoremas de Green y de Stokes.
Teorema de Green. En física y matemáticas, el teorema de Green da la relación
entre una integral de línea alrededor de una curva cerrada simple C y una integral
doble sobre la región plana D limitada por C. El teorema de Green se llama así por el
científico británico George Green y es un caso especial del más general teorema de
Stokes. El teorema afirma:
Sea C una curva cerrada simple positivamente orientada, diferenciable por
trozos, en el plano y sea D la región limitada por C. Si L y M tienen derivadas
parciales continuas en una región abierta que contiene D,
Que por medio del teorema de Green resulta:
Teorema de Stokes.
El teorema de Stokes en geometría diferencial es una proposición sobre la integración de formas
diferenciales que generaliza varios teoremas del cálculo vectorial. Se nombra así por George
Gabriel Stokes (1819-1903), a pesar de que la primera formulación conocida del teorema fue
realizada por William Thomson y aparece en una correspondencia que él mantuvo con Stokes.
El teorema fundamental del cálculo establece que la integral de una función f en el intervalo [a,
b] puede ser calculada por medio de una antiderivada F de f:

You might also like