You are on page 1of 10

En la mecnica de medios continuos el inters primordial no reside nicamente en el estudio de las relaciones algebraicas entre escalares, vectores y tensores,

sino tambin en el estudio de los campos que denen su distribucin. Estos campos son aplicaciones que a un punto x D, siendo D E un dominio (subconjunto abierto y conexo del espacio geomtrico ordinario), le hacen corresponder respectivamente un escalar (D R), un vector (D V) o un tensor de orden 2 (D V ). Por otra parte, un origen o E , elegido x, por lo que en adepuede identicarse cada punto con un vector, x = ox lante no distinguiremos entre ambos. Los tipos de campos que estudiaremos son por tanto: : E D R, x (x), campo escalar; v : E D V, x v(x), campo vectorial; S : E D V , x S(x), campo tensorial.
3 2 3 3 3 3 2
ww w.

Fi s

ic

aA

.c

om

Tambin son de importancia central en la mecnica de medios continuos las aplicaciones o mapas puntuales, que hacen corresponder a un punto x E otro punto (x) E , ya que estas aplicaciones denen directamente el movimiento o deformacin del medio continuo. Estas aplicaciones pueden tratarse como campos vectoriales por la equivalencia existente entre puntos y vectores una vez que se haya elegido un origen o. En todos los casos supondremos que las funciones son suaves, es decir poseen las condiciones de continuidad y derivabilidad necesarias.
3 3

Sea un campo escalar que denominaremos (x), que a cada punto x de un determinado dominio D le hace corresponder un escalar R. Eligiendo un sistema de referencia ortonormal en E , este campo puede interpretarse como una funcin real de tres variables, las coordenadas de x:
3

2.1. Derivada de un campo escalar

w.

La derivada o gradiente del campo escalar en el punto x es una aplicacin tal que su valor para una direccin cualquiera, denida por el vector u, es el escalar siguiente: (x + hu) (x) = (x)u. (90) l m h En ocasiones se denomina al escalar (x)u derivada direccional del campo en la direccin u (evaluada en el punto x). La derivada (x) constituye un vector, para el que se emplean en ocasiones tambin las siguientes notaciones alternativas:
(x)
h0

(x) = (x1 , x2 , x3 ).

Fi s
xi

ic

aA .
=

co

En las expresiones anteriores se ha mantenido la indicacin expresa del punto en que se evala la derivada (x), para enfatizar que a su vez constituye un campo que ofrece un valor distinto en cada punto. En ocasiones por simplicar la escritura se prescindir de esta indicacin expresa, escribindose de forma abreviada como , grad /x, sin que esta simplicacin de la escritura deba dar lugar a confusin. La notacin en componentes la escribiremos empleando los smbolos de derivadas parciales, o de forma ms sinttica mediante las comas delante de los subndices respecto de los que se deriva:
{ } = /x1 /x2 /x3 ,1 = {,i } = ,2 ,3

(x) = grad (x) =

(x). x

ww

Con esta notacin la derivada direccional queda


u =

Por ltimo, a efectos de recordatorio para la notacin, puede pensarse en el smbolo como un vector cuyas componentes sean
= xi

up = u1 + u2 + u3 xp x1 x2 x3 = ,p up = ,1 u1 + ,2 u2 + ,3 u3 .

de forma que en la notacin funciona como un operador,


/x1 /x1 = /x2 = /x2 . /x3 /x3

/x1 1 = /x2 = 2 , 3 /x3

La derivada o gradiente del campo vectorial en un punto x es una aplicacin v(x) tal que su valor para una direccin cualquiera, denida por el vector u, es el vector v(x + hu) v(x) = v(x)u. (91) l m h En ocasiones se denomina al vector v(x)u derivada direccional del campo v en la direccin u (evaluada en el punto x). La derivada v(x) constituye un tensor de orden 2, para el que se emplean en ocasiones tambin las siguientes notaciones alternativas:
h0

ww

w.

v1 (x) = v1 (x1 , x2 , x3 ),

v2 (x) = v2 (x1 , x2 , x3 ),

Fi s

Sea un campo vectorial que denominaremos v(x), que a cada punto x de un determinado dominio D le hace corresponder un vector v V . Eligiendo un sistema de referencia ortonormal en E , el campo puede interpretarse como una funcin vectorial de tres variables; la funcin a su vez quedar caracterizada por las tres coordenadas del vector:
ic aA .
co m
3

2.2. Derivada de un campo vectorial

v3 (x) = v3 (x1 , x2 , x3 ).

v(x) = grad v(x) =

Al igual que en el apartado anterior, se omitir la indicacin expresa del punto en el que se evala la derivada (x), sin que deba inducir a error.

v (x). x

La notacin en componentes de la derivada podr hacerse de varias formas:


( v)ij = vi = vi,j , xj v1,1 v1,2 v1,3 v1 1 2 3 = v2,1 v2,2 v2,3 . [ v] = [ v]T = v2 v3,1 v3,2 v3,3 v3

La derivada de un campo tensorial de segundo orden S puede denirse a partir de la derivada del campo vectorial Sa, para un vector a cualquiera . De esta forma se obtendra, aplicando (91), la derivada direccional (Sa)u (que constituye un vector), y la derivada (Sa) (que constituye un tensor de orden 2). La derivada del campo tensorial S sera entonces un operador tal que para un vector a arbitrario y cualquier direccin u satisfaga
7 8

[( S)u]a = [ (Sa)]u

En cuanto a notacin, escribiremos de forma equivalente y en componentes S


( S)ijk =
ij

S = S/x

Por ltimo consideramos una transformacin puntual : E D E , que a un punto dado x D le hace corresponder otro punto y = (x) E . Elegidos orgenes de coordenadas para ambos o, o (no necesariamente el mismo), hay una equivalencia entre el punto de la imagen y un vector, por lo que podremos expresar de manera anloga a (91) la derivada de esta transformacin: (x + hu) (x) = (x)u. (92) l m h Al trmino (x) se le denomina derivada o gradiente de la transformacin en x, y equivale a un tensor de orden 2.
3 3 3 h0

xk

= Sij,k .
m

La divergencia de un campo vectorial v se dene a partir de la derivada del campo, constituyendo un campo escalar: div v = v = tr( v) = v . (93) Hacemos notar que el operador divergencia est asociado a la parte simtrica del gradiente v, ya que v = tr( v) = tr( v ).
p,p T

2.3. Divergencia, rotacional y Laplaciano

a es un vector cualquiera pero jo, es decir, no se trata de un campo vectorial realidad este operador sera un tensor de orden 3, que a un vector u hace corresponder un tensor de orden 2, ( S)u
8 En

7 Aqu

ww

w.

Fi s

ic

aA .

co

La divergencia de un campo tensorial se dene a partir de la divergencia del campo vectorial S a, siendo a un vector jo pero arbitrario. De esta forma, ( S)a = (S a) a. (94) Puesto que (S a) es un escalar, la divergencia del campo tensorial S es un vector, para el que emplearemos tambin la notacin div S. En componentes la expresin es
T T T

Podemos comprobar la consistencia de esta expresin con lo que se deriva de la denicin (94): Algunos ejemplos de gradientes y divergencias de campos compuestos (se dejan al lector como ejercicio las demostraciones) son: 1. (v) = v + v, 2. (v) = v + v, 3. (S) = S + S . Como se dijo antes, la divergencia est asociada a la parte simtrica del gradiente de un campo vectorial, v. Introducimos ahora un operador diferencial asociado a la parte hemisimtrica del gradiente, que denominamos rotacional. Lo denotaremos por rot v = v , denindolo como un campo vectorial que para cualquier vector a verica ( v) a = ( v v )a. (95) Es decir, se trata del vector axial asociado al tensor hemisimtrico ( v v ). Por tanto, la expresin en componentes ser, denominando w al rotacional, 2w = v = (v v ), y teniendo en cuenta = ,
ww w.

( S)i = (div S)i = Sip,p .

(S T a) = (Sqp aq ep ) = (Sqp aq ),p = Sqp,p aq .

Fi s

ic

aA .
iqp

co

iqp [p,q] ipq

p,q

q,p

iqp

Como regla nemotcnica puede asociarse el rotacional con el producto vectorial de los vectores y v,
rot v = v =
rqp vp,q

wi =

iqp vp,q

er

e1 e2 e3 = 1 2 3 v1 v2 v3 = (v3,2 v2,3 )e1 + (v1,3 v3,1 )e2 + (v2,1 v1,2 )e3 .

El Laplaciano de un campo escalar es otro campo escalar denido como la divergencia del gradiente: = ( ) = . (96) Por otra parte, la misma denicin podemos aplicarla para el Laplaciano de un campo vectorial, slo que en esta ocasin obtendremos un campo vectorial: v = ( v) = v e . (97) Como ejemplo de aplicacin, puede comprobarse que si la divergencia y el rotacional de un campo vectorial son nulos tambin lo ser el Laplaciano. En efecto, veamos en primer lugar que ( v ) = ( v):
,pp p,qq p T

( v T ) = vp,qp eq = vp,pq eq =

( v);

Por otra parte, al ser


v =

v =0 ( v) =

, ser

v=

vT

, y por tanto

( v T ) =

( v) = 0.

En primer lugar suponemos una regin B E a la que aplicaremos el teorema, que debe cumplir ciertas condiciones de regularidad : 1) puede estar compuesta por una o ms partes acotadas, cada una con volumen no nulo; 2) el contorno B es suave a tramos y consiste de un nmero nito de partes disjuntas; 3) cada parte del contorno B es una supercie orientable, es decir posee dos caras claramente distintas. Dada esta regin B, el teorema (que no demostraremos) arma que
3

2.4. Teorema de la divergencia

ww

w.

Fi s

ic

aA .

co

vn dA =
B B

v dV, vp,p dV.


B

vp np dA =
B

(98)

x3 B x2 x1

El primer trmino de la igualdad anterior se denomina ujo del campo vectorial v a travs de la supercie B. El teorema de la divergencia permite transformar una integral de volumen en una integral de supercie, es decir en una regin de una dimensin menos.

El teorema puede generalizarse fcilmente para un campo tensorial S, sin ms que aplicarlo para S a, siendo a un vector cualquiera. El resultado es
T

Sn dA =
B B

S dV, Sip,p dV.


B

Sip np dA =

(99)

En efecto, si a es un vector dado,


a
B

Sn dA =
B

a(Sn) dA =
B T

n(S T a) dA;

aplicando el teorema de la divergencia a S (S a) = a( S), resulta:


T

y teniendo en cuenta que

a
B

Sn dA = a
B

S dV,

por lo que al ser a arbitrario queda demostrada la expresin (99). Consideramos ahora una supercie no cerrada , con borde . Supondremos que la curva no se corta a s misma, es suave y acotada. Por su parte, es suave a tramos, acotada y orientable. El teorema de Stokes arma que: dado un campo vectorial v suave, denido en un dominio que contenga a , ( v)n dA = vt ds. (100) En la expresin anterior, t es el sentido de avance segn la curva , y s es el arco recorrido. El sentido de n es tal que si se avanza segn la curva en el sentido de t, con la parte superior segn n, la supercie queda a la izquierda. En la ecuacin del teorema de Stokes (100), la primera igualdad es el ujo del rotacional a travs de , y la segunda se denomina circulacin del campo vectorial en . Interpretacin geomtrica del rotacional. El teorema de Stokes permite una interpretacin geomtrica del rotacional que se describe a continuacin. Consideramos un punto y E , y tomamos una supercie , consistente en un disco circular centrado en y de radio pequeo , cuya normal unitaria lleve la direccin y sentido del rotacional v. El ujo del rotacional por esta supercie puede aproximarse como v(x)n(x) dA = area( ) [( v)(y)n(y) + O()] .

2.5. Teorema de Stokes

ww

w.

Fi s

ic
3

aA .

co

x3 x2 x1 t

Figura 11: Supercie y borde en el teorema de Stokes. Tomando el lmite al tender a cero y aplicando el teorema de Stokes (100) resulta
vt ds = ( v)(y)n(y) = | v(y)|. area Por tanto la circulacin alrededor de este disco de radio innitesimal, orien0

l m

1 ( )

v x3 n

ic
w.

Fi s

x1

Figura 12: Interpretacin del rotacional como la circulacin en un disco tado normalmente al rotacional y normalizada al dividir por el rea del disco, es igual a la magnitud (norma) del rotacional. Si el campo v correspondiera a las velocidades de un uido, y pusiramos un pequeo molinillo en el seno del mismo, el giro del mismo nos medira la circulacin del campo y por lo tanto el rotacional. Si el molinillo no gira para ninguna orientacin del eje del mismo, el campo de velocidades (ujo del uido) tiene rotacional nulo, se denomina por tanto irrotacional.
2.6. Funciones de tensores de orden dos
2

Consideraremos en este apartado funciones de valor escalar cuya variable sea un tensor de orden dos, : V R, es decir que a un tensor cualquiera

ww

aA .
y x2

co

le haga corresponder un escalar (A) R. Teniendo en cuenta que en un sistema de coordenadas dadas el tensor queda identicado por sus nueve componentes A (i, j = 1, 2, 3), la funcin de variable tensorial puede interpretarse como una funcin de nueve variables (A , A , . . . , A ). La derivada es una aproximacin (lineal) a la variacin del valor de la funcin (A) cuando se produce una variacin pequea del argumento, A + B , en el sentido de que la magnitud |B|= B:B sea pequea. Sin prdida de generalidad, podemos suponer esta variacin de la forma B = hU , donde U es un tensor arbitrario y h es un escalar. Desarrollando (A + hU ) en serie de Taylor en funcin de las distintas componentes U ,
A V2
ij 11 12 33 ij

donde

(A + hU ) = (A11 + hU11 , A12 + hU12 , . . . , A33 + hU33 ) U11 + h U12 = (A) + h A11 A12 + ... + h U33 + O(h2 ) A33 = (A) + hDA:U + O(h2 ), D(A) = def (A) = (A)ep eq . A Apq
co m

El resultado anterior justica la siguiente denicin para la derivada direccional en la direccin de U : (A + hU ) (A) l m = D(A):U , (101) h siendo D(A) = /A (A) la derivada de (A) en el punto A, que constituye un tensor de segundo orden. ejemplo 1: Consideremos una funcin de la forma
h0

Las componentes de la derivada son y observando que A se tiene entonces por lo que
pq /Aij

1 1 (A) = A:A = Apq Apq . 2 2

1 Apq 1 Apq (A) = Apq + Apq , Aij 2 Aij 2 Aij = pi qj A11 = 0, A12

ww

w.

Fi s

ic

aA .

, es decir,

A11 = 1, A11

A11 = 0, A13

etc.,

1 1 (A) = pi qj Apq + Apq pi qj = Aij , Aij 2 2 D(A) = A.

de un tensor, es decir D(det(A)). Para ello, considerando un tensor arbitrario U , empezamos por desarrollar la expresin
1 det(A + hU ) = det[hA(A1 U + 1)] h 1 = det(hA) det(A1 U + 1). h
3

Ejemplo 2: Nos proponemos ahora obtener la derivada del determinante

De los dos factores que se obtienen, el primero vale h det(A), y el segundo puede considerarse como el polinomio caracterstico (77) de A U con = 1/h, que en funcin de los invariantes resulta:
1

det(A + hU ) = h3 det(A)

1 1 1 + 2 I1 (A1 U ) + I2 (A1 U ) + I3 (A1 U ) h3 h h 1 1 2 = det(A)(1 + hI1 (A U ) + h I2 (A U ) + h3 I3 (A1 U )),

aplicando la denicin de derivada (101),


1 (det(A + hU ) det(A)) h = det(A)(I1 (A1 U ) + hI2 (A1 U ) + h2 I3 (A1 U )),

Por ltimo, teniendo en cuenta I (CD) = tr(CD) = C :D, se llega a D det(A):U = det(A)A :U D det(A) = det(A)A . (102)
T

Fi s

1 D det(A):U = l m (det(A + hU ) det(A)) = det(A)I1 (A1 U ). h0 h

ic

aA .

y tomando el lmite,
ww w.
1

co