You are on page 1of 124

Análisis Matemático II

Damián Silvestre
2
Prólogo

Este es un apunte teórico dirigido a los alumnos que estén cursando la


materia Análisis Matemático II en la Universidad Tecnológica Nacional.
El mismo puede ser descargado desde el blog http://analisis2.wordpress.com.
Se trata de un trabajo en proceso, es decir que no está terminado, y
además no pretende sustituir la bibliografı́a, sino solamente complementarla.
Cualquier error, comentario o sugerencia que pueda mejorar estas notas
serán bien recibidas. Pueden escribirme en la sección Teorı́a en dicho blog
(preferéntemente), o a mi dirección de correo electrónico dsilvestre@frba.utn.edu.ar.
Historial de versiones:

(Versión 1) 24 de Mayo de 2013: Primera versión.

(Versión 2) 17 de Agosto de 2013: Correcciones varias. Se agradece la


lectura del apunte al profesor Victor Carnevali.

(Versión 3) 17 de Diciembre de 2013: Varios cambios. Mejoré el forma-


to del documento utilizando el paquete de LATEX amsthm. Agregué el
método de variación de parámetros y la demostración cartesiana de que
las lineas de campo son ortogonales a las lineas equipotenciales en R2 .
Agrupé las fórmulas de masa, momentos y centro en un par de tablas.

(Versión 4) 21 de Febrero de 2014: Se cambió el formato del artı́culo.

3
4
Índice general

1. Nociones previas 7
1.1. Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Subconjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Igualdad de conjuntos . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . 8
1.5. Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6. Cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7. Relaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.9. Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 13

2. Ecuaciones diferenciales 1o parte 17


2.1. Ecuaciones Diferenciables . . . . . . . . . . . . . . . . . . . . 17
2.2. Grado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3. Soluciones de una EDO . . . . . . . . . . . . . . . . . . . . . . 18
2.4. Ecuaciones Diferenciales de Variables Separables . . . . . . . . 19
2.5. Ecuación Diferencial Ordinaria Lineal de 1o Orden . . . . . . . 20
2.6. Familias de curvas . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.1. Familias de curvas ortogonales . . . . . . . . . . . . . . 23

3. Nociones de Topologı́a 27
3.1. Espacio euclı́deo . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Entorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3. Clasificación topológica de puntos de Rn . . . . . . . . . . . . 28
3.4. Clasificación topológica de subconjuntos de Rn . . . . . . . . . 29
3.5. Conjunto acotado . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6. Conjunto conexo . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.1. Conjunto arco-conexo . . . . . . . . . . . . . . . . . . . 31

5
6 ÍNDICE GENERAL

3.6.2. Conjunto conexo por poligonales . . . . . . . . . . . . 32


3.6.3. Conjunto convexo . . . . . . . . . . . . . . . . . . . . . 32
3.6.4. Conjunto sı́mplemente conexo . . . . . . . . . . . . . . 32
3.7. Clasificación de funciones . . . . . . . . . . . . . . . . . . . . . 33
3.8. Conjuntos de nivel . . . . . . . . . . . . . . . . . . . . . . . . 34

4. Lı́mite y Continuidad 35
4.1. Lı́mite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.1. Como probar que un lı́mite no existe . . . . . . . . . . 36
4.1.2. Como probar que un lı́mite existe . . . . . . . . . . . . 37
4.2. Continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1. Propiedades de funciones contı́nuas . . . . . . . . . . . 38

5. Derivabilidad 41
5.1. Derivada de función vectorial . . . . . . . . . . . . . . . . . . 41
5.1.1. Interpretación geométrica . . . . . . . . . . . . . . . . 42
5.2. Derivadas parciales, direccionales, y respecto a un vector . . . 42
5.2.1. Propiedad de homogeneidad . . . . . . . . . . . . . . . 45
5.2.2. Derivadas parciales sucesivas . . . . . . . . . . . . . . . 46
5.2.3. Teorema de Schwarz . . . . . . . . . . . . . . . . . . . 46
5.2.4. Función clase C 1 . . . . . . . . . . . . . . . . . . . . . 47
5.3. Curvas y Superficies . . . . . . . . . . . . . . . . . . . . . . . 48

6. Diferenciabilidad 51
6.1. Definición de función diferenciable . . . . . . . . . . . . . . . . 53
6.2. Diferenciabilidad implica Derivabilidad . . . . . . . . . . . . . 54
6.3. Diferenciabilidad implica Continuidad . . . . . . . . . . . . . . 55
6.4. Gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.5. El gradiente es normal al conjunto de nivel . . . . . . . . . . . 57
6.6. Direcciones de derivada máxima, mı́nima y nula . . . . . . . . 58
6.7. C 1 implica diferenciable . . . . . . . . . . . . . . . . . . . . . 59

7. Funciones Compuestas e Implı́citas 61


7.1. Función Compuesta . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2. Regla de la Cadena . . . . . . . . . . . . . . . . . . . . . . . . 62
7.3. Función definida implı́citamente . . . . . . . . . . . . . . . . . 62
7.4. Teorema de Cauchy-Dini . . . . . . . . . . . . . . . . . . . . . 63
ÍNDICE GENERAL 7

8. Polinomio de Taylor y Extremos 65


8.1. Polinomio de Taylor . . . . . . . . . . . . . . . . . . . . . . . 65
8.2. Máximos y mı́nimos de una función . . . . . . . . . . . . . . . 67
8.2.1. Criterio de la derivada primera . . . . . . . . . . . . . 68
8.2.2. Criterio de la derivada segunda . . . . . . . . . . . . . 70
8.3. Extremos condicionados . . . . . . . . . . . . . . . . . . . . . 74

9. Integral de Lı́nea y Función Potencial 77


9.1. Integral de Riemann . . . . . . . . . . . . . . . . . . . . . . . 77
9.2. Curva regular a trozos, curva de jordan . . . . . . . . . . . . . 78
9.3. Integral de lı́nea . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.4. Campos conservativos . . . . . . . . . . . . . . . . . . . . . . 80
9.5. Teorema de la independencia del camino . . . . . . . . . . . . 80
9.6. Condición necesaria para la existencia de función potencial . . 82
9.7. Condición de suficiencia para la existencia de función potencial 83

10.Integrales Múltiples 85
10.1. Teorema de Fubini en R2 . . . . . . . . . . . . . . . . . . . . . 88
10.2. Teorema de cambio de variables . . . . . . . . . . . . . . . . . 89
10.3. Coordenadas cartesianas y polares en R2 . . . . . . . . . . . . 89
10.4. Coordenadas cartesianas, cilı́ndricas y esféricas en R3 . . . . . 91

11.Integrales de Superficie y Flujo 95


11.1. Definición para superficie paramétrica . . . . . . . . . . . . . . 95
11.2. Caso superficie gráfica de campo escalar . . . . . . . . . . . . 96
11.3. Caso superficie definida implı́citamente . . . . . . . . . . . . . 97

12.Cálculo de Masa, momentos, y centro 99

13.Teoremas de Green, Stokes y Gauss 103


13.1. Campos irrotacionales, solenoidales, y armónicos . . . . . . . . 104

14.Ecuaciones Diferenciales 2o parte 107


14.1. Ecuación diferencial ordinaria homogénea . . . . . . . . . . . . 107
14.2. Ecuación diferencial total exacta . . . . . . . . . . . . . . . . . 108
14.2.1. Convertible a exacta con factor integrante . . . . . . . 109
14.3. Ecuación diferencial lineal de 2o orden . . . . . . . . . . . . . 111
14.3.1. Resolución de la homogénea asociada . . . . . . . . . . 113
14.3.2. Como encontrar una solución particular . . . . . . . . . 115
8 ÍNDICE GENERAL

14.4. Lı́neas de campo . . . . . . . . . . . . . . . . . . . . . . . . . 119


Capı́tulo 1

Nociones previas

1.1. Conjuntos

Definición 1. Un conjunto1 es una colección de objetos. Un elemento


puede pertenecer o no a un conjunto.
Ejemplo 1. Algunos ejemplos de conjuntos son

1. A = {casa, arbol, vaca}

2. B = {x ∈ R : x ≤ 23}

3. C = {2, 4, 77}

4. D = {−1, 1}

El conjunto A se describió por extensión, mientras que el conjunto B por


comprensión.
Si un elemento pertenece a un conjunto se lo denota con ∈
Siguiendo con el ejemplo: casa ∈ A, 11 ∈ B.
1
Al definir un conjunto como una colección, tengo que definir que es una colección. En
realidad no vamos a definir un conjunto, sino que los vamos a manejar de manera intuitiva
como una agrupación de objetos.

9
10 CAPÍTULO 1. NOCIONES PREVIAS

1.2. Subconjuntos

Definición 2. Si todos los elementos de un conjunto B pertenecen también


a otro conjunto A, decimos que el primero es un subconjunto del segundo,
y denotamos dicha relación por B ⊆ A

Siguiendo con el ejemplo: D ⊆ B

1.3. Igualdad de conjuntos

Definición 3. Si A ⊆ B y B ⊆ A decimos que A = B.

1.4. Operaciones con conjuntos

Definición 4. La unión de dos conjuntos A y B, se denota A ∪ B, y es el


conjunto cuyos elementos pertenecen a A o a B o a ambos.
La intersección de dos conjuntos A y B, se denota A ∩ B, y es el conjunto
de elementos que pertenecen tanto a A como a B
La diferencia de dos conjuntos A y B, se denota A − B, y es el conjunto
de los elementos de A que no están en el conjunto B.
Si interpretamos un conjunto A como subconjunto de otro conjunto U dado
(universal), la diferencia U − A la denominamos complemento de A y lo
denotamos por Ac ,
Ejemplo 2. Algunos ejemplos de operaciones entre conjuntos

E =A∪B
F = B ∩ C = {2, 4}
B − C = {x ∈ R : (x ≤ 23) ∧ (x 6= 2) ∧ (x 6= 4)}
Considerando D ⊆ B tenemos Dc = {x ∈ R : x ≤ 23 ∧ x 6= −1 ∧ x 6=
1} = {x ∈ B : x 6= −1 ∧ x 6= 1}
1.5. PRODUCTO CARTESIANO 11

1.5. Producto cartesiano

Definición 5. Dados dos conjuntos A y B, el conjunto de todos los pares


ordenados (a, b) con a ∈ A y b ∈ B, se lo llama producto cartesiano de A
con B, y se lo denota A × B.

Siguiendo con el ejemplo:

A × D = {(casa, −1), (arbol, −1), (vaca, −1),


(casa, 1), (arbol, 1), (vaca, 1)}

1.6. Cardinal

Definición 6. Si un conjunto A tiene una cantidad finita de elementos, dec-


imos que es un conjunto finito, y llamamos cardinal a la cantidad de
elementos que posee. En caso contrario decimos que es un conjunto infini-
to.
Lo denotamos por |A| o por #A
Ejemplo 3. Siguiendo con nuestros ejemplos

|A| = 3
|C ∪ D| = 5
|B| = ∞
#R = ∞

1.7. Relaciones

Definición 7. Una relación entre un conjunto A y otro conjunto B es


sı́mplemente un subconjunto del producto cartesiano A × B. Si (x, y) ∈ R lo
denotamos xRy.
12 CAPÍTULO 1. NOCIONES PREVIAS

Ejemplo 4. Por ejemplo, una relación de A en D podrı́a ser:

R = {(casa, −1), (arbol, −1), (casa, 1)}

Definición 8. Una relación R de A en sı́ mismo se dice que es

reflexiva, si xRx para todo x ∈ A

simétrica, si xRy implica yRx para todos x, y ∈ A

antisimétrica, si xRy y yRx implica que y = x para todos x, y ∈ A

transitiva, si xRy y yRz implica que xRz para todos x, y, z ∈ A

Definición 9. Una relación R de A en sı́ mismo que es reflexiva, simétrica y


transitiva, se dice que es una relación de equivalencia, y se suele denotar
≡.
Si R es una relación de equivalencia en A, dado x ∈ A, el conjunto de los los
y ∈ A tales que xRy se llama la clase de equivalencia de x, y se denota

[x] = {y ∈ A : yRx}

Ejemplo 5. Por ejemplo, en Z, la relación xRy sii 3|y − x es una relación


de equivalencia. Bajo esta relación de equivalencia se tiene que 5 ≡ 11, pues
3|(11−5) = 6. Esta relación de equivalencia tiene tres clases de equivalencias

0 = {0 + 3k : k ∈ Z}
1 = {1 + 3k : k ∈ Z}
2 = {2 + 3k : k ∈ Z}

Uniendo todas las clases de equivalencias, obtenemos el conjunto completo

Z=0∪1∪2
1.8. FUNCIONES 13

Definición 10. Una relación R de A en sı́ mismo que es reflexiva, anti-


simétrica y transitiva, se dice que es una relación de orden, y se suele
denotar ≤.
Ejemplo 6. Por ejemplo en Z la relación xRy sii x|y (x divide a y) es una
relación de orden.
Definición 11. Si ≤ es una relación de orden en A, y si x, y ∈ A, entonces
decimos que x e y son comparables si se cumple que x ≤ y o bien que
y ≤ x. En caso contrario decimos que x e y son no comparables.
Ejemplo 7. Por ejemplo, si en Z tomamos la relación x ≤ y sii x|y, entonces
3 y 5 son elementos no comparables, pues 3 6 |5 y 5 6 |3.
Definición 12. Una relación de orden en la que x ≤ y o y ≤ x para todo
x, y ∈ A se dice que es una relación de orden total.

Es decir que un orden total es una relación de orden en la que todo par de
elementos es comparable.
Ejemplo 8. Por ejemplo, en R la relación xRy sii x ≤ y es una relación de
orden total.
Definición 13. Sea ≤ una relación de orden en A, y sea x ∈ A. Entonces

si y ≥ x implica que y = x, decimos que x es un elemento maximal


de A.

si y ≤ x implica que y = x, decimos que x es un elemento minimal


de A.

si x ≥ y para todo y ∈ A, decimos que x es el máximo de A.

si x ≤ y para todo y ∈ A, decimos que x es el mı́nimo de A.

1.8. Funciones

Definición 14. Una relación R entre A y B se dice que es una relación


funcional si cumple que
14 CAPÍTULO 1. NOCIONES PREVIAS

1. Para todo a ∈ A existe b ∈ B tal que (a, b) ∈ R. Es decir todo elemnto


del dominio se relaciona con uno del codominio.

2. Si (a, b) y (a, c) pertenecen a R, entonces b = c. Es decir que el elemento


con el que se relaciona es único.

Definición 15. Dados dos conjuntos A y B, y una relación funcional R


entre ellos, a la terna (A, B, R) se la llama función de A en B, y se la
denota f : A → B. Al conjunto A se lo llama dominio de la función, y al
conjunto B codominio.

En vez de escribir (a, b) ∈ R se suele escribir b = f (a).

Ejemplo 9. Siguiendo con los mismos conjuntos de los ejemplos anteriores,


podemos definir una función

f :A → B
f (casa) = −1
f (arbol) = 21
f (arbol) = 21
f (vaca) = 12

Definición 16. Se denomina conjunto imagen de la función f al conjunto

f (A) = {b ∈ B : ∃a ∈ A tal que f (a) = b}

Si X ⊆ A llamamos imagen de X por f al conjunto

f (X) = {b ∈ B : ∃x ∈ X tal que f (x) = b}

Si Y ⊆ B llamamos preimágen de Y por f al conjunto

f −1 (Y ) = {a ∈ A : f (a) ∈ Y }
1.9. ESTRUCTURAS ALGEBRAICAS 15

Observamos que en ningún momento en la definición de función se requiere


tener una expresión tipo fórmula para calcular los elementos de la imagen.
Comprender esto es importante para los temas de derivada de función defini-
da implı́citamente por una ecuación, y ecuaciones diferenciales, que vienen
luego en la materia.
Definición 17. Sean f : A → B y g : B → C dos funciones. Observar que
existe una única función h : A → C tal que h(x) = g(f (x)). Decimos que h
es la función compuesta de f con g y la denotamos h = g ◦ f .

1.9. Estructuras algebraicas

Definición 18. Un grupo es un conjunto G con una función · : G × G → G


tal que

1. Es asociativa, para todo a, b, c ∈ G se tiene (a · b) · c = a · (b · g)


2. Existe elemento neutro e ∈ G tal que e · g = g · e = g (para todo g ∈ G)
3. Existe elemento inverso g −1 ∈ G para cada g ∈ G de forma tal que
g · g −1 = g −1 · g = e

Si además cumple ser conmutativa, es decir que para todo a, b ∈ G se tiene


a · b = b · a, se dice que es un grupo abeliano o conmutativo y se suele usar
la notación aditiva (+ para la función, −a para el inverso).
Un monoide, es como la definición de grupo, pero sólo satisface 1. y 2. (no
requiere 3, es decir no requiere inversos)
Ejemplo 10. (Z, +) y (R − {0}, ·) son grupos conmutativos.
(R2×2 , ·) es un monoide (no conmutativo), donde R2×2 representa las matrices
de 2 × 2 con coeficientes reales, y · es la multiplicación de matrices.
Definición 19. Un anillo es un conjunto R con dos funciones + : R × R →
R y · : R × R → R, tales que

1. (R, +) es grupo conmutativo.


16 CAPÍTULO 1. NOCIONES PREVIAS

2. (R, ·) es un monoide.

3. La multiplicación se distribuye sobre la suma, es decir dados a, b, c ∈ R


se tiene a · (b + c) = ab + ac y (b + c) · a = ba + ca

Si además resulta que la multiplicación es conmutativa, se dice que es un


anillo conmutativo.

Ejemplo 11. Algunos ejemplos de anillos

1. (R2×2 , +, ·) es un anillo no conmutativo.

2. (Z, +, ·) es un anillo conmutativo.

Definición 20. Un cuerpo es un conjunto K con dos funciones + : K ×


K → K, y · : K × K → K tales que (K, +, ·) es un anillo conmutativo y
además (K − {0}, ·) es grupo conmutativo.

Ejemplo 12. Algunos ejemplos de cuerpos

(Q, +, ·)

(R, +, ·)

(C, +, ·)

Observar que (Z, +, ·) no es un cuerpo, en particular 2 no tiene inverso mul-


tiplicativo en Z.

Definición 21. Un espacio vectorial es un conjunto V y un cuerpo K


con una función + : V × V → V y una función · : K × V → V tal que

1. (V, +) es grupo conmutativo.

2. 1 · v = v para todo v ∈ V

3. a(bv) = (ab)v para todo a, b ∈ K y v ∈ V

4. k(v + w) = kv + kw para todo k ∈ K y v, w ∈ V


1.9. ESTRUCTURAS ALGEBRAICAS 17

5. (k + q)v = kv + qv para todo k, q ∈ K y v ∈ V

Ejemplo 13. V = (Rn , +, R, ·) es un espacio vectorial. Es el principal espa-


cio vectorial con el que trabajamos en esta materia.

Definición 22. Un espacio con producto interno es un espacio vectorial


V sobre el cuerpo K (que debe ser R o C) y con una función h−, −i : V ×V →
K tal que para todo u, u0 , v ∈ V y λ ∈ K se tiene

1. hu + u0 , vi = hu, vi + hu0 , vi

2. hλu, vi = λhu, vi

3. hu, vi = hv, ui

4. hv, vi > 0 si v 6= 0

Ejemplo 14. En Rn podemos definir el producto interno usual como

n
X
u·v = ui vi = u1 v1 + u2 v2 + . . . + un vn
i=1

donde u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) ∈ Rn .


También se lo conoce como producto punto, o producto escalar.
Luego Rn con el producto · forma un espacio con producto interno.
18 CAPÍTULO 1. NOCIONES PREVIAS
Capı́tulo 2

Ecuaciones diferenciales 1o
parte

2.1. Ecuaciones Diferenciables

Definición 23. Una ecuación diferencial (ED) es una ecuación en la que


intervienen una o más variables independientes, una variable dependiente y
sus derivadas hasta un cierto orden.
Se las clasifica como EDO o EDP de la siguiente forma:

Si interviene más de una variable independiente, se dice que es una


ecuación diferencial a derivadas parciales (EDP).

Si sólo interviene una variable independiente, se dice que es una ecuación


diferencial ordinaria (EDO).
En este curso sólo vamos a trabajar con ecuaciones diferenciales ordi-
narias. Las mismas pueden expresarse genéricamente como

F (x, y, y 0 , y 00 , . . . , y (n) ) = 0

Llamamos orden de una EDO al orden de la derivada de mayor orden


que interviene en la ecuación diferencial.

19
20 CAPÍTULO 2. ECUACIONES DIFERENCIALES 1o PARTE

Ejemplo 15. y 00 + 8xy 0 − 13y = 1 es una EDO de 2o orden.

2.2. Grado

Definición 24. Decimos que una EDO tiene forma polinómica si la pode-
mos expresar de la siguiente forma:

pn (x)(y (n) )an + . . . + p1 (x)(y 0 )a1 + p0 (x)y a0 = q(x)

donde an , . . . , a0 ∈ N
En dicho caso, el grado de la EDO es el del exponente de la derivada de
mayor orden.

Por ejemplo, (y 000 )2 + y 00 + (y 0 )3 = x tiene grado 2.

2.3. Soluciones de una EDO

Definición 25. Una solución de una EDO es una función que satisface dicha
ecuación.
Podemos clasificar tres grupos de soluciones

1. La solución general (SG) de una EDO, es una familia de funciones


que verifican la EDO y que posee tantas constantes arbitrarias como el
orden de la EDO.
Simbólicamente la podemos expresar como

F (x, y, c1 , . . . , cn ) = 0

2. Una solución particular (SP) es una función que verifica la EDO y


que se puede obtener asignando valores a las constantes arbitrarias de
la SG.
2.4. ECUACIONES DIFERENCIALES DE VARIABLES SEPARABLES21

3. Una solución singular (SS) es una función que verifica la EDO pero
no se deduce de la SG asignando valores a sus constantes.

Ejemplo 16. En el siguiente gráfico representamos las soluciones de la


ecuación diferencial xy 0 = y + x cos2 (y/x), y resaltamos en azul la solución
particular que satisface y(1) = π4

2.4. Ecuaciones Diferenciales de Variables Sep-


arables

Definición 26. Una EDO se dice que es de variables separables si me-


diante operaciones algebraicas se la puede llevar a la forma

p(x)
y0 =
q(y)

o, usando la notacion de Leibniz

q(y)dy = p(x)dx
22 CAPÍTULO 2. ECUACIONES DIFERENCIALES 1o PARTE

Para resolverla, es decir encontrar su SG, basta con integrar ambos miembros
(es decir hallar una primitiva), y agregar una constante arbitraria en un lado
de la igualdad.

Z Z
q(y)dy = p(x)dx + C

2.5. Ecuación Diferencial Ordinaria Lineal de


1o Orden

Definición 27. Una ecuación diferencial se dice que es una ecuación difer-
encial lineal de orden n si se puede expresar de la forma

y (n) + an−1 y n−1 + . . . + a1 (x)y 0 + a0 (x)y = g(x)

Si g(x) ≡ 0 es la función constante 0, se dice que la EDO es lineal ho-


mogénea.

Un caso particular es la ecuación diferencial lineal de 1o orden

Definición 28. Una ecuación diferencial se dice lineal de 1er orden se


puede expresar como

y 0 + p(x)y = q(x)

Proposición 2.5.1. Dada la ecuación diferencial lineal de 1o orden

y 0 + p(x)y = q(x)

Su solución general es

R
Z R R

y=e p(x)dx
q(x)e p(x)dx
dx + Ce− p(x)dx
2.5. ECUACIÓN DIFERENCIAL ORDINARIA LINEAL DE 1o ORDEN23

Demostración. Hay varios métodos de resolución para una EDO lineal de 1o


orden.
Uno fácil es el siguiente: empezamos por realizar la sustitución

y = uv

con lo cual nos queda

y 0 = u0 v + uv 0

reemplazamos

u0 v + uv 0 + p(x)uv = q(x)

Ahora sacar factor común v (o u, la relación es en principio simétrica)

v[u0 + p(x)u] + uv 0 = q(x)

Imponemos la condición de que lo que multiplica a v sea cero

u0 + p(x)u = 0

Nos queda una EDO en u de variables separables

Z Z
du
= −p(x)dx
u

Buscamos una SP de la misma (no hace falta la constante arbitraria), obten-


emos

R
u = e− p(x)dx

Ahora reemplazamos la SP de u encontrada en la EDO y nos queda


24 CAPÍTULO 2. ECUACIONES DIFERENCIALES 1o PARTE

R
e− p(x)dx 0
v = q(x)

Y nos quedó una EDO en v de variables separables, la resolvemos

Z Z R
p(x)dx
dv = q(x)e dx

Esta vez queremos la SG de v (por eso va la constante arbitraria)

Z R
p(x)dx
v= q(x)e dx + C

Finalmente reemplazamos u y v (no olvidar distribuir el paréntesis)

y = uv

R
Z R R

y=e p(x)dx
q(x)e p(x)dx
dx + Ce− p(x)dx

Como se podrá imaginar, no es sencillo recordar dichar fórmula, es por eso


que se aconseja en cambio recordar el método de resolución, es decir recordar
sustituir y = uv y hacer los mismos pasos.

2.6. Familias de curvas

Definición 29. Dada una ecuación en la que interviene una variable inde-
pendiente, una variable dependiente, y n constantes arbitrarias c1 , . . . , cn ∈
R, llamamos familia de curvas (de orden n) a las curvas que se obtienen
de asignarle valores a las constantes arbitrarias.
Simbólicamente la podemos expresar una familia de curvas de la forma
2.6. FAMILIAS DE CURVAS 25

F (x, y, c1 , . . . , cn ) = 0

Cuando encontramos la SG de una EDO E de orden n, la misma viene ex-


presada por una familia de curvas F de orden n.
Las funciones que son solución, quedan expresadas por una ecuación que
define a y implı́citamente en función de x.
No siempre es posible o conveniente explicitar dichas funciones.
Recı́procamente, dada una familia de curvas F de orden n, podemos buscar
una EDO E de orden n tal que dicha familia sea su SG.

2.6.1. Familias de curvas ortogonales

Definición 30. Sean C1 y C2 en R2 dos curvas que se cortan en A = (x0 , y0 ),


es decir tal que A ∈ C1 ∩ C2 . Decimos que C1 y C2 son curvas ortogonales
en A si admiten vector tangente en dicho punto, y los mismos son ortogo-
nales (o equivaléntemente, si admiten rectas tangentes en dicho punto, y las
mismas son ortogonales).
Es decir, si g1 : [a, b] → R2 y g2 : [c, d] → R2 son parametrizaciones regulares
de C1 y C2 respectivamente, tal que g1 (t1 ) = g2 (t2 ) = A, entonces g10 (t1 ) ·
g20 (t2 ) = 0
Dos familias de curvas F1 y F2 se dicen familias de curvas ortogonales,
si para toda C1 ∈ F1 , C2 ∈ F2 , resultan ser curvas ortogonales para todo
punto de intersección A ∈ C1 ∩ C2 .

Los siguientes gráficos representan familias de curvas ortogonales.


26 CAPÍTULO 2. ECUACIONES DIFERENCIALES 1o PARTE

Proposición 2.6.1. Dos familias de curvas F1 , F2 son ortogonales sii sus


respectivas ecuaciones diferenciales E1 , E2 están relacionadas por la ecuación

−1
y20 =
y10
2.6. FAMILIAS DE CURVAS 27

Demostración. (Enfoque Cartesiano)


Sabemos que si tenemos dos rectas que pasan por (x0 , y0 ) de ecuaciones
y1 − y0 = m1 (x − x0 )
y2 − y0 = m2 (x − x0 )
entonces las mismas son ortogonales sii m2 = −1/m1 .
Sean las curvas C1 ∈ F1 , C2 ∈ F2 de ecuación
y1 = y1 (x)
y2 = y2 (x)
Las mismas admiten recta tangente en (x0 , y0 )
y = y1 (x0 ) + m1 (x − x0 )
|{z}
y10 (x0 )

y = y2 (x0 ) + m2 (x − x0 )
|{z}
y20 (x0 )

y luego las mismas son ortogonales sii se cumple


y20 (x0 ) = − y0 (x
1
0)
1

Demostración. (Enfoque paramétrico)


Dadas las curvas C1 ∈ F1 , C2 ∈ F2 de ecuaciones
y = y1 (x)
y = y2 (x)
Las podemos parametrizar como
g1 (t) = (t, y1 (t))
g2 (t) = (t, y2 (t))
Luego podemos encontrar vectores tangentes a cada una derivando
28 CAPÍTULO 2. ECUACIONES DIFERENCIALES 1o PARTE

g10 (t) = (1, y10 (t))


g20 (t) = (1, y20 (t))
y estos son ortogonales sii su producto escalar es cero
g10 (t) · g20 (t) = 0
(1, y10 (t)) · (1, y20 (t)) = 0
1 + y10 (t)y20 (t) = 0
Finalmente,
y20 (t) = − y01(t)
1
Capı́tulo 3

Nociones de Topologı́a

3.1. Espacio euclı́deo

Definición 31. Llamamos espacio euclı́deo, a un espacio vectorial sobre


R con un producto interno.

Definición 32. Definimos el producto interno usual de Rn (o producto


escalar) de la siguiente manera: dados v, w ∈ Rn , su producto interno usual
es

~v · w
~ = v1 w1 + v2 w2 + . . . + vn wn

El espacio euclı́deo en el que vamos a trabajar en esta materia es Rn con el


producto interno usual. De ahora en más cada vez que se mencione Rn lo
vamos a pensar como un espacio euclı́deo.
El producto interno nos permite definir las nociones de norma de un vector,
distancia entre dos vectores, y ángulo entre dos vectores, como mostramos a
continuación

Definición 33. Dado v ∈ Rn , definimos su norma como

√ q
||~v || = ~v · ~v = v12 + v22 + . . . vn2

29
30 CAPÍTULO 3. NOCIONES DE TOPOLOGÍA

y dados v, w ∈ Rn , definimos su distancia como

p
d(v, w) = ||w − v|| = (w1 − v1 )2 + (w2 − v2 )2 + . . . + (wn − vn )2

y su ángulo como

~v · w
~
cos(φ) =
||~v || ||w||
~

3.2. Entorno

Definición 34. Dados x ∈ Rn y r > 0


Llamamos entorno (o entorno abierto) de centro x0 y radio r al conjunto

E(x, r) = {y ∈ Rn : d(x, y) < r}

Llamamos entorno cerrado de centro x0 y radio r al conjunto

E[x, r] = {y ∈ Rn : d(x, y) ≤ r}

Llamamos entorno reducido de centro x y radio r a

E 0 (x, r) = E(x, r) − {x}

3.3. Clasificación topológica de puntos de Rn

Definición 35. Sea A ⊆ Rn , y x ∈ Rn , entonces decimos que x respecto de


A es

Punto interior: Si existe E(x, δ) ⊆ A.


3.4. CLASIFICACIÓN TOPOLÓGICA DE SUBCONJUNTOS DE RN 31

Punto exterior: Si existe E(x, δ) ⊆ Rn −A. Equivaléntemente E(x, δ)∩


A = ∅.
Punto frontera: Si no es punto interior ni exterior. Es decir que para
todo δ > 0 se tiene E(x, δ) ∩ A 6= ∅ y E(x, δ) ∩ (Rn − A) 6= ∅
Punto clausura (o adherencia): Si existe un entorno tal que E(x, r)∩
A 6= ∅
Punto de acumulación (o punto lı́mite): Si para todo entorno del
punto, E(x, r) ∩ (A − {x}) 6= ∅.
Equivaléntemente, si para todo entorno reducido del punto, E 0 (x, r) ∩
A 6= ∅
Punto aislado: Si existe un entorno tal que E(x, r) ∩ A = {x}

Definición 36. Sea A ⊆ Rn . Entonces definimos


El interior de A como el conjunto de sus puntos interiores, lo denotamos
A◦
La clausura de A como el conjunto de sus puntos de clausura, lo denotamos
A
El conjunto derivado de A como el conjunto de todos sus puntos de acu-
mulación, lo denotamos A0
Observación 3.3.1. Dado A ⊆ Rn , se cumple que A◦ ⊆ A ⊆ A.

3.4. Clasificación topológica de subconjuntos


de Rn

Definición 37. Sea A ⊆ Rn , decimos que A es un conjunto

Abierto: Si A = A◦ . Es decir si todos los puntos del conjunto son


interiores.
Cerrado: Si A = A. Es decir si todos los puntos de clausura pertenecen
al conjunto. Equivaléntemente
32 CAPÍTULO 3. NOCIONES DE TOPOLOGÍA

• El conjunto contiene a todos sus puntos frontera.


• El conjunto contiene a todos sus puntos de acumulación.
• El complemento del conjunto es abierto.

Observación 3.4.1. Un conjunto puede no ser ni abierto ni cerrado. Por


ejemplo [0, 1) ⊂ R.
Además un conjunto puede ser abierto y cerrado a la vez. Por ejemplo ∅ y
Rn .

3.5. Conjunto acotado

Definición 38. Un conjunto A ⊆ Rn se dice que es un conjunto acotado si


el mismo está contenido en algún entorno del origen, es decir si A ⊆ E(0, r)
para algún r > 0.

3.6. Conjunto conexo

Intuitivamente, un conjunto conexo es aquel formado por una sola ’pieza’,


que no se puede ’dividir’.
Definición 39. Una escisión de un conjunto X ⊆ Rn son dos conjuntos
disjuntos abiertos A, B tales que X ⊆ A ∪ B. Decimos que la misma es no
trivial si A ∩ X 6= ∅ y B ∩ X 6= ∅.
Un conjunto X ⊆ Rn es un conjunto conexo si no admite escisiones no
triviales.
En caso contrario decimos que es disconexo.
Ejemplo 17. Para ejemplificar esta parte vamos a utilizar estos tres con-
juntos

A = Rn

B = S 1 = {(x, y) ∈ R2 : x2 + y 2 = 1}
3.6. CONJUNTO CONEXO 33

C = D2 (4, 4) = {(x, y) ∈ R2 : (x − 4)2 + (y − 4)2 ≤ 1}

Los tres conjuntos A, B y C son conjuntos conexos.


En cambio D = B ∪ C es disconexo, pues si X = E((0, 0), 2)) y Y =
E((4, 4), 2) se tiene X e Y abiertos, y disjuntos, D ⊆ X ∪ Y , X ∩ D 6= ∅,
Y ∩ D 6= ∅, luego se trata de una escisión no trivial y el conjunto D es
disconexo.

3.6.1. Conjunto arco-conexo

Definición 40. Si a, b ∈ Rn , un camino de a a b es una función α : [0, 1] →


Rn contı́nua, tal que α(0) = a y α(1) = b

Por ejemplo, si a, b ∈ Rn el camino recto entre a y b es la función α :


[0, 1] → Rn tal que

α(t) = ta + (1 − t)b

La imagen de dicho camino es el segmento de recta

[a, b] = {ta + (1 − t)b : t ∈ [0, 1]}

Definición 41. Un conjunto A ⊆ Rn se dice que es un conjunto arco-


conexo si para todos los a, b ∈ A existe un camino α que une a con b dentro
del conjunto, es decir tal que α([0, 1]) ⊆ A.

Ejemplo 18. Siguiendo con el ejemplo, los conjuntos A, B, C son todos arco-
conexos.

Observación 3.6.1. Todo conjunto arco-conexo es conexo, pero no vale la


vuelta, es decir hay conjuntos conexos que no son arco-conexos.

Definición 42. Si α es un camino de a a b, y β es un camino de b a c,


definimos la yuxtaposición de α y β como el camino α ∧ β : [0, 1] → Rn de
a a c definido por
34 CAPÍTULO 3. NOCIONES DE TOPOLOGÍA

(
α(t) t ∈ [0, 12 ]
(α ∧ β)(t) =
β(2t − 1) t ∈ [ 21 , 1]

3.6.2. Conjunto conexo por poligonales

Definición 43. Una poligonal π es la yuxtaposición de una cantidad k ∈ N


finita de caminos rectos πi : [xi−1 , xi ] → Rn con 1 ≤ i ≤ k.
Definición 44. Un conjunto A ⊆ Rn se dice que es un conjunto conexo
por poligonales si para todo a, b ∈ A existe una poligonal π que comienza
en a, termina en b, y está contenida en A.
Observación 3.6.2. Una poligonal es un caso particular de un camino. Por
lo tanto si un conjunto es conexo por poligonales, entonces también es arco-
conexo, pero no vale la vuelta.
Ejemplo 19. En los ejemplos, los conjuntos A y C son conexos por polig-
onales, aunque el conjunto B (que es arco-conexo) no es conexo por poligo-
nales.

3.6.3. Conjunto convexo

Definición 45. Un conjunto A ⊆ Rn se dice que es un conjunto convexo


si para todo a, b ∈ A el camino recto que los une no se sale del conjunto, es
decir [a, b] ⊆ A.
Observación 3.6.3. Un camino recto es un caso particular de una poligonal,
por lo tanto un conjunto convexo también es conexo por poligonales.

3.6.4. Conjunto sı́mplemente conexo

Esta es la noción más compleja de conexidad que vemos. Intuitivamente,


un conjunto es sı́mplemente conexo si toda curva cerrada simple (curva de
Jordan) se puede ”deformar contı́nuamente”hasta llegar a un punto. En R2
esto serı́a equivalente a decir que el conjunto no tiene agüjeros.
3.7. CLASIFICACIÓN DE FUNCIONES 35

Más formalmente, si denotamos S 1 al cı́rculo unitario de R2 y D2 al disco


unitario de R2 , es decir

S 1 = {(x, y) ∈ R2 : x2 + y 2 = 1}

D2 = {(x, y) ∈ R2 : x2 + y 2 ≤ 1}

entonces se tiene la siguiente

Definición 46. Un conjunto X es un conjunto sı́mplemente conexo


si es arco-conexo, y además toda función contı́nua f : S 1 → X se puede
extender a una función contı́nua F : D2 → X tal que F restringida a S 1 es
f , y tal que la imágen de F no se sale del conjunto, es decir F (D2 ) ⊆ X.

3.7. Clasificación de funciones

Definición 47. Sea f una función de la forma f : A ⊆ Rn → Rm .


Entonces

Si n = m = 1 decimos que f es una función escalar.

Si n = 1 y m > 1 decimos que f es una función vectorial.

Si n > 1 y m = 1 decimos que f es un campo escalar.

Si n > 1 y m > 1 decimos que f es un campo vectorial.

Tiene sentido decir que las funciones más generales que estudiamos son los
campos vectoriales, y que las otras son casos particulares, y que la función
escalar es la que se estudió en Análisis 1. En esta materia generalizamos a más
de una dimensión tanto en el dominio como el codominio de las funciones.
36 CAPÍTULO 3. NOCIONES DE TOPOLOGÍA

3.8. Conjuntos de nivel

Definición 48. Sea f : A ⊆ Rn → R un campo escalar, y sea k ∈ R


El conjunto de nivel k de f es la preimágen de k por f , es decir

Ck (f ) = f −1 (k) = {x ∈ A : f (x) = k}

Análogamente, definimos el conjunto de positividad

Definición 49. Sea f : A ⊆ Rn → R un campo escalar.


El conjunto de positividad de f es la preimagen del conjunto de todos
los reales positivos, es decir

C + (f ) = f −1 ((0, +∞)) = {x ∈ A : f (x) > 0}


Capı́tulo 4

Lı́mite y Continuidad

4.1. Lı́mite

Definición 50. Dado el campo vectorial f : A ⊂ Rn → Rm y x0 punto de


acumulación de A, si existe l ∈ Rm tal que para todo entorno E(l, ) existe
un entorno reducido E ∗ (x0 , δ), tal que f (E ∗ (x0 , δ) ∩ A) ⊂ E(L, ), entonces
decimos que el lı́mite de f cuando x tiende a x0 es l, y lo denotamos
escribiendo

lı́m f (~x) = l
x→x~0
~

Observación 4.1.1. La definición anterior es equivalente a la definición


clásica de lı́mite, que expresa que existe lı́mite l ∈ Rm si para todo  > 0
existe un δ > 0 tal que para todo x ∈ A, si

0 < ||x − x0 || < δ


entonces
||f (x) − l|| < 

Esta definición nos interesa sólo a nivel teórico, pues en la práctica los ejerci-
cios de lı́mites los podemos resolver usando las propiedades de las funciones
contı́nuas.

37
38 CAPÍTULO 4. LÍMITE Y CONTINUIDAD

Para funciones vectoriales y campos vectoriales es útil el siguiente teorema:


Teorema 4.1.2. Sea f : A ⊆ Rn → Rm con funciones coordenadas f =
(f1 , . . . , fm ) y x0 ∈ A0 , entonces el lı́mite lı́mx→x0 f (x) existe si y sólo si
existen todos los lı́mites lı́mx→x0 fi (x) = li con 1 ≤ i ≤ m, y en dicho caso el
lı́mite de f es lı́mx→x0 f (x) = (l1 , . . . , lm )

4.1.1. Como probar que un lı́mite no existe

Primero necesitamos esta


Definición 51. Sea A ⊆ Rn y sea x ∈ A0 . Un camino que pasa por x0
es un subconjunto B ⊆ A tal que x0 ∈ B 0 (es decir el punto x0 es punto de
acumulación también de B).

Dada una función f , para probar que no existe el lı́mite cuando x tiende a
x0 , suele resultar muy útil la siguiente
Proposición 4.1.3. Sea f : A ∈ Rn → R, si existe el lı́mite lı́mx→x0 f (x) = l
y si B ⊆ A es un camino que pasa por x0 , y si g : B ∈ Rn → R es la
restricción de f a B, entonces también existe lı́mx→x0 g(x) = l.

Esto nos da un criterio para determinar cuando un lı́mite no existe: podemos


probar por distintos caminos, y si por alguno de ellos el lı́mite no existe, o
por dos de ellos existen pero dan valores distintos, entonces el lı́mite de la
función original no existe, ya que de otra forma deberı́a existir y ser iguales.
Observación 4.1.4. Aunque pruebe por 727 caminos y todos coincidan en
el lı́mite, esto no alcanza para asegurar que el lı́mite de la función original
exista. Es decir dicha condición es necesaria pero no suficiente. Siempre po-
drı́a haber otro camino por el cual el lı́mite de distinto o no exista. Por lo
tanto este criterio sirve para probar que un lı́mite no existe, pero no sirve
para probar que un lı́mite exista.
Claro, a no ser que tome por camino a todo A, o a B(x0 , r) ∩ A por ejemplo.

Otra herramienta para determinar cuando un lı́mite no existe son los lı́mites
laterales: si estos no coinciden el lı́mite de la función original no existe.
4.1. LÍMITE 39
2 4
Ejemplo: Sea f (x, y) = sin(x +y )
x2 +y 2
. Analizar la existencia de lı́mite de f en
(0, 0).
h 2 +y 4 )
i
lı́mx→0 lı́my→0 sin(x
2
x +y 2

2
= lı́mx→0 sin(x
x2
)
= 1 = Lyx
h 2 +y 4 )
i
lı́my→0 lı́mx→0 sin(x
x2 +y 2

sin(y 4 )
= lı́my→0 y2

4y 3 cos(y 4 )
= lı́my→0 2y

4y 2 cos(y 4 )
= lı́my→0 2
= 0 = Lxy
Como Lyx 6= Lxy no existe el lı́mite pedido.

4.1.2. Como probar que un lı́mite existe

Una forma que funciona a veces es utilizar el siguiente teorema, familiar desde
Análisis 1
Proposición 4.1.5. Sean f, g, h : A ⊆ Rn → R, y x0 ∈ A0 .
Si f = g·h con g acotada, es decir g(A) un conjunto acotado, y h infinitésimo,
es decir lı́mx→x0 h(x) = 0 entonces el lı́mite de f cuando x → x0 existe y es
cero, es decir lı́mx→x0 f (x) = 0

También es útil la siguiente


Proposición 4.1.6. Supongamos que existen los lı́mites lı́mx→x0 g(x) = l1 y
lı́mx→x0 h(x) = l2 .
Entonces si f = g ± h, se tiene que lı́mx→x0 f (x) = l1 ± l2 .
Y si f = g · h, se tiene que lı́mx→x0 f (x) = l1 · l2 .

Otra técnica que puede servir es la de relizar un cambio de varibles que


2 +y 2 )
reduzca la cantidad de variables. Por ejemplo, si f (x, y) = sin(x
x2 +y 2
, entonces
40 CAPÍTULO 4. LÍMITE Y CONTINUIDAD

el lı́m(x,y)→(0,0) f (x, y) = 0, pues realizando la sustitución u = x2 + y 2 se tiene


que cuando (x, y) → (0, 0) entonces u → 0 (pues x2 + y 2 es contı́nua), y por
lo tanto el lı́mite pedido equivale a lı́mu→0 sin(u)
u
=1

4.2. Continuidad

Definición 52. Dado un campo vectorial f : A ⊂ Rn → Rm , y un punto


x0 ∈ A, decimos que f es contı́nua en x0 si para todo E(f (x0 ), ) existe un
E(x0 , δ) tal que f (E(x0 , δ) ∩ A) ⊆ E(f (x0 ), )
Observación 4.2.1. La definición anterior es equivalente a la definición
clásica de continuidad: Para todo  > 0 existe un δ > 0 tal que para todo
x ∈ A, si

||x − x0 || < δ
entonces
||f (x) − f (x0 )|| < 
Observación 4.2.2. También es equivalente a la siguiente definición: Si x0
es punto aislado, entonces f es contı́nua en x0 (basta tomar el δ que hace
que el punto sea aislado).
De lo contrario, x0 es un punto de acumulación de A, en este caso f es
contı́nua en x0 sii se cumplen las siguientes

1. Existe f (x0 ) (en realidad esto ya lo estamos pidiendo cuando decimos


x0 ∈ A)

2. Existe ∃ lı́m f (x) = l


x→x0

3. f (x0 ) = l

4.2.1. Propiedades de funciones contı́nuas

Las siguientes funciones son contı́nuas en todo su dominio


4.2. CONTINUIDAD 41

Funciones polinómicas, de cualquier cantidad de variables. Ejemplo:


x2 + 3xy + z 3 es una función contı́nua en R3

La función exponencial f (x) = ex es contı́nua en R

Las funciones trigonométricas sin(x) y cos(x) son contı́nuas en R

Proposición 4.2.3. Supongamos que las funciones g, h : A ⊆ Rn → Rm son


contı́nuas en x0 ∈ A.
Entonces son contı́nuas en x0 las siguientes funciones

f =g±h

Si además m = 1, es decir se trata de campos escalares, tiene sentido multi-


plicarlos, y es contı́nua la función

f =g·h

y también tiene sentido dividirlos en los puntos donde no se anula el denom-


inador, y en dichos puntos el cociente es una función contı́nua, es decir en
los puntos donde h(x0 ) 6= 0 es contı́nua la función

f = g/h

Para analizar la continuidad de una función vectorial o de un campo vectorial,


suele ser útil la siguiente
Observación 4.2.4. Si f : A ⊆ Rn → Rm tiene funciones coordenadas
f = (f1 , f2 , . . . , fm ) entonces f es contı́nua en x0 si y solo sı́ cada componente
fi es contı́nua en x0 para todo 1 ≤ i ≤ m.

También resulta muy útil el siguiente


Teorema 4.2.5. Si f : A ⊆ Rn → Rm es contı́nua en x0 y g : B ⊆ Rm → Rp
es contı́nua en y0 = f (x0 ), y si existe la función compuesta h = g ◦ f (es
decir f (A) ⊆ B), entonces h es contı́nua en x0 .
42 CAPÍTULO 4. LÍMITE Y CONTINUIDAD
Capı́tulo 5

Derivabilidad

5.1. Derivada de función vectorial

Definición 53. Dada la función vectorial f : A ⊂ R → Rn y t0 ∈ A◦ ,


entonces la derivada de f en t0 se define como

f (t0 + h) − f (t0 )
f 0 (t0 ) = lı́m
h→0 h

si dicho lı́mite existe. Sinó, se dice que f no es derivable en dicho punto.

Si es derivable en todo el dominio tiene sentido definir la función derivada


f 0 (t) que a cada punto t0 le asigna la derivada de la función f . Cuando deci-
mos que f es derivable, sin aclarar el punto, nos referimos a que es derivable
en todo su dominio.
Para calcular la derivada suele ser útil la siguiente

Observación 5.1.1. Si f (t) = (f1 (t), f2 (t), . . . , fn (t)) entonces f es deriv-


able si y sólo si todas sus funciones coordenadas fi son derivables, y en ese
caso el valor de la derivada viene dada por g 0 (t) = (g10 (t), g20 (t), . . . , gn0 (t))

43
44 CAPÍTULO 5. DERIVABILIDAD

5.1.1. Interpretación geométrica

Si f : [a, b] → Rn es la parametrización de una curva C, y si además f es


derivable en t0 , entonces f 0 (t0 ) es un vector tangente a dicha curva en el
punto f (t0 ).

En este caso tiene sentido la siguiente


Definición 54. Sea f : [a, b] → Rn parametrización de una curva C, y
derivable en t0 . Entonces la recta tangente a C en x0 = f (t0 ) es de
ecuación paramétrica

x = f (t0 ) + λf 0 (t0 )

con λ ∈ R.
Además el plano normal a C en x0 es de ecuación cartesiana

(x − f (x0 )) · f 0 (t0 ) = 0

5.2. Derivadas parciales, direccionales, y re-


specto a un vector

Definición 55. Sea f : A ⊆ Rn → Rm y x0 ∈ A◦ , y sea v ∈ Rn . Entonces


definimos la derivada de f en x0 respecto al vector v como
5.2. DERIVADAS PARCIALES, DIRECCIONALES, Y RESPECTO A UN VECTOR45

f (x0 + hv) − f (x0 )


fv0 (x0 ) = lı́m
h→0 h
si dicho lı́mite existe.
Si además v es un versor, es decir si ||v|| = 1, decimos que dicho lı́mite es
la derivada direccional de f respecto a la dirección v.
Si además v es un versor canónico de Rn , es decir si
(
1 i=j
v = ei = δij = ,
0 i 6= j
decimos que dicho lı́mite es la derivada parcial de f respecto a xi
Otras notaciones equivalente son
fv0 (x0 ) = f 0 (x0 , v) = Dv f (x0 ) = ∂f
∂v
(x0 )
p
Ejemplo 20. Dada f (x, y) = 3 − x2 − y 2 . Calculemos las derivadas par-
ciales de f en (1, 0)
Cuando queremos hacer una derivada parcial, y pensamos las demás vari-
ables como constantes, si podemos aplicar la regla de la cadena de Análisis 1
(verificar hipótesis), decimos que estamos aplicando la regla práctica. En
este caso

−2x
fx0 (x, y) = p
2 3 − x2 − y 2

−2y
fy0 (x, y) = p
2 3 − x2 − y 2

Luego

−1 −1
fx0 (1, 0) = √ =√
3−1 2

−0
fy0 (1, 0) = √ =0
3−1
46 CAPÍTULO 5. DERIVABILIDAD

Podemos interpretar la derivadas direccional respecto a v como la pendiente


de una recta tangente a la gráfica de z = f (x, y) en la dirección de v.
En el siguiente gráfico se representa la gráfica de z = f (x, y), y su recta
tangente en (1, 0, f (1, 0)) en la dirección de y. Vemos que la recta resulta ser
horizontal, lo que concuerda con que fy0 (1, 0) = 0 es decir que tiene pendiente
nula.

Definición 56. Dada f : A ⊆ Rn → Rm ,


Decimos que f es derivable respecto a v ∈ Rn , sin aclarar el punto, si lo
es para todo x ∈ Rn .
Decimos que f es derivable en x0 ∈ A◦ , sin aclarar el vector, si lo es
respecto a todo v ∈ Rn .
Decimos que f es derivable, sin aclarar ni el punto ni el vector, si lo es
para todo x ∈ A◦ y respecto a todo v ∈ Rn .

El siguiente teorema es útil para derivar funciones vectoriales o campos vec-


toriales coordenada a coordenada.

Teorema 5.2.1. Sea f : A ⊆ Rn → Rm con x0 ∈ A◦ y v ∈ Rn , tal que


f = (f1 , . . . , fm ). Entonces f es derivable en x0 respecto a v si y sólo sı́ cada
función coordenada es derivable en x0 respecto a v, y en dicho caso se tiene
fv0 (x0 ) = (f1v0 0
(x0 ), f2v 0
(x0 ), . . . , fmv (x0 )).
5.2. DERIVADAS PARCIALES, DIRECCIONALES, Y RESPECTO A UN VECTOR47

5.2.1. Propiedad de homogeneidad

Llamamos propiedad de homogeneidad de la derivada a la siguiente proposi-


ción

Proposición 5.2.2. Si existe la derivada direccional f 0 (x0 , v) y k ∈ R, k 6= 0,


entonces

f 0 (x0 , kv) = kf 0 (x0 , v)

Demostración. Por definición

f (x0 + hkv) − f (x0 )


f 0 (x0 , kv) = lı́m
h→0 h

multiplico y divido por k 6= 0

f (x0 + hkv) − f (x0 )


= k lı́m
h→0 hk

Sustituyo u = hk y cuando h → 0 se tiene que u → 0, luego

f (x0 + uv) − f (x0 )


= k lı́m
u→0 u

Finalmente

= kf 0 (x0 , v)

De la propiedad de homogeneidad se desprende fácilmente el siguiente

Corolario 5.2.3. Sea f derivable en x0 , entonces

f 0 (x0 , −v) = −f 0 (x0 , v)


48 CAPÍTULO 5. DERIVABILIDAD

f 0 (x0 , v) = ||v||f 0 (x0 , v̂) (donde v̂ = v


||v||
)

Demostración. Para el primero basta tomar k = −1. Para el segundo k =


||v||.

5.2.2. Derivadas parciales sucesivas

Definición 57. Sea f : A ⊆ Rn → Rm . Supongamos esta función es


derivable respecto a xi , entonces podemos definir la función derivada par-
cial fx0 i : A → Rn . Supongamos ahora que esta nueva función es derivable
respecto a xj . Podemos definir entonces la función derivada segunda parcial

fx00i xj : A → Rm

A la misma también la llamamos la derivada sucesiva respecto a xi xj .


Análogamente, si f es k veces derivable, podemos definir la función derivada
sucesiva respecto a xi1 xi2 . . . xik

fx(k)
i1 xi2 ...xi
: A → Rm
k

Si están definidas las funciones derivadas sucesivas fx00i xj y fx00j xi , decimos que
estas son derivadas sucesivas mixtas.
Análogamente, si f es k veces derivable, y φ : {1, 2, . . . , k} → {1, 2, . . . , k} es
(k) (k)
una permutación, decimos que fxi1 xi2 ...xik y fxiφ(1) xiφ(2) ...xiφ(k) son derivadas
sucesivas mixtas de orden k.

5.2.3. Teorema de Schwarz

En palabras sencillas, lo que dice el teorema de Schwarz es que bajo ciertas


condiciones, no importa en que orden derivemos va a dar lo mismo. Es decir
5.2. DERIVADAS PARCIALES, DIRECCIONALES, Y RESPECTO A UN VECTOR49

que bajo esas condiciones nos garantiza que las derivadas sucesivas mixtas
son iguales.

Teorema 5.2.4. Sea el campo escalar f : A ⊂ Rn → R, si existen fx00i xj , fx00j xi


y son contı́nuas en un entorno del punto x0 ∈ A◦ entonces

fx00i xj (x0 ) = fx00j xi (x0 )

es decir las derivadas sucesivas mixtas son iguales.

No es fácil encontrar ejemplos de funciones cuyas derivadas sucesivas mixtas


no sean iguales.
En 1873 el matemático H.A. Schwarz produjo el siguiente ejemplo

(
x2 arctan(y/x) − y 2 arctan(x/y) x 6= 0, y 6= 0
f (x, y) =
0 en otro caso

Para esta función en (0, 0) se tiene que

00 00
fxy (0, 0) = −1 6= fyx (0, 0) = +1

5.2.4. Función clase C 1

Definición 58. Si f : A ⊂ Rn → Rm con A abierto, es tal que posee todas


sus derivadas parciales y son contı́nuas en A, entonces decimos que f es de
clase C 1 y lo denotamos

f ∈ C1

Del mismo modo si tiene todas sus derivadas parciales segundas y son contı́nuas
decimos que f ∈ C 2 .
Análogamente se dice que f ∈ C k si sus derivadas parciales de orden k existen
y son contı́nuas en el abierto A.
50 CAPÍTULO 5. DERIVABILIDAD

Observación 5.2.5. Si f : A ⊂ Rn → R, f ∈ C 2 , para cualquier x ∈ A


se cumplen las hipótesis del teorema 5.2.4 (de Schwarz), es decir fx00i xj (x) =
fx00j xi (x).

Más generalmente, si f ∈ C k , y φ : {1, 2, . . . , k} → {1, 2, . . . , k} es una


permutación, entonces

fx(k)
i1 xi2 ...xi
= fx(k)
i x ...xiφ(k)
k φ(1) iφ(2)

Es decir las derivadas sucesivas mixtas de orden k son iguales.

5.3. Curvas y Superficies

Definición 59. Un subconjunto C ⊆ Rn decimos que es una curva si existe


una función vectorial contı́nua g : [0, 1] → Rn , tal que g([0, 1]) = C. A la
función g se la llama parametrización de la curva.
Sea g(t) la parametrización de una curva, si además g ∈ C 1 y existe g 0 (t0 ) 6= ~0
decimos que x0 = g(t0 ) es un punto regular de la curva C. Si todos los
puntos x0 ∈ C de la curva son puntos regulares, decimos que C es una curva
regular.
Un subconjunto Σ de R3 decimos que es una superficie si existe un campo
vectorial contı́nuo g : A ⊂ R2 → R3 , con A conexo, tal que g(A) = S. A la
función g se le dice la parametrización de la superficie Σ.
Sea g(u, v) la parametrización de una superficie, si además g ∈ C 1 y existe
gu0 (u0 , v0 ) ∧ gv0 (u0 , v0 ) 6= 0 decimos que x0 = g(u0 , v0 ) es un punto regular
de la superficie Σ. Si todos los puntos x0 ∈ Σ de la superficie son regulares,
decimos que Σ es una superficie regular.

Ejemplo 21. La cicloide es la curva que se genera al hacer girar una circun-
ferencia de radio a > 0 sobre el eje de las x, como se ilustra en la siguiente
imagen.
5.3. CURVAS Y SUPERFICIES 51

Dicha curva puede parametrizarse por

g : R → R2
g(t) = a(t − sin(t), 1 − cos(t))

la cual es derivable en todo su dominio, su derivada es

g 0 (t) = a(1 − cos(t), sin(t))

Calculemos algunos puntos de la curva

X0 = g(0) = (0, 0)
X1 = g(π/2) = a(π/2 − 1, 1)
X2 = g(π) = a(π, 2)
X3 = g(2π) = a(2π, 0)

Veamos cuales de ellos son regulares

g 0 (0) = a(0, 0)
g 0 (π/2) = a(1, 1)
g 0 (π) = a(2, 0)
g 0 (2π) = a(0, 0)
52 CAPÍTULO 5. DERIVABILIDAD

Por lo tanto los puntos X1 y X2 son regulares, y los puntos X0 y X3 no lo son


(se dice que son singulares). Además en X2 el vector tangente es horizontal,
de hecho la recta tangente en dicho punto es la recta horizontal de ecuación
y = 2a
Capı́tulo 6

Diferenciabilidad

En Análisis 1, si una función era derivable en un punto, entonces también


era contı́nua en él.
En Análisis 2, nuestra definición de función derivable en un punto, para
funciones de más de una variable, es tal que puede ser derivable en un punto
(en toda dirección y sentido), y aún ası́ no ser contı́nua en él.
Hay muchos ejemplos donde esto ocurre, veamos uno sencillo:
(
x2 /y y 6= 0
Dada f (x, y) = , veamos si es derivable en (0, 0). Sea v = (a, b),
0 y=0
luego

f ((0, 0) + h(a, b)) − f (0, 0)


lı́m
h→0 h

f (ha, hb) − f (0, 0)


lı́m
h→0 h

Si b = 0

0−0
lı́m =0
h→0 h

53
54 CAPÍTULO 6. DIFERENCIABILIDAD

Si b 6= 0

 
h2 a2
hb
−0 a2
lı́m =
h→0 h b

Luego la función es derivable en (0, 0) y sus derivadas valen

(
a2
0 b
b 6= 0
f ((0, 0), (a, b)) =
0 b=0

Pero esta función no es contı́nua en (0, 0) pues f (0, 0) = 0, pero si nos


restringimos al camino y = x2 tenemos

x2
lı́m f (x, y) = lı́m = 1 6= 0
x→0 y=x 2 x→0 x2

Por lo tanto la función no es contı́nua en (0, 0).


La idea de esta sección es generalizar la idea de derivada de Análisis 1 en
un nuevo concepto que vamos a llamar diferenciabilidad, de forma tal que
este nuevo concepto implique continuidad, ası́ como lo hacı́a el concepto de
derivabilidad en una variable.
Primero recordemos la definición de función derivable en un punto de Análisis
1.

Definición 60. Una función escalar f : A ⊂ R → R es derivable en x0 ∈ A◦


si existe el siguiente lı́mite

f (x0 + h) − f (x0 )
f 0 (x0 ) = lı́m
h→0 h

Pero esto equivale a pedir

f (x0 + h) − f (x0 ) − hf 0 (x0 )


lı́m =0
h→0 h
6.1. DEFINICIÓN DE FUNCIÓN DIFERENCIABLE 55

O sea es derivable sii existe una función escalar µ : A → R tal que

f (x0 + h) − f (x0 ) − f 0 (x0 )h = hµ(h)

con

lı́m µ(h) = 0
h→0

Por otro lado, la expresión f 0 (x0 )h es una transformación lineal T : R → R,


h → T (h).
Por lo tanto podemos decir que f es derivable sii existe una transformación
lineal T : R → R y un campo escalar µ : A → R tales que

f (x0 + h) − f (x0 ) = T (h) + hµ(h)

con

lı́m µ(h) = 0
h→0

Ahora sı́ estamos en condiciones de definir función diferenciable en un punto:

6.1. Definición de función diferenciable

Definición 61. Un campo vectorial f : A ⊆ Rn → Rm se dice que es una


función diferenciable en x0 ∈ A◦ si existe una trasnformación lineal
T : Rn → Rm y un campo vectorial µ : B(x0 , δ) ∩ A → Rm tales que

f (x0 + h) − f (x0 ) = T (h) + ||h||µ(h)

con

lı́m µ(h) = 0
h→0
56 CAPÍTULO 6. DIFERENCIABILIDAD

A la transformación lineal asociada T la llamamos el diferencial de f en


x0 .

Esta definición tiene concecuencias importantes. Veremos algunas de ellas en


las siguientes secciones.

6.2. Diferenciabilidad implica Derivabilidad

Teorema 6.2.1. Sea el campo vectorial f : A ⊂ Rn → Rm diferenciable en


x0 , entonces f es derivable en x0 , y además las derivadas valen

f 0 (x0 , v̂) = Df (x0 ) · v̂

Demostración. Como f es diferenciable en x0 existen una transformación


lineal T : Rn → Rm y un campo vectorial µ : Rn → Rm tales que
f (x0 + h) − f (x0 ) = T (h) + ||h||µ(h)
Considerando h = kv̂
f (x0 + kv̂) − f (x0 ) = T (kv̂) + ||kv̂||µ(kv̂)
f (x0 + kv̂) − f (x0 ) = kT (v̂) + |k|µ(kv̂)
dividiendo por k y tomando lı́mite k → 0
f (x0 + kv̂) − f (x0 ) |k|
lı́m = lı́m T (v̂) + µ(kv̂)
k→0 k k→0 k
|k|
Y como T (v̂) no depende de k, y como k
es acotada y µ → 0, se tiene
f 0 (x0 , v̂) = T (v̂)

Corolario 6.2.2. Sea un campo vectorial f : A ⊂ Rn → Rm diferenciable en


x0 ∈ A◦ , y sea T una transformación lineal que cumple lo pedido, entonces
dicha transformación lineal es única, y además

T (eˆi ) = f 0 (x~0 , eˆi )


6.3. DIFERENCIABILIDAD IMPLICA CONTINUIDAD 57

Demostración. Por el teorema anterior f 0 (x~0 , v̂) = T (v̂). Haciendo v = ei


tenemos f 0 (x~0 , eˆi ) = T (eˆi ).
Para ver que la transformación lineal es única, como {ei }1≤i≤n es una base
de Rn , cualquier vector n
Pn x ∈ R lo puedo escribir en forma única como com-
n m
binación lineal x = i=1 λi eP i , luego si T : R → R es una transformación
n
lineal debe
P cumplir T (x) = i=1 λi T (ei ), y por lo visto recién debe cumplir
T (x) = ni=1 λi f 0 (x0 , ei ), con lo cual quedó complétamente determinada, es
decir la transformación lineal es única.

Definición 62. Sea f : A ⊆ Rn → Rm diferenciable en x0 ∈ A◦ , de la forma


f = (f1 , f2 , . . . , fm ), y sea T : Rn → Rm el diferencial de f en x0 .
Sea [T ] la matriz asociada a la transformación lineal T respecto a las bases
canónicas de Rn y Rm . La misma se expresa poniendo en sus columnas los
transformados de la base canónica, es decir las derivadas parciales de f en
x0 , es decir que

0 0 0
 
f1,e 1
f 1,e 2
. . . f1,en
0
 f2,e 0 0
f2,e . . . f2,e 
[T ] = 
 1 2 n 
... 
0 0 0
fm,e1 fm,e2 . . . fm,en

Al diferencial T de f en x0 lo vamos a denotar también df . Y a la matriz


[T ] asociada al diferencial la vamos a llamar la matriz jacobiana de f en
x0 , y la denotamos Df .

6.3. Diferenciabilidad implica Continuidad

Teorema 6.3.1. Sea el campo vectorial f : A ⊂ Rn → Rm diferenciable en


x0 ∈ A◦ , entonces f es contı́nuo en x0 .

Demostración. Como f es diferenciable en x0 existen una (única) transfor-


mación lineal T : Rn → Rm y un campo vectorial µ : A → Rm tales que
58 CAPÍTULO 6. DIFERENCIABILIDAD

f (x0 + h) − f (x0 ) = T (h) + ||h||µ(h)

Tomando lı́mite h → 0

lı́m f (x0 + h) − f (x0 ) = lı́m T (h) + ||h|| µ(~h)


h→0 h→0 | {z } |{z} |{z}
→0 →0 →0

O sea

lı́m f (x0 + h) − f (x0 ) = 0


h→0

lı́m f (x0 + h) = f (x0 )


h→0

Sustituyendo x = x0 + h queda h = x − x0 , y cuando h → 0 se tiene x → x0 ,


reemplazando:

lı́m f (x) = f (x0 )


x→x0

lo cual nos dice que el lı́mite existe y es igual al valor de la función en el


punto, o sea que f es contı́nua en x0 .

6.4. Gradiente

Definición 63. Sea el campo escalar f : A ⊂ Rn → Rm , y x0 ∈ A◦ , si existen


las derivadas parciales de f en x0 , definimos el vector gradiente ∇f (x0 )
de f en x0 como el vector cuyas coordenadas son las derivadas parciales de
f en x0 , es decir como

∇f (x0 ) = (fe01 (x0 ), fe02 (x0 ), . . . , fe0n (x0 ))


6.5. EL GRADIENTE ES NORMAL AL CONJUNTO DE NIVEL 59

Observación 6.4.1. Sea el campo escalar f : A ⊂ Rn → Rm , diferenciable


en x0 ∈ A◦ , y sea v ∈ Rn . El teorema 6.2.1 nos dice en este caso que

fv0 (x0 ) = ∇f (x0 ) · v

6.5. El gradiente es normal al conjunto de


nivel

Observación 6.5.1. Sea el campo escalar f : A ⊂ Rn → R diferenciable en


x0 ∈ A◦ , y sea k ∈ R, entonces ∇f (x0 ) es perpendicular al conjunto de nivel
k de f .

Demostración. El conjunto de nivel k de f son los x ∈ A tales que

f (x) = k

Sea g : [a, b] → Rn la parametrización de una curva incluı́da en el conjunto


de nivel, es decir que g([a, b]) ⊆ Ck (f ), tal que g(t0 ) = x0 y g 0 (t0 ) 6= 0.
Entonces podemos componer g con f y obtenemos

f (g(t)) = k

Aplicando el teorema 7.2.1 (la regla de la cadena, que vamos a ver después)
se tiene

∇f (g(t)) · g 0 (t) = 0

Es decir que ∇f (x0 ) · g 0 (t0 ) = 0, o sea que f (x0 ) ⊥ g 0 (t0 ).


Pero g 0 (t0 ) es un vector director de la recta tangente una curva que está in-
cluı́da en el conjunto de nivel, es decir es paralelo al conjunto de nivel, y por
lo tanto el gradiente es normal al conjunto de nivel.
60 CAPÍTULO 6. DIFERENCIABILIDAD

6.6. Direcciones de derivada máxima, mı́ni-


ma y nula

Proposición 6.6.1. Sea f : A ⊂ Rn → R es diferenciable en x0 y ∇f (x0 ) 6=


0. Entonces:

Existe una única dirección de máxima derivada direccional y es rmax =


∇f (x0 )
||∇f (x0 )||
. El valor de dicha derivada es ||∇f (x0 )||.
Existe una única dirección de mı́nima derivada direccional y es rmin =
−rmax . El valor de dicha derivada es −||∇f (x0 )||.
Si además n = 2, entonces existen exactamente dos direcciones de
derivada direccional nula, y si ∇f (x0 ) = (a, b) entonces las mismas
(−b,a)
son r1 = ||(−b,a)|| y r2 = −r1

Demostración. Como f es diferenciable en x0 , por la observación 6.4.1 sabe-


mos que f es derivable en x0 y

fv0 (x0 ) = ∇f (x0 ) · v

Pero

∇f (x0 ) · v = ||∇f (x0 )|| ||v|| cos(φ)


| {z } |{z} | {z }
cte =1 ∈[−1,1]

donde φ es el ángulo entre ∇f (x0 ) y v.


Para que dicha derivada sea máxima se requiere cos(φ) = 1, por lo tanto el
valor máximo que toma es ||∇f (x0 )||, y esto ocurre cuando el ángulo es 0, es
∇f (x0 )
decir cuando v = rmax = ||∇f (x0 )||

Por la propiedad de homogeneidad, la mı́nima derivada direccional es −||∇f (x0 )||


y ocurre en la dirección v = rmin = −rmax
Finalmente, supongamos que n = 2, y buscamos las direcciones de derivada
direccional nula, es decir tales que
6.7. C 1 IMPLICA DIFERENCIABLE 61

fv0 (x0 ) = 0 = ∇f (x0 ) · v

Es decir estamos buscando los versores normales a ∇f (x0 ).


Dado el vector ∇f (x0 ) = (a, b), una forma fácil de encontrar un vector normal
es intercambiar las coordenadas y cambiarle el signo a una. Luego dividimos
por la norma y obtuvimos un versor normal. El otro es sı́mplemente el opuesto
aditivo. Es decir las direcciones de derivada direccional nula son

(−b, a)
vnul1 =
||(a, b)||

vnul2 = −vnul1

6.7. C 1 implica diferenciable

Teorema 6.7.1. Sea el campo escalar f : A ⊂ Rn → Rm con A abierto. Si


f ∈ C 1 , entonces f es diferenciable en todo x ∈ A.

Observación 6.7.2. Una función f puede ser diferenciable y aún ası́ f 6∈ C 1 .

Por ejemplo, la siguiente función es diferenciable en R, pero su derivada f 0 (x)


no es contı́nua en el origen.

(
x2 sin( x1 ) si x 6= 0
f (x) =
0 si x = 0
62 CAPÍTULO 6. DIFERENCIABILIDAD
Capı́tulo 7

Funciones Compuestas e
Implı́citas

7.1. Función Compuesta

Definición 64. Sean f : A ⊂ Rn → Rm y g : B ⊂ Rm → Rp tales que


f (A) ⊆ B.
Entonces existe una única la función h : A → Rp tal que h(x) = g(f (x)).
A dicha función h la llamamos la función compuesta de f con g, y la
denotamos como

h=g◦f

Notar que esta definición es un poco más general que la definición 17, por
cuanto no se pide que el codominio de la primera sea igual al dominio de la
segunda, sólo que la imagen de la primera esté incluı́do en el dominio de la
segunda.
Al mismo tiempo es más particular que aquella definición, pues la primera
se refiere funciones entre conjuntos en general, mientras que la segunda es
entre subconjuntos de Rn .

63
64 CAPÍTULO 7. FUNCIONES COMPUESTAS E IMPLÍCITAS

7.2. Regla de la Cadena

Teorema 7.2.1. Sean f : A ⊂ Rn → Rm diferenciable en x0 ∈ A◦ , y


g : B ⊂ Rm → Rp diferenciable en y0 = f (x0 ) ∈ B ◦ , tales que f (A) ⊆ B
Entonces la función compuesta h : A → Rp es diferenciable en x0 , y además
el diferencial de h en x0 es igual a la composición de los diferenciales de f
en x0 con el de g en y0 , de la siguiente manera

dh(x0 ) = dg(y0 ) ◦ df (x0 )

O lo mismo expresado matricialmente, la matriz jacobiana de la compuesta


es igual al producto de las matrices jacobianas de la siguiente manera

Dh(x0 ) = Dg(y0 ) · Df (x0 )

7.3. Función definida implı́citamente

Definición 65. Dada una función F : A ⊆ Rn+1 → R, decimos que la


ecuación F (x1 , x2 , . . . , xn , y) = 0 define implı́citamente a y como fun-
ción de x1 , . . . , xn en B si existe una función f : B ⊆ Rn → R tal que
F (x1 , . . . , xn , f (x1 , . . . , xn )) = 0, para B ⊆ Ay donde Ay es la proyección de
A sobre x1 , . . . , xn

Ejemplo: F : R3 → R, F (x, y, z) = x2 + y 2 − z. La ecuación correspondiente


es x2 + y 2 − z = 0. Como existe f : R2 → R, f (x, y) = x2 + y 2 tal que
F (x, y, f (x, y)) = 0, la ecuación define implı́citamente a z como función de
x, y.
Otro ejemplo: F : R3 → R, F (x, y, z) = x2 + y 2 + z 2 − 1. La ecuación
correspondiente es x2 + y 2 + z 2 = 1.
2 2 2 2
Sea D2 = {(x, py) ∈ R : x + y ≤ 1}. Como existe f : D2 ⊆ R →
R, f (x, y) = 1 − x2 + y 2 tal que F (x, y, f (x, y)) = 0, la ecuación define
implı́citamente a z como función de x, y.
7.4. TEOREMA DE CAUCHY-DINI 65

Notar que globálmente la relación entre x, y y z no es funcional, pues por


ejemplo tanto el (0, 0, 1) como el (0, 0, −1) satisfacen la ecuación, pero f (0, 0)
debe tener una única imagen. En particular, la función definida implı́cita-
mente no tiene porqué ser única, otra funciónpdefinida implı́citamente por la
misma ecuación es g : D2 → R2 , g(x, y) = − 1 − x2 − y 2

7.4. Teorema de Cauchy-Dini

Teorema 7.4.1. Teorema de Cauchy-Dini Sea F : A ⊆ Rn+1 → R con A


abierto y F ∈ C 1 , y sea la ecuación F (x1 , . . . , xn , y) = 0.
Sea además P = (a1 , . . . , an , y0 ) ∈ A, tal que F (P ) = 0, y Fy0 (P ) 6= 0.
Entones la ecuación define implı́citamente a y como función de x1 , . . . , xn
en un entorno de Py = (a1 , . . . , an ), y resulta que f es diferenciable en Py , y
además

Fx0 i (P )
fx0 i (Py ) = −
Fy0 (P )

Este teorema nos garantiza bajo ciertas condiciones la existencia de una fun-
ción definida implı́citamente, es decir que exista f : Ay ∩ E(Py , δ) ⊂ Rn → R
tal que F (x1 , . . . , xn , f (x1 , . . . , xn )) = 0
En particular, esto nos permite el gradiente ∇f (Py ) de la siguiente manera

Fx0 1 (P ) Fx0 2 (P ) Fx0 n (P )


 
∇f (Py ) = − 0 ,− 0 ,...,− 0
Fy (P ) Fy (P ) Fy (P )

1 0 0 0

=− Fx (P ), Fx (P ), . . . , F x (P )
Fy0 (P ) 1 2 n
66 CAPÍTULO 7. FUNCIONES COMPUESTAS E IMPLÍCITAS
Capı́tulo 8

Polinomio de Taylor y
Extremos

8.1. Polinomio de Taylor

Sea f : A ⊆ R2 → R, f ∈ C 2 , (x0 , y0 ) ∈ A.
Sabemos que el diferencial de f en cada punto (x0 , y0 ) ∈ A es de la forma

df(x0 ,y0 ) (x − x0 , y − y0 ) = fx0 (x0 , y0 )(x − x0 ) + fy0 (x0 , y0 )(y − y0 )

O escribiendo (u, v) = (x − x0 , y − y0 )

df(x0 ,y0 ) (u, v) = fx0 (x0 , y0 )u + fy0 (x0 , y0 )v

En cada punto (x, y) su diferencial es

df(x,y) (u, v) = fx0 (x, y)u + fy0 (x, y)v

Ahora definimos el diferencial segundo de f en (x, y), como el diferencial del


diferencial, es decir

67
68 CAPÍTULO 8. POLINOMIO DE TAYLOR Y EXTREMOS

d2 f(x,y) (u, v) = d(df(x,y) (u, v)) = d(fx0 (x, y)u + fy0 (x, y)v)
00 00 00 00
= fxx (x, y)u2 + fxy (x, y)uv + fyx (x, y)vu + fyy (x, y)v 2
00 00 00
= fxx (x, y)u2 + 2fxy (x, y)uv + fyy (x, y)v 2

donde en el último paso usamos el teorema 5.2.4 (de Schwarz).


Con esta notación vamos a definir entonces el polinomio de Taylor

Definición 66. Sea f : A ⊆ R2 → R, f ∈ C 2 , (x0 , y0 ) ∈ A.


El polinomio de Taylor de primer grado de f en (x0 , y0 ) es

T1 (u, v) = f (x0 , y0 ) + df(x0 ,y0 ) (u, v)


= f (x0 , y0 ) + fx0 (x0 , y0 )u + fy0 (x0 , y0 )v

Y el polinomio de Taylor de segundo grado de f en (x0 , y0 ) es

1 2
T2 (u, v) = f (x0 , y0 ) + df(x0 ,y0 ) (u, v) + d f(x0 ,y0 ) (u, v)
2!
= f (x0 , y0 ) + fx0 (x0 , y0 )u + fy0 (x0 , y0 )v +
1  00 00 00
fxx (x0 , y0 )u2 + 2fxy (x0 , y0 )v 2

+ (x0 , y0 )uv + fyy
2!

Más generalmente, si f : A ⊆ Rn → R, f ∈ C k , x0 ∈ A, y llamando


u = x − x0 , el polinomio de Taylor de f de grado k en x0 es

1 2 1
Tk (u) = f (x0 ) + dfx0 (u) + d fx0 (u) + . . . + dk fx0 (u)
2! k!

El polinomio de Taylor sirve para aproximar la función en un entorno del


punto donde fué calculada. Es decir si f ∈ C k y Tk (u) es el polinomio de
grado k de f en x0 , entonces
8.2. MÁXIMOS Y MÍNIMOS DE UNA FUNCIÓN 69

f (x) ≈ Tk (x − x0 )

para x cerca de x0 .

8.2. Máximos y mı́nimos de una función

Sabemos que R es un conjunto totalmente ordenado (ver definición 12), y


por lo tanto cualquier subconjunto B ⊆ R también hereda un orden total.
Tiene sentido entonces para B ⊆ R preguntar si tiene un máximo o un
mı́nimo.
Por ejemplo, si A = (0, 1], entonces A tiene un máximo y es el elemento
1 ∈ A, pero no tiene ningún mı́nimo.
Definición 67. Sea f : A ⊆ Rn → R un campo escalar, y sea Y = Im(f ) ⊆
R el conjunto imagen de f .
Si Y tiene un máximo, decimos que es el máximo absoluto de f .
Si Y tiene un mı́nimo, decimos que es el mı́nimo absoluto de f .
Definición 68. Sea f : A ⊆ Rn → R un campo escalar, x0 ∈ A, E =
E(x0 , δ) un entorno de x0 de radio δ > 0, y g = f |E , es decir la función f
restringida al entorno E, y sea YE = Im(g) la imagen de la función ası́ re-
stringida.
Si YE tiene un máximo, decimos que es un máximo relativo de f relativo
a x0 .
Si YE tiene un mı́nimo, decimos que es un mı́nimo relativo de f relativo
a x0 .
Definición 69. Llamamos extremos a los máximos y mı́nimos (absolutos
y relativos) de f .
Observación 8.2.1. Las definiciones anteriores las podemos expresar tam-
bién de la siguiente manera.
Sea el campo escalar f : A ⊂ Rn → R, y x0 ∈ A, entonces:
70 CAPÍTULO 8. POLINOMIO DE TAYLOR Y EXTREMOS

f (x0 ) es el máximo absoluto de f si f (x) ≤ f (x0 ) para todo x ∈ A


f (x0 ) es el mı́nimo absoluto de f si f (x) ≥ f (x0 ) para todo x ∈ A
f (x0 ) es máximo relativo de f relativo a x0 si f (x) ≤ f (x0 ) para todo
x ∈ A ∩ E(x0 , δ) para algún δ > 0
f (x0 ) es mı́nimo relativo de f relativo a x0 si f (x) ≥ f (x0 ) para todo
x ∈ A ∩ E(x0 , δ) para algún δ > 0

Observación 8.2.2. Todos los extremos se definieron en sentido amplio.


La definición en sentido estricto es análoga pero cambiando ≤ por < y ≥
por >, y analizando A−{x0 } para extremos absolutos, y (A−{x0 })∩E(x0 , δ)
para extremos relativos.

8.2.1. Criterio de la derivada primera

Antes de enunciar el criterio, vamos a necesitar esta

Definición 70. Sea f : A ⊂ Rn → R. Un punto crı́tico de f es un elemen-


to x0 ∈ A tal que o bien f no es diferenciable en x0 , o bien es diferenciable
en x0 pero ∇f (x0 ) = 0.
Si x0 es punto crı́tico, pero f (x0 ) no es extremo, decimos que (x0 , f (x0 )) es
punto silla.

Ahora si enunciamos el criterio de la derivada primera

Teorema 8.2.3. Criterio de la derivada primera


Sea f : A ⊂ Rn → R, f ∈ C 1 , entonces una condición necesaria para que
f (x0 ) sea extremo, es que x0 sea punto crı́tico.

Es decir que el criterio de la derivada primera nos dice que si x0 ∈ A es punto


crı́tico, entonces o bien f (x0 ) es extremo, o bien (x0 , f (x0 )) es punto silla.

Demostración. Sea g(t) = x0 + tv para un versor v ∈ Rn , y considero la


composición
8.2. MÁXIMOS Y MÍNIMOS DE UNA FUNCIÓN 71

h(t) = f (g(t))

Como g(0) = x0 y f presenta un extremo en x0 , entonces h presenta un


extremo en 0.
Además como f es diferenciable en x0 y g es diferenciable en 0, entonces por
la regla de la cadena h es diferenciable en 0 y

h0 (0) = ∇f (g(0))g 0 (0)

Y por el criterio de la derivada primera (de Análisis 1) sabemos que debe


cumplirse

h0 (0) = 0

O sea que

∇f (g(0)) · g 0 (0) = 0

Pero g 0 (0) = v, luego nos queda

∇f (x0 ) · v = 0

y como f es diferenciable en x0

∇f (x0 ) · v = fv0 (x0 ) = 0

En particular tomando v un versor canónico de Rn vemos que todas las


derivadas parciales son nulas, y por lo tanto ∇f (x0 ) = 0 como querı́amos
probar.
72 CAPÍTULO 8. POLINOMIO DE TAYLOR Y EXTREMOS

8.2.2. Criterio de la derivada segunda

Antes de enunciar el criterio de la derivada segunda nos va a ser útil la


siguiente

Definición 71. Sea f : A ⊂ Rn → R, f ∈ C 2 .


La matriz Hessiana es la matriz jacobiana del gradiente de f . Es decir:

fx001 x1 fx001 x2 . . . fx001 xn


 
 fx00 x fx00 x . . . fx00 x 
Hf = 
 ...
2 1 2 2 2 n

00 00 00
fxn x1 fxn x2 . . . fxn xn
Observación 8.2.4. Por el teorema 5.2.4 (de Schwarz), la matriz Hessiana
debe ser simétrica.

Teorema 8.2.5. Sea M ∈ Rn×n una matriz cuadrada y simétrica.


Entonces M tiene autovalores λ1 , λ2 , . . . , λn ∈ R, es decir tiene todos sus
autovalores y son reales.

Definición 72. Sea M ∈ Rn×n una matriz cuadrada y simétrica con coefi-
cientes reales.
Sabemos por el teorema 8.2.5 que todos sus autovalores λ1 , . . . , λn son reales.
Decimos que M es una matriz definida positiva, si todos sus autovalores
son positivos, es decir λi > 0 para 1 ≤ i ≤ n.
Decimos que M es una matriz semidefinida positiva, si todos sus auto-
valores son no negativos, es decir λi ≥ 0 para 1 ≤ i ≤ n.
Decimos que M es una matriz definida negativa, si todos sus autovalores
son negativos, es decir λi < 0 para 1 ≤ i ≤ n.
Decimos que M es una matriz semidefinida negativa, si todos sus au-
tovalores son no positivos, es decir λi ≤ 0 para 1 ≤ i ≤ n.
Decimos que M es una matriz no definida, si no es definida positiva, ni
semidefinida positiva, ni definida negativa, ni semidefinida negativa. Es decir
si tiene autovalores tanto positivos como negativos.
8.2. MÁXIMOS Y MÍNIMOS DE UNA FUNCIÓN 73

Teorema 8.2.6. Criterio de Sylvester


Sea M ∈ Rn×n una matriz cuadrada y simétrica.
Sean las n submatrices Mp = (aij )1≤i,j≤p con 1 ≤ p ≤ n.
A sus determinantes det(Mp ) con 1 ≤ p ≤ n se los conoce somo sus menores
principales.
El criterio de Sylvester dice que

M es definida positiva sii todos sus menores principales son positivos,


es decir det(Mp ) > 0 para 1 ≤ p ≤ n

M es definida negativa sii sus menores principales son de la forma


det(M1 ) < 0, det(M2 ) > 0, det(M3 ) < 0, . . ., es decir (−1)p det(Mp ) > 0
para 1 ≤ p ≤ n. Es decir van intercambiando signo empezando por
negativo.

No lo encontré en la bibliografı́a, y no estoy seguro de si será cierto, pero se


me ocurre que a lo mejor también es cierto lo siguiente:

M es semidefinida positiva sii todos sus menores principales son no


negativos, es decir det(Mp ) ≥ 0 para 1 ≤ p ≤ n

M es semidefinida negativa sii sus menores principales son de la forma


det(M1 ) ≤ 0, det(M2 ) ≥ 0, det(M3 ) ≤ 0, . . ., es decir (−1)p det(Mp ) ≥ 0
para 1 ≤ p ≤ n.

M es no definida sii tiene menores principales tanto positivos como


negativos.

Ahora si enunciamos el criterio de la derivada segunda


Teorema 8.2.7. Criterio de la derivada segunda
Sea f : A ⊂ Rn → R, f ∈ C 2 y x0 ∈ A punto crı́tico. Entonces si la
matriz hessiana de f en x0 es definida positiva (Ver 72), la función presenta
un mı́nimo relativo f (x0 ), y si es definida negativa, la función presenta un
máximo relativo f (x0 ).
74 CAPÍTULO 8. POLINOMIO DE TAYLOR Y EXTREMOS

Si la matriz está semidefinida (positiva o negativa), el criterio no decide.


Si la matriz no está definida, no hay extremo, es decir que (x0 , f (x0 )) es
punto silla.

Combinando el criterio 8.2.6 de Sylvester con el criterio 8.2.7 de la derivada


segunda, podemos construir el criterio del Hessiano
Teorema 8.2.8. Criterio del Hessiano
Sea f : A ⊂ Rn → R, f ∈ C 2 y x0 ∈ A punto crı́tico.
Sean las n submatrices Mp = (aij )1≤i,j≤p con 1 ≤ p ≤ n, y sean det(Mp ) sus
menores principales.
Entonces

Si det(Mp ) > 0 para 1 ≤ p ≤ n, f (x0 ) es mı́nimo relativo.


Si (−1)p det(Mp ) > 0 para 1 ≤ p ≤ n, f (x0 ) es máximo relativo.
Si algún det(Mp ) = 0, el criterio no decide.
En cualquier otro caso, el punto (x0 , f (x0 )) es un punto silla.
Ejemplo 22. Veamos el caso particular n = 3. Sea f : A ⊆ R3 → R, f ∈ C 2
y x0 ∈ A punto crı́tico de f . Queremos saber si f (x0 ) es extremo relativo.
Sea Hf (x0 ) la matriz hessiana de f en x0

00 00 00
 
fxx (x0 ) fxy (x0 ) fxz (x0 )
00 00 00
Hf (x0 ) = fyx (x0 ) fyy (x0 ) fyz (x0 )
00 00 00
fzx (x0 ) fzy (x0 ) fzz (x0 )

Calculamos los menores principales de f , es decir los siguientes determi-


nantes (se entiende, todas las funciones evaluadas en x0 )

00
H1 = fxx

00
00
fxx fxy
H2 = 00
00
fyx fyy
8.2. MÁXIMOS Y MÍNIMOS DE UNA FUNCIÓN 75

00 00 00

fxx fxy fxz
00 00

00
H3 = fyx fyy fyz
f 00 f 00 f 00
zx zy zz

Entonces si H1 , H2 , H3 > 0 la matriz está definida positiva, y por lo tanto


f (x0 ) es mı́nimo relativo.
Y si H1 < 0, H2 > 0, H3 < 0 la matriz está definida negativa, y por lo tanto
f (x0 ) es máximo relativo.
Si algún Hi = 0, el criterio no decide. En cualquier otro caso el punto
(x0 , f (x0 )) es punto silla.

Ejemplo 23. Ahora veamos el caso particular n = 2. Sea f : A ⊆ R2 → R,


f ∈ C 2 y x0 ∈ A punto crı́tico de f . Queremos saber si f (x0 ) es extremo
relativo. Sea Hf (x0 ) la matriz hessiana de f en x0

 00 00

fxx (x0 ) fxy (x0 )
Hf (x0 ) = 00 00
fyx (x0 ) fyy (x0 )

00
Los menores principales de f son H1 = fxx (x0 ) y H2 = det(Hf (x0 )).

Si det(Hf (x0 )) > 0 hay extremo, pues el producto de los dos autovalores
es positivo, es decir que son ambos positivos o ambos negativos.
00 00
En este caso si fxx (x0 ) > 0, f (x0 ) es mı́nimo relativo, y si fxx (x0 ) < 0,
f (x0 ) es máximo relativo.
00 00 00
El caso fxx (x0 ) = 0 no puede darse, pues si det(H(f x0 )) = fxx fyy −
00 2 00 00 00 2 00
(fxy ) > 0, entonces fxx fyy > (f xy) > 0, lo cual implica que fxx 6= 0

Si det(Hf (x0 )) < 0 entonces (x0 , f (x0 )) es punto silla, pues el producto
de los dos autovalores es negativo, es decir que son de signo contrario.

Si det(Hf (x0 )) = 0 entonces el criterio no decide, habrá que averiguar


de otra forma si se produce extremo o punto silla.
76 CAPÍTULO 8. POLINOMIO DE TAYLOR Y EXTREMOS

8.3. Extremos condicionados

Supongamos que queremos maximizar un campo escalar f (x, y), sujeto a una
restricción g(x, y) = 0.
Un método consiste, cuando es posible, en despejar x o y (o alguna expresión)
de la ecuación g(x, y) = 0 de forma tal de reemplazarla en la función f (x, y)
para que quede en función de una variable.
Otra posibilidad serı́a parametrizar la curva g(x, y) = 0, digamos mediante la
función vectorial r(t), luego componer h = f ◦r y maximizar dicha compuesta
h(t) = f (r(t)) que es una función de una variable.
Pero si ninguno de los métodos anteriores funciona, debemos recurrir a los
multiplicadores de Lagrange:
Definimos la función de Lagrange:

L(λ, x, y) = λg(x, y) + f (x, y)

Los puntos crı́ticos (restringidos) los hallamos calculando su gradiente e igua-


lando a cero:

∇L(λ, x, y) = (0, 0, 0)

de donde

g(x, y) = 0
λgx0 + fx0 = 0
λgy0 + fy0 = 0

Para cada punto crı́tico restringido podemos analizar si es extremo analizando


geométricamente la función, o usando el hessiano restringido:
8.3. EXTREMOS CONDICIONADOS 77

0 gx0 gy0
 
00
H = gx0 fxx 00 
fxy
00
gy0 fyx 00
fyy

El criterio del hessiano restringido en este caso dice que

Si H3 < 0 hay mı́nimo relativo

Si H3 > 0 hay máximo relativo.

En general, si hay m restricciones, se consideran los menores principales de


tamaño i ≥ 2m + 1.
Si m es par y Hi > 0 para todo i hay mı́nimo relativo. Y si Hi < 0, Hi+1 >
0, Hi+2 < 0, . . . hay máximo relativo.
Si m es impar y Hi < 0 para todo i hay mı́nimo relativo. Y si Hi > 0, Hi+1 <
0, Hi+2 > 0, . . . hay máximo relativo.

Ejemplo 24. Analizar los extremos de f (x, y) = x2 + y 2 sujeto a x = 0.


Primero definimos la función de Lagrange

L(λ, x, y) = λx + x2 + y 2

Ahora buscamos los puntos crı́ticos

∇L(λ, x, y) = (x, λ + 2x, 2y) = (0, 0, 0)

de donde

x = 0
λ + 2x = 0
2y = 0
78 CAPÍTULO 8. POLINOMIO DE TAYLOR Y EXTREMOS

El único punto crı́tico es (λ, x, y) = (0, 0, 0). Ahora veamos el hessiano

 
0 1 0
H = 1 2 0
0 0 2

Como H3 = −2 < 0 hay mı́nimo relativo f (0, 0) = 0


Capı́tulo 9

Integral de Lı́nea y Función


Potencial

9.1. Integral de Riemann

Recordemos la definición de la integral de Riemann

Definición 73. Sea [a, b] ∈ R un intervalo compacto, y sea P = {a = x0 <


x1 < . . . < xn = b} una partición de [a, b]. Sea f una función acotada en
[a, b].
Notamos

mi = ı́nf f (x)
x∈[xi−1 ,xi ]

Mi = sup f (x)
x∈[xi−1 ,xi ]

4xi = xi − xi−1

Las sumas superior e inferior de Riemann son

79
80 CAPÍTULO 9. INTEGRAL DE LÍNEA Y FUNCIÓN POTENCIAL

n
X
Sp (f ) = Mi 4xi
i=1

n
X
sp (f ) = mi 4xi
i=1

Luego definimos

Z b
f dx = ı́nf Sp (f )
a p part

Z b
f dx = sup sp (f )
a p part

donde el ı́nfimo y el supremo se calcula sobre todas las particiones posibles.


Rb
Si son iguales, se nota a f dx y se dice que f es Riemann-integrable en [a, b],
y lo denotamos f ∈ R

9.2. Curva regular a trozos, curva de jordan

Definición 74. Una curva C ∈ Rn decimos que es regular a trozos si


puede escribirse como C = ∪ki=1 Ci donde cada Ci es una curva regular, y el
extremo final de una coincide con el inicial de la siguiente.
Es decir si cada curva Ci está parametrizada por gi : [ai , bi ] → Rn , entonces
gi (bi ) = gi+1 (ai+1 )
Una curva C es simple si admite una parametrización inyectiva.
Una curva C es cerrada si admite una parametrización g : [a, b] → Rn tal
que g(a) = g(b)
Una curva C se dice cerrada simple, o curva de Jordan, si admite una
parametrización g : [a, b] → Rn tal que es inyectiva en [a, b) y g(a) = g(b)
9.3. INTEGRAL DE LÍNEA 81

9.3. Integral de lı́nea

Definición 75. Dada una curva C ∈ Rn con parametrización g : [a, b] → Rn ,


y dado un campo escalar f : A ⊆ Rn → R contı́nuo, tal que C ∈ A◦ , definimos
el diferencial de curva escalar como

dc = ||g 0 (t)||dt

y definimos la integral de f sobre C como

Z Z b
f dc = f (g(t))||g 0 (t)||dt
C a

Definimos la longitud de C como la integral de la función constante 1, es


decir

Z Z b
Long(C) = dc = ||g 0 (t)||dt
C a

Dada la misma curva C con misma parametrización g, y dado el campo


vectorial f : A ⊆ Rn → Rn contı́nuo, tal que C ∈ A◦ , definimos el diferencial
de curva vectorial como

dc = g 0 (t)dt

y definimos la integral de f sobre C en este caso también llamado circu-


lación como

Z Z b
f · dc = f (g(t)) · g 0 (t)dt
C a

En ambos casos decimos que se trata de la integral sobre la curva C desde


g(a) hasta g(b)
82 CAPÍTULO 9. INTEGRAL DE LÍNEA Y FUNCIÓN POTENCIAL

9.4. Campos conservativos

Dado un campo vectorial f : A ⊆ Rn → Rn , con A abierto y f ∈ C 1 ,


podemos preguntarnos si en realidad se trata del gradiente de un campo
escalar φ : A ⊆ Rn → R, φ ∈ C 2 , tal que ∇φ = f . Esto motiva la siguiente

Definición 76. Dado f : A ⊆ Rn → Rn , con A abierto y f ∈ C 1 .


Si existe φ : A ⊆ Rn → R, φ ∈ C 2 , tal que

∇φ = f

decimos que f es un campo conservativo, y que φ es su función poten-


cial.

Ejemplo 25. No todos los campos vectoriales son conservativos


Por ejemplo f (x, y) = (−y, x) no es conservativo. Si lo fuera, como f ∈ C 1
se tendrı́a una φ ∈ C 2 tal que ∇φ = f , pero en ese caso serı́a φ0x = −y
y φ0y = x. Se cumplen las hipótesis del teorema de Schwarz, por lo tanto
φ00xy = φ00yx con lo cual llegamos a −1 = 1 lo cual es absurdo, y por lo tanto f
no es un campo conservativo.

Es fácil construir ejemplos de campos conservativos, sı́mplemente elegimos un


campo escalar φ ∈ C 2 , y su gradiente es un campo conservativo. Por ejemplo
si φ(x, y) = x2 + y 2 entonces se tiene que ∇φ(x, y) = f (x, y) = (2x, 2y) es un
campo conservativo, cuya función potencial es φ.

9.5. Teorema de la independencia del camino

Teorema 9.5.1. Sea el campo vectorial conservativo f : A ⊂ Rn → Rn , y


sea φ : A ⊂ Rn → R su función potencial.
Sea C ⊂ A◦ una curva regular con parametrización g : [a, b] → Rn .
Entonces
9.5. TEOREMA DE LA INDEPENDENCIA DEL CAMINO 83

Z
f · dc = φ(g(b)) − φ(g(a))
C

Demostración. Queremos calcular

Z Z b
f · dc = f (g(t)) · g 0 (t)dt
C a

Como f = ∇φ se tiene

Z Z b
f · dc = ∇φ(g(t)) · g 0 (t)dt
C a

Ahora consideramos la función compuesta h = φ ◦ g, h(t) = φ(g(t)). La


misma existe puesto que la curva está en el dominio de φ.
Como g ∈ C 1 por ser la parametrización de una curva regular, y φ ∈ C 2 por
ser función potencial de f , ambas son diferenciables, y podemos aplicar el
teorema de la regla de la cadena

h0 (t) = ∇φ(g(t)) · g 0 (t)

reemplazando en la integral

Z Z b
f · dc = h0 (t)dt
C a

y por el teorema fundamental del cálculo de Análisis 1

Z b
h0 (t)dt = h(b) − h(a)
a

Pero h = φ(g(t)), finalmente

Z
f · dc = φ(g(b)) − φ(g(a))
C
84 CAPÍTULO 9. INTEGRAL DE LÍNEA Y FUNCIÓN POTENCIAL

Es decir que la integral de f sobre la curva C no depende del camino, sino


sólamente de los puntos inicial g(a) y final g(b) de la curva.

Corolario 9.5.2. Si f es conservativo, la integral sobre cualquier curva cer-


rada da cero.

Demostración. Como C es cerrada g(a) = g(b), y como f es conservativo se


tiene

Z
f · dc = φ(g(b)) − φ(g(a)) = φ(g(a)) − φ(g(a)) = 0
C

9.6. Condición necesaria para la existencia de


función potencial

Teorema 9.6.1. Sea f : A ⊂ Rn → Rn conservativo con f ∈ C 1 , entonces


su matriz jacobiana Df es contı́nua y simétrica.

Dicho de otra forma, si f ∈ C 1 tiene matriz jacobiana Df que o bien no es


continua, o bien no es simétrica (o ninguna de las dos), entonces f no puede
ser un campo conservativo.

Demostración. Como f ∈ C 1 es claro que su matriz jacobiana debe ser


contı́nua, pues sus columnas son sus derivadas parciales.
Como f es conservativo, existe φ : A ⊂ Rn → R, φ ∈ C 2 tal que ∇φ = f .
Luego la matriz jacobiana de f debe ser la matriz hessiana de φ.
Luego por la observación 8.2.4, la matriz jacobiana de f debe ser simétrica.
9.7. CONDICIÓN DE SUFICIENCIA PARA LA EXISTENCIA DE FUNCIÓN POTENCIAL85

9.7. Condición de suficiencia para la existen-


cia de función potencial

Teorema 9.7.1. Sea f : A ⊂ Rn → Rn tal que cumple la condición necesaria


para que exista función potencial (es decir tiene Df contı́nua y simétrica).
Si además A es sı́mplemente conexo, entonces f es conservativo.

Observación 9.7.2. La condición de suficiencia (A sı́mplemente conexo),


junto con la necesaria me garantizan que el campo es conservativo. Pero
que no se cumpla que A sea sı́mplemente conexo no me garantiza que el
campo f no sea conservativo. Hay funciones que no cumplen la condición de
suficiencia y aún ası́ son conservativos.

Ejemplo 26. Dado A = R2 − {(0, 0)}. Cláramente A no es sı́mplemente


conexo. Ahora definimos

f : A → R2
f (x, y) = (2x, 2y)

Existe el siguiente φ ∈ C 2

φ:A → R
φ(x, y) = x2 + y 2

de forma que f = ∇φ, es decir que el campo f es conservativo.


86 CAPÍTULO 9. INTEGRAL DE LÍNEA Y FUNCIÓN POTENCIAL
Capı́tulo 10

Integrales Múltiples

Definición 77. Sea f : R ⊆ R2 → R, con R = [a, b] × [c, d] y f acotada.


Sean Px = {a = x0 < x1 < . . . < xn = b} y Py = {c = y0 < y1 < . . . < ym =
d} particiones de [a, b] y [c, d]
Notamos

m(i,j) = ı́nf f (x, y)


(x,y)∈[xi−1 ,xi ]×[yj−1 ,yj ]

M(i,j) = sup f (x, y)


(x,y)∈[xi−1 ,xi ]×[yj−1 ,yj ]

4xi = xi − xi−1

4yj = yj − yj−1

Las sumas superior e inferior de Riemann son

m X
X n
Sp (f ) = M(i,j) 4xi 4yj
j=1 i=1

87
88 CAPÍTULO 10. INTEGRALES MÚLTIPLES

m X
X n
sp (f ) = m(i,j) 4xi 4yj
j=1 i=1

Luego definimos

ZZ
f dxdy = ı́nf Sp (f )
R p part

ZZ
f dxdy = sup sp (f )
R p part

donde el ı́nfimo y el supremo se calcula sobre todas las particiones posibles.


Si sonRRiguales, se dice que f es Riemann-integrable en R = [a, b] × [c, d], se
nota R f dxdy, y se dice que es la integral doble de f sobre R.
La definición para funciones de la forma f : R ⊆ R3 → R es análoga.

Definición 78. Sea f : A ⊆ R2 → R, con A acotado y f acotada.


Por ser A acotado, el mismo se encuentra dentro de un rectángulo R =
[a, b] × [c, d], es decir A ⊆ R.
Definimos la función h : R → R como

(
f (x, y) si (x, y) ∈ A
h(x, y) =
0 si (x, y) 6∈ A

Luego definimos la integral de f sobre A como

ZZ ZZ
f dxdy = hdxdy
A R

si dicha integral existe.


La definición para funciones de la forma f : A ⊆ R3 → R es análoga.
89

Definición 79. Sea A ⊆ R2 acotada. Definimos su área como

ZZ
area(A) = dxdy
A

Sea H ⊆ R3 acotada. Definimos su volúmen como

ZZZ
vol(H) = dxdydz
H

Definición 80. Una región elemental tipo I de R2 es un subconjunto


R ⊆ R2 de la forma

R = {(x, y) ∈ R2 : a ≤ x ≤ b, f1 (x) ≤ y ≤ f2 (x)}

Esto también lo vamos a escribir como

(
a≤x≤b
R=
f1 (x) ≤ y ≤ f2 (x)

Análogamente, una región elemental tipo II es de la forma

(
a≤y≤b
R=
f1 (y) ≤ x ≤ f2 (y)

En ambos casos f1 , f2 son funciones contı́nuas en el compacto [a, b].


Una región elemental de R2 , es una región elemental tipo I o bien tipo II.
Una región elemental tipo I de R3 es un subconjunto R ⊆ R3 de la forma


a ≤ x ≤ b

R = f1 (x) ≤ y ≤ f2 (x)

g1 (x, y) ≤ z ≤ g2 (x, y)

90 CAPÍTULO 10. INTEGRALES MÚLTIPLES

En total hay 3! = 6 tipos de regiones elementales en R3 , que se corresponden


con las permutaciones de las tres variables x, y, z ya que básicamente consiste
en ordenar las variables.
De nuevo f1 , f2 , g1 , g2 son funciones contı́nuas, y por lo tanto acotadas.

Ejemplo 27. En R2 , supongamos que tenemos la región R definida por

(
0 ≤ x ≤ 2π
R=
cos(x) ≤ y ≤ 2 + sin(x)

La podemos representar gráficamente de la siguiente manera

Esta región R es una región elemental tipo I.

Observación 10.0.3. Como todas las funciones que definen una región ele-
mental R son contı́nuas en un compacto, resultan ser acotadas, por lo tanto
R es un conjunto acotado, y como R es cerrado, resulta que además R es
compacto.

10.1. Teorema de Fubini en R2

El siguiente teorema nos permite calcular ciertas integrales dobles realizando


dos integrales simples iteradas.
10.2. TEOREMA DE CAMBIO DE VARIABLES 91

Teorema 10.1.1. Sea f : A ⊂ R2 → R contı́nua, con A región elemental


tipo I, de la forma A = {(x, y) ∈ R2 : a ≤ x ≤ b, f (x) ≤ y ≤ g(x)} entonces

ZZ Z b Z g(x)
f (x, y)dxdy = dx f (x, y)dy
A a f (x)

Observación 10.1.2. Si A es una región elemental tipo I y II, entonces


puedo cambiar el orden de integración.

10.2. Teorema de cambio de variables

Primero lo enunciamos en R2

Teorema 10.2.1. Sea f : A ⊂ R2 → R contı́nua, y g : U ⊆ R2 → R2


biyectiva, g ∈ C 1 , y (x, y) = g(u, v), y sea A = g(B), entonces

ZZ ZZ
f (x, y)dxdy = f (g(u, v))||det(Dg(u, v))||dudv
A=g(B) B

Ahora enunciamos la versión del teorema para R3

Teorema 10.2.2. Sea f : A ⊂ R3 → R contı́nua, y g : U ⊆ R3 → R3


biyectiva, g ∈ C 1 , y (x, y, z) = g(u, v, w), y sea A = g(B), entonces

ZZZ ZZZ
f (x, y, z)dxdydz = f (g(u, v, w))||det(Dg(u, v, w))||dudvdw
A=g(B) B

10.3. Coordenadas cartesianas y polares en


R2

Son los cambios de variables más utilizados en R2


92 CAPÍTULO 10. INTEGRALES MÚLTIPLES

Definición 81. Las coordenadas cartesianas corresponde a la función


identidad de R2

g : R2 → R2
g(u, v) = (u, v)

En este caso se tiene

|det(Dg)| = 1

Las lı́neas coordenadas son rectas paralelas a los ejes cartesianos.

Definición 82. Las coordenadas polares corresponde al campo vectorial

g : [0, +∞) × [0, 2π) → R2


g(ρ, φ) = (ρ cos(φ), ρ sin(φ))

En este caso se tiene

|det(Dg)| = ρ

Las lı́neas coordenadas son circunferencias con centro en el origen, y semirec-


tas que parten del origen.
10.4. COORDENADAS CARTESIANAS, CILÍNDRICAS Y ESFÉRICAS EN R3 93

10.4. Coordenadas cartesianas, cilı́ndricas y


esféricas en R3

Son los cambios de variables más utilizados en R3

Definición 83. Las coordenadas cartesianas corresponde a tomar la fun-


ción identidad de R3

g : R3 → R3
g(u, v, w) = (u, v, w)

En este caso se tiene

|det(Dg)| = 1

Las superficies coordenadas son planos paralelos a los planos coordenados.


94 CAPÍTULO 10. INTEGRALES MÚLTIPLES

Definición 84. Las coordenadas cilı́ndricas sobre el eje z corresponde a


la función

g : [0, +∞) × [0, 2π) × R → R3


g(ρ, φ, z) = (ρ cos(φ), ρ sin(φ), z)

En este caso se tiene

|det(Dg)| = ρ

Las superficies coordenadas son cilindros sobre el eje z, semiplanos que parten
del eje z, y planos paralelos al xy.

Ejemplo 28. Calcular el volúmen del cuerpo H definido como

(
x2 + y 2 ≤ 1
H= p
0 ≤ z ≤ x2 + y 2

A continuación representamos gráficamente el cuerpo H. Observar que son


los puntos dentro depun cilı́ndro de radio 1 sobre el eje z, y entre el plano
z = 0 y el cono z = x2 + y 2
10.4. COORDENADAS CARTESIANAS, CILÍNDRICAS Y ESFÉRICAS EN R3 95

Calculamos su volúmen

ZZZ Z 2π Z 1 Z ρ
2
V ol(H) = dV = dφ ρdρ dz = π
H 0 0 0 3
Definición 85. Las coordenadas esféricas sobre el eje z corresponde a
la función

g : [0, +∞) × [0, 2π) × [0, π] → R3


g(ρ, α, β) = (ρ cos(α) sin(β), ρ sin(α) sin(β), ρ cos(β))

En este caso

|det(Dg)| = ρ2 sin(β)

Las superficies coordenadas son esferas centradas en el origen, conos centra-


dos en el origen sobre el eje z, y semiplanos que parten del eje z.
96 CAPÍTULO 10. INTEGRALES MÚLTIPLES
Capı́tulo 11

Integrales de Superficie y Flujo

11.1. Definición para superficie paramétrica

Definición 86. Dada una superficie Σ ∈ R3 con parametrización g : B ⊆


R2 → R3 , y dado un campo escalar f : A ⊆ R3 → R contı́nuo, tal que
Σ ∈ A◦ , definimos el diferencial de superficie escalar como

ds = ||gu0 (u, v) ∧ gv0 (u, v)||dudv

y la integral de f sobre Σ como

ZZ ZZ
f ds = f (g(u, v))||gu0 (u, v) ∧ gv0 (u, v)||dudv
Σ B

Definimos el área de la superficie Σ como la integral de la función constante


1, es decir

ZZ ZZ
area(Σ) = ds = ||gu0 (u, v) ∧ gv0 (u, v)||dudv
Σ B

Dada la misma superficie Σ (orientable) con misma parametrización g, y


dado el campo vectorial f : A ⊆ R3 → R3 contı́nuo, tal que Σ ∈ A◦ , definimos
el diferencial de superficie vectorial como

97
98 CAPÍTULO 11. INTEGRALES DE SUPERFICIE Y FLUJO

ds = (gu0 (u, v) ∧ gv0 (u, v))dudv

y definimos la integral de f sobre Σ en este caso también llamado flujo como

ZZ ZZ
f · ds = f (g(u, v)) · (gu0 (u, v) ∧ gv0 (u, v))dudv
Σ B

En este caso decimos que se trata de la integral sobre la superficie Σ en la


orientación con vector normal gu0 (u, v) ∧ gv0 (u, v).

11.2. Caso superficie gráfica de campo escalar

Sea f : A ⊂ R2 → R, su conjunto gráfica consiste en el conjunto

Σ = {(x, y, z) ∈ A × R : z = f (x, y)}

La misma la podemos parametrizar como

g(x, y) = (x, y, h(x, y))

Luego

gx0 = (1, 0, h0x )


gy0 = (0, 1, h0y )
gx0 ∧ gy0 = (−fx0 , −fy0 , 1)

Por lo tanto, el diferencial de superficie vectorial es

ds = (−fx0 , −fy0 , 1)dxdy

y el diferencial de superficie escalar es


11.3. CASO SUPERFICIE DEFINIDA IMPLÍCITAMENTE 99

q
ds = 1 + (fx0 )2 + (fy0 )2 dxdy

11.3. Caso superficie definida implı́citamente

Sea el campo escalar G : A ⊂ R3 → R, G ∈ C 1 y supongamos la superficie Σ


corresponde al conjunto de nivel 0 de G. Es decir es la superficie de ecuación

G(x, y, z) = 0

y supongamos además que G0z (x, y, z) 6= 0


Entonces por el teorema 7.4.1 de Cauchy-Dini, la ecuación define implı́cita-
mente a z = w(x, y), con w diferenciable. Luego podemos parametrizar Σ de
la siguiente forma

g(x, y) = (x, y, w(x, y))

gx0 = (1, 0, wx0 )


gy0 = (0, 1, wy0 )
gx0 ∧ gy0 = (−wx0 , −wy0 , 1)

Pero

G0x
wx0 = −
G0z
G0y
wy0 = − 0
Gz

reemplazando
100 CAPÍTULO 11. INTEGRALES DE SUPERFICIE Y FLUJO

G0x G0x 1
gx0 ∧ gy0 = ( 0
, 0 , 1) = 0 ∇G
Gz Gz Gz

Por lo tanto, el diferencial de superficie vectorial es

∇G
ds = dxdy
G0z

y el diferencial de superficie escalar es

||∇G||
ds = dxdy
|G0z |
Capı́tulo 12

Cálculo de Masa, momentos, y


centro

Veamos algunas fórmulas para el cálculo de masa, momentos y centro, sobre


curvas y regiones planas.
Sea C ⊂ R2 una curva, y A ⊆ R2 una región plana.
Sea δ : R2 → R contı́nua la densidad de masa.

Concepto Curvas Región plana


R RR
M : Masa R C δdc RR A δdxdy
Mx : Momento estático C
yδdc A
yδdxdy
respecto al eje x R RR
My : Momento estático C
xδdc A
xδdxdy
respecto al eje y
1 1
G: Centro de masa MR
(My , Mx ) M
RR (My , Mx )
Ix : Momento de iner- C
y 2 δdc A
y 2 δdxdy
cia respecto al eje x R RR
Iy : Momento de iner- C
x2 δdc A
x2 δdxdy
cia respecto al eje y

Ahora en R3 . Veamos algunas fórmulas para el cálculo de masa, momentos


y centro, sobre curvas en el espacio, regiones sólidas, y supercicies.

101
102 CAPÍTULO 12. CÁLCULO DE MASA, MOMENTOS, Y CENTRO

Sea C ⊂ R3 una curva, A ⊆ R3 una región sólida, y Σ ⊆ R3 una superficie.


Sea δ : R3 → R contı́nua la densidad de masa.

Concepto Curvas Región sólida Superficie


R RRR RR
M : Masa R C δdc RRR A δdxdydz RR Σ δds
Mxy : Momento C
zδdc A
zδdxdydz Σ
zδds
estático respecto al
plano xy R RRR RR
Mxz : Momento C
yδdc A
yδdxdydz Σ
yδds
estático respecto
al plano xz R RRR RR
Myz : Momento C
xδdc A
xδdxdydz Σ
xδds
estático respecto
al plano yz
1 1 1
G: Centro de masa (Myz , Mxz , Mxy ) (M , M , M ) (Myz , Mxz , Mxy )
MR p RRRM p yz xz xy M
RR p
Mx : Momento estático C
y 2 + z 2 δdc A
y 2 + z 2 δdxdydz Σ
y 2 + z 2 δds
respecto al eje x R √ RRR √ RR √
My : Momento estático C
x2 + z 2 δdc A
x2 + z 2 δdxdydz Σ
x2 + z 2 δds
respecto al eje y
R p RRR p RR p
Mz : Momento estático C
x2 + y 2 δdc A
x2 + y 2 δdxdydz Σ
x2 + y 2 δds
respecto al eje z R RRR RR
Ixy : Momento de iner- C
z 2 δdc A
z 2 δdxdydz Σ
z 2 δds
cia respecto al plano
xy R RRR RR
Ixz : Momento de iner- C
y 2 δdc A
y 2 δdxdydz Σ
y 2 δds
cia respecto al plano
xz R RRR RR
Iyz : Momento de iner- C
x2 δdc A
x2 δdxdydz Σ
x2 δds
cia respecto al plano
yz R RRR RR
Ix : Momento de iner- C
(y 2 + z 2 )δdc A
(y 2 + z 2 )δdxdydz Σ
(y 2 + z 2 )δds
cia respecto al eje x R RRR RR
Iy : Momento de iner- C
(x2 + z 2 )δdc A
(x2 + z 2 )δdxdydz Σ
(x2 + z 2 )δds
cia respecto al eje y R RRR RR
Iz : Momento de iner- C
(x2 + y 2 )δdc A
(x2 + y 2 )δdxdydz Σ
(x2 + y 2 )δds
cia respecto al eje z
103

Más generalmente:
El momento estático respecto a una recta (o plano) es la integral de la
distancia a la recta (o plano) por la densidad de masa.
El momento de inercia respecto a una recta (o plano) es la integral de la
distancia al cuadrado a la recta (o plano) por la densiad de masa.
104 CAPÍTULO 12. CÁLCULO DE MASA, MOMENTOS, Y CENTRO
Capı́tulo 13

Teoremas de Green, Stokes y


Gauss

Definición 87. Sea f : A ⊂ R2 → R2 , f ∈ C 1 , f = (P, Q), entonces


definimos el green de f como

green(f ) = Q0x − Py0


 

El operador nabla corresponde a ∇ = , ∂, ∂
∂x ∂y ∂z
.

Sea f : A ⊂ R3 → R3 , f ∈ C 1 , f = (P, Q, R), entonces definimos el rotor de


f como

rot(f ) = ∇ ∧ f = (Ry0 − Q0z , Pz0 − Rx0 , Q0x − Py0 )

y la divergencia de f como

div(f ) = ∇ · f = Px0 + Q0y + Rz0

Teorema 13.0.1. Teorema de Green


Dada una región elemental A ⊂ R2 con curva frontera C = ∂A regular o
regular a trozos (automáticamente cerrada y simple, o sea de Jordan), y sea

105
106 CAPÍTULO 13. TEOREMAS DE GREEN, STOKES Y GAUSS

el campo vectorial f : B ⊂ R2 → R2 , f ∈ C 1 , f = (P, Q), y con A ⊂ B,


entonces

I ZZ
f · dc = Q0x − Py0 dxdy
C + =∂A A

Teorema 13.0.2. Teorema de Stokes


Dada una superficie (orientable) abierta Σ ⊂ R3 y su curva borde C = ∂Σ
regular/a trozos (automáticamente cerrada y simple), y sea f : A ⊂ R3 → R3 ,
f ∈ C 1 con f = (P, Q, R), y con Σ ⊂ A, entonces

I ZZ
f · dc = rot(f ) · ds
C + =∂Σ Σ

Teorema 13.0.3. Teorema de la divergencia


Dada una región elemental del espacio H ⊂ R3 , y su superficie frontera
Σ = ∂H una superficie regular/a trozos (automáticamente cerrada y simple),
y sea f : A ⊂ R3 → R3 , f ∈ C 1 , con f = (P, Q, R), y H ⊂ A, entonces

ZZ ZZZ
f · ds = div(f )dxdydz
Σ+ =∂H H

13.1. Campos irrotacionales, solenoidales, y


armónicos

Definición 88. Sea A ⊂ Rn un conjunto abierto.


Un campo vectorial f : A ⊂ R3 → R3 , f ∈ C 1 se dice irrotacional si
rot(f ) = 0
Un campo vectorial f : A ⊂ R3 → R3 , f ∈ C 1 se dice solenoidal si div(f ) =
0
Un campo escalar f : A ⊂ R3 → R, f ∈ C 1 se dice armónico si div(grad(f )) =
0
13.1. CAMPOS IRROTACIONALES, SOLENOIDALES, Y ARMÓNICOS107

Teorema 13.1.1. Sea el campo escalar f : A ⊂ R3 → R, f ∈ C 2 , entonces


rot(grad(f )) = 0, es decir los campos de gradientes son irrotacionales.
Sea el campo vectorial f : A ⊂ R3 → R3 con f ∈ C 2 , entonces div(rot(f )) =
0, es decir los campos de rotores son solenoidales.
108 CAPÍTULO 13. TEOREMAS DE GREEN, STOKES Y GAUSS
Capı́tulo 14

Ecuaciones Diferenciales 2o
parte

14.1. Ecuación diferencial ordinaria homogénea

Definición 89. Una función f : A ⊆ Rn → Rm se dice homogénea de


grado k si

F (λx) = λk F (x)
Definición 90. Una ecuación diferencial ordinaria se dice homogénea si se
puede expresar en la forma

y 0 = F (x, y)

donde F es una función homogénea de grado cero, es decir si F (tx, ty) =


F (x, y)

Para resolverla se hace la sustitución y = zx, donde z depende de x. Queda


una ecuación diferencial de variables separables en z que la resolvemos, y
finalmente volvemos a reemplazar z = xy .
Ahora con más detalle, para resolverla hacemos la sustitución

109
110 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

y = zx
y0 = z0x + z

la reemplazamos en la ecuación diferencial

z 0 x + z = F (x, zx)

como F es homogénea de grado 0

z 0 x + z = F (1, z)

restamos z de ambos lados

z 0 x = F (1, z) − z

separo variables e integro

Z Z
dz dx
= +C
F (1, z) − z x

Esa es la solución general de z, para obtener la solución general de y se


reemplaza z = xy y listo.

14.2. Ecuación diferencial total exacta

Definición 91. Una ecuación diferencial total exacta, es aquella que se puede
expresar como

P (x, y)dx + Q(x, y)dy = 0

con P y Q definidos sobre A ⊆ R2 sı́mplemente conexo, y tal que Q0x −Py0 = 0.


14.2. ECUACIÓN DIFERENCIAL TOTAL EXACTA 111

Para resolverla, empezamos por notar que por la condición 9.7.1 (suficiente
para la existencia de función potencial), sabemos que f = (P, Q) es conser-
vativo, y por lo tanto existe

φ : A ⊆ R2 → R

con φ ∈ C 2 y tal que

dφ(x, y) = P (x, y)dx + Q(x, y)dy

Luego la solución general es de la forma

φ(x, y) = C

14.2.1. Convertible a exacta con factor integrante

Supongamos que queremos resolver una ecuación diferencial de la forma

P (x, y)dx + Q(x, y)dy = 0

con P y Q definidos sobre A ⊆ R2 sı́mplemente conexo, pero tal que Q0x −Py0 6=
0.
La ecuación diferencial no es total exacta, pero a lo mejor la podemos con-
vertir en total exacta multiplicando la ecuación por una función µ que lla-
maremos factor integrante, que la convierta en una ecuación diferencial
total exacta. Luego la resolvemos como cualquier ecuación diferencial total
exacta.
El problema ahora es como encontrar un factor integrante. Vamos a trabajar
sólo con factores integrantes que dependen de una sóla variable, o bien x o
bien y.

Proposición 14.2.1. Si Q0x −Py0 6= 0 pero al dividirla por P o por Q depende


sólamente de una variable, hay un factor integrante respecto de esa variable.
112 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

Si hay factor integrante respecto a x el mismo es

R Py0 −Q0x
dx
µ(x) = e Q

Si hay factor integrante respecto a y el mismo es

R Q0x −Py0
dy
µ(y) = e P

Demostración. Vamos a ver el caso de factor integrante respecto a y.


Supongamos que exite µ(y) tal que al multiplicar por la ecuación diferencial
la convierte en total exacta, por lo tanto

µ(y)P (x, y)dx + µ(y)Q(x, y)dy = 0

es total exacta, teniendo en cuenta que µ depende sólo de y tenemos

µQ0x − [µ0 P + µPy0 ] = 0

µQ0x − µ0 P − µPy0 = 0

µ(Q0x − Py0 ) = µ0 P

µ0 Q0x − Py0
=
µ P

Q0 −P 0
Como xP y depende sólo de y, esto es una ecuación diferencial de variables
separable en µ, con µ0 = dµ/dy, lo resolvemos

Q0x − Py0
Z Z

= dy
µ P
14.3. ECUACIÓN DIFERENCIAL LINEAL DE 2o ORDEN 113

R Q0x −Py0
dy
µ(y) = e P

que es el factor integrante respecto a y.


El caso de factor integrante respecto a x es análogo.

14.3. Ecuación diferencial lineal de 2o orden

Recordemos que en 27 habı́amos visto la definición de la ecuación diferencial


lineal de orden n. Y en 2.5.1 aprendimos a resolver la ecuación diferencial
lineal de primer orden.
Ahora vamos a trabajar con las lineales de segundo orden.
Definición 92. Una ecuación diferencial se dice lineal de segundo orden
si se la puede expresar como

y 00 + a(x)y 0 + b(x)y = g(x)

La misma se dice homogénea si g(x) es la función constante cero.


En cualquier caso, la ecuación diferencial homogénea asociada es

y 00 + a(x)y 0 + b(x)y = 0

Si a(x) = a y b(x) = b son funciones constantes, nos queda

y 00 + ay 0 + by = g(x)

y se dice que la ecuación diferencial es a coeficientes constantes.

Nos proponemos resolver las ecuaciones diferenciales lineales de segundo or-


den a coeficientes constantes. Para ello nos va a ser de mucha ayuda la sigu-
iente
114 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

Proposición 14.3.1. Dada la ecuación diferencial lineal de segundo orden


a coeficientes constantes

y 00 + ay 0 + by = g(x)

La solución general viene dada por

y = yh + yp

donde yh es la solución general de la homogénea asociada, y yp es una solución


particular.

Demostración. La familia y = yh + yp ya tiene dos constantes arbitrarias (las


que provienen de yh ), y la ecuación diferencial es de segundo orden. Por lo
tanto si satisface la EDO entonces debe ser su SG.
Reemplazamos y = yh + yp y veamos que satisface la ecuación diferencial.

y = yh + yp
y 0 = yh0 + yp0
y 00 = yh00 + yp00

Reemplazo en

y 00 + ay 0 + by = g(x)

y obtengo

(yh00 + yp00 ) + a(yh0 + yp0 ) + b(yh + yp ) = g(x)

yh00 + ayh0 + byh + yp00 + ayp0 + byp = g(x)


| {z } | {z }
0 g(x)
14.3. ECUACIÓN DIFERENCIAL LINEAL DE 2o ORDEN 115

Por lo tanto satisface la ecuación diferencial, y debe ser su solución general.

14.3.1. Resolución de la homogénea asociada

Veamos ahora como podemos resolver la ecuación diferencial homogénea aso-


ciada, que es de la forma

y 00 + ay 0 + by = 0

La solución general de la homogénea asociada resulta ser un subespacio de


dimensión dos del espacio vectorial de las funciones C 2 de R en R. Por lo tanto
alcanza con encontrar una base de dicho subespacio, por lo tanto si f1 , f2 son
soluciones particulares y {f1 , f2 } es LI (linealmente independiente), entonces
la solución general son sus combinaciones lineales, es decir

y = C1 f1 + C2 f2

Definición 93. Dadas f1 , f2 : A ⊆ R → R, f1 , f2 ∈ C 1 . El wronskiano de


f1 y f2 es el siguiente determinante


f1 f2
W = 0
f1 f20

Proposición 14.3.2. Dadas f1 , f2 : A ⊆ R → R, f1 , f2 ∈ C 1


Si el wronskiano de f1 y f2 es W 6= 0 entonces {f1 (x), f2 (x)} es LI.

Para resolver la ecuación diferencial homogénea asociada

y 00 + ay 0 + by = 0

primero proponemos como solución


116 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

y = eαx
y 0 = αeαx
y 00 = α2 eαx

ahora reemplazamos en la ecuación homogénea asociada y obtenemos

α2 eαx + aαeαx + beαx = 0

sacamos factor común eαx

eαx [α2 + aα + b] = 0

y puesto que eαx > 0 lo dividimos y obtenemos lo que se llama la ecuación


caracterı́stica

α2 + aα + b = 0

Al resolverla puede darse sólo uno de tres casos posibles

1o Caso: α1 , α2 reales y distintas. En este caso {eα1 x , eα2 x } ya es lineal-


mente independiente, y la SG es

y = c1 e α 1 x + c2 e α 2 x

2o Caso: α1 = α2 = α reales e iguales. En este caso {eαx , xeαx } resulta


linealmente independiente la SG es

y = c1 eα1 x + c2 xeα1 x

3o Caso: α1 = r + si, α2 = r − si complejas conjugadas. En este caso


{eα1 x , eα2 x } ya es linealmente independiente. En principio la SG es
14.3. ECUACIÓN DIFERENCIAL LINEAL DE 2o ORDEN 117

y = c1 eα1 x + c2 eα2 x
y = c1 e(r+si)x + c2 e(r−si)x
y = erx [c1 esix + c2 e−six ]

Recordemos la Fórmula de Euler que establece que

eis = cos(s) + i sin(s)

reemplazando en la SG

y = erx [c1 (cos(sx) + i sin(sx)) + c2 (cos(−sx) + i sin(−sx))]

usando que cos(x) es par (es decir cos(x) = cos(−x)) y que sin(x) es
impar (es decir sin(x) = − sin(−x))

y = erx [c1 (cos(sx) + i sin(sx)) + c2 (cos(sx) − i sin(sx))]

y reagrupando

y = erx [(c1 + c2 ) cos(sx) + i(c1 − c2 ) sin(sx)]

Llamando C1 = (c1 + c2 ) y C2 = i(c1 − c2 ) obtenemos finalmente la SG


del tercer caso

y = arx [C1 cos(sx) + C2 sin(sx)]

14.3.2. Como encontrar una solución particular

Ahora nos faltarı́a aprender a encontrar una solución particular de la ecuación


diferencial lineal no homogénea

y 00 + ay 0 + by = g(x)
118 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

El método de coeficientes indeterminados sirve cuando la función g(x)


es relativamente sencilla, que en este contexto significa combinación lineal de
polinomios, exponenciales o trigonométricas.
Consiste en tratar de adivinar la forma que debe tener la solución, pro-
poniendo como solución una familia de funciones acorde al problema, y luego
se determinan los coeficientes.

Si la función es polinómica, se propone una combinación lineal de poli-


nomios genérico, en principio del mismo grado.
Por ejemplo si g(x) = 2x2 , propongo yp = ux2 + vx + w

Si la función es exponencial, se propone una combinación lineal de


exponenciales.
Por ejemplo si g(x) = e2x + 2ex , propongo yp = ue2x + vex

Si la función es trigonométrica, se propone una combinación lineal de


trigonométricas.
Por ejemplo si g(x) = cos(2x), propongo yp = u cos(2x) + v sin(2x)

Por ejemplo

g(x) propongo yp
2x2 ux2 + vx + w
e2x + 2ex ue2x + vex
cos(2x) u cos(2x) + v sin(2x)

Se reemplazan en la EDO y se averiguan los coeficientes indeterminados


u, v, w, . . ..
En algunos casos puede pasar que la solución propuesta ya sea solución de
la homogénea asociada, en ese caso se va a llegar a un absurdo. En ese caso
lo que se puede hacer es multiplicar por x la solución propuesta y volver a
intentar. Si sigue pasando puedo multiplicar por x2 y volver a intentar, y
ası́ sucesivamente.
14.3. ECUACIÓN DIFERENCIAL LINEAL DE 2o ORDEN 119

Veamos ahora el otro método, conocido como variación de parámetros,


para encontrar una solución particular de la ecuación diferencial lineal no
homogénea

y 00 + ay 0 + by = g(x)

y supongamos que la solución general de la homogénea asociada es

y = c1 y1 (x) + c2 y2 (x)

Este método consiste en buscar una solución particular y que verifique lo


siguiente

y = λ(x)y1 (x) + µ(x)y2 (x) (14.1)


y 0 = λ(x)y10 (x) + µ(x)y20 (x) (14.2)

derivando la ecuación (1) obtenemos

y 0 = λ0 y1 + λy10 + µ0 y2 + µy20

para que se cumpla la ecuación (2) pedimos

λ0 y1 + µ0 y2 = 0 (14.3)

derivando (2)

y 00 = λ0 y10 + λy100 + µ0 y20 + µy200

Reemplazando en la ecuación diferencial

y 00 + ay 0 + by = g(x)
120 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

obtenemos

λ0 y10 + λy100 + µ0 y20 + µy200 + a(λy10 + µy20 ) + b(λy1 + µy2 ) = g(x)

λ0 y10 + µ0 y20 + λ(y100 + ay10 + by1 ) + µ(y200 + ay20 + by2 ) = g(x)


| {z } | {z }
0 0

lo cual impone

λ0 y10 + µ0 y20 = g(x) (14.4)

juntando (3) y (4) obtenemos

λ0 y1 + µ0 y2 = 0 (14.5)
λ0 y10 + µ0 y20 = g(x) (14.6)

que es un sistema de ecuaciones lineales en λ0 y µ0 .


Resumiendo, estamos buscando λ(x) y µ(x) para encontrar una solución
particular de la forma

y = λ(x)y1 (x) + µ(x)y2 (x)

y para ello imponemos

(
λ0 y1 + µ0 y2 = 0
λ0 y10 + µ0 y20 = g(x)

Lo resolvemos por cualquier método, por ejemplo lo escribo en forma matri-


cial
14.4. LÍNEAS DE CAMPO 121

   0  
y1 y2 λ 0
=
y10 y20 µ0 g(x)

y lo resuelvo con la regla de Cramer


0 y2

0
g(x) y20
λ =
y10 y2
y1 y20

y 1 0
0
y1 g(x)
µ0 =
y10 y20

y1 y2

Luego se integran ambos parámetros para encontrar una primitiva de cada


una, y se reemplazan para obtener la solución particular

y = λ(x)y1 (x) + µ(x)y2 (x)

14.4. Lı́neas de campo

Definición 94. Dado un campo vectorial f : A ∈ Rn → Rn , f ∈ C 1 , una


lı́nea de campo es una curva regular C ⊆ A que admite una parametrización
g : [a, b] → Rn tal que

g 0 (t) = f (g(t))

para todo a < t < b

Observación 14.4.1. En R2 , dada f : A ⊆ R2 → R2 .


Si C es una lı́nea de campo de f = (P, Q) con la parametrización g(t) =
(x(t), y(t)), entonces debe cumplir
122 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

g 0 (t) = (x0 (t), y 0 (t)) = (P, Q) = f (g(t))

en notación de Leibniz

(dx, dy) = (P, Q)dt

y por lo tanto

Q
y0 =
P

Otra forma de pensarlo: las lı́neas de campo son las curvas que en cada punto
tiene la misma pendiente que el campo (P, Q) que es ∆y/∆x = Q/P , por lo
tanto satisfacen la ecuación diferencial

Q
y0 =
P

Esto quiere decir que para encontrar la familia de las lı́neas de campo de f ,
basta encontrar la solución general de dicha ecuación diferencial.

Teorema 14.4.2. Si f : A ⊆ Rn → Rn es un campo conservativo, y φ : A ⊆


Rn → R es una función potencial de f , es decir ∇φ = f , entonces las lı́neas
de campo de f son ortogonales a los conjuntos de nivel de φ.

Demostración. Consideremos el conjunto de nivel k de φ

Ck (φ) = {x ∈ A : φ(x) = k}

Sea C1 ⊂ A una curva incluı́da en Ck (φ) parametrizada por

h : [a, b] → Rn

Sea C2 ⊂ A una lı́nea de campo del campo f = ∇φ, parametrizada por


14.4. LÍNEAS DE CAMPO 123

g : [c, d] → Rn

Supongamos que ambas curvas se cruzan en h(t0 ) = g(u0 ) = x0 ∈ A


Consideremos la compuesta w = φ ◦ h, se tiene que

w(t) = φ(h(t)) = k

Como ambas son diferenciables, por el teorema de la regla de la cadena

w0 (t0 ) = ∇φ(h(t0 )) · h0 (t0 ) = 0

como f = ∇φ, y h(t0 ) = g(u0 )

f (g(u0 )) · h0 (t0 ) = 0

Y como g es una lı́nea de campo, f (g(u0 )) = g 0 (u0 ), y por lo tanto

g 0 (u0 ) · h0 (t0 ) = 0

Lo que muestra que estos vectores tangentes son ortogonales.


Tanto las lı́neas de campo como el conjunto de nivel eran genéricos. Es decir
que las lı́neas de campo de f y los conjuntos de nivel de φ son ortogonales
en todo punto de intersección.

En R2 tenemos el siguiente caso particular, que podemos demostrar de una


forma más cartesiana.

Teorema 14.4.3. Sea f : A ⊆ R2 → R2 un campo conservativo, y φ una


función potencial de f , es decir tal que ∇φ = f .
Entonces las lı́neas de campo de f son ortogonales a las lı́neas equipotenciales
de φ.
124 CAPÍTULO 14. ECUACIONES DIFERENCIALES 2o PARTE

Demostración. Por la observación 14.4.1, las lı́neas de campo de f son la


familia de curvas cuya ecuación diferencial es

Q
y0 = (14.1)
P

Por otro lado, si φ es una función potencial de f , es decir tal que ∇φ = f ,


entonces las lı́neas equipotenciales son la familia de curvas

φ(x, y) = C

Buscamos su ecuación diferencial, diferenciando ambos miembros

φ0x (x, y)dx + φ0y (x, y)dy = 0

usando que ∇φ = (φ0x , φ0y ) = (P, Q)

P dx + Qdy = 0

Qdy = −P dx

o equivaléntemente su ecuación diferencial es

P
y0 = − (14.2)
Q

De (1) y (2) vemos que dichas familias de curvas son ortogonales. Es decir las
lı́neas de campo de f y las lı́neas equipotenciales de φ son familias de curvas
ortogonales.

You might also like