You are on page 1of 47

Matriz (matemática)

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En matemáticas, una matriz es una ordenación rectangular de números, o más


generalmente, una tabla consistente en cantidades abstractas que pueden sumarse y
multiplicarse.

Contenido
[ocultar]

• 1 Definiciones y notaciones
• 2 Ejemplo
• 3 Suma de matrices
o 3.1 Propiedades de la suma de matrices
• 4 Producto de una matriz por un escalar
o 4.1 Propiedades del Producto Escalar
• 5 Producto de matrices
• 6 División de matrices
• 7 Inversa de una matriz
• 8 Clases de matrices
• 9 Las matrices en la Computación
• 10 Historia
• 11 Notas

• 12 Véase también

Definiciones y notaciones [editar]


Una matriz es una tabla o arreglo rectangular de numeros. Los numeros en el arreglo se
denominan elementos de la matriz.

Las líneas horizontales en una matriz se denominan filas y las líneas verticales se
denominan columnas. A una matriz con m filas y n columnas se le denomina matriz m-
por-n (escrito m×n), y m y n son sus dimensiones. Las dimensiones de una matriz
siempre se dan con el número de filas primero y el número de columnas después.

La entrada de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le


llama entrada i,j o entrada (i,j)-iésima de A. Esto se escribe como Ai,j o A[i,j].

Normalmente se escribe para definir una matriz A m × n con cada


entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n. Sin embargo, la
convención del inicio de los índices i y j en 1 no es universal: algunos lenguajes de
programación comienzan en cero, en cuál caso se tiene 0 ≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.
Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se
interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n
columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se
denomina vector columna.

Ejemplo [editar]
La matriz

es una matriz 4×3. El elemento A[2,3] o a2,3 es 7.

La matriz

es una matriz 1×9, o un vector fila con 9 elementos.

Suma de matrices [editar]


Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada
sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir,
sumar cada uno de los elementos homólogos de las matrices a sumar. Por ejemplo:

Propiedades de la suma de matrices [editar]

• Asociativa

Dadas las matrices m×n A, B y C

A + (B + C) = (A + B) + C

• Conmutativa

Dadas las matrices m×n A y B

A+B=B+A
• Existencia de matriz cero o matriz nula

A+0=0+A=A

• Existencia de matriz opuesta

con -A = [-aij]

A + (-A) = 0

Producto de una matriz por un escalar [editar]


Dada una matriz A y un número c, el producto escalar cA se calcula multiplicando el
escalar c por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ). Por ejemplo:

Propiedades del Producto Escalar [editar]

Sean A y B matrices y c y d escalares.

• Clausura: Si A es matriz y c es escalar, entonces cA es matriz.


• Asociatividad: (cd)A = c(dA)
• Elemento Neutro: 1·A = A
• Distributividad:
o De escalar: c(A+B) = cA+cB
o De matriz: (c+d)A = cA+dA

Producto de matrices [editar]


Artículo principal: Producto de matrices

El producto de dos matrices se puede definir sólo si el número de columnas de la


matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una
matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz
m×p (m filas, p columnas) dada por:

para cada par i y j.

Por ejemplo:
El producto de dos matrices no es conmutativo, es decir, AB ≠ BA. La división entre
matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra
definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices
cuadradas.

División de matrices [editar]


Es el producto del numerador multiplicado por la matriz inversa del denominador, es
decir A / B = A * B^-1

Inversa de una matriz [editar]


La inversa de una matriz es 1 dividido por el determinante de dicha matriz, mutiplicado
por sus adjuntos transpuestos. Por tanto no siempre existe, y para que así sea su
determinante tendrá que ser distinto de cero.

Clases de matrices [editar]


Algunas matrices presentan características particulares en la posición o en la naturaleza
de sus elementos. Muchas de ellas son tan importantes en la teoría y en las aplicaciones,
que han recibido denominaciones específicas.

• Matriz antisimétrica
• Matriz banda
• Matriz cuadrada
• Matriz de adjuntos
• Matrices elementales
• Matriz definida positivamente
• Matriz diagonal
• Matriz de diagonal estrictamente dominante
• Matriz hermítica
• Matriz idempotente
• Matriz identidad
• Matriz inversa
• Matriz invertible
• Matriz involutiva
• Matriz jacobiana
• Matriz nilpotente
• Matriz no singular
• Matriz normal
• Matriz nula
• Matriz ortogonal
• Matriz permutación
• Matriz simétrica
• Matriz singular
• Matriz traspuesta
• Matriz triangular (superior o inferior)

Las matrices en la Computación [editar]


Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad
para manipular información. En este contexto, son la mejor forma para representar
grafos, y son muy utilizadas en el cálculo numérico.

Historia [editar]
El origen de las matrices es muy antiguo. Un cuadrado mágico, 3 por 3, se registra en la
literatura china hacia el 650 a. C.1

Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un
importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve
capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo
conocido de uso del método de matrices para resolver un sistema de ecuaciones
simultáneas.2 En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante
apareció por primera vez, dos mil años antes de su publicación por el matemático
japonés Seki Kowa en 1683 y el matemático alemán Gottfried Leibniz en 1693.

Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente
desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y
astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias.
Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de
orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de
Pureza (Rasa'il Ihkwan al-Safa).1

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales
del siglo XVII, Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl
Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el
siglo XIX.

El término "matriz" fue acuñado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo
algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial,
como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.
Grassmann, Frobenius y von Neumann están entre los matemáticos famosos que
trabajaron sobre la teoría de matrices.

Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices


para investigar el fenómeno de aeroelasticidad llamado fluttering.

Matriz antisimétrica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

Una matriz de nxm elementos:

es antisimétrica (o hemisimétrica), si es una matriz cuadrada (m = n) y aji = − aij para


todo i,j =1,2,3,...,n. En consecuencia, aii = 0 para todo i. Por lo tanto, la matriz A asume
la forma:

Nótese que la matriz traspuesta de la matriz antisimetrica A es -A, y que la antisimetría


es respecto a la diagonal principal.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_antisim%C3%A9trica"

Matriz banda
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En matemáticas una matriz se le llama Matriz Banda cuando es una matriz donde los
valores no nulos son confinados en un entorno de la diagonal principal, formando una
banda de valores no nulos que completan la diagonal principal de la matriz y más
diagonales en cada uno de sus costados.

Escrito formalmente, una matriz n×n A=(ai,j ) es una matriz banda si todos sus
elementos son cero fuera de una zona diagonal cuyo rango se determina por las
constantes k1 y k2:
Los valores k1 y k2 son el semiancho de banda izquierdo y derecho respectivamente. El
ancho de banda de una matriz es k1 + k2 + 1, y se puede definir como el número menor
de diagonales adyacentes con valores no nulos.

Una matriz banda con k1 = k2 = 0 es una matriz diagonal

Una matriz banda con k1 = k2 = 1 es una matriz tridiagonal; cuando k1 = k2 = 2 se tiene


una matriz pentadiagonal y así sucesivamente.

Una matriz banda con k1 = k2 = p, dependiendo del número p, se le puede llamar matriz
p-banda, formalmente se puede definir como

Un matriz con k1 = 0, k2 = n−1, se obtiene la definición de una matriz triangular inferior.


De forma similar, para k1 = n−1, k2 = 0 , se obtiene la definición de una matriz triangular
superior.

Matriz cuadrada
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz de nxm elementos:

es una matriz cuadrada si el número de filas es igual al número columnas. Es decir, n


= m.

Se dice, entonces que la matriz es de orden n.

Toda matriz cuadrada se puede descomponer en la suma de una matriz simétrica y una
matriz antisimétrica.
Si A y B son matrices del mismo orden, entonces se pueden sumar entre sí. Los
productos de matrices son válidos en ambos sentidos, AB y BA. Además, surgen los
conceptos de determinante y traza solo aplicables a matrices cuadradas.

Una matriz cuadrada A de orden n es singular si su determinante es nulo. En tal caso se


dice que dicha matriz no tiene inversa.

Ejemplo de matriz cuadrada para n = 3:

Las matrices cuadradas son las más utilizadas en álgebra.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_cuadrada"

Adjunta de una matriz (matriz de


adjuntos)
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz de adjuntos)


Saltar a navegación, búsqueda

Dada una matriz cuadrada A, su matriz adjunta o adj(A) es la resultante de sustituir


cada término de A por sus adjuntos respectivos.

El adjunto de un término ai j de la matriz A resulta del determinante de la submatriz


que se obtiene de eliminar de la matriz A, la fila y la columna a la que pertenece el
término ai j, multiplicado por (-1)(i+j)

Ejemplos [editar]
Un ejemplo sería el siguiente:

En general: dada la matriz


su adjunto es

La matriz de adjuntos suele emplearse para calcular la matriz inversa de una matriz
dada. Sin embargo, para matrices de dimensiones grandes, este tipo de cálculo resulta
más costoso, en términos de operaciones, que otros métodos como el método de
eliminación de Gauss.

Matrices elementales
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Las matrices elementales son aquellas que se obtienen a partir de una operación
elemental de matrices sobre la matriz identidad.
Estas son:

1. Escalamiento: multiplicar una fila por un número.


2. Eliminación: sumar a una fila una combinación lineal de las restantes.
3. Permutación: intercambiar dos filas.

Las matrices tienen esta forma (en el caso 3X3):

Obtenidas por escalamiento

Obtenidas por eliminación


Análogamente, el número a puede estar encima de la diagonal.

Obtenidas por permutación

Véase: matriz permutación

Propiedades [editar]
Si multiplicamos alguna de estas matrices por una matriz A, será como aplicar las
operaciones elementales de matrices. Es fácil ver que estas matrices tienen inversas, ya
que pensando en ellas como matrices A se debe aplicar la operación "inversa". Por
ejemplo, teniendo:

Queremos que el elemento a33 sea 1. Entonces:

Obtenido de "http://es.wikipedia.org/wiki/Matrices_elementales"

Matriz definida positiva


De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz definida positivamente)


Saltar a navegación, búsqueda

En el álgebra lineal, una matriz definida positiva es una matriz hermitiana que es
análoga a los números reales positivos.

Contenido
[ocultar]

• 1 Definiciones equivalentes
• 2 Propiedades
• 3 Matrices definidas negativas, semidefinidas positivas e indefinidas
• 4 Caso no hermitiano

Definiciones equivalentes [editar]


Sea M una matriz hermitiana cuadrada n × n. De ahora en adelante notaremos la
transpuesta de una matriz o vector a como aT, y el conjugado transpuesto, a * . Esta
matriz M se dice definida positiva si cumple con una (y por lo tanto, las demás) de las
siguientes formulaciones equivalentes:

1 Para todos los vectores no nulos tenemos que


. .

Nótese que z * Mz es siempre real.


2 Todos los autovalores λi de M son positivos. (Recordamos que los autovalores de una
. matriz hermitiana o en su defecto, simétrica, son reales.)
3 La función
.

define un producto interno .


4 Todos los menores principales de M son positivos. O lo que es equivalente; todas las
. siguientes matrices tienen determinantes positivo.

• la superior izquierda de M de dimensión 1x1


• la superior izquierda de M de dimensión 2x2
• la superior izquierda de M de dimensión 3x3
• ...

• M en sí misma

Análogamente, si M es una matriz real simétrica, se reemplaza por , y la


conjugada transpuesta por la transpuesta.

Propiedades [editar]
• Toda matriz definida positiva es inversible (su determinante es positivo), y su
inversa es definida positiva.

• Si M es una matriz definida positiva y r > 0 es un número real, entonces rM es


definida positiva.

• Si M y N son matrices definidas positivas, entonces la suma M + N, el producto


MNM y NMN son definidas positivas, además si

MN = NM, entonces MN es también definida positiva.

• Toda matriz definida positiva M, tiene al menos una matriz raíz cuadrada N tal
que N2 = M.
Matrices definidas negativas, semidefinidas positivas e
indefinidas [editar]
La matriz hermitiana M se dice:

- definida negativa si para todos los vectores (ó ) no nulos

- semidefinida positiva si para todo (ó )

- semidefinida negativa si para todo (ó )

Una matriz hermitiana se dice indefinida si no entra en ninguna de las clasificaciones


anteriores.

Caso no hermitiano [editar]


Una matriz real M puede tener la propiedad xTMx > 0 para todo vector real no nulo sin
ser simétrica. La matriz

es un ejemplo. En general, tendremos xTMx > 0 para todo vector real no nulo x si y sólo
si la matriz simétrica (M + MT) / 2, es definida positiva.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_definida_positiva"

Matriz diagonal
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas son
todas nulas salvo en la diagonal principal, y éstas pueden ser nulas o no. Así, la matriz
D = (di,j) es diagonal si:

Ejemplo:
Toda matriz diagonal es también una matriz simétrica, triangular (superior e inferior) y
(si las entradas provienen del cuerpo R o C) normal.

Otro ejemplo de matriz diagonal es la matriz identidad.

Operaciones matriciales [editar]


Las operaciones de suma y producto de matrices son especialmente sencillas para
matrices diagonales. Vamos a emplear aquí la notación de diag(a1,...,an) para una matriz
diagonal que tiene las entradas a1,...,an en la diagonal principal, empezando en la
esquina superior izquierda. Entonces, para la suma se tiene:

diag(a1,...,an) + diag(b1,...,bn) = diag(a1+b1,...,an+bn)

y para el producto de matrices,

diag(a1,...,an) · diag(b1,...,bn) = diag(a1b1,...,anbn).

La matriz diagonal diag(a1,...,an) es invertible si y sólo si las entradas a1,...,an son todas
distintas de 0. En este caso, se tiene

diag(a1,...,an)-1 = diag(a1-1,...,an-1).

En particular, las matrices diagonales forman un subanillo del anillo de las matrices de
n×n.

Multiplicar la matriz A por la izquierda con diag(a1,...,an) equivale a multiplicar la fila i-


ésima de A por ai para todo i. Multiplicar la matriz A por la derecha con diag(a1,...,an)
equivale a multiplicar la columna i-ésima de A por ai para todo i.

Autovalores, autovectores y determinante [editar]


• Los autovalores de diag(a1,...,an) son a1,...,an.
• Los vectores e1,...,en forman una base de autovectores.
• El determinante de diag(a1,...,an) es igual al producto a1...an.

Usos [editar]
Las matrices diagonales tienen lugar en muchas áreas del álgebra lineal. Debido a la
sencillez de las operaciones con matrices diagonales y el cálculo de su determinante y
de sus valores y vectores propios, siempre es deseable representar una matriz dada o
transformación lineal como una matriz diagonal.
De hecho, una matriz dada de n×n es similar a una matriz diagonal si y sólo si tiene n
autovectores linealmente independientes. Tales matrices se dicen diagonalizables.

En el cuerpo de los números reales o complejos existen más propiedades: toda matriz
normal es similar a una matriz diagonal (véase teorema espectral) y toda matriz es
equivalente a una matriz diagonal con entradas no negativas.

Matriz de diagonal estrictamente


dominante
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En matemáticas, y concretamente en álgebra lineal, una matriz es de diagonal


estrictamente dominante, cuando lo es por filas o por columnas.

• Lo es por filas cuando, para todas las filas, el valor absoluto del elemento de la
diagonal de esa fila es estrictamente mayor que la suma de los valores absolutos
del resto de elementos de esa fila.
• Lo es por columnas cuando, para todas las columnas, el valor absoluto del
elemento de la diagonal de esa columna es estrictamente mayor que la suma de
los valores absolutos del resto de elementos de esa columna.

Estas matrices también se denominan "matrices de Hadamard". Una matriz de


Hadamard siempre es regular, es decir, su determinante es no nulo. Las submatrices
fundamentales de una matriz de Hadamard también son de Hadamard y siempre
admiten factorización LU.

Formalmente, se dice que la matriz A de n x n es estrictamente diagonal dominante


cuando se satisface:

El contenido de esta página es un esbozo sobre matemática.


Ampliándolo ayudarás a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras lenguas.

Podemos enunciar a partir de esta definicion el siguiente teorema de convergencia


aplicable a los procesos iterativos de Jacobi y Gauss Seidel:

Teorema:definimos a como una matriz cuadrada.Si A esdiagonal


dominante,los metodos iterativos de JAcobi y Gauss-Seidel convergen a
la solucion del sistema de ecuaciones Ax=b.
Obtenido de
"http://es.wikipedia.org/wiki/Matriz_de_diagonal_estrictamente_dominante"
Categorías: Wikipedia:Esbozo matemática | Matrices | Álgebra lineal numérica
Matriz hermitiana
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz hermítica)


Saltar a navegación, búsqueda

Una matriz hermitiana (o hermítica) es una matriz cuadrada de elementos complejos


que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el
elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la j-
ésima fila e i-ésima columna, para todos los índices i y j:

o, escrita con la traspuesta conjugada A*:

Por ejemplo,

es una matriz hermítica.

Propiedades [editar]
1. Sea A = B + iC, donde A es hermitiana y B y C reales, entonces B es simétrica
(B = Bt) y C antisimétrica (C = − Ct).
2. La inversa de una matriz hermitiana es también hermitiana.
3. En una matriz hermitiana, los elementos de la diagonal principal son reales.
4. La determinante de una matriz hermitiana es un número real.

Pero la propiedad más importante de toda matriz hermitiana es que todos sus
autovalores son reales.

Matriz idempotente
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz idempotente es una matriz la cual es igual a su cuadrado, es decir:

A es idempotente si A x A = A
Por ejemplo, la siguiente matriz es idempotente:

O sea: la matriz elevada al cuadrado va a ser la misma matriz sin elevarla.

Este artículo es un miniesbozo sobre matemática en el que falta información esencial.


Ampliándolo ayudarás a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras lenguas.

Nota: su determinante va a valer 1 o 0

Obtenido de "http://es.wikipedia.org/wiki/Matriz_idempotente"

Matriz identidad
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En álgebra lineal, la matriz identidad es una matriz que cumple la propiedad de ser el
elemento neutro del producto de matrices. Esto quiere decir que el producto de
cualquier matriz por la matriz identidad (donde dicho producto esté definido) no tiene
ningún efecto. La columna i-ésima de una matriz identidad es el vector unitario ei de
una base vectorial inmersa en un espacio Euclídeo de dimensión n.

Como el producto de matrices sólo tiene sentido si sus dimensiones son compatibles,
existen infinitas matrices identidad dependiendo de las dimensiones. In, la matriz
identidad de tamaño n, se define como la matriz diagonal que tiene 1 en cada una de las
entradas de la diagonal principal, y 0 en el resto. Así,

Empleando la notación que a veces se usa para describir concisamente las matrices
diagonales, resulta:

In = diag(1,1,...,1)

Si el tamaño es inmaterial, o se puede deducir de forma trivial por el contexto, entonces


se escribe simplemente como I.

También se puede escribir usando la notación delta de Kronecker:


Iij = δij

o, de forma aún más sencilla,

I = (δij)

La matriz identidad de orden n puede ser también considerada como la matriz


permutación que es elemento neutro del grupo de matrices de permutación de orden
n!.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_identidad"

Matriz invertible
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz inversa)


Saltar a navegación, búsqueda

En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se


dice que es invertible, inversible, inversa o no singular o regular si existe una matriz
B de dimensiones n×n tal que

AB = BA = In,

donde In denota la matriz identidad de orden n (dimensiones n×n) y el producto


utilizado es el producto de matrices usual. Una matriz no invertible se dice que es una
matriz singular.

La inversa de la matriz A es única. Esto se denota por A-1.

Contenido
[ocultar]

• 1 Prueba de que la inversa es única


• 2 Propiedades de la matriz inversa
• 3 Teorema sobre la inversibilidad de las matrices cuadradas
o 3.1 Demostración
 3.1.1 Necesidad
 3.1.2 Suficiencia

• 4 Inversion de matrices 2×2

Prueba de que la inversa es única [editar]


Supongamos que B y C son inversas de A
AB = BA = I

AC = CA = I

Multiplicando por C

(BA)C = IC = C

(BA)C = B(AC) = BI = B

De modo que B=C y se prueba que la inversa es única.

La matriz inversa de A se denota por A − 1 y satisface la igualdad:

Esta viene dada por:

donde

• = determinante de A
• = matriz de adjuntos de A se multiplica en inversas

Propiedades de la matriz inversa [editar]


La inversa del productos de dos matrices es el producto de las inversas cambiando el
orden:

Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es


la transpuesta de su inversa, es decir:

Y, evidentemente:

Teorema sobre la inversibilidad de las matrices


cuadradas [editar]
Si A es una matriz de orden n, entonces existe B tal que AB = BA = I si y sólo si el
determinante de A es distinto de cero.

Demostración [editar]

Se probará por doble implicación.

Necesidad [editar]

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función


determinante se obtiene

usando la propiedad det(I) = 1

Por lo tanto, det(A) es distinto de cero.

Suficiencia [editar]

Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la


matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como j-
ésimo menor de A). Entonces

Sea , entonces

Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la


relación nos conduce a una matriz con la columna j igual a la columna k y los demás
términos iguales a los de A. Entonces

donde δjk = 1 cuando j = k y δjk = 0 cuando . Entonces


Es decir que A tiene inversa izquierda

Como , entonces At también tiene inversa izquierda que es

Entonces

luego, aplicando la transpuesta

Que es lo que se quería demostrar

Inversion de matrices 2×2 [editar]


Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de
la siguiente manera: 1

Esto es posible porque 1/(ad-bc) es el determinante reciproco de la matriz en cuestion.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"

Matriz invertible
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se


dice que es invertible, inversible, inversa o no singular o regular si existe una matriz
B de dimensiones n×n tal que
AB = BA = In,

donde In denota la matriz identidad de orden n (dimensiones n×n) y el producto


utilizado es el producto de matrices usual. Una matriz no invertible se dice que es una
matriz singular.

La inversa de la matriz A es única. Esto se denota por A-1.

Contenido
[ocultar]

• 1 Prueba de que la inversa es única


• 2 Propiedades de la matriz inversa
• 3 Teorema sobre la inversibilidad de las matrices cuadradas
o 3.1 Demostración
 3.1.1 Necesidad
 3.1.2 Suficiencia

• 4 Inversion de matrices 2×2

Prueba de que la inversa es única [editar]


Supongamos que B y C son inversas de A

AB = BA = I

AC = CA = I

Multiplicando por C

(BA)C = IC = C

(BA)C = B(AC) = BI = B

De modo que B=C y se prueba que la inversa es única.

La matriz inversa de A se denota por A − 1 y satisface la igualdad:

Esta viene dada por:

donde
• = determinante de A
• = matriz de adjuntos de A se multiplica en inversas

Propiedades de la matriz inversa [editar]


La inversa del productos de dos matrices es el producto de las inversas cambiando el
orden:

Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es


la transpuesta de su inversa, es decir:

Y, evidentemente:

Teorema sobre la inversibilidad de las matrices


cuadradas [editar]
Si A es una matriz de orden n, entonces existe B tal que AB = BA = I si y sólo si el
determinante de A es distinto de cero.

Demostración [editar]

Se probará por doble implicación.

Necesidad [editar]

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función


determinante se obtiene

usando la propiedad det(I) = 1

Por lo tanto, det(A) es distinto de cero.


Suficiencia [editar]

Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la


matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como j-
ésimo menor de A). Entonces

Sea , entonces

Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la


relación nos conduce a una matriz con la columna j igual a la columna k y los demás
términos iguales a los de A. Entonces

donde δjk = 1 cuando j = k y δjk = 0 cuando . Entonces

Es decir que A tiene inversa izquierda

Como , entonces At también tiene inversa izquierda que es

Entonces

luego, aplicando la transpuesta


Que es lo que se quería demostrar

Inversion de matrices 2×2 [editar]


Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de
la siguiente manera: 1

Esto es posible porque 1/(ad-bc) es el determinante reciproco de la matriz en cuestion.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"

Matriz involutiva
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz involutiva es una matriz cuadrada (tiene igual número de filas que de
columnas) tal que su cuadrado es igual a la matriz unidad, es decir:

A es involutiva si A x A = I

Por ejemplo, la siguiente matriz es involutiva:

Obtenido de "http://es.wikipedia.org/wiki/Matriz_involutiva"

Jacobiano
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz jacobiana)


Saltar a navegación, búsqueda

En cálculo vectorial, el jacobiano es una abreviación de la matriz jacobiana y su


determinante, el determinante Jacobiano. Son llamados así en honor al matemático
Carl Gustav Jacobi.
En geometría algebraica, el jacobiano de una curva hace referencia a la variedad
jacobiana, un grupo y variedad algebraica asociada a la curva, donde la curva puede ser
embebida.

Contenido
[ocultar]

• 1 Matriz Jacobiana
o 1.1 Ejemplo
o 1.2 Matriz Jacobiana de un campo vectorial
• 2 Determinante Jacobiano
o 2.1 Ejemplo

• 3 Véase también

Matriz Jacobiana [editar]


La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden
de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad
de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano
representa la derivada de una función multivariable.

Supongamos F : Rn → Rm es una función que va del espacio euclidiano n-dimensional a


otro espacio euclideano m-dimensional. Esta función está determinada por m funciones
reales: y1(x1,...,xn), ..., ym(x1,...,xn). Las derivadas parciales de estas (si existen) pueden ser
organizadas en una matriz m por n, la matriz Jacobiana de F:

Esta matriz es notada por

o como

La i-ésima fila está dada por el gradiente de la función yi, para i=1,...,m.
Si p es un punto de Rn y F es diferenciable en p, entonces su derivada está dada por
JF(p). En este caso, la aplicación lineal descrita por JF(p) es la mejor aproximación
lineal de F cerca del punto p, de esta manera:

para x cerca de p.

Ejemplo [editar]

El Jacobiano de la función F : R3 → R3 definida como:

es:

No siempre un Jacobiano es cuadrado.

Matriz Jacobiana de un campo vectorial [editar]

En cálculo vectorial, la matriz Jacobiana para un campo vectorial


es la matriz de orden mxn que tiene como elementos a las derivadas parciales (si
existen) de la función. Por ejemplo, se desea obtener la 'Matriz Jacobiana' de la
diferencial de una función de Rn a Rm en el
punto .

Usando: en la fórmula:

Dividiendo por l, y haciendo tender l a 0, se obtiene:

Este es el vector que va en la primera columna de la matriz buscada. Por analogía para
, se consiguen las demás columnas. De este modo, la matriz Jacobiana de
en el punto es:
Esta matriz se denota también por:

Determinante Jacobiano [editar]


Si m = n, entonces F es una función que va de un espacio n-dimensional a otro. En este
caso la matriz Jacobiana es cuadrada y podemos calcular su determinante, conocido
como el determinante Jacobiano.

El determinante Jacobiano en un punto dado nos da información importante sobre el


comportamiento de F cerca de ese punto. Para empezar, una función F es invertible
cerca de p si el determinante Jacobiano en p es no nulo. Más aún, el valor absoluto del
determinate en p nos da el factor con el cual F expande o contrae su volumen cerca de
p.

Ejemplo [editar]

El determinante Jacobiano de la función F : R3 → R3 definida como:

es:

La función es localmente invertible excepto donde x1=0 ó x2=0. Si imaginamos un


objeto pequeño centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto de
aproximadamente 40 veces más volumen que el original.
Matriz nilpotente
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz se dice nilpotente si existe tal que Nk = 0.

Si A es una matriz nilpotente entonces |A|=0.

Demostración [editar]
Si A es una matriz nilpotente de orden k, A^k=0. Por tanto |A^k|=0, luego |A|^k=0, y en
consecuencia |A|=0.

Matriz invertible
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz no singular)


Saltar a navegación, búsqueda

En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se


dice que es invertible, inversible, inversa o no singular o regular si existe una matriz
B de dimensiones n×n tal que

AB = BA = In,

donde In denota la matriz identidad de orden n (dimensiones n×n) y el producto


utilizado es el producto de matrices usual. Una matriz no invertible se dice que es una
matriz singular.

La inversa de la matriz A es única. Esto se denota por A-1.

Contenido
[ocultar]

• 1 Prueba de que la inversa es única


• 2 Propiedades de la matriz inversa
• 3 Teorema sobre la inversibilidad de las matrices cuadradas
o 3.1 Demostración
 3.1.1 Necesidad
 3.1.2 Suficiencia

• 4 Inversion de matrices 2×2

Prueba de que la inversa es única [editar]


Supongamos que B y C son inversas de A

AB = BA = I

AC = CA = I

Multiplicando por C

(BA)C = IC = C

(BA)C = B(AC) = BI = B

De modo que B=C y se prueba que la inversa es única.

La matriz inversa de A se denota por A − 1 y satisface la igualdad:

Esta viene dada por:

donde

• = determinante de A
• = matriz de adjuntos de A se multiplica en inversas

Propiedades de la matriz inversa [editar]


La inversa del productos de dos matrices es el producto de las inversas cambiando el
orden:

Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es


la transpuesta de su inversa, es decir:
Y, evidentemente:

Teorema sobre la inversibilidad de las matrices


cuadradas [editar]
Si A es una matriz de orden n, entonces existe B tal que AB = BA = I si y sólo si el
determinante de A es distinto de cero.

Demostración [editar]

Se probará por doble implicación.

Necesidad [editar]

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función


determinante se obtiene

usando la propiedad det(I) = 1

Por lo tanto, det(A) es distinto de cero.

Suficiencia [editar]

Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la


matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como j-
ésimo menor de A). Entonces

Sea , entonces
Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la
relación nos conduce a una matriz con la columna j igual a la columna k y los demás
términos iguales a los de A. Entonces

donde δjk = 1 cuando j = k y δjk = 0 cuando . Entonces

Es decir que A tiene inversa izquierda

Como , entonces At también tiene inversa izquierda que es

Entonces

luego, aplicando la transpuesta

Que es lo que se quería demostrar

Inversion de matrices 2×2 [editar]


Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de
la siguiente manera: 1

Esto es posible porque 1/(ad-bc) es el determinante reciproco de la matriz en cuestion.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz normal
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda


Uno o más wikipedistas están trabajando actualmente en extender este
artículo.
Es posible que, a causa de ello, haya lagunas de contenido o deficiencias de formato. Por
favor, antes de realizar correcciones mayores o reescrituras, contacta con ellos en su página
de usuario o en la página de discusión del artículo para poder coordinar la redacción.

Sea A matriz compleja cuadrada, entonces es una matriz normal si y sólo si

A * A = AA *

donde A* es el conjugado transpuesto de A (también llamado hermitiano)

Ejemplos [editar]
Esta matriz de orden 2 es normal.

debido a que ..

Propiedades [editar]
Una importante propiedad de este tipo de matrices es que son diagonalizables.

Demostración:

Sea A matriz compleja cuadrada normal. Entonces puede expresarse, utilizando la


descomposición de Schur, de esta manera:

A = QUQ *

Demostraremos que la matriz U es diagonal, por ahora solo sabemos que es triangular
superior. Formalmente, definimos estas condiciones con números, ya que serán usadas
en la demostración:
• ak1 = 0 (1)
• ak2 = 0 (2)
• ...
• akn − 1 = 0 (n-1)

Usando el hecho que A es normal:

A * A = (QUQ * ) * (QUQ * ) = QU * (Q * Q)(a)UQ * = QU * UQ *

Idénticamente.

(QUQ * )(QUQ * ) * = QUU * Q *

Postmultiplicando por Q y luego premultiplicando por Q * obtenemos: U * U = UU *

Lo cual da lugar a estas dos multiplicaciones matriciales:

Para nuestros propósitos, nos interesan los elementos de las diagonales.


Ahora utilizamos un procedimiento inductivo para probar que esta matriz producto es
diagonal (sus elementos son ceros fuera de la diagonal principal)

• Caso i=1: (U * U)11 = (UU * )11

Separamos el elemento diagonal de las sumatorias.

Usando (1)

Por lo tanto, a1j = 0

Obtenido de "http://es.wikipedia.org/wiki/Matriz_normal"

Matriz cero
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz nula)


Saltar a navegación, búsqueda

Una matriz de nxm elementos:

No se pudo entender (No se puede escribir o crear el directorio de salida de


<em>math</em>): A = \begin{pmatrix} a_{11} & a_{12} & a_{13} & . & . &
.& a_{1m}\\ a_{21} & a_{22} & a_{23} & . & . & .& a_{2m}\\ a_{31} &
a_{32} & a_{33} & . & . & .& a_{3m}\\ . & . & . & . & . & .& .\\ . & . & . & .
& . & .& .\\ . & . & . & . & . & .& .\\ a_{n1} & a_{n2} & a_{n3} & . & . & .&
a_{nm}\\ \end{pmatrix}

es una matriz cero si No se pudo entender (No se puede escribir o crear el


directorio de salida de <em>math</em>): a_{ji} = 0

para todo i=1,2,3,...,n y j=1,2,3,...m. Por lo tanto, la matriz A


asume la forma:

No se pudo entender (No se puede escribir o crear el directorio de salida de


<em>math</em>): A = \begin{pmatrix} 0 & 0 & 0 & . & . & .& 0\\ 0 & 0 &
0 & . & . & .& 0\\ 0 & 0 & 0 & . & . & .& 0\\ . & . & . & . & . & .& .\\ . & . &
. & . & . & .& .\\ . & . & . & . & . & .& .\\ 0 & 0 & 0 & . & . & .& 0\\
\end{pmatrix}

Esta matriz también se le suele llamar matriz nula y se denota por 0. Una matriz cero
es, al mismo tiempo, matriz simétrica, matriz antisimétrica, matriz nilpotente y matriz
singular.

Matriz ortogonal
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Las matrices ortogonales, representan transformaciones en espacios vectoriales reales1


llamadas justamente, transformaciones ortogonales. Estas transformaciones son
isomorfimos internos del espacio vectorial en cuestión. Suelen representar rotaciones y
son usadas extensivamente en computación gráfica. Por sus propiedades también son
usadas para el estudio de ciertos fibrados y en física se las usa en la formulación de
ciertas teorías de campos.

Contenido
[ocultar]

• 1 Definición
o 1.1 Ejemplos
• 2 Caracterización
• 3 Propiedades
• 4 Notas
• 5 Véase también

Definición [editar]
Sea n un número entero y sea A una matriz cuadrada n por n, con entradas reales. Se
dice que la matriz es ortogonal si:

donde representa la matriz transpuesta de e representa la matriz identidad.

Ejemplos [editar]

Supongamos que la matriz de números reales

es ortogonal y su determinante es +1. Su traspuesta es igual a su inversa

de modo que d = a y c = − b y la matriz M es de la forma

Finalmente,

Así que los números a y b satisfacen además la propiedad que la suma de sus cuadrados
vale 1. Por lo tanto, existe un número real θ para el cual

Concluimos que: toda matriz ortogonal de SO(2) puede escribirse como

con θ real.
Caracterización [editar]
Sea A una matriz ortogonal n por n. Sean , , los n vectores fila de la
matriz. En término de estos vectores, es muy fácil expresar los elementos de la matriz
que resulta de muliplicar A por su transpuesta:

De modo que los vectores fila de una matriz ortogonal forman un conjunto de n vectores
ortonormales. Puesto que la ecuación

también se verifica, tenemos que los vectores columna de la matriz A también forman
un conjunto ortonormal de vectores. Como el recíproco de todo esto también es cierto,
tenemos

Una matriz real A es ortogonal si y sólo si sus vectores filas o vectores columna son
cada uno un conjunto ortonormal de vectores.

Es en este sentido que se dice que se ha hecho una caracterización de las matrices
ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y
columna para determinar si dicha matriz es o no ortogonal.

Propiedades [editar]
• De la definición, es inmediato que la si una matriz es ortogonal, la matriz es no
singular o inversible y su transpuesta coincide con su inversa
• El determinante de una matriz ortogonal A es +1 ó -1. En efecto, de las
propiedades del determinante tenemos

y por tanto,

• El conjunto de matrices nxn ortogonales, junto con la operación de producto de


matrices es un grupo llamado grupo ortogonal O(n). Supongamos que A y B son
matrices ortogonales y sea C igual al producto de A por B. Usando las
propiedades del producto de matrices, tenemos

y así, el producto de matrices ortogonales es una matriz ortogonal.


• En teoría de grupos, al grupo de matrices ortogonales n por n con coeficientes en
el cuerpo se denomina grupo ortogonal de dimensión n y se representa con
. En particular el subgrupo formado por las matrices ortogonales de
determinante +1, se llama grupo especial ortogonal y se le representa con
. Entre las matrices ortogonales se encuentran las matrices de
rotación y las de permutación. Cuando el cuerpo es el de los reales
entonces se escribe simplemente y
.

Notas [editar]
1. ↑ Se sobreentiende que al espacio vectorial real, se le ha dotado de un producto
interno

Matriz permutación
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

La matriz permutación es la matriz cuadrada con todos sus n×n elementos iguales a 0,
excepto uno cualquiera por cada fila y columna, el cual debe ser igual a 1. De acuerdo a
esta definición existen n! matrices de permutación distintas, de las cuales una mitad
corresponde a matrices de permutación par (con el determinante igual a 1) y la otra
mitad a matrices de permutación impar (con el determinante igual a -1).

Para n = 3 se tiene:

Matrices de permutación par:

Matrices de permutación impar:

Puede notarse que las matrices de permutación conforman un grupo de orden n!


respecto al producto.

Propiedades [editar]
• El elemento neutro del grupo es la matriz identidad.
• El elemento inverso de cada elemento del grupo de matrices de permutación es
la matriz traspuesta correspondiente.
• Cada elemento del grupo de matrices de permutación es una matriz ortogonal.
• El producto de matrices de permutación par siempre genera una matriz de
permutación par.
• El producto de matrices de permutación impar siempre genera una matriz de
permutación par.
• El producto de matrices de permutación de paridad distinta siempre genera una
matriz de permutación impar.
• Observe que las matrices de permutación par conforman un semigrupo y que
además el grupo de matrices de permutación no es conmutativo.
• Cada elemento del grupo de matrices de permutación fuera del semigrupo es una
matriz simétrica.

Matriz simétrica
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz de elementos:

es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j =1,2,3,4,...,n.


Nótese que la simetría es respecto a la diagonal principal y que A es también, la matriz
traspuesta de sí misma; Por ejemplo: At = A.

Ejemplo, para n = 3:

Propiedades [editar]
Uno de los teoremas básicos que concierne este tipo de matrices es el teorema espectral
de dimensión finita, que dice que toda matriz simétrica cuyas entradas sean reales puede
ser diagonalizada por una matriz ortogonal. Éste es un caso especial de una matriz
hermítica.

Autovalores [editar]
Como las matrices simétricas son un caso particular de las matrices hermíticas, todos
sus autovalores son reales.

Con base en las propiedades de los autovalores de una matriz simétrica, se pueden
clasificar en los siguientes tipos:

• definida positiva: Una matriz simétrica es definida positiva si y solo si todos sus
autovalores son estrictamente positivos.
• definida negativa: Una matriz simétrica es definida negativa si y solo si todos
sus autovalores son estrictamente negativos.
• semidefinida positiva: Una matriz simétrica es semidefinida positiva si y solo si
todos sus autovalores son mayores o iguales a cero.
• semidefinida negativa: Una matriz simétrica es semidefinida negativa si y solo si
todos sus autovalores son menores o iguales a cero.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_sim%C3%A9trica"

Matriz singular
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz cuadrada A de orden n es singular si su determinante es nulo. Algunos


autores llaman a estas matrices degeneradas. En tal caso se dice que dicha matriz no
tiene inversa.

Son equivalentes las siguientes afirmaciones:

• A es no invertible.
• AX=0 tiene infinitas soluciones.
• El determinante de A es nulo [det(A)=0], esto es, A es singular.

Una matriz no singular es llamada comunmente Invertible

Matriz transpuesta
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz traspuesta)


Saltar a navegación, búsqueda
Sea A una matriz con m filas y n columnas. La matriz transpuesta, denotada con At
está dada por

Contenido
[ocultar]

• 1 Ejemplos
• 2 Propiedades
• 3 Definiciones asociadas

o 3.1 Véase también

Ejemplos [editar]

Propiedades [editar]
Para toda matriz A

Sean A y B matrices con elementos pertenecen a un anillo y sea

Si el producto de las matrices A y B está definido,

Si A es una matriz cuadrada cuyas entradas son números reales, entonces

es semidefinida positiva

Definiciones asociadas [editar]


Una matriz cuadrada A es simétrica si coincide con su transpuesta, esto es si

Es antisimétrica si coincide con su negativa


Si los elementos de la matriz A son números complejos y su transpuesta coincide con su
conjugada, se dice que la matriz es hermítica

y antihermítica si

Vale la pena observar que si una matriz es hermítica (la matrices simétricas son un caso
particular) entonces es diagonalizable y sus autovalores son reales. (El recíproco es
falso).

Matriz triangular
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Una matriz de nxm elementos:

es triangular superior, si es una matriz cuadrada y aij = 0 para todo i>j (i,j =1,2,3,...,n).
Es decir,

En caso contrario, si aij = 0 para todo i<j (i,j =1,2,3,...,n), entonces A es matriz
triangular inferior que tiene la forma:
Por ejemplo, para n = 3:

es triangular superior y

es triangular inferior.

Se suelen emplear las letras U y L, respectivamente, ya que U es la inicial de "upper


triangular matrix" y L de "lower triangular matrix", los nombres que reciben estas
matrices están en inglés.

En general, se pueden realizar las operaciones en estas matrices en la mitad de tiempo.


El determinante de una matriz triangular es el producto de los elementos de la diagonal
principal.

Obtenido de "http://es.wikipedia.org/wiki/Matriz_triangular"

Vector (programación)
De Wikipedia, la enciclopedia libre

(Redirigido desde Matriz (programación))


Saltar a navegación, búsqueda

Arreglo unidimensional con 10 elementos


En programación, un vector, array, arreglo o alineación es un conjunto o agrupación
de variables del mismo tipo cuyo acceso se realiza por índices.

Los vectores o arreglos (array en inglés) de dos o más dimensiones se denominan con
frecuencia matrices, y pueden tener tantas dimensiones como se desee; aunque lo
correcto es llamarlo arreglo (de memoria) ya que una variable de más de dos
dimensiones, no cumple con las características matemáticas de una matriz numérica.

Desde el punto de vista del programa, un arreglo (matriz, array ó vector) es una zona de
almacenamiento contiguo, que contiene una serie de elementos del mismo tipo, los
elementos de la matriz. Desde el punto de vista lógico podemos considerarlas como un
conjunto de elementos ordenados en fila. Así pues, en principio todas las matrices son
de una dimensión, la dimensión principal, pero veremos que los elementos de esta fila
pueden ser a su vez arreglos (un proceso que puede ser recursivo), lo que nos permite
hablar de la existencia de arreglos multidimensionales, aunque las más fáciles de "ver" o
imaginar son las de dos y tres dimensiones.

Puede afirmarse que las matrices son un recurso de programación simple y socorrido; en
realidad pueden considerarse como las "estructuras" de datos más simples que cabe
imaginar (todos los elementos del mismo tipo). Presentan la ventaja de que sus
elementos son rápidamente accesibles, en especial si utiliza punteros en vez de
subíndices, pero presentan una notable limitación: son de tamaño fijo; es preciso definir
su tamaño desde el principio y no pueden ser fácilmente incrementadas o disminuidas
sino mediante complejos procesos de copia.

Estas estructuras de datos son adecuadas para situaciones en las que el acceso a los
datos se realice de forma aleatoria e impredecible. Por el contrario, si los elementos
pueden estar ordenados y se va a utilizar acceso secuencial sería más adecuado utilizar
una lista.

Contenido
[ocultar]

• 1 Índices
• 2 Notación
• 3 Forma de Acceso
• 4 Vectores dinámicos
• 5 Vectores multidimensionales

• 6 Véase también

Índices [editar]
Todo vector se compone de un determinado número de elementos. Cada elemento es
referenciado por la posición que ocupa dentro del vector. Dichas posiciones son
llamadas índice y siempre son correlativos.
Matemáticamente todo elemento inicial de un vector comienza por '0' hasta el número
de elementos - 1. Este sistema es conocido como ZeroIndex. Sin embargo algunos
lenguajes, adoptaron como elemento inicial el '1' por ser más intuitivo a los usuarios a
que iba dirigido el lenguaje. Particularmente el Basic (hasta la versión VB 6.0) permitía
especificar cualquier cifra como inicial, incluso negativas, los únicos límites eran el
rango de tipo de datos y que debía ser inferior o igual al elemento final, en tales casos el
número de elementos era la diferencia entre ambos límites.

Lenguajes como Python llevan al extremo las utilización de índices y permiten el uso de
números negativos para referenciar el vector desde el final hacia la posición inicial. Por
ejemplo, el índice -1 corresponde al último elemento y el -2 corresponde al penúltimo.

Notación [editar]
La representación de un elemento en un vector se suele hacer mediante el identificador
del vector seguido del índice entre corchetes, paréntesis o llaves:

Notación Ejemplos
vector[índice,índice 2...,índice N] (C, C++, Java, Lexico, etc.)
vector(índice,índice 2...,índice N) (Basic)
Aunque muchas veces
vector{índice,índice 2...,índice N} (Perl)
en pseudocódigos y en
libros de matemática se representan como letras acompañadas de un subíndice numérico
que indica la posición a la que se quiere acceder. Por ejemplo: a0,a1,a2,... vector
unidimensional

Forma de Acceso [editar]


La forma de acceder a los elementos del array es directa, al contrario de las listas. Esto
significa que el elemento deseado es obtenido a partir de su índice y no hay que ir
buscándolo elemento por elemento. En el caso de una lista, por ejemplo, para llegar al
tercer elemento hay que acceder a los dos anteriores o almacenar un apuntador o
puntero que permita acceder de manera rápida a ese elemento.

Para trabajar con vectores muchas veces es preciso recorrerlos. Esto se realiza por
medio de ciclos de repetición. El algoritmo clásico para recorrer un vector se refleja en
el siguiente pseudocódigo:

i = 0
mientras (i < longitud)
#Se realiza alguna operación con el vector en la i-ésima posición
f(v[i])
i=i+1
fin_mientras

Vectores dinámicos [editar]


Dependiendo del tipo de vector y del lenguaje de programación que se utilice, este
vector puede tener una cantidad fija o variable de datos. En el segundo caso, se los
denomina vectores dinámicos. Los vectores dinámicos sacan su espacio del denominado
heap del programa. Un uso incorrecto de los vectores dinámicos puede conducir a una
fuga de memoria, por eso, se aconseja siempre en estos lenguajes liberar la memoria
utilizada.

Lenguajes más modernos y de más alto nivel, cuentan con un mecanismo denominado
recolector de basura (como es el caso de Java) que permiten que el programa decida si
debe liberar el espacio basándose en si se va a utilizar en el futuro o no un determinado
objeto.

Ejemplos:

• Declaración en C (o C++) de un vector estático:

int v[5];
for (int i=0; i<5; i++)
{
v[i]=2*i;
} El resultado de los dos ejemplos es el mismo vector:

0 1 2 3 4
0 2 4 6 8
• Declaración en C++ de un ( vector de la
STL o vector dinámico):

vector<int> v;
for (int i=0; i<5; i++)
{
v.push_back(2*i);
}

// se supone implementada la clase genérica "vector<Tipo>"

En el caso del lenguaje C, la forma de crear vectores estáticos es igual que en c++, pero
para vectores dinámicos se utilizan la instrucciones malloc y realloc, acompañadas por
free (para liberar la memoria utilizada).

En lenguajes compilados y en la mayoría de máquinas virtuales, la representación de


arreglos suele ser en una dimensión, es decir: un conjunto consecutivo de celdas de
memoria (como si fueran un gran vector). El compilador (o traductor a byte-code)
realizará las conversiones pertinentes para transformar un acceso a una matriz en un
acceso a un vector.

Vectores multidimensionales [editar]


En Basic, Java y otros lenguajes es posible declarar matrices muldimensionales,
entendiéndolas como un vector de vectores. En dichos casos en número de elementos
del vector es el producto resultante de cada dimensión.
Por ejemplo el vector v(4,1) tiene 10 elementos se calcula del siguiente modo: (0-4) *
(0-1). Los elementos de la primera dimensión del vector contiene 5 elementos que van
del '0' al '4' y la 2º dimensión tiene 2 elementos que van desde '0' a '1'. Los elementos
serían accedidos del siguiente modo:

elemento 1: (0,0)
elemento 2: (0,1)
elemento 3: (1,0)
...
elemento 8: (3,1)
elemento 9: (4,0)
elemento 10: (4,1)

You might also like