Professional Documents
Culture Documents
Contenido
[ocultar]
• 1 Definiciones y notaciones
• 2 Ejemplo
• 3 Suma de matrices
o 3.1 Propiedades de la suma de matrices
• 4 Producto de una matriz por un escalar
o 4.1 Propiedades del Producto Escalar
• 5 Producto de matrices
• 6 División de matrices
• 7 Inversa de una matriz
• 8 Clases de matrices
• 9 Las matrices en la Computación
• 10 Historia
• 11 Notas
• 12 Véase también
Las líneas horizontales en una matriz se denominan filas y las líneas verticales se
denominan columnas. A una matriz con m filas y n columnas se le denomina matriz m-
por-n (escrito m×n), y m y n son sus dimensiones. Las dimensiones de una matriz
siempre se dan con el número de filas primero y el número de columnas después.
Ejemplo [editar]
La matriz
La matriz
• Asociativa
A + (B + C) = (A + B) + C
• Conmutativa
A+B=B+A
• Existencia de matriz cero o matriz nula
A+0=0+A=A
con -A = [-aij]
A + (-A) = 0
Por ejemplo:
El producto de dos matrices no es conmutativo, es decir, AB ≠ BA. La división entre
matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra
definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices
cuadradas.
• Matriz antisimétrica
• Matriz banda
• Matriz cuadrada
• Matriz de adjuntos
• Matrices elementales
• Matriz definida positivamente
• Matriz diagonal
• Matriz de diagonal estrictamente dominante
• Matriz hermítica
• Matriz idempotente
• Matriz identidad
• Matriz inversa
• Matriz invertible
• Matriz involutiva
• Matriz jacobiana
• Matriz nilpotente
• Matriz no singular
• Matriz normal
• Matriz nula
• Matriz ortogonal
• Matriz permutación
• Matriz simétrica
• Matriz singular
• Matriz traspuesta
• Matriz triangular (superior o inferior)
Historia [editar]
El origen de las matrices es muy antiguo. Un cuadrado mágico, 3 por 3, se registra en la
literatura china hacia el 650 a. C.1
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un
importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve
capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo
conocido de uso del método de matrices para resolver un sistema de ecuaciones
simultáneas.2 En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante
apareció por primera vez, dos mil años antes de su publicación por el matemático
japonés Seki Kowa en 1683 y el matemático alemán Gottfried Leibniz en 1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente
desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y
astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias.
Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de
orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de
Pureza (Rasa'il Ihkwan al-Safa).1
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales
del siglo XVII, Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl
Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el
siglo XIX.
El término "matriz" fue acuñado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo
algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial,
como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.
Grassmann, Frobenius y von Neumann están entre los matemáticos famosos que
trabajaron sobre la teoría de matrices.
Matriz antisimétrica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Obtenido de "http://es.wikipedia.org/wiki/Matriz_antisim%C3%A9trica"
Matriz banda
De Wikipedia, la enciclopedia libre
En matemáticas una matriz se le llama Matriz Banda cuando es una matriz donde los
valores no nulos son confinados en un entorno de la diagonal principal, formando una
banda de valores no nulos que completan la diagonal principal de la matriz y más
diagonales en cada uno de sus costados.
Escrito formalmente, una matriz n×n A=(ai,j ) es una matriz banda si todos sus
elementos son cero fuera de una zona diagonal cuyo rango se determina por las
constantes k1 y k2:
Los valores k1 y k2 son el semiancho de banda izquierdo y derecho respectivamente. El
ancho de banda de una matriz es k1 + k2 + 1, y se puede definir como el número menor
de diagonales adyacentes con valores no nulos.
Una matriz banda con k1 = k2 = p, dependiendo del número p, se le puede llamar matriz
p-banda, formalmente se puede definir como
Matriz cuadrada
De Wikipedia, la enciclopedia libre
Toda matriz cuadrada se puede descomponer en la suma de una matriz simétrica y una
matriz antisimétrica.
Si A y B son matrices del mismo orden, entonces se pueden sumar entre sí. Los
productos de matrices son válidos en ambos sentidos, AB y BA. Además, surgen los
conceptos de determinante y traza solo aplicables a matrices cuadradas.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_cuadrada"
Ejemplos [editar]
Un ejemplo sería el siguiente:
La matriz de adjuntos suele emplearse para calcular la matriz inversa de una matriz
dada. Sin embargo, para matrices de dimensiones grandes, este tipo de cálculo resulta
más costoso, en términos de operaciones, que otros métodos como el método de
eliminación de Gauss.
Matrices elementales
De Wikipedia, la enciclopedia libre
Las matrices elementales son aquellas que se obtienen a partir de una operación
elemental de matrices sobre la matriz identidad.
Estas son:
Propiedades [editar]
Si multiplicamos alguna de estas matrices por una matriz A, será como aplicar las
operaciones elementales de matrices. Es fácil ver que estas matrices tienen inversas, ya
que pensando en ellas como matrices A se debe aplicar la operación "inversa". Por
ejemplo, teniendo:
Obtenido de "http://es.wikipedia.org/wiki/Matrices_elementales"
En el álgebra lineal, una matriz definida positiva es una matriz hermitiana que es
análoga a los números reales positivos.
Contenido
[ocultar]
• 1 Definiciones equivalentes
• 2 Propiedades
• 3 Matrices definidas negativas, semidefinidas positivas e indefinidas
• 4 Caso no hermitiano
• M en sí misma
Propiedades [editar]
• Toda matriz definida positiva es inversible (su determinante es positivo), y su
inversa es definida positiva.
• Toda matriz definida positiva M, tiene al menos una matriz raíz cuadrada N tal
que N2 = M.
Matrices definidas negativas, semidefinidas positivas e
indefinidas [editar]
La matriz hermitiana M se dice:
es un ejemplo. En general, tendremos xTMx > 0 para todo vector real no nulo x si y sólo
si la matriz simétrica (M + MT) / 2, es definida positiva.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_definida_positiva"
Matriz diagonal
De Wikipedia, la enciclopedia libre
En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas son
todas nulas salvo en la diagonal principal, y éstas pueden ser nulas o no. Así, la matriz
D = (di,j) es diagonal si:
Ejemplo:
Toda matriz diagonal es también una matriz simétrica, triangular (superior e inferior) y
(si las entradas provienen del cuerpo R o C) normal.
La matriz diagonal diag(a1,...,an) es invertible si y sólo si las entradas a1,...,an son todas
distintas de 0. En este caso, se tiene
diag(a1,...,an)-1 = diag(a1-1,...,an-1).
En particular, las matrices diagonales forman un subanillo del anillo de las matrices de
n×n.
Usos [editar]
Las matrices diagonales tienen lugar en muchas áreas del álgebra lineal. Debido a la
sencillez de las operaciones con matrices diagonales y el cálculo de su determinante y
de sus valores y vectores propios, siempre es deseable representar una matriz dada o
transformación lineal como una matriz diagonal.
De hecho, una matriz dada de n×n es similar a una matriz diagonal si y sólo si tiene n
autovectores linealmente independientes. Tales matrices se dicen diagonalizables.
En el cuerpo de los números reales o complejos existen más propiedades: toda matriz
normal es similar a una matriz diagonal (véase teorema espectral) y toda matriz es
equivalente a una matriz diagonal con entradas no negativas.
• Lo es por filas cuando, para todas las filas, el valor absoluto del elemento de la
diagonal de esa fila es estrictamente mayor que la suma de los valores absolutos
del resto de elementos de esa fila.
• Lo es por columnas cuando, para todas las columnas, el valor absoluto del
elemento de la diagonal de esa columna es estrictamente mayor que la suma de
los valores absolutos del resto de elementos de esa columna.
Por ejemplo,
Propiedades [editar]
1. Sea A = B + iC, donde A es hermitiana y B y C reales, entonces B es simétrica
(B = Bt) y C antisimétrica (C = − Ct).
2. La inversa de una matriz hermitiana es también hermitiana.
3. En una matriz hermitiana, los elementos de la diagonal principal son reales.
4. La determinante de una matriz hermitiana es un número real.
Pero la propiedad más importante de toda matriz hermitiana es que todos sus
autovalores son reales.
Matriz idempotente
De Wikipedia, la enciclopedia libre
A es idempotente si A x A = A
Por ejemplo, la siguiente matriz es idempotente:
Obtenido de "http://es.wikipedia.org/wiki/Matriz_idempotente"
Matriz identidad
De Wikipedia, la enciclopedia libre
En álgebra lineal, la matriz identidad es una matriz que cumple la propiedad de ser el
elemento neutro del producto de matrices. Esto quiere decir que el producto de
cualquier matriz por la matriz identidad (donde dicho producto esté definido) no tiene
ningún efecto. La columna i-ésima de una matriz identidad es el vector unitario ei de
una base vectorial inmersa en un espacio Euclídeo de dimensión n.
Como el producto de matrices sólo tiene sentido si sus dimensiones son compatibles,
existen infinitas matrices identidad dependiendo de las dimensiones. In, la matriz
identidad de tamaño n, se define como la matriz diagonal que tiene 1 en cada una de las
entradas de la diagonal principal, y 0 en el resto. Así,
Empleando la notación que a veces se usa para describir concisamente las matrices
diagonales, resulta:
In = diag(1,1,...,1)
I = (δij)
Obtenido de "http://es.wikipedia.org/wiki/Matriz_identidad"
Matriz invertible
De Wikipedia, la enciclopedia libre
AB = BA = In,
Contenido
[ocultar]
AC = CA = I
Multiplicando por C
(BA)C = IC = C
(BA)C = B(AC) = BI = B
donde
• = determinante de A
• = matriz de adjuntos de A se multiplica en inversas
Y, evidentemente:
Demostración [editar]
Necesidad [editar]
Suficiencia [editar]
Sea , entonces
Entonces
Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz invertible
De Wikipedia, la enciclopedia libre
Contenido
[ocultar]
AB = BA = I
AC = CA = I
Multiplicando por C
(BA)C = IC = C
(BA)C = B(AC) = BI = B
donde
• = determinante de A
• = matriz de adjuntos de A se multiplica en inversas
Y, evidentemente:
Demostración [editar]
Necesidad [editar]
Sea , entonces
Entonces
Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz involutiva
De Wikipedia, la enciclopedia libre
Una matriz involutiva es una matriz cuadrada (tiene igual número de filas que de
columnas) tal que su cuadrado es igual a la matriz unidad, es decir:
A es involutiva si A x A = I
Obtenido de "http://es.wikipedia.org/wiki/Matriz_involutiva"
Jacobiano
De Wikipedia, la enciclopedia libre
Contenido
[ocultar]
• 1 Matriz Jacobiana
o 1.1 Ejemplo
o 1.2 Matriz Jacobiana de un campo vectorial
• 2 Determinante Jacobiano
o 2.1 Ejemplo
• 3 Véase también
o como
La i-ésima fila está dada por el gradiente de la función yi, para i=1,...,m.
Si p es un punto de Rn y F es diferenciable en p, entonces su derivada está dada por
JF(p). En este caso, la aplicación lineal descrita por JF(p) es la mejor aproximación
lineal de F cerca del punto p, de esta manera:
para x cerca de p.
Ejemplo [editar]
es:
Usando: en la fórmula:
Este es el vector que va en la primera columna de la matriz buscada. Por analogía para
, se consiguen las demás columnas. De este modo, la matriz Jacobiana de
en el punto es:
Esta matriz se denota también por:
Ejemplo [editar]
es:
Demostración [editar]
Si A es una matriz nilpotente de orden k, A^k=0. Por tanto |A^k|=0, luego |A|^k=0, y en
consecuencia |A|=0.
Matriz invertible
De Wikipedia, la enciclopedia libre
AB = BA = In,
Contenido
[ocultar]
AB = BA = I
AC = CA = I
Multiplicando por C
(BA)C = IC = C
(BA)C = B(AC) = BI = B
donde
• = determinante de A
• = matriz de adjuntos de A se multiplica en inversas
Demostración [editar]
Necesidad [editar]
Suficiencia [editar]
Sea , entonces
Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la
relación nos conduce a una matriz con la columna j igual a la columna k y los demás
términos iguales a los de A. Entonces
Entonces
Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz normal
De Wikipedia, la enciclopedia libre
A * A = AA *
Ejemplos [editar]
Esta matriz de orden 2 es normal.
debido a que ..
Propiedades [editar]
Una importante propiedad de este tipo de matrices es que son diagonalizables.
Demostración:
A = QUQ *
Demostraremos que la matriz U es diagonal, por ahora solo sabemos que es triangular
superior. Formalmente, definimos estas condiciones con números, ya que serán usadas
en la demostración:
• ak1 = 0 (1)
• ak2 = 0 (2)
• ...
• akn − 1 = 0 (n-1)
Idénticamente.
Usando (1)
Obtenido de "http://es.wikipedia.org/wiki/Matriz_normal"
Matriz cero
De Wikipedia, la enciclopedia libre
Esta matriz también se le suele llamar matriz nula y se denota por 0. Una matriz cero
es, al mismo tiempo, matriz simétrica, matriz antisimétrica, matriz nilpotente y matriz
singular.
Matriz ortogonal
De Wikipedia, la enciclopedia libre
Contenido
[ocultar]
• 1 Definición
o 1.1 Ejemplos
• 2 Caracterización
• 3 Propiedades
• 4 Notas
• 5 Véase también
Definición [editar]
Sea n un número entero y sea A una matriz cuadrada n por n, con entradas reales. Se
dice que la matriz es ortogonal si:
Ejemplos [editar]
Finalmente,
Así que los números a y b satisfacen además la propiedad que la suma de sus cuadrados
vale 1. Por lo tanto, existe un número real θ para el cual
con θ real.
Caracterización [editar]
Sea A una matriz ortogonal n por n. Sean , , los n vectores fila de la
matriz. En término de estos vectores, es muy fácil expresar los elementos de la matriz
que resulta de muliplicar A por su transpuesta:
De modo que los vectores fila de una matriz ortogonal forman un conjunto de n vectores
ortonormales. Puesto que la ecuación
también se verifica, tenemos que los vectores columna de la matriz A también forman
un conjunto ortonormal de vectores. Como el recíproco de todo esto también es cierto,
tenemos
Una matriz real A es ortogonal si y sólo si sus vectores filas o vectores columna son
cada uno un conjunto ortonormal de vectores.
Es en este sentido que se dice que se ha hecho una caracterización de las matrices
ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y
columna para determinar si dicha matriz es o no ortogonal.
Propiedades [editar]
• De la definición, es inmediato que la si una matriz es ortogonal, la matriz es no
singular o inversible y su transpuesta coincide con su inversa
• El determinante de una matriz ortogonal A es +1 ó -1. En efecto, de las
propiedades del determinante tenemos
y por tanto,
Notas [editar]
1. ↑ Se sobreentiende que al espacio vectorial real, se le ha dotado de un producto
interno
Matriz permutación
De Wikipedia, la enciclopedia libre
La matriz permutación es la matriz cuadrada con todos sus n×n elementos iguales a 0,
excepto uno cualquiera por cada fila y columna, el cual debe ser igual a 1. De acuerdo a
esta definición existen n! matrices de permutación distintas, de las cuales una mitad
corresponde a matrices de permutación par (con el determinante igual a 1) y la otra
mitad a matrices de permutación impar (con el determinante igual a -1).
Para n = 3 se tiene:
Propiedades [editar]
• El elemento neutro del grupo es la matriz identidad.
• El elemento inverso de cada elemento del grupo de matrices de permutación es
la matriz traspuesta correspondiente.
• Cada elemento del grupo de matrices de permutación es una matriz ortogonal.
• El producto de matrices de permutación par siempre genera una matriz de
permutación par.
• El producto de matrices de permutación impar siempre genera una matriz de
permutación par.
• El producto de matrices de permutación de paridad distinta siempre genera una
matriz de permutación impar.
• Observe que las matrices de permutación par conforman un semigrupo y que
además el grupo de matrices de permutación no es conmutativo.
• Cada elemento del grupo de matrices de permutación fuera del semigrupo es una
matriz simétrica.
Matriz simétrica
De Wikipedia, la enciclopedia libre
Ejemplo, para n = 3:
Propiedades [editar]
Uno de los teoremas básicos que concierne este tipo de matrices es el teorema espectral
de dimensión finita, que dice que toda matriz simétrica cuyas entradas sean reales puede
ser diagonalizada por una matriz ortogonal. Éste es un caso especial de una matriz
hermítica.
Autovalores [editar]
Como las matrices simétricas son un caso particular de las matrices hermíticas, todos
sus autovalores son reales.
Con base en las propiedades de los autovalores de una matriz simétrica, se pueden
clasificar en los siguientes tipos:
• definida positiva: Una matriz simétrica es definida positiva si y solo si todos sus
autovalores son estrictamente positivos.
• definida negativa: Una matriz simétrica es definida negativa si y solo si todos
sus autovalores son estrictamente negativos.
• semidefinida positiva: Una matriz simétrica es semidefinida positiva si y solo si
todos sus autovalores son mayores o iguales a cero.
• semidefinida negativa: Una matriz simétrica es semidefinida negativa si y solo si
todos sus autovalores son menores o iguales a cero.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_sim%C3%A9trica"
Matriz singular
De Wikipedia, la enciclopedia libre
• A es no invertible.
• AX=0 tiene infinitas soluciones.
• El determinante de A es nulo [det(A)=0], esto es, A es singular.
Matriz transpuesta
De Wikipedia, la enciclopedia libre
Contenido
[ocultar]
• 1 Ejemplos
• 2 Propiedades
• 3 Definiciones asociadas
Ejemplos [editar]
Propiedades [editar]
Para toda matriz A
es semidefinida positiva
y antihermítica si
Vale la pena observar que si una matriz es hermítica (la matrices simétricas son un caso
particular) entonces es diagonalizable y sus autovalores son reales. (El recíproco es
falso).
Matriz triangular
De Wikipedia, la enciclopedia libre
es triangular superior, si es una matriz cuadrada y aij = 0 para todo i>j (i,j =1,2,3,...,n).
Es decir,
En caso contrario, si aij = 0 para todo i<j (i,j =1,2,3,...,n), entonces A es matriz
triangular inferior que tiene la forma:
Por ejemplo, para n = 3:
es triangular superior y
es triangular inferior.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_triangular"
Vector (programación)
De Wikipedia, la enciclopedia libre
Los vectores o arreglos (array en inglés) de dos o más dimensiones se denominan con
frecuencia matrices, y pueden tener tantas dimensiones como se desee; aunque lo
correcto es llamarlo arreglo (de memoria) ya que una variable de más de dos
dimensiones, no cumple con las características matemáticas de una matriz numérica.
Desde el punto de vista del programa, un arreglo (matriz, array ó vector) es una zona de
almacenamiento contiguo, que contiene una serie de elementos del mismo tipo, los
elementos de la matriz. Desde el punto de vista lógico podemos considerarlas como un
conjunto de elementos ordenados en fila. Así pues, en principio todas las matrices son
de una dimensión, la dimensión principal, pero veremos que los elementos de esta fila
pueden ser a su vez arreglos (un proceso que puede ser recursivo), lo que nos permite
hablar de la existencia de arreglos multidimensionales, aunque las más fáciles de "ver" o
imaginar son las de dos y tres dimensiones.
Puede afirmarse que las matrices son un recurso de programación simple y socorrido; en
realidad pueden considerarse como las "estructuras" de datos más simples que cabe
imaginar (todos los elementos del mismo tipo). Presentan la ventaja de que sus
elementos son rápidamente accesibles, en especial si utiliza punteros en vez de
subíndices, pero presentan una notable limitación: son de tamaño fijo; es preciso definir
su tamaño desde el principio y no pueden ser fácilmente incrementadas o disminuidas
sino mediante complejos procesos de copia.
Estas estructuras de datos son adecuadas para situaciones en las que el acceso a los
datos se realice de forma aleatoria e impredecible. Por el contrario, si los elementos
pueden estar ordenados y se va a utilizar acceso secuencial sería más adecuado utilizar
una lista.
Contenido
[ocultar]
• 1 Índices
• 2 Notación
• 3 Forma de Acceso
• 4 Vectores dinámicos
• 5 Vectores multidimensionales
• 6 Véase también
Índices [editar]
Todo vector se compone de un determinado número de elementos. Cada elemento es
referenciado por la posición que ocupa dentro del vector. Dichas posiciones son
llamadas índice y siempre son correlativos.
Matemáticamente todo elemento inicial de un vector comienza por '0' hasta el número
de elementos - 1. Este sistema es conocido como ZeroIndex. Sin embargo algunos
lenguajes, adoptaron como elemento inicial el '1' por ser más intuitivo a los usuarios a
que iba dirigido el lenguaje. Particularmente el Basic (hasta la versión VB 6.0) permitía
especificar cualquier cifra como inicial, incluso negativas, los únicos límites eran el
rango de tipo de datos y que debía ser inferior o igual al elemento final, en tales casos el
número de elementos era la diferencia entre ambos límites.
Lenguajes como Python llevan al extremo las utilización de índices y permiten el uso de
números negativos para referenciar el vector desde el final hacia la posición inicial. Por
ejemplo, el índice -1 corresponde al último elemento y el -2 corresponde al penúltimo.
Notación [editar]
La representación de un elemento en un vector se suele hacer mediante el identificador
del vector seguido del índice entre corchetes, paréntesis o llaves:
Notación Ejemplos
vector[índice,índice 2...,índice N] (C, C++, Java, Lexico, etc.)
vector(índice,índice 2...,índice N) (Basic)
Aunque muchas veces
vector{índice,índice 2...,índice N} (Perl)
en pseudocódigos y en
libros de matemática se representan como letras acompañadas de un subíndice numérico
que indica la posición a la que se quiere acceder. Por ejemplo: a0,a1,a2,... vector
unidimensional
Para trabajar con vectores muchas veces es preciso recorrerlos. Esto se realiza por
medio de ciclos de repetición. El algoritmo clásico para recorrer un vector se refleja en
el siguiente pseudocódigo:
i = 0
mientras (i < longitud)
#Se realiza alguna operación con el vector en la i-ésima posición
f(v[i])
i=i+1
fin_mientras
Lenguajes más modernos y de más alto nivel, cuentan con un mecanismo denominado
recolector de basura (como es el caso de Java) que permiten que el programa decida si
debe liberar el espacio basándose en si se va a utilizar en el futuro o no un determinado
objeto.
Ejemplos:
int v[5];
for (int i=0; i<5; i++)
{
v[i]=2*i;
} El resultado de los dos ejemplos es el mismo vector:
0 1 2 3 4
0 2 4 6 8
• Declaración en C++ de un ( vector de la
STL o vector dinámico):
vector<int> v;
for (int i=0; i<5; i++)
{
v.push_back(2*i);
}
En el caso del lenguaje C, la forma de crear vectores estáticos es igual que en c++, pero
para vectores dinámicos se utilizan la instrucciones malloc y realloc, acompañadas por
free (para liberar la memoria utilizada).
elemento 1: (0,0)
elemento 2: (0,1)
elemento 3: (1,0)
...
elemento 8: (3,1)
elemento 9: (4,0)
elemento 10: (4,1)