domingo, 23 de mayo de 2010

Definicion Espacio Vectorial Y Propiedades

ESPACIO VECTORIAL

Historia

Los espacios vectoriales se derivan de la geometría afín, a través de la introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la vinculación de las soluciones de una ecuación con dos variables a la determinación de una curva plana.1 Para lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores de los vectores.2 Este trabajo hizo uso del concepto de coordenadas baricéntricas de August Ferdinand Möbius de 1827.3 El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores se reconsideraron con la presentaciónde los números complejos de Argand y Hamilton y la creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre de vector).4 Son elementos de R2 y R4; el tratamiento mediante combinaciones lineales se remonta a Laguerre en 1867, quien también definió los sistemas de ecuaciones lineales.

En 1857, Cayley introdujo la notación matricial, que permite una armonización y simplificación de los aplicaciones lineales. Casi al mismo tiempo, Grassmann estudió el cálculo baricéntrico iniciado por Möbius. Previó conjuntos de objetos abstractos dotados de operaciones.5 En su trabajo, los conceptos de independencia lineal y dimensión, así como de producto escalar están presentes. En realidad el trabajo de Grassmann de 1844 supera el marco de los espacios vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo que hoy en día se llaman álgebras. El matemático italiano Peano dio la primera definición moderna de espacios vectoriales y aplicaciones lineales en 1888.

Un desarrollo importante de los espacios vectoriales se debe a la construcción de los espacios de funciones por Henri Lebesgue. Esto más tarde fue formalizado por Banach en su tesis doctoral de 19207 y por Hilbert. En este momento, el álgebra y el nuevo campo del análisis funcional empezaron a interactuar, en particular con conceptos clave tales como los espacios de funciones p-integrables y los espacios de Hilbert. También en este tiempo, los primeros estudios sobre espacios vectoriales de infinitas dimensiones se realizaron.

DEFINICIÓN

Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. A los elementos de los espacios vectoriales se les llama vectores. Sobre los vectores pueden realizarse dos operaciones: la multiplicación por escalares y la adición (una asociación entre un par de objetos). Estas dos operaciones se tienen que ceñir a un conjunto de axiomas que generalizan las propiedades comunes de las tuplas de números reales así como de los vectores en el espacio euclídeo. Un concepto importante es el de dimensión. Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales. La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de los espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y complicada.

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.

El plano R2, consistente en los pares (x, y) de números reales, es el típico ejemplo de espacio vectorial: cualquiera dos pares de números reales pueden sumarse,

(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2),

y cualquier par (x, y) puede escalarse, multiplicarse por un número real s, para obtener otro vector (sx, sy).

Existe además un vector, el (0,0), llamado vector nulo que cumple que al sumarse con cualquier otro vector no lo altera. Todo vector, por ejemplo el (1, 0), tiene su opuesto, el (−1, 0), que sumados dan como resultante el vector nulo (0, 0).

La noción de espacio vectorial es una generalización de esta idea. Es más general de varias maneras: en primer lugar, en lugar de los números reales otros cuerpos, como los números complejos o los cuerpos finitos, se permiten. En segundo lugar, la dimensión del espacio, que es de dos en el ejemplo anterior, puede ser arbitraria, incluso infinita. Otro punto de vista conceptual importante es que los elementos de los espacios vectoriales no suelen estar expresados como combinaciones lineales de un conjunto de vectores, es decir, no hay preferencia de representar el vector (x, y ) como

(x, y) = x • (1, 0) + y • (0, 1)

o como

(x, y) = (−1/3•x + 2/3•y) • (−1, 1) + (1/3•x + 1/3•y) • (2, 1)

DEFINICIÓN DE ESPACIO VECTORIAL

Un espacio vectorial sobre un cuerpo K (como el cuerpo de los números reales o los números complejos) es un conjunto V no vacío dotado de dos operaciones internas:

tal que:

• tenga la propiedad conmutativa, es decir

• tenga la propiedad asociativa, es decir

• tenga elemento neutro 0, es decir

• tenga elemento opuesto, es decir

tal que: • • • • Los elementos de K se llaman escalares.

Los elementos de V se llaman vectores.

DEFINICIÓN DE SUBESPACIO VECTORIAL

Sea V un espacio vectorial sobre K y no vacío,U es un subespacio vectorial de V si:

• • CONSECUENCIAS

U hereda las operaciones de V como operaciones internas y como consecuencia tenemos que U es un espacio vectorial sobre K. OBSERVACIÓN Con esta definición puede comprobarse que R2, con la suma y producto vistos arriba, es por tanto un espacio vectorial. Comprobar los axiomas se reduce a verificar identidades sencillas como (x, y) + (0, 0) = (x, y), i.e. la suma de un vector nulo (0, 0) con otro vector produce el mismo vector. La propiedad distributiva lleva a (a + b) • (x, y) = a • (x, y) + b • (x, y). NOTAS Y DEFINICIÓN ALTERNATIVA El requisito de que la suma de vectores y la multiplicación por un escalar sean operaciones binarias incluye (por la definición de las operaciones binarias) una propiedad llamada cerradura, es decir, u + v y a v se encuentran en V para todos a, u y v. Algunos autores optan por mencionar estas propiedades como axiomas separados. Las primeras cuatro propiedades hacen referencia a la suma de vectores y se resumen diciendo que el espacio vectorial es un grupo conmutativo con la suma. El resto de propiedades son equivalentes a la existencia de un homomorfismo de anillos f del cuerpo en el anillo de endoformismos del grupo de vectores. Luego, la multiplicación por un escalar a v se define como (f(a))(v). Esto puede ser visto como el punto de partida de la definición de un espacio vectorial sin referirse al cuerpo. En particular, para cualquier a de , se llama homotecia de razón a al morfismo de . Con estas premisas tenemos la siguiente DEFINICIÓN Se dice que es un espacio vectorial sobre si y sólo si se tiene

 , +, * 

es un morfismo de anillos. CONSECUENCIAS DE ESTA DEFINICIÓN • El hecho que (V, + ) sea un grupo abeliano resume en sí mismo los axiomas de la suma vectorial. • El que ha sea homotecia da cuenta del axioma 4 del producto por escalares ya que es lineal. • El que f sea un morfismo de anillos significa que o f(a + b) = f(a) + f(b), es decir que ha + b = ha + hb, ó sea (axioma 10) o , es decir , ó sea (axioma 7) o f(1) = I, ó sea h1 = I, donde 1 es el neutro de (K,.) e I es la identidad, es decir la aplicación de V. La identidad es obviamente el neutro de End V. Esto se escribe para cuaquier vector . (axioma 8 ) • Se podría añadir , la aplicación nula de V, pero es una consecuencia de la tercera premisa. • El último punto (f(1) = I) equivale a afirmar que f no es la aplicación nula. PROPIEDADES DEL ESPACIO VECTORIAL Hay una serie de propiedades que se demuestran fácilmente a partir de los axiomas del espacio vectorial. Algunas de ellas se derivan de la teoría elemental de grupos, aplicada al grupo (aditivo) de vectores: por ejemplo, el vector nulo 0 Є V, y el opuesto -v de un vector v son únicos. Otras propiedades se pueden derivar de la propiedad distributiva, por ejemplo, la multiplicación por el escalar cero da el vector nulo y ningún otro escalar multiplicado por un vector da cero: Propiedad Significado Unicidad del vector nulo Unicidad del opuesto de un vector Producto por el escalar cero 0 v = 0. El 0 es el único escalar que cumple esta propiedad. Producto de un escalar por el vector nulo a 0 = 0 Opuesto del producto de un vector por un escalar - (a v) = (-a) v = a (-v) EJEMPLOS ESPACIOS DE COORDENADAS Y DE FUNCIONES El primer ejemplo de un espacio vectorial sobre un cuerpo K es el propio cuerpo, equipado con la suma y multiplicación definida en el cuerpo. Esto se generaliza por el espacio vectorial conocido como el espacio de coordenadas representado generalmente como Kn, donde n es un entero. Sus elementos son n-tuplas (a1, a2, …, an), donde los ai son elementos de K. Las sucesiones infinitas de coordenadas, y, más generalmente, las funciones de cualquier conjunto fijo Ω en un cuerpo K también forman espacios vectoriales, mediante la suma y la multiplicación escalar puntual, es decir, la suma de dos funciones de f y g viene dada por (f + g)(w) = f(w) + g(w) y de igual modo para la multiplicación. Tales espacios de funciones se producen en muchas situaciones geométricas, cuando Ω es la recta real, un intervalo, o algún subconjunto de Rn. Muchos conceptos en topología y análisis, tales como continuidad, integrabilidad o diferenciabilidad tienen un buen comportamiento respecto a la linealidad, es decir, sumas y múltiplos por un escalar de funciones que posean una determinada propiedad seguirán teniéndola. Por lo tanto, el conjunto de tales funciones son espacios vectoriales. Estos espacios se estudian con más detalle utilizando los métodos de análisis funcional, véase más abajo. Las desigualdades algebraicas también producen espacios vectoriales: el espacio vectorial K[x] formado por funciones polinómicas, i.e. f (x) = rnxn + rn−1xn−1 + … + r1x + r0,donde los coeficientes rn, …, r0 se encuentran en K. Las series de potencias son similares, salvo que se permiten infinitos términos. ECUACIONES LINEALES Los sistemas de ecuaciones lineales homogéneas están estrechamente vinculados a los espacios vectoriales. Por ejemplo, las soluciones de a + 3b + c = 0 4a + 2b + 2c = 0 vienen dadas por tripletas de la forma a, b = a/2, y c = −5a/2 para un a arbitrario. Forman un espacio vectorial: las sumas y múltiplos de esas tripletas sigue cumpliendo las ecuaciones, por lo que son soluciones, también. Las matrices se pueden utilizar para condensar múltiples ecuaciones lineales en una sola ecuación, con el ejemplo anterior, Ax = 0, donde A es la matriz

 ,

, x es el vector (a, b, c), y 0 = (0, 0) es el vector nulo. De forma similar, las soluciones de ecuaciones diferenciales lineales homogéneas forman espacios vectoriales. Por ejemplo, las soluciones de la ecuación f ’‘(x) + 2f ’(x) + f (x) = 0 son de la forma f (x) = a • e−x + bx • e−x, donde a y b son constantes arbitrarias, y e = 2.718…. TEORÍA DE NÚMEROS ALGEBRAICOS Una situación común en la teoría de números algebraicos es un cuerpo K que contiene un subcuerpo E. Por las operaciones de multiplicación y adición de K, K se convierte en un E-espacio vectorial, es decir, una extensión de E. Por ejemplo, los números complejos son un espacio vectorial sobre R. Otro ejemplo es Q(z), el cuerpo más pequeño que contiene los números racionales y algún número complejo z. APLICACIONES LINEALES Y MATRICES Como ocurre con muchas entidades algebraicas, la relación entre dos espacios vectoriales se expresa por las aplicaciones entre ellos. En el contexto de los espacios vectoriales, el concepto correspondiente se denomina aplicación lineal o transformación lineal. Se tratan de funciones f : V → W que son compatibles con la estructura relevante, i.e., preservan la suma de vectores y el producto por un escalar: f(v + w) = f(v) + f(w) y f(a • v) = a • f(v). Un isomorfismo es aquella aplicación lineal f : V → W para la cual existe una inversa g : W → V. Si existe un isomorfismo entre V y W, los dos espacios se dice que son isomorfos, siendo esencialmente idénticos como espacios vectoriales, ya que a cualquier identidades en V le corresponde, a través de f, otra similar en W, y viceversa a través de g. Dados dos espacios vectoriales V y W, las aplicaciones lineales de V en W forman un espacio vectorial representado como Hom F?(V, W) o como L(V, W). Una vez se elige una base de V, las aplicaciones lineales f : V → W están completamente determinadas por las imágenes de los vectores de la base, ya que cualquier elemento de V se expresa de forma única como una combinación lineal de éstos. Si los dos espacios tienen la misma dimensión se puede elegir una biyección entre dos bases fijas de V y W. La aplicación que aplica cualquier elemento de la base de V en el correspondiente elemento de la base deW, es, por su propia definición, un isomorfismo. Luego todo espacio vectorial está completamente determinado (salvo isomorfismos) por su dimensión, un simple número. En particular, cualquier espacio vectorial de dimensión n sobre F es isomorfo a Fn. MATRICES

Una matriz típica. Las matrices son un concepto útil para representar las aplicaciones lineales. Se escriben como una tabla rectangular de escalares, es decir, elementos de algún cuerpo K. Cualquier matriz m-por-n A da lugar a una aplicación lineal de Kn a Km, por la siguiente fórmula:

 ,

o mediante el producto de la matriz A con el vector de coordenadas x: x ↦ Ax. Además, después de la elección de bases de V y W, cualquier aplicación lineal f : V → W se representa de forma única por una matriz a través de esta fórmula.

El volumen de este paralelepípedo es el valor absoluto del determinante de la matriz 3-por-3 formada por los vectores r1, r2, y r3. El determinante det (A) de una matriz cuadrada A es un escalar que nos dice si la correspondiente aplicación lineal es o no un isomorfismo: para serlo la condición necesaria y suficiente es que el determinante no sea cero. VECTORES Y VALORES PROPIOS Un caso especialmente importante de aplicación lineal son los endomorfismos, es decir, aplicaciones f : V → V. En este caso, los vectores v pueden compararse con sus imágenes por f, f(v). Cualquier vector v satisfaciendo f(v) = λ • v, donde λ es un escalar, se dice que es un vector propio de f con valor propio λ.nb 1 Equivalentemente, v es un elemento del núcleo de la diferencia f − λ • Id (la aplicación identidad V → V). En el caso finito-dimensional, esto puede ser reformulado utilizando determinantes como: f tiene el valor propio λ sii det (f − λ • Id) = 0. Al desarrollar el determinante, la expresión del lado izquierdo resulta ser una función polinómica en λ, llamada polinomio característico de f. Si el cuerpo F es lo suficientemente grande como para contener un cero de este polinomio (que siempre ocurrirá si F es algebraicamente cerrado, por ejemplo C) la aplicación lineal tendrá al menos un vector propio. El espacio vectorial V puede o no tener una base formada por vectores propios. Este fenómeno se rige por la forma canónica de Jordan del endomorfismo. El teorema espectral describe el caso infinito-dimensional; para lograr este objetivo, son necesarios los mecanismos de análisis funcionaL.

Solucion Sistemas Ecuaciones Lineales Regla Cramer

La resolución de sistemas de ecuaciones mediante determinantes

Hasta este momento has visto tres métodos para resolver ecuaciones lineales en dos variables: gráfico, por sustitución y eliminación. A continuación un método que te puede ser de utilidad para el mismo tipo de ejercicio que los métodos anteriores.

La regla de Cramer

Para poder aplicar la regla de Cramer es buena idea comenzar con una explicación sobre cómo calcular los determinantes.

Determinantes 2 x 2

Si a,b,c y d son cuatro números reales, a la expresión

D = se le llama un determinante 2 x 2.

Su valor se determina con la expresión ad - bc. Es decir, multiplicamos en forma cruzada y restamos los productos. Es importante que lleves a cabo la multiplicación como se ilustra.

D = = ad - bc

Veamos un ejemplo:

¿Cuál es el determinante para la matriz siguiente ?

Observa el procedimiento para hallarel determinante.

  =  (3)(1) - (6)(−2) = 15

Resumes este proceso de la siguiente forma: primero se multiplican los números que quedan en la diagonal de izquierda arriba a derecha abajo. Luego a este resultado se le resta el producto de los números en la diagonal de izquierda abajo a derecha arriba.

La regla de Cramer es un proceso que te ayuda a resolver sistemas de ecuaciones lineales que tengan la misma cantidad de ecuaciones y variables. Es un método que aplica los determinantes.

Veamos un ejemplo con todos sus pasos.

Resuelve el siguiente sistema de ecuaciones:

      3x - 2y =   4
6x + y = 13

Hallas primero el determinante de los coeficientes de las variables. Lo llamas el determinante principal y lo nombras con una D.

D = = (3)(1) - (6)(−2) = 15

Observas que el determinante de la matriz de coeficientes nos dio 15. Continúas con el proceso. Observa el procedimiento para hallar el valor del determinante para la variable x.

Remplazas la columna de coeficientes de la variable x con los valores de las constantes. Observa a continuación el proceso:

Dx= = (4) (1) - (13) (−2) = 4 + 26 = 30

Para hallar el valor de x, divides el valor determinado Dx por el determinante principal D. Es decir, calculas

Ahora observa cómo hallas el valor de y.

Dy se calcula con el determinante

Dy = = (3)(13) - (6)(4) = 39 - 24 = 15. Fíjate que en este determinante cambias la segunda columna por las constantes.

Para hallar el valor de y divides el valor hallado para Dy por el determinante principal D. Es decir, calculas y = = = 1 .

Concluyes que la solución del sistema es (2,1). Esto significa que las dos rectas representadas por las ecuaciones originales se intersecan en el punto con coordenadas (2,1). Recuerda que si el sistema resulta en rectas que se intersecan lo llamas consistente.

Estudia ahora la forma general de la Regla de Cramer para dos ecuaciones con dos variables:

La solución para el sistema de ecuaciones

ax + by = s cx + dy = t

esta dada por

x = , y =

siempre que lo siguiente ocurra

D = = ad - bc ¹ 0

Finalmente, con la regla de Cramer se concluye que si

 D ¹  0, entonces

x = , y = .

Por si tienes alguna duda sobre el proceso, es importante que estudies el ejemplo 1 de la página 710 de tu texto y resuelvas los siguientes sistemas aplicando este método.

Resuelve:

1. 1. −3x + 2y = −6

 4x  - 5y  =    8

2. 2. 7x - 2y = 11

         x + 3y  =   −5

(Respuestas)

Práctica adicional: Página 712 del texto, ejercicios impares 1 al 11.

La Regla de Cramer aplicada a determinantes de matrices 3 x 3

Observa un sistema de ecuaciones lineales que consta de tres ecuaciones lineales y las variables x, y, z.

2x + y - z = 3 -x +2y +4z = −3 x - 2y - 3z = 4

Primero hallamos el determinante de los coeficientes de las variables, que es

D =

Una forma de hallar este determinante se presenta a continuación:

D = =

=[(2)(2)(−3) + (1)(4)(1) +(−1)(−1)(−2)] - [ (1)(2)(−1)+(−2)(4)(2) + (−3)(−1)(1)]

Observa que se escribieron las primeras dos columnas a la derecha y se efectuaron seis multiplicaciones en diagonal, tres de arriba hacia abajo y tres de abajo hacia arriba.

= −10 + 15 = 5

D = 5

Sigues un procedimiento parecido para hallar el determinante en x, y, z. Recuerda que cada vez que vas a hallar un determinante, sustituyes la columna de coeficientes de la variable bajo estudio por las constantes. Estudia ahora este proceso aplicado para hallar el determinante en x.

Dx = =

= [(3)(2)(−3) + (1)(4)(4) + (−1)(−3)(−2)] - [(4)(2)(−1) + (−2)(4)(3) + (−3)(−3)(1)]

= [−18 +16 −6] - [−8 - 24 + 9]

= −8 - (−23)

Dx = 15

Dy = =

      =   [(2)(−3)(−3) + (3)(4)(1) +(−1)(−1)(4)] - [(1)(−3)(−1)+(4)(4)(2)+

(−3)(−1)(3)]

      =   [18 +12 + 4] - [3 + 32 + 9]

= 34 - 44

Dy = −10

Dz = =

      =  [(2)(2)(4) + (1)(−3)(1) + (3)(−1)(−2)] - [(1)(2)(3) + (−2)(−3)(2) +

(4)(−1)(1)]

      =  [16 −3 +6]  -  [6 + 12 - 4]

= 19 - 14

Dz = 5

En resumen: D = 5 , Dx = 15, Dy = −10, Dz = 5.

Para determinar los valores de las variables llevas a cabo el proceso siguiente:

x = = = 3

y = = = −2

z = = = 1

La solución de este sistema es (3,−2,1). Lo cual significa que las tres rectas representadas por las ecuaciones del sistema se intersecan en este punto.

En las páginas 711 y 712 del texto aparece el ejemplo 2 que puede ser de ayuda para entender los determinantes 3X3.

Una práctica en este momento sería de mucha ayuda, para determinar tu nivel de conocimiento de los determinantes 3×3.

Utiliza la regla de Cramer para resolver cada sistema de ecuaciones:

1. x + y - z = 2

       -x +2y +3z = −1
x - 4y - 2z = −7

2. 3x + z = 4

       -x +2y + 3z =   6
2x + y + 4z = 8

Solucion Sistemas Ecuaciones Lineales Por Inversa

La teoría general de matrices encuentra una de sus aplicaciones más inmediatas en la resolución de sistemas de ecuaciones lineales con múltiples incógnitas. Aunque posteriormente fue objeto de un extenso desarrollo teórico, este campo de las matemáticas surgió en realidad como un instrumento de cálculo para facilitar las operaciones algebraicas complejas.

Matriz identidad y matriz inversa

Dada una matriz cuadrada A de orden n x n (o, simplemente, n), se define matriz identidad I como la que, conla misma dimensión n, está formada por elementos que son todos nulos salvo los situados en la diagonal principal, cuyo valor es 1. Es decir: A × I = I × A = A.

Para dicha matriz A de orden n, se dice que existe una matriz inversa A-1 también de orden n, cuando el producto de ambas es igual a la matriz identidad: A × A-1 = A-1 × A = I.

Toda matriz que tiene inversa se dice inversible o regular, mientras que cuando carece de inversa se denomina matriz singular.

Para calcular la matriz inversa de una dada, puede recurrirse a la resolución de las ecuaciones que plantearía el producto de matrices A × X = I, siendo los coeficientes de A e I conocidos y los de X correspondientes a las incógnitas. También se puede aplicar el llamado método de reducción o gaussiano, según el siguiente esquema:

Dada la matriz original A = (aij), con i, j = 1, 2, …, n, se forma primero su matriz ampliada (A | I).

Después, se aplican operaciones elementales sobre las filas de la matriz hasta conseguir reducir A a la matriz unidad. Las mismas transformaciones se van haciendo en I. La nueva matriz obtenida es A-1.

Las operaciones elementales que se pueden aplicar a las matrices ampliadas son:

Multiplicación de una fila por un número distinto de cero.

Suma ordenada a los elementos de una fila del múltiplo de los de otra.

Intercambio de filas.

Expresión matricial de un sistema de ecuaciones lineales

Cualquier sistema de ecuaciones lineales puede escribirse siempre en forma matricial de la siguiente forma:

donde A es la matriz de los coeficientes, X la matriz de las incógnitas y B la matriz de los términos independientes.

Así, por ejemplo, el sistema de ecuaciones lineales:

Resolución de un sistema por la matriz inversa

Un procedimiento rápido para la resolución de sistemas de ecuaciones lineales mediante matrices es el llamado método de la matriz inversa. Esta técnica consiste en multiplicar por la izquierda los dos miembros de la expresión matricial del sistema de ecuaciones por la matriz inversa de la de los coeficientes (si existe). De este modo:

Cuando la matriz de los coeficientes no es inversible, el sistema no tiene solución (es incompatible).

Propiedades Determinantes

En esta sección aprenderemos a calcular el determinante de una matriz de una manera más sencilla, usando operaciones elementales.

TEOREMA 2.2

Sea A una matriz de orden n. Entonces

Si dos filas (o columnas) de una matriz A se intercambian, entonces el signo del determinante cambia.

Si todos los componentes de una fila (o columna) de una matriz A se multiplican por un escalar k, entonces el determinante de la matriz resultante es k veces el determinante de la matriz A.

Si las componentes de una fila (o columna) de una matriz A se multiplican por un escalar k y se le suman a las correspondientes componentes de otra fila (o columna) entonces el determinante no cambia.

En términos de matrices elementales:

a. b. c.

‘’‘ COROLARIO 2.1′’‘

Si una matriz de orden n tiene una fila o una columna que consta solo de ceros, entonces el determinante de la matriz es cero.

DEMOSTRACIÓN.

Sea A una matriz de orden n, como la parte (b) del teorema 2.2 es cierta para k=0, entonces se tiene que el determinante de una matriz que tenga una fila consistiendo sólo de ceros, tiene determinante igual a cero. Para el caso de las columnas, basta proceder de igual forma sobre las filas de , que son las columnas de la matriz.

COROLARIO 2.2

(Determinantes de las matrices elementales de orden n).

a. b. c.

COROLARIO 2.3

Si E una matriz elemental de orden n y A una matriz de orden n, entonces

. DEMOSTRACIÓN.

Sea A una matriz de orden n y E una matriz elemental de orden n. Por el teorema 2.2 y corolario 2.2 se tiene que:

1. Si entonces 2. Si entonces 3. Si entonces

Por inducción matemática, el resultado anterior se puede extender a k matrices elementales

TEOREMA 2.3

Una matriz A de orden n es no singular si y solo si el determinante de A es diferente de cero.

DEMOSTRACIÓN.

Según el teorema 1.13 de la sección 3.2, existen matrices elementales , tales que , donde E es una matriz escalonada reducida y según el corolario 3 de esta sección . Si la matriz A es no singular, entonces E=I y , por tanto . Si la matriz A es singular de orden n, entonces la última fila de E está compuesta de ceros y por tanto , luego .

Pero determinante de es diferente de cero por el corolario 2.2 de esta sección, de donde se concluye que .

TEOREMA 2.4

Si A y B son matrices de orden n, entonces

. DEMOSTRACIÓN.

Si AB es no singular, entonces tanto A como B son no singulares (ejercicio 10 de la sección 15.2) y por el teorema 1.14, literal (d)., se tiene que A es un producto de matrices elementales, es decir, , y aplicando el corolario 2.3 reiteradamente se tiene que . Como , remplazando se obtiene que .

Definicion Determinante De Matriz

Definición

Para una matriz cuadrada A[n,n], el determinante de A, abreviado det(A), es un escalar definido como la suma de n! términos involucrando el producto de n elementos de la matriz, cadauno proveniente exactamente de una fila y columna diferente. Además, cada término de la suma está multiplicado por −1 ó +1 dependiendo del número de permutaciones del orden de las columnas que contenga.

LUDIVINA VALENCIA CORTES

Calculo Inversa De Matriz

Matriz invertible De Wikipedia, la enciclopedia libre Saltar a navegaci¨®n, b¨

squeda

En matem¨¢ticas, y especialmente en ¨¢lgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que

AA−1 = A−1A = In, donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es cero.

La inversi¨®n de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Contenido [ocultar] 1 Propiedades de la matriz inversa 1.1 Demostraci¨®n de la unicidad de la inversa 1.2 Demostraci¨®n del criterio de inversibilidad de las matrices cuadradas 1.2.1 Necesidad 1.2.2Suficiencia 2 M¨¦todos de inversi¨®n de matrices 2.1 Soluci¨®n anal¨ªtica 2.1.1 Inversi¨®n de matrices 2¡Á2 2.1.2 Inversi¨®n de matrices de ¨®rdenes superiores 2.2 M¨¦todos num¨¦ricos 3 Referencias 4 Enlaces externos

Propiedades de la matriz inversa [editar]La inversa de una matriz, si existe, es ¨

nica.

La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:

Si la matriz es invertible, tambi¨¦n lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:

Y, evidentemente:

Una matriz es invertible si y s¨®lo si el determinante de A es distinto de cero. Adem¨¢s la inversa satisface la igualdad:

donde es el determinante de A y es la matriz de adjuntos de A.

Demostraci¨®n de la unicidad de la inversa [editar]Supongamos que B y C son inversas de A

AB = BA = I

AC = CA = I

Multiplicando por C

(BA)C = IC = C

(BA)C = B(AC) = BI = B

De modo que B=C y se prueba que la inversa es ¨

nica.

Demostraci¨®n del criterio de inversibilidad de las matrices cuadradas [editar]Se probar¨¢ la doble implicaci¨®n.

Necesidad [editar]Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la funci¨®n determinante se obtiene

usando la propiedad det(I) = 1

Por lo tanto, det(A) es distinto de cero.

Suficiencia [editar]Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la matriz A y sea Aij la matriz A sin la fila i y la columna j (com¨

nmente conocida como j-¨¦simo menor de A). Entonces

Sea , entonces

Esta afirmaci¨®n es v¨¢lida propiedades de los determinantes, pues la parte izquierda de la relaci¨®n nos conduce a una matriz con la columna j igual a la columna k y los dem¨¢s t¨¦rminos iguales a los de A. Entonces

donde ¦Äjk = 1 cuando j = k y ¦Äjk = 0 cuando . Entonces

Es decir que A tiene inversa izquierda

Como , entonces At tambi¨¦n tiene inversa izquierda que es

Entonces

luego, aplicando la transpuesta

Que es lo que se quer¨ªa demostrar

M¨¦todos de inversi¨®n de matrices [editar]

Soluci¨®n anal¨ªtica [editar]

Inversi¨®n de matrices 2¡Á2 [editar]Calcular la matriz inversa en matrices de 2×2 puede ser muy sencillo. Se puede hacer de la siguiente manera: [1]

Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.

Inversi¨®n de matrices de ¨®rdenes superiores [editar]Para matrices de ¨®rdenes superiores puede utilizarse la siguiente f¨®rmula:

donde es el determinante de A y es la matriz de adjuntos de A.

M¨¦todos num¨¦ricos [editar]El m¨¦todo de eliminaci¨®n de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposici¨®n LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho m¨¢s f¨¢ciles de invertir.

Referencias [editar]¡ü Strang, Gilbert ;(2006). Linear Algebra and Its Applications. Thomson Brooks/Cole, p¨¢gs. p. 46. ISBN 0–03–010567–6.

Informacion proporcionada por Universidad Autonoma de Chihuahua

Clasificacion De Matrices

“Matriz Escalar”

Si una matriz diagonal tiene todos los términos de la diagonal iguales se llama matriz escalar.

Una matriz es simétrica si es igual a su traspuesta.

Una matriz A es antisimétrica (o hemisimétrica) si su traspuesta es igual a -A.

MATRIZ ORTOGONAL Una matriz se llama ortogonal si A T A = A A T = I. Este resultado implica que A T = A –1.

Ejemplo: Pruebe que la siguiente matriz es ortogonal.

Considere la siguiente matriz ortogonal

entonces

Esta relación genera las siguientes ecuaciones:

u1• u1 = 1 u1• u2 = 0 u1• u3 = 0

u2• u1 = 0 u2• u2 = 1 u2• u3 = 0

u3• u1 = 0 u3• u2 = 0 u3• u3 = 1

Esto quiere decir que los renglones de A son ortogonales y de longitud unitaria, es decir, forman un conjunto de vectores ortonormales. En forma similar se puede probar que las columnas forman también un conjunto de vectores ortonormales.

Una matriz cuadrada tiene un número de filas p igual a su número de columnas q.

Son matrices de orden, p x p ó p2.

Las matrices:

A = 2 0 B = 0 2 3

-3 1 −1 0 2

0 0 0

son de orden 2 x 2 y 3 x 3 respectivamente.

Los elementos a11, a22, a33, … ann de una matriz cuadrada constituyen su diagonal principal.

La diagonal principal será:

a11 … … …

A = … a22 … …

… … a33 …

… … … ann

una matriz cuadrada tal que:

a11 = a22 = a33 = …. = ann = 1 y todos los demás elementos son cero, es una matriz unidad.

La representaremos por I o sea:

IA = 1 0

  • 1

es una matriz de orden 2 x 2.

Una matriz diagonal es aquella en que los elementos que no están en la diagonal principal son ceros.

Esta es un matriz diagonal:

2 0 0 0

A = 0 3 0 0

0 0 −2 0

0 0 0 4

Una matriz cuyos elementos por encima o por debajo de la diagonal principal son todos ceros es matriz triangular. Si todos los ceros están por encima de la diagonal principal entonces es una matriz inferior y si todos los ceros están por debajo de la diagonal principal es una matriz superior.

Ejemplo:

A = 3 0 0 es una matriz inferior.

1 2 0

-1 0 4

B = 4 1 −2

0 1 5 es una matriz superior.

0 0 3

Esquema de filas, columnas y diagonal principal.

1 0 4 7 filas

A = 0 2 5 8

0 3 6 9

1 2 1 0 diagonal principal

columnas

Una matriz nula tiene todos sus elementos nulos.

Ejemplo:

0 0 0

A = 0 0 0

0 0 0

Una matriz cuadrada es simétrica si: aij = aji.

Es decir si los elementos situados a igual distancia de su diagonal principal son iguales.

A = 1 −3 5

-3 2 0

5 0 1

es simétrica porque: a12 = a21 = −3, a13 = a31 = 5, a23 = a32 = 0.

Una matriz es asimétrica si: aij = aji.

Observa si 1 = j, aii = -aii y el único número que cumple con esta igualdad es el cero por lo que es una matriz asimétrica la diagonal principal esta formada por elementos nulos.

En una matriz asimétrica los elementos situados a igual distancia de la diagonal principal son iguales en valor absoluto y de signos contrarios.

B = 0 2 −2 5

-2 0 3 6

2 −3 0 −1

-5 6 1 0

es una matriz asimétrica

Matriz escalar

Si tenemos una matriz diagonal cuyos elementos que están en la diagonal principal son todos iguales entonces tenemos una matriz escalar.

A = 3 0 0

0 3 0

0 0 3

Matriz identidad

Es toda matriz escalar en la que todos los elementos de la diagonal principal son iguales a la unidad.

Esta matriz se representa por 1n.

12 = 1 0

  • 1

igualdad de matrices si y solo si tienen el mismo orden y sus elementos son iguales.

Ejemplo:

A = a b B = x y

c d z w

si en estas matrices a = x, b = y, c = z y d = w, entonces las matrices A y B son iguales.

Matriz transpuesta

Si tenemos una matriz (A) cualquiera de orden m x n entonces su transpuesta es otra matriz (A) de orden n x m donde se intercambian las filas y las columnas de la matriz (A).

Ejemplo:

Si

A = 4 −1 3

0 5 −2

entonces su traspuesta será:

At = 4 0

-1 5

  • −2

Matriz adjunta: Matriz que se obtiene al sustituir cada elemento por su adjunto. El adjunto de un elemento aij es el valor del determinante que se obtiene de eliminar la fila y la columna en la que se halla dicho elemento(menor complementario) multiplicadom por el signo correspondiente a su posicion, segun la regla de los signos o aplicando la expresion (−1)^ij. La matriz adjunta se representa A^* y se forma a partir de una matriz cuadrada.

Matriz conjugada de una matriz A Aquella que se obtiene sustituyendo cada elemento por su complejo conjugado (igual parte real, pero la parte imaginaria cambiada de signo)

Operacionescon Matrices

Suma de Matrices

Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elemetos homologos de las matrices a sumar. Por ejemplo:

Propiedades de la suma de matrices

    * Asociativa

Dadas las matrices m-por-n A , B y C

    A + (B + C) = (A + B) + C

* Conmutativa

Dadas las matrices m-por-n A y B

    A + B = B + A

* Existencia de matriz cero o matriz nula
A + 0 = 0 + A = A

* Existencia de matriz opuesta

con -A = [-aij]

    A + (-A) = 0

Productos con Matrices

Por un Escalar

Dada una matriz A y un número c, el producto escalar cA se calcula multiplicando el escalar c por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ). Por ejemplo:

Entre Matrices

El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m-por-n y B es una matriz n-por-p, entonces su producto matricial AB es la matriz m-por-p (m filas, p columnas) dada por:

para cada par i y j.

Por ejemplo:

El producto de dos matrices no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas.

Definicionde Matriz Notacion Orden

DEFINICIÓN DE MATRIZ

En general, una matriz es un conjunto ordenado en una estructura de filas y columnas. Los elementos de este conjunto pueden ser objetos matemáticos de muy variados tipos, aunque de forma particular, trabajaremos exclusivamente con matrices formadas por números reales.

Normalmente las matrices son designadas por letras mayúsculas.

Los elementos de una matriz se identifican por la fila y la columna que ocupan. Así, designaremos por a32 el elemento que está situado en la tercera fila y segunda columna de a matriz A.

El número de filas y columnas que tiene una matriz se llama dimensión de la matriz.

Dos matrices son iguales si son de igual dimensión y coincide el valor de los elementos que ocupan la misma posición en ambas.

MATRICES Y DETERMINANTES

Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Tienen también muchas aplicaciones en el campo de la física.

MATRICES

Una matriz es una tabla ordenada de escalares ai j de la forma

La matriz anterior se denota también por (ai j ), i =1, …, m, j =1, …, n, o simplemente por (ai j ).

Los términos horizontales son las filas de la matriz y los verticales son sus columnas. Una matriz con m filas y n columnas se denomina matriz m por n, o matriz m ð n.

Las matrices se denotarán usualmente por letras mayúsculas, A, B, …, y los elementos de las mismas por minúsculas, a, b, …

Ejemplo:

donde sus filas son (1, −3, 4) y (0, 5, −2) y sus

CLASES DE MATRICES

Según el aspecto de las matrices, éstas pueden clasificarse en:

Matrices cuadradas

Una matriz cuadrada es la que tiene el mismo número de filas que de columnas. Se dice que una matriz cuadrada n ð n es de orden n y se denomina matriz n-cuadrada.

Ejemplo: Sean las matrices

Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.

Matriz identidad

Sea A = (ai j ) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste en los elementos a11, a22, …, ann. La traza de A, escrito tr A, es la suma de los elementos diagonales.

La matriz n-cuadrada con unos en la diagonal principal y ceros en cualquier otra posición, denotada por I, se conoce como matriz identidad (o unidad). Para cualquier matriz A,

A· I = I ·A = A.

Matrices triangulares

Una matriz cuadrada A = (ai j ) es una matriz triangular superior o simplemente una matriz triangular, si todas las entradas bajo la diagonal principal son iguales a cero. Así pues, las matrices

son matrices triangulares superiores de órdenes 2, 3 y 4.

Matrices diagonales

Una matriz cuadrada es diagonal, si todas sus entradas no diagonales son cero o nulas. Se denota por D = diag (d11, d22, …, dnn ). Por ejemplo,

son matrices diagonales que pueden representarse, respectivamente, por

diag(3,−1,7) diag(4,−3) y diag(2,6,0,−1).

Traspuesta de una matriz

La traspuesta de una matriz A consiste en intercambiar las filas por las columnas y se denota por AT.

Así, la traspuesta de

En otras palabras, si A = (ai j ) es una matriz m ð n, entonces AT = es la matriz n ð m. La trasposición de una matriz cumple las siguientes propiedades:

1. (A + B)T = AT + BT.

2. (AT)T = A.

3. (kA)T = kAT (si k es un escalar).

4. (AB)T = BTAT.

Matrices simétricas

Se dice que una matriz real es simétrica, si AT = A; y que es antisimétrica,

si AT = -A.

Ejemplo:

Consideremos las siguientes matrices:

Podemos observar que los elementos simétricos de A son iguales, o que AT = A. Siendo así, A es simétrica.

Para B los elementos simétricos son opuestos entre sí, de este modo B es antisimétrica.

A simple vista, C no es cuadrada; en consecuencia, no es ni simétrica ni antisimétrica.

Matrices ortogonales

Se dice que una matriz real A es ortogonal, si AAT = AT A = I. Se observa que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A-1 = AT.

Consideremos una matriz 3 ð 3 arbitraria:

Si A es ortogonal, entonces:

Matrices normales

Una matriz es normal si conmuta con su traspuesta, esto es, si AAT = ATA. Obviamente, si A es simétrica, antisimétrica u ortogonal, es necesariamente normal.

Ejemplo:

Puesto que AAT = ATA, la matriz es normal.

OPERACIONES CON MATRICES

Suma y resta de matrices

Para poder sumar o restar matrices, éstas deben tener el mismo número de filas y de columnas. Es decir, si una matriz es de orden 3 ð 2 y otra de 3 ð 3, no se pueden sumar ni restar. Esto es así ya que, tanto para la suma como para la resta, se suman o se restan los términos que ocupan el mismo lugar en las matrices.

Ejemplo:

Para sumar o restar más de dos matrices se procede igual. No necesariamente para poder sumar o restar matrices, éstas tienen que ser cuadradas.

Ejemplo:

Producto de matrices

Para poder multiplicar dos matrices, la primera debe tener el mismo número de columnas que filas la segunda. La matriz resultante del producto quedará con el mismo número de filas de la primera y con el mismo número de columnas de la segunda.

Es decir, si tenemos una matriz 2 ð 3 y la multiplicamos por otra de orden 3 ð 5, la matriz resultante será de orden 2 ð 5.

(2 ð 3) ð (3 ð 5) = (2 ð 5)

Se puede observar que el producto de matrices no cumple la propiedad conmutativa, ya que en el ejemplo anterior, si multiplicamos la segunda por la primera, no podríamos efectuar la operación.

3 ð 5 por 2 ð 3,

puesto que la primera matriz no tiene el mismo número de columnas que filas la segunda.

Supongamos que A = (ai j ) y B = (bi j ) son matrices tales que el número de columnas de A coincide con el número de filas de B; es decir, A es una matriz m ð p y B una matriz p ð n. Entonces el producto AB es la matriz m ð n cuya entrada ij se obtiene multiplicando la fila i de A por la columna j de B.

Esto es,

Ejemplo:

1.

2.

ð Producto por un escalar

El producto de un escalar k por la matriz A, escrito k·A o simplemente kA, es la matriz obtenida multiplicando cada entrada de A por k:

Ejemplo:

Entonces:

División de matrices

La división de matrices se define como el producto del numerador multiplicado por la matriz inversa del denominador. Es decir, sean las matrices A y B tal que A/B = AB-1:

Si una matriz está dividida entre un escalar, todos los términos de la matriz quedarán divididos por ese escalar.

Ejemplo:

MATRICES INVERTIBLES

Se dice que una matriz cuadrada A es invertible, si existe una matriz B con la propiedad de que

AB = BA = I

siendo I la matriz identidad. Denominamos a la matriz B la inversa de A y la denotamos por A-1.

Ejemplo:

Puesto que AB = BA = I, A y B son invertibles, siendo cada una la inversa de la otra.

Método de Gauss

Sea A = (ai j ) una matriz cuadrada de orden n. Para calcular la matriz inversa de A, que denotaremos como A-1, seguiremos los siguientes pasos:

Paso 1. Construir la matriz n ð 2n M = (A I ) esto es, A está en la mitad izquierda de M y la matriz identidad I en la derecha.

Paso 2. Se deja tal y como está la primera fila de M, y debajo del primer término de la diagonal principal, a11, que llamaremos pivote, ponemos ceros. Luego se opera como se indica en el siguiente ejemplo.

Ejemplo:

Consideremos una matriz 3 ð 3 arbitraria

Paso 1.

Paso 2.

El siguiente paso es igual que el anterior, pero esta vez se coge como pivote el segundo término de la diagonal principal.

Al llegar al último término de la diagonal, se procede igual que antes, pero poniendo los ceros encima del nuevo pivote. Se observa que al coger como pivote el último término de la diagonal, la matriz A se transforma en una matriz triangular.

Una vez realizados todos los pasos, la mitad izquierda de la matriz M se convierte en una matriz diagonal. En este momento hay que proceder a transformar, si es que no lo está, la mitad izquierda en la matriz identidad, dividiendo si fuera necesario las filas de M por un escalar.

Ejemplo:

Supongamos que queremos encontrar la inversa de

Primero construimos la matriz M = (A I),

La mitad izquierda de M está en forma triangular, por consiguiente, A es invertible. Si hubiera quedado toda una fila con ceros en la mitad A de M, la operación habría terminado (A no es invertible).

A continuación, cogemos como pivote a33, ponemos ceros encima de éste y seguimos operando hasta que nos quede una matriz diagonal.

Ya que la matriz colocada en la mitad izquierda es diagonal, no hay que operar más. Transformamos la matriz diagonal en una matriz identidad; para ello hay que dividir la segunda fila entre −1:

La matriz que ha quedado en la mitad derecha de M es precisamente la matriz inversa de A:

Para comprobar si el resultado es correcto, se procede a multiplicar AA-1, teniendo que dar como resultado la matriz identidad I.

Comprobación:

AA-1 = I

Ejercicio: operaciones con matrices

ððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððð

ð Sean

a) ¿Qué clase de matrices son?

b) Calcular:

- A - B + C.

A + B - C.

3A + C/2.

c) Calcular:

(A · B) /C.

d) Calcular la inversa de A (A-1) y comprobar el resultado.

Resolución:

a) Las tres matrices son cuadradas y de orden tres. A su vez, B es una matriz triangular, ya que todas las entradas debajo de la diagonal principal son ceros, y C es antisimétrica porque los elementos simétricos son opuestos entre sí.

b)

c)

ð Puesto que (A ð B) /C = A ð B ð C-1, calcularemos primero la inversa de C y luego haremos el producto.

ð Dividimos la primera fila entre −6, la segunda entre 3 y la tercera entre −3 para que en la mitad izquierda quede la matriz identidad,

ð Por lo tanto, la matriz inversa de C es:

ð A continuación, se calcula el producto de las matrices A y B,

ð Por último, calculamos (AðB)ðC-1.

= .

ð Sacando factor común 1/3, el resultado puede escribirse como:

d)

ð Primero se construye la matriz M = (A I) y luego se va desarrollando por Gauss. Así pues:

ð Se simplifica un poco para que las operaciones no sean tan costosas, dividiendo la tercera fila entre cuatro. De este modo, se tiene

.

Se vuelve a simplificar, dividiendo la primera fila entre dos y la segunda entre cuatro,

.

ð Puesto que ya ha quedado una matriz diagonal en la mitad izquierda de M, se procede a transformar esta mitad izquierda en una matriz identidad, dividiendo la primera fila entre −3042, la segunda entre −78 y la tercera entre 39,

Así pues, la matriz que ha quedado en la mitad derecha es precisamente la matriz identidad, que sacando factor común 1/78 se puede escribir como:

ð Para comprobar el resultado, la matriz inversa de A o A-1, tiene que cumplir

AA-1 = I.

Procedamos a la comprobación:

MATR. Y SIST. DE ECUAC. LINEALES

La matriz ampliada M de un sistema de m ecuaciones con n incógnitas es la siguiente:

Cada fila de M corresponde a una ecuación del sistema y cada columna a los coeficientes de una incógnita, excepto la última, que corresponde a las constantes del sistema.

Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada, específicamente, reduciéndola a forma escalonada mediante el proceso de Gauss.

Método de Gauss

Para resolver sistemas de ecuaciones lineales, se aplica el método de Gauss. Este proceso se ilustra en el siguiente ejemplo.

Ejemplo:

Sea el sistema,

su matriz ampliada asociada es

Ahora resolvemos por el método de Gauss sabiendo que la primera columna corresponde a los coeficientes de la x, la segunda a los de la y, la tercera a los de la z y la cuarta a los términos independientes:

De este modo, el sistema tiene la solución única

x = 2, y = −1, z = 3.

La resolución de sistemas de ecuaciones lineales por matrices, aplicando el método de Gauss u otros, es una de las múltiples aplicaciones que tienen éstas.

Ejercicio: resolución de sistemas de ecuaciones lineales por matrices

ððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððð

ð Hallar el valor de x, y, z, t en los siguientes sistemas de ecuaciones lineales aplicando matrices:

a) La matriz M asociada al sistema de ecuaciones es:

La tercera fila se suprime, puesto que es múltiplo de la segunda y resultaría una fila nula. Así, el sistema queda formado por dos ecuaciones con cuatro incógnitas:

La solución del sistema es compatible e indeterminado, esto es, tiene infinitas soluciones.

x = −9 - y + 10t

z = 7t - 7 ó (- 9 - y + 10t, y, 7t - 7, t).

Dependiendo de qué valores se escojan para y y t, salen distintos resultados. Así, para y = t = 0 tendremos la solución del sistema

x = −9, y = 0, z = −7, t = 0.

b) La matriz M asociada al sistema de ecuaciones es:

No hay necesidad de continuar calculando nada más, puesto que la matriz escalonada ya nos indica que el sistema es incompatible (SI), es decir, que no tiene solución. Específicamente, la tercera fila de la matriz escalonada corresponde a la ecuación

0x + 0y + 0z + 0t = −5

obteniendo como resultado 0 = −5, que es absurdo. Por lo tanto, decimos que no tiene solución.

DETERMINANTES

A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), | A | o

Una tabla ordenada n ð n de escalares situada entre dos líneas verticales, llamada determinante de orden n, no es una matriz.

La función determinante apareció por primera vez en el estudio de los sistemas de ecuaciones lineales. Veremos que es una herramienta indispensable en el estudio y obtención de éstas.

DETERMINANTES DE ORDEN UNO Y DOS

Los determinantes de orden uno y dos se definen como sigue:

= a11

Así, el determinante de una matriz 1 ð 1 A = (a11) es el propio escalar a11, es decir, det (A) = |a11| = a11.

Ejemplos:

a) Dado que el determinante de orden uno es el mismo escalar, tenemos det (24) = 24, det(−3) = −3, det (3x+5) = 3x+5.

b)

DETERMINANTES DE ORDEN TRES

Consideremos una matriz 3 ð 3 arbitraria A = (ai j ). El determinante de A se define como sigue:

a12a21a33 - a32a23a11

Obsérvese que hay seis productos, cada uno formado por tres elementos de la matriz. Tres de los productos aparecen con signo positivo (conservan su signo) y tres con signo negativo (cambian su signo).

Para calcular los determinantes de orden tres, el siguiente diagrama puede ayudar a resolverlos:

Ejemplo:

Calcular el valor del determinante:

= 24 + 20 + 0 - (−4) - 0 - (−15) = 44 + 4 + 15 = 63

El determinante de la matriz 3 ð 3 A = (ai j ) puede reescribirse como:

det (A) = a11(a22a33 - a23a32) - a12(a21a33 - a23a31) + a13(a21a32 - a22a31) =

que es una combinación lineal de tres determinantes de orden dos, cuyos coeficientes (con signos alternantes) constituyen la primera fila de la matriz dada. Esta combinación lineal puede indicarse de la forma siguiente:

Nótese que cada matriz 2 ð 2 se obtiene suprimiendo en la matriz inicial la fila y la columna que contienen su coeficiente.

Ejemplo:

Para demostrar que la propiedad anterior se cumple, trabajaremos con :

= 3(8+5) - 2(0–10) + 1(0+4) = 39 + 20 + 4 = 63

PROPIEDADES DE LOS DETERMINANTES

Las propiedades básicas del determinante son las siguientes:

1. El determinante de una matriz A y el de su traspuesta AT son iguales, es decir,

2. Sea A una matriz cuadrada,

ð Si A posee dos filas (columnas) iguales, necesariamente = 0.

ð Si A es triangular, esto es, A sólo tiene ceros por encima o por debajo de la diagonal principal, entonces es igual al producto de los elementos de la diagonal.

3. Supongamos que B se ha obtenido de A mediante una operación elemental entre filas o columnas,

ð Si se han intercambiado dos filas (columnas) de A, |B| = - |A|.

ð Si se ha sumado un múltiplo de una fila (columna) a otra, entonces |B| = |A|.

ð Si se ha multiplicado una fila (columna) de A por un escalar k, |B| = k|A|.

4. Sea A cualquier matriz n-cuadrada, son equivalentes los siguientes principios:

ð A es invertible, es decir, A tiene inversa A-1.

ð AX = 0 tiene solamente la solución trivial.

ð El determinante de A no es nulo: |A| ð 0.

5. El determinante es una función multiplicativa. Es decir, el determinante del producto de matrices A y B es el producto de los determinantes: |AB| = |A| |B|.

6. Supongamos que A y B son matrices similares, entonces: |A| = |B|.

DETERM. DE ORDEN ARBITRARIO

Sea A = (ann) una matriz de orden arbitrario n ð n (siendo n un número par). Para calcular el det (A) se procede de la siguiente manera:

Los signos se van alternando según la posición que ocupen las entradas del determinante. Es decir:

Ejemplo:

Si observamos la matriz, podemos ver que en la tercera columna hay dos ceros. Así pues, si cogemos las entradas de la tercera columna para calcular el determinante, nos ahorraremos calcular dos determinantes, ya que el producto de un determinante por cero es cero.

+ = −1(−35) + 3(35) = 35 + 105 = 140.

Ejercicio: cálculo de determinantes

ððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððð

ð Calcular los siguientes determinantes:

= 2(−6–24+16+2)+ 5(−4–24+6)−1(4+12–16–3) = −24–110+3 = −131.

= 1·(16+0+24-(−4)-(−30)−0) −2·(−128–2+30-(−40)−12-(−16)) = 74–2·(−56) =

= 74+112 = 186.

ADJUNTO DE UNA MATRIZ

Consideremos una matriz n-cuadrada A = (ai j ) sobre un cuerpo K. El adjunto de A, denotado por adj A, es la traspuesta de la matriz de cofactores de A:

Ejemplo:

Los cofactores de los nueve elementos de A son:

La traspuesta de la matriz de los cofactores anteriores proporciona el adjunto de A:

ð Aplicación del adjunto para hallar la matriz inversa

Para toda matriz cuadrada A,

A·(adj A) = (adj A) · A = |A|I

De este modo, si |A| ð 0,

Observemos que esta propiedad nos permite hallar por otro método la inversa de una matriz.

Ejemplo:

Consideremos la matriz

y el det A:

Así pues, aplicando la propiedad anterior:

Ejercicio: cálculo de la matriz inversa

ððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððð

ð Calcular, por la propiedad anterior, la inversa de las siguientes matrices:

a)

b)

a) Primero hallaremos el determinante de la matriz A:

El siguiente paso es hallar el adjunto de la matriz B, así pues, los cofactores de los cuatro elementos de B son:

B11 = 5 B12 = −2

B21 = 1 B22 = 3

y el adjunto de B, denotado por adj B, será

b) Empezaremos por hallar el det A,

Los cofactores de los nueve elementos de A son:

La traspuesta de la matriz de los cofactores anteriores proporciona el adjunto de A:

Aplicando la propiedad de la matriz inversa obtenemos A-1:

ððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððð

CÁLC. DEL RANGO DE UNA MATRIZ

Consideremos la matriz A = (aij):

1. El rango de la matriz A coincide con el de la matriz A’ que se obtiene suprimiendo en la matriz A todas la líneas (filas o columnas) cuyas entradas estén sólo formadas por ceros, es decir, que sean nulas.

2. Consideremos la matriz:

A1 = (a11, a12, …, a1n)

y supongamos que

entonces :

rango (A) ≥ rango(A 1) = 1

3. Añadimos filas de la matriz A a la matriz A1 hasta encontrar una matriz que cumpla:

tal que posea un menor no nulo de la forma:

Por consiguiente,

rango (A) ≥ rango(A 2) = 2.

Si esto no hubiese sido posible, entonces:

rango (A) = 1.

Supongamos que rango (A) ≥ rango (A2) y que i = 2 y j = 2.

4. Añadimos filas a la matriz A2 hasta encontrar una matriz que cumpla:

de forma que posea un menor de orden tres de la forma:

Entonces:

rango (A) ≥ rango (A2) = 3.

En caso de no haber sido posible encontrar dicho menor, entonces:

rango (A) = rango (A2) = 2.

Suponiendo que rango (A) ≥ rango (A3) y que i = 3 y j = 3, se procedería como en los casos anteriores, y así sucesivamente hasta agotar todas las filas de la matriz A.

Ejemplos:

a) Sea la matriz A una matriz de orden tres. Hallar el rango (A).

Como A es una matriz cuadrada de orden tres, como máximo el rango (A) puede valer tres. Calcularemos primero el determinante o determinantes de las submatrices de orden dos de A. Así pues

Ya que el resultado es cero, probaremos con todas las submatrices de A hasta encontrar una cuyo determinante no sea cero. Si no encontramos ninguna, el rango (A) = 1.

Puesto que el resultado de calcular el determinante de esta submatriz de A no es nulo, podemos afirmar de momento que el rango (A) = 2.

Añadimos ahora una columna y una fila más para ver si el rango puede ser tres:

Dado que el determinante de A no es nulo y a su vez es de orden tres, el rango

(A) = 3.

No necesariamente para poder calcular el rango de una matriz, ésta tiene que ser cuadrada. Así, en el siguiente ejemplo:

b) Calcular el rango de la matriz B de orden 3 ð 4.

Como hay una determinante de orden dos no nulo, el rango de la matriz B es mayor o igual que 2. Calculamos a continuación los determinantes de orden superior:

Probamos con un segundo determinante de orden tres:

Así pues, como hay un determinante de orden tres que no es nulo, el rango (B) = 3.

Un rango mayor que 3 no se puede hallar, ya que no se puede formar un determinante de orden 4. Recuérdese que para poder calcular el determinante de una matriz o de una submatriz, éstas tienen que ser cuadradas.

APLIC. DE LOS DETERMINANTES

En el tema de matrices y su aplicación a los sistemas de ecuaciones lineales, se vio cómo resolverlas mediante el teorema de Gauss. Con los determinantes, y aplicando la regla de Cramer, veremos otra manera de calcular los sistemas de ecuaciones lineales.

Regla de Cramer

Los pasos a seguir para calcular los sistemas de ecuaciones según la regla de Cramer son los siguientes:

1. Hallar la matriz ampliada (A b) asociada al sistema de ecuaciones, esto es: que la primera columna esté formada por las entradas de los coeficientes de la primera incógnita de las ecuaciones; que la segunda columna la formen las de la segunda incógnita, y así hasta llegar a la última columna, que estará constituida por las entradas de los términos independientes de las ecuaciones.

2. Calcular el determinante de A.

3. Aplicar la regla de Cramer, que consiste en:

a) ir sustituyendo la primera columna del det (A) por los términos independientes;

b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la primera incógnita;

c) continuar sustituyendo los términos independientes en las distintas columnas para hallar el resto de las incógnitas.

Ejemplo:

Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incógnitas:

Encontrar el valor de x e y mediante la regla de Cramer.

Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A b asociada al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. Así pues:

Y el tercero y último paso consiste en calcular las incógnitas:

Discusión de los sistemas de ecuaciones lineales

A continuación, se estudiará la manera de saber de antemano si un sistema de ecuaciones lineales tienen o no solución y si tienen una única o infinitas soluciones.

El estudio o discusión de los sistemas de ecuaciones se efectúa aplicando el teorema de Rouché-Fröbenius. Éste dice que con un sistema de ecuaciones lineales pueden ocurrir dos cosas:

1. Que el sistema de ecuaciones sea un sistema compatible (S.C.), esto es, que tenga solución.

2. Que el sistema de ecuaciones sea un sistema incompatible (S.I.) o que no tenga solución.

El primer caso puede dividirse en dos:

a) que sea un sistema compatible y determinado (S.C.D.), esto es, que tenga una única solución;

b) que el sistema sea compatible e indeterminado (S.C.I.), es decir, que tenga infinitas soluciones.

Sea un sistema no homogéneo:

En consecuencia, la matriz ampliada Ab asociada al sistema de ecuaciones es:

y el sistema será compatible cuando:

rango (A) = rango (A b),

lo que suele expresarse diciendo que el rango de la matriz de coeficientes coincide con el rango de la matriz ampliada.

Si el sistema anterior es compatible y

rango (A) = rango (A b) = número de incógnitas,

el sistema es compatible y determinado, es decir, tiene una única solución.

Si, por el contrario, tenemos que

rango (A) = rango (A b) <>

el sistema es compatible e indeterminado, es decir, tiene infinitas soluciones.

Si rango (A) ð rango (A b), el sistema es incompatible y no tiene ninguna solución.

Ejemplos:

Discutir, sin resolver, los siguientes sistemas de ecuaciones:

Puesto que rango (A) = 1 ð rango (A b) = 2, el sistema es incompatible; no existe ninguna solución.

Ya que rango (A) = rango (A b) = 2 = número de incógnitas, el sistema es compatible y determinado; es decir, existe una única solución.

Puesto que rango (A) = rango (A b) = 1 <>

Ejercicio: cálculo de las incógnitas en un sistema de ecuaciones lineales

ððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððððð

ð Discutir y calcular el valor de las incógnitas de los siguientes sistemas de ecuaciones lineales:

a)

Calculamos a continuación el rango de A y el rango de la matriz ampliada (A b):

El rango de la matriz A será:

El rango de la matriz ampliada (A b):

Dado que rango (A) = rango (A b) = 3 = número de incógnitas,

el sistema es compatible y determinado; tiene, pues, una única solución.

Resolvamos el sistema mediante la regla de Cramer:

Calculamos el det (A):

Aplicando la regla de Cramer:

x = 68/23; y = −53/23; z = −42/23.’‘’

Metodos Solucion Sistemas Ecuaciones Lineales

METODO DE ELIMINACION GAUSSIANA


El método de eliminación Gaussiana indica cómo se puede llevar una matriz dada a su forma escalonada reducida. Las difrenetes etapas del método se explicarán con un ejemplo particular. Supóngase que tiene un sistema de ecuaciones de cuatro incognitas

 3×3–2×2+x1+x0=1
x3-x2-x1–3×0=0
2×3+x2+2×1+4×0=5
2×3–4×2+x1+2×0=4
Esto nos quedara entonces:

Se hace qu el primer elemento de la primera linea (L1) sea 1. Esto es posible multiplicando por 1/3 tal linea. Se obtiene la matriz

L13−2211(1/3)
L21−1−1−30
L321245
L44−4124

Esto nos queda:

L11−2/32/31/31/3
L21−1−1−30
L321245
L44−4124

Ahora se elininara el primer numero de L2. Esto se hace Multiplicando L1 por −1 y sumandocelo a L2 respectivamente.

L11−2/32/31/31/3
L21−1−1−30−1
L321245
L44−4124

Queda así:

L11−2/32/31/31/3
L20−1/3−5/3−10/3−1/3
L321245
L44−4124

(−1)(1)=−1+1=0, (−1)(−2/3)=2/3+(−1)=−1/3, (−1)(2/3)=−2/3+(−1)=−5/3, (−1)(1/3)=−1/3+(−3)=−10/3, (−1)(1/3)=−1/3+0=−1/3.

L2 se multiplica por −3 para hacer 1 el segundo numero de L2

L11−2/32/31/31/3
L20−1/3−5/3−10/3−1/3−3
L321245
L44−4124

Esto nos da

L11−2/32/31/31/3
L2015101
L321245
L44−4124

multiplicando por −3 a L2 (−3)0=0, (−3)(−1/3)=1, (−3)(−5/3)=5, (−3)(−10/3)=10, (−3)(−1/3)=1.

Para eliminar el primer mun de L3 se multiplica L1 por −2 y se suma a L3 respectivamente

L11−2/32/31/31/3
L2015101
L321245−2
L44−4124

queda de la siguiente manera

L11−2/32/31/31/3
L2015101
L307/32/310/313/3
L44−4124

Para eliminar el segundo numero de L3 se multiplica L2 por −7/3 y se suma a L3 respectivamente

L11−2/32/31/31/3
L2015101
L307/32/310/313/3−7/3
L44−4124

METODO DE ELIMINACION DE GAUSS-JORDAN


El metodo noes más que una “optimisación y sistematización” de las ideas expuestas en la seccion anterior.

El primer paso que se debe lograr para para este objetivo va en la direccion de “ahorro de notación”. Para aclarar esta idea, se debe recordar lo que motivó el estudio de ka “division sintética” en los cursos de álgebra elemental.

Antes de comenzar a describir la metodologia de la eliminacion gaussiana




Clasificacion Sistemas Ecuaciones Lineales

Los sistemas de ecuaciones se clasifican en 3 tipos:

los que tienen infinitas soluciones, los que tienen una solucion y los que no tienen solucion.

Tienen soluciones infinitas cuando las rectas del sistema de ecuaciones son paralelas.

Tienen una solucion cuando las rectas del sistema de ecuaciones se intersectan.

No tienen solucion cuando estan una sobre otra en las rectas del sistema de ecuaciones.

Definicion Sistemas Ecuaciones Lineales

Ecuaciones lineales con más de dos variables.

Para sistemas de ecuaciones lineales con más de dos variables, podemos usar el método de eliminación por sustitución o el método de eliminación por suma o resta (por adición o sustracción).

El método de eliminación por suma o resta es la técnica más breve y fácil de hallar soluciones. Además, lleva la técnica de matrices que se estudia en esta sección.

Cualquier sistema de ecuaciones lineales con tres variables tiene una solución única, un número infinito de soluciones o no tiene solución.

Método de eliminación para resolver un sistema de ecuaciones lineales:

Ejemplo:

Resuelve el sistema:

x + 2y + 3z = 9 …………………………….. (primer ecuación)

4x + 5y + 6z = 24 …………………………. (segunda ecuación)

3x + y - 2z = 4 ……………………………. (tercera ecuación)

solucion:

Suma −4 veces la “primera ecuación”

a la “segunda”:

[x + 2y + 3z = 9]−4 → −4x −8y −12z =−36

                         4x +5y + 6z = 24

0 −3y - 6z = −12

Suma −3 veces la “primera ecuación” a la “tercera”:

x + 2y + 3z = 9

-3y - 6z = −12

-5y - 11z = −23

Multiplica por -(1÷ 3) la “segunda ecuación”:

x + 2y + 3z = 9

y + 2z = 4

-5y −11z = −23

Multiplica por −1 la “tercera ecuación”:

x + 2y + 3z = 9

y + 2z = 4

5y +11z = 23

Suma −5 veces la “segunda ecuación” a la “tercera”:

x + 2y + 3z = 9

y + 2z = 4

z = 3

Las soluciones del último sistema son fáciles de hallar por sustitución. De la “tercera ecuación”, vemos que z = 3. Al sustituir “z” con 3 en la “segunda ecuación”, y + 2z = 4 obtenemos y = −2. Por último, encontramos el valor de “x” al sustituir y = −2 y z = 3, en la “primera ecuación”, x + 2y + 3z = 9 con lo cual x = 4. Por tanto, hay una solución:

x = 4,

y = −2,

z = 3.

Si analizamos el método de solución, vemos que los símbolos usados para las variables carecen de importancia; debemos tomar en cuenta los coeficientes de las variables. Puesto que esto es verdadero, es posible simplificar el proceso. En particular, introducimos un esquema a fin de seguir los coeficientes en forma tal que no haya necesidad de escribir las variables.

Con referencia al sistema anterior, primero comprobamos que las variables aparezcan en el mismo orden en cada ecuación y que los términos sin variables estén a la derecha de los signos de igualdad. En seguida anotamos los números que intervienen en las ecuaciones de esta forma:

Una ordenación de números de este tipo se llama matriz.

Los renglones (o filas) de la matriz son los números que aparecen uno a continuación del otro en sentido horizontal:

1 2 3 4 primer renglón R1

4 5 6 24 segundo renglón R2

3 1 −2 4 tercer renglón R3

Las columnas de la matriz son los números que aparecen uno junto del otro en sentido vertical

Primera columna C1 Segunda columna C2 Tercera columna C3 Cuarta columna C4

1 2 3 9

4 5 6 24

3 1 −2 4

La matriz obtenida del sistema de ecuaciones lineales del modo anterior es la matriz del sistema. Si borramos la última columna, la restante ordenación es la matriz de coeficiente. En vista de que podemos tener la matriz del sistema a partir de la matriz coeficiente agregando una columna, le decimos matriz coeficiente aumentada o simplemente matriz aumentada. Después, cuando usemos matrices para hallar las soluciones de un sistema de ecuaciones lineales, introduciremos un segmento de línea vertical en la matriz aumentada a fin de indicar dónde aparecerían los signos de igualdad en el sistema de ecuaciones correspondiente.

Sistema Matriz coeficiente Matriz aumentada

Antes de estudiar un método de matrices para resolver un sistema de ecuaciones lineales, daremos una definición general de matriz.

Definición de matriz.

Sean m y n enteros positivos. Una matriz de m x n (se lee “m” por “n”), es una matriz de la siguiente forma, donde cada aij es un numero real.

Ejemplos:

Sea la matriz:

por tanto, es una “matriz de orden 2 x 3.”

Sea la matriz:

por tanto, es una “matriz de orden 3 x 1.”

Teorema sobre transformaciones de renglones de matrices.

Dada una matriz de un sistema de ecuaciones lineales, resulta una matriz de un sistema equivalente si:

a) Se intercambian dos renglones. Símbolo: Ri Rj.

b) Se multiplica o divide un renglón por una constante diferente de cero. Símbolo: kRi Ri.

c) Un múltiplo constante de un renglón se suma a otro renglón. Símbolo: kRi + Rj Rj.

Uso de matrices para resolver un sistema de ecuaciones lineales.

Ejemplo.

Resuelve el sistema:

x + 2y + 3z = 9

4x + 5y + 6z = 24

3x + y - 2z = 4

Comenzaremos con la matriz del sistema, es decir, la matriz aumentada:

Luego aplicamos transformaciones elementales de renglón a fin de obtener otra matriz (más sencilla) de un sistema de ecuaciones equivalentes. Pondremos símbolos adecuados entre matrices equivalentes.

(−4)R1 + R 2 R 2

(−3)R1 + R 3 R 3?

(-(1÷ 3))R 2 R 2

(−1)R 3 R 3

(−5)R2 + R 3 R 3

Con la matriz final regresamos al sistema de ecuaciones:

Que equivale al sistema original. La solución x = 4, y = −2, z = 3 se puede encontrar ahora por sustitución.

La matriz final de la solución es una forma escalonada.

En general, una matriz está en forma escalonada si satisface estas condiciones:

a) El primer número diferente de cero de cada renglón, leyendo de izquierda a derecha, es 1.

b) La columna que contenga el primer número diferente de cero en cualquier renglón está a la izquierda de la columna con el primer número distinto de cero del renglón de abajo.

c) Los renglones formados enteramente de ceros pueden aparecer en la parte inferior de la matriz.

Ejemplo:

Sea la matriz:

es “una matriz escalonada”

Guías para hallar la forma escalonada de una matriz.

(a) Localizar la primer columna que contenga elementos diferentes de cero y aplicar transformaciones elementales de renglón a fin de obtener 1 en el primer renglón de esa columna.

(b) Aplicar transformaciones elementales de renglón del tipo kR1 + Rj Rj. para j > 1 y obtener 0 bajo el número 1 obtenido en la guía (a) en cada uno de los renglones restantes.

© Hacer caso omiso del primer renglón. Localizar la próxima columna que contenga elementos diferentes de cero y aplicar transformaciones elementales de renglón con objeto de obtener el número 1 en el segundo renglón de esa columna.

(d) Aplicar transformaciones elementales del tipo kR2 + Rj Rj. para j >2 y obtener 0 bajo el número 1 obtenido en la guía © en cada uno de los renglones restantes.

(e) Hacer caso omiso del primer y segundo renglones. Localizar la siguiente columna que contenga elementos diferentes de cero y repetir el procedimiento.

(f) Continuar el proceso hasta alcanzar la forma escalonada.

Uso de la forma escalonada para resolver un sistema de ecuaciones lineales.

Ejemplo:

Resuelve el sistema:

Solución: Comenzamos con la matriz aumentada y luego obtenemos una forma escalonada, según se describe en las guías.

R1 R4

R2 R3

(1)R1 + R 3 R 3

(−2)R1 + R 4 R 4

(−1)R 2 R 2

(-(1÷ 2))R 2 R 2

(−1)R2 + R 3 R 3

(−1)R2 + R 4 R 4

(3)R3 + R 4 R 4

La matriz final está en forma escalonada y corresponde a un sistema de ecuaciones:

(-(1÷ 2))R 4 R 4

Ahora usamos sustitución a fin de hallar la solución. De la última ecuación vemos que w = −1; de la tercera ecuación vemos que z = −2 . Sustituimos en la segunda ecuación, y obtenemos:

y - 2z - w = 6

y - 2(−2) - (−1) = 6

y + 4 + 1 = 6

y = 1

Sustituimos los valores encontrados en la primera ecuación:

x + z + 2w = −3

x + (−2) + 2(−1) = −3

x - 2 - 2 = −3

x = 1

Por lo tanto, el sistema tiene una solución: x = 1, y = 1, z = −2, w = −1.