viernes, 20 de noviembre de 2009

5.4 La Matriz de una transformacion Lineal

Matriz de una Transformación Lineal

Sea T : V ! W una transformación lineal entre dos espacios vectoriales V y W de dimensiones finitas.

Sea B = {v1, . . . , vn} una base de V y B

= {v1

, . . . , vn

} una base de W.

La matriz A m × n cuyas columnas son:

[T(v1)]B

, . . . , [T(vn)]B

Es la ´única matriz que satisface

[T(~v)]B= A[~v]B

Para todo ~v 2 V .

Definición 23.1

La matriz A de la afirmación anterior se llama matriz de T con respecto a B y a B.

Si V = W y B = B

Operativa del Trabajo con Transformaciones
Lo que afirma el siguiente resultado es que para trabajar con una transformaci´on lineal (N´ucleo, subsepacios,
o imagen) es equivalente a trabajar con la matriz de la transformaci´on.
Teorema
Sea T : V!W una transformaci´on lineal entre dos espacios vectoriales de dimensiones finitas, V y
W. Sea A la matriz de T con respecto a las bases B = {v1, ...vn}  V y B

= {v1

, ..., vm

}  W.
Entonces,
~v est´a en el n´ucleo de T si y s´olo si [v]B est´a en el espacio nulo de A. Es decir, A[v]B = 0.
~w est´a en el contradomio de T si y s´olo si [w]B
′ se encuentra en el espacio de columnas de A.
Es decir, Ax = [w]B′ es consistente.
T es biun´ıvoca si y s´olo si la reducida de A tiene n pivotes.
T es sobre si y s´olo si la reducida de A tiene m pivotes.
T es un isomorfismo si y s´olo si A es invertible.

5.3Definicion de Nucleo e Imagen de transformacion Lineal

Si T: V \rarr W es lineal, se define el núcleo y la imagen de T de la siguiente manera:

\operatorname{Ker}(T)=\{\,x\in V:T(x)=0_W\,\}

* Es decir que el núcleo de una transformación lineal está formado por el conjunto de todos los vectores del dominio que tienen por imagen al vector nulo del codominio.

* El núcleo de toda transformación lineal es un subespacio del dominio:

1. 0_V \in Ker(T) dado que \operatorname {T}(0_V) = 0_W

2. Dados u , v \in Ker(T) : T(u+v) = T(u) + T(v) = 0_W + 0_W = 0_W \Rightarrow u + v \in Ker(T)

3. Dados u \in Ker(T) \and k \in \real : T(ku) = k T(u) \and T(ku) = k 0_W = 0_W \Rightarrow ku \in Ker(T)

* Se denomina nulidad a la dimensión del núcleo. Nulidad(T) = dim(Ker(T))

\operatorname{Im}(T) = \left\{y/y \in W \and \exists x \in V / (x,y) \in T\right\}

* O sea que la imagen de una transformación lineal está formada por el conjunto de todos los vectores del codominio que son imágenes de al menos algún vector del dominio.

* La imagen de toda transformación lineal es un subespacio del codominio.

* El rango de una transformación lineal es la dimensión de la imagen.

rg(T) = dim(Im(T))

Núcleo e Imagen son subespacios

La propiedad fundamental del núcleo y del contra dominio es que ambos son espacios vectoriales:

Teorema

Sea T: V W una transformación lineal. Entonces

Ker(T) es un subespacio de V .

R(T) es un subespacio de W.

Demostración

El núcleo de T es subespacio

Sean v1 y v2 elementos del núcleo de T y c un escalar cualquiera. As´ı T(v1) = 0 = T(v2), y por tanto:

T(c1 v1 + c2 v2) = c1 T(v1) + c2 T(v2) = c1 0 + c2 0 = 0

probando que c1 v1 + c2 v2 esta también en el núcleo de T. Lo cual a su vez prueba que el núcleo de T es un

subespacio de V .

La imagen de T es subespacio

Sean w1 y w2 elementos de la imagen de T y c un escalar cualquiera. As´ı T(v1) = w1 y T(v2) = w2 para

algunos v1 y v2 en V , y por tanto:

T (c1 v1 + c2 v2) = c1 T (v1) + c2 T (v2) = c1 w1 + c2 w2

Probando que c1 w1 + c2 w2 es imagen de c1 v1 + c2 v2 y por consiguiente c1 w1 + c2 w2 esta también en la

Imagen de T. Lo cual a su vez prueba que la imagen de T es un subespacio de W

5.2 Ejemplo de transformacion lineal

Sea 0 ≤ θ <>

Usando las funciones trigonométricas, tenemos que:

v1 = ||T (ū)|| • cos (α + θ) = ||ū|| • (cos α cos θ - sen α sen θ)

v2 = ||T (ū)|| • sen (α + θ) = ||ū|| • (sen α cos θ + cos α sen θ)

Como u1 = ||ū|| = cos α y u2 = ||ū|| = sen α se obtiene:

v1 = u1 cos θ – u2 sen θ

v2 = u2 cos θ – u1 sen θ

Por lo tanto la Transformación T : R2 ―› R2 debe estar definida tal que:

T (u1, u2) = (u1 cos θ – u2 sen θ, u2 cos θ – u1 sen θ).

Esta transformación se llama la rotación por un ángulo θ y es lineal, ya que:

T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2)

= ((u1 + γv1) cos θ – (u2 + γv2) sen θ, (u2 + γv2) cos θ + (u1 + γv1) sen θ)

=(u1 cos θ - u2 sen θ, u2 cos θ + u1 sen θ)+(v1 cos θ - v2 sen θ, v2 cos θ + v1 sen θ)

= T (u1, u2) + γT (v1, v2)

Transformación de Reflexión:

La Transformación de T : R2 ―› R2 que a cada vector ū = (u1, u2) lo refleja sobre el eje x, para obtener un vector T (ū) = (v1, v2).

En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue:

T (u1, u2) = (u1, -u2)

Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que:

T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2) = (u1 + γv1, -u2 -γv2)

= (u1, -u2) + γ(v1, -v2) = T (u1, u2) + γT (v1, v2)

5.1 Transformacion lineal y sus Propiedades

Transformaciones lineales.

Definición. Una transformación lineal de un espacio vectorial V en un espacio vectorial W es una función de V en W, T: V ® W, que es lineal, esto es para todo u,v Î V y todo a,b Î R verifica: T(au + bv) = aTu + bTv.

Es claro que esa condición es equivalente a que se verifiquen, para todo a Î R y todo u,v Î V, las dos condiciones: T(au) = aTu y T(u + v) = Tu + Tv.

En algunos textos se llaman transformaciones lineales las funciones lineales de un espacio vectorial V en sí mismo.

para distinguir el vector cero de V del vector cero de W y del número 0, se indicará con 0V el vector cero de V, y con 0W el vector cero de W.

Se observa que para toda transformación lineal de V en W, la imagen de 0V es 0W, pues:

T0V = T(00V) = 0T0V = 0W.

Para todo espacio V, la función identidad, I: V ® V, que a todo vector v Î V le asocia el mismo vector v, es una transformación lineal de V en V. Se indicará esta transformación con la notación IV cuando sea necesario distinguirla de la función identidad en otro espacio vectorial.

Dados dos espacios V y W, la función cero, 0: V ® W, en la que todo vector v Î V tiene por imagen el vector 0W, también es lineal.

Siguen algunos ejemplos de transformaciones lineales.

1. Sea V un espacio de dimensión finita y sea { v1,...,vm } una base de V sobre R. Se define una función T: V ® R, asignando como imagen a cada vector v = a1v1 +...+ amvm el número a1. Esta es una transformación lineal porque si

v¢ = b1v1 +...+ bmvm, entonces:

T(av + bv¢) = T[(aa1 + bb1)v1 +...+ (aam + bbm)vm] =

aa1 + bb1 = aTv + bTv¢.

2. Usando la misma notación del ejemplo anterior, la función T: V ® Rm definida por:

T(a1v1 +...+ amvm) = (a1,...,am), es lineal.

3. La derivación de polinomios, D: R[X] ® R[X], es lineal.

4. Sea V el espacio de los vectores de un plano y sea

w Î V un vector de norma 1. La función T: V ® V que a cada v Î V le asocia la proyección ortogonal de v sobre w es lineal, porque la proyección de v es Tv = (v.w)w y

T(au + bv) = [(au + bv).w]w = a(u.w)w + b(v.w)w = aTu +bTv.

5. Si V = V1 Å V2, todo v Î V se escribe en la forma v = v1 + v2, con v1 Î V1 y v2 Î V2 únicos. Se define entonces la proyección de V sobre V1 según V2, como la función T: V ® V dada por Tv = v1 para todo v Î V.

Esta función es lineal porque si u = u1 + u2, con u1 Î V1

y u2 Î V2, entonces au + bv = au1 + bv1 + au2 + bv2 y

T(au + bv) = T(au1 + bv1 + au2 + bv2) = au1 + bv1 = aTu + bTv

Se señaló en el capítulo anterior que puede ocurrir que:

V = V1 Å V2 = V1 Å W, con V2 ¹ W. En ese caso la proyección de V sobre V1 según V2, es diferente de la proyección de V

sobre V1 según W, porque entonces se tendrá para algunos vectores v de V, v = v1 + v2 = v¢1 + w, con v1,v¢1 Î V1,

v2 Î V2 y w Î W, donde v2 ¹ w y por lo tanto v1 ¹ v¢1. Luego la proyección de v sobre V1 según V2 es v1, mientras que la proyección de v sobre V1 según W es v¢1 ¹ v1.

Si S y T son dos transformaciones lineales de V en W, se obtiene otra transformación lineal de V en W, la suma de S y T, definiendo:

(S + T)v = Sv + Tv para todo v Î V.

Para todo a Î R y toda transformación lineal T: V ® W

se define (aT)v = a(Tv), para todo v Î V. Es claro que aT también es una transformación lineal de V en W.

Es simple verificar que con estas operaciones de suma de transformaciones y producto de números por transformaciones el conjunto de todas las transformaciones lineales de V en W es un espacio vectorial.

Dadas dos transformaciones lineales, S: V ® U y

T: U ® W, tales que el conjunto de llegada de S coincide con el conjunto de partida de T, está definida la composición de las transformaciones, que está dada por (TS)v = T(Sv) para todo v Î V. Es fácil demostrar que si S y T son lineales, la composición de S con T también es

lineal.

En particular, está definida la composición de cualquier par de transformaciones lineales de un espacio vectorial V en sí mismo. La composición es en este caso una operación en el espacio vectorial de todas las transformaciones lineales de V en V. Este es un producto asociativo porque la composición de funciones siempre lo es.

Por ejemplo, si D: R[X] ® R[X] es la derivación de polinomios, entonces dados a,b,c Î R, D3 + aD2 + bD + cI es la transformación lineal de R[X] en R[X] que a cada polinomio f le asocia el polinomio f¢¢¢ + af¢¢ + bf¢ + cf.

Si I es la transformación identidad de V en V, S, S1, S2, y T son transformaciones lineales de V en V y a Î R, se verifican fácilmente las siguientes igualdades:

TI = IT = T, a(TS) = (aT)S = T(aS),

T(S1 + S2) = TS1 + TS2, (S1 + S2)T = S1T + S2T.

Un espacio vectorial con un producto asociativo con estas propiedades, se dice que es un álgebra sobre R.

En la próxima sección se introducirá el álgebra Mn(R) de las matrices de n filas y n columnas de números reales.

A toda transformación lineal T: V ® W, se le asocian un subespacio del dominio V y un subespacio del codominio W.

miércoles, 28 de octubre de 2009

4.1 DEFINICION DE ESPACIO VECTORIAL Y SUS PROP.

Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. A los elementos de los espacios vectoriales se les llama vectores. Sobre los vectores pueden realizarse dos operaciones: escalarse (multiplicarlos por un escalar) y sumarse. Estas dos operaciones se tienen que ceñir a un conjunto de axiomas que generalizan las propiedades comunes de las tuplas de números reales así como de los vectores en el espacio euclídeo. Un concepto importante es el de dimensión.

Definición formal [editar]

La definición de un espacio vectorial requiere de un cuerpo de escalares K (como el cuerpo de los números reales o el cuerpo de los números complejos). Un espacio vectorial es un conjunto V (no vacío) a cuyos elementos se llaman vectores, dotado de dos operaciones:

  • suma de vectores: cualquiera dos vectores v y w pueden sumarse para obtener un tercer vector v + w
  • producto por un escalar: cualquier vector v puede multiplicarse por un escalar, i.e. un elemento de K, a. El producto se denota como av.

que satisfacen las siguientes propiedades o axiomas (u, v, w son vectores arbitrarios de V, y a, b son escalares, respectivamente):

Propiedad

Significado

Propiedad asociativa de la suma

u + (v + w) = (u + v) + w

Propiedad conmutativa de la suma

v + w = w + v

Existencia de elemento neutro o nulo de la suma

Existe un elemento 0 V, llamado vector cero o nulo, de forma que v + 0 = v para todo v V.

Existencia de elemento opuesto o simétrico de la suma

Para todo v V, existe un elemento -v V, llamado opuesto de v, de forma que v + (-v) = 0.

Propiedad distributiva del producto por un escalar respecto a la suma de vectores

a (v + w) = a v + a w

Propiedad distributiva del producto por un vector respecto a la suma de escalares

(a + b) v = a v + b v

Propiedad asociativa mixta del producto por un escalar

a (b v) = (ab) v[nb 1]

Existencia de elemento unidad del producto por un escalar

1 v = v, donde 1 es la identidad multiplicativa en K

Con esta definición puede comprobarse que R2, con la suma y producto vistos arriba, es por tanto un espacio vectorial. Comprobar los axiomas se reduce a verificar identidades sencillas .

sábado, 10 de octubre de 2009

3.10 APLICACION DE DETERMINANTES Y MATRIZES

En el tema de matrices y su aplicación a los sistemas de ecuaciones lineales, se vio cómo resolverlas mediante el teorema de Gauss. Con los determinantes, y aplicando la regla de Cramer, veremos otra manera de calcular los sistemas de ecuaciones lineales.
Regla de Cramer
Los pasos a seguir para calcular los sistemas de ecuaciones según la regla de Cramer son los siguientes:
1. Hallar la matriz ampliada (Ab) asociada al sistema de ecuaciones, esto es: que la primera columna esté formada por las entradas de los coeficientes de la primera incógnita de las ecuaciones; que la segunda columna la formen las de la segunda incógnita, y así hasta llegar a la última columna, que estará constituida por las entradas de los términos independientes de las ecuaciones.
2. Calcular el determinante de A.
3. Aplicar la regla de Cramer, que consiste en:
a) ir sustituyendo la primera columna del det (A) por los términos independientes;
b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la primera incógnita;
c) continuar sustituyendo los términos independientes en las distintas columnas para hallar el resto de las incógnitas.
Ejemplo:
Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incógnitas:
Encontrar el valor de x e y mediante la regla de Cramer.
Empezaremos con el primer paso, que consiste en hallar la matriz ampliada Ab asociada al sistema de ecuaciones lineales:
El segundo paso es calcular el determinante de A. Así pues:
Y el tercero y último paso consiste en calcular las incógnitas:

3.8 SOLUCION DE UN SIST. EC. LINEALES

En general, un sistema con m ecuaciones lineales n incógnitas puede ser escrito en forma ordinaria como:
Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:
(
1)
Si representamos cada matriz con una única letra obtenemos:
Donde A es una
matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.

3.7 INVERSA DE UNA MATRIZ CUADRADA


Definición: Una matriz cuadrada se llama matriz identidad si todos los componentes de su diagonal principal son iguales a uno y todos los demás componentes que no están en la diagonal principal son iguales a cero. La matriz identidad se representa con la letra I (la letra i mayúscula).


Definición: Sea A una matriz cuadrada n x n. Entonces una matriz B es la inversa de A si satisface A ∙ B = I y B ∙ A = I, donde I es la matriz identidad de orden n x n.

Ejemplo para discusión:



Notas:

La inversa de A se representa por A-1. Así que A ∙ A-1 = A-1 ∙ A = I.
No toda matriz cuadrada tiene una inversa.
Si A tiene inversa, entonces decimos que A es invertible.

Teoremas:

Sea A una matriz cuadrada n x n, entonces AI = IA = A.
Si A es una matriz invertible, entonces A-1 es invertible y (A-1)-1 = A.
Si una matriz cuadrada A es invertible, entonces la inversa es única.
Sean A y B matrices de orden n x n invertibles. entonces AB es invertible y (AB)-1 = B-1A-1.

Para hallar la inversa de una matriz cuadrada comenzamos con la matriz A/I, donde I representa la matriz identidad del mismo orden que la matriz A. Efectuamos operaciones elementales con las filas de A/I hasta que la matriz A se transforme en la matriz identidad I. Luego la matriz que contiene los componentes a la derecha de la línea vertical es la inversa de A, esto es, A-1.

Ejemplo (para discusión): Halla A-1 si existe para cada una de las siguientes matrices:

3.6 PROPIEDADES DE LOS DETERMINANTES


1.At= A
El determinante de una matriz A y el de su traspuesta At son iguales.


2. A=0 Si:
Posee dos líneas iguales

Todos los elementos de una línea son nulos.

Los elementos de una línea son combinación lineal de las otras.

F3 = F1 + F2
3. Un determinante triangular es igual al producto de los elementos de la diagonal principal..

4. Si en un determinante se cambian entre sí dos líneas paralelas su determinante cambia de signo.

5. Si a los elementos de una línea se le suman los elementos de otra paralela multiplicados previamente por un nº real el valor del determinante no varía.

6. Si se multiplica un determinante por un número real, queda multiplicado por dicho número cualquier línea, pero sólo una.

7. Si todos los elementos de una fila o columna están formados por dos sumandos, dicho determinante se descompone en la suma de dos determinantes.

8. A·B =A·B
El determinante de un producto es igual al producto de los determinantes.

3.5 DEFINICION DE UNA DETERMINANTE

Notación matemática formada por una tabla cuadrada de números, u otros elementos, entre dos líneas verticales; el valor de la expresión se calcula mediante su desarrollo siguiendo ciertas reglas. Los determinantes fueron originalmente investigados por el matemático japonés Seki Kowa alrededor de 1683 y, por separado, por el filósofo y matemático alemán Gottfried Wilhhelm Leibniz alrededor de 1693. Esta notación se utiliza en casi todas las ramas de las matemáticas y en las ciencias naturales.
El símbolo es un determinante de segundo orden, pues es una tabla con dos filas y dos columnas; su valor es, por definición, a11a22 - a12a21. Un determinante de orden n-ésimo es una tabla cuadrada con n filas y n columnas como se muestra en la figura:
El adjunto menor, Mij, de un elemento cualquiera aij de la tabla es el determinante formado por los elementos restantes al eliminar la fila i y la columna j en las que aparece el elemento aij. El cofactor, Aij, de un elemento aij es igual a (-1)i+jMij.
EVALUNACION DE UN DETERMINANTE
El valor de un determinante se puede expresar usando los elementos de una fila (o columna) y sus respectivos cofactores; la suma de estos productos es el valor del determinante. Formalmente, esto se expresa como
si el desarrollo se hace en función de la fila i, o
si se hace en función de la columna j. De esta manera, para calcular el valor de un determinante de tercer orden utilizando los elementos de la primera columna
Estos términos se evalúan a su vez utilizando la definición dada anteriormente para el determinante de segundo orden.
Para determinantes de orden superior al tercero, el proceso se repite para los determinantes formados por los adjuntos menores, hasta llegar a determinantes que puedan desarrollarse fácilmente.
Este método de cálculo del valor de un determinante puede ser bastante laborioso, por lo que se utilizan ciertas propiedades de los determinantes para reducir la cantidad de cálculos necesarios. Entre estas propiedades, tenemos las siguientes:
1) Un determinante es igual a cero si todos los elementos de una fila (o columna) son idénticos, o proporcionales, a los elementos de otra fila (o columna).
2) Si todos los elementos de una fila (o columna) se multiplican por un factor dado, el determinante queda multiplicado por dicho factor.
3) El valor de un determinante no se altera si se añade a cada elemento de una fila (o columna) el elemento correspondiente de otra fila (o columna) multiplicado por un factor constante.

APLICACIONES
Una aplicación de los determinantes en la geometría analítica se muestra en el siguiente ejemplo: Si P1(x1, y1), P2(x2, y2), y P3(x3, y3) son tres puntos distintos en un plano de coordenadas cartesianas, el área A del triángulo P1P2P3, ignorando el signo algebraico, está dada por
Si los tres puntos son colineales, el valor del determinante es cero.
Los determinantes se utilizan también para resolver sistemas de ecuaciones de la siguiente manera. Las n ecuaciones a resolver se representan algebraicamente como
Se construye un determinante, Ä, utilizando estos coeficientes, y siendo Äk el determinante que se obtiene al eliminar la columna k y sustituirla por la columna de las constantes b1, b2, ... bn. Si Ä " 0 las ecuaciones son consistentes y es posible encontrar una solución. Ésta está dada por
Si Ä = 0, es necesario investigar las razones para averiguar el número y la naturaleza de las soluciones.
Este es un ejemplo numérico. Dados:2x1 + 3x2 + 4x3 = 6, x1 + x2 + x3 = 3 y x1 - x2 + x3 = -1, entonces tenemos que x1 = Ä1 / Ä = 2. Si construimos Ä 2 y Ä3 el resultado es x2 = 2 y x3 = -1.

3.4 INVERSA DE UNA MATRIZ



Dada una matriz cuadrada A, si existe otra matriz B del mismo orden que verifique: A . B = B . A = I ( I = matriz identidad ), se dice que B es la matriz inversa de A y se representa por A-1.
Si existe la matriz inversa de A, se dice que la matriz A es inversible o regular. En caso contrario, se dice que la matriz A es singular.
¿Cuándo tiene inversa una matriz? Una matriz A de orden n (n filas y n columnas) tiene inversa cuando su rango es n, es decir, cuando el rango de dicha matriz coincide con su orden, o también, cuando su determinante sea distinto de cero.
¿Cómo se puede calcular la inversa de una matriz? Básicamente hay tres procedimientos para calcular la inversa de una matriz. Son los siguientes:
1º Aplicando la definición y resolviendo los sistemas de ecuaciones correspondientes. Resulta muy laborioso cuando el orden de la matriz es superior a 2 (descrito en el tema de matrices).
2º Por el método de Gauss (descrito en el tema de matrices).
3º Por determinantes y adjuntos, que desarrollaremos a continuación.
CALCULO DE LA INVERSA DE UNA MATRIZ POR DETERMINANTES Y ADJUNTOS
La condición necesaria y suficiente para que una matriz cuadrada A tenga inversa (A-1) es que su determinante sea distinto de cero. En este caso, para calcularla, se divide la traspuesta de su adjunta entre el determinante de la matriz dada, es decir:

3.3 CLASIFICACION DE LAS MATRICES

MATRICES TRIANGULARESSi en una matriz cuadrada es:aij = 0 , "i esmenor que jse dice que la matriz es triangular superior.La que sigue es una matriz triangular superior de orden 4:
Si en una matriz cuadrada es:aij = 0 , "i>jse dice que la matriz es triangular inferior.La que sigue es una matriz triangular inferior de orden 4:

MATRIZ DIAGONALSe llama matriz diagonal a toda matriz que es simultáneamente triangular superior y triangular inferior.Es inmediato que, en una matriz diagonal, esaij = 0 , "i¹j .El siguiente es un ejemplo de matriz diagonal:

MATRIZ ESCALAR
Se llama matriz escalar a toda matriz diagonal en la que:d11=d22=d33= ... = dii= k , siendo k un escalar.Este es un ejemplo de matriz escalar:

La matriz inversa
Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de esta operacion.Recordemos, en primer lugar, que no siempre es posible efect´uar la multiplicacion de dos matrices, y en segundo lugar, que aunque sea posible hacer esta multiplicacion, en general no es conmutativo, es decir A·B es distinto de B·A.En el caso particular de que tratemos con matrices cuadradas del mismo orden A y B, es claro que podemos efectuar los productos A·B y B·A, que daran como resultado otra matriz del mismo orden, aunque, como ya se ha dicho, las matrices resultantes seran, en general, distintas.Sabemos tambien que el elemento neutro del producto de matrices es la matriz identidad In.Por analogıa con el caso de los numeros reales, podemos plantearnos la siguiente cuestion:Si tenemos un numero real, por ejemplo el 2, podemos interesarnos en buscar el inverso del 2 para el producto, es decir un n´umero real x tal que 2·x = 1, el producto de 2 por x sea igual al elemento neutro, el 1.Evidentemente, en el caso de los n´umeros reales es bien facil despejar x para obtener, en nuestro caso, que x = 1/2, es decir, el inverso de un numero real es otro numero que multiplicado por el da el elemento neutro, el 1.Todo numero real, salvo el 0, tiene inverso.Trasladando esto a las matrices, nos podemos plantear si dada una matriz cuadrada A de orden n, cualquiera, existe su inversa X para el producto de matrices,tal queA ・ X = Ines decir, el producto de A por su inversa produce el elemento neutro matricial, la matriz identidad In.Sin embargo, hay algunas diferencias con respecto al caso de los numeros reales:1) No podemos “despejar” la matriz X del modo X = In /A , porque no hemos definido la division de matrices.2) No todas las matrices cuadradas no nulas tienen matriz “inversa” (sea lo que sea, por analogıacon los numeros).Definamos, en primer lugar, el termino de matriz inversa:Dada una matriz cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es no singular o que es regular ), si existe otra matriz del mismo orden, denominada matriz inversa de A y representada por A−1 y tal que:A ・ A−1 = In y A−1 ・ A = InSi A no tiene inversa, se dice que es singular o no invertible.

3.2 OPERACIONES CON MATRIZES


Operaciones con Matrices

Una matriz es un arreglo de los coeficientes constantes de un sistema de ecuaciones lineales.
Para el acomodo de dichos coeficientes se toma como filas y columnas, y las coordenadas o lugares donde se encuentran cada cantidad se empiezan a numerar desde 1,1 o sea, fila 1, columna 1.

Las matrices pueden ser cuadradas o rectangulares, son cuadradas cuando el numero de filas y columnas es el mismo, y son rectangulares cuando son diferentes.



Suma de matrices

La unica regla que hay para la suma de matrices es que ambas tienen que tener el mismo numero de filas y de columnas, y no importa si son rectangulares o cuadradas.

Lo que se hace es sumar cada posicion de una matriz con la misma de la otra, por lo que la matriz resultante es una con el mismo numero de filas y columnas que las demas y cuyos valores son la suma de los valore de las otras 2 matrices.

Por ejemplo: = +


Como se puede ver, la matriz resultante tiene en su posicion 1,1 la suma de la posicion 1,1 de la primera matriz mas la 1,1 de la segunda, y asi se van poniendo todas las sumas de las posiciones, y es todo lo que hay que decir acerca de la suma de matrices.



Resta de matrices

La unica regla que hay para la resta de matrices es que ambas tienen que tener el mismo numero de filas y de columnas, y no importa si son rectangulares o cuadradas.

Lo que se hace es restar cada posicion de una matriz con la misma de la otra, por lo que la matriz resultante es una con el mismo numero de filas y columnas que las demas y cuyos valores son la resta de los valore de las otras 2 matrices.

Por ejemplo: = -
El proceso es identico al de la suma, solo que aqui se restan las posiciones, por eso la matriz resultante en su posicion 1,1 tiene la resta de la posicion 1,1 de la primer matriz menos la 1,1 de la segunda.

Multiplicacion de matrices

La multiplicacion de matrices es un poco mas complicada.

La regla aqui es que el numero de columnas de la primera matriz sea igual al numero de filas de la segunda, esto es, que se puede hacer una multiplicacion de una matriz 2x3 por una de 3x5, y la matriz resultante tiene el numero de filas de la primer matriz y las columnas de la segunda, por lo que quedaria una matriz de 2x5.

Ademas, a diferencia de la suma y la resta, la multiplicacion no es posicion por posicion, sino que se hace de la siguiente manera:
Se toma la primera fila de la primer matriz y la primer columna de la segunda matriz, y lo que se hace es multiplicar una posicion de fila por una de columna: = X
En el ejemplo de arriba se multiplica una matriz de 2x3 por una de 3x1, y se toma la primera fila de la primer matriz, o sea 2,4,6 y la primer columna de la otra, o sea -5,-7,6, y la resultante toma las filas de la primera, o sea 2 y las columnas de la segunda, o sea 1, y quedan 2 lugares solamente.
Se llenan haciendo la multiplicacion (2x-5) + (4x-7) + (6*6) o sea posicion de fila por posicion de columna.
Despues si la segunda matriz tuviera mas columnas, se pasa a la siguiente, y sin cambiar de fila en la primera se vuelve a hacer la multiplicacion y las sumas hasta que se acaben las columnas de la segunda matriz.
Ya que se acabaron las filas de la segunda, se pasa a la siguiente fila en la primera y se empieza de nuevo: (-1x-5) + (3x-7) + (9x6) y se pone en el segundo lugar de la matriz, en este caso el unico que queda, pero si hubiera mas columnas se va llenando hasta que se completen las columnas y luego se baja a la siguiente fila.

Asi se sigue hasta que se acaben las filas de la primer matriz.

3.9 SOLUCION DE ECUACIONES REGLA DE CRAMER

La regla de Cramer sirve para resolver sistemas de ecuaciones lineales. Se aplica a sistemas que cumplan las dos condiciones siguientes:

El número de ecuaciones es igual al número de incógnitas.

El determinante de la matriz de los coeficientes es distinto de cero.

Tales sistemas se denominan sistemas de Cramer.

Sistema

Sea Δ el determinante de la matriz de coeficientes.

Delta

Y sean:

Δ 1, Δ 2 , Δ 3 ... , Δ n

los determinantes que se obtiene al sustituir los coeficientes del 2º miembro (los términos independientes) en la 1ª columna , en la 2ª columna, en la 3ª columna y en la enésima columna respectivamente.

Un sistema de Cramer tiene una sola solución que viene dada por las siguientes expresiones:

soluciones

soluciones

soluciones

soluciones

soluciones

Ejemplo

sistema

solución

solución

solución