viernes, 20 de noviembre de 2009

5.4 La Matriz de una transformacion Lineal

Matriz de una Transformación Lineal

Sea T : V ! W una transformación lineal entre dos espacios vectoriales V y W de dimensiones finitas.

Sea B = {v1, . . . , vn} una base de V y B

= {v1

, . . . , vn

} una base de W.

La matriz A m × n cuyas columnas son:

[T(v1)]B

, . . . , [T(vn)]B

Es la ´única matriz que satisface

[T(~v)]B= A[~v]B

Para todo ~v 2 V .

Definición 23.1

La matriz A de la afirmación anterior se llama matriz de T con respecto a B y a B.

Si V = W y B = B

Operativa del Trabajo con Transformaciones
Lo que afirma el siguiente resultado es que para trabajar con una transformaci´on lineal (N´ucleo, subsepacios,
o imagen) es equivalente a trabajar con la matriz de la transformaci´on.
Teorema
Sea T : V!W una transformaci´on lineal entre dos espacios vectoriales de dimensiones finitas, V y
W. Sea A la matriz de T con respecto a las bases B = {v1, ...vn}  V y B

= {v1

, ..., vm

}  W.
Entonces,
~v est´a en el n´ucleo de T si y s´olo si [v]B est´a en el espacio nulo de A. Es decir, A[v]B = 0.
~w est´a en el contradomio de T si y s´olo si [w]B
′ se encuentra en el espacio de columnas de A.
Es decir, Ax = [w]B′ es consistente.
T es biun´ıvoca si y s´olo si la reducida de A tiene n pivotes.
T es sobre si y s´olo si la reducida de A tiene m pivotes.
T es un isomorfismo si y s´olo si A es invertible.

5.3Definicion de Nucleo e Imagen de transformacion Lineal

Si T: V \rarr W es lineal, se define el núcleo y la imagen de T de la siguiente manera:

\operatorname{Ker}(T)=\{\,x\in V:T(x)=0_W\,\}

* Es decir que el núcleo de una transformación lineal está formado por el conjunto de todos los vectores del dominio que tienen por imagen al vector nulo del codominio.

* El núcleo de toda transformación lineal es un subespacio del dominio:

1. 0_V \in Ker(T) dado que \operatorname {T}(0_V) = 0_W

2. Dados u , v \in Ker(T) : T(u+v) = T(u) + T(v) = 0_W + 0_W = 0_W \Rightarrow u + v \in Ker(T)

3. Dados u \in Ker(T) \and k \in \real : T(ku) = k T(u) \and T(ku) = k 0_W = 0_W \Rightarrow ku \in Ker(T)

* Se denomina nulidad a la dimensión del núcleo. Nulidad(T) = dim(Ker(T))

\operatorname{Im}(T) = \left\{y/y \in W \and \exists x \in V / (x,y) \in T\right\}

* O sea que la imagen de una transformación lineal está formada por el conjunto de todos los vectores del codominio que son imágenes de al menos algún vector del dominio.

* La imagen de toda transformación lineal es un subespacio del codominio.

* El rango de una transformación lineal es la dimensión de la imagen.

rg(T) = dim(Im(T))

Núcleo e Imagen son subespacios

La propiedad fundamental del núcleo y del contra dominio es que ambos son espacios vectoriales:

Teorema

Sea T: V W una transformación lineal. Entonces

Ker(T) es un subespacio de V .

R(T) es un subespacio de W.

Demostración

El núcleo de T es subespacio

Sean v1 y v2 elementos del núcleo de T y c un escalar cualquiera. As´ı T(v1) = 0 = T(v2), y por tanto:

T(c1 v1 + c2 v2) = c1 T(v1) + c2 T(v2) = c1 0 + c2 0 = 0

probando que c1 v1 + c2 v2 esta también en el núcleo de T. Lo cual a su vez prueba que el núcleo de T es un

subespacio de V .

La imagen de T es subespacio

Sean w1 y w2 elementos de la imagen de T y c un escalar cualquiera. As´ı T(v1) = w1 y T(v2) = w2 para

algunos v1 y v2 en V , y por tanto:

T (c1 v1 + c2 v2) = c1 T (v1) + c2 T (v2) = c1 w1 + c2 w2

Probando que c1 w1 + c2 w2 es imagen de c1 v1 + c2 v2 y por consiguiente c1 w1 + c2 w2 esta también en la

Imagen de T. Lo cual a su vez prueba que la imagen de T es un subespacio de W

5.2 Ejemplo de transformacion lineal

Sea 0 ≤ θ <>

Usando las funciones trigonométricas, tenemos que:

v1 = ||T (ū)|| • cos (α + θ) = ||ū|| • (cos α cos θ - sen α sen θ)

v2 = ||T (ū)|| • sen (α + θ) = ||ū|| • (sen α cos θ + cos α sen θ)

Como u1 = ||ū|| = cos α y u2 = ||ū|| = sen α se obtiene:

v1 = u1 cos θ – u2 sen θ

v2 = u2 cos θ – u1 sen θ

Por lo tanto la Transformación T : R2 ―› R2 debe estar definida tal que:

T (u1, u2) = (u1 cos θ – u2 sen θ, u2 cos θ – u1 sen θ).

Esta transformación se llama la rotación por un ángulo θ y es lineal, ya que:

T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2)

= ((u1 + γv1) cos θ – (u2 + γv2) sen θ, (u2 + γv2) cos θ + (u1 + γv1) sen θ)

=(u1 cos θ - u2 sen θ, u2 cos θ + u1 sen θ)+(v1 cos θ - v2 sen θ, v2 cos θ + v1 sen θ)

= T (u1, u2) + γT (v1, v2)

Transformación de Reflexión:

La Transformación de T : R2 ―› R2 que a cada vector ū = (u1, u2) lo refleja sobre el eje x, para obtener un vector T (ū) = (v1, v2).

En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue:

T (u1, u2) = (u1, -u2)

Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que:

T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2) = (u1 + γv1, -u2 -γv2)

= (u1, -u2) + γ(v1, -v2) = T (u1, u2) + γT (v1, v2)

5.1 Transformacion lineal y sus Propiedades

Transformaciones lineales.

Definición. Una transformación lineal de un espacio vectorial V en un espacio vectorial W es una función de V en W, T: V ® W, que es lineal, esto es para todo u,v Î V y todo a,b Î R verifica: T(au + bv) = aTu + bTv.

Es claro que esa condición es equivalente a que se verifiquen, para todo a Î R y todo u,v Î V, las dos condiciones: T(au) = aTu y T(u + v) = Tu + Tv.

En algunos textos se llaman transformaciones lineales las funciones lineales de un espacio vectorial V en sí mismo.

para distinguir el vector cero de V del vector cero de W y del número 0, se indicará con 0V el vector cero de V, y con 0W el vector cero de W.

Se observa que para toda transformación lineal de V en W, la imagen de 0V es 0W, pues:

T0V = T(00V) = 0T0V = 0W.

Para todo espacio V, la función identidad, I: V ® V, que a todo vector v Î V le asocia el mismo vector v, es una transformación lineal de V en V. Se indicará esta transformación con la notación IV cuando sea necesario distinguirla de la función identidad en otro espacio vectorial.

Dados dos espacios V y W, la función cero, 0: V ® W, en la que todo vector v Î V tiene por imagen el vector 0W, también es lineal.

Siguen algunos ejemplos de transformaciones lineales.

1. Sea V un espacio de dimensión finita y sea { v1,...,vm } una base de V sobre R. Se define una función T: V ® R, asignando como imagen a cada vector v = a1v1 +...+ amvm el número a1. Esta es una transformación lineal porque si

v¢ = b1v1 +...+ bmvm, entonces:

T(av + bv¢) = T[(aa1 + bb1)v1 +...+ (aam + bbm)vm] =

aa1 + bb1 = aTv + bTv¢.

2. Usando la misma notación del ejemplo anterior, la función T: V ® Rm definida por:

T(a1v1 +...+ amvm) = (a1,...,am), es lineal.

3. La derivación de polinomios, D: R[X] ® R[X], es lineal.

4. Sea V el espacio de los vectores de un plano y sea

w Î V un vector de norma 1. La función T: V ® V que a cada v Î V le asocia la proyección ortogonal de v sobre w es lineal, porque la proyección de v es Tv = (v.w)w y

T(au + bv) = [(au + bv).w]w = a(u.w)w + b(v.w)w = aTu +bTv.

5. Si V = V1 Å V2, todo v Î V se escribe en la forma v = v1 + v2, con v1 Î V1 y v2 Î V2 únicos. Se define entonces la proyección de V sobre V1 según V2, como la función T: V ® V dada por Tv = v1 para todo v Î V.

Esta función es lineal porque si u = u1 + u2, con u1 Î V1

y u2 Î V2, entonces au + bv = au1 + bv1 + au2 + bv2 y

T(au + bv) = T(au1 + bv1 + au2 + bv2) = au1 + bv1 = aTu + bTv

Se señaló en el capítulo anterior que puede ocurrir que:

V = V1 Å V2 = V1 Å W, con V2 ¹ W. En ese caso la proyección de V sobre V1 según V2, es diferente de la proyección de V

sobre V1 según W, porque entonces se tendrá para algunos vectores v de V, v = v1 + v2 = v¢1 + w, con v1,v¢1 Î V1,

v2 Î V2 y w Î W, donde v2 ¹ w y por lo tanto v1 ¹ v¢1. Luego la proyección de v sobre V1 según V2 es v1, mientras que la proyección de v sobre V1 según W es v¢1 ¹ v1.

Si S y T son dos transformaciones lineales de V en W, se obtiene otra transformación lineal de V en W, la suma de S y T, definiendo:

(S + T)v = Sv + Tv para todo v Î V.

Para todo a Î R y toda transformación lineal T: V ® W

se define (aT)v = a(Tv), para todo v Î V. Es claro que aT también es una transformación lineal de V en W.

Es simple verificar que con estas operaciones de suma de transformaciones y producto de números por transformaciones el conjunto de todas las transformaciones lineales de V en W es un espacio vectorial.

Dadas dos transformaciones lineales, S: V ® U y

T: U ® W, tales que el conjunto de llegada de S coincide con el conjunto de partida de T, está definida la composición de las transformaciones, que está dada por (TS)v = T(Sv) para todo v Î V. Es fácil demostrar que si S y T son lineales, la composición de S con T también es

lineal.

En particular, está definida la composición de cualquier par de transformaciones lineales de un espacio vectorial V en sí mismo. La composición es en este caso una operación en el espacio vectorial de todas las transformaciones lineales de V en V. Este es un producto asociativo porque la composición de funciones siempre lo es.

Por ejemplo, si D: R[X] ® R[X] es la derivación de polinomios, entonces dados a,b,c Î R, D3 + aD2 + bD + cI es la transformación lineal de R[X] en R[X] que a cada polinomio f le asocia el polinomio f¢¢¢ + af¢¢ + bf¢ + cf.

Si I es la transformación identidad de V en V, S, S1, S2, y T son transformaciones lineales de V en V y a Î R, se verifican fácilmente las siguientes igualdades:

TI = IT = T, a(TS) = (aT)S = T(aS),

T(S1 + S2) = TS1 + TS2, (S1 + S2)T = S1T + S2T.

Un espacio vectorial con un producto asociativo con estas propiedades, se dice que es un álgebra sobre R.

En la próxima sección se introducirá el álgebra Mn(R) de las matrices de n filas y n columnas de números reales.

A toda transformación lineal T: V ® W, se le asocian un subespacio del dominio V y un subespacio del codominio W.

miércoles, 28 de octubre de 2009

4.1 DEFINICION DE ESPACIO VECTORIAL Y SUS PROP.

Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. A los elementos de los espacios vectoriales se les llama vectores. Sobre los vectores pueden realizarse dos operaciones: escalarse (multiplicarlos por un escalar) y sumarse. Estas dos operaciones se tienen que ceñir a un conjunto de axiomas que generalizan las propiedades comunes de las tuplas de números reales así como de los vectores en el espacio euclídeo. Un concepto importante es el de dimensión.

Definición formal [editar]

La definición de un espacio vectorial requiere de un cuerpo de escalares K (como el cuerpo de los números reales o el cuerpo de los números complejos). Un espacio vectorial es un conjunto V (no vacío) a cuyos elementos se llaman vectores, dotado de dos operaciones:

  • suma de vectores: cualquiera dos vectores v y w pueden sumarse para obtener un tercer vector v + w
  • producto por un escalar: cualquier vector v puede multiplicarse por un escalar, i.e. un elemento de K, a. El producto se denota como av.

que satisfacen las siguientes propiedades o axiomas (u, v, w son vectores arbitrarios de V, y a, b son escalares, respectivamente):

Propiedad

Significado

Propiedad asociativa de la suma

u + (v + w) = (u + v) + w

Propiedad conmutativa de la suma

v + w = w + v

Existencia de elemento neutro o nulo de la suma

Existe un elemento 0 V, llamado vector cero o nulo, de forma que v + 0 = v para todo v V.

Existencia de elemento opuesto o simétrico de la suma

Para todo v V, existe un elemento -v V, llamado opuesto de v, de forma que v + (-v) = 0.

Propiedad distributiva del producto por un escalar respecto a la suma de vectores

a (v + w) = a v + a w

Propiedad distributiva del producto por un vector respecto a la suma de escalares

(a + b) v = a v + b v

Propiedad asociativa mixta del producto por un escalar

a (b v) = (ab) v[nb 1]

Existencia de elemento unidad del producto por un escalar

1 v = v, donde 1 es la identidad multiplicativa en K

Con esta definición puede comprobarse que R2, con la suma y producto vistos arriba, es por tanto un espacio vectorial. Comprobar los axiomas se reduce a verificar identidades sencillas .

sábado, 10 de octubre de 2009

3.10 APLICACION DE DETERMINANTES Y MATRIZES

En el tema de matrices y su aplicación a los sistemas de ecuaciones lineales, se vio cómo resolverlas mediante el teorema de Gauss. Con los determinantes, y aplicando la regla de Cramer, veremos otra manera de calcular los sistemas de ecuaciones lineales.
Regla de Cramer
Los pasos a seguir para calcular los sistemas de ecuaciones según la regla de Cramer son los siguientes:
1. Hallar la matriz ampliada (Ab) asociada al sistema de ecuaciones, esto es: que la primera columna esté formada por las entradas de los coeficientes de la primera incógnita de las ecuaciones; que la segunda columna la formen las de la segunda incógnita, y así hasta llegar a la última columna, que estará constituida por las entradas de los términos independientes de las ecuaciones.
2. Calcular el determinante de A.
3. Aplicar la regla de Cramer, que consiste en:
a) ir sustituyendo la primera columna del det (A) por los términos independientes;
b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la primera incógnita;
c) continuar sustituyendo los términos independientes en las distintas columnas para hallar el resto de las incógnitas.
Ejemplo:
Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incógnitas:
Encontrar el valor de x e y mediante la regla de Cramer.
Empezaremos con el primer paso, que consiste en hallar la matriz ampliada Ab asociada al sistema de ecuaciones lineales:
El segundo paso es calcular el determinante de A. Así pues:
Y el tercero y último paso consiste en calcular las incógnitas:

3.8 SOLUCION DE UN SIST. EC. LINEALES

En general, un sistema con m ecuaciones lineales n incógnitas puede ser escrito en forma ordinaria como:
Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:
(
1)
Si representamos cada matriz con una única letra obtenemos:
Donde A es una
matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.