viernes, 20 de noviembre de 2009

5.4 La Matriz de una transformacion Lineal

Matriz de una Transformación Lineal

Sea T : V ! W una transformación lineal entre dos espacios vectoriales V y W de dimensiones finitas.

Sea B = {v1, . . . , vn} una base de V y B

= {v1

, . . . , vn

} una base de W.

La matriz A m × n cuyas columnas son:

[T(v1)]B

, . . . , [T(vn)]B

Es la ´única matriz que satisface

[T(~v)]B= A[~v]B

Para todo ~v 2 V .

Definición 23.1

La matriz A de la afirmación anterior se llama matriz de T con respecto a B y a B.

Si V = W y B = B

Operativa del Trabajo con Transformaciones
Lo que afirma el siguiente resultado es que para trabajar con una transformaci´on lineal (N´ucleo, subsepacios,
o imagen) es equivalente a trabajar con la matriz de la transformaci´on.
Teorema
Sea T : V!W una transformaci´on lineal entre dos espacios vectoriales de dimensiones finitas, V y
W. Sea A la matriz de T con respecto a las bases B = {v1, ...vn}  V y B

= {v1

, ..., vm

}  W.
Entonces,
~v est´a en el n´ucleo de T si y s´olo si [v]B est´a en el espacio nulo de A. Es decir, A[v]B = 0.
~w est´a en el contradomio de T si y s´olo si [w]B
′ se encuentra en el espacio de columnas de A.
Es decir, Ax = [w]B′ es consistente.
T es biun´ıvoca si y s´olo si la reducida de A tiene n pivotes.
T es sobre si y s´olo si la reducida de A tiene m pivotes.
T es un isomorfismo si y s´olo si A es invertible.

5.3Definicion de Nucleo e Imagen de transformacion Lineal

Si T: V \rarr W es lineal, se define el núcleo y la imagen de T de la siguiente manera:

\operatorname{Ker}(T)=\{\,x\in V:T(x)=0_W\,\}

* Es decir que el núcleo de una transformación lineal está formado por el conjunto de todos los vectores del dominio que tienen por imagen al vector nulo del codominio.

* El núcleo de toda transformación lineal es un subespacio del dominio:

1. 0_V \in Ker(T) dado que \operatorname {T}(0_V) = 0_W

2. Dados u , v \in Ker(T) : T(u+v) = T(u) + T(v) = 0_W + 0_W = 0_W \Rightarrow u + v \in Ker(T)

3. Dados u \in Ker(T) \and k \in \real : T(ku) = k T(u) \and T(ku) = k 0_W = 0_W \Rightarrow ku \in Ker(T)

* Se denomina nulidad a la dimensión del núcleo. Nulidad(T) = dim(Ker(T))

\operatorname{Im}(T) = \left\{y/y \in W \and \exists x \in V / (x,y) \in T\right\}

* O sea que la imagen de una transformación lineal está formada por el conjunto de todos los vectores del codominio que son imágenes de al menos algún vector del dominio.

* La imagen de toda transformación lineal es un subespacio del codominio.

* El rango de una transformación lineal es la dimensión de la imagen.

rg(T) = dim(Im(T))

Núcleo e Imagen son subespacios

La propiedad fundamental del núcleo y del contra dominio es que ambos son espacios vectoriales:

Teorema

Sea T: V W una transformación lineal. Entonces

Ker(T) es un subespacio de V .

R(T) es un subespacio de W.

Demostración

El núcleo de T es subespacio

Sean v1 y v2 elementos del núcleo de T y c un escalar cualquiera. As´ı T(v1) = 0 = T(v2), y por tanto:

T(c1 v1 + c2 v2) = c1 T(v1) + c2 T(v2) = c1 0 + c2 0 = 0

probando que c1 v1 + c2 v2 esta también en el núcleo de T. Lo cual a su vez prueba que el núcleo de T es un

subespacio de V .

La imagen de T es subespacio

Sean w1 y w2 elementos de la imagen de T y c un escalar cualquiera. As´ı T(v1) = w1 y T(v2) = w2 para

algunos v1 y v2 en V , y por tanto:

T (c1 v1 + c2 v2) = c1 T (v1) + c2 T (v2) = c1 w1 + c2 w2

Probando que c1 w1 + c2 w2 es imagen de c1 v1 + c2 v2 y por consiguiente c1 w1 + c2 w2 esta también en la

Imagen de T. Lo cual a su vez prueba que la imagen de T es un subespacio de W

5.2 Ejemplo de transformacion lineal

Sea 0 ≤ θ <>

Usando las funciones trigonométricas, tenemos que:

v1 = ||T (ū)|| • cos (α + θ) = ||ū|| • (cos α cos θ - sen α sen θ)

v2 = ||T (ū)|| • sen (α + θ) = ||ū|| • (sen α cos θ + cos α sen θ)

Como u1 = ||ū|| = cos α y u2 = ||ū|| = sen α se obtiene:

v1 = u1 cos θ – u2 sen θ

v2 = u2 cos θ – u1 sen θ

Por lo tanto la Transformación T : R2 ―› R2 debe estar definida tal que:

T (u1, u2) = (u1 cos θ – u2 sen θ, u2 cos θ – u1 sen θ).

Esta transformación se llama la rotación por un ángulo θ y es lineal, ya que:

T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2)

= ((u1 + γv1) cos θ – (u2 + γv2) sen θ, (u2 + γv2) cos θ + (u1 + γv1) sen θ)

=(u1 cos θ - u2 sen θ, u2 cos θ + u1 sen θ)+(v1 cos θ - v2 sen θ, v2 cos θ + v1 sen θ)

= T (u1, u2) + γT (v1, v2)

Transformación de Reflexión:

La Transformación de T : R2 ―› R2 que a cada vector ū = (u1, u2) lo refleja sobre el eje x, para obtener un vector T (ū) = (v1, v2).

En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue:

T (u1, u2) = (u1, -u2)

Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que:

T [(u1, u2) + γ(v1, v2)] = T (u1 + γv1, u2 + γv2) = (u1 + γv1, -u2 -γv2)

= (u1, -u2) + γ(v1, -v2) = T (u1, u2) + γT (v1, v2)

5.1 Transformacion lineal y sus Propiedades

Transformaciones lineales.

Definición. Una transformación lineal de un espacio vectorial V en un espacio vectorial W es una función de V en W, T: V ® W, que es lineal, esto es para todo u,v Î V y todo a,b Î R verifica: T(au + bv) = aTu + bTv.

Es claro que esa condición es equivalente a que se verifiquen, para todo a Î R y todo u,v Î V, las dos condiciones: T(au) = aTu y T(u + v) = Tu + Tv.

En algunos textos se llaman transformaciones lineales las funciones lineales de un espacio vectorial V en sí mismo.

para distinguir el vector cero de V del vector cero de W y del número 0, se indicará con 0V el vector cero de V, y con 0W el vector cero de W.

Se observa que para toda transformación lineal de V en W, la imagen de 0V es 0W, pues:

T0V = T(00V) = 0T0V = 0W.

Para todo espacio V, la función identidad, I: V ® V, que a todo vector v Î V le asocia el mismo vector v, es una transformación lineal de V en V. Se indicará esta transformación con la notación IV cuando sea necesario distinguirla de la función identidad en otro espacio vectorial.

Dados dos espacios V y W, la función cero, 0: V ® W, en la que todo vector v Î V tiene por imagen el vector 0W, también es lineal.

Siguen algunos ejemplos de transformaciones lineales.

1. Sea V un espacio de dimensión finita y sea { v1,...,vm } una base de V sobre R. Se define una función T: V ® R, asignando como imagen a cada vector v = a1v1 +...+ amvm el número a1. Esta es una transformación lineal porque si

v¢ = b1v1 +...+ bmvm, entonces:

T(av + bv¢) = T[(aa1 + bb1)v1 +...+ (aam + bbm)vm] =

aa1 + bb1 = aTv + bTv¢.

2. Usando la misma notación del ejemplo anterior, la función T: V ® Rm definida por:

T(a1v1 +...+ amvm) = (a1,...,am), es lineal.

3. La derivación de polinomios, D: R[X] ® R[X], es lineal.

4. Sea V el espacio de los vectores de un plano y sea

w Î V un vector de norma 1. La función T: V ® V que a cada v Î V le asocia la proyección ortogonal de v sobre w es lineal, porque la proyección de v es Tv = (v.w)w y

T(au + bv) = [(au + bv).w]w = a(u.w)w + b(v.w)w = aTu +bTv.

5. Si V = V1 Å V2, todo v Î V se escribe en la forma v = v1 + v2, con v1 Î V1 y v2 Î V2 únicos. Se define entonces la proyección de V sobre V1 según V2, como la función T: V ® V dada por Tv = v1 para todo v Î V.

Esta función es lineal porque si u = u1 + u2, con u1 Î V1

y u2 Î V2, entonces au + bv = au1 + bv1 + au2 + bv2 y

T(au + bv) = T(au1 + bv1 + au2 + bv2) = au1 + bv1 = aTu + bTv

Se señaló en el capítulo anterior que puede ocurrir que:

V = V1 Å V2 = V1 Å W, con V2 ¹ W. En ese caso la proyección de V sobre V1 según V2, es diferente de la proyección de V

sobre V1 según W, porque entonces se tendrá para algunos vectores v de V, v = v1 + v2 = v¢1 + w, con v1,v¢1 Î V1,

v2 Î V2 y w Î W, donde v2 ¹ w y por lo tanto v1 ¹ v¢1. Luego la proyección de v sobre V1 según V2 es v1, mientras que la proyección de v sobre V1 según W es v¢1 ¹ v1.

Si S y T son dos transformaciones lineales de V en W, se obtiene otra transformación lineal de V en W, la suma de S y T, definiendo:

(S + T)v = Sv + Tv para todo v Î V.

Para todo a Î R y toda transformación lineal T: V ® W

se define (aT)v = a(Tv), para todo v Î V. Es claro que aT también es una transformación lineal de V en W.

Es simple verificar que con estas operaciones de suma de transformaciones y producto de números por transformaciones el conjunto de todas las transformaciones lineales de V en W es un espacio vectorial.

Dadas dos transformaciones lineales, S: V ® U y

T: U ® W, tales que el conjunto de llegada de S coincide con el conjunto de partida de T, está definida la composición de las transformaciones, que está dada por (TS)v = T(Sv) para todo v Î V. Es fácil demostrar que si S y T son lineales, la composición de S con T también es

lineal.

En particular, está definida la composición de cualquier par de transformaciones lineales de un espacio vectorial V en sí mismo. La composición es en este caso una operación en el espacio vectorial de todas las transformaciones lineales de V en V. Este es un producto asociativo porque la composición de funciones siempre lo es.

Por ejemplo, si D: R[X] ® R[X] es la derivación de polinomios, entonces dados a,b,c Î R, D3 + aD2 + bD + cI es la transformación lineal de R[X] en R[X] que a cada polinomio f le asocia el polinomio f¢¢¢ + af¢¢ + bf¢ + cf.

Si I es la transformación identidad de V en V, S, S1, S2, y T son transformaciones lineales de V en V y a Î R, se verifican fácilmente las siguientes igualdades:

TI = IT = T, a(TS) = (aT)S = T(aS),

T(S1 + S2) = TS1 + TS2, (S1 + S2)T = S1T + S2T.

Un espacio vectorial con un producto asociativo con estas propiedades, se dice que es un álgebra sobre R.

En la próxima sección se introducirá el álgebra Mn(R) de las matrices de n filas y n columnas de números reales.

A toda transformación lineal T: V ® W, se le asocian un subespacio del dominio V y un subespacio del codominio W.