Algebra lineal

33
Brev´ ısima (casi rasca) Introducci´ on al ´ Algebra Lineal Mauricio Godoy Molina 17 de Octubre de 2005 Resumen Concluyamos de manera est´ etica el curso MAT-022. El c´ alculo de antiderivadas, la incom- prensi´ on del teorema fundamental del c´ alculo, la falta de rigurosidad a la hora de definir las series de funciones, la enorme cantidad de f´ ormulas aprendidas para calcular propiedades en las distintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellos que nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda- mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y como muchas veces prima la ley del m´ ınimo esfuerzo, simplemente no se ense˜ nan. Cerremos el cap´ ıtulo obscuro de MAT-022 y veamos la luz al final del t´ unel. 1. ´ Algebra de Matrices La experiencia ha dicho que no necesariamente en todos los colegios se ense˜ nan ciertos t´ opicos elementales y b´ asicos para el inicio de las matem´ aticas serias (de hecho, el autor no vio muchos de los temas de los cuales ha escrito en su ense˜ nanza media, como es el caso del ´ algebra de matrices); por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Como dijo cierto fil´ osofo: “hasta el hombre m´ as sabio, al tomar el libro que menos represente a sus ojos, aprender´ a algo”; por esto recomendamos a las personas que conocen y dominan estos t´ opicos el dar al menos una lectura r´ apida al siguiente apartado. 1.1. Matrices Observaci´ on: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.) Definici´ on 1.1 Diremos que A es una matriz de m × n con coeficientes en K si es una funci´ on A : {1,...,m}×{1,...,n} -→ K (i, j ) -→ A(i, j )= a ij Se deduce de esto que los elementos de la matriz A, en general, se denotar´ an con la min´ uscula de la matriz con el sub´ ındice respectivo al lugar que ocupa. Observaci´ on: La definici´ on anterior induce inmediatamente una notaci´ on muy pr´ actica para una matriz A de elementos a ij , a saber A =(a ij ). Definici´ on 1.2 Diremos que la representaci´ on de una matriz de m × n con coeficientes en K es un arreglo rectangular de valores de K, dispuestos en m filas y n columnas. Definici´ on 1.3 Diremos que la matriz A =(a ij ) es igual a la matriz B =(b ij ) si y s´ olo si poseen el mismo orden (por ejemplo, m × n) y cumplen la relaci´ on a ij = b ij ((i, j ) ∈{1,...,m}×{1,...,n}). 1

Transcript of Algebra lineal

Page 1: Algebra lineal

Brevısima (casi rasca) Introduccion al Algebra Lineal

Mauricio Godoy Molina

17 de Octubre de 2005

ResumenConcluyamos de manera estetica el curso MAT-022. El calculo de antiderivadas, la incom-

prension del teorema fundamental del calculo, la falta de rigurosidad a la hora de definir lasseries de funciones, la enorme cantidad de formulas aprendidas para calcular propiedades en lasdistintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellosque nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda-mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y comomuchas veces prima la ley del mınimo esfuerzo, simplemente no se ensenan.

Cerremos el capıtulo obscuro de MAT-022 y veamos la luz al final del tunel.

1. Algebra de Matrices

La experiencia ha dicho que no necesariamente en todos los colegios se ensenan ciertos topicoselementales y basicos para el inicio de las matematicas serias (de hecho, el autor no vio muchos delos temas de los cuales ha escrito en su ensenanza media, como es el caso del algebra de matrices);por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Comodijo cierto filosofo: “hasta el hombre mas sabio, al tomar el libro que menos represente a sus ojos,aprendera algo”; por esto recomendamos a las personas que conocen y dominan estos topicos el daral menos una lectura rapida al siguiente apartado.

1.1. Matrices

Observacion: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.)

Definicion 1.1 Diremos que A es una matriz de m× n con coeficientes en K si es una funcion

A : {1, . . . ,m} × {1, . . . , n} −→ K(i, j) 7−→ A(i, j) = aij

Se deduce de esto que los elementos de la matriz A, en general, se denotaran con la minuscula de lamatriz con el subındice respectivo al lugar que ocupa.

Observacion: La definicion anterior induce inmediatamente una notacion muy practica para unamatriz A de elementos aij, a saber A = (aij).

Definicion 1.2 Diremos que la representacion de una matriz de m× n con coeficientes en K es unarreglo rectangular de valores de K, dispuestos en m filas y n columnas.

Definicion 1.3 Diremos que la matriz A = (aij) es igual a la matriz B = (bij) si y solo si poseen elmismo orden (por ejemplo, m×n) y cumplen la relacion aij = bij (∀(i, j) ∈ {1, . . . ,m}×{1, . . . , n}).

1

Page 2: Algebra lineal

Ejemplos:

1. La matriz A = (i+j) donde (i, j) ∈ {1, . . . ,m}×{1, . . . , n} posee la representacion rectangular:

B =

2 3 4 . . . 1 + n3 4 5 . . . 2 + n...

......

. . ....

m + 1 m + 2 m + 3 . . . m + n

2. Supongamos la matriz B = (max{i, j}), donde (i, j) ∈ {1, . . . , n}× {1, . . . , n}. Luego su repre-

sentacion rectangular esta dada por:

B =

1 2 3 4 . . . n2 2 3 4 . . . n3 3 3 4 . . . n4 4 4 4 . . . n...

......

.... . .

...n n n n . . . n

3. La matriz 0m×n = (0) es conocida como la matriz nula. Su representacion rectangular esta dada

por:

0m×n =

0 0 0 n veces 00 0 0 . . . 0...

......

. . . m veces0 0 0 . . . 0

Observacion: Desde ahora en adelante hablaremos en forma indistinta de la matriz y de su rep-resentacion rectangular.

Definicion 1.4 Diremos que una matriz de m × n es una matriz cuadrada si y solo si m = n. Eneste caso simplemente se dira que la matriz es cuadrada de orden n (no de n× n).

Definicion 1.5 Si A es una matriz cuadrada de orden n diremos que su diagonal principal es elconjunto de los elementos {a11, . . . , ann}. Diremos, ademas, que la traza de la matriz es la suma delos elementos de su diagonal principal. Es decir, si denotamos la traza de A por trA, se tiene que

trA =n∑

i=1

aii

Definicion 1.6 El conjunto de todas las matrices de orden m × n con coeficientes en K se de-notara por Mm×n(K). En el caso de matrices cuadradas de orden n, la notacion del conjunto esMn(K).

Ejemplo Importante: Si A = (aij) es una matriz cuadrada que cumple que aij = 0 cuando i > jse conocen como matrices triangulares superiores. Por analogıa se definen las matrices triangularesinferiores (aij = 0 cuando i < j).

2

Page 3: Algebra lineal

1.2. Multiplicacion por un Escalar

La multiplicacion entre matrices y escalares es una operacion que surge en forma natural delestudio de las transformaciones lineales pero, por lo pronto, entregaremos este hecho como definicion.

Definicion 1.7 El producto entre una matriz y un escalar es una funcion:

· : K×Mm×n(K) −→ Mm×n(K)(λ, (aij)) 7−→ (cij) = (λaij)

Ejemplos:

1. Supongamos la matriz 0m×n. Es claro que ∀k ∈ K : k · 0m×n = 0m×n.

2. Claramente se tienen las siguientes dos propiedades heredadas directamente de los numeroscomplejos (en particular para los numeros reales):

a) Si A ∈Mm×n(C), entonces 0 · A = 0m×n.

b) Si A ∈Mm×n(C), entonces 1 · A = A.

3. Si consideramos la matriz

B =

1 2 3 · · · n2 3 4 · · · n + 1...

......

. . ....

m m + 1 m + 2 · · · m + n

∈Mm×n(R)

Y la multiplicamos por λ ∈ R tendremos la siguiente matriz

λ ·B =

λ 2λ 3λ · · · nλ2λ 3λ 4λ · · · (n + 1)λ...

......

. . ....

mλ (m + 1)λ (m + 2)λ · · · (m + n)λ

1.3. Suma de Matrices

Al igual que la multiplicacion por un escalar, la suma de matrices aparece de manera evidente enel estudio de las transformaciones lineales. Al igual que en el apartado anterior, solo se entregara comodefinicion.

Definicion 1.8 La suma de matrices es una funcion

+ : Mm×n(K)×Mm×n(K) −→ Mm×n(K)((aij), (bij)) 7−→ (cij) = (aij + bij)

En otras palabras la adicion esta definida para matrices del mismo orden y corresponde a la suma delas dos matrices componente a componente.

3

Page 4: Algebra lineal

Ejemplos:

1. Si A ∈Mm×n(R), entonces A + 0m×n = A.

2. Si A ∈Mm×n(R), entonces existe una unica matriz −A ∈Mm×n(R) tal que A+(−A) = 0m×n.Dicha matriz se conoce como la opuesta de la matriz A y se calcula simplemente como −A =−1 · A.

3. La suma de numeros complejos (en particular reales) puede entenderse como un ejemplo muyreducido de suma de matrices, pues todo numero complejo puede entenderse como una matrizde 1× 1, es decir, podemos identificar el conjunto M1(C) con C; asimismo podemos en generalasumir queM1(K) es “lo mismo”que K. Este concepto de “lo mismo”se conoce con el nombre deisomorfismo y sera visto de manera formal como un caso especial de transformaciones lineales.

1.4. Multiplicacion de Matrices

La multiplicacion de matrices es una funcion:

· : Mm×n(K)×Mn×r(K) −→ Mm×r(K)

((aij), (bij)) 7−→ (cij) =

(r∑

k=1

aikbkj

)Es muy importante hacer notar el hecho de los ordenes que tienen que tener las matrices para poderser multiplicadas. Obviamente todas las matrices cuadradas de un mismo orden se pueden multiplicarentre sı. En forma analoga al caso real o complejo se define la potenciacion entera de matrices, esdecir

An =

n veces︷ ︸︸ ︷A · A · . . . · A n ∈ N A ∈Mn(K)

Ciertas propiedades de esta operacion seran vistas mas adelante, por lo pronto es una simple curiosi-dad.

Ejemplos:

1. Definiremos la matriz identidad de orden n de la siguiente manera:

In =

1 0 0 · · · 00 1 0 · · · 00 0 1 · · · 0...

......

. . ....

0 0 0 · · · 1

∈Mn(K)

Esta matriz recibe ese nombre debido a la siguiente propiedad :

A · In = Im · A = A ∀A ∈Mm×n(K)

2. Consideremos las siguientes matrices

B =

2 1 11 1 11 1 2

, C =

1 −1 0−1 3 −1

0 −1 1

∈M3(R)

4

Page 5: Algebra lineal

Luego se tiene que

B · C = C ·B = I3 =

1 0 00 1 00 0 1

Se dice entonces que C es la matriz inversa de B y viceversa.

3. Importante es hacer notar que no toda matriz cuadrada (no nula) tiene inversa, por ejemplo lamatriz de orden 2 (

1 00 0

)∈M2(R)

No tiene inversa, pues si la tuviese se tendrıa que(1 00 0

)(a bc d

)=

(a b0 0

)Lo cual nunca es posible igualar a I2.

4. La multiplicacion de matrices no es necesariamente una operacion conmutativa, pues obvia-mente si multiplicamos una matriz D ∈ Mm×n(K) por una E ∈ Mn×m(K) (m 6= n), entoncesD ·E ∈Mm(K), mientras que E ·D ∈Mn(K). Otro caso, algo mas patologico, es que si con-sideramos la matriz D anterior y una matriz F ∈Mn(K), entonces es posible tener el productoD · F , pero no el producto F ·D.

5. Algo interesante es que ni siquiera la multiplicacion entre matrices cuadradas respeta la con-mutatividad, a saber(

1 12 1

)(1 42 3

)=

(3 74 11

);

(1 42 3

)(1 12 1

)=

(9 58 5

)Ejercicio: Sean A y A′ dos matrices en M2(R) tales que los elementos de su diagonal principalson diferentes. Determine condiciones para que A · A′ = A′ · A. Ademas, verifique que el conjunto

CM =

{A ∈M2(R) : A =

(a −bb a

), a, b ∈ R

}Esta formado solo por matrices que conmutan.

Partamos por considerar las dos matrices A y A′, es decir, darle valores arbitrarios a sus elementos:

A =

(a bc d

); A′ =

(a′ b′

c′ d′

)Ahora bien, claramente se tiene que sus productos son

A · A′ =(

aa′ + bc′ ab′ + bd′

a′c + c′d b′c + dd′

); A′ · A =

(aa′ + b′c a′b + b′dac′ + cd′ bc′ + dd′

)Luego, para tener conmutatividad, es necesario que A · A′ = A′ · A, es decir,

aa′ + bc′ = aa′ + b′cab′ + bd′ = a′b + b′da′c + c′d = ac′ + cd′

b′c + dd′ = bc′ + dd′

⇐⇒

bc′ = b′c

b′(a− d) = b(a′ − d′)c′(a− d) = c(a′ − d′)

5

Page 6: Algebra lineal

Dada la hipotesis que los elementos de la diagonal principal son diferentes en ambas matrices, tenemosque a− d 6= 0 y que a′ − d′ 6= 0, por lo tanto las ultimas dos condiciones se reducen a que bc′ = b′c,entonces solo basta que se cumpla la primera condicion.

Para el producto definido en el conjunto CM podemos usar los calculos hechos anteriormente, esdecir, si consideramos

z =

(u −vv u

); z′ =

(u′ −v′

v′ u′

)∈ CM

Tenemos que las condiciones anteriores se reducen a−vv′ = −v′v

−v′(u− u) = −v(u′ − u′)v′(u− u) = v(u′ − u′)

⇐⇒

vv′ = v′v

0 = 00 = 0

Condiciones evidentemente satisfechas por v, v′ ∈ R usando la conmutatividad de R.

1.5. Reduccion Gaussiana: Operaciones Elementales

Ahora bien, es de esperarse que los matematicos quisiesemos tratar de comprender como secomportan ciertas matrices, en otras palabras, tratar de clasificarlas con tal de tener una idea a prioride ciertas propiedades que veremos mas adelante. Comencemos esta subseccion con la siguiente

Definicion 1.9 (Matrices Elementales Fila) Diremos que A ∈ Mn(R) es una matriz elementalfila si y solo si A posee una de las siguientes formas:

1. A es casi identica a la matriz In, salvo por dos filas i1, i2 que han sido permutadas. Esta matrizse suele denotar por A = Fi1i2.

2. A es casi identica a la matriz In, salvo por una fila i que ha sido multiplicada por un ciertoescalar no nulo k ∈ C \ {0}. Esta matriz se suele denotar por A = Fi(k).

3. A es casi identica a la matriz In, salvo por dos filas i1, i2 la segunda de las cuales ha sidomultiplicada por un cierto escalar no nulo k ∈ C\{0} y ha sido sumada a la fila i1. Esta matrizse suele denotar por A = Fi1i2(k).

Observacion: Desde ahora y a menos que se diga lo contrario, K sera reemplazado por R o C paraefectos de matrices. Evidentemente, con tal de ganar generalidad, hablaremos la mayorıa de las vecesde C por el hecho que este contiene a R.

Ejemplos:

1. Claramente In = Fi(1), para todo i = 1, . . . , n y para todo n ∈ N.

2. Veamos un ejemplo concreto del primer tipo de matriz elemental fila. En el caso de M4(C)tenemos:

F23 =

1 0 0 00 0 1 00 1 0 00 0 0 1

6

Page 7: Algebra lineal

3. Ahora veamos un ejemplo del segundo tipo de matriz elemental fila igualmente en el caso deM4(C):

F3(−2) =

1 0 0 00 1 0 00 0 −2 00 0 0 1

4. Finalmente, en el mismo conjunto M4(C) veamos como se ve una matriz elemental fila del caso

3:

F14(3) =

1 0 0 30 1 0 00 0 1 00 0 0 1

Bueno, ahora la pregunta natural serıa ¿cual es la gracia de estas matrices? La respuesta es muy

simple, pero no la dare ahora. Alargando un poco la agonıa veamos el siguiente

Teorema 1.1 Todas las matrices elementales son invertibles, mas aun:

1. Fi1i2Fi1i2 = In.

2. Fi(k)Fi(1k) = In.

3. Fi1i2(k)Fi1i2(−k) = In.

Demostracion 1.1 La demostracion de este teorema quedara mas que clara cuando veamos que eslo que representan estas matrices elementales fila.

Observacion: Una construccion identica a la de las matrices elementales fila se puede realizar paramatrices elementales columna. Estas se suelen representar por Ci1i2 , Ci(k) y por Ci1i2(k) respectiva-mente.

Una vez definidos estos objetos un poco abstractos, tratemos de interpretar que significan. Estapregunta quedara mas que clara despues de la siguiente definicion y el posterior teorema.

Definicion 1.10 (Operaciones Elementales Fila) Se dice que se ha efectuado una operacion el-emental fila sobre la matriz A ∈Mm×n(C) si:

1. Se han permutado dos filas. Si las filas permutadas han sido i1 y la fila i2, entonces dichaoperacion se denota por Fi1i2.

2. Una fila se ha multiplicado por un escalar no nulo. Si la fila modificada ha sido la i-esima y elescalar por el cual fue multiplicada es k, entonces dicha operacion se denota por Fi(k).

3. A una fila se le ha sumado otra multiplicada por un escalar no nulo. Si a la fila i1 se le hasumado la fila i2 multiplicada por k, entonces dicha operacion se denota por Fi1i2(k).

Si se tuvo que hacer una cierta operacion elemental fila F para llegar desde A hasta A′, denotaremoseste hecho por

AF−→ A′

Y diremos que las matrices A y A′ son equivalentes por fila.

7

Page 8: Algebra lineal

Claramente esta definicion debe venir seguida del siguiente

Teorema 1.2 Las operaciones elementales fila se relacionan con las matrices elementales fila delsiguiente modo:

AF−→ A′ ⇐⇒ A′ = FA

Donde F es la matriz elemental fila respectiva a la operacion F , es decir, InF−→ F .

Demostracion 1.2 No es difıcil, y queda como ejercicio al lector.

Por lo tanto, gracias a este teorema tenemos la siguiente

Definicion 1.11 (Equivalencia por Filas) Diremos que dos matrices A, B ∈Mm×n(C) son equiv-

alentes por fila (denotado por Af∼ B) si se puede obtener B a partir de A con un numero finito de

operaciones elementales fila.

Observacion: El proceso de aplicar operaciones elementales fila (o columna) para obtener matricesequivalentes por fila (o columna) es llamada Reduccion Gaussiana, en honor al llamado Prıncipe delas Matematicas, el insigne Karl Friederich Gauss.

Ejemplos:

1. Claramente la equivalencia por filas es una relacion de equivalencia, es decir:

Es reflexiva: Claramente Af∼ A pues basta considerar la operacion elemental fila Fi(1)

(i ∈ {1, . . . ,m}) que amplifica por 1 la i-esima fila por 1, es decir, deja la matriz invariante.

Es simetrica: Como vimos anteriormente, las operaciones elementales fila son operacionesinvertibles, por lo que si se tiene que:

AF1−→ F2−→ · · · Fk−→ B

Entonces basta considerar la siguiente cadena de operaciones:

BF−1

k−→ · · ·F−1

2−→F−1

1−→ A

Usando las operaciones inversas, vistas en el Teorema 1.1.

Es Transitiva: Esta propiedad es bastante evidente, pues si Af∼ B y B

f∼ C, entonces setienen operaciones elementales fila tales que:

AF 1

1−→F 1

2−→ · · ·F 1

k−→ B BF 2

1−→F 2

2−→ · · ·F 2

l−→ C

Entonces tenemos que:

AF 1

1−→F 1

2−→ · · ·F 1

k−→F 2

1−→F 2

2−→ · · ·F 2

l−→ C

8

Page 9: Algebra lineal

2. Veamos un ejemplo concreto de como se aplica la reduccion Gaussiana −1 2 −13 1 2

−1 3 −1

F31(−1)−→

−1 2 −13 1 20 1 0

F21(3)−→

−1 2 −10 7 −10 1 0

F23(−7)−→

−1 2 −10 0 −10 1 0

F2(−1)−→

−1 2 −10 0 10 1 0

F23−→

−1 2 −10 1 00 0 1

F12(−2)−→

−1 0 −10 1 00 0 1

F13(1)−→

−1 0 00 1 00 0 1

F1(−1)−→

1 0 00 1 00 0 1

3. El Teorema 1.2 asegura que en el ejemplo anterior se tiene −1 0 0

0 1 00 0 1

·

1 0 10 1 00 0 1

·

1 −2 00 1 00 0 1

·

1 0 00 0 10 1 0

·

1 0 00 −1 00 0 1

··

1 0 00 1 −70 0 1

·

1 0 03 1 00 0 1

·

1 0 00 1 0

−1 0 1

·

−1 2 −13 1 2

−1 3 −1

=

=

7 1 −5−1 0 1−10 −1 7

·

−1 2 −13 1 2

−1 3 −1

=

1 0 00 1 00 0 1

1.6. Matriz Inversa

Algo muy bueno de la reduccion Gaussiana es que permite con bastante simpleza calcular la matrizinversa de ciertos elementos del conjunto Mn(C). Definamos con mas propiedad dicho concepto.

Definicion 1.12 (Matriz Inversa) Dada una matriz A ∈Mn(C), entonces decimos que es invert-ible si existe A−1 ∈Mn(C) tal que

AA−1 = A−1A = In

A la matriz A−1 se le llama inversa de A.

Definicion 1.13 (Grupo Lineal) Decimos que el subconjunto de Mn(C) de todas las matricesinvertibles se conoce como el grupo lineal GLn(C) (multiplicativo). Es bastante directo probar laspropiedades que definen a este conjunto como grupo, es decir:

1. Es cerrado, es decir, dadas A, B ∈ GLn(C), entonces AB, BA ∈ GLn(C).

2. Es asociativo, es decir, dadas A, B, C ∈ GLn(C), entonces A(BC) = (AB)C (propiedad hereda-da de la multiplicacion de matrices).

3. Tiene un elemento neutro, obviamente es la identidad In, cuya inversa es sı misma.

4. Tiene inversos, es decir, para cualquier A ∈ GLn(C) se cumple que A−1 ∈ GLn(C). Este hechoproviene directamente de la definicion.

9

Page 10: Algebra lineal

Ejemplos:

1. Es bastante directo ver que la matriz identidad es su propia inversa, a saber:1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

=

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

2. De acuerdo a los ejemplos anteriores, se tiene que 7 1 −5

−1 0 1−10 −1 7

es la matriz inversa de −1 2 −1

3 1 2−1 3 −1

3. Existen elementos del conjunto Mn(C) que no estan en GLn(C), por ejemplo, la matriz 0n.

4. En el caso de Mn(C), se tiene una formula explıcita para el calculo de la matriz inversa:(a bc d

)−1

=1

ad− bc

(d −b

−c a

)suponiendo que ad − bc 6= 0. Si ad = bc, entonces la matriz no es invertible, como ejercicio,puede tratar de probar este interesante fenomeno. El valor det = ad − bc es conocido como eldeterminante de la matriz en el caso de matrices de 2× 2.

1.7. Determinante de una Matriz

Antes de empezar con este concepto trascendental, se entregaran algunas definiciones importantes

Definicion 1.14 (Traza) La traza de una matriz A ∈ Mn(C) es simplemente la suma de los ele-mentos de su diagonal principal, es decir:

Si A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...an1 an2 · · · ann

=⇒ tr(A) =n∑

i=1

aii

Definicion 1.15 (Permutacion) Si denotamos Jn = {1, 2, 3, . . . , n} entonces decimos que σ esuna permutacion de Jn si es una funcion biyectiva σ : Jn → Jn. Diremos que la permutacion espar o impar si se puede reducir a un numero par o impar de transposiciones respectivamente. Unatransposicion es una permutacion de orden 2, es decir, el cambio de un elemento por otro.

10

Page 11: Algebra lineal

Ejemplos:

1. Debiese ser algo mas o menos evidente que tr(In) = n.

2. Si

A =

7 1 −5−1 0 1−10 −1 7

entonces tr(A) = 14.

3. Es un simple ejercicio de conteo verificar que si denotamos por

Perm(n) = {σ : σ es una permutacion de Jn}

entonces #Perm(n) = n!.

4. Una forma menos elegante de entender las permutaciones es como los reordenamientos de uncierto conjunto, por ejemplo, queremos poner a Pepito, a Juan y a Sebastian en una fila,¿cuantas maneras posibles hay de hacerlo? Simplemente 3! = 6.

5. La permutacion σ1 : {1, 2, 3, 4} → {1, 2, 3, 4} dada por σ1(1) = 2, σ1(2) = 4, σ1(3) = 1 yσ1(4) = 3, es una permutacion impar, mientras que σ2 : {1, 2, 3, 4} → {1, 2, 3, 4} dada porσ2(1) = 4, σ2(2) = 2, σ2(3) = 1 y σ2(4) = 3 es una permutacion impar.

Definicion 1.16 (Determinante) El determinante de una matriz A ∈ Mn(C) es un valor com-plejo, denotado por det(A), definido como

det(A) =∑

σ∈Perm(n)

(±1)a1σ(1)a2σ(2) · . . . · anσ(n)

donde el signo positivo o negativo se considera segun la permutacion σ sea par o impar respectiva-mente.

Ejemplos:

1. Cuando n = 1, entonces hay solo una posible permutacion, entonces si A = (a11), entoncesdet(A) = a11.

2. En el caso n = 2 debiesemos llegar a la definicion de determinante dada en el apartado anterior.La suposicion es correcta, pues

A =

(a11 a12

a21 a22

)=⇒ det(A) = a11a22 − a12a21

3. En el caso n = 3 se tiene que si

A =

a11 a12 a13

a21 a22 a23

a31 a32 a33

=⇒ det(A) = a11a22a33 + a12a23a31 + a13a21a32 − a13a22a31 − a12a21a33 − a11a23a32

4. Notemos que en el caso anterior el determinante se puede calcular haciendo una extension a laidea del calculo del determinante de 2×2 (multiplicar los terminos en las diagonales principales,sumarlos y despues restar los productos en las antidiagonales), este proceso se conoce comoRegla de Sarrus y no es valida en el caso general de determinantes.

11

Page 12: Algebra lineal

Observacion: La funciondet : GLn(C) −→ C

A 7−→ det(A)

es un caso bastante interesante de una clase particular de homomorfismo de grupos, conocidos comovaluaciones.

1.7.1. Propiedades del Determinante

Enumeraremos algunas propiedades de la funcion determinante, que pueden ser vistos como teo-remas. Como es usual en la matematica, con la definicion dada no basta para calcular o encontrarciertas propiedades del determinante, se recomienda estudiar algunas formas equivalentes de calcu-larlo. Se dejan las demostraciones de estas proposiciones como ejercicio al lector.

1. det(A) = det(AT ).

2. Si dos filas o dos columnas de A son iguales, entonces det(A) = 0.

3. Si la matriz A resulta a partir de la matriz B al intercambiar dos filas o dos columnas entresı de B, entonces det(A) = − det(B).

4. Si una fila o una columna de A consiste solo en ceros, entonces det(A) = 0.

5. Si la matriz A resulta a partir de la matriz B al multiplicar una fila o una columna por unescalar c, entonces det(A) = c det(B).

6. Si B = (bij) se obtiene a partir de A = (aij) por medio de sumar a cada elemento de la r-esimafila c veces el elemento correspondiente a la s-esima fila (con r 6= s), entonces det(A) = det(B).

7. Si A = (aij) ∈Mn(C) es una matriz triangular, entonces

det(A) =n∏

i=1

aii

8. Una matriz tiene inversa si y solo si su determinante es no nulo.

9. Si A, B ∈Mn(C), entonces det(AB) = det(A) det(B).

Ejemplos:

1. Claramente det(In) = 1.

2. Mas obvio aun es que det(0n) = 0.

3. Las propiedades dadas anteriormente muestran que el determinante se puede tratar con bas-tante similitud usando la resuccion gaussiana. Verifique que

det

−1 2 −13 1 2

−1 3 −1

= −1

Usando la reduccion gaussiana aplicada sobre ella anteriormente.

12

Page 13: Algebra lineal

4. Si se tiene una matriz diagonal

D =

a11 0 0 · · · 00 a22 0 · · · 00 0 a33 · · · 0...

......

. . ....

0 0 0 · · · ann

se tiene que

det(D) =n∏

i=1

aii

5. Para calcular el siguiente determinante:

∆ =

∣∣∣∣∣∣∣∣∣∣∣∣∣

n 1 1 1 · · · 1n 2 1 1 · · · 1n 1 3 1 · · · 1n 1 1 4 · · · 1...

......

.... . .

...n 1 1 1 · · · n

∣∣∣∣∣∣∣∣∣∣∣∣∣Basta restar a cada fila (excepto a la primera) la primera fila, teniendo el siguiente determinante(equivalente al primero):

∆ =

∣∣∣∣∣∣∣∣∣∣∣∣∣

n 1 1 1 · · · 10 1 0 0 · · · 00 0 2 0 · · · 00 0 0 3 · · · 0...

......

.... . .

...0 0 0 0 · · · n− 1

∣∣∣∣∣∣∣∣∣∣∣∣∣Pivoteando en el primer elemento (n), obtenemos que:

∆ = n

∣∣∣∣∣∣∣∣∣∣∣

1 0 0 · · · 00 2 0 · · · 00 0 3 · · · 0...

......

. . ....

0 0 0 · · · n− 1

∣∣∣∣∣∣∣∣∣∣∣Y dado que el determinante de una matriz diagonal es el producto de los elementos de ladiagonal, se tiene que:

∆ = n · 1 · 2 · 3 · . . . · (n− 1) = n!

13

Page 14: Algebra lineal

2. Espacios Vectoriales

Para comenzar el estudio como tal del algebra lineal, definiremos un concepto trascendental paralas Matematicas

Definicion 2.1 Un espacio vectorial sobre el cuerpo K (abreviado K-EV) es el cuadruple (V, +, K, ·)donde V es un conjunto (no vacıo) de elementos llamados vectores, K es un cuerpo de escalares (que,en general, seran Q, R o C), + es una operacion (llamada ley interna)

+ : V × V → V(α, β) 7→ +(α, β) = α + β

y · es una operacion (llamada ley externa)

· : K× V → V(c, α) 7→ ·(c, α) = c · α

Cuyos elementos cumplen las siguientes propiedades algebraicas:

1. + y · son cerradas en V : α + β ∈ V, y c · x ∈ V ∀α, β ∈ V, ∀c ∈ K.

2. + es conmutativa: α + β = β + α, ∀α, β ∈ V .

3. + es asociativa: α + (β + γ) = (α + β) + γ, ∀α, β, γ ∈ V .

4. + tiene neutro: ∃! 0 ∈ V tal que α + 0 = 0 + α = α, ∀α ∈ V .

5. + tiene inverso: Para cada α ∈ V, ∃!(−α) ∈ V tal que α + (−α) = (−α) + α = 0.

6. · tiene neutro: ∃! 1 ∈ K tal que 1 · α = α · 1 = α, ∀α ∈ V .

7. · es asociativa: (c1c2) · α = c1 · (c2 · α), ∀c1, c2 ∈ K;∀α ∈ V .

8. · distribuye sobre +: c · (α + β) = c · α + c · β, ∀c ∈ K;∀α, β ∈ V .

9. la suma en K distribuye sobre ·: (c1 + c2) · α = c1 · α + c2 · α, ∀c1, c2 ∈ K;∀α ∈ V .

Observacion: En general la operacion + sera llamada suma y · sera conocido como el productopor escalar; en general este sera denotado por yuxtaposicion, es decir: si α ∈ V el producto de α porun escalar c ∈ K sera cα en lugar de c · α.

Importante: Como ya fuese visto en la definicion, en V existe un vector denotado por 0 tal quees el neutro aditivo. Este vector es conocido como vector nulo y sera especificada la diferencia entreel y el elemento neutro aditivo de K solo en caso de ser necesario, en otro caso se debera deducir apartir del contexto.

Mas Importante Aun: Si consideramos V = {0} se habla del Espacio Vectorial Nulo. Es claroque V es un K-EV, sin importar el cuerpo que se considere.

14

Page 15: Algebra lineal

Ejemplos:

1. Claramente si consideramos V = Rn con K = R con la suma y el producto escalar componentea componente se tiene un espacio vectorial. A los espacios vectoriales con K = R se les llamaespacios vectoriales reales o R−EV. Claramente el vector nulo es (0, 0, . . . , 0) ∈ Rn.

2. Ası como en el ejemplo anterior, podemos decir que V = Cn con K = R es un R−EV conla suma y la multiplicacion por escalar componente a componente. Algo interesante que notares que Cn es tambien un C−EV. Se deja como ejercicio que verifiquen que a Rn no se lepuede definir una estructura de C−EV, pero que a cualquier C−EV se le puede dotar de unaestructura de R−EV.

3. Definamos el conjunto

`p =

{{ai}∞i=1 sucesion , ai ∈ C,∀i ∈ N :

∞∑i=1

|ai| < ∞

}

Con 1 ≤ p < ∞ y con la suma y producto por escalar usual de sucesiones. Este conjunto es unC−EV (y por tanto, un R−EV) como puede verificarse a partir de algunas de las propiedadesvistas en la Subseccion ??. Si no se ve claramente este hecho, pueden considerarse las seriescon coeficientes en R.

4. Consideremos el conjunto

Kn[x] = {a0 + a1x + . . . + anxn : a0, a1, . . . , an ∈ K}

Esto es, el conjunto de todos los polinomios con coeficientes en K de grado menor o igual a n.El conjunto Kn[x] con la suma y el producto por escalar usual de polinomios es un K−EV.

5. Consideremos las siguientes leyes (interna y externa respectivamente) sobre el conjunto R+:

+ : R+ × R+ −→ R+

(x, y) 7−→ xy

· : R× R+ −→ R+

(λ, x) 7−→ xλ

Se deja como ejercicio verificar las propiedades anteriores para probar que R+ con las leyesanteriores es un R−EV.

6. El conjunto Mm×n(K) tiene una estructura natural como K−EV con la suma y el productopor escalar usual de matrices.

7. El conjunto de funciones de clase Cn(R) (n ∈ N) forman un R−EV con la suma y el productoescalar de funciones n veces diferenciables visto en MAT-021.

2.1. Subespacios Vectoriales

Consideremos un subconjunto W ⊂ V no vacıo, donde V es un K-EV. Se tiene entonces lasiguiente definicion

15

Page 16: Algebra lineal

Definicion 2.2 Diremos que W ⊂ V es un subespacio vectorial de V si y solo si W es un espaciovectorial con las operaciones definidas en V restringidas a el.

Teorema 2.1 Se dice que W es un subespacio vectorial de V si y solo si W ⊂ V y todos los elementosde W cumplen las siguientes propiedades algebraicas:

1. 0 ∈ W . Esta propiedad se deduce tanto de 2. (tomando α = −β) como de 3. (tomando c = 0),pero se suele escribir por una cuestion de enfasis.

2. Para cada α, β ∈ W , α + β ∈ W . Es decir, + es cerrada en W . Tambien diremos que W esinvariante bajo la suma.

3. Para cada α ∈ W y c ∈ K, cα ∈ W . Es decir, + es cerrada en W . Tambien diremos que W esinvariante bajo el producto.

Demostracion 2.1 La demostracion es inmediata, pues se necesita verificar solo la clausura dela suma y del producto por escalar (es decir, que sean operaciones cerradas). Todas las demaspropiedades son heredadas de V .

Observacion: El hecho de que W sea un subespacio vectorial de V se denota por W ≤ V . SiW 6= V , se dice que W es un subespacio vectorial propio de V y se denota por <.

Ejemplos:

1. En todo espacio vectorial V (con al menos 2 elementos) sobre un cuerpo K se tienen al menos 2subespacios vectoriales triviales: El espacio nulo, es decir, el subespacio vectorial de V formadosolo por el cero y el espacio completo V . Al considerar los subespacios propios solo se tieneseguro al esapcio nulo. Un ejemplo de un espacio vectorial que tiene solo al espacio nulo comosubespacio propio es R como R−EV.

2. En R3 (como R−EV) hay 4 tipos diferentes de subespacios vectoriales geometricamente hablan-do, a saber:

a) El espacio nulo.

b) Las rectas que pasan por el origen.

c) Los planos que pasan por el origen.

d) Todo R3.

Una demostracion de este interesante hecho se puede obtener como un corolario (colorın coro-lario) a partir del concepto estudiado en la Subseccion 2.5.

3. Si consideramos el conjunto Rn[x] como R−EV, entonces todos los subespacios vectoriales deel quedan determinados por Rm[x], con 0 ≤ m ≤ n, m ∈ N.

4. El conjunto de funciones de clase Cn(R) forma un subespacio vectorial del R−EV de las fun-ciones de R en R.

16

Page 17: Algebra lineal

2.2. Combinaciones Lineales

Consideremos un subconjunto finito de vectores de V , un K-EV; a saber:

Λ = {α1, α2, . . . , αk} ⊂ V

con k ∈ N. Junto a este hecho, podemos considerar un subconjunto finito de escalares de K (conidentica cardinalidad que el subconjunto de vectores), a saber:

{c1, c2, . . . , ck} ⊂ K

luego se tiene la siguiente definicion

Definicion 2.3 Un vector α ∈ V se dice combinacion lineal de los elementos de Λ con coeficientesc1, c2, . . . , ck si α se puede escribir de la siguiente forma:

α = c1α1 + c2α2 + . . . ckαk

Ejemplos:

1. Sean p(x), q(x), r(x) ∈ R4[x] dados por p(x) = x4 + x2, q(x) = 1− 2x3 + 3x2 y r(x) = 3 + 2x,entonces

2p(x) + q(x)− r(x) = 2x4 − 2x3 + 5x2 − 2x− 2 ∈ R4[x]

2. Si consideramos dos funciones en el espacio Cr(R), entonces cualquier combinacion lineal entreellas sigue siendo una funcion en Cr(R), lo cual se desprende de inmediato de las propiedadesde lımite.

2.3. Subespacios Generados

Consideremos J ⊂ V , donde V es un K-EV y J 6= ∅. A partir de esto, se tiene la siguientedefinicion:

Definicion 2.4 Diremos que 〈J 〉 es el conjunto generado por J si y solo si es el conjunto de todaslas combinaciones lineales de los elementos de J con coeficientes en K.

En base a esta definicion se tiene el siguiente

Teorema 2.2 Dadas las mismas hipotesis y notaciones anteriores (V un K-EV, J un subconjuntode V , etc.) se tiene que 〈J 〉 ≤ V .

Demostracion 2.2 Claramente 〈J 〉 ⊂ V , pues 〈J 〉 esta generado por el conjunto J ⊂ V y, porel Teorema 2.1, se deduce la contencion. Una vez asegurada la contencion, debemos verificar las doscondiciones dadas en el Teorema 2.1, es decir:

1. Sea j ∈ 〈J〉, tomando c = 0 se tiene que 0j = 0 ∈ J .

17

Page 18: Algebra lineal

2. Sean j1, j2 ∈ 〈J 〉, es decir:

j1 = a1α1 + a2α2 + . . . + akαk

j2 = b1α1 + b2α2 + . . . + bkαk

Tenemos que

j1 + j2 = (a1α1 + a2α2 + . . . + akαk) + (b1α1 + b2α2 + . . . + bkαk) =

= (a1 + b1)α1 + (a2 + b2)α2 + . . . + (ak + bk)αk ∈ 〈J 〉

3. Sea j ∈ 〈J 〉 y c ∈ K, se tiene que:

cj = c(a1α1 + a2α2 + . . . + akαk) =

= (ca1)α1 + (ca2)α2 + . . . + (cak)αk ∈ 〈J 〉

Finalmente, se hara mencion a un concepto muy importante en lo sucesivo:

Definicion 2.5 Diremos que J es un generador de V (usando las mismas notaciones anteriores) si〈J 〉 = V

Ejemplos:

1. En R3, el espacio generado por un solo vector es una recta que pasa por el origen.

2. Para cualquier espacio vectorial V se tiene que el subespacio vectorial generado por 0V essimplemente {0V }.

3. 〈1, x, x2, x3, x4〉 = R4[x].

4. 〈1, sin(x), cos(x), sin(2x), cos(2x), . . .〉 es el espacio vectorial de todas las funciones periodicasde perıodo 2π, seccionalmente continuas (es decir, que en un intervalo de perıodo 2π tienenun numero finito de discontinuidades). El conjunto {1, sin(x), cos(x), sin(2x), cos(2x), . . .} seconoce como base de Fourier y se veran algunas propiedades mas en MAT-023.

2.4. Dependencia e Independencia Lineal

Consideremos Λ = {α1, α2, . . . , αk} ⊂ V , donde V es un K-EV. Se sigue de esto la siguientedefinicion:

Definicion 2.6 Se dice que Λ es un conjunto linealmente dependiente si y solo si existen escalaresc1, c2, . . . ck no todos nulos tales que

c1α1 + c2α2 + . . . , ckαk = 0

Tambien diremos que J es linealmente dependiente si existe una combinacion lineal no trivial para0 ∈ V .

En base a esta definicion es de suponerse la que correspondera a la independencia lineal, en todocaso:

18

Page 19: Algebra lineal

Definicion 2.7 Se dice que Λ es un conjunto linealmente independiente si no es linealmente de-pendiente. En otras palabras si la unica combinacion lineal para 0 ∈ V es la trivial. En forma masexplıcita aun si:

c1α1 + c2α2 + . . . + ckαk = 0 ⇐⇒ c1 = c2 = . . . = ck = 0

Con estas dos definciones en el bolsillo, podemos verificar el siguiente

Teorema 2.3 Un conjunto de vectores J 6= ∅ es linealmente independiente si y solo si cada vectorde 〈J 〉 se puede escribir en forma unica como combinacion lineal de los elementos de J .

Demostracion 2.3 Dado que el Teorema esta enunciado en forma de equivalencia, debemos probaruna doble implicancia:

⇒ J es linealmente independiente.

Razonemos por absurdo. Consideremos α ∈ 〈J 〉 tal que

α = a1α1 + . . . + akαk = b1α1 + . . . + bkαk

Y que, al menos, a` 6= b` (es decir, consideramos un vector de 〈J 〉 tal que posee dos repre-sentaciones diferentes como combinacion lineal de los elementos de J). Luego, se tiene que

0 = (a1α1 + . . . + akαk)− (b1α1 + . . . + bkαk) =

= (a1 − b1)α1 + . . . + (ak − bk)αk ∈ 〈J 〉Debido a que J es linealmente independiente, necesariamente debe ocurrir que los coeficientesson identicamente nulos y, por lo tanto, a` = b`, obteniendo la contradiccion esperada.

⇐ Todo elemento de 〈J 〉 posee una unica representacion como combinacion lineal de los elementosde J .

Nuevamente podemos razonar por absurdo. Supongamos c1, . . . , ck no todos nulos tales que

0 = c1α1 + . . . + ckαk

Pero dado que los elementos de 〈J 〉 pueden escribirse en forma unica como combinacion linealde los elementos de J , debe ocurrir que

c1 = . . . = ck = 0

Que es, precisamente, la contradiccion que esperabamos encontrar.

A partir del Teorema anterior, podemos deducir el siguiente

Corolario 2.4 Todo conjunto de vectores Λ tal que 0 ∈ Λ es linealmente dependiente.

Demostracion 2.4 La demostracion de este Corolario es trivial a partir del Teorema anterior, puessupongamos α1, . . . , αk ∈ Λ tales que ninguno de ellos corresponde al vector nulo, luego si:

α = α1 + . . . + αk

podemos considerar la combinacion lineal

−α + α1 + . . . + αk = 0

que es diferente de la representacion trivial del vector nulo, por lo tanto el conjunto Λ no es lineal-mente independiente y, en forma equivalente, es linealmente dependiente. Ahora bien, si Λ = {0} ladependencia lineal es inmediata, pues si c1, c2 ∈ K tales que c1 6= c2 se tiene que

0 = c10 = c20

19

Page 20: Algebra lineal

Ejemplos:

1. El conjunto de vectores de R3:

{(1, 2, 3), (0, 0, 1), (1, 1, 1), (0, 4, 3)} ⊂ R3

Es linealmente independiente. Mas aun, como se vera mas adelante, en los ejemplos que traba-jaremos en este curso existe una cota para la cantidad de vectores linealmente independientesque pueden haber en cada espacio vectorial (salvo en los casos de espacios vectoriales llamadosde dimension infinita). En este caso, la cota es de 3 vectores.

2. Discuta si el conjunto {sin x, cos x, x2, e3x, 1} es o no linealmente independiente en el R−EV defunciones continuas de R en R.

3. El conjunto {1 + i, 2} ⊂ C es linealmente independiente al ver a C como R−EV, pero eslinealmente dependiente al ver a C como C−EV.

4. Geometricamente, por ejemplo, en R3 se puede pensar la independencia lineal entre dos vectorescomo verificar que el subespacio vectorial generado por uno de ellos (es decir, la recta que pasapor el origen con direccion dada por uno de los vectores) contiene al otro vector. Asimismopodemos definir la independencia lineal entre subespacios vectoriales, por ejemplo, un vectores linealmente independiente de un plano que pasa por el origen si y solo si el plano contieneal vector, es decir, que el vector se pueda escribir como combinacion lineal de los vectores quegeneran al plano.

2.5. Bases

Para el estudio apropiado del Algebra Lineal, el concepto de base no es menos que trascendental,es por esto, que la definicion siguiente es de vital importancia en este capıtulo:

Definicion 2.8 Diremos que B ⊂ V , donde V es un K-EV, es una base de V si y solo si B es ungenerador linealmente independiente de V .

Pero las bases no se quedan solo en definiciones, de hecho queremos demostrar un teorema im-portante, pero para ello necesitamos de un

Lema 2.5 Si B es una base de V , entonces es el mayor conjunto linealmente independiente de V .

Demostracion 2.5 Consideremos v ∈ V tal que v no pertenece a B, luego B ∪ {v} es linealmentedependiente pues dado que B genera a V , existe una combinacion lineal de los elementos de B quees igual a v.

Este hecho es de vital importancia como veremos en el siguiente

Teorema 2.6 Si una base de V tiene cardinalidad finita n, entonces toda otra base de V tieneexactamente la misma cardinalidad.

20

Page 21: Algebra lineal

Demostracion 2.6 Supongamos B1 y B2 bases de V , de las cuales sabemos solo que Card(B1) = n.Usando el Lema anterior, se deduce que no puede ocurrir que Card(B2) > n (pues requerimos queB2 sea linealmente independiente), es decir, basta verificar que no puede ocurrir que Card(B2) < n;esto se debe a que, de ocurrir que Card(B2) < n, B2 no genera a V .

Usemos reductio ad absurdum. Supongamos que B2 es base de V , considerando que Card(B2) =r < n, luego ocurre que B1 es un conjunto linealmente independiente con cardinalidad mayor que lade la base de V , que se contradice con el Lema anterior.

De este hecho se deduce el siguiente

Corolario 2.7 Si B1 y B2 son bases de un K-EV, entonces existe una funcion biyectiva ϕ : B1 → B2

Demostracion 2.7 Esta demostracion es muy trivial, pues basta con fijar un orden de los elementosde ambas bases, luego podemos elegir la funcion ϕ que asocia biunıvocamente los elementos segun ellugar que ocupan en el orden preestablecido. Verificar que es biyectiva es, ahora una mera cuestionde calculo.

Interesante resulta destacar que dado un subespacio (caracterizado por su base), existe la posi-bilidad de obtener un sistema generador linealmente independiente del espacio entero por medio dela inclusion de vectores linealmente independientes a la base del subespacio. Veremos la validez deeste hecho en el caso de dimension finita

Teorema 2.8 (Completacion de Base) Supongamos, como es usual, que V es un K-EV tal quedimK V = n ∈ N (es decir, de dimension finita) y W tal que W < V , dimK W = m < n. SiBW = {w1, . . . , wm} es base del subespacio W , existen vectores linealmente independientes en V (yque no estan en W ) um+1, . . . , un tales que B = BW ∪ {um+1, . . . , un} = {w1, . . . , wm, um+1, . . . , un}es base de V .

Demostracion 2.8 Dado que W < V , entonces existe al menos un vector um+1 ∈ V tal queBW ∪ {um+1} es un conjunto linealmente independiente de vectores de V . Si n = m + 1 el procesoacaba en el primer paso, si no fuese ası, entonces es posible encontrar otro vector um+2 tal queBW ∪ {um+1, um+2} es linealmente independiente y ası sucesivamente. Por el Lema 2.5 este procesotermina cuando se alcanzan n vectores linealmente independientes.

Teorema 2.9 (Unicidad de Coordenadas) Si B es una base de V , entonces cualquier elemento de V(excepto el vector nulo) se puede escribir en forma unica como combinacion lineal de los elementosde B. El conjunto de escalares que acompanan a los diferentes elementos de la base se conocen comocoordenadas.

Demostracion 2.9 Supongamos B = {α1, . . . , αn} y α ∈ V , luego el conjunto B∪{α} es linealmentedependiente, es decir, existen escalares λ1, . . . , λn, λ ∈ K tales que

n∑i=1

λiαi + λα = 0 ⇐⇒ α = −n∑

i=1

λi

λαi

Para verificar la unicidad de la descomposicion supongamos que existen escalares λ′1, . . . , λ′n ∈ K

diferentes de los anteriores, tales que

α = −n∑

i=1

λ′iλ

αi

21

Page 22: Algebra lineal

luego, se deduce que

0 =n∑

i=1

(λi − λ′i)αi

y, producto de la independencia lineal de los vectores α1, . . . , αn, se deduce que λi = λ′i, ∀i = 1, . . . , n,obteniendo la contradiccion esperada.

Ejemplos:

1. Una base de Rn (como R−EV) esta dada por:

v1 = (1, 0, 0, . . . , 0) ; v2 = (1, 1, 0, . . . , 0) ; . . . ; vn = (1, 1, 1, . . . , 1)

2. Una base para Kn[x] esta dada por el conjunto linealmente independiente de monomios

p0(x) = 1 ; p1(x) = x ; p2(x) = x2 ; . . . ; pn(x) = xn

3. El espacio vectorial de matrices M2(R) (visto como R−EV) tiene como base al siguienteconjunto: (

1 10 0

);

(1 00 1

);

(1 01 0

);

(0 01 1

)4. Toda base de R vista como R−EV tiene solo 1 elemento. Por comodidad se suele utilizar el

conjunto {1}.

5. Todo conjunto que contenga al vector nulo no puede ser una base pues falla la independencialineal.

6. Determine cual es la cardinalidad de alguna base (y, por lo tanto, de todas) del espacio vectorialMm×n(R) visto como R−EV. Sugerencia: Pruebe imaginando a Mm×n(R) como otra forma deescribir Rmn.

2.6. Dimension

Ya con la maravillosa introduccion del concepto de base y el teorema que nos asegura que todasellas poseen una misma cardinalidad, parece natural dar un nombre a este numero, por esto lasiguiente definicion:

Definicion 2.9 Diremos que un K-EV posee dimension n ∈ N (finita) si la cardinalidad de unabase cualquiera B de V es exactamente n. Si B tuviese cardinalidad infinita, diremos que K-EV esde dimension infinita.

Observacion: En lo que sigue, supondremos que los espacios vectoriales poseen dimension finita,excepto cuando la dimension no influya en el ejercicio o en el concepto en sı.

Importante: Si en un ejercicio se tratasen con espacios vectoriales de dimension infinita, la ideaes que extiendan los resultados del caso finito al infinito, pues la mayorıa suelen ser analogos.

22

Page 23: Algebra lineal

Observacion: Si la dimension de V , un K-EV, es n ∈ N, entonces quedara denotada por n =dimK V .

Teorema 2.10 Si W ≤ V , entonces dimK W ≤ dimK V . Mas aun, la igualdad solo ocurre cuandoW = V .

Demostracion 2.10 Es evidente que si W = V , necesariamente su dimension es n. Si W < V ,existe al menos un vector α ∈ V tal que no esta en W , por lo tanto, si BW es base de W , 〈BW 〉no genera a V . Claramente si α no es generado por BW , tampoco lo son los vectores cα (dondec ∈ K). Por lo tanto, la dimension de W es a lo mas n − 1, pues el conjunto de los vectores cα esun subespacio vectorial de dimension 1 de V . Se dice que es a lo mas n− 1 pues podrıa ocurrir queexistiese otro vector β ∈ V que no este en W y que fuese linealmente independiente del vector αanterior y ası sucesivamente, de tal manera que el conjunto de ellos forman un subespacio vectorialde dimension mayor que 1 y, por tanto, W tendrıa dimension menor que n− 1.

En particular haremos mencion de un espacio vectorial de bastante importancia: el espacio Kn.Recordemos que la notacion Kn representa el producto vectorial de K n veces, es decir,

Kn = K× . . .×K︸ ︷︷ ︸n veces

= {(x1, . . . , xn) tal que x1, . . . , xn ∈ K}

Definiremos la suma y el producto por un escalar en Kn de la siguiente manera:

1. Suma: Sean (x1, . . . , xn) y (y1, . . . , yn) dos vectores culesquiera de Kn, se define la suma de elloscomo

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

2. Multiplicacion por Escalar: Sean c ∈ K y x = (x1, . . . , xn) ∈ Kn, se define la multiplicacionentre c y x como

cx = c(x1, . . . , xn) = (cx1, . . . , cxn)

Claramente con estas operaciones resulta que Kn es un espacio vectorial. Con el fin de determinarsu dimension, busquemosle una base. Por simpleza, definiremos un gran ahorro de notacion:

Definicion 2.10 Se define el Delta de Kroenecker de la siguiente manera:

δij =

{1 si i = j0 si i 6= j

Teorema 2.11 El conjunto Kn es un espacio vectorial sobre K con la suma y la multiplicacion porescalar componente a componente.

Demostracion 2.11 La demostracion de este teorema es bastante inmediata y se deja de ejerciciopara el lector.

Teorema 2.12 El conjunto Bc = {e1, . . . , en}, donde

ei = (δi1, . . . , δin)

forma una base de Kn.

Demostracion 2.12 Tanto la independencia lineal como la generacion de Kn son triviales en estabase. Es por esto que esta base se conoce como Base Canonica.

Corolario 2.13 Kn cumple con la propiedad dimK Kn = n

Demostracion 2.13 Cuentense los elementos de la base canonica de Kn.

23

Page 24: Algebra lineal

Ejemplos:

1. R visto como Q−EV tiene dimension infinita. Verifique esta afirmacion tomando, por ejemplo,{√p : p primo }. ¿Cual es la cardinalidad de la base de este espacio vectorial?

2. El espacio Kn[x] tiene dimension n + 1, pues basta tomar la base canonica presentado en losejemplos de la seccion anterior, esto es, tomando la base formada por los monomios

p0(x) = 1 ; p1(x) = x ; p2(x) = x2 ; . . . ; pn(x) = xn

3. Si consideramos el espacio vectorial de las matrices simetricas de n× n con coeficientes reales,verifique que se tiene que su dimension es n(n+1)

2. ¿Cual es la dimension del espacio vectorial

de matrices antisimetricas? Sorprendase de su resultado al sumar ambos valores ¿Tiene logica?Si no la tuviese, posiblemente tiene malo su resultado.

4. Cn tiene dimension real (es decir, como R−EV) 2n, pero dimension compleja n. Claramenteesto se sigue de la construccion de la base de Cn. Trate de obtener su propia base canonica(que de seguro coincidira con la base canonica usual) en ambos casos y deduzca el enunciado.

5. Si, por ejemplo tomamos el R−EV Rn[x] y consideramos el subespacio vectorial de este Rm[x](evidentemente m ≤ n), se tiene de inmediato la desigualdad de las dimensiones.

2.7. Subespacios Especiales

En lo sucesivo, diremos que E y F son subespacios vectoriales de V , un K-EV.

2.7.1. Espacio Interseccion

Es de gran importancia el verificar caracterısticas que posee la interseccion de subespacios.

Definicion 2.11 Diremos que E ∩F es el espacio interseccion de los subespacios E y F si y solo si:

E ∩ F = {ξ|ξ ∈ E ∧ ξ ∈ F}

Teorema 2.14 Dadas las hipotesis y definiciones anteriores, se cumple que E ∩ F ≤ V .

Demostracion 2.14 Supongamos ξ1, ξ2 ∈ E ∩ F y λ ∈ K. Dado que E es un K-EV por sı solo,ξ1 + ξ2 ∈ E y λξ1. Lo mismo ocurre al analizarlos como elementos de F . Es decir, se cumple quetanto ξ1 + ξ2 como λξ1 pertenecen a la interseccion.

Corolario 2.15 Con las convenciones anteriores se tiene que dimK E ∩ F ≤ dimK V .

Demostracion 2.15 La demostracion se sigue inmediatamente del Teorema 2.10.

Observacion: Es claro que la union de subespacios vectoriales no es un subespacio vectorial.

24

Page 25: Algebra lineal

2.7.2. Espacio Suma

Ası como la interseccion de subespacios presenta propiedades interesantes, lo propio ocurre conla suma de subespacios.

Definicion 2.12 Diremos que E + F es el espacio suma si y solo si:

E + F = {u + v|u ∈ E ∧ v ∈ F}

Teorema 2.16 Con las convenciones anteriores se tiene que E + F ≤ V .

Demostracion 2.16 Consideremos u1 + v1 ∈ E + F , donde u1 ∈ E y v1 ∈ F y, en forma analogaconsideremos u2 + v2 ∈ E + F y λ ∈ K. Luego, se sigue de inmediato que, por el hecho que E y Fson espacios vectoriales por sı solos, u1 + u2 + v1 + v2 ∈ E + F y λu1 + λv1 ∈ E + F .

Corolario 2.17 Con las convenciones anteriores se tiene que dimK(E + F ) ≤ dimK V .

Demostracion 2.17 La demostracion se sigue inmediatamente del Teorema 2.10.

Teorema 2.18 Usando las mismas convenciones anteriores se tiene que

dimK(E + F ) = dimK E + dimK F − dimK(E ∩ F )

Demostracion 2.18 Consideremos BE∩F = {α1, . . . , αm} una base de E ∩F . Dado que E ∩F ≤ Ela base BE∩F se puede completar hasta obtener una base de E, a saber:

BE = {α1, . . . , αm, β1, . . . , βn}

Del mismo modo, siguiendo el mismo razonamiento, tenemos que

BF = {α1, . . . , αm, γ1, . . . , γr}

es una base de F . Con estas bases podemos crear el conjunto B = BE ∪BF , el cual resulta ser base deE +F . Para verificar esta afirmacion notemos que al considerar una combinacion lineal de elementosde B tal que sea igual a cero (considerando λi, µj, νk ∈ K):

m∑i=1

λiαi +n∑

j=1

µjβj +r∑

k=1

νkγk = 0

se puede deducir lo siguiente (haciendo un pequeno arreglo en la notacion, a saber

v =m∑

i=1

λiαi ; v1 =n∑

j=1

µjβj ; v2 =r∑

k=1

νkγk = 0

)v1 ∈ E se puede escribir como combinacion lineal de los elementos de F , por lo tanto, v1 ∈ F ,mas aun, v1 ∈ E ∩ F . Por este hecho, v1 deberıa poder expresarse como combinacion lineal de loselementos de BE∩F , es decir, v1 = 0. Identico razonamiento es valido para v2 = 0, por lo que sededuce que v = 0. Dada la independencia lineal de los elementos de las bases BE, BF y BE∩F sedesprende el hecho de que λ1 = . . . = λm = µ1 = . . . = µn = ν1 = . . . = νr = 0.

Para verificar que B = {α1, . . . , αm, β1, . . . , βn, γ1, . . . , γr} genera a E + F basta ver que todoelemento de E + F se escribe como la suma de elementos de E y F y, dado que las bases de estossubespacios estan contenidas en B, podemos crear cualquier vector de E+F como combinacion linealde los elementos de B.

25

Page 26: Algebra lineal

2.7.3. Espacio Suma Directa

Esta particularizacion del espacio suma es de vital importancia en el estudio venidero del algebralineal, por lo tanto, pongan especial atencion.

Definicion 2.13 Diremos que la Suma Directa de dos subespacios E y F de V es el subespacio sumaE + F con la restriccion de que E ∩ F = {0}. Denotamos la suma directa de E y F por E ⊕ F.

Ahora bien, es de esperarse que se tenga el siguiente

Teorema 2.19 Usando las notaciones anteriores se tiene que E ⊕ F ≤ V .

Demostracion 2.19 La demostracion es exactamente la misma que en el Teorema 2.16.

Corolario 2.20 Usando las notaciones anteriores, se tiene que

dimK E ⊕ F = dimK E + dimK F

Demostracion 2.20 Se deduce este corolario al notar que E ∩ F = {0}, por lo tanto, se tiene quedimK E ∩ F = 0. Luego basta utilizar el Teorema 2.18.

Finalmente, un importantısimo

Teorema 2.21 Dado E < V , existe un subespacio vectorial F < V tal que V = E⊕F . Este espaciose conoce como el complementario de E respecto de V .

Demostracion 2.21 Este teorema se sigue directamente del Teorema 2.8.

Ejemplos:

1. Rn = R⊕ R n veces· · · ⊕R.

2. R3[x] = {a + bx : a, b ∈ R} ⊕ {cx2 + dx3 : c, d ∈ R}.

3. Mn(R) = Sn(R)+An(R), donde Sn(R) es el espacio vectorial de matrices simetricas (invariantesbajo transposicion) y An(R) el de las matrices antisimetricas (que tras una transposicion,cambian de signo). Verifique esta afirmacion.

4. F(R, R) = P(R, R) ⊕ I(R, R) donde F(R, R) es el espacio vectorial de funciones de R en R,P(R, R) es el espacio vectorial de funciones pares y I(R, R), el de funciones impares. Verifiqueesta afirmacion.

26

Page 27: Algebra lineal

2.7.4. Espacio Cociente

Finalmente, tratamos con una idea que, en un principio puede parecer rara, pero que si se continuaen el estudio de las matematicas, se vera que no es menos que natural. Es una situacion parecida amedir los angulos en grados (siendo que lo natural es medirlos en radianes) o calcular logaritmos enbase 10 (siendo que para el tratamiento formal de los logaritmos es fundamental el logaritmo natural).Antes de comenzar con el Espacio Cociente, veamos una definicion sencilla que, perfectamente pudohaber sido dada en MAT-021.

Definicion 2.14 Diremos que una relacion < es una relacion de equivalencia si dados x, y, z ∈Dom<:

1. La relacion es reflexiva:x<x

2. La relacion es simetrica:Si x<y =⇒ y<x

3. La relacion es transitiva:Si x<y y y<z =⇒ x<z

Ahora bien, dado un conjunto A en el cual se tiene una relacion de equivalencia, se da en formanatural una particion del conjunto.

Definicion 2.15 Diremos que un conjunto A esta particionado en una coleccion de subconjuntos deA: Υ = {A1, . . . ,An} si y solo si

n⋃i=1

Ai =⋃

Υ = A donde Ai ∩ Aj = ∅ si i 6= j

No existe ningun impedimento de extener esta deinicion al caso infinito.

Si la particion de un conjunto es heredada a partir de una relacion de equivalencia, cada uno de lossubconjuntos que forman Υ son llamados clases de equivalencia. En el caso de Espacios Vectoriales,la relacion de equivalencia mas simple, con sus respectivas clases, queda dada por

Definicion 2.16 Dados α, β ∈ V diremos que estan en la misma clase de equivalencia respecto delsubespacio E si y solo si:

β − α ∈ E

Denotaremos este hecho por β ∈ [α], donde [α] denota la clase de equivalencia con α como represen-tante.

Proposicion 2.22 La relacion definida anteriormente es, efectivamente, una relacion de equivalen-cia.

Demostracion 2.22 La demostracion de esto es trivial, pues solo basta verificar las condicionesdadas en la Definicion 2.14.

27

Page 28: Algebra lineal

La definicion anteriormente dada induce a una notacion muy util para las clases de equivalencia,a saber:

[α] = α + E = {α + β | β ∈ E}Esta importante definicion permite definir el Espacio Cociente, usando la notacion antes definida.

Definicion 2.17 Dadas las convenciones y notaciones qnteriores, diremos que V/E es el EspacioCociente del espacio V respecto de su subespacio E si y solo si:

V/E = {[α]|α ∈ V }

En otras palabras, lo que estamos haciendo al cocientar un espacio vectorial V con respecto alsubespacio E es parametrizar V de tal manera que el total de elementos de V queda reducido solo alas clases de equivalencia respecto de E.

Teorema 2.23 El espacio cociente entre V y E cumple: V/E ≤ V , con las operaciones inducidaspor la relac ion de equivalencia, dadas por:

V/E × V/E −→ V/E(α + E, β + E) 7→ (α + β) + E

K× V/E −→ V/E(λ, α + E) 7→ (λα) + E

Demostracion 2.23 La misma definicion de la aritmetica de equivalencia demuestra este teorema.

El siguiente teorema nos ayuda a encontrar bases del espacio cociente, dadas las bases del espacioy del subespacio.

Teorema 2.24 Supongamos BE = {α1, . . . , αk} base de E. Al completar la base BE a B (una basede V ), a saber

B = {α1, . . . , αk, β1, . . . , βn}se tiene que el conjunto BV/E = {[β1], . . . , [βn]} es base de V/E.

Demostracion 2.24 Que el conjunto es linealmente independiente se desprende de la definicion dela aritmetica de equivalencia dada en el Teorema 2.23, pues si λ1, . . . , λn ∈ K:

n∑i=1

λi[βi] =n∑

i=1

λi(βi + E) =

(n∑

i=1

λiβi

)+ E = 0

esto quiere decir que [n∑

i=1

λiβi

]= [0]

por lo tanto,∑n

i=1 λiβi ∈ E; pero notemos que este vector debe tambien estar en el complementariode E ya que es combinacion lineal de los elementos de su base, por lo tanto, λ1, . . . , λn = 0.

El hecho de que BV/E genera a V/E se desprende inmediatamente, pues si [α] = α + E ∈ V/E,entonces existen λ1, . . . , λk, µ1, . . . , µn ∈ K tales que:

α =k∑

i=1

λiαi +n∑

j=1

µjβj

28

Page 29: Algebra lineal

debido a que α ∈ V . Luego, usando la aritmetica de equivalencia dada en el Teorema 2.23 se tieneque

α + E =n∑

j=1

µjβj + E =n∑

j=1

µj(βj + E)

Teorema 2.25 Bajo las convenciones anteriores se tiene que dimK V/E = dimK V − dimK E

Demostracion 2.25 Este teorema se sigue inmediatamente del Teorema 2.24.

3. Transformaciones Lineales

Nos interesa estudiar, ademas de conjuntos que posean propiedades especiales, funciones queconserven propiedades en su conjunto de llegada, es decir, funciones que partan y lleguen a espaciosvectoriales tales que cumplan

f(α + β) = f(α) + f(β) ; f(λα) = λf(α)

con α, β ∈ V (donde V es un K-EV y λ ∈ K). En esencia utilizaremos las mismas convencionesque en la seccion anterior, con la salvedad que, debido a que en general vamos a trabajar sobre dosespacio vectoriales diferentes, utilizaremos el nombre del espacio como subındice en el caso del vectornulo respectivo. Por ejemplo, en el espacio vectorial E el vector nulo respectivo sera denotado por0E.

Definicion 3.1 Diremos que una funcion L : V → W (con V y W K-EV) es una transformacionlineal (o aplicacion lineal) si preserva la estructura de espacio vectorial, es decir, si α, β ∈ V y λ ∈ K:

L(α + β) = L(α) + L(β) ; L(λα) = λL(α)

De esto se deduce que L(α), L(β) ∈ W y λL(α) ∈ W .

Definicion 3.2 Al conjunto de transformaciones lineales que tienen como espacio de partida a E yde llegada a F lo denotaremos por L(E, F ).

En base a las definiciones anteriores se tiene el siguiente

Teorema 3.1 Usando las notaciones y convenciones usuales se tiene que L(E, F ) es un espaciovectorial con las operaciones

+ : L(E, F )× L(E, F ) −→ L(E, F )(ϕ1, ϕ2) 7→ (ϕ1 + ϕ2)

· : K× L(E, F ) −→ L(E, F )(λ, ϕ) 7→ (λϕ)

Estas operaciones se aplican del siguiente modo: (ϕ1 + ϕ2)(α) = ϕ1(α) + ϕ2(α) y (λϕ)(α) = λϕ(α).

Demostracion 3.1 Con la definicion de las operaciones entre transformaciones lineales esta de-mostracion es trivial.

29

Page 30: Algebra lineal

Lema 3.2 Si B = {α1, . . . , αk} es una base de E y ϕ ∈ L(E, F ) tal que ϕ(αi) = 0F (i = 1, . . . , k),entonces, ϕ ≡ 0.

Demostracion 3.2 Supongamos ϕ(α) 6= 0F para algun α ∈ E. Dado que α se puede escribirunicamente como combinacion lineal de los elementos de la base, por el Teorema 2.9, se tiene losiguiente si α = ξ1α1 + . . . + ξkαk:

ϕ(α) = ϕ(ξ1α1 + . . . + ξkαk) = ξ1ϕ(α1) + . . . + ξkϕ(αk) = 0F

Obteniendo la contradiccion esperada.

Teorema 3.3 Supongamos B = {α1, . . . , αk} una base de E y Λ = {β1, . . . , βk} vectores de F ,entonces, existe una unica ϕ ∈ L(E, F ) tal que ϕ(αi) = βi (i=1,. . . ,k).

Demostracion 3.3 Necesitamos verificar la existencia, lo cual es evidente pues conocemos su accionsobre una base, a saber, si α ∈ E entonces α = ξ1α1 + . . . + ξkαk, entonces ϕ(α) = ξ1β1 + . . . + ξkβk

donde ξi son conocidos por la descomposicion de α en sus coordenadas (que son unicas por el Teorema2.9) y βi son conocidos por ser la accion sobre la base.

La unicidad se verifica suponiendo la existencia de ϕ′ tal que ϕ′(αi) = βi (i = 1, . . . , k). Luego latransformacion (ϕ − ϕ′) al actuar sobre la base B entrega valores nulos, por lo tanto, por el Lema3.2 se deduce la tesis de unicidad.

3.1. Nucleo de una Transformacion Lineal

Definicion 3.3 Diremos que ker ϕ ⊆ E es el nucleo de ϕ ∈ L(E, F ) si y solo si este corresponde alconjunto de preimagenes de 0F , es decir, si ∀α ∈ ker ϕ : ϕ(α) = 0F .

Lema 3.4 Siempre, sin importar la transformacion lineal ϕ ∈ L(E, F ), se cumple que 0E ∈ ker ϕ.

Demostracion 3.4 La demostracion es puramente operatoria y es similar a demostrar que 0 · a =0,∀a ∈ R.

ϕ(0E) = ϕ(0E + 0E) = ϕ(0E) + ϕ(0E) =⇒ ϕ(0E) = 0F

Teorema 3.5 El nucleo de una transformacion lineal es un subespacio vectorial del espacio de partidade esta, es decir, usando las notaciones usuales: ker ϕ ≤ E.

Demostracion 3.5 Es claro que ker ϕ 6= ∅, debido al Lema 3.4. Ahora bien, supongamos α, β ∈ ker ϕy λ ∈ K, entonces se tiene:

ϕ(α + β) = ϕ(α) + ϕ(β) = 0F + 0F = 0F

ϕ(λα) = λϕ(α) = λ0F = 0F

30

Page 31: Algebra lineal

Observacion: Al nucleo de una transformacion lineal tambien se le llama el kernel de esta. A ladimension del nucleo se le conoce como nulidad (Nullϕ = dimK ker ϕ).

Teorema 3.6 Una transformacion lineal ϕ ∈ L(E, F ) es inyectiva (en el sentido de ??) si y solo siker ϕ = {0E}.

Demostracion 3.6 Dado que el teorema esta enunciado en forma de equivalencia, debemos probarlas dos implicancias:

⇒ ker ϕ = {0E}.Supongamos α, α′ ∈ E tales que ϕ(α) 6= ϕ(α′), por lo tanto, ϕ(α − α′) 6= 0F , es decir, α − α′

no esta en ker ϕ y, por lo tanto, α 6= α′.

⇐ ϕ es inyectiva.

Supongamos α, α′ ∈ ker ϕ, es decir, si ϕ(α) = ϕ(α′) = 0F entonces α = α′,∀α, α′ ∈ ker ϕ y,dado que 0E ∈ ker ϕ (por el Lema 3.4), se tiene que ker ϕ = {0E}.

3.2. Imagen de una Transformacion Lineal

Definicion 3.4 Diremos que Imϕ ⊆ F es la imagen de ϕ ∈ L(E, F ) si y solo si ∀β ∈ Imϕ, ∃α ∈E : ϕ(α) = β.

Teorema 3.7 La imagen de una transformacion lineal es un subespacio vectorial del espacio dellegada, es decir, usando las notaciones anteriores: Imϕ ≤ F .

Demostracion 3.7 Evidentemente Imϕ 6= ∅ (Lema 3.4), luego supongamos β1, β2 ∈ Imϕ y λ ∈ K,entonces, existen α1, α2 ∈ E tales que ϕ(α1) = β1 y ϕ(α2) = β2, por lo tanto, existen α1+α2, λα1 ∈ Etales que ϕ(α1 + α2) = ϕ(α1) + ϕ(α2) = β1 + β2 ∈ Imϕ y ϕ(λα1) = λϕ(α1) = λβ1 ∈ Imϕ.

Observacion: La imagen de una transformacion lineal tambien se le denotara por ϕ(E). A ladimension de la imagen se le conoce como rango (Rgϕ = dimK Imϕ).

Teorema 3.8 Si B = {α1, . . . , αk} es base de E, entonces

ϕ(B) = {ϕ(α1), . . . , ϕ(αk))}

genera a Imϕ.

Demostracion 3.8 Supongamos β ∈ Imϕ, luego existe un α ∈ E tal que ϕ(α) = β. Dado queα = ξ1α1 + . . . + ξkαk en forma unica (por el Teorema 2.9) se tiene lo siguiente:

ϕ(α) = β = ξ1ϕ(α1) + . . . + ξkϕ(αk)

Es decir, cualquier elemento de Imϕ se escribe como combinacion lineal de los elementos de ϕ(B).

Teorema 3.9 Si ϕ ∈ L(E, F ) se tiene la siguiente relacion

Rgϕ + Nullϕ = dimK E

31

Page 32: Algebra lineal

Demostracion 3.9 Consideremos V un espacio vectorial de dimension n, es decir:

BV = {v1, . . . , vk, vk+1, . . . , vn}

es una base de V . Ademas, sin perdida de la generalidad, podemos considerar que

Bker ϕ = {v1, . . . , vk}

es base de ker ϕ. Basta probar que

B{ϕ(vk+1), . . . , ϕ(vn)}

es base de Imϕ. Para esto, consideremos una combinacion lineal de dichos vectores igualada a 0F ,esto es:

λk+1ϕ(vk+1) + . . . + λnϕ(vn) = 0F

como ϕ es transformacion lineal, podemos hacer lo siguiente:

λk+1ϕ(vk+1) + . . . + λnϕ(vn) = ϕ(λk+1vk+1 + . . . + λnvn)

Y, por lo tanto, λk+1vk+1 + . . . + λnvn ∈ ker ϕ, pero son vectores linealmente independientes de losvectores que generan al nucleo de ϕ, por lo tanto, necesariamente debe cumplirse que

λk+1 = . . . = λn = 0

Es decir, el conjunto {ϕ(vk+1), . . . , ϕ(vn)} es linealmente independiente. Probar que el conjuntoanterior genera Imϕ es un asunto bastante inmediato y se deja como ejercicio.

3.3. Isomorfismos

Definicion 3.5 Diremos que ϕ ∈ L(E, F ) es un isomorfismo si y solo si ϕ es biyectiva (en el sentidode MAT-021), es decir, si: Rgϕ = dimK F y Nullϕ = 0.

Definicion 3.6 Si existe un isomorfismo entre dos espacios vectoriales E y F diremos que los es-pacios son isomorfos.

Teorema 3.10 Si ϕ ∈ L(E, F ) es un isomorfismo, ϕ−1 ∈ L(F, E) (inversa en el sentido de MAT-021) es tambien un isomorfismo.

Demostracion 3.10 Si ϕ−1 ∈ L(F, E) entonces Imϕ−1 ≤ E. Tenemos que ϕ(E) = F y queϕ−1(0F ) = {0E}. Luego, supongamos que existe α ∈ E tal que α no pertenece a Imϕ−1; dadoque existe β ∈ F tal que ϕ(α) = β y ϕ es isomorfismo se tiene la contradiccion pues α = ϕ−1(β).

En forma analoga se tiene que ker ϕ−1 ≤ F y que es no vacıo (Lema 3.4). Supongamos α ∈ker ϕ−1, α 6= 0F , entonces ϕ−1(α) = 0E que es equivalente a decir α = ϕ(0E) = 0F , obteniendo lacontradiccion esperada.

Corolario 3.11 La relacion E<F , donde < = { los espacios son isomorfos } es una relacion deequivalencia.

Demostracion 3.11 La propiedad reflexiva queda inmediatamente verificada usando el isomorfismoidentidad (es decir: Id(α) = α). La simetrıa queda verificada por el Teorema 3.10. Finalmente la tran-sitividad es evidente a partir de la composicion de isomorfismos. Los detalles pueden ser completadoscon calma como ejercicio.

32

Page 33: Algebra lineal

Teorema 3.12 Todos los espacios vectoriales de la misma dimension (finita) y sobre un mismocuerpo K son isomorfos entre sı. En particular, todo K−espacio vectorial de dimension n es isomorfoa Kn.

Demostracion 3.12 Supongamos BE = {α1, . . . , αn} base de E y BF = {β1, . . . , βn} base de F .Consideremos la transformacion lineal T ∈ L(E, F ) tal que T (αi) = βi (i = 1, . . . , n), en formaexplıcita si α = ξ1α1 + . . . + ξnαn se tiene que:

T (α) = ξ1β1 + . . . + ξnβn

Claramente T es inyectiva debido al Teorema 2.9 y, evidentemente, es epiyectiva, por lo tanto T esun isomorfismo. Para el caso particular de Kn basta con considerar, por ejemplo, la base canonica.

Corolario 3.13 Si E y F son espacios isomorfos, entonces se tiene que dimK E = dimK F .

Demostracion 3.13 Esta demostracion es evidente a partir del Teorema 3.12, pero, haciendo usodel Teorema 3.9 y la definicion de isomorfismo, se obtiene de inmediato la relacion buscada.

33