INSTITUTO TECNOLOGICO DE CERRO AZUL
ESPECIALIDAD
ING. ELECTROMECANICA
MATERIA:
ALGEBRA LINEAL
SEMESTRE 1
UNIDAD 4:
ESPACIOS VECTORIALES
MAESTRO:
ING. GERARDO REYES FIGUEROA
ALUMNO:
ORTIZ FERNANDEZ JOSE GERARDO
NUM. DE CONTROL:
13500341
FECHA: 15/11/2013
Introducción
El siguiente material que se presenta es una recopilación de la información que se crea conveniente para abarcar los distintos temas de espacios vectoriales la cual es una materia de algebra
lineal en la que se van a tomar puntos importantes así como propiedades y características de cada tema.
Te invitamos a que veas de manera atenta el contenido de este trabajo.
4.1 Definición de espacio vectorial.
Propiedades de la suma de vectores.
• Asociativa: (u+v)+w = u+ (v+w)
• Conmutativa: v+u=u+v.
• Existe un elemento neutro, el vector ō, tal que ō + v = v para cualquier vector v.
• Para cada vector v existe un elemento opuesto, –v, que sumado con él da ō.
Propiedades del producto de un vector por un escalar.
• Asociativa: β (αv) = (β α) v
• Distributivas:
Respecto de la suma de escalares: (α+ β) v = αv + β v Respecto de la suma de vectores: α(u + v) = αu +αv
• Existe un elemento unidad: el escalar 1, tal que 1· v = v para cualquier vector v.
Cualquier conjunto que posea unas operaciones suma y producto por escalares, cumpliendo todas las propiedades anteriores, diremos que es un espacio vectorial. Los elementos de tal conjunto se llamarán vectores (aunque pueda tratarse de objetos diferentes a los vectores de la Física.)
Diremos que el espacio vectorial es real o complejo, según sean los escalares.
Otras propiedades de los espacios vectoriales pueden deducirse de las anteriores propiedades básicas. Por ejemplo:
Si αv = ō (α escalar, v vector) entonces o bien es α=0 o bien es v = ō.
Sea V un conjunto en el cual dos operaciones, llamadas adición y multiplicación escalar, han sido definidas. Si u y v se encuentran en V, la suma de u y v se denota por medio de u + v y si c es un escalar, el múltiplo escalar de u por c se denota como cu. Si los siguientes axiomas son válidos para todo u, v y w en V y para todos los escalares c y d, entonces V se denomina espacio vectorial y sus elementos son llamados vectores.
1. u + v está en V. Cerradura bajo la adición
2. u + v = v + u. Conmutabilidad
3. u + (v + w)= (u + v)+ w. Asociatividad
4. Existe un elemento 0 en V, denominado vector cero o nulo, tal que u + 0 = u.
5. Para cada u en V, existe un elemento -u en V tal que u + (-u)= 0
6. cu esta en V. Cerradura bajo la multiplicación escalar.
7. c (u + v)= cu + cv. Distributividad
8. (c + d) u = cu + du. Distributividad
9. c (du) = (cd) u. Asociatividad.
10. 1(u)= u. Identidad escalar
4.1 Definición de subespacio vectorial y sus propiedades .
Los subespacios vectoriales de Rn serán los subconjuntos de Rn que se pueden caracterizar mediante ecuaciones lineales homogéneas (ecuaciones implícitas en la n variable dadas por las coordenadas de un vector genérico). Como ya hemos visto, cualquier conjunto de vectores descrito como el conjunto de todas las combinaciones lineales de ciertos vectores también puede caracterizarse mediante ecuaciones lineales homogéneas. A la hora de manipular subespacios vectoriales recurriremos de forma habitual, a su expresión mediante ecuaciones implícitas o a su expresión mediante ecuaciones paramétricas. Una de las cuestiones que trataremos es el número mínimo de ecuaciones implícitas mediante el espacio tridimensional R3, los subespacios vectoriales son, además el espacio nulo {0} y del total R3, las rectas y los planos que pasan por el origen de coordenadas.
Subespacios vectoriales
Definición: Se llama subespacio vectorial de Rn a todo subconjunto no vacío e S с Rn que verifica:
La propiedad (1) nos dice que si tenemos un vector no nulo de un subespacio vectorial, la recta determinada por dicho vector estas contenida en el subespacio. La propiedad (2) nos dice que si tenemos dos vectores (no colineales) de un subespacio vectorial, el plano determinado por dichos vectores está contenido en el subespacio.
Las dos propiedades anteriores se pueden expresar de forma conjunta; Si dos vectores están en S, también lo está cualquiera de sus combinaciones lineales:
4.2 Combinación lineal. Independencia lineal.
Independencia lineal
Se dice que un conjunto de vectores v1,…, vn de un espacio vectorial V es
linealmente dependiente si hay escalares c1,…, cn, no todos cero, tales que
Se dice que v1,…, vn es linealmente independientes si no
es linealmente dependiente. En otras palabras, la ecuación implica que
c1=.. .=cn=0 .
Si S es cualquier subconjunto de V (posiblemente infinito), solo lo llamaremos
linealmente dependiente cuando contenga un subconjunto finito linealmente
dependiente. En cualquier otro caso, S es linealmente independiente
Ejemplos:
1.- El conjunto es linealmente dependiente
en
2.- El conjunto { A ,B ,C }es linealmente dependiente en M n porque A=B+C
c1 v1+.. . ..+cn vn=0
{2−x+x2 ,2 x+x2 ,4−4 x+x2}P3 porque4−4 x+ x
2=2 (2−x+x2)−(2 x+ x2 )
C=|0 −12 2
|B=|1 00 −2
|A=|1 −12 0
|
3.- Los conjuntos {1 ,cos2 x ,cos2 x } y {senx ,cos x , sen2 x }son linealmente
dependientes en F(R), porque
cos2 x=12.1+ 1
2cos 2xysen 2x=2 senxcos x
Para toda x∈ R
4.- demuestre que el conjunto {E11 ,E12 , E21 ,E22 }es linealmente independiente en
M22
SOLUCION sean
Por consiguiente, c1=c2=c3=c4=0
DEPENDENCIA E INDEPENDENCIA LINEAL
A continuación se definen las nociones de dependencia e independencia lineal.
Estos conceptos juegan un papel dentro de la teoría del algebra lineal y de las
matemáticas en general.
DEFINICION: sea V un espacio vectorial sobre un cuerpo K. se dice que los
vectores v1 ,. .. , vm∈V son linealmente dependientes sobre K, o simplemente
dependientes, si existen escalares a1 ,. . ., am∈K , no todos 0, tales que
a1v1+a2v2+.. . .am vm=0
En caso contrario se dice que los vectores son linealmente independientes
sobre K, o simplemente independientes.
Observemos que la relación (*) se verifica siempre si los a1 son todos 0. Si la
relación solo se verifica en este caso, es decir,
a1v1+a2v2+.. . .am vm=0 Implica
Los vectores serán linealmente independientes. Sin embargo, si (*) también es
válida cuando uno de los ai no es 0, los vectores serán linealmente
dependientes.
Se dice que un conjunto {v1 , v2 , . .. . , vm } de vectores es linealmente dependiente o
[c1 c2c3 c 4 ]=[0 0
0 0 ]
c 1|1 00 0
|+c2 [0 10 0 ]+c3 [0 0
1 0 ]+c4 [0 00 1 ]=[0 0
0 0 ]
a1=0 , . .. ..am=0
independiente según lo sean los vectores v1 , v2 , .. .. , vm. Un conjunto infinito S de
vectores es linealmente dependientes si existen vectores u1 , . .. , uken S que lo
son; en caso contrario, S es linealmente independiente.
Las siguientes observaciones derivan de las definiciones precedentes.
NOTA 1: Si 0 es uno de los vectores v1 ,. .. , vmdigamos v1=0 , los vectores
deben ser linealmente dependientes, ya que
Y el coeficiente de v1 es distinto de 0.
NOTA 2: cualquier vector no nulo v es por si solo linealmente independientes,
debido a que
kv=0 , v≠0 Implica k=0
NOTA 3: si dos de los vectores v1 , v2 , .. .. , vm son iguales, o si uno es un múltiplo
escalar de otro, digamos v1=kv2 , los vectores son linealmente dependientes,
puesto que
v1−kv2+0v3+.. ..+0vm=0
Y el coeficiente de v1 no es 0.
COMBINACIONES LINEALES Y DEPENDENCIA LINEAL
Las nociones de combinación lineal y dependencia lineal están estrechamente
relacionadas. De forma específica, demostraremos que los vectores v1 , v2 , .. .. , vm
, cuando hay más de uno, son linealmente dependientes si y solo si uno de
ellos es la combinación lineal de los otros:
v i=a1v1+. . ..+a i−1v i−1+ai+1v i+1+. ..+am vmEntonces sumando –vi a ambos miembros, obtenemos
a1v1+. .. .+a i−1v i−1−vi+ai+1v i+1+. ..+am vm=0
Donde el coeficiente de vi no es 0; por consiguiente, los vectores son
linealmente dependientes. Recíprocamente, supongamos que los vectores son
linealmente dependientes, digamos.
En ese
caso
1v1+0v2+. .. . .+0vm=1 .0+0+. .. .+0=0
b1v1+. .. .+b j v j+. . ..+bm vm=0dondeb j≠0
v j=−b j−1b1v1−. .. ..−b j
−1 b j−1v j−1−b j−1b j+1 v j+1−. . ..−b j
−1bm vm
De modo que vj es una combinación lineal del resto de los vectores.
Establecemos ahora un resultado algo más potente que el anterior (véase el
problema 5.36 para su demostración), que tiene numerosas consecuencias
importantes.
4.3 Base y dimensión de un espacio vectorial, cambio de base.
Comenzando estableciendo dos caminos equivalentes para definir una base de
un espacio vectorial V.
Definición A: si un conjunto S= u1, u2…un de vectores es una base de V si se
verificaran las dos condiciones:
1.- u1, u2…un son linealmente independientes
2.- u1, u2…un generan V
Definición B:
Un conjunto S= u1, u2…un de dos vectores es una base de V si todo vector
vV puede escribirse de forma única como combinación lineal de sus
vectores.
Se dice que un espacio vectorial es de dimensión finita n o que es n-
dimensional, escrito
Dim V=n
Si V tiene una base como la anterior, con n elementos. La dimensión está bien
definida, a la vista del siguiente teorema.
Teorema 1.-
Sea un vector espacio vectorial de dimensiones finito. Entonces todas las
bases de V tienen el mismo número de elementos.
El espacio vectorial 0 tiene dimensiones 0, por definición. Cuando un espacio
vectorial no es de dimensión finita, se dice que es de dimensión infinita.
Ejemplo:
a) consideremos el espacio vectorial M2,3 de todas las matrices 2x3 sobre
un cuerpo K. las seis matrices siguientes forman una base M2,3:
Con mayor generalidad en el espacio vectorial Mr, s de las matrices r x ese Ei,j
la matriz cuya entrada ij es 1, siendo 0 las restantes. Todas las matrices Eij tales
constituyen una base Mrs. denominada su base usual. Consecuentemente, dim
Mrs... En particular e1= (1, 0,...,0),…en = (0, 0,…, 0, 1) forma la base usual de Kn
b) considérenos el espacio vectorial Pn (t) de los polinomios de grado n.
lo polinomios 1t, t2, ….tn, forman una base de Pn (t) y por lo tanto dim Pn
(t) = n +1.
El teorema fundamental anterior sobre dimensión es una consecuencia del
importante “lema de sustitución”
Lema: supongamos que v1, v2,…vnque genera V y que w1, w2…wm es
linealmente independiente. En ese caso, mn y V esta generado por un
conjunto de la forma
w1, w2…wm, v1, v2,…vn-, m
Así, en particular, n+1 o más vectores en V son linealmente dependientes.
Observemos, en el lema precedente, que hemos sustituido m vectores de
conjunto generador por los m vectores independientes y aun conservamos un
conjunto generador.
Los teoremas enunciados a continuación se utilizaran con frecuencia:
Teorema 2.- supongamos que S genera un espacio vectorial V
i) cualquier número máximo de vectores linealmente independiente s en S
es una base de V
ii) si se suprime de S todo vector que sea combinación lineal de los
precedentes, los vectores que quedan constituyen una base de V
Teorema 3.- sean V un espacio vectorial de dimensión finita y S= u1, u2…un
un conjunto de vectores linealmente independientes en V. En ese caso, S es
parte de una base de V, es decir extenderse a una base de V
Ejemplo:
a) consideremos en R4 los cuatro vectores
(1,1,1,1) (0,1,1,1) (0,0,1,1) (0,0,0,1)
Nótese que los vectores formaran una matriz escalonada, por lo que son
linealmente independientes.
Más aún, dado que dim R4 = 4, los vectores constituyen una base de R4
b) consideremos los n +1 polinomios en Pn (t):
1, t-1, (t-1)2… (t-1)n
El grado de (t-1)k es K, luego ningún polinomio puede ser combinación lineal de
los precedentes. Además, constituyen una base de Pn (t) por que dim Pn (t)=
n+1.
El siguiente teorema nos da la relación básica entre la dimensión de un espacio
vectorial y la de un subespacio.
Teorema 4.- sea W un subespacio de un espacio n-dimensional V. entonces
dim Wn. si en particular, dim W= n, necesariamente W=V
Ejemplo:
Sea W un subespacio de espacio vectorial real R3 =3; por consiguiente, según
el teorema 4, la dimensión de W solo puede ser 0, 1,2 o 3. Podemos distinguir
los casos:
i) dim W=0, con lo que W=0, un punto
ii)dim W=1, con lo que W es una recta por el origen
iii) dim W = 2, con lo que W es un plano por el origen.
iv) Dim W= 3 con lo que W es un espacio R3 entero.
4.4 Espacio vectorial con producto interno y sus propiedades.
Definición. El espacio vectorial complejo V se conoce como un espacio con producto interior si para cualquier par de vectores u y v en V, existe un único número complejo (u, v), llamado el producto interior de u y v, tal que si u, v y w están en V y si α ∈ C, entonces
Propiedades
i. (v, v) ≥ 0ii. (v, v) = 0 si y sólo si v = 0.iii, (u, v +w) = (u, v)+ (u, w)iv. (u + v, w) = (u, w)+ (v, w)v. (u, v) = (v, u)vi. (αu, v) = α (u, v)vii. (u, αv) = α(u, v)La barra en las condiciones (v) y (vii) denota el conjugado complejo.
4.6 Base ortonormal, proceso de ortonormalización de Gram-Schmidt.
Cambio de base
El cambio de base consiste en conocidas las coordenadas de un vector respecto a una base B, encontrar las coordenadas de dicho vector con respecto a otra base B’.
TEOREMA 4.10 (La inversa de la matriz de transición).
Si P es la matriz de transición de una base B a una base B’ en , entonces P es invertible y la matriz de transición de B’a B es.
TEOREMA 4.11 (Matriz de transición de una base B a una base B’).
Sean y dos bases de Rn, entonces la matriz de transición P-1 de B a B’ puede determinarse mediante eliminación de Gauss –
Jordán en la matriz como se muestra a continuación
En la matriz B’ representa la matriz que tiene por columnas las componentes de los vectores de la base B’ respectivamente, de forma similar B representa la matriz que tiene por columnas las componentes de los vectores de la base B respectivamente.
Base ortonormal
En álgebra lineal, una base ortonormal de un espacio prehilbertiano V (es decir, un espacio vectorial con producto interno) o, en particular, de un espacio de Hilbert H, es un conjunto de elementos cuyo span es denso en el espacio, en el que los elementos son mutuamente ortogonales y normales, es decir, de magnitud unitaria. Una base ortogonal satisface las mismas condiciones, salvo la de magnitud unitaria; es muy sencillo transformar una base ortogonal en una base ortonormal mediante el producto por un escalar apropiado y de hecho, esta es la forma habitual en la que se obtiene una base ortonormal: por medio de una base ortogonal.
Así, una base ortonormal es una base ortogonal, en la cual la norma de cada elemento que la compone es unitaria.
Estos conceptos son importantes tanto para espacios de dimensión finita como de dimensión infinita. Para espacios de dimensión finita, la condición de span denso es la misma que la de 'span', como se usa en álgebra lineal.
Una base ortonormal por lo general no es una "base", es decir, en general no es posible escribir a cada elemento del espacio como una combinación lineal de un número finito de elementos de la base ortonormal. En el caso de dimensión infinita, esta distinción cobra importancia: la definición dada requiere solo que el span de una base ortonormal sea densa en el espacio vectorial, y no que iguale al espacio entero.
Una base ortonormal de un espacio vectorial V no tiene sentido si el espacio no posee un producto interno. Un Espacio de Banach no tendrá una base ortonormal a no ser que sea un espacio de Hilbert.
Proceso de ortonormalización Gram – Schmidt
El proceso de ortogonalización de Gram–Schmidt de álgebra lineal es un proceso utilizado en matemática y análisis numérico, para ortogonalizar un conjunto de vectores en un espacio prehilbertiano, más comúnmente el espacio
euclídeo Rn. Ortogonalización en este contexto significa lo siguiente: comenzamos con vectores v1,…, vk los cuales son linealmente independientes y queremos encontrar mutuamente vectores ortogonales u1,…, uk los cuales generan el mismo subespacio que los vectores v1,…, vk.
Este proceso lleva el nombre en honor a Jørgen Pedersen Gram y Erhard Schmidt. Proceso de Gram–Schmidt Definimos el operador proyección con dónde los corchetes angulares representan el producto interior, proyecta el vector v ortogonalmente en el vector u. Antes de ver el proceso, debemos comprender el porqué de la definición de proyección. Si recordamos la definición de producto escalar, tenemos para el caso del numerador, módulo de u por módulo de v por el coseno del ángulo que forman.
En el denominador tenemos módulo de u por módulo de u, ya que el coseno sería 1. Si separamos los dos módulos de u en el denominador, vemos que a la izquierda tenemos únicamente “módulo de v * cos (ángulo que forman)”, lo que nos da claramente el módulo del vector proyección. Teniendo el módulo del vector proyección lo único que debemos hacer es asignarle una dirección, cosa que hacemos multiplicándolo por u/módulo (u), lo que es el vector de módulo 1 con dirección u (el vector unitario).
Conclusión:
Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. Las operaciones que podemos realizar entre ellos son: la suma de
vectores y la multiplicación por un escalar, el producto punto, el producto vectorial y el triple producto escalar con algunas restricciones naturales como el cierre de estas operaciones, la asociatividad de estas y la combinación de estas operaciones, siguiendo, llegamos a la descripción de una estructura matemática llamada espacio vectorial.
Con ayuda del algebra lineal se pueden hacer distintas cosas y distintos ejercicios ya que es una materia realmente útil para la resolución de espacios vectoriales mediante el correcto uso de los procedimientos y propiedades de cada espacio y subespacio vectorial así como sus derivaciones de estos.
Top Related