Hoy hemos comenzado con el Tema 7. El tema lo hemos llamado Ortogonalización, aunque es una parte del más genérico que sería Espacio Vectorial Euclídeo. El propósito de este tema es dar a un espacio vectorial la herramientas para poder establecer una distancia entre vectores y conseguir encontrar la distancia mínima entre subespacios o variedades.
Objetivos
- Conocer y saber determinar un producto escalar y sus propiedades.
- Saber calcular la matriz de Gram o métrica de un producto escalar
- Conocer y saber determinar la norma de un vector y sus propiedades.
- Conocer y determinar vectores ortogonales y ortonormales y sus propiedades.
- Calcular bases ortonormales.
- Conocer el espacio vectorial euclídeo canónico Rn
- Conocer y determinar una proyección ortogonal de un vector.
- Saber calcular el complemento ortogonal de un subespacio y sus propiedades.
- Conocer y saber calcular transformaciones y matrices ortogonal y sus propiedades
Para ello comenzamos con la definición del producto escalar en un espacio vectorial, la norma de un vector, distancia entre dos vectores y el ángulo de dos vectores.
Un producto escalar entre dos vectores de un \(V,\, \mathbb{K}\)-e.v., es una aplicación \(\bullet:V\times V\to\mathbb{K}\) que verifica:
- \(\forall\ u,v\in V,\ u\bullet v=v\bullet u\)
- \(\forall\ u,v,w\in V,\ \forall\ \lambda,\mu\in \mathbb{K},\ (\lambda u+\mu v)\bullet w=\lambda(u\bullet w)+\mu(v\bullet w)\)
- \(\forall\ u\in V,\ u\neq 0_V, u\bullet u > 0\)
- \(\forall\ u\in V,\ u\bullet u = 0\Leftrightarrow u= 0_V\)
Un \(\mathbb{K}\) espacio vectorial dotado con un producto escalar se denomina espacio euclídeo, y solemos notarlo como \((\mathcal{E},\bullet)\). Habitualmente trabajaremos con \(\mathbb{R}\) espacios vectoriales auclídeos.
Ejemplos de espacio vectorial euclídeo con los que trabajaremos:
- \(\mathbb{R}^n\), podemos definir el producto escalar euclídeo: \(u\bullet v=\sum_{i=1}^nu_iv_i\)
- \(\mathcal{M}_n(\mathbb{R})\), definimos: \(A\bullet B=\text{tr}(B^tA)\)
- \(\mathbb{R}_n[x]\), definimos: \(p(x)\bullet q(x)=\int_0^1p(x)q(x)\,dx\)
En un \(\mathbb{K}\) espacio vectorial euclídeo, \((\mathcal{E},\bullet)\), podemos definir la norma de una vector \(v\in\mathcal{E}\), \(||v||\), como \[||v||=\sqrt{v\bullet v}.\]
Esta definición a su vez, nos permite definir la distancia entre dos vectores \(u,v\in\mathcal{E}\), \(dist(u,v)\), como \[dist(u,v)=||u-v||.\]
Una última, nos permite definir el coseno entre dos vectores \(u,v\in\mathcal{E}\), \(cos(u,v)\), como \[cos(u,v)=\frac{u\bullet v}{||v||\cdot||v||}.\]
Ortogonalidad
Esto nos da pie a definir cuándo dos vectores son ortogonales: cuando se de que \(\vec{x}\bullet \vec{y}=0\)
Así pondremos que
\[\vec{x}\perp \vec{y} \Leftrightarrow \vec{x}\bullet \vec{y}=0\]
Con esta definición, decimos que \(B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}\) es un conjunto ortogonal si dos a dos sus vectores son ortogonales; es decir, \(\vec{v}_i\bullet\vec{v}_j=0\forall i\neq j\)
Todo esto nos llevará al proceso de ortonormalización de Gram-Schmidt: un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.
El proceso de ortonormalización de Gram–Schmidt nos dice que si \(B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}\), los vectores
- \(\vec{u}_1=\vec{v}_1\)
- \(\vec{u}_k=\vec{v}_k-\displaystyle\sum_{i=1}^{k-1}\frac{\vec{u}_i\bullet \vec{v}_k}{||\vec{u}_i||^2}\vec{u}_i\,\forall 2\leq k\leq n\)
forman una base ortogonal del subespacio. De este modo, el siguiente conjunto es una base ortonormal del subespacio \[\left\{\frac{\vec{u}_1}{||\vec{u}_1||},\frac{\vec{u}_2}{||\vec{u}_2||},\ldots,\frac{\vec{u}_n}{||\vec{u}_n||}\right\}\]
Matriz de Gram
El producto escalar y la norma de un espacio euclídeo nos permite definir una métrica, esta puede ser expresada mediante la matriz de Gram. Sea \((E,\bullet)\) el espacio vectorial euclídeo y \(B=\{\vec{u}_1,\ldots,\vec{u}_n\}\) una base de \(E\), llamamos matriz de Gram, respecto de la base \(B\), a la matriz \(G=[g_{ij}=\vec{u}_i\bullet \vec{u}_j]\). Notar que la matriz \(G\) siempre es simétrica.
De este modo, dados \(\vec{x}=(x_1,x_2,\ldots,x_n)\), \(\vec{y}=(y_1,y_2,\ldots,y_n)\in E\), será \[\vec{x}\bullet \vec{y}=\textbf{x}^t\, G\, \textbf{y}=[x_1\,x_2\,\ldots\,x_n]G\begin{bmatrix}y_1 \\ y_2\\ \vdots \\ y_n\end{bmatrix}\]
Ejercicio: Sean \(S=\left\{(x,y,z,t,u)\in\mathbb{R}^5; -z-y+3x+t-1=0,\, 2y+x+u-t=0\right\}\) y \(T=\left\{(x,y,z,t,u)\in\mathbb{R}^5;-2z+y-x-u=0,\, 3z+2t-1=0,\, -z+y+4x+u-4=0\right\}\) ¿cuál es su posición relativa? |