ALG: Aplicaciones y matrices ortogonales

Terminamos el tema 7 con las matrices ortogonales. Definimos las aplicaciones ortogonales a las aplicaciones de un espacio vectorial con producto escalar $(\mathcal{E},\bullet)$ que conservan el producto escalar; es decir, $f:\mathcal{E}\to \mathcal{E}$, es ortogonal si $$f(\vec{x})\bullet f(\vec{y})=\vec{x}\bullet \vec{y},\quad\forall\,\vec{x}, \vec{y}\in\mathcal{E}$$

Propiedades que cumple una aplicación ortogonal:

  • Es lineal
  • Conserva la norma; es decir, $||f(\vec{x})||=||\vec{x}||$
  • Dos vectores son ortogonales si, y solo si, sus imágenes son ortogonales
  • La aplicación es biyectiva
  • Los vectores propios de valores propios distintos son ortogonales
  • La imagen de una base ortonormal es ortonormal
  • Su matriz asociada es ortogonal

Hay varias formas de definir una matriz ortogonal. Nosotros emplearemos la que parte de la teoría de matrices. Así diremos que de una matriz cuadrada es ortogonal si su inversa coincide con su traspuesta; es decir,$$A^{-1}=A^t.$$

Para nosotros será muy útil el siguiente resultado:

Teorema: Una matriz $A\in\mathcal{M}_n(\mathbb{R})$ es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Otra propiedad muy útil es que el determinante de una matriz ortogonal es 1 ó -1.

La relación entre los concepto de aplicación ortogonal y matriz ortogonal es muy sencilla:

Teorema: Si tenemos un endomorfismo ortogonal sobre una base ortonormal, entonces su matriz asociada es una matriz ortogonal.

Dicho de otro modo, las aplicaciones ortogonales, aquellas que conservan el producto escalar, tienen por matrices asociadas a matrices ortogonales (matrices cuadradas que cumplen que su inversa coincide con la traspuesta). Además se cumple, que en una matriz ortogonal las filas o columnas, consideradas como vectores, son ortonormales.

Clasificación de las aplicaciones ortogonales en $\mathbb{R}^2$

Teorema: Si $f:\mathbb{R}^2\to\mathbb{R}^2$ es un endomorfismo ortogonal respecto una base ortonormal, entonces su matriz asociada es $$A=\begin{bmatrix}a& -b|A|\\ b& a|A|\end{bmatrix},$$ con $|A|=\pm 1$.

Si resulta $|A|=1$, será
$$A=\begin{bmatrix}a& -b\\ b& a\end{bmatrix}.$$
De este modo, exíste un único $\alpha\in [0,2\pi)$, tal que $a=\cos(\alpha)$ y $b=\sin(\alpha)$, tal que
$$A=\begin{bmatrix}\cos(\alpha)& -\sin(\alpha)\\ \sin(\alpha)& \cos(\alpha)\end{bmatrix}.$$
Por tanto, la aplicación ortogonal es un giro, centrado en el origen, de ángulo $\alpha$ con
$$Tr(A)=2a=2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}Tr(A)\right)$$

Si $|A|=-1$, será
$$A=\begin{bmatrix}a& b\\ b& -a\end{bmatrix},$$
y habrán dos vectores $\vec{v}_1$ y $\vec{v}_2$, tales que $f(\vec{v}_1)=\vec{v}_1$ y $f(\vec{v}_2)=-\vec{v}_2$, siendo $\vec{v}_1\bullet\vec{v}_2=0$. De este modo, la aplicación ortogonal es una simetría respecto de la recta $r=\{\lambda\vec{v}_1;\lambda\in\mathbb{R}\}$

Clasificación de las aplicaciones ortogonales en $\mathbb{R}^3$

En esta caso pueden darse cuatro matrices:

1) La matriz identidad

2) La matriz $$\begin{bmatrix}1& 0 & 0\\ 0 & 1 & 0\\ 0& 0 & -1\end{bmatrix},$$ y la aplicación ortogonal es una simetría respecto del plano generado por los vectores tales que $f(\vec{v}_1)=\vec{v}_1$ y $f(\vec{v}_2)=\vec{v}_2$.

3) La matriz $$\begin{bmatrix}1& 0 & 0\\ 0 & \cos(\alpha) & -\sin(\alpha)\\ 0& \sin(\alpha) & \cos(\alpha)\end{bmatrix},$$ y la aplicación ortogonal es un giro con eje en la recta generada por el único vector tal que $f(\vec{v}_1)=\vec{v}_1$, y de ángulo $\alpha$ con
$$Tr(A)=1+2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}(Tr(A)-1)\right)$$

4) La matriz $$\begin{bmatrix}-1& 0 & 0\\ 0 & \cos(\alpha) & -\sin(\alpha)\\ 0& \sin(\alpha) & \cos(\alpha)\end{bmatrix},$$ y la aplicación ortogonal es una simetría, respecto del plano generado por el ortogonal por vector tal que $f(\vec{v}_1)=-\vec{v}_1$, compuesta con un giro de recta $r=\{\lambda\vec{v}_1;\lambda\in\mathbb{R}\}$ y de ángulo $\alpha$ con
$$Tr(A)=-1+2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}(Tr(A)+1)\right)$$

Un caso particular de este último es cuando $\alpha=\pi$, en cuyo caso $$\begin{bmatrix}-1& 0 & 0\\ 0 & -1 & 0\\ 0& 0 & -1\end{bmatrix},$$ que resulta una simetría central con centro en el origen.

La justificación de lo anterior reside en el siguiente apartado de este tema, donde abordaremos los autovalores y autovectores de un endomorfismo, y, por ende, de una matriz.

Ejercicio: Sea $S=\left\{\left[\begin{smallmatrix}a& b\\ 2b& a+b\end{smallmatrix}\right];a,b\in\mathbb{R}\right\}$, ¿cuál es la proyección de $\left[\begin{smallmatrix}2& 3\\ -1& 2\end{smallmatrix}\right]$ sobre $S$?
a) $\tfrac{1}{2}\left[\begin{smallmatrix}4& 1\\ 2& 5\end{smallmatrix}\right]$
b) $\tfrac{1}{2}\left[\begin{smallmatrix}4& 1\\ 2& -5\end{smallmatrix}\right]$
c) $\tfrac{1}{2}\left[\begin{smallmatrix}4& -1\\ 2& 5\end{smallmatrix}\right]$

This entry was written by admin , posted on lunes diciembre 09 2019at 10:12 am , filed under Álgebra Lineal . Bookmark the permalink . Post a comment below or leave a trackback: Trackback URL.

Comments are closed.