Saltar al contenido

Diario de clases

Clases de Jesús Soto

Menú
  • Fórmulas
Menú

Navegación de entradas

ALG: Complemento ortogonal ←
→ ALG: Ortogonalización con maxima

ALG: Proyección ortogonal

Posted on 26 de noviembre de 2025

El pasado día veíamos que cuando \(S\) era un subespacio vectorial entonces \[\mathcal{E}=S\oplus S^{\bot}\]

Esto implica que para todo vector \(\vec{v}\in \mathcal{E}\) existirán dos únicos vectores \(\vec{u}\in S\) y \(\vec{w}\in S^{\bot}\), tales que \[\vec{v}=\vec{u}+\vec{w}.\]

Estos vectores \(\vec{u}\) o \(\vec{w}\) son lo que llamamos proyecciones ortogonales de \(\vec{v}\) sobre \(S\) o \(S^{\bot}\) respectivamente.

La definición clásica nos dice que si \(S\subset \mathcal{E}\), un subespacio vectorial de un espacio euclídeo, para nuestros casos finitamente generado, llamamos proyección ortogonal del vector \(\vec{v}\) sobre el subespacio \(S\), al único vector \(\vec{u}\in S\) talque \(\vec{v}-\vec{u}\in S^{\bot}\).

A la aplicación \(\mathbf{proy}_S:\mathcal{E}\to S\) que a cada vector de \(\mathcal{E}\) le hace corresponder su proyección ortogonal sobre \(S\), se le denomina del mismo modo: proyección ortogonal.

Veamos un método para calcular la proyección ortogonal. Primero empezamos con la proyección sobre un vector. Si \(S=<\vec{s}>\); es decir, es una recta, entonces \[\mathbf{proy}_\vec{s}(\vec{v})=\frac{\vec{v}\bullet\vec{s}}{\parallel\vec{s}\parallel^2}\vec{s}.\]

Ejemplo: Hallar la proyección de \(A:\begin{bmatrix}1 & 2\\ -1 & 3\end{bmatrix}\) sobre \(B:\begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}\)

\[\begin{split}
\mathbf{proy}_BA&=\frac{A\bullet B}{B\bullet B}B=
\frac{\mathbf{tr}\left(\begin{bmatrix}1 & 2\\ -1 & 3\end{bmatrix}^t\begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}\right)}
{\mathbf{tr}\left(\begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}^t\begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}\right)}
\ \begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}\\
&=\frac{\mathbf{tr}\left(\begin{bmatrix}1 & 3\\ 2 & -4\end{bmatrix}\right)}
{\mathbf{tr}\left(\begin{bmatrix}1 & 1\\ 1 & 5\end{bmatrix}\right)}
\ \begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}\\
&=\frac{-3}{6}\begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}\\
&=\frac{-1}{2}\begin{bmatrix}1 & 1\\ 0 & -2\end{bmatrix}
\end{split}\]

Como hemos dicho, para todo vector \(\vec{v}\in \mathcal{E}\) existirán dos únicos vectores \(\vec{u}\in S\) y \(\vec{w}\in S^{\bot}\), tales que \[\vec{v}=\vec{u}+\vec{w}.\]

Luego determinando la proyección de un vector sobre un subespacio puedes obtener de manera indirecta la proyección sobre su ortogonal.

Ejemplo: Hallar \(u:[2,3,2]\) como suma directa del subespacios vectorial \(\mathbf{Gen}\{[1,2,-6]\}\) y su ortogonal.


Extenderlo a cualquier subespacio es sencillo, solo necesitamos una base ortogonal del subespacio: Sea \( \{\vec{u}_1,\vec{u}_1,\ldots,\vec{u}_m\}\) una base ortogonal de \(S\), entonces
\[proy_S(\vec{v})=\sum_{i=1}^m\frac{\vec{v}\bullet\vec{u}_i}{\parallel\vec{u}_i\parallel^2}\vec{u}_i.\]

Ejemplo: Sea \(S:\left\{\begin{bmatrix}3a+2b & -2a-b\\ b & a\end{bmatrix}\in\mathcal{M}_2(\mathbb{R}) \right\}\). ¿Cuál es la \(\left\|\textbf{proy}_S\left(\begin{bmatrix}-1 & 0\\ 2 & 1\end{bmatrix}\right)\right\|\)


Ejemplo: Sea \(S:\{(x,y,z,t)\in\mathbb{R}^4;\ 2x+y-z=0,\ x-y+3t=0\}\). ¿Cuál es la \(\|\textbf{proy}_S([-1,0,2,1])\|\)?


Si además la base es ortonormal la expresión se reduce mucho:
\[proy_S(\vec{v})=(\vec{v}\bullet\vec{u}_i)\vec{u}_1+(\vec{v}\bullet\vec{u}_2)\vec{u}_2+\ldots+(\vec{v}\bullet\vec{u}_m)\vec{u}_m.\]

El propósito es determinar dado un subespacio vectorial \(S\subset\mathbb{R}^n\) y un vector, o punto, \(\vec{v}\in\mathbb{R}^n\), minimizar la distancia de \(\vec{v}\) a cualquier \(\vec{s}\in S\). Para conseguirlo utilizamos el siguiente resultado:

Teorema: Sea \(S\subset\mathbb{R}^n\) un sube.v., \(\vec{v}\in\mathbb{R}^n\) y \(\vec{s}\in S\), son equivalentes

  1. \(\vec{s}\in S\) es la proyección ortogonal de \(\vec{v}\) sobre \(S\), \(proy_S(\vec{v})\); es decir, \(\vec{v}-\vec{s}\in S^{\bot}\)
  2. \(\vec{s}\in S\) es la mejor aproximación de \(\vec{v}\) sobre \(S\); es decir,\(\parallel \vec{v}-\vec{s}\parallel\leq \parallel \vec{v}-\vec{w}\parallel\,\forall \vec{w}\in S\)

En ejemplo lo podéis ver el la deducción de la distancia entre un punto \(P(x_0,y_0)\) y la recta \(r:ax+by+c=0\) que viene dada por la fórmula \[d(P,r)=\frac{ax_0+by_0+c}{\sqrt{a^2+b^2}}\]
En este enlace está la demostración Proyección Ortogonal. Ej.1

Mínimos cuadrados

Hemos visto cómo solucionar sistemas de ecuaciones lineales. Sin embargo, hay en ocasiones que los sistemas no tiene solución. En estos casos podemos buscar el punto más cercano a la solución. Recordemos que todo sistema podemos plantearlo en su forma matricial como
\[ A\ x=\ \textbf{b},\]
donde \(A\in\mathcal{M}_{m\times n}(\mathbb{R})\), \(x\in\mathcal{M}_{n\times 1}(\mathbb{R})\) y \(\textbf{b}\in\mathcal{M}_{m\times 1}(\mathbb{R})\).

Cuando se necesita una solución pero no hay ninguna, lo mejor que puede hacerse es encontrar una solución \(x\) que deje a \(A\ x\) tan cercana a \(\textbf{b}\) como sea posible.

Sea \( A\in\mathcal{M}_{m\times n}(\mathbb{R})\), \( x^t\in\mathbb{R}^n\) y \(\textbf{b}^t\in\mathbb{R}^m\), llamamos solución por mínimos cuadrados de la ecuación, a una aproximación \( \hat{x}^t\in\mathbb{R}^n\), tal que
\[\parallel\textbf{b}-A\ \hat{x}\parallel\leq \parallel \textbf{b}-A\ x\parallel\ \forall\ x^t\in\mathbb{R}^n.\]

El conjunto de soluciones por mínimos cuadrados de \( A\ x=\ \textbf{b}\) coincide con el conjunto no vacío de soluciones de
\[ A^t A\ x=\ A^t\textbf{b},\]

De la propiedad anterior se deduce un resultado concluyente:

Si las columnas de \(A\) son linealmente independientes, entonces \(A^t A\) es invertible y la ecuación \(A\ x=\ \textbf{b}\) tiene solamente una solución por mínimos cuadrados dada por
\[ \hat{x}=\ (A^t A)^{-1} A^t\textbf{b}.\]

Esta forma de calcular la solución por mínimos cuadrados sería equivalente a considerar \(\bar{A}\) el subespacio vectorial de \(\mathbb{R}^m\) generado por los vectores columna de \(A\) y determinar
\[ \hat{\textbf{b}}=proy_{\bar{A}}(\textbf{b}).\]
Entonces
\[ A\ \hat{x}=\ \hat{\textbf{b}}.\]

Ejemplo: Cuál es el error de una solución por mínimos cuadrados del sistema incompatible
\[\begin{array}{r} -x +2y=4, \\ 2x-3y=1, \\ -x+3y=2.\end{array}\]


 

Ejercicio:Sea \(\pi:\{(x,y,z,t)\in\mathbb{R}^4;\ 2x+3y-z=0,\ y+2z-t=0\) un plano en \(\mathbb{R}^4\). ¿Cuál de los vectores a:[8,13,-2,-1], b:[8,-13,2,-1] y c:[-8,13,-2,1], pertenece a su ortogonal?
  • a
  • b
  • c


A.)

El ortogonal, \(\pi^\bot\), está formado por los vectores ortogonales a \(\pi\), y para ello necesitamos los vectores de una base del subespacio:

(%i1) linsolve([2·x+3·y−z=0,y+2·z−t=0],[x,y,z,t]);

\[\left[ x=-\frac{3 {\mathrm{\% r1}}-7 {\mathrm{\% r2}}}{2}\operatorname{,}y={\mathrm{\% r1}}-2 {\mathrm{\% r2}}\operatorname{,}z={\mathrm{\% r2}}\operatorname{,}t={\mathrm{\% r1}}\right] \]

Esto nos da los vectores:

(%i3) v:ev([x,y,z,t],ev(%o1,%r1=1,%r2=0));
u:ev([x,y,z,t],ev(%o1,%r1=0,%r2=1));

\[\left[ -\frac{3}{2}\operatorname{,}1\operatorname{,}0\operatorname{,}1\right] \]

\[\left[ \frac{7}{2}\operatorname{,}-2\operatorname{,}1\operatorname{,}0\right] \]

Como da los mismo utilizar cualquiera que sea combinación de ellos, podemos eliminar las fracciones:

(%i5) v:v·2;
u:u·2;

\[\left[ -3\operatorname{,}2\operatorname{,}0\operatorname{,}2\right] \]

\[\left[ 7\operatorname{,}-4\operatorname{,}2\operatorname{,}0\right] \]

El ortogonal, \(\pi^\bot\), está formado por los vectores cuyo producto escalar sea cero:

(%i7) v.[x,y,z,t]=0;
u.[x,y,z,t]=0;

\[2 y-3 x+2 t=0\]

\[2 z-4 y+7 x=0\]

Estas ecuaciones definen el producto escalar.
Si queremos dar las ecuaciones paramétricas resolvemos el sistema.

(%i8) linsolve([v.[x,y,z,t]=0,u.[x,y,z,t]=0],[x,y,z,t]);

\[\left[ x={\mathrm{\% r3}}\operatorname{,}y=\frac{2 {\mathrm{\% r4}}+7 {\mathrm{\% r3}}}{4}\operatorname{,}z={\mathrm{\% r4}}\operatorname{,}t=-\frac{2 {\mathrm{\% r4}}+{\mathrm{\% r3}}}{4}\right] \]

Esto nos da los vectores, simplificando y quitando la fracción:

(%i10) r:ev([x,y,z,t],ev(%o8,%r3=1,%r4=0))·4;
s:ev([x,y,z,t],ev(%o8,%r3=0,%r4=1))·2;

\[\left[ 4\operatorname{,}7\operatorname{,}0\operatorname{,}-1\right] \]

\[\left[ 0\operatorname{,}1\operatorname{,}2\operatorname{,}-1\right] \]

Los vectores a:[8,13,-2,-1], b:[8,-13,2,-1] y c:[-8,13,-2,1], pertenece al ortogonal si son combinación lineal de los anteriores. Veamos el rango

(%i16) a:[8,13,−2,−1]$
b:[8,−13,2,−1]$
c:[−8,13,−2,1]$
rank(matrix(r,s,a));
rank(matrix(r,s,b));
rank(matrix(r,s,c));

\[2\]

\[3\]

\[3\]

Esto nos dice que el vector a pertenece \(\pi^\bot\).

Navegación de entradas

MathBio: Aproximación numérica para integrales dobles y triples con máxima
MathBio: Integral definida

Novela

La Loba, la lucha fraticida por un reino

La Loba, la lucha fratricida por un reino.

Urraca, señora de Zamora, acusada de instigar la muerte de su hermano, el rey Sancho de Castilla, deberá defenderse de la acusación, al tiempo que luchará por mantener la cohesión entre los hermanos y los reinos cristianos: una lobera de fieros lobeznos.

👉 En amazon

Entradas recientes

  • MAD: Presentación
  • ALG: Ejercicios de repaso
  • ALG: Diagonalización de una matriz
  • ALG: Autovectores y autovalores con maxima
  • ALG: Autovectores y autovalores
febrero 2026
L M X J V S D
 1
2345678
9101112131415
16171819202122
232425262728  
« Dic    

Categorías

  • Álgebra Lineal
  • general
  • Matemática Discreta
  • MathBio

Etiquetas

Prácticas MathBio Prácticas Álgebra

Meta

  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.org
©2026 Diario de clases | Diseño: Tema de WordPress Newspaperly