Recordad que aprendimos cómo deducir las ecuaciones implícitas de una variedad afín, en concreto de una recta y de un plano. Determinar los puntos que pertenece a una variedad es equivalente a resolver el sistema de ecuaciones lineales que definen la variedad. Para resolverlas utilizamos las matrices. Así todo sistema de ecuaciones lineales lo podemos plantear como un sistema matricial de la forma Ax=b, donde A es la matriz de coeficientes del sistema, x es la matriz columna de incógnitas y b es la matriz columna de términos independientes:
Para tratarlos mejor podemos intentar transformalos en sistemas escalonados, que es resultado de transformar la matriz ampliada [A b], mediante operaciones elementales de fila, en una matriz escalonada. Es te el método que conocemos como método de Gauss.
Los sistemas de ecuaciones más sencillos resultan aquellos que podemos emplear la regla de Cramer.
La importancia de Teorema de Rouché-Frobenius estriba en que determina cuando un sistema tiene solución o no. Este resultado junto con el anterior nos permiten resolver con facilidad los sistemas de ecuaciones como los ejercicios que hemos realizado.
El Teorema de Rouché-Fröbenius nos afirma que Existen soluciones para el sistema si y solo si el rango de la matriz de coeficientes es igual al rango de la matriz ampliada.
Así un sistema será:
\[\left\{\begin{array}{l} \begin{array}{c} Compatible \\ rang(A)=rang(A|B) \end{array}\left\{\begin{array}{l} \begin{array}{c} Determinado \\ rang(A)=\mbox{Número de incógnitas}
\end{array} \\ \begin{array}{c} Indeterminado \\ rang(A)<\mbox{Número de incógnitas}\end{array} \\\end{array}\right.\\\begin{array}{c} Incompatible \\ rang(A)\neq rang(A|B) \end{array}\\ \end{array}\right.\]
Para resolver un sistema compatible sólo tenemos que encontrar un menor de \(A\) distinto de cero y del mismo orden que en rango de \(A\). Supongamos que \(\bar{A}\) es la submatriz de \(A\) cuyo menor es el que buscamos. Entonces \(A|B\) se puede transformar mediante operaciones elementales por filas en una matriz
\[(A|B)\sim\left(\begin{array}{c}
\bar{A}\,\bar{P}\\
0\end{array}\left|\begin{array}{c}
\bar{B}\\
0\end{array}\right.\right)\]
Donde \(\bar{P}\) son o \(0\) o las columnas de la martiz \(A\) tales que \[rang(A)+\mbox{nºcolumnas}(\bar{P})=\mbox{Número de incógnitas}.\]
De este modo el sistema tendrá por solución
\[\bar{X}=inv(\bar{A})\cdot (\bar{B}-\bar{P}K),\]
donde \(K\) son las variables, en forma de parámetros, que faltan en el menor de \(\bar{A}\), y tales que \(X^t=(\bar{X}^t K^t)\).
Ejercicio: Determinar las ecuaciones paramétricas de la recta dada por la intersección de los planos \(\pi_1:2x+3y-z=0\) y \(\pi_2:-x-2y+z=0.\)
Ejercicio: Determinar las ecuaciones paramétricas del plano \(3x-6y+z=23.\)
Ejercicio: Sea la aplicación lineal \(f:\mathbb{R}^3\to\mathbb{R}^3\), dada por \[f(x,y,z)=(2x-y+z,3x-2y+z,2x+2y-2z),\] determinar la imagen recíproca del vector (-5,-9,-8).
Ejercicio: Sea la aplicación lineal \(f:\mathbb{R}^4\to\mathbb{R}^3\), dada por \[f(x,y,z,t)=(x-y+z+t,x+2z-t,x+y+3z-3t),\] determinar su núcleo.
Mínimos cuadrados
Hemos visto cómo solucionar sistemas de ecuaciones lineales. Sin embargo, hay en ocasiones que los sistemas no tiene solución. En estos casos podemos buscar el punto más cercano a la solución. Recordemos que todo sistema podemos plantearlo en su forma matricial como
\[ A\ x=\ \textbf{b},\]
donde \(A\in\mathcal{M}_{m\times n}(\mathbb{R})\), \(x\in\mathcal{M}_{n\times 1}(\mathbb{R})\) y \(\textbf{b}\in\mathcal{M}_{m\times 1}(\mathbb{R})\).
Cuando se necesita una solución pero no hay ninguna, lo mejor que puede hacerse es encontrar una solución \(x\) que deje a \(A\ x\) tan cercana a \(\textbf{b}\) como sea posible.
Sea \( A\in\mathcal{M}_{m\times n}(\mathbb{R})\), \( x^t\in\mathbb{R}^n\) y \(\textbf{b}^t\in\mathbb{R}^m\), llamamos solución por mínimos cuadrados de la ecuación, a una aproximación \( \hat{x}^t\in\mathbb{R}^n\), tal que
\[\parallel\textbf{b}-A\ \hat{x}\parallel\leq \parallel \textbf{b}-A\ x\parallel\ \forall\ x^t\in\mathbb{R}^n.\]
El conjunto de soluciones por mínimos cuadrados de \( A\ x=\ \textbf{b}\) coincide con el conjunto no vacío de soluciones de
\[ A^t A\ x=\ A^t\textbf{b},\]
De la propiedad anterior se deduce un resultado concluyente:
Si las columnas de \(A\) son linealmente independientes, entonces \(A^t A\) es invertible y la ecuación \(A\ x=\ \textbf{b}\) tiene solamente una solución por mínimos cuadrados dada por
\[ \hat{x}=\ (A^t A)^{-1} A^t\textbf{b}.\]
Esta forma de calcular la solución por mínimos cuadrados sería equivalente a considerar \(\bar{A}\) el subespacio vectorial de \(\mathbb{R}^m\) generado por los vectores columna de \(A\) y determinar
\[ \hat{\textbf{b}}=proy_{\bar{A}}(\textbf{b}).\]
Entonces
\[ A\ \hat{x}=\ \hat{\textbf{b}}.\]
Bibliografía
- Capítulo 6 del libro Álgebra lineal y sus aplicaciones. 4º edición, David C. Lay. Pearson
Ejercicio: Cuál es el error de una solución por mínimos cuadrados del sistema incompatible |