ALG: Autovectores y subespacios propios

El pasado día vimos cómo calculábamos los autovalores, las soluciones de la ecuación que plantea el determinante $$p_A(\lambda)=det(A-\lambda\, I),$$

El polinomio $p_A(\lambda)$ es el polinomio característico de $A$.

Cada valor propio tiene asociado un conjunto $\mathcal{C}_\lambda=\{\vec{v}\in\mathbb{K}^n|A\vec{v}=\lambda\vec{v}\}$, que se determina resolviendo el sistema homogéneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz.

Así al número de veces que un autovalor λ se repite como raíz del polinomio característico se le llama multiplicidad algebraica y se representa por $m_a(\lambda)$. Y al número máximo de autovectores linealmente independientes que tiene asociado un autovalor λ, es decir la dimensión del subespacio propio $\mathcal{C}_\lambda$, se le llama multiplicidad geométrica de λ y se representa por $m_g(\lambda)$. Estos dos números están relacionados por una desigualdad: $$m_g(\lambda)\leqslant m_a(\lambda)$$

 

Ejercicio: ¿Cuántos autovalores reales tiene la matriz $\left[\begin{smallmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & 0 & 1\end{smallmatrix}\right]$ ?
a)1
b)2
c)3

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Autovectores y subespacios propios

ALG: Autovectores y autovalores

Comenzamos explicado que son los valores y vectores propios, o autovalores y autovectores, de una matriz.

Hemos aprendido a calcular los autovalores de una matriz cuadrada. Recordad que para nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{K})$, donde $\mathbb{K}$ es $\mathbb{R} ó \mathbb{C}$, la matriz cuadrada y $I$ la indentidad en $\mathcal{C}_n(\mathbb{K})$.

El polinomio p(λ) = det(A – λI) es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico (soluciones de la ecuación característica).

Cada valor propio tiene asociado un conjunto $C_\lambda=\{\vec{v}\in\mathbb{K}^n\}$, que se determina resolviendo el sistema homogeneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz, que veremos más adelante.

Podéis ver más ejemplos en Linear Algebra/Eigenvalues and Eigenvectors.

 

Ejercicio: ¿Qué valores de $a,b,c,\alpha,\beta,\gamma\in\mathbb{R}$ hacen que la matriz $\left[\begin{smallmatrix}a & 2a & 2/3 \\ b & -b & c \\ \alpha & \beta & \gamma\end{smallmatrix}\right]$ sea ortogonal?
a) $a=b=0,c=1, \alpha =\beta=\gamma$
b) $a=b=c=1, \alpha =\beta=\gamma$
c) $a=0, b=c=1,\alpha =-\beta,\gamma=1$
d) Otros diferentes a los indicados.

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Autovectores y autovalores

ALG: Aplicaciones y matrices ortogonales

Terminamos el tema 7 con las matrices ortogonales. Definimos las aplicaciones ortogonales a las aplicaciones de un espacio vectorial con producto escalar $(\mathcal{E},\bullet)$ que conservan el producto escalar; es decir, $f:\mathcal{E}\to \mathcal{E}$, es ortogonal si $$f(\vec{x})\bullet f(\vec{y})=\vec{x}\bullet \vec{y},\quad\forall\,\vec{x}, \vec{y}\in\mathcal{E}$$

Propiedades que cumple una aplicación ortogonal:

  • Es lineal
  • Conserva la norma; es decir, $||f(\vec{x})||=||\vec{x}||$
  • Dos vectores son ortogonales si, y solo si, sus imágenes son ortogonales
  • La aplicación es biyectiva
  • Los vectores propios de valores propios distintos son ortogonales
  • La imagen de una base ortonormal es ortonormal
  • Su matriz asociada es ortogonal

Hay varias formas de definir una matriz ortogonal. Nosotros emplearemos la que parte de la teoría de matrices. Así diremos que de una matriz cuadrada es ortogonal si su inversa coincide con su traspuesta; es decir,$$A^{-1}=A^t.$$

Para nosotros será muy útil el siguiente resultado:

Teorema: Una matriz $A\in\mathcal{M}_n(\mathbb{R})$ es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Otra propiedad muy útil es que el determinante de una matriz ortogonal es 1 ó -1.

La relación entre los concepto de aplicación ortogonal y matriz ortogonal es muy sencilla:

Teorema: Si tenemos un endomorfismo ortogonal sobre una base ortonormal, entonces su matriz asociada es una matriz ortogonal.

Dicho de otro modo, las aplicaciones ortogonales, aquellas que conservan el producto escalar, tienen por matrices asociadas a matrices ortogonales (matrices cuadradas que cumplen que su inversa coincide con la traspuesta). Además se cumple, que en una matriz ortogonal las filas o columnas, consideradas como vectores, son ortonormales.

Clasificación de las aplicaciones ortogonales en $\mathbb{R}^2$

Teorema: Si $f:\mathbb{R}^2\to\mathbb{R}^2$ es un endomorfismo ortogonal respecto una base ortonormal, entonces su matriz asociada es $$A=\begin{bmatrix}a& -b|A|\\ b& a|A|\end{bmatrix},$$ con $|A|=\pm 1$.

Si resulta $|A|=1$, será
$$A=\begin{bmatrix}a& -b\\ b& a\end{bmatrix}.$$
De este modo, exíste un único $\alpha\in [0,2\pi)$, tal que $a=\cos(\alpha)$ y $b=\sin(\alpha)$, tal que
$$A=\begin{bmatrix}\cos(\alpha)& -\sin(\alpha)\\ \sin(\alpha)& \cos(\alpha)\end{bmatrix}.$$
Por tanto, la aplicación ortogonal es un giro, centrado en el origen, de ángulo $\alpha$ con
$$Tr(A)=2a=2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}Tr(A)\right)$$

Si $|A|=-1$, será
$$A=\begin{bmatrix}a& b\\ b& -a\end{bmatrix},$$
y habrán dos vectores $\vec{v}_1$ y $\vec{v}_2$, tales que $f(\vec{v}_1)=\vec{v}_1$ y $f(\vec{v}_2)=-\vec{v}_2$, siendo $\vec{v}_1\bullet\vec{v}_2=0$. De este modo, la aplicación ortogonal es una simetría respecto de la recta $r=\{\lambda\vec{v}_1;\lambda\in\mathbb{R}\}$

Clasificación de las aplicaciones ortogonales en $\mathbb{R}^3$

En esta caso pueden darse cuatro matrices:

1) La matriz identidad

2) La matriz $$\begin{bmatrix}1& 0 & 0\\ 0 & 1 & 0\\ 0& 0 & -1\end{bmatrix},$$ y la aplicación ortogonal es una simetría respecto del plano generado por los vectores tales que $f(\vec{v}_1)=\vec{v}_1$ y $f(\vec{v}_2)=\vec{v}_2$.

3) La matriz $$\begin{bmatrix}1& 0 & 0\\ 0 & \cos(\alpha) & -\sin(\alpha)\\ 0& \sin(\alpha) & \cos(\alpha)\end{bmatrix},$$ y la aplicación ortogonal es un giro con eje en la recta generada por el único vector tal que $f(\vec{v}_1)=\vec{v}_1$, y de ángulo $\alpha$ con
$$Tr(A)=1+2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}(Tr(A)-1)\right)$$

4) La matriz $$\begin{bmatrix}-1& 0 & 0\\ 0 & \cos(\alpha) & -\sin(\alpha)\\ 0& \sin(\alpha) & \cos(\alpha)\end{bmatrix},$$ y la aplicación ortogonal es una simetría, respecto del plano generado por el ortogonal por vector tal que $f(\vec{v}_1)=-\vec{v}_1$, compuesta con un giro de recta $r=\{\lambda\vec{v}_1;\lambda\in\mathbb{R}\}$ y de ángulo $\alpha$ con
$$Tr(A)=-1+2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}(Tr(A)+1)\right)$$

Un caso particular de este último es cuando $\alpha=\pi$, en cuyo caso $$\begin{bmatrix}-1& 0 & 0\\ 0 & -1 & 0\\ 0& 0 & -1\end{bmatrix},$$ que resulta una simetría central con centro en el origen.

La justificación de lo anterior reside en el siguiente apartado de este tema, donde abordaremos los autovalores y autovectores de un endomorfismo, y, por ende, de una matriz.

Ejercicio: Sea $S=\left\{\left[\begin{smallmatrix}a& b\\ 2b& a+b\end{smallmatrix}\right];a,b\in\mathbb{R}\right\}$, ¿cuál es la proyección de $\left[\begin{smallmatrix}2& 3\\ -1& 2\end{smallmatrix}\right]$ sobre $S$?
a) $\tfrac{1}{2}\left[\begin{smallmatrix}4& 1\\ 2& 5\end{smallmatrix}\right]$
b) $\tfrac{1}{2}\left[\begin{smallmatrix}4& 1\\ 2& -5\end{smallmatrix}\right]$
c) $\tfrac{1}{2}\left[\begin{smallmatrix}4& -1\\ 2& 5\end{smallmatrix}\right]$

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Aplicaciones y matrices ortogonales

ALG: Proyección ortogonal

El pasado día veíamos que cuando $S$ era un subespacio vectorial entonces $$\mathcal{E}=S\oplus S^{\bot}$$

Esto implica que para todo vector $\vec{v}\in \mathcal{E}$ existirán dos únicos vectores $\vec{u}\in S$ y $\vec{w}\in S^{\bot}$, tales que $$\vec{v}=\vec{u}+\vec{w}.$$

Estos vectores $\vec{u}$ o $\vec{w}$ son lo que llamamos proyecciones ortogonales de $\vec{v}$ sobre $S$ o $S^{\bot}$ respectivamente.

La definición clásica nos dice que si $S\subset \mathcal{E}$, un subespacio vectorial de un espacio euclídeo, para nuestros casos finitamente generado, llamamos proyección ortogonal del vector $\vec{v}$ sobre el subespacio $S$, al único vector $\vec{u}\in S$ talque $\vec{v}-\vec{u}\in S^{\bot}$.

A la aplicación $proy_S:\mathcal{E}\to S$ que a cada vector de $\mathcal{E}$ le hace corresponder su proyección ortogonal sobre $S$, se le denomina del mismo modo: proyección ortogonal.

Veamos un método para calcular la proyección ortogonal. Primero empezamos con la proyección sobre un vector. Si $S=<\vec{s}>$; es decir, es una recta, entonces $$proy_\vec{s}(\vec{v})=\frac{\vec{v}\bullet\vec{s}}{\parallel\vec{s}\parallel^2}\vec{s}.$$

Extenderlo a cualquier subespacio es sencillo, solo necesitamos una base ortogonal del subespacio: Sea $\{\vec{u}_1,\vec{u}_1,\ldots,\vec{u}_m\}$ una base ortogonal de $S$, entonces
$$proy_S(\vec{v})=\sum_{i=1}^m\frac{\vec{v}\bullet\vec{u}_i}{\parallel\vec{u}_i\parallel^2}\vec{u}_i.$$
Si además la base es ortonormal la expresión se reduce mucho:
$$proy_S(\vec{v})=(\vec{v}\bullet\vec{u}_i)\vec{u}_1+(\vec{v}\bullet\vec{u}_2)\vec{u}_2+\ldots+(\vec{v}\bullet\vec{u}_m)\vec{u}_m.$$

El propósito es determinar dado un subespacio vectorial $S\subset\mathbb{R}^n$ y un vector, o punto, $\vec{v}\in\mathbb{R}^n$, minimizar la distancia de $\vec{v}$ a cualquier $\vec{s}\in S$. Para conseguirlo utilizamos el siguiente resultado:

Teorema: Sea $S\subset\mathbb{R}^n$ un sube.v., $\vec{v}\in\mathbb{R}^n$ y $\vec{s}\in S$, son equivalentes

  1. $\vec{s}\in S$ es la proyección ortogonal de $\vec{v}$ sobre $S$, $proy_S(\vec{v})$; es decir, $\vec{v}-\vec{s}\in S^{\bot}$
  2. $\vec{s}\in S$ es la mejor aproximación de $\vec{v}$ sobre $S$; es decir,$\parallel \vec{v}-\vec{s}\parallel\leq \parallel \vec{v}-\vec{w}\parallel\,\forall \vec{w}\in S$

En ejemplo lo podéis ver el la deducción de la distancia entre un punto $P(x_0,y_0)$ y la recta $r:ax+by+c=0$ que viene dada por la fórmula $$d(P,r)=\frac{ax_0+by_0+c}{\sqrt{a^2+b^2}}$$
En este enlace está la demostración Proyección Ortogonal. Ej.1

Ejercicio: Sea $\pi:2x+3y-z=0$ un plano en $\mathbb{R}^3$, entonces
a) $\pi^\bot=<(2,3,-1)>$
b) $\pi^\bot=<(1,0,1)>$
c) $\pi^\bot=<(4,2,3)>$

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Proyección ortogonal

ALG: Complemento ortogonal

Si tenemos un espacio vectorial euclídeo de dimensión finita, $\mathcal{E}$, definimos el complemento ortogonal (a veces simplemente ortogonal) de un subespacio $S$ de $\mathcal{E}$ a $$S^\bot=\{\vec{v}\in \mathcal{E}|\;\vec{v}\bullet\vec{u}=0\,\forall \vec{u}\in S\}$$

Proposición. Si $S\subset E$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $S^\bot$ es un subespacio vectorial.

Proposición. Si $S,T\subset \mathcal{E}$, son subespacios de un espacio vectorial euclídeo de dimensión finita, y $T\subset S$ entonces $S^\bot \subset T^\bot$.

Proposición. Si $S,T\subset \mathcal{E}$, son subespacios de un espacio vectorial euclídeo de dimensión finita, entonces

  • $(S+T)^\bot=S^\bot \cap T^\bot$.
  • $(S\cap T)^\bot=S^\bot + T^\bot$.

Proposición. Si $S\subset \mathcal{E}$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $$\mathcal{E}=S\oplus S^{\bot}$$

Corolario. Si $S\subset \mathcal{E}$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $$dim(\mathcal{E})=dim(S)+ dim(S^{\bot})$$

Esta última Proposición nos dice que $\mathcal{E}$ es suma directa de $S$ y $S^{\bot}$; es decir, para todo $\vec{v}\in \mathcal{E}$ existen dos únicos vectores $\vec{s}_1\in S$ y $\vec{s}_2\in S^{\bot}$, tales que $$\vec{v}=\vec{s}_1+\vec{s}_2.$$

Ejercicio: Sea B={(2,1,1),(1,0,10),(2,-3,11)} una base de $\mathbb{R}^3$, ¿cuál es el vector que falta para que, junto a los vectores (2,1,1) y (-3,-2,8), formen una base ortogonal?
a) $\tfrac{1}{7}$(-10,19,*)
b) $\tfrac{1}{7}$(*,-19,1)
c) $\tfrac{1}{7}$(10,*,-1)

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Complemento ortogonal

ALG: Proceso de ortogonalización de Gram-Schmidt

El principal resultado de esta sección es el que justifica que de toda base de un subespacio vectorial se puede obtener una base de vectores del mismo subespacio que sean ortogonales y normales. Esta base será una base ortonormal.

El proceso de ortonormalización de Gram–Schmidt es un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

El proceso nos dice que si $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$, los vectores

  • $\vec{u}_1=\vec{v}_1$
  • $\vec{u}_k=\vec{v}_k-\displaystyle\sum_{i=1}^{k-1}\frac{\vec{u}_i\bullet \vec{v}_k}{||\vec{u}_i||^2}\vec{u}_i\,\forall 2\leq k\leq n$

forman una base ortogonal del subespacio. De este modo, el siguiente conjunto es una base ortonormal del subespacio $$\left\{\frac{\vec{u}_1}{||\vec{u}_1||},\frac{\vec{u}_2}{||\vec{u}_2||},\ldots,\frac{\vec{u}_n}{||\vec{u}_n||}\right\}$$

Ejercicio: Sean dos vectores tales que $\vec{x}\perp\vec{y}$, entonces una de estas afirmaciones es falsa:

a) $||\vec{x}+\vec{y}||^2=||\vec{x}||^2+||\vec{y}||^2$
b) Son linealmente independientes.
c) Forman un ángulo recto.
d) Una de las anteriores es falsa.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Proceso de ortogonalización de Gram-Schmidt

ALG: Matriz de Gram y ortogonalidad

El pasado día definimos el producto escalar y la norma de un espacio euclídeo. La métrica que define el producto escalar puede se usada mediante la matriz de Gram. Sea $(E,\bullet)$ el espacio vectorial euclídeo y $B=\{\vec{u}_1,\ldots,\vec{u}_n\}$ una base de $E$, llamamos matriz de Gram, respecto de la base $B$, a la matriz $G=[g_{ij}=\vec{u}_i\bullet \vec{u}_j]$. Notar que la matriz $G$ siempre es simétrica.

De este modo, dados $\vec{x}=(x_1,x_2,\ldots,x_n)$, $\vec{y}=(y_1,y_2,\ldots,y_n)\in E$, será $$\vec{x}\bullet \vec{y}=\textbf{x}^t\, G\, \textbf{y}=[x_1\,x_2\,\ldots\,x_n]G\begin{bmatrix}y_1 \\ y_2\\ \vdots \\ y_n\end{bmatrix}$$

El pasado día vimos que
$$cos(\vec{x},\vec{y})=\frac{\vec{x}\bullet \vec{y}}{||\vec{x}||\, ||\vec{y}||}$$

Esto nos da pie a definir cuándo dos vectores son ortogonales: cuando se de que $\vec{x}\bullet \vec{y}=0$

Así pondremos que

$$\vec{x}\perp \vec{y} \Leftrightarrow \vec{x}\bullet \vec{y}=0$$
Con esta definición, decimos que $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ es un conjunto ortogonal si dos a dos sus vectores son ortogonales; es decir, $\vec{v}_i\bullet\vec{v}_j=0\forall i\neq j$

Todo esto nos llevará al proceso de ortonormalización de Gram–Schmidt: un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

Ejercicio: Sea $\mathbb{R}_2[X]$, el espacio vectorial de los polinomios de grado menor o igual que 2, como subespacio vectorial de las funciones continuas en el intervalo [0,1], en la que definimos un producto escalar, $p\bullet q$, mediante:

$p\bullet q=\int_0^1p(x)q(x)dx$

¿Cuál es el coseno entre los vectores $x-x^2$ y $1+x+x^2$?
a) -0.25
b) 0.85
c) 1.25
d) ninguno de los anteriores

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matriz de Gram y ortogonalidad

ALG: Espacio Euclídeo

p>Hoy hemos comenzado con el Tema 7. El tema lo hemos llamado Ortogonalización, aunque es una parte del el más genérico que sería Espacio Vectorial Euclídeo. El propósito de este tema es dar a un espacio vectorial la herramientas para poder establecer una distancia entre vectores y conseguir encontrar la distancia mínima entre subespacios o variedadas.

Objetivos

  • Conocer y saber determinar un producto escalar y sus propiedades.
  • Saber calcular la matriz de Gram o métrica de un producto escalar
  • Conocer y saber determinar la norma de un vector y sus propiedades.
  • Conocer y determinar vectores ortogonales y ortonormales y sus propiedades.
  • Calcular bases ortonormales.
  • Conocer el espacio vectorial euclídeo canónico Rn
  • Conocer y determinar una proyección ortogonal de un vector.
  • Saber calcular el complemento ortogonal de un subespacio y sus propiedades.
  • Conocer y saber calcular transformaciones y matrices ortogonal y sus propiedades

Para ello comenzamos con la definición del producto escalar en un espacio vectorial, la norma de un vector, distancia entre dos vectores y el ángulo de dos vectores.

 

Ejercicio: Sean las variedades afines $\pi_1=\{(x,y,z,t,u)\in\mathbb{R}^5;x-y=2,z-t-u=1\}$ y $\pi_2=\{(x,y,z,t,u)\in\mathbb{R}^5;x+z=0,y-2u=-1\}$, ¿cuál es la dimensión de $\pi_1\cap\pi_2$?
a) 1
b) 2
c) 3
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Espacio Euclídeo

ALG: Intersección, incidencia y paralelismo

En este día hemos tratado la posición relativa de dos variedades afines: $L_1=P+C_1$ y $L_2=Q+C_2$. Diremos que se cortan si el conjunto $L_1\cap L_2$ no es vacío. Si $L_1\cap L_2=\phi$; es decir, si no se cortan, puede ocurrir que $C_1\subseteq C_2$ (o $C_2\subseteq C_1$ ) en cuyo caso se dice que son paralelas; en caso contrario se dice que se cruzan.

Si conocemos las ecuaciones implícitas de las dos variedades, el conjunto $L_1\cap L_2$ viene dado por los puntos cuyas coordenadas, respecto del sistema de referencia considerado, son las soluciones del sistema que resulta de reunir todas las ecuaciones implícitas. Si denotamos por $n=dim(E)$, siendo $E$ el espacio afín, $r=dim(L_1)$ y $s=dim(L_2)$, y suponiendo que $r\leq s$, el sistema formado por todas las ecuaciones es un sistema de $2n-r-s$ ecuaciones, que podemos escribir en forma matricial: $AX=B$. Según que el rango de la matriz de coeficientes coincida con el rango de la ampliada obtenemos la diferencia entre variedades que se cortan o que no se cortan. Si $rg(A)$ es $n-r$, entonces la dimensión de $C_1\cap C_2$ será $r$ y por tanto $C_1\cap C_2=C_1$, con lo que $C_1\subseteq C_2$.

Podemos resumirlo en el siguiente cuadro:

 

Ejercicio: Dado el sistema

en $\mathbb{Z}_7$, dependiente de los parámetros $\bar{a},\bar{b}\in\mathbb{Z}_7$, ¿cuándo el sistema será compatible indeterminado?
a) Si $\bar{a}=\bar{1}$
b) Si $\bar{a}=*$ y $\bar{b}=\bar{1}$
c) Si $\bar{a}=*$ y $\bar{b}\neq\bar{1}$
d) Ninguna de los anteriores

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Intersección, incidencia y paralelismo

ALG: Teorema de Rouché-Fröbenius

Recordad que todo sistemas de ecuaciones los podemos formular mediante una ecuación matricial $$AX=B,$$ donde $A$ es la matriz de coeficiente y $B$ la matriz de términos independientes. Llamamos matriz ampliada del sistema a la matriz que concatena $A$ y$ B$, ($A|B$) .

El Teorema de Rouché-Fröbenius nos afirma que Existen soluciones para el sistema si y solo si el rango de la matriz de coeficientes es igual al rango de la matriz ampliada.

Así un sistema será:

$$
\left\{\begin{array}{l}
\begin{array}{c}
Compatible \\
rang(A)=rang(A|B)
\end{array}\left\{\begin{array}{l}
\begin{array}{c}
Determinado \\
rang(A)=\mbox{Número de incógnitas}
\end{array} \\
\begin{array}{c}
Indeterminado \\
rang(A)<\mbox{Número de incógnitas} \end{array} \\ \end{array}\right.\\ \begin{array}{c} Incompatible \\ rang(A)\neq rang(A|B) \end{array}\\ \end{array}\right. $$ Para resolver un sistema compatible sólo tenemos que encontrar un menor de $A$ distinto de cero y del mismo orden que en rango de $A$. Supongamos que $\bar{A}$ es la submatriz de $A$ cuyo menor es el que buscamos. Entonces $A|B$ se puede transformar mediante operaciones elementales por filas en una matriz $$(A|B)\sim\left(\begin{array}{c} \bar{A}\,\bar{P}\\ 0\end{array}\left|\begin{array}{c} \bar{B}\\ 0\end{array}\right.\right)$$ Donde $\bar{P}$ son o $0$ o las columnas de la martiz $A$ tales que $$rang(A)+\mbox{nºcolumnas}(\bar{P})=\mbox{Número de incógnitas}.$$ De este modo el sistema tendrá por solución $$\bar{X}=inv(\bar{A})\cdot (\bar{B}-\bar{P}K),$$ donde $K$ son las variables, en forma de parámetros, que faltan en el menor de $\bar{A}$, y tales que $X^t=(\bar{X}^t K^t)$. Utilizar las ecuaciones implícitas nos sirve para encontrar con más facilidad la intersección de dos subespacios: $S\cap T$ estará formado por las ecuaciones implícitas de $S$ más la de $T$.

 

Ejercicio: El número de ecuaciones implícitas de la variedad afín dada por el punto P(1,0,-1,1,0) y el subespacio generado por los vectores $\vec{v}=(1,1,2,1,0)$, $\vec{u}=(-1,0,0,1,1)$. es
a)1,
b)2
c)3
d) Ninguna de los anteriores
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Teorema de Rouché-Fröbenius