ALG: Repaso

Hoy repasamos ejercicios.


Os he añadido esta lectura para el periodo vacacional que se avecina. Está bien despejarse la mente, y si bien lo podéis hacer con una buen película, también con la lectura.

Muret, la batalla que acabó con la Gran Corona de Aragón

Muret, la batalla que decidió la Gran Corona de Aragón

El libro lo podéis encontrar en la web de la editorial o en amazon. Espero que os sea una amena lectura.
Me despido deseándoos una Feliz Navidad y un próspero Año Nuevo 2020 .

 

Ejercicio: Consideremos la matriz $\mathbf{A}=\left[\begin{smallmatrix} 1 & 2 \\ 3 & 2\end{smallmatrix}\right]$. Entonces $\mathbf{A}^7$
a)$\left[\begin{smallmatrix} 6553 & 6554 \\ * & 9830\end{smallmatrix}\right]$
b)$\left[\begin{smallmatrix} 6553 & * \\ 9258 & 9830\end{smallmatrix}\right]$
c)$\left[\begin{smallmatrix} * & 6553 \\ 9831 & *\end{smallmatrix}\right]$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Repaso

ALG: Matrices diagonalizables

Si el pasado día vimos cómo diagonalizar una matriz hoy veremos algunas de sus propiedades.
Recordemos que dado $\mathbf {A} \in M^{n\times n}(\mathbb {K} )$, una matriz cuadrada con valores sobre un cuerpo $\mathbb {K}$, decimos que $\mathbf{A}$ es diagonalizable si, y sólo si, $\mathbf{A}$ se puede descomponer de la forma: $$\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1}$$
donde $\mathbf{D}$ es una matriz diagonal cuya diagonal principal está formada por los elementos los autovalores de $\mathbf{A}$ pareciendo cada uno tantas veces como indique su multiplicidad algebraica, y $\mathbf{P}$ es la matriz cuyas columnas son los autovectores; es decir, los vectores que constituyen una base del subespacio propio asociado a cada autovalor siguiendo el orden establecido en $\mathbf{D}$.

Propiedades: Si $\mathbf{A}$ es diagonalizable mediante $\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1}$, entonces:

  • $$\mathbf{A}^n=\mathbf{P}\mathbf{D}^n\mathbf{P}^{-1}$$
  • Como $e^\mathbf{A}=\sum _{{k=0}}^{\infty }{\frac {{\mathbf {A}}^{k}}{k!}}$, es $$e^{{\mathbf {A}}}={\mathbf {P}}e^{{\mathbf {D}}}{\mathbf {P}}^{{-1}}$$

Cónicas

Otra aplicación importante es en el estudios de las cónicas. Una cónica es por definición el lugar geométrico de la ecuación:
$$ax^2+by^2+2cxy+dy+fx=e$$
que equivale a
$$[x\,\,y]\begin{bmatrix} a&c\\ c&b\end{bmatrix}\begin{bmatrix} x\\ y\end{bmatrix}+[d \,\,f]\begin{bmatrix} x\\ y\end{bmatrix}=e$$
Como la matriz $A=\begin{bmatrix} a&c\\ c&b\end{bmatrix}$ es diagonalizable, existirá $A=PDP^t$, de modo que
$$e=\vec{v}^tPDP^t\vec{v}+[d\,\, f]\vec{v}=\vec{v}^tPDP^t\vec{v}+[d\,\, f]PP^t\vec{v}$$
Si ponemos $P^t\vec{v}=\vec{u}$, la cónica quedará como:
$$e=\vec{u}^tD\vec{u}+[d\,\, f]P\vec{u}.$$
De donde podremos ver que $$e=\lambda_1 \vec{u}_1^2+\lambda_2 \vec{u}_2^2+\alpha\vec{u}_1+\beta\vec{u}_2,$$ donde $\lambda_i$ son los autovalores de $A$ y $\vec{u}_i$ van en la dirección de la base ortonormal de los autovectores de $A$.

 

Ejercicio: Consideremos la matriz $\left[\begin{smallmatrix} 1 & 2 \\ 3 & 2\end{smallmatrix}\right]$. ¿cuál de la siguientes matrices es una matriz que la diagonaliza:
a)$\left[\begin{smallmatrix} 1 & 2 \\ -1 & 3\end{smallmatrix}\right]$
b)$\left[\begin{smallmatrix} 1 & 2 \\ 3 & -1\end{smallmatrix}\right]$
c)$\left[\begin{smallmatrix} -1 & 2 \\ 3 & 1\end{smallmatrix}\right]$

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matrices diagonalizables

ALG: Diagonalización de una matriz

Dado $\mathbf {A} \in M^{n\times n}(\mathbb {K} )$, una matriz cuadrada con valores sobre un cuerpo $\mathbb {K}$, decimos que $\mathbf{A}$ es diagonalizable si, y sólo si, $\mathbf{A}$ se puede descomponer de la forma: $$\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1},$$
donde $\mathbf{D}$ es una matriz diagonal.

El proceso de diagonalización de una matriz necesita conocer los autovalores y autovectores de la matriz. Sea, por tanto, $\mathbf{A}$ una matriz cuadrada de orden $n$, y sean $\lambda_i$ los autovalores de dicha matriz. Entonces

La matriz $\mathbf{A}$ es diagonalizable si, y sólo si, se cumple: $a)$ el número de soluciones de la ecuación característica es igual a $n$; $b)$ para todo autovalor $\lambda_i$, la dimensión del subespacio $\mathcal{C}_{\lambda_i}$ coincide con la multiplicidad del autovalor $\lambda_i$ como solución de la ecuación característica de $A$; es decir, $m_g(\lambda_i)= m_a(\lambda)$

Así pues si $\mathbf{A}$ es diagonalizable, será $\mathbf{D}$ una matriz cuya diagonal principal está formada por los autovalores de $\mathbf{A}$ pareciendo cada uno tantas veces como indique su multiplicidad algebraica, y $\mathbf{P}$ es la matriz cuyas columnas son los autovectores; es decir, los vectores que constituyen una base del subespacio propio asociado a cada autovalor siguiendo el orden establecido en $\mathbf{D}$.

Propiedades

Toda matriz simétrica de coeficientes reales es diagonalizable y sus autovalores son reales.

Dadas dos matrices diagonalizables $\mathbf{A}$ y $\mathbf{B}$, son conmutables ($\mathbf{AB}=\mathbf{BA}$) si y solo si son simultáneamente diagonalizables (comparten la misma base ortonormal).

Toda matriz $\mathbf{A}$ de dimensión $n$ y coeficientes reales es diagonalizable si, y sólo si, existe una base de $\mathbb{R}^{n}$ formada por autovectores de $\mathbf{A}$

El resultado anterior nos permite formular la definición de diagonalización ortogonal o matriz ortogonalmente diagonalizable: Una matriz cuadrada se dice que es ortogonalmente diagonalizable si y sólo si es diagonalizable mediante una matriz de $\mathbf{P}$ ortogonal. Por tanto, si una matriz es ortogonalmente diagonalizable si y sólo si se puede encontrar una base de $\mathbb{R}^{n}$ formada por autovectores ortonormales de $\mathbf{A}$ (que compondrán las columnas de la matriz $\mathbf{P}$).

Teorema: Si una matriz es ortogonalmente diagonalizable si, y solo si, es simétrica.

Observemos que, aunque podemos hacer ortogonales los autovectores conseguido, no nos garantiza que la la matriz formada por ellos sea ortogonal. Eso solo se producirá en el caso de ser una matriz simétrica.

 

Ejercicio: Consideremos la matriz $\left[\begin{smallmatrix}2 & 1 & 0 \\ 0 & 1 & -1 \\ 0 & 2 & 4\end{smallmatrix}\right]$. Podemos afirmar que:
a)Todos sus autovalores tiene multiplicada geométrica igual a 1.
b)Hay una autovalor con multiplicidad geométrica igual a 2.
c)Hay una autovalor con multiplicidad algebraica menor que su multiplicada geométrica.

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Diagonalización de una matriz

ALG: Autovectores y subespacios propios

El pasado día vimos cómo calculábamos los autovalores, las soluciones de la ecuación que plantea el determinante $$p_A(\lambda)=det(A-\lambda\, I),$$

El polinomio $p_A(\lambda)$ es el polinomio característico de $A$.

Cada valor propio tiene asociado un conjunto $\mathcal{C}_\lambda=\{\vec{v}\in\mathbb{K}^n|A\vec{v}=\lambda\vec{v}\}$, que se determina resolviendo el sistema homogéneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz.

Así al número de veces que un autovalor λ se repite como raíz del polinomio característico se le llama multiplicidad algebraica y se representa por $m_a(\lambda)$. Y al número máximo de autovectores linealmente independientes que tiene asociado un autovalor λ, es decir la dimensión del subespacio propio $\mathcal{C}_\lambda$, se le llama multiplicidad geométrica de λ y se representa por $m_g(\lambda)$. Estos dos números están relacionados por una desigualdad: $$m_g(\lambda)\leqslant m_a(\lambda)$$

 

Ejercicio: ¿Cuántos autovalores reales tiene la matriz $\left[\begin{smallmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & 0 & 1\end{smallmatrix}\right]$ ?
a)1
b)2
c)3

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Autovectores y subespacios propios

ALG: Autovectores y autovalores

Comenzamos explicado que son los valores y vectores propios, o autovalores y autovectores, de una matriz.

Hemos aprendido a calcular los autovalores de una matriz cuadrada. Recordad que para nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{K})$, donde $\mathbb{K}$ es $\mathbb{R} ó \mathbb{C}$, la matriz cuadrada y $I$ la indentidad en $\mathcal{C}_n(\mathbb{K})$.

El polinomio p(λ) = det(A – λI) es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico (soluciones de la ecuación característica).

Cada valor propio tiene asociado un conjunto $C_\lambda=\{\vec{v}\in\mathbb{K}^n\}$, que se determina resolviendo el sistema homogeneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz, que veremos más adelante.

Podéis ver más ejemplos en Linear Algebra/Eigenvalues and Eigenvectors.

 

Ejercicio: ¿Qué valores de $a,b,c,\alpha,\beta,\gamma\in\mathbb{R}$ hacen que la matriz $\left[\begin{smallmatrix}a & 2a & 2/3 \\ b & -b & c \\ \alpha & \beta & \gamma\end{smallmatrix}\right]$ sea ortogonal?
a) $a=b=0,c=1, \alpha =\beta=\gamma$
b) $a=b=c=1, \alpha =\beta=\gamma$
c) $a=0, b=c=1,\alpha =-\beta,\gamma=1$
d) Otros diferentes a los indicados.

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Autovectores y autovalores

ALG: Aplicaciones y matrices ortogonales

Terminamos el tema 7 con las matrices ortogonales. Definimos las aplicaciones ortogonales a las aplicaciones de un espacio vectorial con producto escalar $(\mathcal{E},\bullet)$ que conservan el producto escalar; es decir, $f:\mathcal{E}\to \mathcal{E}$, es ortogonal si $$f(\vec{x})\bullet f(\vec{y})=\vec{x}\bullet \vec{y},\quad\forall\,\vec{x}, \vec{y}\in\mathcal{E}$$

Propiedades que cumple una aplicación ortogonal:

  • Es lineal
  • Conserva la norma; es decir, $||f(\vec{x})||=||\vec{x}||$
  • Dos vectores son ortogonales si, y solo si, sus imágenes son ortogonales
  • La aplicación es biyectiva
  • Los vectores propios de valores propios distintos son ortogonales
  • La imagen de una base ortonormal es ortonormal
  • Su matriz asociada es ortogonal

Hay varias formas de definir una matriz ortogonal. Nosotros emplearemos la que parte de la teoría de matrices. Así diremos que de una matriz cuadrada es ortogonal si su inversa coincide con su traspuesta; es decir,$$A^{-1}=A^t.$$

Para nosotros será muy útil el siguiente resultado:

Teorema: Una matriz $A\in\mathcal{M}_n(\mathbb{R})$ es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Otra propiedad muy útil es que el determinante de una matriz ortogonal es 1 ó -1.

La relación entre los concepto de aplicación ortogonal y matriz ortogonal es muy sencilla:

Teorema: Si tenemos un endomorfismo ortogonal sobre una base ortonormal, entonces su matriz asociada es una matriz ortogonal.

Dicho de otro modo, las aplicaciones ortogonales, aquellas que conservan el producto escalar, tienen por matrices asociadas a matrices ortogonales (matrices cuadradas que cumplen que su inversa coincide con la traspuesta). Además se cumple, que en una matriz ortogonal las filas o columnas, consideradas como vectores, son ortonormales.

Clasificación de las aplicaciones ortogonales en $\mathbb{R}^2$

Teorema: Si $f:\mathbb{R}^2\to\mathbb{R}^2$ es un endomorfismo ortogonal respecto una base ortonormal, entonces su matriz asociada es $$A=\begin{bmatrix}a& -b|A|\\ b& a|A|\end{bmatrix},$$ con $|A|=\pm 1$.

Si resulta $|A|=1$, será
$$A=\begin{bmatrix}a& -b\\ b& a\end{bmatrix}.$$
De este modo, exíste un único $\alpha\in [0,2\pi)$, tal que $a=\cos(\alpha)$ y $b=\sin(\alpha)$, tal que
$$A=\begin{bmatrix}\cos(\alpha)& -\sin(\alpha)\\ \sin(\alpha)& \cos(\alpha)\end{bmatrix}.$$
Por tanto, la aplicación ortogonal es un giro, centrado en el origen, de ángulo $\alpha$ con
$$Tr(A)=2a=2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}Tr(A)\right)$$

Si $|A|=-1$, será
$$A=\begin{bmatrix}a& b\\ b& -a\end{bmatrix},$$
y habrán dos vectores $\vec{v}_1$ y $\vec{v}_2$, tales que $f(\vec{v}_1)=\vec{v}_1$ y $f(\vec{v}_2)=-\vec{v}_2$, siendo $\vec{v}_1\bullet\vec{v}_2=0$. De este modo, la aplicación ortogonal es una simetría respecto de la recta $r=\{\lambda\vec{v}_1;\lambda\in\mathbb{R}\}$

Clasificación de las aplicaciones ortogonales en $\mathbb{R}^3$

En esta caso pueden darse cuatro matrices:

1) La matriz identidad

2) La matriz $$\begin{bmatrix}1& 0 & 0\\ 0 & 1 & 0\\ 0& 0 & -1\end{bmatrix},$$ y la aplicación ortogonal es una simetría respecto del plano generado por los vectores tales que $f(\vec{v}_1)=\vec{v}_1$ y $f(\vec{v}_2)=\vec{v}_2$.

3) La matriz $$\begin{bmatrix}1& 0 & 0\\ 0 & \cos(\alpha) & -\sin(\alpha)\\ 0& \sin(\alpha) & \cos(\alpha)\end{bmatrix},$$ y la aplicación ortogonal es un giro con eje en la recta generada por el único vector tal que $f(\vec{v}_1)=\vec{v}_1$, y de ángulo $\alpha$ con
$$Tr(A)=1+2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}(Tr(A)-1)\right)$$

4) La matriz $$\begin{bmatrix}-1& 0 & 0\\ 0 & \cos(\alpha) & -\sin(\alpha)\\ 0& \sin(\alpha) & \cos(\alpha)\end{bmatrix},$$ y la aplicación ortogonal es una simetría, respecto del plano generado por el ortogonal por vector tal que $f(\vec{v}_1)=-\vec{v}_1$, compuesta con un giro de recta $r=\{\lambda\vec{v}_1;\lambda\in\mathbb{R}\}$ y de ángulo $\alpha$ con
$$Tr(A)=-1+2\cos(\alpha)\Rightarrow \alpha=\arccos\left(\tfrac{1}{2}(Tr(A)+1)\right)$$

Un caso particular de este último es cuando $\alpha=\pi$, en cuyo caso $$\begin{bmatrix}-1& 0 & 0\\ 0 & -1 & 0\\ 0& 0 & -1\end{bmatrix},$$ que resulta una simetría central con centro en el origen.

La justificación de lo anterior reside en el siguiente apartado de este tema, donde abordaremos los autovalores y autovectores de un endomorfismo, y, por ende, de una matriz.

Ejercicio: Sea $S=\left\{\left[\begin{smallmatrix}a& b\\ 2b& a+b\end{smallmatrix}\right];a,b\in\mathbb{R}\right\}$, ¿cuál es la proyección de $\left[\begin{smallmatrix}2& 3\\ -1& 2\end{smallmatrix}\right]$ sobre $S$?
a) $\tfrac{1}{2}\left[\begin{smallmatrix}4& 1\\ 2& 5\end{smallmatrix}\right]$
b) $\tfrac{1}{2}\left[\begin{smallmatrix}4& 1\\ 2& -5\end{smallmatrix}\right]$
c) $\tfrac{1}{2}\left[\begin{smallmatrix}4& -1\\ 2& 5\end{smallmatrix}\right]$

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Aplicaciones y matrices ortogonales

ALG: Proyección ortogonal

El pasado día veíamos que cuando $S$ era un subespacio vectorial entonces $$\mathcal{E}=S\oplus S^{\bot}$$

Esto implica que para todo vector $\vec{v}\in \mathcal{E}$ existirán dos únicos vectores $\vec{u}\in S$ y $\vec{w}\in S^{\bot}$, tales que $$\vec{v}=\vec{u}+\vec{w}.$$

Estos vectores $\vec{u}$ o $\vec{w}$ son lo que llamamos proyecciones ortogonales de $\vec{v}$ sobre $S$ o $S^{\bot}$ respectivamente.

La definición clásica nos dice que si $S\subset \mathcal{E}$, un subespacio vectorial de un espacio euclídeo, para nuestros casos finitamente generado, llamamos proyección ortogonal del vector $\vec{v}$ sobre el subespacio $S$, al único vector $\vec{u}\in S$ talque $\vec{v}-\vec{u}\in S^{\bot}$.

A la aplicación $proy_S:\mathcal{E}\to S$ que a cada vector de $\mathcal{E}$ le hace corresponder su proyección ortogonal sobre $S$, se le denomina del mismo modo: proyección ortogonal.

Veamos un método para calcular la proyección ortogonal. Primero empezamos con la proyección sobre un vector. Si $S=<\vec{s}>$; es decir, es una recta, entonces $$proy_\vec{s}(\vec{v})=\frac{\vec{v}\bullet\vec{s}}{\parallel\vec{s}\parallel^2}\vec{s}.$$

Extenderlo a cualquier subespacio es sencillo, solo necesitamos una base ortogonal del subespacio: Sea $\{\vec{u}_1,\vec{u}_1,\ldots,\vec{u}_m\}$ una base ortogonal de $S$, entonces
$$proy_S(\vec{v})=\sum_{i=1}^m\frac{\vec{v}\bullet\vec{u}_i}{\parallel\vec{u}_i\parallel^2}\vec{u}_i.$$
Si además la base es ortonormal la expresión se reduce mucho:
$$proy_S(\vec{v})=(\vec{v}\bullet\vec{u}_i)\vec{u}_1+(\vec{v}\bullet\vec{u}_2)\vec{u}_2+\ldots+(\vec{v}\bullet\vec{u}_m)\vec{u}_m.$$

El propósito es determinar dado un subespacio vectorial $S\subset\mathbb{R}^n$ y un vector, o punto, $\vec{v}\in\mathbb{R}^n$, minimizar la distancia de $\vec{v}$ a cualquier $\vec{s}\in S$. Para conseguirlo utilizamos el siguiente resultado:

Teorema: Sea $S\subset\mathbb{R}^n$ un sube.v., $\vec{v}\in\mathbb{R}^n$ y $\vec{s}\in S$, son equivalentes

  1. $\vec{s}\in S$ es la proyección ortogonal de $\vec{v}$ sobre $S$, $proy_S(\vec{v})$; es decir, $\vec{v}-\vec{s}\in S^{\bot}$
  2. $\vec{s}\in S$ es la mejor aproximación de $\vec{v}$ sobre $S$; es decir,$\parallel \vec{v}-\vec{s}\parallel\leq \parallel \vec{v}-\vec{w}\parallel\,\forall \vec{w}\in S$

En ejemplo lo podéis ver el la deducción de la distancia entre un punto $P(x_0,y_0)$ y la recta $r:ax+by+c=0$ que viene dada por la fórmula $$d(P,r)=\frac{ax_0+by_0+c}{\sqrt{a^2+b^2}}$$
En este enlace está la demostración Proyección Ortogonal. Ej.1

Ejercicio: Sea $\pi:2x+3y-z=0$ un plano en $\mathbb{R}^3$, entonces
a) $\pi^\bot=<(2,3,-1)>$
b) $\pi^\bot=<(1,0,1)>$
c) $\pi^\bot=<(4,2,3)>$

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Proyección ortogonal

ALG: Complemento ortogonal

Si tenemos un espacio vectorial euclídeo de dimensión finita, $\mathcal{E}$, definimos el complemento ortogonal (a veces simplemente ortogonal) de un subespacio $S$ de $\mathcal{E}$ a $$S^\bot=\{\vec{v}\in \mathcal{E}|\;\vec{v}\bullet\vec{u}=0\,\forall \vec{u}\in S\}$$

Proposición. Si $S\subset E$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $S^\bot$ es un subespacio vectorial.

Proposición. Si $S,T\subset \mathcal{E}$, son subespacios de un espacio vectorial euclídeo de dimensión finita, y $T\subset S$ entonces $S^\bot \subset T^\bot$.

Proposición. Si $S,T\subset \mathcal{E}$, son subespacios de un espacio vectorial euclídeo de dimensión finita, entonces

  • $(S+T)^\bot=S^\bot \cap T^\bot$.
  • $(S\cap T)^\bot=S^\bot + T^\bot$.

Proposición. Si $S\subset \mathcal{E}$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $$\mathcal{E}=S\oplus S^{\bot}$$

Corolario. Si $S\subset \mathcal{E}$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $$dim(\mathcal{E})=dim(S)+ dim(S^{\bot})$$

Esta última Proposición nos dice que $\mathcal{E}$ es suma directa de $S$ y $S^{\bot}$; es decir, para todo $\vec{v}\in \mathcal{E}$ existen dos únicos vectores $\vec{s}_1\in S$ y $\vec{s}_2\in S^{\bot}$, tales que $$\vec{v}=\vec{s}_1+\vec{s}_2.$$

Ejercicio: Sea B={(2,1,1),(1,0,10),(2,-3,11)} una base de $\mathbb{R}^3$, ¿cuál es el vector que falta para que, junto a los vectores (2,1,1) y (-3,-2,8), formen una base ortogonal?
a) $\tfrac{1}{7}$(-10,19,*)
b) $\tfrac{1}{7}$(*,-19,1)
c) $\tfrac{1}{7}$(10,*,-1)

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Complemento ortogonal

ALG: Proceso de ortogonalización de Gram-Schmidt

El principal resultado de esta sección es el que justifica que de toda base de un subespacio vectorial se puede obtener una base de vectores del mismo subespacio que sean ortogonales y normales. Esta base será una base ortonormal.

El proceso de ortonormalización de Gram–Schmidt es un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

El proceso nos dice que si $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$, los vectores

  • $\vec{u}_1=\vec{v}_1$
  • $\vec{u}_k=\vec{v}_k-\displaystyle\sum_{i=1}^{k-1}\frac{\vec{u}_i\bullet \vec{v}_k}{||\vec{u}_i||^2}\vec{u}_i\,\forall 2\leq k\leq n$

forman una base ortogonal del subespacio. De este modo, el siguiente conjunto es una base ortonormal del subespacio $$\left\{\frac{\vec{u}_1}{||\vec{u}_1||},\frac{\vec{u}_2}{||\vec{u}_2||},\ldots,\frac{\vec{u}_n}{||\vec{u}_n||}\right\}$$

Ejercicio: Sean dos vectores tales que $\vec{x}\perp\vec{y}$, entonces una de estas afirmaciones es falsa:

a) $||\vec{x}+\vec{y}||^2=||\vec{x}||^2+||\vec{y}||^2$
b) Son linealmente independientes.
c) Forman un ángulo recto.
d) Una de las anteriores es falsa.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Proceso de ortogonalización de Gram-Schmidt

ALG: Matriz de Gram y ortogonalidad

El pasado día definimos el producto escalar y la norma de un espacio euclídeo. La métrica que define el producto escalar puede se usada mediante la matriz de Gram. Sea $(E,\bullet)$ el espacio vectorial euclídeo y $B=\{\vec{u}_1,\ldots,\vec{u}_n\}$ una base de $E$, llamamos matriz de Gram, respecto de la base $B$, a la matriz $G=[g_{ij}=\vec{u}_i\bullet \vec{u}_j]$. Notar que la matriz $G$ siempre es simétrica.

De este modo, dados $\vec{x}=(x_1,x_2,\ldots,x_n)$, $\vec{y}=(y_1,y_2,\ldots,y_n)\in E$, será $$\vec{x}\bullet \vec{y}=\textbf{x}^t\, G\, \textbf{y}=[x_1\,x_2\,\ldots\,x_n]G\begin{bmatrix}y_1 \\ y_2\\ \vdots \\ y_n\end{bmatrix}$$

El pasado día vimos que
$$cos(\vec{x},\vec{y})=\frac{\vec{x}\bullet \vec{y}}{||\vec{x}||\, ||\vec{y}||}$$

Esto nos da pie a definir cuándo dos vectores son ortogonales: cuando se de que $\vec{x}\bullet \vec{y}=0$

Así pondremos que

$$\vec{x}\perp \vec{y} \Leftrightarrow \vec{x}\bullet \vec{y}=0$$
Con esta definición, decimos que $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ es un conjunto ortogonal si dos a dos sus vectores son ortogonales; es decir, $\vec{v}_i\bullet\vec{v}_j=0\forall i\neq j$

Todo esto nos llevará al proceso de ortonormalización de Gram–Schmidt: un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

Ejercicio: Sea $\mathbb{R}_2[X]$, el espacio vectorial de los polinomios de grado menor o igual que 2, como subespacio vectorial de las funciones continuas en el intervalo [0,1], en la que definimos un producto escalar, $p\bullet q$, mediante:

$p\bullet q=\int_0^1p(x)q(x)dx$

¿Cuál es el coseno entre los vectores $x-x^2$ y $1+x+x^2$?
a) -0.25
b) 0.85
c) 1.25
d) ninguno de los anteriores

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matriz de Gram y ortogonalidad