ALG: Repaso

Hoy repasamos ejercicios. Os he añadido esta lectura para el periodo vacacional que se avecina. Está bien despejarse la mente, y si bien lo podéis hacer con una buen película, también con la lectura. Muret, la batalla que decidió la Gran Corona de Aragón El libro lo podéis encontrar en la web de la editorial […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Repaso

ALG: Matrices diagonalizables

Si el pasado día vimos cómo diagonalizar una matriz hoy veremos algunas de sus propiedades. Recordemos que dado $\mathbf {A} \in M^{n\times n}(\mathbb {K} )$, una matriz cuadrada con valores sobre un cuerpo $\mathbb {K}$, decimos que $\mathbf{A}$ es diagonalizable si, y sólo si, $\mathbf{A}$ se puede descomponer de la forma: $$\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1}$$ donde $\mathbf{D}$ es […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matrices diagonalizables

ALG: Diagonalización de una matriz

Dado $\mathbf {A} \in M^{n\times n}(\mathbb {K} )$, una matriz cuadrada con valores sobre un cuerpo $\mathbb {K}$, decimos que $\mathbf{A}$ es diagonalizable si, y sólo si, $\mathbf{A}$ se puede descomponer de la forma: $$\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1},$$ donde $\mathbf{D}$ es una matriz diagonal. El proceso de diagonalización de una matriz necesita conocer los autovalores y autovectores de […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Diagonalización de una matriz

ALG: Autovectores y subespacios propios

El pasado día vimos cómo calculábamos los autovalores, las soluciones de la ecuación que plantea el determinante $$p_A(\lambda)=det(A-\lambda\, I),$$ El polinomio $p_A(\lambda)$ es el polinomio característico de $A$. Cada valor propio tiene asociado un conjunto $\mathcal{C}_\lambda=\{\vec{v}\in\mathbb{K}^n|A\vec{v}=\lambda\vec{v}\}$, que se determina resolviendo el sistema homogéneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Autovectores y subespacios propios

ALG: Autovectores y autovalores

Comenzamos explicado que son los valores y vectores propios, o autovalores y autovectores, de una matriz. Hemos aprendido a calcular los autovalores de una matriz cuadrada. Recordad que para nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{K})$, donde $\mathbb{K}$ es $\mathbb{R} ó \mathbb{C}$, la matriz cuadrada […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Autovectores y autovalores

ALG: Aplicaciones y matrices ortogonales

Terminamos el tema 7 con las matrices ortogonales. Definimos las aplicaciones ortogonales a las aplicaciones de un espacio vectorial con producto escalar $(\mathcal{E},\bullet)$ que conservan el producto escalar; es decir, $f:\mathcal{E}\to \mathcal{E}$, es ortogonal si $$f(\vec{x})\bullet f(\vec{y})=\vec{x}\bullet \vec{y},\quad\forall\,\vec{x}, \vec{y}\in\mathcal{E}$$ Propiedades que cumple una aplicación ortogonal: Es lineal Conserva la norma; es decir, $||f(\vec{x})||=||\vec{x}||$ Dos vectores […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Aplicaciones y matrices ortogonales

ALG: Proyección ortogonal

El pasado día veíamos que cuando $S$ era un subespacio vectorial entonces $$\mathcal{E}=S\oplus S^{\bot}$$ Esto implica que para todo vector $\vec{v}\in \mathcal{E}$ existirán dos únicos vectores $\vec{u}\in S$ y $\vec{w}\in S^{\bot}$, tales que $$\vec{v}=\vec{u}+\vec{w}.$$ Estos vectores $\vec{u}$ o $\vec{w}$ son lo que llamamos proyecciones ortogonales de $\vec{v}$ sobre $S$ o $S^{\bot}$ respectivamente. La definición clásica […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Proyección ortogonal

ALG: Complemento ortogonal

Si tenemos un espacio vectorial euclídeo de dimensión finita, $\mathcal{E}$, definimos el complemento ortogonal (a veces simplemente ortogonal) de un subespacio $S$ de $\mathcal{E}$ a $$S^\bot=\{\vec{v}\in \mathcal{E}|\;\vec{v}\bullet\vec{u}=0\,\forall \vec{u}\in S\}$$ Proposición. Si $S\subset E$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $S^\bot$ es un subespacio vectorial. Proposición. Si $S,T\subset \mathcal{E}$, son […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Complemento ortogonal

ALG: Proceso de ortogonalización de Gram-Schmidt

El principal resultado de esta sección es el que justifica que de toda base de un subespacio vectorial se puede obtener una base de vectores del mismo subespacio que sean ortogonales y normales. Esta base será una base ortonormal. El proceso de ortonormalización de Gram–Schmidt es un algoritmo para construir, a partir de un conjunto […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Proceso de ortogonalización de Gram-Schmidt

ALG: Matriz de Gram y ortogonalidad

El pasado día definimos el producto escalar y la norma de un espacio euclídeo. La métrica que define el producto escalar puede se usada mediante la matriz de Gram. Sea $(E,\bullet)$ el espacio vectorial euclídeo y $B=\{\vec{u}_1,\ldots,\vec{u}_n\}$ una base de $E$, llamamos matriz de Gram, respecto de la base $B$, a la matriz $G=[g_{ij}=\vec{u}_i\bullet \vec{u}_j]$. […]

Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matriz de Gram y ortogonalidad