ALG: Conjuntos y Aplicaciones

Comenzamos el tema de Conjuntos y aplicaciones dando la definición de conjuntos con los que trabajaremos, y otras definiciones y propiedades, como

  • Conjuntos:
    • Subconjunto,
    • Partes de un conjunto,
    • Cardinalidad
    • Unión e Intersección de conjuntos
  • Aplicaciones:
    • Relación.
    • Dominio,
    • rango e imagen.
    • Aplicación inyectiva.
    • Aplicación suprayectivas.
    • Aplicación biyectivas.

Lectura recomendada: ÁLGEBRA BÁSICA, Conjuntos y Estructuras Algebraicas, […]

 

Ejercicio:¿Cuál de las siguientes aplicaciones es inyectiva: a)$f:\mathbb{R}\to\mathbb{Z}, f(x)=\lfloor x\rfloor$; b)$f:\mathbb{Z}\times\mathbb{Z}\to\mathbb{Q}, f(n,m)=\frac{n}{m}$; c)$f:\mathbb{Z}\to\mathbb{R}, f(n)=e^n$,
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Conjuntos y Aplicaciones

BioMat: Autovectores y autovalores

Denominamos esta parte autovectores y autovalores, también conocidos como vectores y valores propios de una matriz. Su definición es simple:

Dada una matriz, $A\in\mathcal{C}_n(\mathbb{R})$, real porque es el principal cuerpo que trataremos, decimos que $\vec{v} \in\mathbb{R}^n$ es un autovector, o vector propio de la matriz, si $$A\vec{v}=\lambda\vec{v},$$ siendo $\lambda\in\mathbb{R}$. Al real $\lambda$ se le denomina autovalor o valor propio de la matriz.

Nuestro principal propósito es saber determinar los autovectores y autovalores de una matriz real cuadrada.

Para conseguir nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{R})$ la matriz cuadrada y $I$ la indentidad en $\mathcal{C}_n(\mathbb{R})$.

El polinomio p(λ) = det(A – λI) es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico (soluciones de la ecuación característica).

Cada valor propio tiene asociado un conjunto $C_\lambda=\{\vec{v}\in\mathbb{K}^n\}$, que se determina resolviendo el sistema homogeneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz, que veremos más adelante.

Podéis ver más ejemplos en Linear Algebra/Eigenvalues and Eigenvectors.

Dado ${A} \in\mathcal{C}_n(\mathbb {R} )$, una matriz cuadrada con valores sobre un cuerpo $\mathbb {R}$, decimos que ${A}$ es diagonalizable si, y sólo si, $\mathbf{A}$ se puede descomponer de la forma: $${A}=\mathbf{P}{D}\mathbf{P}^{-1},$$
donde ${D}$ es una matriz diagonal.

El proceso de diagonalización de una matriz necesita conocer los autovalores y autovectores de la matriz.

Cada valor propio tiene asociado un conjunto $\mathcal{C}_\lambda=\{\vec{v}\in\mathbb{R}^n|A\vec{v}=\lambda\vec{v}\}$, que se determina resolviendo el sistema homogéneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz.

Así al número de veces que un autovalor λ se repite como raíz del polinomio característico se le llama multiplicidad algebraica y se representa por $m_a(\lambda)$. Y al número máximo de autovectores linealmente independientes que tiene asociado un autovalor λ, es decir la dimensión del subespacio propio $\mathcal{C}_\lambda$, se le llama multiplicidad geométrica de λ y se representa por $m_g(\lambda)$. Estos dos números están relacionados por una desigualdad: $$m_g(\lambda)\leqslant m_a(\lambda)$$

El proceso de diagonalización de una matriz necesita conocer los autovalores y autovectores de la matriz. Sea, por tanto, $\mathbf{A}$ una matriz cuadrada de orden $n$, y sean $\lambda_i$ los autovalores de dicha matriz. Entonces

La matriz $\mathbf{A}$ es diagonalizable si, y sólo si, se cumple: $a)$ el número de soluciones de la ecuación característica es igual a $n$; $b)$ para todo autovalor $\lambda_i$, la dimensión del subespacio $\mathcal{C}_{\lambda_i}$ coincide con la multiplicidad del autovalor $\lambda_i$ como solución de la ecuación característica de $A$; es decir, $m_g(\lambda_i)= m_a(\lambda_i)$

Así pues si $\mathbf{A}$ es diagonalizable, será $\mathbf{D}$ una matriz cuya diagonal principal está formada por los autovalores de $\mathbf{A}$ pareciendo cada uno tantas veces como indique su multiplicidad algebraica, y $\mathbf{P}$ es la matriz cuyas columnas son los autovectores; es decir, los vectores que constituyen una base del subespacio propio asociado a cada autovalor siguiendo el orden establecido en $\mathbf{D}$.

Propiedades

Toda matriz simétrica de coeficientes reales es diagonalizable y sus autovalores son reales.

Dadas dos matrices diagonalizables $\mathbf{A}$ y $\mathbf{B}$, son conmutables ($\mathbf{AB}=\mathbf{BA}$) si y solo si son simultáneamente diagonalizables (comparten la misma base ortonormal).

Toda matriz $\mathbf{A}$ de dimensión $n$ y coeficientes reales es diagonalizable si, y sólo si, existe una base de $\mathbb{R}^{n}$ formada por autovectores de $\mathbf{A}$

El resultado anterior nos permite formular la definición de diagonalización ortogonal o matriz ortogonalmente diagonalizable: Una matriz cuadrada se dice que es ortogonalmente diagonalizable si y sólo si es diagonalizable mediante una matriz de $\mathbf{P}$ ortogonal. Por tanto, si una matriz es ortogonalmente diagonalizable si y sólo si se puede encontrar una base de $\mathbb{R}^{n}$ formada por autovectores ortonormales de $\mathbf{A}$ (que compondrán las columnas de la matriz $\mathbf{P}$).

Teorema: Una matriz real es ortogonalmente diagonalizable si, y solo si, es simétrica.

Observemos que, aunque podemos hacer ortogonales los autovectores conseguido, no nos garantiza que la la matriz formada por ellos sea ortogonal. Eso solo se producirá en el caso de ser una matriz simétrica.

 


Bibliografía

  • Capítulo 8 y 9 del libro ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Ejercicio: ¿Cuántos autovalores reales tiene la matriz $\left[\begin{smallmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & 0 & 1\end{smallmatrix}\right]$ ?
a)1
b)2
c)3

Posted in: BioMath by admin Comentarios desactivados en BioMat: Autovectores y autovalores

BioMat: Producto escalar y proyección

La idea de esta apartado es la de definir distancias entre subespacios vectoriales. Por ejemplo, ¿cómo podríamos determinar la distancia entre dos esferas en el espacio real de dimensión 3? Una manera sería definirla como la menor de las distancias entre los puntos de ambas esferas. Nuestro propósito es extender esta definición a todo subespacio vectorial.

Para nuestro propósito dotamos a un espacio vectorial de una aplicación que define unas determinadas propiedades; esa aplicación la denominaremos producto escarlar. En nuestro caso, $\mathbb{R}^n$, denotaremos
$${\displaystyle {\begin{array}{rccl}\bullet :&\mathbb{R}^n\times \mathbb{R}^n&\longrightarrow &\mathbb{R} \\&(\vec{x}, \vec{y})&\longmapsto &\vec{x}\bullet \vec{y} \end{array}}}$$
satisfaciendo:

  1. $\vec{x}\bullet \vec{y} =\vec{y}\bullet \vec{x}$
  2. $\vec{x}\bullet (\vec{y}+\vec{z}) =\vec{x}\bullet \vec{y}+\vec{x}\bullet \vec{z}$
  3. $\vec{x}\bullet (\lambda\vec{y}) =(\lambda\vec{x})\bullet \vec{y} =\lambda(\vec{x})\bullet \vec{y})$
  4. $\vec{x}\bullet \vec{x}\geq 0$
  5. $\vec{x}\bullet \vec{x}=0 \Leftrightarrow \vec{x}=\vec{0}$

Se puede ver con facilidad que, para dados $\vec{x}=(x_1,x_2,\ldots,x_n)$, $\vec{y}=(y_1,y_2,\ldots,y_n)\in\mathbb{R}^n$, la aplicación definida mediante
$$\vec{x}\bullet \vec{y}=[x_1\,x_2\,\ldots\,x_n]\begin{bmatrix}y_1 \\ y_2\\ \vdots \\ y_n\end{bmatrix}=\sum_{i=1}^n x_iy_i,$$
multiplicación de los vectores considerados como matrices fila y columna respectivamente, es un producto escalar en $\mathbb{R}^n$. Este producto escalar se denomina producto euclídeo.

Esta forma de definirlo es para introducir la matriz de Gram: una forma de expresar el producto escalar mediante una matriz. Es nuestro caso será muy sencillo. Dada $B=\{\vec{u}_1,\ldots,\vec{u}_n\}$ una base de $\mathbb{R}^n$, llamamos matriz de Gram, respecto de la base $B$, a la matriz $G=[g_{ij}=\vec{u}_i\bullet \vec{u}_j]$. Notar que la matriz $G$ siempre es simétrica.

De este modo será $$\vec{x}\bullet \vec{y}=\textbf{x}^t\, G\, \textbf{y}=[x_1\,x_2\,\ldots\,x_n]G\begin{bmatrix}y_1 \\ y_2\\ \vdots \\ y_n\end{bmatrix}$$

Una vez definido el producto escalar se define la norma:

Definimos la norma de un vector $\vec{x}\in\mathbb{R}^n$, con un producto escalar $\bullet $, como $ \left \| \vec{x}\right \|=\sqrt{\vec{x}\bullet \vec{y}}$.

Esta definición nos permite dar una métrica a nuestro espacio vectorial, y decir que la distancia entre dos vectores es: $$dis(\vec{x},\vec{y})= \left \| \vec{x}-\vec{y}\right \|$$

Ya puestos definimos el coseno entre dos vectores:
$$cos(\vec{x},\vec{y})=\frac{\vec{x}\bullet \vec{y}}{||\vec{x}||\, ||\vec{y}||}$$

Esto nos da pie a definir cuándo dos vectores son ortogonales: cuando se de que $\vec{x}\bullet \vec{y}=0$

Así pondremos que

$$\vec{x}\perp \vec{y} \Leftrightarrow \vec{x}\bullet \vec{y}=0$$
Con esta definición, decimos que $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ es un conjunto ortogonal si dos a dos sus vectores son ortogonales; es decir, $\vec{v}_i\bullet\vec{v}_j=0\forall i\neq j$

Todo esto nos llevará al proceso de ortonormalización de Gram–Schmidt: un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

Si tenemos un espacio vectorial euclídeo de dimensión finita, $\mathcal{E}$, definimos el complemento ortogonal (a veces simplemente ortogonal) de un subespacio $S$ de $\mathcal{E}$ a $$S^\bot=\{\vec{v}\in \mathcal{E}|\;\vec{v}\bullet\vec{u}=0\,\forall \vec{u}\in S\}$$

Proposición. Si $S\subset E$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $S^\bot$ es un subespacio vectorial.

Proposición. Si $S,T\subset \mathcal{E}$, son subespacios de un espacio vectorial euclídeo de dimensión finita, y $T\subset S$ entonces $S^\bot \subset T^\bot$.

Proposición. Si $S,T\subset \mathcal{E}$, son subespacios de un espacio vectorial euclídeo de dimensión finita, entonces

  • $(S+T)^\bot=S^\bot \cap T^\bot$.
  • $(S\cap T)^\bot=S^\bot + T^\bot$.

Proposición. Si $S\subset \mathcal{E}$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $$\mathcal{E}=S\oplus S^{\bot}$$

Corolario. Si $S\subset \mathcal{E}$, es un subespacio de un espacio vectorial euclídeo de dimensión finita, entonces $$dim(\mathcal{E})=dim(S)+ dim(S^{\bot})$$

Este última Corolario nos dice que $\mathcal{E}$ es suma directa de $S$ y $S^{\bot}$; es decir, para todo $\vec{v}\in \mathcal{E}$ existen dos únicos vectores $\vec{s}_1\in S$ y $\vec{s}_2\in S^{\bot}$, tales que $$\vec{v}=\vec{s}_1+\vec{s}_2.$$

Estos vectores $\vec{s}_1$ y $\vec{s}_2$ son lo que llamamos proyecciones ortogonales de $\vec{v}$ sobre $S$ o $S^{\bot}$ respectivamente.

La definición clásica nos dice que si $S\subset \mathcal{E}$, un subespacio vectorial de un espacio euclídeo, para nuestros casos finitamente generado, llamamos proyección ortogonal del vector $\vec{v}$ sobre el subespacio $S$, al único vector $\vec{u}\in S$ talque $\vec{v}-\vec{u}\in S^{\bot}$.

A la aplicación $proy_S:\mathcal{E}\to S$ que a cada vector de $\mathcal{E}$ le hace corresponder su proyección ortogonal sobre $S$, se le denomina del mismo modo: proyección ortogonal.

Veamos un método para calcular la proyección ortogonal. Primero empezamos con la proyección sobre un vector. Si $S=<\vec{s}>$; es decir, es una recta, entonces $$proy_\vec{s}(\vec{v})=\frac{\vec{v}\bullet\vec{s}}{\parallel\vec{s}\parallel^2}\vec{s}.$$

Extenderlo a cualquier subespacio es sencillo, solo necesitamos una base ortogonal del subespacio: Sea $\{\vec{u}_1,\vec{u}_1,\ldots,\vec{u}_m\}$ una base ortogonal de $S$, entonces
$$proy_S(\vec{v})=\sum_{i=1}^m\frac{\vec{v}\bullet\vec{u}_i}{\parallel\vec{u}_i\parallel^2}\vec{u}_i.$$
Si además la base es ortonormal la expresión se reduce mucho:
$$proy_S(\vec{v})=(\vec{v}\bullet\vec{u}_i)\vec{u}_1+(\vec{v}\bullet\vec{u}_2)\vec{u}_2+\ldots+(\vec{v}\bullet\vec{u}_m)\vec{u}_m.$$

El propósito es determinar dado un subespacio vectorial $S\subset\mathbb{R}^n$ y un vector, o punto, $\vec{v}\in\mathbb{R}^n$, minimizar la distancia de $\vec{v}$ a cualquier $\vec{s}\in S$. Para conseguirlo utilizamos el siguiente resultado:

Teorema: Sea $S\subset\mathbb{R}^n$ un sube.v., $\vec{v}\in\mathbb{R}^n$ y $\vec{s}\in S$, son equivalentes

  1. $\vec{s}\in S$ es la proyección ortogonal de $\vec{v}$ sobre $S$, $proy_S(\vec{v})$; es decir, $\vec{v}-\vec{s}\in S^{\bot}$
  2. $\vec{s}\in S$ es la mejor aproximación de $\vec{v}$ sobre $S$; es decir,$\parallel \vec{v}-\vec{s}\parallel\leq \parallel \vec{v}-\vec{w}\parallel\,\forall \vec{w}\in S$

Enl ejemplo lo podéis ver el la deducción de la distancia entre un punto $P(x_0,y_0)$ y la recta $r:ax+by+c=0$ que viene dada por la fórmula $$d(P,r)=\frac{ax_0+by_0+c}{\sqrt{a^2+b^2}}$$
En este enlace está la demostración Proyección Ortogonal. Ej.1


Bibliografía

  • Capítulo 8 del libro ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Ejercicio: La proyección ortogonal de (-7,1,3) sobre (5,0,1) es el vector
a)(-80/13,0,*)
b)(80,*,-16/13)
c)(*,0,-16)

Posted in: BioMath by admin Comentarios desactivados en BioMat: Producto escalar y proyección

ALG: Criptografía basada en matrices

El propósito de hoy es ver cómo utilizamos las matrices para codificar un mensaje. En 1929, Lester S. Hill publicó un artículo en el que enseñaba a cómo utilizar el álgebra lineal para construir un sistema criptografico polialfabético que era práctico para trabajar con mas de tres símbolos simultáneamente. Este sistema polialfabético permitía dar un mismo carácter en un mensaje a enviar que se encripte en dos caracteres distintos en el mensaje encriptado. Este sistema se denomina Criptosistema de Hill y fue el detonante para los modernos sistemas criptográficos.

Os dejo unos ejemplos de cómo funciona:

 

Ejercicio:Sea $A$ una matriz y $AC=LU$ su factorización LU, de modo que $U=\begin{bmatrix}1&2\\ 0& 3\end{bmatrix}$ y $C=\begin{bmatrix}0&1\\ 1& 0\end{bmatrix}$ entonces el determinante de $A$ es: a) 3; b) -3; c) 0.
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Criptografía basada en matrices

ALG: Factorización LU

La factorización LU es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior.

El propósito es dada una matriz $A$ conseguir descomponer esta en un producto $$\textbf{A}=\textbf{L}\textbf{U}$$ de manera $\textbf{L}$ sea triangular inferior y $\textbf{U}$ triangular superior.

Recordad que una operación elemental entre filas se puede considerar como una matriz. De esta manera Podemos realizar una serie de operaciones elementales entre filas para transformar la matriz de partida $A$, en una matriz escalonada (triangular superior). Es decir;
$$E_k\,E_{k-1}\cdots E_1\, \textbf{A}= \textbf{U}.$$
Como cada matriz $E_i$ es regular (por sus propiedades), entonces:
$$\textbf{A}= E_1^{-1}\, E_2^{-1}\cdots E_k^{-1}\, \textbf{U}$$
Así será
$$\textbf{L}=E_1^{-1}\, E_2^{-1}\cdots E_k^{-1}.$$
Es fácil comprobar que $L$ es triangular inferior. El propósito es que la diagonal principal de $L$ serán todo unos; así
$$|\textbf{A}|=|\textbf{L}\textbf{U}|=|\textbf{L}|\cdot|\textbf{U}|=\prod_{i=1}^nu_{ii}$$

Uno de los usos está en la posibilidad de resolver sistemas de ecuaciones. Consideremos queremos resolver el sistema de ecuaciones $$\textbf{A}x=\textbf{b},$$ donde $\textbf{A}\in\mathcal{M}_{n\times m}(\mathbb{K})$. Si conseguimos una factorización $$\textbf{A}=\textbf{L}\textbf{U},$$ donde $\textbf{L}\in\mathcal{M}_{n\times n}(\mathbb{K})$, y, $\textbf{U}\in\mathcal{M}_{n\times m}(\mathbb{K})$, resultará

$$\textbf{A}x=(\textbf{L}\textbf{U})x=\textbf{L}(\textbf{U}x)=\textbf{b}.$$
Para resolver el problema podemos afrontar la estrategia de resolver primero:
$$\textbf{L}y=\textbf{b},$$ para después
$$\textbf{U}x=\textbf{y}.$$

Como ambas matrices $\textbf{L}$ y $\textbf{U}$ son triangulares su solución es fácil mediante sustitución.

En ocasiones no es posible encontrar una factorización LU así; por ejemplo si nos aparece un cero en la diagonal principal de la matriz U. En tal caso debemos permutar las filas o columnas de la matriz $A$ para que no ocurra. Pero si lo hacemos debemos observar que ahora buscaremos una factorización de $PA$ no de $A$. Es decir, $$PA=LU.$$

Ejercicio:Consideremos la matriz $A=\begin{bmatrix}4&3&2\\ 1& -2&3\\ 0& -1& 1\end{bmatrix}$, la primera fila de su matriz adjunta es: a)[1,-1,-1] ; b)[-1,5,-13] ; c)[1,-5,13] .
Posted in: Sin categoría by admin Comentarios desactivados en ALG: Factorización LU

BioMat: Aplicaciones lineales

Al hablar de grupos se comentó la definición de homomorfismo y con ella la de núcleo. Ahora extendemos esta definición a espacios vectoriales para definir la aplicación lineal: un homomorfismo entre espacios vectoriales.

Veremos:

  • Definición de aplicación lineal
  • Matriz asociada a una aplicación lineal
  • Núcleo e imagen de una aplicación lineal
  • Propiedades

Así diremos que una aplicación (en algunos libros le dicen Transformación) entre dos espacios vectoriales, $f:V\to W$, sobre el mismo cuerpo $\mathbb{K}$, es lineal si se cumple que para todo par de vectores $\vec{v},\vec{u}\in V$ y todo par de escalares $\lambda,\mu\in\mathbb{K}$ se verifica que: $$f(\lambda\vec{v}+\mu\vec{u})=\lambda f(\vec{v})+\mu f(\vec{u}).$$

Dada una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales definimos la matriz asociada de la aplicación respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordendas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$; es decir, si $B_V=\{\vec{v}_1,\ldots,\vec{v}_n\}$, $B_W=\{\vec{w}_1,\ldots,\vec{w}_m\}$, y
$$
\begin{matrix}
f(\vec{v}_1)=k_{11}\vec{w}_1+k_{21}\vec{w}_2+k_{31}\vec{w}_3+\ldots+k_{m1}\vec{w}_m;\\
f(\vec{v}_2)=k_{12}\vec{w}_1+k_{22}\vec{w}_2+k_{32}\vec{w}_3+\ldots+k_{m2}\vec{w}_m;\\
f(\vec{v}_3)=k_{13}\vec{w}_1+k_{23}\vec{w}_2+k_{33}\vec{w}_3+\ldots+k_{m3}\vec{w}_m;\\
\vdots \quad \vdots \quad \vdots\\
f(\vec{v}_n)=k_{1n}\vec{w}_1+k_{2n}\vec{w}_2+k_{3n}\vec{w}_n+\ldots+k_{mn}\vec{w}_m;
\end{matrix}
$$
llamamos matriz asociada de $f$, a la matriz
$$
M_f=\begin{bmatrix}
k_{11} & k_{12} & k_{13} & \ldots & k_{1m}\\
k_{21} & k_{22} & k_{23} & \ldots & k_{2m}\\
k_{31} & k_{32} & k_{33} & \ldots & k_{3m}\\
\vdots & \vdots & \vdots & \ldots & \vdots \\
k_{n1} & k_{n2} & k_{n3} & \ldots & k_{nm}\\
\end{bmatrix}
$$

Así vemos como una matriz puede representar una aplicación lineal. De hecho podemos establecer una aplicación entre el conjunto de aplicaciones lineales entre dos $\mathbb{K}$-espacios vectoriales $V$ y $W$, de dimensiones $n$ y $m$ (respectivamente) y el espacio vectorial de las matrices $M_{m\times n}(\mathbb{K})$ que sea un isomorfismo de espacios vectoriales; es decir, una aplicación lineal biyectiva. Esto nos equipara las operaciones con aplicaciones a las operaciones con sus matrices asociadas.

Sabemos que si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{bmatrix}v_1\\v_2\\ \vdots\\v_n\end{bmatrix}=\begin{bmatrix}w_1\\w_2\\ \vdots\\w_n\end{bmatrix}.$$

Esto nos permite deducir propiedades de la aplicación con sus correspondientes en la matriz. Por ejemplo, una aplicación lineal entre dos espacios vectoriales de la misma dimensión es un isomorfismo si, y solo si, su matriz asociada es regular.

Así, podemos considerar la matriz asociada a una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordenadas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$. ¿Y si cambiamos las bases? Es decir, si tengo nuevas bases $B’_V$ y $B’_W$, y deseo encontrar la relación entre la matriz asociada aplicación $M_{f_{B_VB_W}}$, y la matriz $M_{f_{B’_VB’_W}}$. Esa relación nos la ofrece el siguiente gráfico:

cambio_base_apli

En este diagrama $A=M_{f_{B_VB_W}}$ y $C=M_{f_{B’_VB’_W}}$ es la matriz que desconocemos y buscamos. $P=M_{B’_VB_V}$ es la matriz del cambio de base de $B’_V$ a $B_V$ y $Q=M_{B’_WB_W}$. Así la matriz que buscamos es $$C=Q^{-1}\,A\,P.$$

Esto nos permite deducir interesantes propiedades de la aplicación analizando sus correspondientes matrices asociadas.

Llamamos rango de una aplicación lineal $f$ al rango de su matriz asociada. Propiedades para aplicar:

Si $f:V\to W$ es lineal

  1. $f$ es inyectiva si, y sólo si, $rang\, f=dim(V)$
  2. $f$ es sobreyectiva si, y sólo si, $rang\, f=dim(W)$
  3. $dim(Im\,f)=rang\, f$

Otra aplicación es en la composición:

Dadas dos aplicaciones lineales $f:V\to V’$ y $g:V’\to W$ se define la aplicación lineal $f$ compuesto con $g$, $(g\circ f):V\to W$, como $$(g\circ f)(\vec{v})=g(f(\vec{v})),\quad \forall\vec{v}\in V.$$

De este modo la composición de aplicaciones se puede realizar mediante multiplicación de matrices

$$(g\circ f)(\vec{v})=g(f(\vec{v}))\Leftrightarrow M_g(M_f\vec{v})\Leftrightarrow (M_g\cdot M_f)\vec{v}$$

De hecho, el conjunto de todas las aplicaciones lineales entre dos espacios vectoriales, V y W, sobre un mismo cuerpo y finitamente generados, $\mathcal{L}(V.W)$, es un espacio vectorial sobre el mismo cuerpo que verifica: para todo $f,g\in\mathcal{L}(V.W)$ y todo $\lambda\in\mathbb{R}$ es

  • $M_{f+g}=M_{f}+M_{g}$
  • $\lambda M_{f}=M_{\lambda f}$

Recordemos es dada una aplicación lineal, $T$, se define el núcleo (ker) y la imagen (Im) de $T:V\to W$ como:

$\operatorname{ker}(T)=\{\,v\in V:T(v)=0_W\,\}$
$\operatorname{Im}(T)=\{\,w\in W: \exists v\in V:T(v)=w\,\}$

El núcleo de toda aplicación lineal es un subespacio vectorial del dominio.

Si $f:V\to W$, es lineal entre dos espacios vectoriales finitos sobre el mismo cuerpo, entonces

  1. $dim(Im\,f)=rang\, f$
  2. $dim\,\operatorname{Ker}(f) + dim\,\operatorname{Im}(f)=dim\, V$

 


Bibliografía

  • Capítulo 6 del libro ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Ejercicio: Dada la aplicación lineal $f(x,y,z)=(x-2y,y+z)$, es
a)Im$f=<(1,-2,1,1)>$;
b)Im$f=<(1,1)>$;
c)Im$f=\mathbb{R}^2$;
d) Ninguna de los anteriores
Posted in: BioMath by admin Comentarios desactivados en BioMat: Aplicaciones lineales

ALG: Menor y matriz adjunta

El pasado día vimos la definición de manera recursiva de un determinante. En ella definimos los menores de un elemento de una matriz, como los determinantes resultantes de la matriz que queda tras eliminar una fila y una columna.

La definición de menor nos da pie a otro resultado muy interesante. Podemos extender la definición de menor para una matriz no cuadrada a cualquier determinante de una submatriz cuadrada. En este caso:

Teorema. Si $A$ es una matriz, el rango de $A$ es el orden del mayor menor de $A$ no nulo.

Si consideramos $m_{ij}$ el menor del elemento $a_{ij}$ en la matriz $A$, decimos adjunto del elemento $a_{ij}$ en la matriz $A$, y lo notamos por $A_{ij}$, al resultado $$A_{ij}=(-1)^{i+j}m_{ij}.$$

En algunas bibliografías también lo llaman cofactor. Así la regla de Laplace quedaría como:

$$|A|=\sum_{k=1}^{n}a_{ik}A_{ik}$$ o $$|A|=\sum_{k=1}^{n}a_{kj}A_{kj}$$

De este modo definimos la matriz adjunta como $$adj(A)=[A_{ij}].$$

Estas definiciones nos permiten usarlas para definir el rango de una matriz cualquiera, como orden del mayor de los menores distinto de cero, y dar una fórmula para calcular la inversa de una matriz, en caso de que exista:
$$A^{-1}=\frac{1}{|A|}adj(A)^{t}$$

 

Ejercicio: Si el determinante de una matriz, 3×3, es $|A|=2$, entonces $|-2A|$ es igual a: a)8; b)-16; c)10
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Menor y matriz adjunta

BioMat: MatLab, primeros pasos

Iniciamos nuestras prácticas con programas informáticos de matemáticas con el uso de MatLab. Este programa lo tenemos en https://apiweb.ucam.edu/.

MatLab es un sistema de cómputo numérico que ofrece un entorno de desarrollo integrado con un lenguaje de programación propio.

Hoy veremos:

  • Vectores y matrices.
  • Operaciones con vectores y matrices.
  • Determinantes e inversa

Bibliografía


Ejercicio: Sea
$$A_1=\begin{bmatrix}
1 & 0\\
0 & 1
\end{bmatrix},\; A_2=\begin{bmatrix}
1 & 1\\
-1 & 1
\end{bmatrix},\; A_3=\begin{bmatrix}
1 & 1 &0\\
-1 & 1 & 1 \\
0 & -1 & 1 \\
\end{bmatrix},\;
A_4=\begin{bmatrix}
1 & 1 &0 &0\\
-1 & 1 & 1 & 0\\
0 & -1 & 1 & 1\\
0 & 0 & -1 & 1\\
\end{bmatrix},
$$

$$A_n=\begin{bmatrix}
1 & 1& 0& 0& \ldots & 0 & 0\\
-1 & 1& 1& 0& \ldots & 0& 0\\
0 & -1& 1& 1& \ldots & 0& 0\\
0 & 0& -1& 1& \ldots & 0& 0\\
\vdots & \vdots&\vdots & \vdots& \ldots & \vdots & \vdots\\
0 & 0& 0& 0& \ldots & 1& 1\\
0 & 0& 0& 0& \ldots & -1& 1\\
\end{bmatrix}
$$
Utilizar MatLab para deducir $det(A_n)\forall n\geq 3$.

Posted in: BioMath by admin Comentarios desactivados en BioMat: MatLab, primeros pasos

BioMat: Determinantes y matriz inversa.

Continuamos con las matrices y veremos:

  • Determinante
  • Inversa de una matriz
  • Menor y matriz adjunta

Para que sea más fácil definimos los determinantes de forma recursiva, utilizando el valor de un determinante de orden dos y la Regla de Laplace.

La definición clásica y su significado puede verse en Determinante. En este enlace podéis encontrar también propiedades importantes. Recordad estas propiedades porque serán muy importantes para aprender bien este tema.

Propiedades de los determinantes: asumamos $A$ y $B$ dos matrices cuadradas del mismo orden,

  1. $|A|=|A^t|$
  2. Si $B$ es el resultado de hacer una transformación elemental por fila(columna) a la matriz $A$, $A\overset{f_i+\lambda f_j\\ (c_i+\lambda c_j)}{\sim}B\Rightarrow|A|=|B|$
  3. Si $B$ es el resultado de intercambiar una fila(columna) de la matriz $A$, $A\overset{f_i \leftrightarrow f_j\\ (c_i\leftrightarrow c_j)}{\sim}B\Rightarrow|A|=-|B|$
  4. Si $B$ es el resultado de multiplicar una fila(columna) de la matriz $A$ por un escalar, $A\overset{f_i = \lambda f_i\\ (c_i=\lambda c_i)}{\sim}B\Rightarrow|B|=\lambda |A|$
  5. $\begin{vmatrix}a_{11}&a_{12}\\ a+b & c+d\end{vmatrix}=\begin{vmatrix}a_{11}&a_{12}\\ a & c\end{vmatrix}+\begin{vmatrix}a_{11}&a_{12}\\ b & d\end{vmatrix}$. De igual modo podemos hacerlo para toda matriz cuadrada de orden $n$.
  6. $|A\,B|=|A|\cdot |B|$

Definimos la inversa de una matriz cuadrada $A=[a_{ij}]\in \mathcal{M}_{n}(\mathbb{R} o \mathbb{C})$ como la matriz $B=[b_{ij}]\in \mathcal{M}_{n}(\mathbb{R} o \mathbb{C})$ tal que $$AB=BA=I_n.$$

El procedimiento que damos para calcular la inversa, es el de realizar operaciones elementales entre filas o columnas, que conocéis como método de Gauss. Sería el siguiente: Sea $A$ la matriz, y consideremos la matriz formada por $[A\, |\, I_n]$. Si conseguimos mediante semejanza por transformaciones elementales una matriz tal que

$$[A\, |\, I_n] \sim [I_n\, |\, B],$$

entonces $B$ es la inversa de $A$.

Propiedades de la inversa. Asumamos que existe la inversa de $A$ y $B$, dos matrices cuadradas del mismo orden,

  1. $(A^t)=(A^{-1})^t$
  2. $(A\,B)^{-1}=B^{-1}\cdot A^{-1}$

Un menor o menor complementario de una matriz $A$ es el determinante de alguna submatriz, obtenido de $A$ mediante la eliminación de una o más de sus filas o columnas. De este modo designamos mediante $m_{ij}$ el menor del elemento $a_{ij}$ en la matriz $A$; es decir, el menor resultante de eliminar la fila $i$ y la columna $j$.

La definición de menor nos da pie a otro resultado muy interesante. Podemos extender la definición de menor para una matriz no cuadrada a cualquier determinante de una submatriz cuadrada. En este caso:

Teorema. Si $A$ es una matriz, el rango de $A$ es el orden del mayor menor de $A$ no nulo.

Decimos adjunto del elemento $a_{ij}$ en la matriz $A$, y lo notamos por $A_{ij}$, al resultado $$A_{ij}=(-1)^{i+j}m_{ij}.$$

En algunas bibliografías también lo llaman cofactor. Así la regla de Laplace quedaría como:

$$|A|=\sum_{k=1}^{n}a_{ik}A_{ik}$$ o $$|A|=\sum_{k=1}^{n}a_{kj}A_{kj}$$

De este modo definimos la matriz adjunta como $$adj(A)=[A_{ij}].$$

Estas definiciones nos permiten usarlas para definir el rango de una matriz cualquiera, como orden del mayor de los menores distinto de cero, y dar una fórmula para calcular la inversa de una matriz, en caso de que exista:
$$A^{-1}=\frac{1}{|A|}adj(A)^{t}$$


Bibliografía

  • Juan de Burgos, Matrices y Determinantes, ingebook

Ejercicio: Si el determinante de una matriz, 3×3, es $|A|=2$, entonces $|-2A|$ es igual a: a)8; b)-16; c)10
Posted in: BioMath by admin Comentarios desactivados en BioMat: Determinantes y matriz inversa.

ALG: Determinantes

Terminando con las matrices hemos visto como calcular una inversa mediante operaciones elementales. Una vez realizado el paso, continuamos con los determinantes.

Para que sea más fácil definimos los determinantes de forma recursiva, utilizando el valor de un determinante de orden dos y la Regla de Laplace.

La definición clásica y su significado puede verse en Determinante. En este enlace podéis encontrar también propiedades importantes. Recordad estas propiedades por que serán muy importantes para aprender bien este tema.

Propiedades de los determinantes: asumamos $A$ y $B$ dos matrices cuadradas del mismo orden,

  1. $|A|=|A^t|$
  2. Si $B$ es el resultado de hacer una transformación elemental por fila(columna) a la matriz $A$, $A\overset{f_i+\lambda f_j\\ (c_i+\lambda c_j)}{\sim}B\Rightarrow|A|=|B|$
  3. Si $B$ es el resultado de intercambiar una fila(columna) de la matriz $A$, $A\overset{f_i \leftrightarrow f_j\\ (c_i\leftrightarrow c_j)}{\sim}B\Rightarrow|A|=-|B|$
  4. Si $B$ es el resultado de multiplicar una fila(columna) de la matriz $A$ por un escalar, $A\overset{f_i = \lambda f_i\\ (c_i=\lambda c_i)}{\sim}B\Rightarrow|B|=\lambda |A|$
  5. $\begin{vmatrix}a_{11}&a_{12}\\ a+b & c+d\end{vmatrix}=\begin{vmatrix}a_{11}&a_{12}\\ a & c\end{vmatrix}+\begin{vmatrix}a_{11}&a_{12}\\ b & d\end{vmatrix}$. De igual modo podemos hacerlo para toda matriz cuadrada de orden $n$.
  6. $|A\,B|=|A|\cdot |B|$

 

Ejercicio: Dadas las matrices
$$
(A)\begin{bmatrix}0& -1/3& 1/3\\ 1/3& *& 0\end{bmatrix},\,
(B)\begin{bmatrix}0& -1& 1\\ *& 1& 0\end{bmatrix},\,
(C)\begin{bmatrix}1/3& -2/3& 0\\ 1/3& 1/3& *\end{bmatrix},
$$
cuál es una pseudoinversa por la izquierda de
$$\begin{bmatrix}1& 2\\ -1& 1\\ 2& 1\end{bmatrix}$$
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Determinantes