ALG: Variedades y Sistemas de Ecuaciones

Ampliamos las definiciones de variedades lineales que, en muchos casos, las equiparamos con los subespacios vectoriales, aunque no tienen por que serlos, a $\mathbb{R}^n$

Las variedades lineales nos dan pie para definir las ecuaciones paramétricas e implícitas que las identifican.

Además hemos introducido el espacio afín y con él la variedad afín, una forma de dar sentido a las estructuras que conocemos de unir puntos con vectores. Ahora ya podemos hablar de rectas de puntos en el plano, o planos de puntos en el espacio.

Como en el caso de las variedades lineales podemos encontrar la variedad afín definida por las ecuaciones paramétricas o implícitas.

La introducción de las variadedes nos lleva a resolver sistemas de ecuaciones lineales. Para resolverlas utilizamos las matrices. Así todo sistema de ecuaciones lineales lo podemos plantear como un sistema matricial de la forma Ax=b, donde A es la matriz de coeficientes del sistema, x es la matriz columna de incógnitas y b es la matriz columna de términos independientes:

Para tratarlos mejor podemos intentar transformalos en sistemas escalonados, que es resultado de transformar la matriz ampliada [A b], mediante operaciones elementales de fila, en una matriz escalonada. Es te el método que conocemos como método de Gauss.

Los sistemas de ecuaciones más sencillos resultan aquellos que podemos emplear la regla de Cramer.

La importancia de Teorema de Rouché-Frobenius estriba en que determina cuando un sistema tiene solución o no. Este resultado junto con el anterior nos permiten resolver con facilidad los sistemas de ecuaciones como los ejercicios que hemos realizado.

Recordad que todo sitemas de ecuaciones los podemos formular mediante una ecuación matricial $$AX=B,$$ donde $A$ es la matriz de coeficiente y $B$ la matriz de términos independientes. Llamamos matriz ampliada del sistema a la matriz que concatena $A$ y$ B$, ($A|B$) .

El Teorema de Rouché-Fröbenius nos afirma que Existen soluciones para el sistema si y solo si el rango de la matriz de coeficientes es igual al rango de la matriz ampliada.

Así un sistema será:

$$
\left\{\begin{array}{l}
\begin{array}{c}
Compatible \\
rang(A)=rang(A|B)
\end{array}\left\{\begin{array}{l}
\begin{array}{c}
Determinado \\
rang(A)=\mbox{Número de incógnitas}
\end{array} \\
\begin{array}{c}
Indeterminado \\
rang(A)<\mbox{Número de incógnitas} \end{array} \\ \end{array}\right.\\ \begin{array}{c} Incompatible \\ rang(A)\neq rang(A|B) \end{array}\\ \end{array}\right. $$ Para resolver un sistema compatible sólo tenemos que encontrar un menor de $A$ distinto de cero y del mismo orden que en rango de $A$. Supongamos que $\bar{A}$ es la submatriz de $A$ cuyo menor es el que buscamos. Entonces $A|B$ se puede transformar mediante operaciones elementales por filas en una matriz $$(A|B)\sim\left(\begin{array}{c} \bar{A}\,\bar{P}\\ 0\end{array}\left|\begin{array}{c} \bar{B}\\ 0\end{array}\right.\right)$$ Donde $\bar{P}$ son o $0$ o las columnas de la martiz $A$ tales que $$rang(A)+\mbox{nºcolumnas}(\bar{P})=\mbox{Número de incógnitas}.$$ De este modo el sistema tendrá por solución $$\bar{X}=inv(\bar{A})\cdot (\bar{B}-\bar{P}K),$$ donde $K$ son las variables, en forma de parámetros, que faltan en el menor de $\bar{A}$, y tales que $X^t=(\bar{X}^t K^t)$.

 

Ejercicio: Determinar las ecuaciones paramétricas e implícitas de la variedad afín dada por el punto P(1,0,-1,1) y el subespacio generado por los vectores $\vec{v}=(1,1,2,1)$, $\vec{u}=(-1,0,0,1)$.
Posted in: Álgebra Lineal by admin No Comments

ALG: Producto escalar, norma, producto vectorial y mixto

Hoy hemos trabajado con la definición del producto escalar y norma en $\mathbb{R}^2$ y $\mathbb{R}^3$, aunque por extensión se puede hacer para $\mathbb{R}^n$. Estas definiciones nos dan pie a definir el ángulo entre dos vectores y el concepto de perpendicularidad.

Además definimos el producto vectorial de dos vectores no nulos de $\mathbb{R}^3$, estudiando propiedades que más tarde utilizaremos. Por último hemos definido el producto mixto de tres vectores de $\mathbb{R}^3$.

Además hemos aprendido a expresar de una nueva forma un plano afín en $\mathbb{R}^3$, si $\pi:\{P+\lambda\vec{v}+\mu\vec{u}|P\in\mathbb{R}^3, \vec{v},\vec{u}\in\mathbb{R}^3,\lambda,\mu\in\mathbb{R}\}$, llamamos forma general a $$(x-p_1,y-p_2,z-p_2)\cdot(\vec{v}\times\vec{u})=0.$$

El símbolo $\times$ hace referencia al producto vectorial, que calculamos mediante:
$$\vec{v}\times\vec{u}=\begin{vmatrix}\vec{i} & \vec{j} &\vec{k}\\ v_1 & v_2 & v_3 \\ u_1 & u_2 & u_3\end{vmatrix}$$

El producto escalar nos da pie a definir la norma de un vector como la raíz cuadrada de el producto escalar de un vector por si mismo: $$||\vec{v}||=\sqrt{\vec{v}\bullet\vec{v}}$$

En el caso de $\mathbb{R}^n$:
$$||(v_1,v_2,\ldots,v_n)||=\sqrt{v_1^2 +v_2^2+\ldots + v_n^2}$$
Con la norma podemos definir la distancia entre dos puntos $P$ y $Q\in \mathbb{R}^3$ como:
$$d(P,Q)=||\vec{QP}||=\sqrt{(q_1-p_1)^2 +(q_2-p_2)^2 + (q_3-p_3)^2}$$
Del mismo modo definimos la distancia de una recta $r=\{P+<\vec{v}>\}\in \mathbb{R}^3$ a un punto $Q$ como:
$$d(Q,r)=\frac{||\vec{PQ}\times\vec{v}||}{||\vec{v}||}$$
Sin embargo, si queremos calcular la distancia entre un punto $P$ y el plano $\pi:ax+by+cz+d=0$, que no lo contiene, lo haremos mediante:
$$d(P,\pi)=\frac{|ap_1+bp_2+cp_3+d|}{\sqrt{a^2+b^2+c^2}}$$

Ejercicio: Dados $\vec{x},\vec{y},\vec{z}\in\mathbb{R}^3$, es $\vec{x}\cdot(\vec{y}\times\vec{z})=(\vec{x}\times\vec{y})\cdot\vec{z}$.
Posted in: Álgebra Lineal by admin No Comments

ALG: el plano afín $\mathbb{R}^2$ y el espacio afín $\mathbb{R}^3$

Hoy comenzamos intentando definir un espacio donde podamos fijar los vectores de $\mathbb{R}^2$ o $\mathbb{R}^3$ de forma que en vez de vectores libres tengamos vectores fijos. Eso se conseguirá en el espacio afín.

Podemos definir el plano afín $\mathbb{R}^2$ como el conjunto $\mathbb{R}^2$, considerado como puntos en el plano cartesiano, y el conjunto $\mathbb{R}^2$, como $\mathbb{R}$-espacio vectorial, más una aplicación especial $\phi$. Para notar los elementos de $\mathbb{R}^2$, considerado como puntos en el plano cartesiano, escribimos $P=(x,y)\in\mathbb{R}^2$, y les denominamos puntos del plano. Para notar los elementos del espacio vectorial $\mathbb{R}^2$ escribimos como habitualmente hacemos, $\vec{v}=(v_1,v_2)\in\mathbb{R}^2$, y les denominamos vectores del plano. La aplicación $\phi$ irá del producto cartesiano $\mathbb{R}^2\times\mathbb{R}^2$ de los puntos en el espacio vectorial $\mathbb{R}^2$; es decir, relacionará dos puntos con un vector.

Con estos dos conjuntos, la aplicación $\phi$ debe verificar:

  1. $\phi(P,Q)+\phi(Q,R)=\phi(P,R)$ para todo $P,Q,R\in\mathbb{R}^2$
  2. Dado cualquier punto $P\in\mathbb{R}^2$, y cualquier vector $\vec{v}\in\mathbb{R}^2$, existe un único punto $Q\in\mathbb{R}^2$ tal que $\phi(P,Q)=\vec{v}$.

Estas propiedades nos definen a $\mathbb{R}^2$ como un espacio afín sobre el espacio vectorial $\mathbb{R}^2$, que denominamos el plano afín.

Esta definición podemos trasladarla sin problemas al $\mathbb{R}^3$ definiendo el espacio afín.

Con esta definición podemos abordad las variedades afines dadas por la recta en el plano afín, y, la recta y el plano, en el espacio afín. El objetivo de hoy ha sido trabajar con estas variedades, consiguiendo sus ecuaciones paramétricas e implícitas.

Así veremos que las ecuaciones paramétricas de una recta en el plano afín que pasa por un punto $P(p_1,p_2)$ y que tiene por subespacio director el generado por el vector $\vec{v}=(v_1,v_2)$, vendrá dada de la forma: $$r=\{(x,y)\in\mathbb{R}^2;(x,y)=(p_1,p_2)+\lambda(v_1,v_2),\lambda\in\mathbb{R}\}$$

Del mismo modo probamos que la ecuación implícita de la recta en el plano afín que pasa por los puntos $P(p_1,p_2)$ y $Q(q_1,q_2)$ vendrá dada por el determinante:
$$\begin{vmatrix} x & y & 1\\ p_1 & p_2 & 1\\ q_1 & q_2 & 1 \end{vmatrix}=0$$

Trasladar lo anterior al espacio afín resulta sencillo. Una recta en el espacio afín que pasa por un punto $P(p_1,p_2,p_3)$ y que tiene por subespacio director el generado por el vector $\vec{v}=(v_1,v_2,v_3)$, vendrá dada de la forma: $$r=\{(x,y,z)\in\mathbb{R}^3;(x,y,z)=(p_1,p_2,p_3)+\lambda(v_1,v_2,v_3),\lambda\in\mathbb{R}\}$$

Y si queremos la ecuación implícita del plano en el espacio afín que pasa por un punto $P(p_1,p_2,p_3)$ y que tiene por subespacio director el generado por los vectores $\vec{v}=(v_1,v_2,v_3)$ y $\vec{u}=(u_1,u_2,u_3)$, vendrá determinado por el determinante $$\begin{vmatrix} x-p_1 & y-p_2 & z-p_3\\ v_1 & v_2 & v_3 \\ u_1 & u_2 & u_3 \end{vmatrix}=0$$

Ejercicio: Calcular la ecuación continua de la recta que pasa por los puntos P(-2,1,6) y Q(2,3,4).
Posted in: Álgebra Lineal by admin No Comments

EFM: Sistemas no homogéneos

Recordad que llevamos visto cuando todos los autovalores son distintos. Para los demás casos, empezaremos con $A\in\mathcal{M}_2(\mathbb{R})$, de este modo el polinómio característico de esta matriz será $p_A(\lambda)\in\mathbb{R}_2[X]$. Las soluciones dependerán de los valores propios que nos de la ecuación característica $p_A(\lambda)=0$.

Si los valores propios son distintos estamos en el caso general, visto anteriormente.

Supongamos que $\lambda_1=\lambda_2$; es decir, $p_A(\lambda)=0$, tiene un cero de multiplicidad doble y un único vector propio $\vec{v}$, entonces la solución será de la forma $$X=c_1\vec{v}e^{\lambda_1t}+c_2(\vec{v}t+\vec{u})e^{\lambda_1t},$$ donde $\vec{u}$ es un vector que tendremos que deducir con las condiciones del sistema. Para encontrar $\vec{u}$ podemos hacerlo con la ecuación $$(A-\lambda I)\vec{u}=\vec{v}$$

Por último tenemos que la solución de $p_A(\lambda)=0$ sea compleja; es decir, $\lambda=\alpha\pm \beta i$, en ese caso la solución general será de la forma
$$X=c_1\vec{v}e^{\lambda t}+c_2\bar{\vec{v}}e^{\bar{\lambda} t},$$ donde $\bar{\lambda}$ es el conjugado de $\lambda$ y $\bar{\vec{v}}$ es el vector conjugado del vector propio $\vec{v}$. Esta forma también se puede expresar utilizando los senos y cosenos.

El siguiente paso es afrontar los sistemas no homogéneos;

Para afrontar este parte partimos que tendremos sistemas de ED en la forma matricial $$X’=A\,X+B(t),$$ donde consideraremos $A$ una matriz cuadrada de valores constantes, y $B(t)$ una matriz de valores constantes o funcionales, no siendo todos cero.

Si resulta que la solución de la parte homogénea la podemos obtener como $$X_h=\Phi(t)\,C,$$ siendo $C$ la matriz de constantes, la solución general vendrá dada mediante
$$X=\Phi(t)\,C+\Phi(t)\int\Phi^{-1}(t)B(t)dt$$

Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
1 & 1\\
4 & 1\\
\end{pmatrix}X$$

EFM: Sistema de ED

Hoy comenzamos el tema 6, dedicado a los sistemas de ecuaciones diferenciales. En general un sistema como

$$X’=AX+B,$$

escrito en forma matricial. A y B son una matrices de funciones, aunque nosotros nos centraremos cuando A sea una matriz de coeficientes constantes y reales.

Para tratar los Sistemas de ED necesitamos repasar el cálculo de los autovalores de una matriz cuadrada. Recordad que para nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{K})$, donde $\mathbb{K}$ es $\mathbb{R} ó \mathbb{C})$ la matriz cuadrada y $I$ la indentidad en $\mathcal{C}_n(\mathbb{K})$.

El polinomio p(λ) = det(A – λI) es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico.

Cada valor propio tiene asociado un conjunto $C_\lambda=\{\vec{v}\in\mathbb{K}^n\}$, que se determina resolviendo el sistema homogeneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz.

Podéis ver más ejemplos en Linear Algebra/Eigenvalues and Eigenvectors.

El caso más sencillo es cuando la $A\in\mathcal{M}_n(\mathbb{R})$ tenga $n$ valores propios todos distintos, en tal caso, la solución general será
$$X=c_1\vec{v}_1e^{\lambda_1t}+c_2\vec{v}_2e^{\lambda_2t}+\ldots+c_n\vec{v}_ne^{\lambda_nt},$$ donde $\vec{v}_i$ es el vector propio asociado al valor propio $\lambda_i$.

 

Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
1 & 1\\
4 & 1\\
\end{pmatrix}X$$

EFM: Principio de superposición

Terminamos este apartado estudiando el caso $$a\frac{d^2y}{dx^2}+b\frac{dy}{dx}+cy=\sum_{i=1}^n f_i(x),$$ donde cada $f_i(x)$ es alguna de las funciones dadas en los casos anteriores. Este caso cumple el Teorema de superposición:

Teorema. Sean $y_1$, $y_2$, …, $y_k$ soluciones de la ecuación diferencial lineal homogénea de orden $n$, $F(x,y,y’,…,y^{(n)})=0$, en un intervalo $I$, entonces la combinación lineal $$y=c_1y_1, c_2 y_2,\ldots,c_k y_k$$ en donde $c_i$, $i=1,2,\ldots,k$ son constantes arbitrarias, también es una solución en el intervalo.

La solución, por tanto, será la suma de las soluciones dadas por la soluciones homogénea y la particular obtenida de la ecuación: $$a\frac{d^2y}{dx^2}+b\frac{dy}{dx}+cy=f_i(x)$$

PAra terminar os dejo un resumen:

 

Ejercicio: Resolver $y”+y= xe^x+\sin 2x$, s.a., y(0)=0, y’(0)=2.

EFM: No homogénea con funciones trigonométricas

El siguiente caso trata cuando afrontamos con funciones trigonométricas
$$a\frac{d^2y}{dx^2}+b\frac{dy}{dx}+cy=P_1(x)\, \cos{rx}+P_2(x)\, \sin{rx},$$
en cuyo caso la solución particular será de la forma $$y_p=x^s(Q_1(x)\, \cos{rx}+Q_2(x)\, \sin{rx})$$

Quedaría ver si ocurre
$$a\frac{d^2y}{dx^2}+b\frac{dy}{dx}+cy=(P_1(x)\, \cos{bx}+P_2(x)\, \sin{bx})e^{ax},$$ que en tal caso la solución particular dependería de $a+bi$, y sería de la forma
$$y_p=x^s(Q_1(x)\, \cos{bx}+Q_2(x)\, \sin{bx})e^{ax}$$

Ejercicio: Resolver $y”+y= \sin 2x$, s.a., y(0)=0, y’(0)=2.

ALG: Los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$

En este tema repasaremos nociones referentes al plano y al espacio como conjuntos de vectores. Esto nos conduce a la definición de las ecuaciones paramétricas e implícitas de rectas y planos.

En $\mathbb{R}^2$ (el plano), un subespacio vectorial propio vendría dado por el sistema generador de un sólo vector. Así cualquier subespacio vectorial $S\subset \mathbb{R}^2$, será de la forma $S=<(a,b)>$ para ciertos $a,b\in\mathbb{R}$. Es decir, $(x,y)\in S$ sii existe $\lambda\in \mathbb{R}$ que cumple

$$
\begin{align*}
x&= \lambda a \\
y&= \lambda b
\end{align*}
$$
Estas ecuaciones definen la expresión del subespacio mediante sus ecuaciones paramétricas. Si despejamos $\lambda$, obtenemos la ecuación que debe verificar todo vector, $(x,y)\in S$, $$xb-ya=0,$$ que denominamos ecuación implícita del subespacio $S$.

A un subespacio vectorial de dimensión 1 le llamamos recta.

En $\mathbb{R}^3$ (el espacio), un subespacio vectorial propio, vendría dado por el sistema generador de un sólo vector o de dos vectores linealmente independientes(l.i.). Repitiendo el proceso de la recta en el plano, vemos que para una recta en $\mathbb{R}^3$, se cumple
$$
\begin{align*}
x&= \lambda a \\
y&= \lambda b \\
z&= \lambda c
\end{align*}
$$
como ecuaciones paramétricas de la recta en el espacio. Despejando $\lambda$ obtendremos un posible sistema que debe verificar cualquier $(x,y,z)\in S\subset\mathbb{R}^3$
$$
\begin{align*}
bx-ay&=0 \\
cx-az&=0
\end{align*}
$$
Estas ecuaciones conforman el conjunto de ecuaciones implícitas que define una recta en el espacio.

Para el subespacio un sistema generador de dos vectores,l.i., $S=<(a_1,b_1,c_1),(a_2,b_2,c_2)>\subset\mathbb{R}^3$. Las ecuaciones paramétricas nos las darán dos parámetros, $$(x,y,z)=\lambda(a_1,b_1,c_1)+\mu(a_2,b_2,c_2),$$ para ciertos $\lambda,\mu\in \mathbb{R}$.
O lo que es lo mismo:
$$
\begin{align*}
x&=\lambda a_1+\mu a_2 \\
y&=\lambda b_1+\mu b_2 \\
z&=\lambda c_1+\mu c_2
\end{align*}
$$
Como que $(x,y,z)\in S$ implica que existen los $\lambda,\mu\in \mathbb{R}$ que verifican lo anterior, nos dice que el sistema suponiendo $\lambda$ y $\mu$ variables, tiene solución y distinta de cero. Para ello el rango de la matriz ampliada del sistema no puede ser tres, y, por tanto,
$$\begin{vmatrix} x& a_1 & a_2 \\ y& b_1 & b_2 \\ z& c_1 & c_2 \end{vmatrix}=0.$$
A la ecuación resultante le llamamos ecuación implícita del plano en el espacio.

Para terminar definimos el concepto de variedad lineal. Dado un vector $\vec{v}$ de un $\mathbb{K}$-espacio vectorial finitamente generado, $V$, y un subespacio $S\subset V$, de definimos la variedad lineal $\vec{v}+S$ como

$$\vec{v}+S=\{\vec{v}+\vec{s}|\vec{s}\in S\}$$

Este tema lo podéis consultar en los libros

  • Geometría Plana de IngeBook Recopilación, Ingebook

  • Geometría en el Espacio. Definiciones, Teoremas y Resultados, de Juan de Burgos, Ingebook.

Ejercicio: Calcular la ecuación paramétrica de la recta del espacio definida por los planos $2x+y+z=0$ y $x-y-2z=0$.
Posted in: Álgebra Lineal by admin No Comments

ALG: Propiedades de la matriz asociada a una aplicación

El pasado día vimos si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{pmatrix}v_1\\v_2\\ \vdots\\v_n\end{pmatrix}=\begin{pmatrix}w_1\\w_2\\ \vdots\\w_n\end{pmatrix}.$$

Esto nos permite deducir interesantes propiedades de la aplicación analizando sus correspondientes matrices asociadas.

Llamamos rango de una aplicación lineal $f$ al rango de su matriz asociada. Propiedades para aplicar. Si $f:V\to W$ es lineal

  1. $f$ es inyectiva si, y sólo si, $rang\, f=dim(V)$
  2. $f$ es sobreyectiva si, y sólo si, $rang\, f=dim(W)$
  3. $dim(Im\,f)=rang\, f$

Otra aplicación es en la composición:

Dadas dos aplicaciones lineales $f:V\to V’$ y $g:V’\to W$ se define la aplicación lineal $f$ compuesto con $g$, $(g\circ f):V\to W$, como $$(g\circ f)(\vec{v})=g(f(\vec{v})),\quad \forall\vec{v}\in V.$$

De este modo la composición de aplicaciones se puede realizar mediante multiplicación de matrices

$$(g\circ f)(\vec{v})=g(f(\vec{v}))\Leftrightarrow M_g(M_f\vec{v})\Leftrightarrow (M_g\cdot M_f)\vec{v}$$

Si consideremos lo que hemos visto, al hecho de que podemos establecer un isomorfismo entre un $\mathbb{R}$-espacios vectoriales $V$, de dimensión $n$, y $\mathbb{R}^n$, resultará que podremos tratar los elementos del $\mathbb{R}$-espacio vectorial como si fuesen vectores de $\mathbb{R}^n$. Esto nos ayudará a resolver problemas diversos; por ejemplo, determinar la independencia lineal de un conjunto de polinomios mediante su matriz como vectores en $\mathbb{R}^n$.

Para terminar tratamos la imagen recíproca de un vector.

Si tenemos una aplicación lineal $f:V\to W$, entre dos espacios vectoriales sobre el mismo cuerpo, y consideramos un vector fijo $\vec{w}\in W$, llamamos conjunto imagen recíproca al conjunto $$f^{-1}(\vec{w})=\{\vec{v}\in V;\,f(\vec{v})=\vec{w}\}\subset V.$$
Para este conjunto puede ocurrirle dos propiedades interesante

  1. Si $\vec{w}\notin \operatorname{Im}(f)$, entonces $f^{-1}(\vec{w})=\varnothing$
  2. Si $\vec{w}\in \operatorname{Im}(f)$; es decir, existe algún $\vec{v}_0\in V$ tal que $f(\vec{v}_0)=\vec{w}$, entonces $f^{-1}(\vec{w})$ es la variedad afín dada por $$f^{-1}(\vec{w})=\vec{v}_0+\operatorname{ker}(f)$$

Veamos cómo aplicamos esto. Consideremos la aplicación $f(x,y,z)=(2x-y,-x+z)$. La imagen recíproca del vector $(1,3)\in\mathbb{R}^2$ está formada por los vectores de $(x,y,z)\in\mathbb{R}^3$ tales que
$$\left.\begin{array}{r}
2x-y=1 \\ -x+z=3
\end{array}\right\}
$$
Si resolvemos el sistema tendremos
$$\left\{\begin{array}{l}
x=k \\ y=-1+2k \\z=3+k
\end{array}\right.
$$
Por tanto, la imagen recíproca la podremos poner como

$$f^{-1}(1,3)=\{(k,-1+2k,3+k);k\in\mathbb{R}\}=(0,1,3)+\{(k,2k,k);k\in\mathbb{R}\},$$
donde $$\operatorname{ker}(f)=\{(k,2k,k);k\in\mathbb{R}\}.$$

Ejercicio: Dada la aplicación lineal $f(x,y,z)=(x-2y,y+z)$, calcular la imagen recíproca del vector (-4,7)
Posted in: Álgebra Lineal by admin No Comments

ALG: Matriz asociada a una aplicación lineal

Dada una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales definimos la matriz asociada de la aplicación respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordendas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$; es decir, si $B_V=\{\vec{v}_1,\ldots,\vec{v}_n\}$, $B_W=\{\vec{w}_1,\ldots,\vec{w}_m\}$, y
$$
\begin{matrix}
f(\vec{v}_1)=k_{11}\vec{w}_1+k_{21}\vec{w}_2+k_{31}\vec{w}_3+\ldots+k_{m1}\vec{w}_m;\\
f(\vec{v}_2)=k_{12}\vec{w}_1+k_{22}\vec{w}_2+k_{32}\vec{w}_3+\ldots+k_{m2}\vec{w}_m;\\
f(\vec{v}_3)=k_{13}\vec{w}_1+k_{23}\vec{w}_2+k_{33}\vec{w}_3+\ldots+k_{m3}\vec{w}_m;\\
\vdots \quad \vdots \quad \vdots\\
f(\vec{v}_n)=k_{1n}\vec{w}_1+k_{2n}\vec{w}_2+k_{3n}\vec{w}_n+\ldots+k_{mn}\vec{w}_m;
\end{matrix}
$$
llamamos matriz asociada de $f$, a la matriz
$$
M_f=\begin{pmatrix}
k_{11} & k_{12} & k_{13} &\ldots & k_{1m}\\
k_{21} & k_{22} & k_{23} &\ldots & k_{2m}\\
k_{31} & k_{32} & k_{33} &\ldots & k_{3m}\\
\vdots & \vdots & \vdots & \ldots & \vdots \\
k_{n1} & k_{n2} & k_{n3} &\ldots & k_{nm}\\
\end{pmatrix}
$$

Así vemos como una matriz puede representar una aplicación lineal. De hecho podemos establecer una aplicación entre el conjunto de aplicaciones lineales entre dos $\mathbb{K}$-espacios vectoriales $V$ y $W$, de dimensiones $n$ y $m$ (respectivamente) y el espacio vectorial de las matrices $M_{m\times n}(\mathbb{K})$ que sea un isomorfismo de espacios vectoriales; es decir, una aplicación lineal biyectiva. Esto nos equipara las operaciones con aplicaciones a las operaciones con sus matrices asociadas.

Sabemos que si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{pmatrix}v_1\\v_2\\ \vdots\\v_n\end{pmatrix}=\begin{pmatrix}w_1\\w_2\\ \vdots\\w_n\end{pmatrix}.$$

Esto nos permite deducir propiedades de la aplicación con sus correspondientes en la matriz. Por ejemplo, una aplicación lineal entre dos espacios vectoriales de la misma dimensión es un isomorfismo si, y solo si, su matriz asociada es regular.

Así, podemos considerar la matriz asociada a una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordenadas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$. ¿Y si cambiamos las bases? Es decir, si tengo nuevas bases $B’_V$ y $B’_W$, y deseo encontrar la relación entre la matriz asociada aplicación $M_{f_{B_VB_W}}$, y la matriz $M_{f_{B’_VB’_W}}$. Esa relación nos la ofrece el siguiente gráfico:

cambio_base_apli

En este diagrama $A=M_{f_{B_VB_W}}$ y $C=M_{f_{B’_VB’_W}}$ es la matriz que desconocemos y buscamos. $P=M_{B’_VB_V}$ es la matriz del cambio de base de $B’_V$ a $B_V$ y $Q=M_{B’_WB_W}$. Así la matriz que buscamos es $$C=Q^{-1}\,A\,P.$$

Como habitualmente tratamos los espacios vectoriales $\mathbb{R}^n$ (recordad que todo espacio vectorial finitamente generado, de dimensión $n$, es isomorfo a $\mathbb{R}^n$), este gráfico se representaría como

matriz_aplic_base

donde $E_n$ y $E_m$ son las bases canónicas respectivas.

Ejercicio: Dada la aplicación lineal entre los polinomios de grado 3 o menos, que a cada polinomio le hace corresponder f(p)=p’-p. Calcular su matriz asociada respecto de la base $\{1,1-x,1-x^2,1-x^3\}$
Posted in: Álgebra Lineal by admin No Comments