ALG: Matriz asociada a una aplicación lineal

Dada una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales definimos la matriz asociada de la aplicación respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordendas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$; es decir, si $B_V=\{\vec{v}_1,\ldots,\vec{v}_n\}$, $B_W=\{\vec{w}_1,\ldots,\vec{w}_m\}$, y
$$
\begin{matrix}
f(\vec{v}_1)=k_{11}\vec{w}_1+k_{21}\vec{w}_2+k_{31}\vec{w}_3+\ldots+k_{m1}\vec{w}_m;\\
f(\vec{v}_2)=k_{12}\vec{w}_1+k_{22}\vec{w}_2+k_{32}\vec{w}_3+\ldots+k_{m2}\vec{w}_m;\\
f(\vec{v}_3)=k_{13}\vec{w}_1+k_{23}\vec{w}_2+k_{33}\vec{w}_3+\ldots+k_{m3}\vec{w}_m;\\
\vdots \quad \vdots \quad \vdots\\
f(\vec{v}_n)=k_{1n}\vec{w}_1+k_{2n}\vec{w}_2+k_{3n}\vec{w}_n+\ldots+k_{mn}\vec{w}_m;
\end{matrix}
$$
llamamos matriz asociada de $f$, a la matriz
$$
M_f=\begin{pmatrix}
k_{11} & k_{12} & k_{13} &\ldots & k_{1m}\\
k_{21} & k_{22} & k_{23} &\ldots & k_{2m}\\
k_{31} & k_{32} & k_{33} &\ldots & k_{3m}\\
\vdots & \vdots & \vdots & \ldots & \vdots \\
k_{n1} & k_{n2} & k_{n3} &\ldots & k_{nm}\\
\end{pmatrix}
$$

Así vemos como una matriz puede representar una aplicación lineal. De hecho podemos establecer una aplicación entre el conjunto de aplicaciones lineales entre dos $\mathbb{K}$-espacios vectoriales $V$ y $W$, de dimensiones $n$ y $m$ (respectivamente) y el espacio vectorial de las matrices $M_{m\times n}(\mathbb{K})$ que sea un isomorfismo de espacios vectoriales; es decir, una aplicación lineal biyectiva. Esto nos equipara las operaciones con aplicaciones a las operaciones con sus matrices asociadas.

Sabemos que si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{pmatrix}v_1\\v_2\\ \vdots\\v_n\end{pmatrix}=\begin{pmatrix}w_1\\w_2\\ \vdots\\w_n\end{pmatrix}.$$

Esto nos permite deducir propiedades de la aplicación con sus correspondientes en la matriz. Por ejemplo, una aplicación lineal entre dos espacios vectoriales de la misma dimensión es un isomorfismo si, y solo si, su matriz asociada es regular.

Así, podemos considerar la matriz asociada a una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordenadas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$. ¿Y si cambiamos las bases? Es decir, si tengo nuevas bases $B’_V$ y $B’_W$, y deseo encontrar la relación entre la matriz asociada aplicación $M_{f_{B_VB_W}}$, y la matriz $M_{f_{B’_VB’_W}}$. Esa relación nos la ofrece el siguiente gráfico:

cambio_base_apli

En este diagrama $A=M_{f_{B_VB_W}}$ y $C=M_{f_{B’_VB’_W}}$ es la amtriz que desconocemos y buscamos. $P=M_{B’_VB_V}$ es la matriz del cambio de base de $B’_V$ a $B_V$ y $Q=M_{B’_WB_W}$. Así la matriz que buscamos es $$C=Q^{-1}\,A\,P.$$

Como habitualmente tratamos los espacios vectoriales $\mathbb{R}^n$ (recordad que todo espacio vectorial finitamente generado, de dimensión $n$, es isomorfo a $\mathbb{R}^n$), este gráfico se representaría como

matriz_aplic_base

donde $E_n$ y $E_m$ son las bases canónicas respectivas.

Ejercicio: Dada la aplicación lineal entre los polinomios de grado 3 o menos, que a cada polinomio le hace corresponder f(p)=p’-p. Calcular su matriz asociada respecto de la base $\{1,1-x,1-x^2,1-x^3\}$
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Matriz asociada a una aplicación lineal

ALG: Aplicaciones lineales

Al hablar de grupos se introdujo la definición de homomorfismo y con ella la de núcleo. Ahora extendemos esta definición a espacios vectoriales para definir la aplicación lineal: un homomorfismo entre espacios vectoriales. Así diremos que una aplicación (en algunos libros le dicen Transformación) entre dos espacios vectoriales, $f:V\to W$, sobre el mismo cuerpo$\mathbb{K}$, es lineal si se cumple que para todo par de vectores $\vec{v},\vec{u}\in V$ y todo par de escalares $\lambda,\mu\in\mathbb{K}$ se verifica que: $$f(\lambda\vec{v}+\mu\vec{u})=\lambda f(\vec{v})+\mu f(\vec{u}).$$

Para este tema podéis consultar el capítulo 6 del libro ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Dos subespacios muy importantes serán el núcleo y la imagen de una aplicación lineal.

Recordemos es dada una aplicación lineal, $T$, se define el núcleo (ker) y la imagen (Im) de $T:V\to W$ como:

$\operatorname{ker}(T)=\{\,v\in V:T(v)=0_W\,\}$
$\operatorname{Im}(T)=\{\,w\in W: \exists v\in V:T(v)=w\,\}$

Es decir que el núcleo de una aplicación lineal está formado por el conjunto de todos los vectores del dominio que tienen por imagen al vector nulo del codominio.

El núcleo de toda aplicación lineal es un subespacio vectorial del dominio.

Un resultado importante nos dice que si $f:V\to W$, es lineal entre dos espacios vectoriales finitos sobre el mismo cuerpo, entonces

$$dim\,\operatorname{Ker}(f) + dim\,\operatorname{Im}(f)=dim\, V$$

Las aplicaciones lineales cumplen una propiedad muy útil para calcular quién es el conjunto $\operatorname{Im}(f)$:

Si $f:V\to W$, es lineal, donde $B_V$ es una base de $V$, entonces $f(B_V)$ contiene una base de $\operatorname{Im}(f)$.

 

Ejercicio: Estudiar si la aplicación, $f(x,y,z)=(x-z.y-z,x-y)$, es lineal y determinar su núcleo y su imagen.
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Aplicaciones lineales

EFM: ED de segundo orden

Analizamos las ecuaciones diferenciales de segundo orden y, para estudiar unos casos sencillos, empezaremos con la resolución de dos tipos de ellas:

  • ecuaciones sin variable dependiente
  • ecuaciones sin variable independiente

Para el primer tipo, ecuaciones de la forma $F(x,y’,y”)=0$, hacemos el cambio $y’=p$, y, $y”=\frac{dp}{dx}$, obteniendo una función de primer orden $f(x,p,p’)=0$.

Ejercicio: Resolver la ecuación yy”+(y’)2-2yy’=0.
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: ED de segundo orden

EFM: ED de Bernoulli

Las ecuaciones diferenciales de Bernoulli son ecuaciones diferenciales ordinarias de primer orden, formuladas por Jakob Bernoulli y resueltas por su hermano Johann, que se caracterizan por tener la forma: $$\frac{dy}{dx}+P(x)y=Q(x)y^\alpha$$ donde P(x) y Q(x) son funciones continuas en un intervalo.

Para resolverlas es suficiente con plantear el cambio de variable $u=y^{1-\alpha}$, transformando la ecuación diferencial en una de tipo lineal.

Un curiosidad de esta ecuación es que si $n>1$ podemos considerar $z=y^{1-n}$, resulta $z’=-\frac{n-1}{y^n}y’$, y la ecuación anterior se puede expresar como $$z’+(1-n)P(x)z=(1-n)Q(x),$$ una ecuación diferencial lineal.

 

Ejercicio: El modelo de crecimiento de von Bertalanffy, plantea un modelo matemático de la población de peces, en concreto la predicción del crecimiento de un tipo de pez: $$\frac{dW}{dt}=\alpha W^{\frac{2}{3}}-\beta W,$$ donde $W=W(t)$ representa el peso del un pez, y $\alpha$ y $\beta$ son constantes positivas.Calcula la solución general de la ecuación y una solución para el problema de valor inicial $W(0)=0$.
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: ED de Bernoulli

ALG: Coordenadas y cambio de base

Recordemos que todo espacio vectorial finitamente generado tiene una base. Sea $V$ nuestro $\mathbb{K}$-espacio vectorial y $\mathcal{B}=\{\vec{v}_1,\ldots, \vec{v}_n\}$, una base del mismo. Para cualquier vector de $V$, $\vec{v}\in V$, existirán unos únicos escalares $k_i\in \mathbb{K}$, tales que
$$\vec{v}=k_1\vec{v}_1+k_2\vec{v}_2+\cdots+k_n\vec{v}_n.$$
Pues bien, a esos escalares los denominamos coordenadas de $\vec{v}$ respecto de la base $\mathcal{B}$. Así, representado mediante sus coordenadas, expresamos que
$$\vec{v}=\begin{bmatrix}k_1\\ k_2\\ \vdots \\ k_n\end{bmatrix}_\mathcal{B}$$
Qué ocurre si tenemos otra base $\mathcal{B}’$, entonces las coordenadas de $\vec{v}$ serán otras, pero habrá una relación entre ambas. Vamos a utilizar las matrices para encontrar la relación entre ambas coordenadas.

Cuando tenemos dos bases podemo calcular cómo pasar de las coordenadas de una base a la otra. Para ello utilizamos la matriz del cambio de base.

Veamos cómo podemos calcular esta matriz del cambio de base. Sólo tenemos que darnos cuenta como representamos los vectores respecto de cada base. Pongamos dos bases $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ y $B’=\{\vec{u}_1,\vec{u}_2,\ldots,\vec{u}_n\}$. Que un vector cualquiera $\vec{w}$ tenga por coordenadas $(c_1,c_2,\ldots,c_n)_{B}$ respecto de la base $B$ significa que

$$\vec{w}=c_1\vec{v}_1+c_2\vec{v}_2+\ldots+c_n\vec{v}_n$$

Si cada $\vec{v}_i$ tiene por coordenadas respecto de una base canónica $(v_{1i},v_{2i},\ldots,v_{ni},)$, podemos escribir lo anterior en forma matricial:

$$\vec{w}=\begin{bmatrix}
v_{11} &v_{12}&v_{13}&\cdots &v_{1n}\\
v_{21} &v_{22}&v_{23}&\cdots &v_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
v_{n1} &v_{12}&v_{13}&\cdots &v_{1n}\\
\end{bmatrix}\begin{bmatrix}c_1\\c_2\\c_3\\ \vdots \\c_n \end{bmatrix}_{B}$$

Del mismo modo que $\vec{w}$ tenga por coordenadas $(c’_1,c’_2,\ldots,c’_n)_{B’}$ respecto de la base $B’$ significa que

$$\vec{w}=c’_1\vec{u}_1+c’_2\vec{u}_2+\ldots+c’_n\vec{u}_n$$
Escrito en forma matricial
$$\vec{w}=\begin{bmatrix}
u_{11} &u_{12}&u_{13}&\cdots &u_{1n}\\
u_{21} &u_{22}&u_{23}&\cdots &u_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
u_{n1} &u_{12}&u_{13}&\cdots &u_{1n}\\
\end{bmatrix}\begin{bmatrix}c’_1\\c’_2\\c’_3\\ \vdots \\c’_n \end{bmatrix}_{B’}$$

La igualdad de ambos productos nos ofrece la posibilidad de conocer las coordenadas de un vector una base respecto de la otra:

$$\begin{bmatrix}
v_{11} &v_{12}&v_{13}&\cdots &v_{1n}\\
v_{21} &v_{22}&v_{23}&\cdots &v_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
v_{n1} &v_{12}&v_{13}&\cdots &v_{1n}\\
\end{bmatrix}\begin{bmatrix}c_1\\c_2\\ \vdots \\c_n \end{bmatrix}_{B}=\begin{bmatrix}
u_{11} &u_{12}&u_{13}&\cdots &u_{1n}\\
u_{21} &u_{22}&u_{23}&\cdots &u_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
u_{n1} &u_{12}&u_{13}&\cdots &u_{1n}\\
\end{bmatrix}\begin{bmatrix}c’_1\\c’_2\\ \vdots \\c’_n \end{bmatrix}_{B’}$$
Si el sistema matricial lo escribimos así: $P\, C_{B}=Q\,C’_{B’}$, tendremos
$$C_{B}=(P^{-1}Q)\,C’_{B’},$$ o $$(Q^{-1}P)\,C_{B}=C’_{B’}.$$

A la matriz $Q^{-1}P$, la llamamos matriz del cambio de bases de $B$ a $B’$, y la notamos como $$C_{BB’}=Q^{-1}P.$$
Como se observa $C_{B’B}$ es la inversa de $C_{BB’}$.

Para calcular la matriz del cambio de bases podemos utilizar un resultado que nos dice: si a la matriz ampliada $[Q|P]$ le hacemos transformaciones elementales por fila, de modo que obtengamos
$$[Q|P]\to [I_n|C],$$
entonces la matriz $C=C_{BB’}$.

 

Ejercicio: Consideremos el conjunto de todos los polinomio reales de grado menor igual que 3, $P_3[X]$, como $\mathbb{R}-e.v.$, determinar las coordenadas del polinomio $p=3-x+4x^2$, dado en la base canónica, respecto de la base $B=\{2,x-1,x-x^2,2x^2-x^3\}$.
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Coordenadas y cambio de base

ALG: Base de un espacio vectorial

Dentro de los espacio vectoriales nos interesan, particularmente, aquellos que pueden ser generados por un conjunto de vectores finitos, los llamamos espacios vectoriales finitamente generados. Estos espacios tienen la peculiaridad de tener un un subconjunto de vectores, de los vectores que generan todo el espacio, que además son linealmente independientes. Este conjunto es muy importante y le llamamos base de un espacio vectorial: es decir, un conjunto de vectores del espacio que es

  • sistema generador, y
  • linealmente independiente

Al número de vectores de una base de denominamos dimensión del espacio vectorial. Recordemos que siempre estamos tratando con $\mathbb{K}$-e.v finitamente generados.

Uno de los principales resultados es que en todo $\mathbb{K}$-e.v finitamente generados podemos encontrar una base. Así, pues, en un $\mathbb{K}$-e.v finitamente generado de dimensión $n$ un conjunto de $n$ vectores linealmente independiente siempre son base. Además la base no tiene por qué ser única.

Ejercicio:Determinar una base del subespacio vectorial $$C=\left\{\left.\begin{pmatrix}a & -b \\ b & a\end{pmatrix}\right|a,b\in\mathbb{R}\right\}.$$
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Base de un espacio vectorial

ALG: Dependencia e independencia lineal

Tras estudiar los subespacios dados por un sistema generador nos planteamos si un vector cualesquiera pertenece a un sistema generador, o si dentro de los vectores que forman el sistema generador hay alguno que a su vez pertenece a un subconjuntos de vectores del sistema.

Cualquier vector perteneciente a un sistema generador,$\vec{v}\in <\vec{v}_1,\ldots, \vec{v}_n>$ decimos que es combinación lineal de los vectores del sistema. En general, un vector $\vec{v}$ decimos que es combinación lineal de un conjunto de vectores $\vec{v}_1,\ldots, \vec{v}_n$,
$$\vec{v}\in <\vec{v}_1,\ldots, \vec{v}_n>$$

Un conjunto de vectores de un espacio vectorial, $\vec{v}_1,\ldots, \vec{v}_n\in V$ , decimos que es libre si ningún vector es combinación vectorial de los restantes; dicho de otro modo, si los únicos escalares, $k_1,k_2,…,k_n\in\mathbb{K}$, tales que justifican,
$$k_1\vec{v}_1+\cdots +k_n \vec{v}_n=\vec{0},$$
son $k_1=k_2=\ldots=k_n=0$.

Indistintamente decimos sistema libre o vectores linealmente independientes. Y un conjunto que no cumple esa propiedad le denominamos linealmente dependientes; es decir, algún vector es combinación lineal de los otros.

Ejercicio:Probar que en el espacio vectorial sobre los reales de las funciones continuas, $\mathcal{C}[0,\pi]$, conjunto $C=\{f(x)=x^2,g(x)=e^x,h(x)=\sin(x)\}$ es un sistema libre.
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Dependencia e independencia lineal

EFM: ED lineales de primer orden

El pasado día decíamos que la ecuación diferencial $P( x, y)\, dx + Q(x, y)\, dy = 0$ era exacta si $\frac{\partial P}{\partial y}=\frac{\partial Q}{\partial x}$. Aprendimos a resolver este tipo de ecuaciones. Sin embargo podemos toparnos con ecuaciones que no lo cumplan, pero que al multiplicarles determinada función, $\mu$, verifique $$\frac{\partial \mu P}{\partial y}=\frac{\partial \mu Q}{\partial x}.$$

A esta función $\mu$, la denominamos factor integrante. A veces, el uso de factores integrantes nos ayudan a simplificar una ecuación diferencial (ED). En general la transformamos en una ED exacta o en una ED de variables separadas.

Esta técnica nos permite resolver la ED

$$\begin{cases} y’+P(x)y = Q(x)\\ y(x_0) = y_0 \end{cases}$$

Donde $P(x)$ y $Q(x)$ son funciones continuas en un intervalo $[a,b] \subseteq \mathbb{R}$.

Si utilizamos el factor integrante

$$e^{\int_{x_0}^x P(x) dx }, $$

la solución de esta ecuación viene dada por:

$$y(x) =e^{ – \int_{x_0}^x P(x) dx } \left[ y_0 + \int_{x_0}^x Q(x) e^{ \int P(x) dx } dx \right]$$

Ejercicio:Resolver $y’\,\cos(x)+y\sin(x)-1=0$
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: ED lineales de primer orden

ALG: Subespacios vectoriales

Un subespacio vectorial es un subconjunto de un espacio vectorial, que satisface por sí mismo la definición de espacio vectorial con las mismas operaciones que en el espacio vectorial.

Un resultado práctico que nos ayudará a determinar los subespacios vectoriales es el siguiente:

Si $V$ es un $\mathbb{K}$-espacio vectorial, entonces un subconjunto no vacío $S$ de $V$ es un subespacio vectorial si y sólo si para cualesquiera dos vectores $\vec{v}, \vec{w}\in S$ y cualesquiera escalares $\lambda,\mu\in\mathbb{K}$, pertenecientes al cuerpo asociado, entonces el vector $\lambda\vec{v}+\mu\vec{w}\in S$.

Es interesante ver que la unión de dos subespacios, en la gran mayoría de los casos, no es un subespacio, pues no se cumple con la ley de composición interna. Sí lo será cuando uno de los subespacios está contenido en el otro.

Un subespacio interesante es el sistema generador de un conjunto de vectores: dados $\vec{v}_1,\ldots, \vec{v}_n\in V$ definimos el sistema generador como $$<\vec{v}_1,\ldots, \vec{v}_n>=\{k_1\vec{v}_1+\cdots+k_n\vec{v}_n\in V; k_i\in \mathbb{K}\}$$
Es sencillo probar que es un subespacio vectorial de $V$.

Ejercicio:Probar que el conjunto $$C=\left\{\left.\begin{pmatrix}a & -b \\ b & a\end{pmatrix}\right|a,b\in\mathbb{R}\right\}$$ es un subespacio vectorial del conjunto de las matrices reales de orden 2.
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Subespacios vectoriales

ALG: Espacios vectoriales

El pasado día vimos definiciones de grupo, anillo y cuerpo. Las tres son extensiones para poder construir las estructuras con las que trabajaremos. Otra muy especial es la de Espacio Vectorial sobre un cuerpo.

Así definimos el espacio vectorial y el subesapcio vectorial, y uno en particular, $\mathbb{R}^n$. Para el proxímo día haremos hincapié en:

  • Sistema generador
  • Combinación lineal
  • Dependencia lineal
  • Base

Para este tema podéis consultar el libro
ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

 

Ejercicio:En $\mathbb{R}^2$ se considera la suma usual, pero se sustituye el producto por escalar, definiéndolo así: para $\lambda \in\mathbb{R}$ y $\vec{v}=(x,y) \in\mathbb{R}^2$ $$\lambda * \vec{v}=\lambda * (x,y)=(\lambda^2 x,\lambda^2 y)$$ Analizar si, con la suma de siempre y con este nuevo producto por escarlar, $\mathbb{R}^2$ es un $\mathbb{R}$-espacio vectorial.
Posted in: Álgebra lineal by admin Comentarios desactivados en ALG: Espacios vectoriales