ALG: Variedades y Sistemas de Ecuaciones

Ampliamos las definiciones de variedades lineales que, en muchos casos, las equiparamos con los subespacios vectoriales, aunque no tienen por que serlos, a $\mathbb{R}^n$

Las variedades lineales nos dan pie para definir las ecuaciones paramétricas e implícitas que las identifican.

Además hemos introducido el espacio afín y con él la variedad afín, una forma de dar sentido a las estructuras que conocemos de unir puntos con vectores. Ahora ya podemos hablar de rectas de puntos en el plano, o planos de puntos en el espacio.

Como en el caso de las variedades lineales podemos encontrar la variedad afín definida por las ecuaciones paramétricas o implícitas.

La introducción de las variadedes nos lleva a resolver sistemas de ecuaciones lineales. Para resolverlas utilizamos las matrices. Así todo sistema de ecuaciones lineales lo podemos plantear como un sistema matricial de la forma Ax=b, donde A es la matriz de coeficientes del sistema, x es la matriz columna de incógnitas y b es la matriz columna de términos independientes:

Para tratarlos mejor podemos intentar transformalos en sistemas escalonados, que es resultado de transformar la matriz ampliada [A b], mediante operaciones elementales de fila, en una matriz escalonada. Es te el método que conocemos como método de Gauss.

Los sistemas de ecuaciones más sencillos resultan aquellos que podemos emplear la regla de Cramer.

La importancia de Teorema de Rouché-Frobenius estriba en que determina cuando un sistema tiene solución o no. Este resultado junto con el anterior nos permiten resolver con facilidad los sistemas de ecuaciones como los ejercicios que hemos realizado.

 

Ejercicio: La distancia al origen de la recta r ≡ 3x – 4y – 25 = 0 es
a)25,
b)5
c)3/4
d) Ninguna de los anteriores
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Variedades y Sistemas de Ecuaciones

ALG: Producto escalar, norma, producto vectorial y mixto

Hoy hemos trabajado con la definición del producto escalar y norma en $\mathbb{R}^2$ y $\mathbb{R}^3$, aunque por extensión se puede hacer para $\mathbb{R}^n$. Estas definiciones nos dan pie a definir el ángulo entre dos vectores y el concepto de perpendicularidad.

Además definimos el producto vectorial de dos vectores no nulos de $\mathbb{R}^3$, estudiando propiedades que más tarde utilizaremos. Por último hemos definido el producto mixto de tres vectores de $\mathbb{R}^3$.

Además hemos aprendido a expresar de una nueva forma un plano afín en $\mathbb{R}^3$, si $\pi:\{P+\lambda\vec{v}+\mu\vec{u}|P\in\mathbb{R}^3, \vec{v},\vec{u}\in\mathbb{R}^3,\lambda,\mu\in\mathbb{R}\}$, llamamos forma general a $$(x-p_1,y-p_2,z-p_2)\cdot(\vec{v}\times\vec{u})=0.$$

El símbolo $\times$ hace referencia al producto vectorial, que calculamos mediante:
$$\vec{v}\times\vec{u}=\begin{vmatrix}\vec{i} & \vec{j} &\vec{k}\\ v_1 & v_2 & v_3 \\ u_1 & u_2 & u_3\end{vmatrix}$$

El producto escalar nos da pie a definir la norma de un vector como la raíz cuadrada de el producto escalar de un vector por si mismo: $$||\vec{v}||=\sqrt{\vec{v}\bullet\vec{v}}$$

En el caso de $\mathbb{R}^n$:
$$||(v_1,v_2,\ldots,v_n)||=\sqrt{v_1^2 +v_2^2+\ldots + v_n^2}$$
Con la norma podemos definir la distancia entre dos puntos $P$ y $Q\in \mathbb{R}^3$ como:
$$d(P,Q)=||\vec{QP}||=\sqrt{(q_1-p_1)^2 +(q_2-p_2)^2 + (q_3-p_3)^2}$$
Del mismo modo definimos la distancia de una recta $r=\{P+<\vec{v}>\}\in \mathbb{R}^3$ a un punto $Q$ como:
$$d(Q,r)=\frac{||\vec{PQ}\times\vec{v}||}{||\vec{v}||}$$
Sin embargo, si queremos calcular la distancia entre un punto $P$ y el plano $\pi:ax+by+cz+d=0$, que no lo contiene, lo haremos mediante:
$$d(P,\pi)=\frac{|ap_1+bp_2+cp_3+d|}{\sqrt{a^2+b^2+c^2}}$$

Ejercicio: Dadas las rectas $r_1:x-2y-5=0$ y $r:2x-y-3=0$, su posición relativa en el plano es
a)coincidente,
b)secante
c)paralelas
d) Ninguna de los anteriores
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Producto escalar, norma, producto vectorial y mixto

ALG: el plano afín $\mathbb{R}^2$ y el espacio afín $\mathbb{R}^3$

Hoy comenzamos intentando definir un espacio donde podamos fijar los vectores de $\mathbb{R}^2$ o $\mathbb{R}^3$ de forma que en vez de vectores libres tengamos vectores fijos. Eso se conseguirá en el espacio afín.

Podemos definir el plano afín $\mathbb{R}^2$ como el conjunto $\mathbb{R}^2$, considerado como puntos en el plano cartesiano, y el conjunto $\mathbb{R}^2$, como $\mathbb{R}$-espacio vectorial, más una aplicación especial $\phi$. Para notar los elementos de $\mathbb{R}^2$, considerado como puntos en el plano cartesiano, escribimos $P=(x,y)\in\mathbb{R}^2$, y les denominamos puntos del plano. Para notar los elementos del espacio vectorial $\mathbb{R}^2$ escribimos como habitualmente hacemos, $\vec{v}=(v_1,v_2)\in\mathbb{R}^2$, y les denominamos vectores del plano. La aplicación $\phi$ irá del producto cartesiano $\mathbb{R}^2\times\mathbb{R}^2$ de los puntos en el espacio vectorial $\mathbb{R}^2$; es decir, relacionará dos puntos con un vector.

Con estos dos conjuntos, la aplicación $\phi$ debe verificar:

  1. $\phi(P,Q)+\phi(Q,R)=\phi(P,R)$ para todo $P,Q,R\in\mathbb{R}^2$
  2. Dado cualquier punto $P\in\mathbb{R}^2$, y cualquier vector $\vec{v}\in\mathbb{R}^2$, existe un único punto $Q\in\mathbb{R}^2$ tal que $\phi(P,Q)=\vec{v}$.

Estas propiedades nos definen a $\mathbb{R}^2$ como un espacio afín sobre el espacio vectorial $\mathbb{R}^2$, que denominamos el plano afín.

Esta definición podemos trasladarla sin problemas al $\mathbb{R}^3$ definiendo el espacio afín.

Con esta definición podemos abordad las variedades afines dadas por la recta en el plano afín, y, la recta y el plano, en el espacio afín. El objetivo de hoy ha sido trabajar con estas variedades, consiguiendo sus ecuaciones paramétricas e implícitas.

Así veremos que las ecuaciones paramétricas de una recta en el plano afín que pasa por un punto $P(p_1,p_2)$ y que tiene por subespacio director el generado por el vector $\vec{v}=(v_1,v_2)$, vendrá dada de la forma: $$r=\{(x,y)\in\mathbb{R}^2;(x,y)=(p_1,p_2)+\lambda(v_1,v_2),\lambda\in\mathbb{R}\}$$

Del mismo modo probamos que la ecuación implícita de la recta en el plano afín que pasa por los puntos $P(p_1,p_2)$ y $Q(q_1,q_2)$ vendrá dada por el determinante:
$$\begin{vmatrix} x & y & 1\\ p_1 & p_2 & 1\\ q_1 & q_2 & 1 \end{vmatrix}=0$$

Trasladar lo anterior al espacio afín resulta sencillo. Una recta en el espacio afín que pasa por un punto $P(p_1,p_2,p_3)$ y que tiene por subespacio director el generado por el vector $\vec{v}=(v_1,v_2,v_3)$, vendrá dada de la forma: $$r=\{(x,y,z)\in\mathbb{R}^3;(x,y,z)=(p_1,p_2,p_3)+\lambda(v_1,v_2,v_3),\lambda\in\mathbb{R}\}$$

Y si queremos la ecuación implícita del plano en el espacio afín que pasa por un punto $P(p_1,p_2,p_3)$ y que tiene por subespacio director el generado por los vectores $\vec{v}=(v_1,v_2,v_3)$ y $\vec{u}=(u_1,u_2,u_3)$, vendrá determinado por el determinante $$\begin{vmatrix} x-p_1 & y-p_2 & z-p_3\\ v_1 & v_2 & v_3 \\ u_1 & u_2 & u_3 \end{vmatrix}=0$$

Ejercicio: Dada la aplicación lineal $f\begin{bmatrix} a & b \\ c & d\end{bmatrix}=a+(b-c)X+dX^2$, ¿Cuál de las matrices dadas pertenece a la imagen recíproca del vector $5+X-X^2\in\mathbb{R}_2[X]$?
a)$\begin{bmatrix} 5 & 2 \\ 1 & 1\end{bmatrix}$,
b)$\begin{bmatrix} 5 & 3 \\ 2 & -1\end{bmatrix}$
c)$\begin{bmatrix} 2 & 1 \\ 0 & -1\end{bmatrix}$
d) Ninguna de los anteriores
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: el plano afín $\mathbb{R}^2$ y el espacio afín $\mathbb{R}^3$

ALG: Propiedades de la matriz asociada a una aplicación

El pasado día vimos si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{pmatrix}v_1\\v_2\\ \vdots\\v_n\end{pmatrix}=\begin{pmatrix}w_1\\w_2\\ \vdots\\w_n\end{pmatrix}.$$

Esto nos permite deducir interesantes propiedades de la aplicación analizando sus correspondientes matrices asociadas.

Llamamos rango de una aplicación lineal $f$ al rango de su matriz asociada. Propiedades para aplicar. Si $f:V\to W$ es lineal

  1. $f$ es inyectiva si, y sólo si, $rang\, f=dim(V)$
  2. $f$ es sobreyectiva si, y sólo si, $rang\, f=dim(W)$
  3. $dim(Im\,f)=rang\, f$

Otra aplicación es en la composición:

Dadas dos aplicaciones lineales $f:V\to V’$ y $g:V’\to W$ se define la aplicación lineal $f$ compuesto con $g$, $(g\circ f):V\to W$, como $$(g\circ f)(\vec{v})=g(f(\vec{v})),\quad \forall\vec{v}\in V.$$

De este modo la composición de aplicaciones se puede realizar mediante multiplicación de matrices

$$(g\circ f)(\vec{v})=g(f(\vec{v}))\Leftrightarrow M_g(M_f\vec{v})\Leftrightarrow (M_g\cdot M_f)\vec{v}$$

Si consideremos lo que hemos visto, al hecho de que podemos establecer un isomorfismo entre un $\mathbb{R}$-espacios vectoriales $V$, de dimensión $n$, y $\mathbb{R}^n$, resultará que podremos tratar los elementos del $\mathbb{R}$-espacio vectorial como si fuesen vectores de $\mathbb{R}^n$. Esto nos ayudará a resolver problemas diversos; por ejemplo, determinar la independencia lineal de un conjunto de polinomios mediante su matriz como vectores en $\mathbb{R}^n$.

Para terminar tratamos la imagen recíproca de un vector.

Si tenemos una aplicación lineal $f:V\to W$, entre dos espacios vectoriales sobre el mismo cuerpo, y consideramos un vector fijo $\vec{w}\in W$, llamamos conjunto imagen recíproca al conjunto $$f^{-1}(\vec{w})=\{\vec{v}\in V;\,f(\vec{v})=\vec{w}\}\subset V.$$
Para este conjunto puede ocurrirle dos propiedades interesante

  1. Si $\vec{w}\notin \operatorname{Im}(f)$, entonces $f^{-1}(\vec{w})=\varnothing$
  2. Si $\vec{w}\in \operatorname{Im}(f)$; es decir, existe algún $\vec{v}_0\in V$ tal que $f(\vec{v}_0)=\vec{w}$, entonces $f^{-1}(\vec{w})$ es la variedad afín dada por $$f^{-1}(\vec{w})=\vec{v}_0+\operatorname{ker}(f)$$

Veamos cómo aplicamos esto. Consideremos la aplicación $f(x,y,z)=(2x-y,-x+z)$. La imagen recíproca del vector $(1,3)\in\mathbb{R}^2$ está formada por los vectores de $(x,y,z)\in\mathbb{R}^3$ tales que
$$\left.\begin{array}{r}
2x-y=1 \\ -x+z=3
\end{array}\right\}
$$
Si resolvemos el sistema tendremos
$$\left\{\begin{array}{l}
x=k \\ y=-1+2k \\z=3+k
\end{array}\right.
$$
Por tanto, la imagen recíproca la podremos poner como

$$f^{-1}(1,3)=\{(k,-1+2k,3+k);k\in\mathbb{R}\}=(0,1,3)+\{(k,2k,k);k\in\mathbb{R}\},$$
donde $$\operatorname{ker}(f)=\{(k,2k,k);k\in\mathbb{R}\}.$$

Ejercicio: Dada la aplicación lineal $f(x,y,z)=(x-2y,y+z)$, es
a)Im$f=<(1,-2,1,1)>$;
b)Im$f=<(1,1)>$;
c)Im$f=\mathbb{R}^2$;
d) Ninguna de los anteriores
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Propiedades de la matriz asociada a una aplicación

ALG: Aplicaciones lineales

Al hablar de grupos se introdujo la definición de homomorfismo y con ella la de núcleo. Ahora extendemos esta definición a espacios vectoriales para definir la aplicación lineal: un homomorfismo entre espacios vectoriales. Así diremos que una aplicación (en algunos libros le dicen Transformación) entre dos espacios vectoriales, $f:V\to W$, sobre el mismo cuerpo$\mathbb{K}$, es lineal si se cumple que para todo par de vectores $\vec{v},\vec{u}\in V$ y todo par de escalares $\lambda,\mu\in\mathbb{K}$ se verifica que: $$f(\lambda\vec{v}+\mu\vec{u})=\lambda f(\vec{v})+\mu f(\vec{u}).$$

Para este tema podéis consultar el capítulo 6 del libro ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Dada una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales definimos la matriz asociada de la aplicación respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordendas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$; es decir, si $B_V=\{\vec{v}_1,\ldots,\vec{v}_n\}$, $B_W=\{\vec{w}_1,\ldots,\vec{w}_m\}$, y
$$
\begin{matrix}
f(\vec{v}_1)=k_{11}\vec{w}_1+k_{21}\vec{w}_2+k_{31}\vec{w}_3+\ldots+k_{m1}\vec{w}_m;\\
f(\vec{v}_2)=k_{12}\vec{w}_1+k_{22}\vec{w}_2+k_{32}\vec{w}_3+\ldots+k_{m2}\vec{w}_m;\\
f(\vec{v}_3)=k_{13}\vec{w}_1+k_{23}\vec{w}_2+k_{33}\vec{w}_3+\ldots+k_{m3}\vec{w}_m;\\
\vdots \quad \vdots \quad \vdots\\
f(\vec{v}_n)=k_{1n}\vec{w}_1+k_{2n}\vec{w}_2+k_{3n}\vec{w}_n+\ldots+k_{mn}\vec{w}_m;
\end{matrix}
$$
llamamos matriz asociada de $f$, a la matriz
$$
M_f=\begin{pmatrix}
k_{11} & k_{12} & k_{13} &\ldots & k_{1m}\\
k_{21} & k_{22} & k_{23} &\ldots & k_{2m}\\
k_{31} & k_{32} & k_{33} &\ldots & k_{3m}\\
\vdots & \vdots & \vdots & \ldots & \vdots \\
k_{n1} & k_{n2} & k_{n3} &\ldots & k_{nm}\\
\end{pmatrix}
$$

Así vemos como una matriz puede representar una aplicación lineal. De hecho podemos establecer una aplicación entre el conjunto de aplicaciones lineales entre dos $\mathbb{K}$-espacios vectoriales $V$ y $W$, de dimensiones $n$ y $m$ (respectivamente) y el espacio vectorial de las matrices $M_{m\times n}(\mathbb{K})$ que sea un isomorfismo de espacios vectoriales; es decir, una aplicación lineal biyectiva. Esto nos equipara las operaciones con aplicaciones a las operaciones con sus matrices asociadas.

Sabemos que si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{pmatrix}v_1\\v_2\\ \vdots\\v_n\end{pmatrix}=\begin{pmatrix}w_1\\w_2\\ \vdots\\w_n\end{pmatrix}.$$

Esto nos permite deducir propiedades de la aplicación con sus correspondientes en la matriz. Por ejemplo, una aplicación lineal entre dos espacios vectoriales de la misma dimensión es un isomorfismo si, y solo si, su matriz asociada es regular.

Así, podemos considerar la matriz asociada a una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordenadas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$. ¿Y si cambiamos las bases? Es decir, si tengo nuevas bases $B’_V$ y $B’_W$, y deseo encontrar la relación entre la matriz asociada aplicación $M_{f_{B_VB_W}}$, y la matriz $M_{f_{B’_VB’_W}}$. Esa relación nos la ofrece el siguiente gráfico:

cambio_base_apli

En este diagrama $A=M_{f_{B_VB_W}}$ y $C=M_{f_{B’_VB’_W}}$ es la matriz que desconocemos y buscamos. $P=M_{B’_VB_V}$ es la matriz del cambio de base de $B’_V$ a $B_V$ y $Q=M_{B’_WB_W}$. Así la matriz que buscamos es $$C=Q^{-1}\,A\,P.$$

Como habitualmente tratamos los espacios vectoriales $\mathbb{R}^n$ (recordad que todo espacio vectorial finitamente generado, de dimensión $n$, es isomorfo a $\mathbb{R}^n$), este gráfico se representaría como

matriz_aplic_base

donde $E_n$ y $E_m$ son las bases canónicas respectivas.

Recordemos es dada una aplicación lineal, $T$, se define el núcleo (ker) y la imagen (Im) de $T:V\to W$ como:

$\operatorname{ker}(T)=\{\,v\in V:T(v)=0_W\,\}$
$\operatorname{Im}(T)=\{\,w\in W: \exists v\in V:T(v)=w\,\}$

Es decir que el núcleo de una aplicación lineal está formado por el conjunto de todos los vectores del dominio que tienen por imagen al vector nulo del codominio.

El núcleo de toda aplicación lineal es un subespacio vectorial del dominio.

Un resultado importante nos dice que si $f:V\to W$, es lineal entre dos espacios vectoriales finitos sobre el mismo cuerpo, entonces

$$dim\,\operatorname{Ker}(f) + dim\,\operatorname{Im}(f)=dim\, V$$

 

Ejercicio: Señala la matriz del cambio de base de $\mathbb{R}^2$, de $B_1=\{(1,0),(-2,1)\}$ a la base $B_2=\{(1,1),(0,1)\}$.
a)$\left[\begin{smallmatrix}1&*\\ 0&1\end{smallmatrix}\right]$

b)$\left[\begin{smallmatrix}2&1\\ *&1\end{smallmatrix}\right]$

c)$\left[\begin{smallmatrix}3&-1\\ -2&*\end{smallmatrix}\right]$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Aplicaciones lineales

ALG: Cambio de base

Recordemos que todo espacio vectorial finitamente generado tiene una base. Sea $V$ nuestro $\mathbb{K}$-espacio vectorial y $\mathcal{B}=\{\vec{v}_1,\ldots, \vec{v}_n\}$, una base del mismo. Para cualquier vector de $V$, $\vec{v}\in V$, existirán unos únicos escalares $k_i\in \mathbb{K}$, tales que
$$\vec{v}=k_1\vec{v}_1+k_2\vec{v}_2+\cdots+k_n\vec{v}_n.$$
Pues bien, a esos escalares los denominamos coordenadas de $\vec{v}$ respecto de la base $\mathcal{B}$. Así, representado mediante sus coordenadas, expresamos que
$$\vec{v}=\begin{bmatrix}k_1\\ k_2\\ \vdots \\ k_n\end{bmatrix}_\mathcal{B}$$
Qué ocurre si tenemos otra base $\mathcal{B}’$, entonces las coordenadas de $\vec{v}$ serán otras, pero habrá una relación entre ambas. Vamos a utilizar las matrices para encontrar la relación entre ambas coordenadas.

Cuando tenemos dos bases podemo calcular cómo pasar de las coordenadas de una base a la otra. Para ello utilizamos la matriz del cambio de base.

Veamos cómo podemos calcular esta matriz del cambio de base. Sólo tenemos que darnos cuenta como representamos los vectores respecto de cada base. Pongamos dos bases $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ y $B’=\{\vec{u}_1,\vec{u}_2,\ldots,\vec{u}_n\}$. Que un vector cualquiera $\vec{w}$ tenga por coordenadas $(c_1,c_2,\ldots,c_n)_{B}$ respecto de la base $B$ significa que

$$\vec{w}=c_1\vec{v}_1+c_2\vec{v}_2+\ldots+c_n\vec{v}_n$$

Si cada $\vec{v}_i$ tiene por coordenadas respecto de una base canónica $(v_{1i},v_{2i},\ldots,v_{ni},)$, podemos escribir lo anterior en forma matricial:

$$\vec{w}=\begin{bmatrix}
v_{11} &v_{12}&v_{13}&\cdots &v_{1n}\\
v_{21} &v_{22}&v_{23}&\cdots &v_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
v_{n1} &v_{12}&v_{13}&\cdots &v_{1n}\\
\end{bmatrix}\begin{bmatrix}c_1\\c_2\\c_3\\ \vdots \\c_n \end{bmatrix}_{B}$$

Del mismo modo que $\vec{w}$ tenga por coordenadas $(c’_1,c’_2,\ldots,c’_n)_{B’}$ respecto de la base $B’$ significa que

$$\vec{w}=c’_1\vec{u}_1+c’_2\vec{u}_2+\ldots+c’_n\vec{u}_n$$
Escrito en forma matricial
$$\vec{w}=\begin{bmatrix}
u_{11} &u_{12}&u_{13}&\cdots &u_{1n}\\
u_{21} &u_{22}&u_{23}&\cdots &u_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
u_{n1} &u_{12}&u_{13}&\cdots &u_{1n}\\
\end{bmatrix}\begin{bmatrix}c’_1\\c’_2\\c’_3\\ \vdots \\c’_n \end{bmatrix}_{B’}$$

La igualdad de ambos productos nos ofrece la posibilidad de conocer las coordenadas de un vector una base respecto de la otra:

$$\begin{bmatrix}
v_{11} &v_{12}&v_{13}&\cdots &v_{1n}\\
v_{21} &v_{22}&v_{23}&\cdots &v_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
v_{n1} &v_{12}&v_{13}&\cdots &v_{1n}\\
\end{bmatrix}\begin{bmatrix}c_1\\c_2\\ \vdots \\c_n \end{bmatrix}_{B}=\begin{bmatrix}
u_{11} &u_{12}&u_{13}&\cdots &u_{1n}\\
u_{21} &u_{22}&u_{23}&\cdots &u_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
u_{n1} &u_{12}&u_{13}&\cdots &u_{1n}\\
\end{bmatrix}\begin{bmatrix}c’_1\\c’_2\\ \vdots \\c’_n \end{bmatrix}_{B’}$$
Si el sistema matricial lo escribimos así: $P\, C_{B}=Q\,C’_{B’}$, tendremos
$$C_{B}=(P^{-1}Q)\,C’_{B’},$$ o $$(Q^{-1}P)\,C_{B}=C’_{B’}.$$

A la matriz $Q^{-1}P$, la llamamos matriz del cambio de bases de $B$ a $B’$, y la notamos como $$C_{BB’}=Q^{-1}P.$$
Como se observa $C_{B’B}$ es la inversa de $C_{BB’}$.

Para calcular la matriz del cambio de bases podemos utilizar un resultado que nos dice: si a la matriz ampliada $[Q|P]$ le hacemos transformaciones elementales por fila, de modo que obtengamos
$$[Q|P]\to [I_n|C],$$
entonces la matriz $C=C_{BB’}$.

 

Ejercicio: Sean en $\mathbb{R}^4$ los subespacios vectoriales $H_1=\{(x,y,z,t):2x-y-z=0\}$ y $H_2=\{(x,y,z,t):x+y-z+t=0,x-y+z=0\}$. ¿Cuál de las siguientes afirmaciones es cierta?
a)$H_1\cap H_2=0$;
b)$H_1\cap H_2=\mathbb{R}^4$;
c)$H_1\cap H_2=<(1,0,-2,0),(0,1,1,0)>$;
d) Ninguna de los anteriores
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Cambio de base

ALG: Subespacios vectoriales

La definición de base del pasado día nos da pie a definir las coordenadas de un vector respecto de una base. Así, si $\vec{v}\in V$, donde $V$ es un $\mathbb{K}$-espacio vectorial f.g., y $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$, decimos que $(k_1,k_2,\ldots,k_n)$ son las coordenadas del $\vec{v}$ respecto de la base $B$, si $$\vec{v}=k_1\vec{v}_1+k_2 \vec{v}_2+\ldots+k_n\vec{v}_n$$

Un resultado muy interesante:

Un conjunto de $m$ vectores de $V$, $\mathbb{K}$-espacio vectorial f.g., es libre sii el rango de la matriz cuyas filas son las coordenadas de los $m$ vectores es $m$.

En consecuencia:

Dado un conjunto de $m$ vectores de $V$, $\mathbb{K}$-espacio vectorial f.g., y dada $M$ la matriz cuyas filas son las coordenadas de los $m$ vectores, respecto de la misma base. Sea $M^*$ la matriz semejante escalonada, entonces los escalones no cero se corresponde a los vectores de la matriz $M$ linealmente independientes, y los escalones cero se corresponde a los vectores linealmente dependientes del resto.

Un subespacio vectorial es un subconjunto de un espacio vectorial, que satisface por sí mismo la definición de espacio vectorial con las mismas operaciones que en el espacio vectorial.

Un resultado práctico que nos ayudará a determinar los subespacios vectoriales es el siguiente:

Si $V$ es un $\mathbb{K}$-espacio vectorial, entonces un subconjunto no vacío $S$ de $V$ es un subespacio vectorial si y sólo si para cualesquiera dos vectores $\vec{v}, \vec{w}\in S$ y cualesquiera escalares $\lambda,\mu\in\mathbb{K}$, pertenecientes al cuerpo asociado, entonces el vector $\lambda\vec{v}+\mu\vec{w}\in S$.

Un subespacio interesante es el sistema generador de un conjunto de vectores: dados $\vec{v}_1,\ldots, \vec{v}_n\in V$ definimos el sistema generador como $$<\vec{v}_1,\ldots, \vec{v}_n>=\{k_1\vec{v}_1+\cdots+k_n\vec{v}_n\in V; k_i\in \mathbb{K}\}$$
Es sencillo probar que es un subespacio vectorial de $V$.

Recordemos que todo sistema generador contiene una base; con lo cual, conseguir una base de un subespacio es tan fácil como hallar un sistema generador del subespacio y reducir los vectores hasta conseguir que formen un sistema libre.

Estudiamos la unión de dos subespacios. En la gran mayoría de los casos la unión de dos subespacios no es un subespacio, pues no se cumple con la ley de composición interna. Sí lo será cuando uno de los subespacios está contenido en el otro. La manera de verlo es estudiando el rango de la matriz que formamos con los vectores de las bases de ambos subespacios: si el rango de esa matriz coincide con la dimensión de uno de los subespacios, entonces si se cumple que uno de ellos está contenido en el otro.

Hemos tratado las posibilidades que se presenta cuando tenemos dos subespacios vectoriales del mismo K-espacio vectorial. Así si $S$ y $T$ son subespacios de $V$ $K$-e.v.f.g., podemos encontrar $S\cup T$, $S\cap T$, $S+T$.

Recordemos que la unión de subespacios no tiene por qué ser un subespacio, de hecho solo lo será si uno está contenido en el otro ($S\subseteq T$ ó $T\subseteq S$).

En el caso de $S\cap T$ y $S+T$ siempre son subespacios vectoriales (pruebese).

En el caso de una suma $S+T$ puede darse el caso que sea directa si, y solo si, $S\cap T=\vec{0}$, en ese caso suele indicarse como $S\oplus T$.

Un caso particular son los subespacios suplementarios, aquellos $S’$ tales que dado un subespacio $S\subseteq V$ $K$-e.v.f.g., cumple que $S\oplus S’=V$. En tal caso, decimos que $S’$ es suplementario de $S$, y viceversa.

Para terminar enunciamos la fórmula de las dimensiones, o fórmula de Gassman, que nos permite afirmar que

$$dim(S)\, +\, dim(T)=dim(S+T)\,+\, dim(S\cap T).$$

 

Ejercicio: ¿Cuál de las siguiente conjuntos no es un espacio vectorial?.
a)El conjunto de los polinomios de variable real con coeficiente reales, $\mathbb{R}[X]$, con la suma y el producto por escalares reales; ;
b)El conjunto de los polinomios de variable racional con coeficiente racionales, $\mathbb{Q}[X]$, con la suma y el producto por escalares racionales;
c)El conjunto de los polinomios de variable irracional con coeficiente irracionales, $\mathbb{I}[X]$, con la suma y el producto por escalares irracionales.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Subespacios vectoriales

ALG: Espacios vectoriales

El pasado día vimos definiciones de grupo, anillo y cuerpo. Las tres son extensiones para poder construir las estructuras con las que trabajaremos. Otra muy especial es la de Espacio Vectorial sobre un cuerpo.

Un espacio vectorial, $V$, sobre un cuerpo,$\mathbb{K}$, será una terna, $(V,+,\cdot)$, que verifica:

  1. $(V,+)$ es un grupo conmutativo
  2. Existe una aplicación, $\cdot\,:\mathbb{K}\times V\to V$,(denominada producto por escalar) que cumple
    1. $ a\cdot (b\cdot \mathbf {v} )=(ab)\cdot \mathbf {v} \quad \forall a,b\in \mathbb{K}\;\forall \mathbf {v} \in V$
    2. Si 1 es el elemento neutro para la multiplicación en $\mathbb{K}$, entonces, $1\cdot \mathbf {v} =\mathbf {v} \quad \forall \mathbf {v} \in V$
    3. $a\cdot (\mathbf {v} +\mathbf {w} )=(a\cdot \mathbf {v} )+(a\cdot \mathbf {w} )\quad \forall a\in \mathbb{K}\;\forall \mathbf {v} ,\mathbf {w} \in V$
    4. $(a+b)\cdot \mathbf {v} =(a\cdot \mathbf {v} )+(b\cdot \mathbf {v} )\quad \forall a,b\in \mathbb{K}\;\forall \mathbf {v} \in V$

Nos manejaremos con más asiduidad con los subesapcios vectoriales.

Sea $V$ un espacio vectorial sobre $\mathbb{K}$, y $U\subset V$ no vacío, $U$ es un subespacio vectorial de $V$ si:

  1. $\forall \mathbf {v},\mathbf {u} \in U$, $\mathbf {v}+\mathbf {u} \in U$
  2. $\forall \mathbf {u}\in U$, $\forall a\in \mathbb{K}$, $a\mathbf {u}\in U$

También haremos hincapié en:

  • Sistema generador
  • Combinación lineal
  • Dependencia lineal
  • Base

Para este tema podéis consultar el libro
ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

nos planteamos si un vector cualesquiera pertenece a un sistema generador, o si dentro de los vectores que forman el sistema generador hay alguno que a su vez pertenece a un subconjuntos de vectores del sistema.

Cualquier vector perteneciente a un sistema generador,$\vec{v}\in <\vec{v}_1,\ldots, \vec{v}_n>$ decimos que es combinación lineal de los vectores del sistema. En general, un vector $\vec{v}$ decimos que es combinación lineal de un conjunto de vectores $\vec{v}_1,\ldots, \vec{v}_n$,
$$\vec{v}\in <\vec{v}_1,\ldots, \vec{v}_n>$$

Un conjunto de vectores de un espacio vectorial, $\vec{v}_1,\ldots, \vec{v}_n\in V$ , decimos que es libre si ningún vector es combinación vectorial de los restantes; dicho de otro modo, si los únicos escalares, $k_1,k_2,…,k_n\in\mathbb{K}$, tales que justifican,
$$k_1\vec{v}_1+\cdots +k_n \vec{v}_n=\vec{0},$$
son $k_1=k_2=\ldots=k_n=0$.

Indistintamente decimos sistema libre o vectores linealmente independientes. Y un conjunto que no cumple esa propiedad le denominamos linealmente dependientes; es decir, algún vector es combinación lineal de los otros.

Dentro de los espacio vectoriales nos interesan, particularmente, aquellos que pueden ser generados por un conjunto de vectores finitos, los llamamos espacios vectoriales finitamente generados. Estos espacios tienen la peculiaridad de tener un un subconjunto de vectores, de los vectores que generan todo el espacio, que además son linealmente independientes. Este conjunto es muy importante y le llamamos base de un espacio vectorial: es decir, un conjunto de vectores del espacio que es

  • sistema generador, y
  • linealmente independiente

Al número de vectores de una base de denominamos dimensión del espacio vectorial. Recordemos que siempre estamos tratando con $\mathbb{K}$-e.v finitamente generados.

Uno de los principales resultados es que en todo $\mathbb{K}$-e.v finitamente generados podemos encontrar una base. Así, pues, en un $\mathbb{K}$-e.v finitamente generado de dimensión $n$ un conjunto de $n$ vectores linealmente independiente siempre son base. Además la base no tiene por qué ser única.

 

Ejercicio: ¿Cuál de las siguiente aplicaciones no es un homomorfismo de grupos?.
a)$f:(\mathbb{Z},+)\to(\mathbb{R}_0^+,\cdot)$, donde $f(n)=e^n$;
b)$g:(\mathbb{Q}_0,*)\to(\{1,-1\}),*)$, donde $g(a)=(-1)^a$;
c) $h:(\mathbb{R}^2,+)\to(\mathbb{R}[X],+)$, donde $h(a_1,a_2)=a_1+a_2X$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Espacios vectoriales

ALG: Homomorfismo, Anillos y cuerpos

Definimos un homomorfismo entre grupos como una aplicación que conserva la operación interna; es decir, sean $(G_1,*)$ y $(G_2,\circ)$ dos grupos, y $f$ una aplicación $f:G_1\to G_2$. $f$ es un homomorfismo si verifica: $$f(v*w)=f(v)\circ f(w).$$

Establecer un homomorfimos entre dos grupos no permite utilizar ciertas propiedades muy útiles:

Dados los grupos $(G_1,*)$ y $(G_2,\circ)$, $f:G_1\to G_2$, si existe un homomorfismo entre ellos se cumple:

  • $f(e_{G_1})=e_{G_2}$, siendo $e_{G_1}$ y $e_{G_2}$ los elementos neutros de $G_1$ y $G_2$, respectivamente
  • $f(a^{-1})=(f(a))^{-1}, \forall a\in G_1 $

Otra definición muy interesante es la de núcleo de un homomorfismo. Definimos núcleo de un homomorfismo,$f:G_1\to G_2$, y lo notaremos como $Ker(f)$, al conjunto
$$Ker(f)=\{a\in G_1;\, f(a)=e_{G_2}\}$$

Propiedad: Si $f:G_1\to G_2$, es un homomorfismo entre los grupos $(G_1,*)$ y $(G_2,\circ)$, entonces es inyectivo si, y solo si, $Ker(f)=\{e_{G_1}\}$

A un homomorfismo inyectivo lo llamamos monomorfismo. Si es suprayectivo se denomina epimorfismo, y en caso de ser ambos es isomorfismo.

Para este tema podéis consultar el libro

  • ÁLGEBRA BÁSICA Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Un anillo es una terna (A, +, •), donde A es un conjunto no vacío y + y • son operaciones internas en A, en donde (A, +) es un grupo abeliano y • es una operación asociativa y distributiva bilátera respecto de +. Suele denominarse «suma» y «producto» a las operaciones + y •, respectivamente. En esta convención, el elemento neutro de la suma se designa como 0 y el opuesto con respecto a la suma de un elemento a, perteneciente al conjunto A dado, se denota como –a.

El producto en un anillo no necesariamente tiene una operación inversa definida. Si el producto es conmutativo, tal anillo se denomina «anillo conmutativo». Además, si existe un elemento neutro para el producto, se dice que el anillo es unitario ya que, en este caso, se emplea el número 1 para designar al elemento neutro del producto.

Un cuerpo es un anillo en el cual existe un elemento neutro y el inverso para el producto.

Comentando anillo como $\mathbb{R}[X]$,el anillo de los polinomios de coeficientes reales. En este anillo vemos como podemos definir cero de un polinomio y determinar la factorización de todo polinomio real en polinomios de 1 o 2 grados.

Viendo el anillo $\mathbb{C}[X]$, enunciamos el teorema fundamental del álgebra. Llegando a la conclusión que todo polinomio real puede tener raíces reales y complejas, apareciendo estas por pares cuando las hay. Una de las conclusiones obtenidas es que todo polinomio real de grado impar tiene, al menos, una raíz real.

La definición de un homomorfismo entre grupos podemos extenderla a un anillo. Un homomorfismo de anillos será una aplicación $f:(A_1,+,\cdot)\to (A_2,\oplus,*)$ que verifica:
$$
\begin{array}{ll}
i) & f(v+w)=f(v)\oplus f(w)\\
ii) & f(v\cdot w)=f(v) * f(w)
\end{array}
$$

Para este tema podéis consultar el libro

  • ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Además aquí disponéis de link instructivos:

 

Ejercicio: ¿Cuál de los siguiente conjuntos no tiene estructura de grupo?.
a)$(\mathbb{R},*)$, donde $x*y=x+y+4$;
b)$(\{1,-1\}),*)$, donde $1*(-1)=(-1)*1=-1$;
c) $(\mathbb{R},*)$, donde $x*y=x+y-xy$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Homomorfismo, Anillos y cuerpos

ALG: Relaciones, operaciones internas y grupos

Cuando trabajamos con conjuntos tratamos de buscar características que puedan equipara unos con otros, para eso definimos unos tipos de conjuntos especiales, que cumplen determinadas propiedades. Con este fin comenzamos por definir una ley de composición interna, u operación interna, en un conjunto, utilizando las relaciones de equivalencia:

  • Relaciones de equivalencia
    • Por ejemplo “Tener el mismo resto al dividir por 5″ es una relación de equivalencia entre los números enteros.
  • Leyes de composición internas(operación interna), elemento neutro,elemento simétrico.
    • Un ejemplo sería el conjunto de los números reales con la operación interna, ∗, dada por a∗b=a+b−ab, preguntándonos si es una ley de composición interna; si tiene elemento neutro, simétrico…
    • Otros ejemplos podéis verlos en Ley de Composicion Interna

Las definiciones de conjuntos y operaciones internas nos permiten establecer una de las estructuras básicas con las que trabajaremos: Grupo

Así definimos un grupo como una estructura algebraica formada por un conjunto no vacío dotado de una operación interna que combina cualquier par de elementos para componer un tercero, dentro del mismo conjunto y que satisface las propiedades asociativa, existencia de elemento neutro y simétrico. Es decir, $G$ con la operación interna $\circ$, $(G,\circ)$, es un grupo sí

  • $\circ$ es asociativa
  • Exite $e\in G$, tal que para todo $a\in G$, es $e\circ a=a\circ e=a$
  • Para todo $a\in G$, existe $b\in G$ tal que $b\circ a=a\circ b=e$

Si existe un elemento $b\in G$, tal que $b\circ a=a\circ b=e$, donde $e\in G$ es el elemento neutro de $G$, se dice que $b$ es el simétrico de $a$. En caso que utilicemos la notación aditiva, al simétrico se le designa por opuesto y se escribe como $-a$. Y si utilizamos la notación multiplicativa, al simétrico se le dice inverso y se escribe como $a^{-1}$.

Igual que hemos definido un grupo podemos definir un subgrupo, como un subconjunto en que al restringir las operaciones a sus elementos verifica las propiedades de grupos. El siguiente resultado nos lo resumen

Proposición: Sea $S\subseteq G$, donde $(G,\circ)$ es un grupo, entonces $(S,\circ)$ es un subgrupo de $(G,\circ)$ sii
$a,b\in S\Rightarrow a\circ b^{-1}\in S$

Para este tema podéis consultar el libro

  • ÁLGEBRA BÁSICA Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook
Ejercicio: Se puede probar por inducción que:
a)Si $A=\left[\begin{smallmatrix}1& -1\\ 0&1\end{smallmatrix}\right]\Rightarrow A^n=\left[\begin{smallmatrix}1& n\\ 0& 1\end{smallmatrix}\right]$;
b)Si $A=\left[\begin{smallmatrix}1& 1 &1\\ 0&1&0\\ 0&0&1\end{smallmatrix}\right]\Rightarrow A^n=\left[\begin{smallmatrix}1& n &n\\ 0&1&0\\ 0&0&1\end{smallmatrix}\right]$;
c)Si $A=\left[\begin{smallmatrix}i& 1\\ 0&i\end{smallmatrix}\right]\Rightarrow A^n=\left[\begin{smallmatrix}i^n& n\\ 0&i^n\end{smallmatrix}\right]$.
d)Ninguna se puede probar por inducción.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Relaciones, operaciones internas y grupos