EFM: ED lineal homogénea

Definimos una ecuación diferencia lineal homogénea de grado $n$, como una ecuación de la forma $$a_{n}(x)\frac{d^n}{dx^n}y+a_{n}(x)\frac{d^{n-1}}{dx^{n-1}}y+\ldots +a_1(x)y’+a_0(x)y=0.$$

En nuestro caso nos centraremos en ecuaciones donde los coeficientes $a_i(x)$ son constantes.

Para resolverlas necesitamos la ecuación característica de la ED, que se construye de la forma:
$$a_{n} \lambda^n+a_{n}\lambda^{n-1}+\ldots +a_1\lambda+a_0=0.$$
Esta es una ecuacion de coeficientes reales que se resuelve en el cuerpo de los números complejos. La solución de esta ecuación da la solución de la ED.

El caso más sencillo es cuando la ecuación característica de la ED homogénea tiene todas las soluciones reales y distintas. Entonces la ED tendrá por solución
$$y=c_1e^{\lambda_1x}+c_2e^{\lambda_2x}+c_3e^{\lambda_3x}+\ldots+c_ne^{\lambda_nx}.$$

Con la idea de analizar la solución de una ED Homogénea de cualquier orden, veamos como lo hacemos con una de orden dos.

Para resolver este problema necesitamos las soluciones de la ecuación característica de la ED. Si lo vemos para $$a_2y”+a_1y’+a_0y=0,$$ resultará: $$a_2\lambda^2+a_1\lambda+a_0=0.$$

Las soluciones de esta ecuación dan la solución general. Para ello atendemos a estos criterios:

-Si tenemos dos soluciones reales y distintas $\lambda_1,\lambda_2\in\mathbb{R}$: $$y=c_1e^{\lambda_1x}+c_2e^{\lambda_2x}.$$

-Si tenemos dos soluciones reales iguales $\lambda_1=\lambda_2\in\mathbb{R}$: $$y=(c_1+c_2x)e^{\lambda_1x}.$$

-Si tenemos dos soluciones complejas $\lambda_1=\alpha+i\beta,\lambda_2=\alpha-i\beta$: $$y=c_1e^{\alpha x}\cos(\beta x)+c_2e^{\alpha x}\sin(\beta x).$$

Ejercicio: Calcula la solución de la ecuación $y^{iii)}-y”+4y’-4y=0$
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: ED lineal homogénea

ALG: Aplicaciones lineales

Al hablar de grupos se introdujo la definición de homomorfismo y con ella la de núcleo. Ahora extendemos esta definición a espacios vectoriales para definir la aplicación lineal: un homomorfismo entre espacios vectoriales. Así diremos que una aplicación (en algunos libros le dicen Transformación) entre dos espacios vectoriales, $f:V\to W$, sobre el mismo cuerpo$\mathbb{K}$, es lineal si se cumple que para todo par de vectores $\vec{v},\vec{u}\in V$ y todo par de escalares $\lambda,\mu\in\mathbb{K}$ se verifica que: $$f(\lambda\vec{v}+\mu\vec{u})=\lambda f(\vec{v})+\mu f(\vec{u}).$$

Para este tema podéis consultar el capítulo 6 del libro ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Dada una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales definimos la matriz asociada de la aplicación respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordendas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$; es decir, si $B_V=\{\vec{v}_1,\ldots,\vec{v}_n\}$, $B_W=\{\vec{w}_1,\ldots,\vec{w}_m\}$, y
$$
\begin{matrix}
f(\vec{v}_1)=k_{11}\vec{w}_1+k_{21}\vec{w}_2+k_{31}\vec{w}_3+\ldots+k_{m1}\vec{w}_m;\\
f(\vec{v}_2)=k_{12}\vec{w}_1+k_{22}\vec{w}_2+k_{32}\vec{w}_3+\ldots+k_{m2}\vec{w}_m;\\
f(\vec{v}_3)=k_{13}\vec{w}_1+k_{23}\vec{w}_2+k_{33}\vec{w}_3+\ldots+k_{m3}\vec{w}_m;\\
\vdots \quad \vdots \quad \vdots\\
f(\vec{v}_n)=k_{1n}\vec{w}_1+k_{2n}\vec{w}_2+k_{3n}\vec{w}_n+\ldots+k_{mn}\vec{w}_m;
\end{matrix}
$$
llamamos matriz asociada de $f$, a la matriz
$$
M_f=\begin{pmatrix}
k_{11} & k_{12} & k_{13} &\ldots & k_{1m}\\
k_{21} & k_{22} & k_{23} &\ldots & k_{2m}\\
k_{31} & k_{32} & k_{33} &\ldots & k_{3m}\\
\vdots & \vdots & \vdots & \ldots & \vdots \\
k_{n1} & k_{n2} & k_{n3} &\ldots & k_{nm}\\
\end{pmatrix}
$$

Así vemos como una matriz puede representar una aplicación lineal. De hecho podemos establecer una aplicación entre el conjunto de aplicaciones lineales entre dos $\mathbb{K}$-espacios vectoriales $V$ y $W$, de dimensiones $n$ y $m$ (respectivamente) y el espacio vectorial de las matrices $M_{m\times n}(\mathbb{K})$ que sea un isomorfismo de espacios vectoriales; es decir, una aplicación lineal biyectiva. Esto nos equipara las operaciones con aplicaciones a las operaciones con sus matrices asociadas.

Sabemos que si $M_f$ es la matriz asociada a la aplicación lineal $f:V\to W$, entonces
$$f(v_1,v_2,\ldots,v_n)=(w_1,w_2,\ldots,w_m)\Leftrightarrow M_f \begin{pmatrix}v_1\\v_2\\ \vdots\\v_n\end{pmatrix}=\begin{pmatrix}w_1\\w_2\\ \vdots\\w_n\end{pmatrix}.$$

Esto nos permite deducir propiedades de la aplicación con sus correspondientes en la matriz. Por ejemplo, una aplicación lineal entre dos espacios vectoriales de la misma dimensión es un isomorfismo si, y solo si, su matriz asociada es regular.

Así, podemos considerar la matriz asociada a una aplicación lineal, $f:V\to W$, entre dos espacios vectoriales respecto de una base $B_V\subseteq V$ como la matriz cuyas columnas son las coordenadas respecto de otra base $B_W\subseteq W$ de las imágenes de los vectores de $B_V$. ¿Y si cambiamos las bases? Es decir, si tengo nuevas bases $B’_V$ y $B’_W$, y deseo encontrar la relación entre la matriz asociada aplicación $M_{f_{B_VB_W}}$, y la matriz $M_{f_{B’_VB’_W}}$. Esa relación nos la ofrece el siguiente gráfico:

cambio_base_apli

En este diagrama $A=M_{f_{B_VB_W}}$ y $C=M_{f_{B’_VB’_W}}$ es la matriz que desconocemos y buscamos. $P=M_{B’_VB_V}$ es la matriz del cambio de base de $B’_V$ a $B_V$ y $Q=M_{B’_WB_W}$. Así la matriz que buscamos es $$C=Q^{-1}\,A\,P.$$

Como habitualmente tratamos los espacios vectoriales $\mathbb{R}^n$ (recordad que todo espacio vectorial finitamente generado, de dimensión $n$, es isomorfo a $\mathbb{R}^n$), este gráfico se representaría como

matriz_aplic_base

donde $E_n$ y $E_m$ son las bases canónicas respectivas.

Ejercicio: Dada la aplicación lineal entre los polinomios de grado 3 o menos, que a cada polinomio le hace corresponder f(p)=p’-p. Calcular su matriz asociada respecto de la base $\{1,1-x,1-x^2,1-x^3\}$
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Aplicaciones lineales

ALG: Cambio de base

Recordemos que todo espacio vectorial finitamente generado tiene una base. Sea $V$ nuestro $\mathbb{K}$-espacio vectorial y $\mathcal{B}=\{\vec{v}_1,\ldots, \vec{v}_n\}$, una base del mismo. Para cualquier vector de $V$, $\vec{v}\in V$, existirán unos únicos escalares $k_i\in \mathbb{K}$, tales que
$$\vec{v}=k_1\vec{v}_1+k_2\vec{v}_2+\cdots+k_n\vec{v}_n.$$
Pues bien, a esos escalares los denominamos coordenadas de $\vec{v}$ respecto de la base $\mathcal{B}$. Así, representado mediante sus coordenadas, expresamos que
$$\vec{v}=\begin{bmatrix}k_1\\ k_2\\ \vdots \\ k_n\end{bmatrix}_\mathcal{B}$$
Qué ocurre si tenemos otra base $\mathcal{B}’$, entonces las coordenadas de $\vec{v}$ serán otras, pero habrá una relación entre ambas. Vamos a utilizar las matrices para encontrar la relación entre ambas coordenadas.

Cuando tenemos dos bases podemo calcular cómo pasar de las coordenadas de una base a la otra. Para ello utilizamos la matriz del cambio de base.

Veamos cómo podemos calcular esta matriz del cambio de base. Sólo tenemos que darnos cuenta como representamos los vectores respecto de cada base. Pongamos dos bases $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ y $B’=\{\vec{u}_1,\vec{u}_2,\ldots,\vec{u}_n\}$. Que un vector cualquiera $\vec{w}$ tenga por coordenadas $(c_1,c_2,\ldots,c_n)_{B}$ respecto de la base $B$ significa que

$$\vec{w}=c_1\vec{v}_1+c_2\vec{v}_2+\ldots+c_n\vec{v}_n$$

Si cada $\vec{v}_i$ tiene por coordenadas respecto de una base canónica $(v_{1i},v_{2i},\ldots,v_{ni},)$, podemos escribir lo anterior en forma matricial:

$$\vec{w}=\begin{bmatrix}
v_{11} &v_{12}&v_{13}&\cdots &v_{1n}\\
v_{21} &v_{22}&v_{23}&\cdots &v_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
v_{n1} &v_{12}&v_{13}&\cdots &v_{1n}\\
\end{bmatrix}\begin{bmatrix}c_1\\c_2\\c_3\\ \vdots \\c_n \end{bmatrix}_{B}$$

Del mismo modo que $\vec{w}$ tenga por coordenadas $(c’_1,c’_2,\ldots,c’_n)_{B’}$ respecto de la base $B’$ significa que

$$\vec{w}=c’_1\vec{u}_1+c’_2\vec{u}_2+\ldots+c’_n\vec{u}_n$$
Escrito en forma matricial
$$\vec{w}=\begin{bmatrix}
u_{11} &u_{12}&u_{13}&\cdots &u_{1n}\\
u_{21} &u_{22}&u_{23}&\cdots &u_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
u_{n1} &u_{12}&u_{13}&\cdots &u_{1n}\\
\end{bmatrix}\begin{bmatrix}c’_1\\c’_2\\c’_3\\ \vdots \\c’_n \end{bmatrix}_{B’}$$

La igualdad de ambos productos nos ofrece la posibilidad de conocer las coordenadas de un vector una base respecto de la otra:

$$\begin{bmatrix}
v_{11} &v_{12}&v_{13}&\cdots &v_{1n}\\
v_{21} &v_{22}&v_{23}&\cdots &v_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
v_{n1} &v_{12}&v_{13}&\cdots &v_{1n}\\
\end{bmatrix}\begin{bmatrix}c_1\\c_2\\ \vdots \\c_n \end{bmatrix}_{B}=\begin{bmatrix}
u_{11} &u_{12}&u_{13}&\cdots &u_{1n}\\
u_{21} &u_{22}&u_{23}&\cdots &u_{2n}\\
\vdots & \vdots & \vdots &\cdots & \vdots\\
u_{n1} &u_{12}&u_{13}&\cdots &u_{1n}\\
\end{bmatrix}\begin{bmatrix}c’_1\\c’_2\\ \vdots \\c’_n \end{bmatrix}_{B’}$$
Si el sistema matricial lo escribimos así: $P\, C_{B}=Q\,C’_{B’}$, tendremos
$$C_{B}=(P^{-1}Q)\,C’_{B’},$$ o $$(Q^{-1}P)\,C_{B}=C’_{B’}.$$

A la matriz $Q^{-1}P$, la llamamos matriz del cambio de bases de $B$ a $B’$, y la notamos como $$C_{BB’}=Q^{-1}P.$$
Como se observa $C_{B’B}$ es la inversa de $C_{BB’}$.

Para calcular la matriz del cambio de bases podemos utilizar un resultado que nos dice: si a la matriz ampliada $[Q|P]$ le hacemos transformaciones elementales por fila, de modo que obtengamos
$$[Q|P]\to [I_n|C],$$
entonces la matriz $C=C_{BB’}$.

 

Ejercicio: Consideremos el conjunto de todos los polinomio reales de grado menor igual que 3, $P_3[X]$, como $\mathbb{R}-e.v.$, determinar las coordenadas del polinomio $p=3-x+4x^2$, dado en la base canónica, respecto de la base $B=\{2,x-1,x-x^2,2x^2-x^3\}$.
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Cambio de base

EFM: Autovectores y autovalores

Comenzamos explicado que son los valores y vectores propios, o autovalores y autovectores, de una matriz y.

Hemos aprendido a calcular los autovalores de una matriz cuadrada. Recordad que para nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{K})$, donde $\mathbb{K}$ es $\mathbb{R} ó \mathbb{C}$, la matriz cuadrada y $I$ la indentidad en $\mathcal{C}_n(\mathbb{K})$.

El polinomio p(λ) = det(A – λI) es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico (soluciones de la ecuación característica).

 

Ejercicio: Calcular los valores propios de la matriz real $$\begin{bmatrix}0 & 1 & -1 \\ 1 & 1 & 0 \\ -1 & 0 & 1 \end{bmatrix}$$
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: Autovectores y autovalores

ALG: Subespacios vectoriales

La definición de base del pasado día nos da pie a definir las coordenadas de un vector respecto de una base. Así, si $\vec{v}\in V$, donde $V$ es un $\mathbb{K}$-espacio vectorial f.g., y $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$, decimos que $(k_1,k_2,\ldots,k_n)$ son las coordenadas del $\vec{v}$ respecto de la base $B$, si $$\vec{v}=k_1\vec{v}_1+k_2 \vec{v}_2+\ldots+k_n\vec{v}_n$$

Un resultado muy interesante:

Un conjunto de $m$ vectores de $V$, $\mathbb{K}$-espacio vectorial f.g., es libre sii el rango de la matriz cuyas filas son las coordenadas de los $m$ vectores es $m$.

En consecuencia:

Dado un conjunto de $m$ vectores de $V$, $\mathbb{K}$-espacio vectorial f.g., y dada $M$ la matriz cuyas filas son las coordenadas de los $m$ vectores, respecto de la misma base. Sea $M^*$ la matriz semejante escalonada, entonces los escalones no cero se corresponde a los vectores de la matriz $M$ linealmente independientes, y los escalones cero se corresponde a los vectores linealmente dependientes del resto.

Un subespacio vectorial es un subconjunto de un espacio vectorial, que satisface por sí mismo la definición de espacio vectorial con las mismas operaciones que en el espacio vectorial.

Un resultado práctico que nos ayudará a determinar los subespacios vectoriales es el siguiente:

Si $V$ es un $\mathbb{K}$-espacio vectorial, entonces un subconjunto no vacío $S$ de $V$ es un subespacio vectorial si y sólo si para cualesquiera dos vectores $\vec{v}, \vec{w}\in S$ y cualesquiera escalares $\lambda,\mu\in\mathbb{K}$, pertenecientes al cuerpo asociado, entonces el vector $\lambda\vec{v}+\mu\vec{w}\in S$.

Un subespacio interesante es el sistema generador de un conjunto de vectores: dados $\vec{v}_1,\ldots, \vec{v}_n\in V$ definimos el sistema generador como $$<\vec{v}_1,\ldots, \vec{v}_n>=\{k_1\vec{v}_1+\cdots+k_n\vec{v}_n\in V; k_i\in \mathbb{K}\}$$
Es sencillo probar que es un subespacio vectorial de $V$.

Recordemos que todo sistema generador contiene una base; con lo cual, conseguir una base de un subespacio es tan fácil como hallar un sistema generador del subespacio y reducir los vectores hasta conseguir que formen un sistema libre.

Estudiamos la unión de dos subespacios. En la gran mayoría de los casos la unión de dos subespacios no es un subespacio, pues no se cumple con la ley de composición interna. Sí lo será cuando uno de los subespacios está contenido en el otro. La manera de verlo es estudiando el rango de la matriz que formamos con los vectores de las bases de ambos subespacios: si el rango de esa matriz coincide con la dimensión de uno de los subespacios, entonces si se cumple que uno de ellos está contenido en el otro.

Hemos tratado las posibilidades que se presenta cuando tenemos dos subespacios vectoriales del mismo K-espacio vectorial. Así si $S$ y $T$ son subespacios de $V$ $K$-e.v.f.g., podemos encontrar $S\cup T$, $S\cap T$, $S+T$.

Recordemos que la unión de subespacios no tiene por qué ser un subespacio, de hecho solo lo será si uno está contenido en el otro ($S\subseteq T$ ó $T\subseteq S$).

En el caso de $S\cap T$ y $S+T$ siempre son subespacios vectoriales (pruebese).

En el caso de una suma $S+T$ puede darse el caso que sea directa si, y solo si, $S\cap T=\vec{0}$, en ese caso suele indicarse como $S\oplus T$.

Un caso particular son los subespacios suplementarios, aquellos $S’$ tales que dado un subespacio $S\subseteq V$ $K$-e.v.f.g., cumple que $S\oplus S’=V$. En tal caso, decimos que $S’$ es suplementario de $S$, y viceversa.

Para terminar enunciamos la fórmula de las dimensiones, o fórmula de Gassman, que nos permite afirmar que

$$dim(S)\, +\, dim(T)=dim(S+T)\,+\, dim(S\cap T).$$

Ejercicio:Probar que el conjunto $$C=\left\{\left.\begin{pmatrix}a & -b \\ b & a\end{pmatrix}\right|a,b\in\mathbb{R}\right\}$$ es un subespacio vectorial del conjunto de las matrices reales de orden 2.
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Subespacios vectoriales

ALG: Espacios vectoriales

El pasado día vimos definiciones de grupo, anillo y cuerpo. Las tres son extensiones para poder construir las estructuras con las que trabajaremos. Otra muy especial es la de Espacio Vectorial sobre un cuerpo.

Un espacio vectorial, $V$, sobre un cuerpo,$\mathbb{K}$, será una terna, $(V,+,\cdot)$, que verifica:

  1. $(V,+)$ es un grupo conmutativo
  2. Existe una aplicación, $\cdot\,:\mathbb{K}\times V\to V$,(denominada producto por escalar) que cumple
    1. $ a\cdot (b\cdot \mathbf {v} )=(ab)\cdot \mathbf {v} \quad \forall a,b\in \mathbb{K}\;\forall \mathbf {v} \in V$
    2. Si 1 es el elemento neutro para la multiplicación en $\mathbb{K}$, entonces, $1\cdot \mathbf {v} =\mathbf {v} \quad \forall \mathbf {v} \in V$
    3. $a\cdot (\mathbf {v} +\mathbf {w} )=(a\cdot \mathbf {v} )+(a\cdot \mathbf {w} )\quad \forall a\in \mathbb{K}\;\forall \mathbf {v} ,\mathbf {w} \in V$
    4. $(a+b)\cdot \mathbf {v} =(a\cdot \mathbf {v} )+(b\cdot \mathbf {v} )\quad \forall a,b\in \mathbb{K}\;\forall \mathbf {v} \in V$

Nos manejaremos con más asiduidad con los subesapcios vectoriales.

Sea $V$ un espacio vectorial sobre $\mathbb{K}$, y $U\subset V$ no vacío, $U$ es un subespacio vectorial de $V$ si:

  1. $\forall \mathbf {v},\mathbf {u} \in U$, $\mathbf {v}+\mathbf {u} \in U$
  2. $\forall \mathbf {u}\in U$, $\forall a\in \mathbb{K}$, $a\mathbf {u}\in U$

También haremos hincapié en:

  • Sistema generador
  • Combinación lineal
  • Dependencia lineal
  • Base

Para este tema podéis consultar el libro
ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

nos planteamos si un vector cualesquiera pertenece a un sistema generador, o si dentro de los vectores que forman el sistema generador hay alguno que a su vez pertenece a un subconjuntos de vectores del sistema.

Cualquier vector perteneciente a un sistema generador,$\vec{v}\in <\vec{v}_1,\ldots, \vec{v}_n>$ decimos que es combinación lineal de los vectores del sistema. En general, un vector $\vec{v}$ decimos que es combinación lineal de un conjunto de vectores $\vec{v}_1,\ldots, \vec{v}_n$,
$$\vec{v}\in <\vec{v}_1,\ldots, \vec{v}_n>$$

Un conjunto de vectores de un espacio vectorial, $\vec{v}_1,\ldots, \vec{v}_n\in V$ , decimos que es libre si ningún vector es combinación vectorial de los restantes; dicho de otro modo, si los únicos escalares, $k_1,k_2,…,k_n\in\mathbb{K}$, tales que justifican,
$$k_1\vec{v}_1+\cdots +k_n \vec{v}_n=\vec{0},$$
son $k_1=k_2=\ldots=k_n=0$.

Indistintamente decimos sistema libre o vectores linealmente independientes. Y un conjunto que no cumple esa propiedad le denominamos linealmente dependientes; es decir, algún vector es combinación lineal de los otros.

Dentro de los espacio vectoriales nos interesan, particularmente, aquellos que pueden ser generados por un conjunto de vectores finitos, los llamamos espacios vectoriales finitamente generados. Estos espacios tienen la peculiaridad de tener un un subconjunto de vectores, de los vectores que generan todo el espacio, que además son linealmente independientes. Este conjunto es muy importante y le llamamos base de un espacio vectorial: es decir, un conjunto de vectores del espacio que es

  • sistema generador, y
  • linealmente independiente

Al número de vectores de una base de denominamos dimensión del espacio vectorial. Recordemos que siempre estamos tratando con $\mathbb{K}$-e.v finitamente generados.

Uno de los principales resultados es que en todo $\mathbb{K}$-e.v finitamente generados podemos encontrar una base. Así, pues, en un $\mathbb{K}$-e.v finitamente generado de dimensión $n$ un conjunto de $n$ vectores linealmente independiente siempre son base. Además la base no tiene por qué ser única.

Ejercicio:Probar que en el espacio vectorial sobre los reales de las funciones continuas, $\mathcal{C}[0,\pi]$, conjunto $C=\{f(x)=x^2,g(x)=e^x,h(x)=\sin(x)\}$ es un sistema libre.
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Espacios vectoriales

ALG: Anillos y cuerpos

El pasado día se introdujo los grupos, hoy hablaremos de Anillos y Cuerpos.

Un anillo es una terna (A, +, •), donde A es un conjunto no vacío y + y • son operaciones internas en A, en donde (A, +) es un grupo abeliano y • es una operación asociativa y distributiva bilátera respecto de +. Suele denominarse «suma» y «producto» a las operaciones + y •, respectivamente. En esta convención, el elemento neutro de la suma se designa como 0 y el opuesto con respecto a la suma de un elemento a, perteneciente al conjunto A dado, se denota como –a.

El producto en un anillo no necesariamente tiene una operación inversa definida. Si el producto es conmutativo, tal anillo se denomina «anillo conmutativo». Además, si existe un elemento neutro para el producto, se dice que el anillo es unitario ya que, en este caso, se emplea el número 1 para designar al elemento neutro del producto.

Un cuerpo es un anillo en el cual existe un elemento neutro y el inverso para el producto.

Comentando anillo como $\mathbb{R}[X]$,el anillo de los polinomios de coeficientes reales. En este anillo vemos como podemos definir cero de un polinomio y determinar la factorización de todo polinomio real en polinomios de 1 o 2 grados.

Viendo el anillo $\mathbb{C}[X]$, enunciamos el teorema fundamental del álgebra. Llegando a la conclusión que todo polinomio real puede tener raíces reales y complejas, apareciendo estas por pares cuando las hay. Una de las conclusiones obtenidas es que todo polinomio real de grado impar tiene, al menos, una raíz real.

La definición de un homomorfismo entre grupos podemos extenderla a un anillo. Un homomorfismo de anillos será una aplicación $f:(A_1,+,\cdot)\to (A_2,\oplus,*)$ que verifica:
$$
\begin{array}{ll}
i) & f(v+w)=f(v)\oplus f(w)\\
ii) & f(v\cdot w)=f(v) * f(w)
\end{array}
$$

Para este tema podéis consultar el libro

  • ÁLGEBRA LINEAL Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook

Además aquí disponéis de link instructivos:

 

Ejercicio: Probar que $(\mathbb{R},*)$, donde se define la ley de composición interna $*$ siguiente $$x * y=\sqrt[3]{x^3+y^3},$$ tiene estructura de grupo conmutativo.
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Anillos y cuerpos

EFM: Ecuaciones sin variable independiente

El pasado día ya hablemos de ellas. Hoy incidimos para explicarlas mejor.

Ahora las ecuaciones son de la forma $F(y,y’,y”)=0$, hacemos el cambio $y’=p$, con la difernecia siguiente:
$$\frac{d^2y}{dx^2}=\frac{dp}{dy}\,\,\frac{dy}{dx}=p\frac{dp}{dy},$$
obteniendo una función de primer orden $f(y,p,p’)=0$.

Ejercicio: Resolver la ecuación yy”=(y’)2.
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: Ecuaciones sin variable independiente

ALG: Homomorfismo

Además definimos un homomorfismo entre grupos como una aplicación que conserva la operación interna; es decir, sean $(G_1,*)$ y $(G_2,\circ)$ dos grupos, y $f$ una aplicación $f:G_1\to G_2$. $f$ es un homomorfismo si verifica: $$f(v*w)=f(v)\circ f(w).$$

Establecer un homomorfimos entre dos grupos no permite utilizar ciertas propiedades muy útiles:

Dados los grupos $(G_1,*)$ y $(G_2,\circ)$, $f:G_1\to G_2$, si existe un homomorfismo entre ellos se cumple:

  • $f(e_{G_1})=e_{G_2}$, siendo $e_{G_1}$ y $e_{G_2}$ los elementos neutros de $G_1$ y $G_2$, respectivamente
  • $f(a^{-1})=(f(a))^{-1}, \forall a\in G_1 $

Otra definición muy interesante es la de núcleo de un homomorfismo. Definimos núcleo de un homomorfismo,$f:G_1\to G_2$, y lo notaremos como $Ker(f)$, al conjunto
$$Ker(f)=\{a\in G_1;\, f(a)=e_{G_2}\}$$

Propiedad: Si $f:G_1\to G_2$, es un homomorfismo entre los grupos $(G_1,*)$ y $(G_2,\circ)$, entonces es inyectivo si, y solo si, $Ker(f)=\{e_{G_1}\}$

A un homomorfismo inyectivo lo llamamos monomorfismo. Si es suprayectivo se denomina epimorfismo, y en caso de ser ambos es isomorfismo.

Para este tema podéis consultar el libro

  • ÁLGEBRA BÁSICA Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook
Ejercicio: Probar que la aplicación $f:(\mathbb{Z},+)\to(\mathbb{R}_0,\cdot)$, definida mediante $$f(n)=e^n$$ es un homomorfismo de grupos.
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Homomorfismo

EFM: ED de segundo orden

Analizamos las ecuaciones diferenciales de segundo orden y, para estudiar unos casos sencillos, empezaremos con la resolución de dos tipos de ellas:

  • ecuaciones sin variable dependiente
  • ecuaciones sin variable independiente

Para el primer tipo, ecuaciones de la forma $F(x,y’,y”)=0$, hacemos el cambio $y’=p$, y, $y”=\frac{dp}{dx}$, obteniendo una función de primer orden $f(x,p,p’)=0$.

Ejercicio: Resolver la ecuación yy”+(y’)2-2yy’=0.
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: ED de segundo orden