ALG: Relaciones, operaciones internas y grupos

Cuando trabajamos con conjuntos tratamos de buscar características que puedan equipara unos con otros, para eso definimos unos tipos de conjuntos especiales, que cumplen determinadas propiedades. Con este fin comenzamos por definir una ley de composición interna, u operación interna, en un conjunto, utilizando las relaciones de equivalencia:

  • Relaciones de equivalencia
    • Por ejemplo “Tener el mismo resto al dividir por 5″ es una relación de equivalencia entre los números enteros.
  • Leyes de composición internas(operación interna), elemento neutro,elemento simétrico.
    • Un ejemplo sería el conjunto de los números reales con la operación interna, ∗, dada por a∗b=a+b−ab, preguntándonos si es una ley de composición interna; si tiene elemento neutro, simétrico…
    • Otros ejemplos podéis verlos en Ley de Composicion Interna

Las definiciones de conjuntos y operaciones internas nos permiten establecer una de las estructuras básicas con las que trabajaremos: Grupo

Así definimos un grupo como una estructura algebraica formada por un conjunto no vacío dotado de una operación interna que combina cualquier par de elementos para componer un tercero, dentro del mismo conjunto y que satisface las propiedades asociativa, existencia de elemento neutro y simétrico. Es decir, $G$ con la operación interna $\circ$, $(G,\circ)$, es un grupo sí

  • $\circ$ es asociativa
  • Exite $e\in G$, tal que para todo $a\in G$, es $e\circ a=a\circ e=a$
  • Para todo $a\in G$, existe $b\in G$ tal que $b\circ a=a\circ b=e$

Si existe un elemento $b\in G$, tal que $b\circ a=a\circ b=e$, donde $e\in G$ es el elemento neutro de $G$, se dice que $b$ es el simétrico de $a$. En caso que utilicemos la notación aditiva, al simétrico se le designa por opuesto y se escribe como $-a$. Y si utilizamos la notación multiplicativa, al simétrico se le dice inverso y se escribe como $a^{-1}$.

Igual que hemos definido un grupo podemos definir un subgrupo, como un subconjunto en que al restringir las operaciones a sus elementos verifica las propiedades de grupos. El siguiente resultado nos lo resumen

Proposición: Sea $S\subseteq G$, donde $(G,\circ)$ es un grupo, entonces $(S,\circ)$ es un subgrupo de $(G,\circ)$ sii
$a,b\in S\Rightarrow a\circ b^{-1}\in S$

Para este tema podéis consultar el libro

  • ÁLGEBRA BÁSICA Definiciones, Teoremas y Resultados, Juan De Burgos Román, ingebook
Ejercicio: Se puede probar por inducción que:
a)Si $A=\left[\begin{smallmatrix}1& -1\\ 0&1\end{smallmatrix}\right]\Rightarrow A^n=\left[\begin{smallmatrix}1& n\\ 0& 1\end{smallmatrix}\right]$;
b)Si $A=\left[\begin{smallmatrix}1& 1 &1\\ 0&1&0\\ 0&0&1\end{smallmatrix}\right]\Rightarrow A^n=\left[\begin{smallmatrix}1& n &n\\ 0&1&0\\ 0&0&1\end{smallmatrix}\right]$;
c)Si $A=\left[\begin{smallmatrix}i& 1\\ 0&i\end{smallmatrix}\right]\Rightarrow A^n=\left[\begin{smallmatrix}i^n& n\\ 0&i^n\end{smallmatrix}\right]$.
d)Ninguna se puede probar por inducción.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Relaciones, operaciones internas y grupos

ALG: Inducción matemática

Hoy hemos incidido en la inducción matemática. Recordemos que
el razonamiento para demostrar una proposición cualquiera mediante el esquema de inducción matemática es como sigue. Llamemos $P_n$ a la proposición, donde $n$ es el rango.

  • Se demuestra que $P_0$, el primer valor que cumple la proposición (iniciación de la inducción), es cierta.
  • Se demuestra que si se asume $P_k$ como cierta y como hipótesis inductiva, entonces $P_{k+1}$lo es también, y esto sin condición sobre el entero natural $n$ (relación de inducción).

Luego, demostrado esto, concluimos por inducción, que $P_n$ es cierto para todo natural $n$.

La inducción puede empezar por otro término que $P_0$, digamos por $P_{n_0}$. Entonces $P_n$ será válido a partir del número $n_0$, es decir, para todo natural $n \ge n_0$.

Ejercicio:¿Cuál de las siguientes igualdades no es cierta? a)${(A\cup B)}^{C}=\;{A}^{C}\cap {B}^{C}$; b) ${(A\cap B)}^{C}=\;{A}^{C}\cup {B}^{C}$; c) ${(A\cap B)}^{C}=\;{A}^{C}\cap {B}^{C}$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Inducción matemática

ALG: Conjuntos y Aplicaciones

Comenzamos el tema de Conjuntos y aplicaciones dando la definición de conjuntos con los que trabajaremos, y otras definiciones y propiedades, como

  • Conjuntos:
    • Subconjunto,
    • Partes de un conjunto,
    • Cardinalidad
    • Unión e Intersección de conjuntos
  • Aplicaciones:
    • Relación.
    • Dominio,
    • rango e imagen.
    • Aplicación inyectiva.
    • Aplicación suprayectivas.
    • Aplicación biyectivas.

Lectura recomendada: ÁLGEBRA BÁSICA, Conjuntos y Estructuras Algebraicas, […]

 

Ejercicio:¿Cuál de las siguientes aplicaciones es inyectiva: a)$f:\mathbb{R}\to\mathbb{Z}, f(x)=\lfloor x\rfloor$; b)$f:\mathbb{Z}\times\mathbb{Z}\to\mathbb{Q}, f(n,m)=\frac{n}{m}$; c)$f:\mathbb{Z}\to\mathbb{R}, f(n)=e^n$,
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Conjuntos y Aplicaciones

ALG: Criptografía basada en matrices

El propósito de hoy es ver cómo utilizamos las matrices para codificar un mensaje. En 1929, Lester S. Hill publicó un artículo en el que enseñaba a cómo utilizar el álgebra lineal para construir un sistema criptografico polialfabético que era práctico para trabajar con mas de tres símbolos simultáneamente. Este sistema polialfabético permitía dar un mismo carácter en un mensaje a enviar que se encripte en dos caracteres distintos en el mensaje encriptado. Este sistema se denomina Criptosistema de Hill y fue el detonante para los modernos sistemas criptográficos.

Os dejo unos ejemplos de cómo funciona:

 

Ejercicio:Sea $A$ una matriz y $AC=LU$ su factorización LU, de modo que $U=\begin{bmatrix}1&2\\ 0& 3\end{bmatrix}$ y $C=\begin{bmatrix}0&1\\ 1& 0\end{bmatrix}$ entonces el determinante de $A$ es: a) 3; b) -3; c) 0.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Criptografía basada en matrices

ALG: Factorización LU

La factorización LU es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior.

El propósito es dada una matriz $A$ conseguir descomponer esta en un producto $$\textbf{A}=\textbf{L}\textbf{U}$$ de manera $\textbf{L}$ sea triangular inferior y $\textbf{L}$ triangular superior.

Recordad que una operación elemental entre filas se puede considerar como una matriz. De esta manera Podemos realizar una serie de operaciones elementales entre filas para transformar la matriz de partida $A$, en una matriz escalonada (triangular superior). Es decir;
$$E_k\,E_{k-1}\cdots E_1\, \textbf{A}= \textbf{U}.$$
Como cada matriz $E_i$ es regular (por sus propiedades), entonces:
$$\textbf{A}= E_1^{-1}\, E_2^{-1}\cdots E_k^{-1}\, \textbf{U}$$
Así será
$$\textbf{L}=E_1^{-1}\, E_2^{-1}\cdots E_k^{-1}.$$
Es fácil comprobar que $L$ es triangular inferior. El propósito es que la diagonal principal de $L$ serán todo unos; así
$$|\textbf{A}|=|\textbf{L}\textbf{U}|=|\textbf{L}|\cdot|\textbf{U}|=\prod_{i=1}^nu_{ii}$$

Uno de los usos está en la posibilidad de resolver sistemas de ecuaciones. Consideremos queremos resolver el sistema de ecuaciones $$\textbf{A}x=\textbf{b},$$ donde $\textbf{A}\in\mathcal{M}_{n\times m}(\mathbb{K})$. Si conseguimos una factorización $$\textbf{A}=\textbf{L}\textbf{U},$$ donde $\textbf{L}\in\mathcal{M}_{n\times n}(\mathbb{K})$, y, $\textbf{U}\in\mathcal{M}_{n\times m}(\mathbb{K})$, resultará

$$\textbf{A}x=(\textbf{L}\textbf{U})x=\textbf{L}(\textbf{U}x)=\textbf{b}.$$
Para resolver el problema podemos afrontar la estrategia de resolver primero:
$$\textbf{L}y=\textbf{b},$$ para después
$$\textbf{U}x=\textbf{y}.$$

Como ambas matrices $\textbf{L}$ y $\textbf{U}$ son triangulares su solución es fácil mediante sustitución.

En ocasiones no es posible encontrar una factorización LU así; por ejemplo si nos aparece un cero en la diagonal principal de la matriz U. En tal caso debemos permutar las filas o columnas de la matriz $A$ para que no ocurra. Pero si lo hacemos debemos observar que ahora buscaremos una factorización de $PA$ no de $A$. Es decir, $$PA=LU.$$

Ejercicio:Si las matrices $A=\begin{bmatrix}1&2\\ 0& 3\end{bmatrix}$ y $B=\begin{bmatrix}3&0\\ 2& 1\end{bmatrix}$ son semejantes, su matriz de paso es: a) $\begin{bmatrix}-1&1\\ *& *\end{bmatrix}$; b) $\begin{bmatrix}1&1\\ *& *\end{bmatrix}$; c) No son semejantes.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Factorización LU

ALG: Menor y matriz adjunta

El pasado día vimos la definición de manera recursiva de un determinante. En ella definimos los menores de un elemento de una matriz, como los determinantes resultantes de la matriz que queda tras eliminar una fila y una columna.

Si consideramos $m_{ij}$ el menor del elemento $a_{ij}$ en la matriz $A$, decimos adjunto del elemento $a_{ij}$ en la matriz $A$, y lo notamos por $A_{ij}$, al resultado $$A_{ij}=(-1)^{i+j}m_{ij}.$$

En algunas bibliografías también lo llaman cofactor. Así la regla de Laplace quedaría como:

$$|A|=\sum_{k=1}^{n}a_{ik}A_{ik}$$ o $$|A|=\sum_{k=1}^{n}a_{kj}A_{kj}$$

De este modo definimos la matriz adjunta como $$adj(A)=[A_{ij}].$$

Estas definiciones nos permiten usarlas para definir el rango de una matriz cualquiera, como orden del mayor de los menores distinto de cero, y dar una fórmula para calcular la inversa de una matriz, en caso de que exista:
$$A^{-1}=\frac{1}{|A|}adj(A)^{t}$$

 

Ejercicio: Si el determinante de una matriz, 3×3, es $|A|=2$, entonces $|-2A|$ es igual a: a)8; b)-16; c)10
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Menor y matriz adjunta

ALG: Determinantes

Terminando con las matrices hemos visto como calcular una inversa mediante operaciones elementales. Una vez realizado el paso, continuamos con los determinantes.

Para que sea más fácil definimos los determinantes de forma recursiva, utilizando el valor de un determinante de orden dos y la Regla de Laplace.

La definición clásica y su significado puede verse en Determinante. En este enlace podéis encontrar también propiedades importantes. Recordad estas propiedades por que serán muy importantes para aprender bien este tema.

Propiedades de los determinantes: asumamos $A$ y $B$ dos matrices cuadradas del mismo orden,

  1. $|A|=|A^t|$
  2. Si $B$ es el resultado de hacer una transformación elemental por fila(columna) a la matriz $A$, $A\overset{f_i+\lambda f_j\\ (c_i+\lambda c_j)}{\sim}B\Rightarrow|A|=|B|$
  3. Si $B$ es el resultado de intercambiar una fila(columna) de la matriz $A$, $A\overset{f_i \leftrightarrow f_j\\ (c_i\leftrightarrow c_j)}{\sim}B\Rightarrow|A|=-|B|$
  4. Si $B$ es el resultado de multiplicar una fila(columna) de la matriz $A$ por un escalar, $A\overset{f_i = \lambda f_i\\ (c_i=\lambda c_i)}{\sim}B\Rightarrow|B|=\lambda |A|$
  5. $\begin{bmatrix}a_{11}&a_{12}\\ a+b & c+d\end{bmatrix}=\begin{bmatrix}a_{11}&a_{12}\\ a & c\end{bmatrix}+\begin{bmatrix}a_{11}&a_{12}\\ b & d\end{bmatrix}$. De igual modo podemos hacerlo para toda matriz cuadrada de orden $n$.
  6. $|A\,B|=|A|\cdot |B|$

 

Ejercicio: Dadas las matrices
$$
(A)\begin{bmatrix}0& -1/3& 1/3\\ 1/3& 1/3& 0\end{bmatrix},\,
(B)\begin{bmatrix}0& -1& 1\\ 1& 1& 0\end{bmatrix},\,
(C)\begin{bmatrix}1/3& -2/3& 0\\ 1/3& 1/3& 0\end{bmatrix},
$$
cuál es una pseudoinversa por la izquierda de
$$\begin{bmatrix}1& 2\\ -1& 1\\ 2& 1\end{bmatrix}$$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Determinantes

ALG: Matriz inversa

En el día de hoy tratamos de encontrar la inversa de una matriz(cuando existe, claro). Recordad que definimos la inversa de una matriz cuadrada $A=[a_{ij}]\in \mathcal{M}_{n}(\mathbb{R} o \mathbb{C})$ como la matriz $B=[b_{ij}]\in \mathcal{M}_{n}(\mathbb{R} o \mathbb{C})$ tal que $$AB=BA=I_n.$$

El procedimiento que damos para calcular la inversa, es el de realizar operaciones elementales entre filas o columnas, que conocéis como método de Gauss. Sería el siguiente: Sea $A$ la matriz, y consideremos la matriz formada por $[A\, |\, I_n]$. Si conseguimos mediante semejanza por transformaciones elementales una matriz tal que

$$[A\, |\, I_n] \sim [I_n\, |\, B],$$

entonces $B$ es la inversa de $A$.

No siempre podemos conseguir la inversa, bien por que la matriz no sea cuadrada o por que no tenga. Entonces tenemos que plantearnos la posibilidad de encontrar una matriz, para cualquier matriz $A\in\mathcal{M}_{m\times n}(\mathbb{R})$, talque
$$AR=I_m$$ o $$LA=I_n.$$
En caso de existir, denominamos a $R\in\mathcal{M}_{n\times m}(\mathbb{R})$, matriz pseudoinversa por la derecha de la matriz $A$; y a $L\in\mathcal{M}_{n\times m}(\mathbb{R})$, matriz pseudoinversa por la izquierda de la matriz $A$.

Un resultado que utilizaremos:

Una matriz $A\in\mathcal{M}_{m\times n}(\mathbb{R})$ tiene pseudoinversa por la derecha(izquierda) si, y sólo si, $rang(A)=m$ ($rang(A)=n$)

En caso de existir la pseudoinversa, entonces esta la calcularemos mediante $$R=A^t(AA^t)^{-1},$$
o
$$L=(A^tA)^{-1}A^t.$$

Ejercicio:
Descubre cuál de las matrices es semejante por transformaciones elementales a la matriz $\left[\begin{smallmatrix}1& 2 & -1\\ 0& -1 & 3\\ 0& 1& 4\end{smallmatrix}\right]$

(A) $\left[\begin{smallmatrix}1 & -1& 2\\ 0& 3& -1 \\ 0& -4& 1\end{smallmatrix}\right]$(B) $\left[\begin{smallmatrix} 0& -1 & 3\\1& 2 & -1\\ 4& 1& 0\end{smallmatrix}\right]$C) $\left[\begin{smallmatrix}-1& 2 & 1\\ 3& -1 & 0\\ 7& 0& 0\end{smallmatrix}\right]$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matriz inversa

ALG: Semejanza por operaciones elementales en matrices

Hoy comenzamos definiendo semejanza de matrices por transformaciones elementales:

Tomemos $\mathbb{K}$ el cuerpo $\mathbb{R}$ o $\mathbb{C}$, y consideremos $A=[a_{ij}]\in \mathcal{M}_{m\times n}(\mathbb{K})$ una matriz y $A(f_i)=[a_{i1}\ldots a_{i,n}]$ (respectivamente $A(c_i)=[a_{i1}\ldots a_{i,m}]’$) una de las filas (respectivamente columnas) de la matriz. Sea $B=[b_{ij}]\in \mathcal{M}_{m\times n}(\mathbb{K})$ la matriz tal que $b_{ij}=a_{ij}$ salvo los elementos de la fila $B(f_i)=[b_{i1}\ldots b_{i,n}]$ ($B(c_i)=[b_{i1}\ldots b_{i,m}]’$) que son $b_{ik}=a_{ik}+\lambda a_{jk}$ para $k=1,\ldots,n$($k=1,\ldots,m$ ) y cierta fila(columna) $j$ y $\lambda\in\mathbb{K}$. Entonces decimos que las matrices $A$ y $B$ son semejantes por transformaciones elementales.

Decimos que una matriz es escalonada, cuando dado una matriz podemos encontrar una matriz semejante por transformaciones elementales que tiene en alguna de sus filas (columnas) todo los elementos cero. La matriz resultante escalonada será la matriz escalonada con mayor número de filas (columnas) todo cero que podamos conseguir.

Con estas definiciones podemos dar el rango de una matriz como el número de filas (columnas) distintas de cero de su matriz escalonada.

Una propiedad interesante es que el rango de una matriz siempre es el mismo, independientemente que se consideren filas o columnas.

Si dos matrices, $A,B\in \mathcal{M}_{m\times n}(\mathbb{K})$, son semejantes por transformaciones elementales por fila(o columna) entonces existe una matriz $F\in \mathcal{M}_{m\times m}(\mathbb{K})$ ($C\in \mathcal{M}_{n\times n}(\mathbb{K})$) tal que
$$B=FA\,(B=AC).$$
Hemos realizado varios ejercicios buscando esa matriz $F$.

Ejercicio:
En el producto entre las matrices $\left[\begin{smallmatrix}1& 2\\ -2& 0\end{smallmatrix}\right]$ y $\left[\begin{smallmatrix}1& 0 & 2\\ 0& 2& 0\end{smallmatrix}\right]$, descubre la matriz que tiene un número incorrecto.
(A) $\left[\begin{smallmatrix} 1& *&*\\ *& 0& *\end{smallmatrix}\right]$
(B) $\left[\begin{smallmatrix} *& 4&*\\ -2& *& *\end{smallmatrix}\right]$
(C) $\left[\begin{smallmatrix} *& *&2\\ *& *& 4\end{smallmatrix}\right]$
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Semejanza por operaciones elementales en matrices

ALG: Matrices

Comenzamos con el tema de Matrices, donde hoy veremos:

  • Definición

    • Matriz columna, matriz fila
    • Matriz: traspuesta, identidad, cuadrada, triángular…
  • Operaciones con matrices

    • Suma de matrices
    • Multiplicación de escalar por matriz.

Lo primero será definir las matrices. Llamamos matriz fila a una disposición de $p$ escalares de un cuerpo colocado en una fila por $p$ columnas, $A_f=[a_1\,a_2\,\ldots\,a_p]$, y del mismo modo definimos matriz columna disponiendo los $p$ escalares sobre un columna: $B_c=\begin{bmatrix}b_1\\ b_2 \\ \vdots \\ b_p\end{bmatrix}$.

De esta forma una matriz de $n\times m$ a una disposición de $n$ matrices fila o $m$ matrices columna;
$$\begin{bmatrix}
a_{11} & a_{12} & a_{13} &\ldots & a_{1m} \\
a_{21} & a_{22} & a_{23} &\ldots & a_{2m} \\
\vdots & \vdots & \vdots &\ldots & \vdots \\
a_{n1} & a_{n2} & a_{n3} &\ldots & a_{nm}
\end{bmatrix}.$$

Notar que los elementos $a_{ij}\in\mathbb{K}$, siendo $\mathbb{K}$ un cuerpo, que habitualmente será los reales o los complejos.

Ahora podemos definir la suma de matrices,$A=[a_{ij}]_{nxm}$ y $B=[b_{ij}]_{n\times m}$, como otra matriz de la siguiente forma:
$$A+B=[a_{ij}+b_{ij}]_{n\times m}.$$
Y el producto por escalar, $\lambda\in \mathbb{K}$, de la forma:
$$\lambda A=[\lambda a_{ij}]_{n\times m}.$$

Con estas operaciones se cumple: Consideremos $\lambda,\mu\in \mathbb{K}$ y $A,B,C\in M_{n\times m}(\mathbb{K})$, siendo $\mathbb{K}$ el conjunto de los números reales o complejos,

  • $(A+B)+C=A+(B+C)$
  • $A+B=B+A$
  • $A+0=0+A$, siendo 0 la matriz de $m\times n$ elementos todos 0.
  • Existe $B\in M_{m\times m}(\mathbb{K})$ tal que $A+B=B+A=0$, a esta matriz la llamamos opuesta de $A$ y la designamos por $-A$.
  • $\lambda (A+B)=\lambda A+\lambda B$
  • $(\lambda + \mu)A=\lambda A+\mu A$
  • $(\lambda \mu)A=\lambda (\mu A)$

Lo siguiente que hemos visto es la Multiplicación de matrices:

Definimos el producto de una matriz fila $A_f$ por una matriz columna $B_c$, siempre que el número de columnas de la matriz fila coincida con el número de filas de la matriz columna, como el producto escalar considerándolos vectores la matriz fila $A_f$ y la traspuesta de $B_c$:
$$A_f\cdot B_c=[a_1\,a_2\,\ldots\,a_p]\bullet \begin{bmatrix}b_1\\ b_2 \\ \vdots \\ b_p\end{bmatrix}=(a_1\,a_2\,\ldots\,a_p)\cdot \begin{pmatrix}b_1\\ b_2 \\ \vdots \\ b_p\end{pmatrix}^t=a_1b_1+a_2b_2+\ldots +a_pb_p.$$

De este modo el producto de dos matrices $A=[a_{ij}]_{n\times p}$ y $B=[b_{ij}]_{p\times m}$ es la matriz $$C=[A_i\bullet B_j]_{n\times m},$$
donde $A_i$ es la fila $i$ de la matriz $A$ y $B_j$ la columna $j$ de la matriz $B$. Esta forma de definir el producto es equivalente a la denotada por $A\cdot B,\;A\times B,\;A\circ B$ o simplemente $AB$, la matriz $C$:
$$C=AB=[c_{ij}]_{n\times m}=\left[\sum _{p=1}^{n}a_{ip}b_{pj}\right]$$

Propiedades que cumple la multiplicación de matrices:

  • $(AB)C = A(BC)$
  • $(A + B)C = AC + BC$
  • $C(A + B) = CA + CB$
  • Si A es una matriz cuadrada de tamaño $m$, entonces la matriz identidad $I_{m\times m}$ (que llamamos identidad, o elemento neutro para la multiplicación) de manera que: $I·A = A·I = A$
  • El producto de dos matrices generalmente no es conmutativo, es decir, $AB \neq BA$.
Ejercicio: Probar que si $A$ y $B$ son dos matrices que se pueden multiplicar, entonces $(A\cdot B)^t=B^t\cdot A^t$.
Posted in: Álgebra Lineal por admin Comentarios desactivados en ALG: Matrices