ALG: Autovectores y subespacios propios

El pasado día vimos cómo calculábamos los autovalores, las soluciones de la ecuación que plantea el determinante $$p_A(\lambda)=det(A-\lambda\, I),$$

El polinomio $p_A(\lambda)$ es el polinomio característico de $A$.

Cada valor propio tiene asociado un conjunto $\mathcal{C}_\lambda=\{\vec{v}\in\mathbb{K}^n|A\vec{v}=\lambda\vec{v}\}$, que se determina resolviendo el sistema homogéneo $(A-\lambda\, I)\vec{x}=\vec{0}$. Las soluciones de estos sistemas serán los vectores propios de la matriz.

Así al número de veces que un autovalor λ se repite como raíz del polinomio característico se le llama multiplicidad algebraica y se representa por $m_a(\lambda)$. Y al número máximo de autovectores linealmente independientes que tiene asociado un autovalor λ, es decir la dimensión del subespacio propio $\mathcal{C}_\lambda$, se le llama multiplicidad geométrica de λ y se representa por $m_g(\lambda)$. Estos dos números están relacionados por una desigualdad: $$m_g(\lambda)\leqslant m_a(\lambda)$$

 

Ejercicio: Calcula los vectores propios de la matriz real $$\begin{bmatrix}
0 & 1 & -1 \\
1 & 1 & 0 \\
-1 & 0 & 1 \end{bmatrix}$$
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Autovectores y subespacios propios

EFM: Transformada de Laplace inversa

El pasado día vimos la Transformada de Laplace, hoy vemos que podemos definir una aplicación de manera que para $F\in\mathcal{L}(\mathcal{E})$, donde $\mathcal{E}$ el conjunto de funciones continuas a trozos con orden exponencial, se tenga $\mathcal{L}^{-1}[F]=f$, de manera que $f\in\mathcal{E}$ cumple $\mathcal{L}[f]=F$. Así establecemos la transformada inversa.

Como en la transformada se cumple la propiedad de Linealidad: $$\mathcal{L}^{-1}\left\{a F + b G\right\}= a \mathcal{L}^{-1}\left\{ F \right\} + b \mathcal{L}^{-1}\left\{ G \right\}$$

Ejercicio: Calcular $\mathcal{L}^{-1}\left[\frac{5s+2}{(s+1)(s+2)^2}\right]$
Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: Transformada de Laplace inversa

ALG: Matrices ortogonales y autovalores

Terminamos el tema 7 con las matrices ortogonales. Definimos las aplicaciones ortogonales a las aplicaciones de un espacio vectorial con producto escalar $(\mathcal{E},\bullet)$ que conservan el producto escalar; es decir, $f:\mathcal{E}\to \mathcal{E}$, es ortogonal si $$f(\vec{x})\bullet f(\vec{y})=\vec{x}\bullet \vec{y},\quad\forall\,\vec{x}, \vec{y}\in\mathcal{E}$$

Propiedades que cumple una aplicación ortogonal:

  • Es lineal
  • Conserva la norma; es decir, $||f(\vec{x})||=||\vec{x}||$
  • Dos vectores son ortogonales si, y solo si, sus imágenes son ortogonales
  • La aplicación es biyectiva
  • Los vectores propios de valores propios distintos son ortogonales
  • La imagen de una base ortonormal es ortonormal
  • Su matriz asociada es ortogonal

Hay varias formas de definir una matriz ortogonal. Nosotros emplearemos la que parte de la teoría de matrices. Así diremos que de una matriz cuadrada es ortogonal si su inversa coincide con su traspuesta; es decir,$$A^{-1}=A^t.$$

Para nosotros será muy útil el siguiente resultado:

Teorema: Una matriz $A\in\mathcal{M}_n(\mathbb{R})$ es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Otra propiedad muy útil es que el determinante de una matriz ortogonal es 1 ó -1.

La relación entre los concepto de aplicación ortogonal y matriz ortogonal es muy sencilla:

Teorema: Si tenemos un endomorfismo ortogonal sobre una base ortonormal, entonces su matriz asociada es una matriz ortogonal.

Dicho de otro modo, las aplicaciones ortogonales, aquellas que conservan el producto escalar, tienen por matrices asociadas a matrices ortogonales (matrices cuadradas que cumplen que su inversa coincide con la traspuesta). Además se cumple, que en una matriz ortogonal las filas o columnas, consideradas como vectores, son ortonormales.

Por último, comenzamos el tema 8, en particular, explicado que son los valores y vectores propios, o autovalores y autovectores, de una matriz y.

Hemos aprendido a calcular los autovalores de una matriz cuadrada. Recordad que para nuestro propósito necesitamos encontrar las soluciones de la ecuación que plantea el determinante $$det(A-\lambda\, I),$$ siendo $A\in\mathcal{C}_n(\mathbb{K})$, donde $\mathbb{K}$ es $\mathbb{R} ó \mathbb{C}$, la matriz cuadrada y $I$ la indentidad en $\mathcal{C}_n(\mathbb{K})$.

El polinomio p(λ) = det(A – λI) es el polinomio característico de A: los valores propios de una matriz son los ceros de su polinomio característico (soluciones de la ecuación característica).

 

Ejercicio: Hallar $a,b,c,\alpha,\beta,\gamma\in\mathbb{R}$ de manera que la matriz \begin{pmatrix}a & 2a & 2/3 \\ b & -b & c \\ \alpha & \beta & \gamma\end{pmatrix} sea ortogonal
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Matrices ortogonales y autovalores

ALG: Proyección ortogonal

El pasado día veíamos que cuando $S$ era un subespacio vectorial entonces $$E=S\oplus S^{\bot}$$

Esto implica que para todo vector $\vec{v}\in E$ existirán dos únicos vectores $\vec{u}\in S$ y $\vec{w}\in S^{\bot}$, tales que $$\vec{v}=\vec{u}+\vec{w}.$$

Estos vectores $\vec{u}$ o $\vec{w}$ son lo que llamamos proyecciones ortogonales de $\vec{v}$ sobre $S$ o $S^{\bot}$ respectivamente.

La definición clásica nos dice que si $S\subset E$, un subespacio vectorial de un espacio euclídeo, para nuestros casos finitamente generado, llamamos proyección ortogonal del vector $\vec{v}$ sobre el subespacio $S$, al único vector $\vec{u}\in S$ talque $\vec{v}-\vec{u}\in S^{\bot}$.

A la aplicación $proy_S:E\to S$ que a cada vector de $E$ le hace corresponder su proyección ortogonal sobre $S$, se le denomina del mismo modo: proyección ortogonal.

Veamos un método para calcular la proyección ortogonal. Primero empezamos con la proyección sobre un vector. Si $S=<\vec{s}>$; es decir, es una recta, entonces $$proy_\vec{s}(\vec{v})=\frac{\vec{v}\bullet\vec{s}}{\parallel\vec{s}\parallel^2}\vec{s}.$$

Extenderlo a cualquier subespacio es sencillo, solo necesitamos una base ortogonal del subespacio: Sea $\{\vec{u}_1,\vec{u}_1,\ldots,\vec{u}_m\}$ una base ortogonal de $S$, entonces
$$proy_S(\vec{v})=\sum_{i=1}^m\frac{\vec{v}\bullet\vec{u}_i}{\parallel\vec{u}_i\parallel^2}\vec{u}_i.$$
Si además la base es ortonormal la expresión se reduce mucho:
$$proy_S(\vec{v})=(\vec{v}\bullet\vec{u}_i)\vec{u}_1+(\vec{v}\bullet\vec{u}_2)\vec{u}_2+\ldots+(\vec{v}\bullet\vec{u}_m)\vec{u}_m.$$

El propósito es determinar dado un subespacio vectorial $S\subset\mathbb{R}^n$ y un vector, o punto, $\vec{v}\in\mathbb{R}^n$, minimizar la distancia de $\vec{v}$ a cualquier $\vec{s}\in S$. Para conseguirlo utilizamos el siguiente resultado:

Teorema: Sea $S\subset\mathbb{R}^n$ un sube.v., $\vec{v}\in\mathbb{R}^n$ y $\vec{s}\in S$, son equivalentes

  1. $\vec{s}\in S$ es la proyección ortogonal de $\vec{v}$ sobre $S$, $proy_S(\vec{v})$; es decir, $\vec{v}-\vec{s}\in S^{\bot}$
  2. $\vec{s}\in S$ es la mejor aproximación de $\vec{v}$ sobre $S$; es decir,$\parallel \vec{v}-\vec{s}\parallel\leq \parallel \vec{v}-\vec{w}\parallel\,\forall \vec{w}\in S$
Ejercicio: Deducir que la distancia entre un punto $P(x_0,y_0)$ y la recta $r:ax+by+c=0$ viende dada por la fórmula $$d(P,r)=\frac{ax_0+by_0+c}{\sqrt{a^2+b^2}}$$
Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Proyección ortogonal

EFM: Transformada de Laplace

Hoy nos hemos tratado la Transformada de Laplace.

La Transformada de Laplace de una función f(t) definida para todos los números reales t ≥ 0, es la función F(s), definida por:

F(s)   = \mathcal{L} \left\{f(t)\right\} (s)  =\int_{0}^\infty e^{-st} f(t)\,dt.

La transformada de Laplace la utilizamos para resolver ecuaciones diferenciales de forma más sencilla.

Propiedades de la Transformada de Laplace

  • Linealidad :$\mathcal{L}\left\{a f(t) + b g(t) \right\}= a \mathcal{L}\left\{ f(t) \right\} +
    b \mathcal{L}\left\{ g(t) \right\}$
  • Derivación:
    • $\mathcal{L}\{f'(t)\} = s \mathcal{L}\{f(t)\} – f(0)$
    • $\mathcal{L}\{f”(t)\}= s^2 \mathcal{L}\{f(t)\} – s f(0) – f'(0)$
    • $\mathcal{L}\left\{ f^{(n)}(t) \right\} = s^n \mathcal{L}\{f(t)\} – s^{n – 1} f(0) – \dots – f^{(n – 1)}(0) = s^n \mathcal{L}\{f(t)\} – \sum_{i=1}^{n} s^{n – i} f^{(i – 1)}(0)$
  • Integración: $\mathcal{L}\left\{ \int_{0^{-}}^{t}f(\tau )d\tau \right\} = {1 \over s} \mathcal{L}\{f\}$
  • Dualidad: $\mathcal{L}\{ t f(t)\} = -F'(s)$
  • Desplazamiento de la frecuencia: $\mathcal{L}\left\{ e^{at} f(t) \right\} = F(s-a)$
  • Desplazamiento temporal:
    • $\mathcal{L}\left\{ f(t – a) u(t – a) \right\}= e^{-as} F(s)$
    • $\mathcal{L}^{-1} \left\{ e^{-as} F(s) \right\}
      = f(t – a) u(t – a)$

    Nota: $u(t)$ es la [[función escalón unitario]].

  • Desplazamiento potencia $n$-ésima:
    $\mathcal{L}\{\,t^nf(t)\} = (-1)^nD_s^n[F(s)]$
  • Por ejemplo, veamos como resolver $$y”=c,$$ sujeto a la condición $y(0)=y'(0)=0$
    Aplicando la transformada $$\mathcal{L} \left\{y”\right\} (s)=\mathcal{L} \left\{c\right\} (s).$$
    Sabemos que $$\mathcal{L} \left\{y’\right\} (s)=s\mathcal{L} \left\{y\right\} (s)-y(0^+).$$ Por tanto,
    $$\mathcal{L} \left\{y”\right\} (s)=s\mathcal{L} \left\{y’\right\} (s)-y'(0^+)=s^2\mathcal{L} \left\{y\right\} (s)-sy'(0^+)-y(0^+)=s^2\mathcal{L} \left\{y\right\} (s).$$
    Como sabemos que $$\mathcal{L} \left\{c\right\} (s)=\frac{c}{s},$$ tendremos
    $$s^2\mathcal{L} \left\{y\right\} (s)=\frac{c}{s}$$
    Y por tanto,
    $$\mathcal{L} \left\{y\right\} (s)=\frac{c}{s^3}$$
    Ahora solo necesitamos encontrar una función $y$ tal que su transformada sea $\frac{c}{s^3}$. Para ello solo necesitamos ver que $$\frac{d^2}{d\, s^2}\left(\frac{c}{2s}\right)=\frac{c}{s^3}.$$
    Observemos que
    $$\mathcal{L} \left\{c/2\right\} (s)=\frac{c}{2s},$$ por tanto
    $$\mathcal{L} \left\{y\right\} (s)=\frac{d^2}{d\, s^2}\left(\frac{c}{2s}\right)=\frac{d^2}{d\, s^2}\left(\mathcal{L} \left\{\frac{c}{2}\right\} (s)\right)=(*)=\mathcal{L} \left\{(-1)^2t^2\frac{c}{2}\right\} (s).$$

    Luego $y=c\frac{t^2}{2}$

    (*)Propiedad.

    Ejercicio: Utilizar la transformada de Laplace para resolver la ecuación $y’-5y=0$

    Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: Transformada de Laplace

    ALG: Ortogonalidad y complemento ortogonal

    Comenzamos a tratar los vectores ortogonales y ortonormales, que nos lleva a dar las definiciones de base ortogonal y sistema ortonormal.

    Dado un espacio vectorial euclídeo,$E$, es decir, donde hay definido un producto escalar, $(E,\bullet)$, decimos que dos vectores,$\vec{v},\vec{u}\in E$, son ortogonales si $\vec{v}\bullet\vec{u}=0$. Pues bien, decimos que $B=\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}$ es un conjunto ortogonal si dos a dos sus vectores son ortogonales; es decir, $\vec{v}_i\bullet\vec{v}_j=0\forall i\neq j$

    Todo esto nos llevará al proceso de ortonormalización de Gram–Schmidt: un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

    Además, hemos trabajado con el complemento ortogonal. Si tenemos un espacio vectorial euclídeo de dimensión finita, $E$, definimos el complemento ortogonal (a veces simplemente ortogonal) de un subespacio $S$ de $E$ a $$S^\bot=\{\vec{v}\in E|\;<\vec{v},\vec{u}>=0\,\forall \vec{u}\in S\}$$

    El ortogonal de un conjunto cumple propiedades muy interesantes, como que es un subespacio vectorial, y cuando $S$ es un subespacio vectorial entonces $$E=S\oplus S^{\bot}$$

    Esto implica que para todo vector $\vec{v}\in E$ existirán dos únicos vectores $\vec{u}\in S$ y $\vec{w}\in S^{\bot}$, tales que $$\vec{v}=\vec{u}+\vec{w}.$$

    Ejercicio: Consideremos el espacio vectorial $\mathbb{P}_3$[X], polinomio reales de grado menor o igual que tres, donde hemos definido el producto escalar

    $$p\bullet q=\int_0^1p(x)q(x)dx.$$

    Dada la base $\{1,1-x,1-x^2,1-x^3\}$, construir una base ortogonal.

    Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Ortogonalidad y complemento ortogonal

    EFM: Sistemas no homogéneos. Variación de parámetros

    Recordemos que partimos de un sistema de ED en la forma matricial $$X’=A\,X+B(t),$$ donde consideraremos $A$ una matriz cuadrada de valores constantes, y $B(t)$ una matriz de valores constantes o funcionales, no siendo todos cero.

    Si resulta que la solución de la parte homogénea la podemos obtener como $$X_h=\Phi(t)\,C,$$ siendo $C$ la matriz de constantes, la solución general vendrá dada mediante
    $$X=\Phi(t)\,C+\Phi(t)\int\Phi^{-1}(t)B(t)dt$$

    Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
    -3 & 1\\
    2 & -4\\
    \end{pmatrix}X+\begin{pmatrix}3t\\ e^{-t}\end{pmatrix}$$
    Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: Sistemas no homogéneos. Variación de parámetros

    EFM: Sistemas no homogéneos. Coeficientes indeterminados

    Los métodos de coeficientes indeterminados y de variación de parámetros que se utilizaron para encontrar soluciones particulares de ecuaciones diferenciales ordinarias lineales no homogéneas pueden adaptarse a la resolución de sistemas lineales no homogéneos. De estos dos métodos, la variación de parámetros es la técnica más eficaz. No obstante, hay casos donde el método de coeficientes indeterminados ofrece un medio rápido para encontrar una solución particular.

    Hemos visto que la solución general de un sistema lineal no homogéneo $X’=AX+F(t)$ en un intervalo $I$, es $X=X_h+X_p$ donde $$X_h=c_1X_1+c_2X_2+\ldots + c_nX_n$$
    es la solución general del sistema lineal homogéneo asociado $X’=AX$ y $X_p$ es cualquier solución particular del sistema no homogéneo. Se ha visto cómo obtener $X_h$ cuando $A$ era una matriz de constantes de orden $n\times n$; ahora consideraremos método de coeficientes indeterminados para obtener $X_p$.

    el método de coeficientes indeterminados consiste en establecer conjeturas informadas acerca de la forma de un vector de solución particular $X_p$; la conjetura está basada en los tipos de funciones que comprenden las entradas de la matriz columna $F(t)$. No sorprende que la versión matricial de coeficientes indeterminados sea sólo aplicable a $X’=AX+F(t)$ cuando los elementos de $A$ son constantes y los de $F(t)$ son constantes, polinomios, funciones exponenciales, senos y cosenos, o sumas finitas y productos de estas funciones.

    Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
    -1 & 2\\
    -1 & 1\\
    \end{pmatrix}X+\begin{pmatrix}
    -8\\
    3\\
    \end{pmatrix}$$ en $(-\infty,\infty)$
    Posted in: Ecu. Física Matemática by admin Comentarios desactivados en EFM: Sistemas no homogéneos. Coeficientes indeterminados

    ALG: Matriz de Gram

    El pasado día definimos el producto escalar y la norma de un espacio euclídeo. La métrica que define el producto escalar puede se usada mediante la matriz de Gram. Sea $(E,\bullet)$ el espacio vectorial euclídeo y $B=\{\textbf{u_1},\ldots,\textbf{u_n}\}$ una base de $E$, llamamos matriz de Gram, respecto de la base $B$, a la matriz $G=[g_{ij}=\textbf{u_i}\bullet \textbf{u_j}]$. Notar que la matriz $G$ siempre es simétrica.

    De este modo, dados $\textbf{x}=(x_1,x_2,\ldots,x_n)$, $\textbf{y}=(y_1,y_2,\ldots,y_n)\in E$, será $$\textbf{x}\bullet \textbf{y}=\textbf{x}^t\, G\, \textbf{y}=[x_1\,x_2\,\ldots\,x_n]G\begin{bmatrix}y_1 \\ y_2\\ \vdots \\ y_n\end{bmatrix}$$

    Terminamos repasando ejercicios para el parcial.

    Ejercicio: Sea $\mathbb{R}_2[X]$, el espacio vectorial de los polinomios de grado menor o igual que 2, como subespacio vectorial de las funciones continuas en el intervalo [0,1]. Probar que la aplicación $p\bullet q$, que dados p=p0+p1x+p2x2, y, q=q0+q1x+q2x2, le hace corresponder

    $p\bullet q=\int_0^1p(x)q(x)dx$

    es un producto escalar. Calcular su matriz de Gram respecto de la base $\{1,1-x,1-x^2\}$.

    Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Matriz de Gram

    ALG: Espacio Euclídeo

    Hoy hemos comenzado con el Tema 7. El tema lo hemos llamado Ortogonalización, aunque es una parte del el más genérico que sería Espacio Vectorial Euclídeo. El propósito de este tema es dar a un espacio vectorial la herramientas para poder establecer una distancia entre vectores y conseguir encontrar la distancia mínima entre subespacios o variedadas.

    Objetivos

    • Conocer y saber determinar un producto escalar y sus propiedades.
    • Saber calcular la matriz de Gram o métrica de un producto escalar
    • Conocer y saber determinar la norma de un vector y sus propiedades.
    • Conocer y determinar vectores ortogonales y ortonormales y sus propiedades.
    • Calcular bases ortonormales.
    • Conocer el espacio vectorial euclídeo canónico Rn
    • Conocer y determinar una proyección ortogonal de un vector.
    • Saber calcular el complemento ortogonal de un subespacio y sus propiedades.
    • Conocer y saber calcular transformaciones y matrices ortogonal y sus propiedades

    Para ello comenzamos con la definición del producto escalar en un espacio vectorial, la norma de un vector, distancia entre dos vectores y el ángulo de dos vectores.

    Recordad que este tema lo estamos basando en el Capítulo 8 del libro Álgebra lineal. Definiciones, Teoremas y Resultados, de Juan de Burgos, Ingebook.

    Ejercicio: Sea $\mathbb{R}_2[X]$, el espacio vectorial de los polinomios de grado menor o igual que 2, como subespacio vectorial de las funciones continuas en el intervalo [0,1]. Probar que la aplicación $p\bullet q$, que dados p=p0+p1x+p2x2, y, q=q0+q1x+q2x2, le hace corresponder

    $p\bullet q=\int_0^1p(x)q(x)dx$

    es un producto escalar. Calcular el coseno de los polinomios $p(x)=x^2+2$, $q(x)=x-x^2$

    Posted in: Álgebra Lineal by admin Comentarios desactivados en ALG: Espacio Euclídeo