EFM: Propiedades de la Transformada de Laplace

  • Linealidad :$\mathcal{L}\left\{a f(t) + b g(t) \right\}= a \mathcal{L}\left\{ f(t) \right\} +
    b \mathcal{L}\left\{ g(t) \right\}$
  • Derivación:
    • $\mathcal{L}\{f'(t)\} = s \mathcal{L}\{f(t)\} – f(0)$
    • $\mathcal{L}\{f”(t)\}= s^2 \mathcal{L}\{f(t)\} – s f(0) – f'(0)$
    • $\mathcal{L}\left\{ f^{(n)}(t) \right\} = s^n \mathcal{L}\{f(t)\} – s^{n – 1} f(0) – \dots – f^{(n – 1)}(0) = s^n \mathcal{L}\{f(t)\} – \sum_{i=1}^{n} s^{n – i} f^{(i – 1)}(0)$
  • Integración: $\mathcal{L}\left\{ \int_{0^{-}}^{t}f(\tau )d\tau \right\} = {1 \over s} \mathcal{L}\{f\}$
  • Dualidad: $\mathcal{L}\{ t f(t)\} = -F'(s)$
  • Desplazamiento de la frecuencia: $\mathcal{L}\left\{ e^{at} f(t) \right\} = F(s-a)$
  • Desplazamiento temporal:
    • $\mathcal{L}\left\{ f(t – a) u(t – a) \right\}= e^{-as} F(s)$
    • $\mathcal{L}^{-1} \left\{ e^{-as} F(s) \right\}
      = f(t – a) u(t – a)$

    Nota: $u(t)$ es la [[función escalón unitario]].

  • Desplazamiento potencia $n$-ésima:
    $\mathcal{L}\{\,t^nf(t)\} = (-1)^nD_s^n[F(s)]$

EFM: Transformada de Laplace

Hoy nos hemos tratado la Transformada de Laplace.

La Transformada de Laplace de una función f(t) definida para todos los números reales t ≥ 0, es la función F(s), definida por:

F(s)   = \mathcal{L} \left\{f(t)\right\}   =\int_{0}^\infty e^{-st} f(t)\,dt.

La transformada de Laplace la utilizamos para resolver ecuaciones diferenciales de forma más sencilla.

ALG: Complemento ortogonal

En el día de hoy hemos trabajado con el complemento ortogonal. Si tenemos un espacio vectorial euclídeo de dimensión finita, $E$, definimos el complemento ortogonal (a veces simplemente ortogonal) de un subespacio $S$ de $E$ a $$S^\bot=\{\vec{v}\in E|\;<\vec{v},\vec{u}>=0\,\forall \vec{u}\in S\}$$

El ortogonal de un conjunto cumple propiedades muy interesantes, como que es un subespacio vectorial, y cuando $S$ es un subespacio vectorial entonces $$E=S\oplus S^{\bot}$$

Esto implica que para todo vector $\vec{v}\in E$ existirán dos únicos vectores $\vec{u}\in S$ y $\vec{w}\in S^{\bot}$, tales que $$\vec{v}=\vec{u}+\vec{w}.$$

Ejercicio: Hallar el complemento ortogonal del subespacio dado por las ecuaciones implícitas $\pi=\{(x,y,z,t,u)|x+y-t=0,x-z-u=0\}$
Posted in: Álgebra Lineal by admin No Comments

ALG: Ortogonalidad

Comenzamos a tratar los vectores ortogonales y ortonormales, que nos llevarán a dar las definiciones de base ortogonal y sistema ortonormal. Todo esto nos llevará al proceso de ortonormalización de Gram–Schmidt: un algoritmo para construir, a partir de un conjunto de vectores de un espacio vectorial con producto escalar, otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial.

Ejercicio: Consideremos el espacio vectorial $\mathbb{P}_3$[X], polinomio reales de grado menor o igual que tres, donde hemos definido el producto escalar

$$p\bullet q=\int_0^1p(x)q(x)dx.$$

Dada la base $\{1,1-x,1-x^2,1-x^3\}$, construir una base ortogonal.

Posted in: Álgebra Lineal by admin No Comments

ALG: Espacio Euclídeo

Hoy hemos comenzado con el Tema 7. El tema lo hemos llamado Ortogonalización, aunque es una parte del el más genérico que sería Espacio Vectorial Euclídeo. El propósito de este tema es dar a un espacio vectorial la herramientas para poder establecer una distancia entre vectores y conseguir encontrar la distancia mínima entre subespacios o variedadas.

Objetivos

  • Conocer y saber determinar un producto escalar y sus propiedades.
  • Saber calcular la matriz de Gram o métrica de un producto escalar
  • Conocer y saber determinar la norma de un vector y sus propiedades.
  • Conocer y determinar vectores ortogonales y ortonormales y sus propiedades.
  • Calcular bases ortonormales.
  • Conocer el espacio vectorial euclídeo canónico Rn
  • Conocer y determinar una proyección ortogonal de un vector.
  • Saber calcular el complemento ortogonal de un subespacio y sus propiedades.
  • Conocer y saber calcular transformaciones y matrices ortogonal y sus propiedades

Para ello comenzamos con la definición del producto escalar en un espacio vectorial, la norma de un vector, distancia entre dos vectores y el ángulo de dos vectores.

Recordad que este tema lo estamos basando en el Capítulo 8 del libro Álgebra lineal. Definiciones, Teoremas y Resultados, de Juan de Burgos, Ingebook.

Ejercicio: Sea $\mathbb{R}_2[X]$, el espacio vectorial de los polinomios de grado menor o igual que 2, como subespacio vectorial de las funciones continuas en el intervalo [0,1]. Probar que la aplicación $p\bullet q$, que dados p=p0+p1x+p2x2, y, q=q0+q1x+q2x2, le hace corresponder

$p\bullet q=\int_0^1p(x)q(x)dx$

es un producto escalar. Calcular el coseno de los polinomios $p(x)=x^2+2$, $q(x)=x-x^2$

Posted in: Álgebra Lineal by admin No Comments

EFM: Sistemas no homogéneos. Variación de parámetros

Recordemos que partimos de un sistema de ED en la forma matricial $$X’=A\,X+B(t),$$ donde consideraremos $A$ una matriz cuadrada de valores constantes, y $B(t)$ una matriz de valores constantes o funcionales, no siendo todos cero.

Si resulta que la solución de la parte homogénea la podemos obtener como $$X_h=\Phi(t)\,C,$$ siendo $C$ la matriz de constantes, la solución general vendrá dada mediante
$$X=\Phi(t)\,C+\Phi(t)\int\Phi^{-1}(t)B(t)dt$$

Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
-3 & 1\\
2 & -4\\
\end{pmatrix}X+\begin{pmatrix}3t\\ e^{-t}\end{pmatrix}$$

EFM: Sistemas no homogéneos. Coeficientes indeterminados

Los métodos de coeficientes indeterminados y de variación de parámetros que se utilizaron para encontrar soluciones particulares de ecuaciones diferenciales ordinarias lineales no homogéneas pueden adaptarse a la resolución de sistemas lineales no homogéneos. De estos dos métodos, la variación de parámetros es la técnica más eficaz. No obstante, hay casos donde el método de coeficientes indeterminados ofrece un medio rápido para encontrar una solución particular.

Hemos visto que la solución general de un sistema lineal no homogéneo $X’=AX+F(t)$ en un intervalo $I$, es $X=X_h+X_p$ donde $$X_h=c_1X_1+c_2X_2+\ldots + c_nX_n$$
es la solución general del sistema lineal homogéneo asociado $X’=AX$ y $X_p$ es cualquier solución particular del sistema no homogéneo. Se ha visto cómo obtener $X_h$ cuando $A$ era una matriz de constantes de orden $n\times n$; ahora consideraremos método de coeficientes indeterminados para obtener Xp.

el método de coeficientes indeterminados consiste en establecer conjeturas informadas acerca de la forma de un vector de solución particular $X_p$; la conjetura está basada en los tipos de funciones que comprenden las entradas de la matriz columna $F(t)$. No sorprende que la versión matricial de coeficientes indeterminados sea sólo aplicable a $X’=AX+F(t)$ cuando los elementos de $A$ son constantes y los de $F(t)$ son constantes, polinomios, funciones exponenciales, senos y cosenos, o sumas finitas y productos de estas funciones.

Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
-1 & 2\\
-1 & 1\\
\end{pmatrix}X+\begin{pmatrix}
-8\\
3\\
\end{pmatrix}$$ en $(-\infty,\infty)$

ALG: Intersección, incidencia y paralelismo

En este día hemos tratado la posición relativa de dos variedades afines: $L_1=P+C_1$ y $L_2=Q+C_2$. Diremos que se cortan si el conjunto $L_1\cap L_2$ no es vacío. Si $L_1\cap L_2=\phi$; es decir, si no se cortan, puede ocurrir que $C_1\subseteq C_2$ (o $C_2\subseteq C_1$ ) en cuyo caso se dice que son paralelas; en caso contrario se dice que se cruzan.

Si conocemos las ecuaciones implícitas de las dos variedades, el conjunto $L_1\cap L_2$ viene dado por los puntos cuyas coordenadas, respecto del sistema de referencia considerado, son las soluciones del sistema que resulta de reunir todas las ecuaciones implícitas. Si denotamos por $n=dim(E)$, siendo $E$ el espacio afín, $r=dim(L_1)$ y $s=dim(L_2)$, y suponiendo que $r\leq s$, el sistema formado por todas las ecuaciones es un sistema de $2n-r-s$ ecuaciones, que podemos escribir en forma matricial: $AX=B$. Según que el rango de la matriz de coeficientes coincida con el rango de la ampliada obtenemos la diferencia entre variedades que se cortan o que no se cortan. Si $rg(A)$ es $n-r$, entonces la dimensión de $C_1\cap C_2$ será $r$ y por tanto $C_1\cap C_2=C_1$, con lo que $C_1\subseteq C_2$.

Podemos resumirlo en el siguiente cuadro:

 

Ejercicio: Estudiar la posición relativa de las variedades lineales afines de $\mathbb{R}^4$: $\pi_1:\, x_1+x_2+x_3+x_4=0$, $\pi_2:\, x_1=x_2=x_3=x_4$
Posted in: Álgebra Lineal by admin No Comments

ALG: Teorema de Rouché-Fröbenius

Recordad que todo sistemas de ecuaciones los podemos formular mediante una ecuación matricial $$AX=B,$$ donde $A$ es la matriz de coeficiente y $B$ la matriz de términos independientes. Llamamos matriz ampliada del sistema a la matriz que concatena $A$ y$ B$, ($A|B$) .

El Teorema de Rouché-Fröbenius nos afirma que Existen soluciones para el sistema si y solo si el rango de la matriz de coeficientes es igual al rango de la matriz ampliada.

Así un sistema será:

$$
\left\{\begin{array}{l}
\begin{array}{c}
Compatible \\
rang(A)=rang(A|B)
\end{array}\left\{\begin{array}{l}
\begin{array}{c}
Determinado \\
rang(A)=\mbox{Número de incógnitas}
\end{array} \\
\begin{array}{c}
Indeterminado \\
rang(A)<\mbox{Número de incógnitas} \end{array} \\ \end{array}\right.\\ \begin{array}{c} Incompatible \\ rang(A)\neq rang(A|B) \end{array}\\ \end{array}\right. $$ Para resolver un sistema compatible sólo tenemos que encontrar un menor de $A$ distinto de cero y del mismo orden que en rango de $A$. Supongamos que $\bar{A}$ es la submatriz de $A$ cuyo menor es el que buscamos. Entonces $A|B$ se puede transformar mediante operaciones elementales por filas en una matriz $$(A|B)\sim\left(\begin{array}{c} \bar{A}\,\bar{P}\\ 0\end{array}\left|\begin{array}{c} \bar{B}\\ 0\end{array}\right.\right)$$ Donde $\bar{P}$ son o $0$ o las columnas de la martiz $A$ tales que $$rang(A)+\mbox{nºcolumnas}(\bar{P})=\mbox{Número de incógnitas}.$$ De este modo el sistema tendrá por solución $$\bar{X}=inv(\bar{A})\cdot (\bar{B}-\bar{P}K),$$ donde $K$ son las variables, en forma de parámetros, que faltan en el menor de $\bar{A}$, y tales que $X^t=(\bar{X}^t K^t)$. Utilizar las ecuaciones implícitas nos sirve para encontrar con más facilidad la intersección de dos subespacios: $S\cap$ estará formado por las ecuaciones implícitas de $S$ más la de $T$.

Ejercicio: Discutir cuando el sistema ax+by+z=1, x+3by+z=b, x+by+az=1, es compatible y determinado, dependiendo de los valores de a y b.
Posted in: Álgebra Lineal by admin No Comments

EFM: Sistemas con autovalores complejos

Por último tenemos que la solución de $p_A(\lambda)=0$ sea compleja; es decir, $\lambda=\alpha\pm \beta i$, en ese caso la solución general será de la forma
$$X=c_1\vec{v}e^{\lambda t}+c_2\bar{\vec{v}}e^{\bar{\lambda} t},$$ donde $\bar{\lambda}$ es el conjugado de $\lambda$ y $\bar{\vec{v}}$ es el vector conjugado del vector propio $\vec{v}$. Esta forma también se puede expresar utilizando los senos y cosenos.

Ejercicio: Resolver el sistema de ED $$X’=\begin{pmatrix}
1 & 1\\
4 & 1\\
\end{pmatrix}X$$