Exponencial de una matriz

En matemáticas, la exponencial de matrices es una función definida sobre las matrices cuadradas análoga a la función exponencial. Se usa para resolver sistemas de ecuaciones diferenciales lineales.

Definición

Sea X {\displaystyle X} una matriz de números complejos de tamaño n × n {\displaystyle n\times n} . La exponencial de X {\displaystyle X} , denotada por e X {\displaystyle e^{X}} o exp ( X ) {\displaystyle \exp(X)} , es la matriz n × n {\displaystyle n\times n} dada por la serie de potencias

e X = k = 0 X k k ! . {\displaystyle e^{X}=\sum _{k=0}^{\infty }{\frac {X^{k}}{k!}}.}

donde X 0 {\displaystyle X^{0}} está definida como la matriz identidad I {\displaystyle I} de igual tamaño que la matriz X {\displaystyle X} . La serie anterior es convergente para cualquier matriz cuadrada.

Demostración
Se puede ver que la serie anterior es absolutamente convergente utilizando cualquier norma de matrices que sea submultiplicativa, ya que[1]
k = 0 1 k ! X k k = 0 1 k ! X k = e X . {\displaystyle \sum _{k=0}^{\infty }{\Big \|}{\frac {1}{k!}}X^{k}{\Big \|}\leq \sum _{k=0}^{\infty }{\frac {1}{k!}}\|X\|^{k}=e^{\|X\|}.}

Al ser absolutamente convergente, en particular es convergente. El resultado es generalizable a cualquier norma de matrices, pues todas son equivalentes. Esto implica que la exponencial de una matriz cuadrada está siempre bien definida.

Si la matriz X {\displaystyle X} es una matriz 1 × 1 {\displaystyle 1\times 1} entonces la exponencial de X {\displaystyle X} corresponde con la exponencial ordinaria.

Propiedades

Propiedades elementales

Sean X {\displaystyle X} e Y {\displaystyle Y} dos matrices complejas de dimensión n × n {\displaystyle n\times n} , a {\displaystyle a} y b C {\displaystyle b\in \mathbb {C} } . Denotemos la matriz identidad de tamaño n × n {\displaystyle n\times n} por I {\displaystyle I} y con 0 {\displaystyle 0} a la matriz nula. La matriz exponencial satisface las siguientes propiedades:

  1. e 0 = I {\displaystyle e^{0}=I}
  2. exp X T = ( exp X ) T {\displaystyle \exp {X^{T}}=(\exp X)^{T}} , donde X T {\displaystyle X^{T}} denota la transpuesta de la matriz X {\displaystyle X} .
  3. Si Y {\displaystyle Y\,} es invertible entonces e Y X Y 1 = Y e X Y 1 {\displaystyle e^{YXY^{-1}}=Y\,e^{X}\,Y^{-1}} .
  4. Si X Y = Y X {\displaystyle X\,Y=Y\,X} entonces e X e Y = e X + Y = e Y e X {\displaystyle e^{X}\,e^{Y}=e^{X+Y}=e^{Y}e^{X}} .
  5. Si X Y = Y X {\displaystyle X\,Y=Y\,X} entonces Y e X = e X Y {\displaystyle Y\,e^{X}=e^{X}\,Y} .
Demostración
Las propiedades 1 y 2 se siguen de la definición dada anteriormente.

Propiedad 3

Basta con observar que ( Y X Y 1 ) m = Y X m Y 1 {\displaystyle (YXY^{-1})^{m}=YX^{m}Y^{-1}} y sustituir en la definición: [2]

e Y X Y 1 = k = 0 ( Y X Y 1 ) k k ! = k = 0 Y X k Y 1 k ! = Y ( k = 0 X k k ! ) Y 1 = Y e X Y 1 . {\displaystyle e^{YXY^{-1}}=\sum _{k=0}^{\infty }{\frac {(YXY^{-1})^{k}}{k!}}=\sum _{k=0}^{\infty }{\frac {YX^{k}Y^{-1}}{k!}}=Y{\Bigg (}\sum _{k=0}^{\infty }{\frac {X^{k}}{k!}}{\Bigg )}Y^{-1}=Ye^{X}Y^{-1}.}

Propiedad 4

Aplicando la definición de la exponencial y agrupando los exponentes de cada término tal que el exponente de X {\displaystyle X} más el de Y {\displaystyle Y} sumen m {\displaystyle m} , se obtiene

e X e Y = m = 0 k = 0 m X k k ! Y m k ( m k ) ! = m = 0 1 m ! k = 0 m m ! k ! ( m k ) ! X k Y m k . {\displaystyle e^{X}e^{Y}=\sum _{m=0}^{\infty }\sum _{k=0}^{m}{\frac {X^{k}}{k!}}{\frac {Y^{m-k}}{(m-k)!}}=\sum _{m=0}^{\infty }{\frac {1}{m!}}\sum _{k=0}^{m}{\frac {m!}{k!(m-k)!}}X^{k}Y^{m-k}.}

Como X {\displaystyle X} e Y {\displaystyle Y} conmmutan, se puede aplicar la fórmula del binomio de Newton:

( X + Y ) m = k = 0 m m ! k ! ( m k ) ! X k Y m k . {\displaystyle (X+Y)^{m}=\sum _{k=0}^{m}{\frac {m!}{k!(m-k)!}}X^{k}Y^{m-k}.}

Sustituyendo en la fórmula anterior se obtiene

e X e Y = m = 0 1 m ! ( X + Y ) m = e X + Y . {\displaystyle e^{X}e^{Y}=\sum _{m=0}^{\infty }{\frac {1}{m!}}(X+Y)^{m}=e^{X+Y}.}

Propiedad 5

Utilizando la definición dada anteriormente de la exponencial de una matriz, se deduce que[3]

A e B = A ( k = 0 B k k ! ) = k = 0 A B k k ! = k = 0 B k A k ! = ( k = 0 B k k ! ) A = e B A . {\displaystyle Ae^{B}=A{\Bigg (}\sum _{k=0}^{\infty }{\frac {B^{k}}{k!}}{\Bigg )}=\sum _{k=0}^{\infty }{\frac {AB^{k}}{k!}}=\sum _{k=0}^{\infty }{\frac {B^{k}A}{k!}}={\Bigg (}\sum _{k=0}^{\infty }{\frac {B^{k}}{k!}}{\Bigg )}A=e^{B}A.}

Consecuencias

Las siguientes propiedades son consecuencia de las propiedades anteriores:

  1. e a X e b X = e ( a + b ) X {\displaystyle e^{aX}e^{bX}=e^{(a+b)X}} .
  2. e X e X = I {\displaystyle e^{X}e^{-X}=I} .

Utilizando estos resultados, puede demostrarse fácilmente que si X {\displaystyle X} es simétrica entonces e X {\displaystyle e^{X}} también es simétrica, si X {\displaystyle X} es antisimétrica entonces e X {\displaystyle e^{X}} es ortogonal, si X {\displaystyle X} es hermítica entonces e X {\displaystyle e^{X}} también lo es y si X {\displaystyle X} es antihermítica entonces e X {\displaystyle e^{X}} es unitaria.

Determinante de una matriz exponencial

Por la fórmula de Liouville, para cualquier matriz compleja que sea cuadrada se tiene:

det e X = e tr ( X ) {\displaystyle \det e^{X}=e^{\operatorname {tr} (X)}}

Utilizando esta identidad, puede demostrarse fácilmente que la exponencial de una matriz siempre es una matriz invertible.

Exponencial de una suma

Para cualesquiera x , y R {\displaystyle x,y\in \mathbb {R} } , sabemos que e x + y = e x e y {\displaystyle e^{x+y}=e^{x}e^{y}} . Esta misma propiedad es válida para matrices que conmutan, si X {\displaystyle X} y Y {\displaystyle Y} son matrices que conmutan, esto es, X Y = Y X {\displaystyle XY=YX} entonces

e X + Y = e X e Y {\displaystyle e^{X+Y}=e^{X}e^{Y}}

Sin embargo, para matrices que no conmutan, esto no es necesariamente cierto.

Cabe destacar un caso en particular, muy usado en mecánica cuántica, en el que las matrices no conmutan pero sí que lo hacen cada una con su conmutador, [ X , Y ] {\displaystyle [X,Y]} , es decir:

[ X , [ X , Y ] ] = [ Y , [ X , Y ] ] = 0 {\displaystyle [X,[X,Y]]=[Y,[X,Y]]=0}

Cuando esto es cierto la expresión se transforma en:

e X e Y = e X + Y + 1 2 [ X , Y ] {\displaystyle e^{X}e^{Y}=e^{X+Y+{\frac {1}{2}}[X,Y]}}

Fórmula del producto de Lie

Incluso si X {\displaystyle X} y Y {\displaystyle Y} no conmutan, la exponencial e X + Y {\displaystyle e^{X+Y}} puede calcularse por la fórmula del producto de Lie

e X + Y = lim n ( e 1 n X e 1 n Y ) n {\displaystyle e^{X+Y}=\lim _{n\to \infty }\left(e^{{\frac {1}{n}}X}e^{{\frac {1}{n}}Y}\right)^{n}}

Cálculo de la exponencial de matrices

Matrices diagonales y diagonalizables

Si una matriz A {\displaystyle A} es diagonal:

A = [ a 1 0 0 0 a 2 0 0 0 a n ] {\displaystyle A={\begin{bmatrix}a_{1}&0&\ldots &0\\0&a_{2}&\ldots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\ldots &a_{n}\end{bmatrix}}}

entonces su exponencial se obtiene tomando las exponenciales de cada uno de los elementos de la diagonal principal:

e A = [ e a 1 0 0 0 e a 2 0 0 0 e a n ] . {\displaystyle e^{A}={\begin{bmatrix}e^{a_{1}}&0&\ldots &0\\0&e^{a_{2}}&\ldots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\ldots &e^{a_{n}}\end{bmatrix}}.}

Si una matriz M {\displaystyle M} es diagonalizable entonces:

M = P D P 1 {\displaystyle M=PDP^{-1}\;}

donde D {\displaystyle D\;} es una matriz diagonal y es una matriz no singular P {\displaystyle P\;} puede elegirse como una matriz unitaria. La exponenciación de matrices diagonalizables puede reducirse al caso de la exponencial de una matriz diagonal:

e M = P e D P 1 {\displaystyle e^{M}=Pe^{D}P^{-1}\;}

Matrices que admiten forma de Jordan

La exponencial de una matriz que tiene estructura de bloque de Jordan es muy sencilla:

B J = [ λ 1 0 0 0 λ 1 0 0 0 λ 0 0 0 0 λ ] e B J = [ e λ e λ 1 ! e λ 2 ! e λ ( n 1 ) ! 0 e λ e λ 1 ! e λ ( n 2 ) ! 0 0 e λ e λ ( n 3 ) ! 0 0 0 e λ ] {\displaystyle B_{J}={\begin{bmatrix}\lambda &1&0&\cdots &0\\0&\lambda &1&\cdots &0\\0&0&\lambda &\cdots &0\\\vdots &&&\ddots &\vdots \\0&0&0&\cdots &\lambda \end{bmatrix}}\Rightarrow \qquad e^{B_{J}}={\begin{bmatrix}e^{\lambda }&{\frac {e^{\lambda }}{1!}}&{\frac {e^{\lambda }}{2!}}&\cdots &{\frac {e^{\lambda }}{(n-1)!}}\\0&e^{\lambda }&{\frac {e^{\lambda }}{1!}}&\cdots &{\frac {e^{\lambda }}{(n-2)!}}\\0&0&e^{\lambda }&\cdots &{\frac {e^{\lambda }}{(n-3)!}}\\\vdots &&&\ddots &\vdots \\0&0&0&\cdots &e^{\lambda }\end{bmatrix}}}

Se dice que una matriz M {\displaystyle M\;} admite forma canónica de Jordan J {\displaystyle J\;} cuando existe otra matriz no singular tal que:

M = P 1 J P {\displaystyle M=P^{-1}JP\;}

Siendo J {\displaystyle J\;} una matriz triangular formada por bloques de Jordan (es decir, cuya diagonal principal contiene los autovalores de M {\displaystyle M\;} y sólo la diagonal superior a la principal tiene algunos "1"). En ese caso la exponencial

M = P 1 J P e M = e P 1 J P = k = 0 ( P 1 J P ) k k ! = k = 0 P 1 ( J ) k P k ! = P 1 e J P {\displaystyle M=P^{-1}JP\to e^{M}=e^{P^{-1}JP}=\sum _{k=0}^{\infty }{\frac {(P^{-1}JP)^{k}}{k!}}=\sum _{k=0}^{\infty }{\frac {P^{-1}(J)^{k}P}{k!}}=P^{-1}e^{J}P}

Aplicaciones

Dado un sistema de ecuaciones diferenciales lineal con coeficientes constantes de la forma:

{ x ˙ ( t ) = A x ( t ) + f ( t ) x ( t 0 ) = x 0 {\displaystyle {\begin{cases}{\dot {\mathbf {x} }}(t)=\mathbf {A} \mathbf {x} (t)+\mathbf {f} (t)\\\mathbf {x} (t_{0})=\mathbf {x} _{0}\end{cases}}}

donde x ( t ) {\displaystyle \mathbf {x} (t)} representa el vector de funciones incógnita. La solución de este sistema viene dada por la exponenciación de la matriz de coeficientes:

x ( t ) = e A ( t t 0 ) x 0 + t 0 t e A ( t s ) f ( s )   d s {\displaystyle \mathbf {x} (t)=e^{\mathbf {A} (t-t_{0})}\mathbf {x} _{0}+\int _{t_{0}}^{t}e^{\mathbf {A} (t-s)}\mathbf {f} (s)\ ds}

La exponencial de una matriz como solución de un sistema de EDO lineales

Dada A {\displaystyle A} una matriz cuadrada de dimensión n × n {\displaystyle n\times n} , se tiene que x ( t ) = e A t {\displaystyle x(t)=e^{At}} es solución de la ecuación diferencial x ˙ ( t ) = A x ( t ) {\displaystyle {\dot {x}}(t)={A}{x}(t)} . Esto se sigue la siguiente propiedad: d d t ( e A t ) = A e A t {\displaystyle {\frac {d}{dt}}(e^{At})=Ae^{At}} .

Demostración
Partiendo de la definición de derivada y usando que e A ( t + h ) = e A t e A h {\displaystyle e^{A(t+h)}=e^{At}e^{Ah}} t , h R {\displaystyle \forall t,h\in \mathbb {R} } , se tiene que

d d t ( e A t ) = lim h 0 e A ( t + h ) e A t h = e A t ( lim h 0 e A h I h ) {\displaystyle {\frac {d}{dt}}(e^{At})=\lim _{h\to 0}{\frac {e^{A(t+h)}-e^{At}}{h}}=e^{At}{\bigg (}\lim _{h\to 0}{\frac {e^{Ah}-I}{h}}{\bigg )}} .

Por consiguiente, la prueba se reduce a demostrar que este límite existe y que lim h 0 e A h I h = A {\displaystyle \lim _{h\to 0}{\frac {e^{Ah}-I}{h}}=A} .

Usando la definición de exponencial de una matriz, e A h = I + k = 1 A k h k k ! {\displaystyle e^{Ah}=I+\sum _{k=1}^{\infty }{\frac {A^{k}h^{k}}{k!}}} , se sigue que

e A h I h = k = 1 A k h k 1 k ! = A + k = 2 A k h k 1 k ! {\displaystyle {\frac {e^{Ah}-I}{h}}=\sum _{k=1}^{\infty }{\frac {A^{k}h^{k-1}}{k!}}=A+\sum _{k=2}^{\infty }{\frac {A^{k}h^{k-1}}{k!}}} .

Finalmente, queda demostrar que: lim h 0 k = 2 A k h k 1 k ! = 0 {\displaystyle \lim _{h\to 0}{\Bigg \Vert }\sum _{k=2}^{\infty }{\frac {A^{k}h^{k-1}}{k!}}{\Bigg \Vert }=0} . Utilizando las propiedades de la norma matricial y operando sobre la expresión del límite, se llega a que

k = 2 A k h k 1 k ! = k = 1 A k + 1 h k ( k + 1 ) ! = k = 1 A k + 1 A k h k k ! = A k = 1 A k h k ( k + 1 ) k ! A k = 1 A k h k k ! A e A h I {\displaystyle {\Bigg \Vert }\sum _{k=2}^{\infty }{\frac {A^{k}h^{k-1}}{k!}}{\Bigg \Vert }={\Bigg \Vert }\sum _{k=1}^{\infty }{\frac {A^{k+1}h^{k}}{(k+1)!}}{\Bigg \Vert }={\Bigg \Vert }\sum _{k=1}^{\infty }{\frac {A}{k+1}}{\frac {A^{k}h^{k}}{k!}}{\Bigg \Vert }={\Bigg \Vert }A\sum _{k=1}^{\infty }{\frac {A^{k}h^{k}}{(k+1)k!}}{\Bigg \Vert }\leq {\Bigg \Vert }A\sum _{k=1}^{\infty }{\frac {A^{k}h^{k}}{k!}}{\Bigg \Vert }\leq \Vert A\Vert \Vert e^{Ah}-I\Vert } .

Usando la desigualdad triangular y sabiendo que la suma infinita presente en la definición de exponencial es convergente,

e A h I = k = 1 A k h k k ! k = 1 A k h k k ! = e A h 1 {\displaystyle \Vert e^{Ah}-I\Vert ={\Big \Vert }\sum _{k=1}^{\infty }{\frac {A^{k}h^{k}}{k!}}{\Big \Vert }\leq \sum _{k=1}^{\infty }{\frac {\Vert A\Vert ^{k}h^{k}}{k!}}=e^{\Vert A\Vert h}-1} .

Luego se tiene que lim h 0 ( k = 2 A k h k 1 k ! ) = 0 {\displaystyle \lim _{h\to 0}{\Big \Vert }(\sum _{k=2}^{\infty }{\frac {A^{k}h^{k-1}}{k!}}){\Big \Vert }=0} , con lo que concluye la demostración.

Generalizaciones

En mecánica cuántica puede definirse la exponencia del operador hamiltoniano que es un operador lineal sobre un espacio vectorial de Hilbert de dimensión infinita. La evolución temporal del sistema cuántico cuyo hamitoniano no dependa del tiempo viene dada por:

| Ψ ( t ) = exp ( i t H ^ ) | Ψ 0 {\displaystyle |\Psi (t)\rangle =\exp(it{\hat {H}})|\Psi _{0}\rangle }

En general el cálculo de la exponencial de un operador puede resultar compleja si no se conocen los autoestados del hamiltoniano, por lo que la solución anterior a veces resulta tan complicada como la resolución de la ecuación de Schrödinger.

En mecánica cuántica de campos la matriz S puede calcularse también a partir de una exponencial de un operador. Como en general el cálculo directo de la exponencial no es sencillo se usan series perturbativas para calcular la exponencial. Estas series perturbativas son las llamadas series de Feynman cada una calculable a partir de un diagrama de Feynman. Usualmente estas series tienen el problema adicional de series formales, por lo que su suma directa no proporciona un resultado finito, y por esa razón este precedimiento requiere técnicas adicionales de renormalización.

Referencias

  1. Serre, Denis. «7.2 Exponential of a Matrix». Matrices: Theory and Applications. p. 116.  |fechaacceso= requiere |url= (ayuda)
  2. Hall, Brian C. «2.1 The Exponential of a Matrix». Lie Groups, Lie Algebras, and Representations. An Elementary Introduction (2ª edición). p. 40.  |fechaacceso= requiere |url= (ayuda)
  3. Saleh Salman, Mohammed Abdullah; Borkar, V.C. (Enero, 2016). Exponential Matrix and Their Properties (en inglés) 4 (1). ISSN 2347-3142. Consultado el 22 de abril de 2023. 

Véase también

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q1191722
  • Wd Datos: Q1191722