métrique de Minkovsky, tenseur métrique constant .

Publié le

Exemple de la métrique de Minkovsky : 4 dimensions . Je suppose que dans le système de coordonnées "de travail", le tenseur métrique a la forme classique :
            1   0   0   0
            0  -1   0   0
            0   0  -1   0
G   =    0   0   0  -1        [1]

Conformément à l'esprit des exemples du texte http://tarentedusoir.over-blog.com/2018/09/transform-coords-isometrique.html , on cherche la matrice jacobienne sous la forme exp(λ.A) où A est une matrice constante . D'après le résultat [13] du texte cité, G.A doit être antisymétrique et donc la matrice A a nécessairement la forme suivante :

           0     a     b    c
           a     0     d    e
           b   -d     0     f
A   =   c    -e    -f     0      [2]

où a,b,c,d,e,f sont des nombres réels . J'exclus le cas d'une matrice nulle, ces nombres ne sont donc pas tous nuls .

Définissons les matrices Φ, Γ :

            a2+b2+c2      -bd-ce        ad-cf          ae+bf
              bd+ce        a2-d2-e2      ab-ef          ac+df
             -ad+cf          ab-ef         b2-d2-f2      bc-de
Φ   =     -ae-bf           ac+fd        bc-ed         c2-e2-f2     [3]
 
              0    f   -e    d
               f    0   -c    b
             -e    c    0   -a
  Γ    =   d   -b     a    0   [4]

 La matrice identité ( 4dim ) :

               1    0    0   0
               0    1    0   0
               0    0    1   0
  Id    =   0    0    0    1   

Sauf erreur, les matrices A, Φ, Γ ( et Id bien sûr ) commutent entre elles ( c'est garanti en principe mais je le vérifierai quand même ...)

Définissons également les nombres σ,τ,α et β :

σ = a2 + b2 + c2 - d2 - e2 - f2
τ = af - be + cd
α   =  [ ( σ2 + 4τ2 )1/2 + σ ]/2
β   =  [ ( σ2 + 4τ2 )1/2  - σ ]/2       [5]

commentaire : ici, la puissance "1/2" désigne la racine carrée conventionnelle ( argument et valeur positives ou nulle ) . Par ailleurs, σ et τ peuvent être positifs ou négatifs ( et s'annuler .... ) . Attention, donc, aux possibles confusions, par exemple si τ=0 et σ>0, alors ( σ2 + 4τ2 )1/2 = ( σ2 )1/2 est la valeur absolue de σ ( c.a.d  σ), donc β=0 et α est non nul . Par contre si τ=0 et σ<0, alors ( σ2 + 4τ2 )1/2 = ( σ2 )1/2 qui est toujours la valeur absolue de  σ, vaudra  - σ et donc α = 0 et β est non nul . Vu ?

Dans tous les cas, α et β sont positifs ou nuls

Après des calculs assez laborieux, on obtient :

J(λ) = exp(λA) = 
{  ch(λ.α1/2) ( α.Id + Φ ) + sh(λ.α1/2) (α1/2.A + τ.α-1/2.Γ ) +
  cos(λ.β1/2) ( β.Id - Φ ) + sin(λ.β1/2) (β1/2.A -  τ.β-1/2.Γ ) } / ( σ2 + 4τ2 )1/2  [6]

Démonstration ( fraîchement tapée, je vérifierai qu'il n'y a pas d'erreurs ...) :

Les calculs ( matriciels ) sont un peu longuets, c'est vrai, mais avec de la patience, on vérifie les relations :

A2 = σ.Id + Φ
A.Φ = Φ.A = τ.Γ                [7]
A.Γ = Γ.A = τ.Id

en conséquence, pour tout p entier ≥ 0 , Ap peut s'écrire comme une combinaison linéaire des matrices Id,A,Φ et Γ .

 Si : Ap = η1.Id + η2.A + η3.Φ + η4

alors : Ap+1 =  μ1.Id + μ2.A + μ3.Φ + μ4

avec :

μ1             0     σ    0    τ              η1
μ2             1     0    0    0              η2
μ3             0     1    0    0              η3
μ4     =      0     0    τ    0      *      η      [8]
 

Les "η" et "μ" sont des coefficients de combinaisons linéaires. La matrice ci-dessus "représente" la multiplication par A, en quelque sorte . Appelons  Â cette matrice .

Ensuite, on cherche les valeurs propres et vecteurs propres de Â. Classiquement, on calcule le déterminant de la matrice 

                          -x     σ     0    τ  
                           1    -x     0    0
                           0     1    -x    0 
 - x.Id    =       0     0     τ    -x 
 
Ce déterminant est = x4 - σx2 - τ2 . Ses 4 racines sont : α1/2 , -α1/2 , iβ1/2  et -iβ1/2      [9] .
"i" est le nombre imaginaire classique, les expressions de α et β sont données plus haut ( les deux sont ≥ 0  ) .
Connaissant les valeurs propres, on obtient ensuite quatre vecteurs propres associés : 
 
 
             α3/2                      α3/2                     iβ3/2                 iβ3/2
             α                          -α                          β                      -β
             α1/2                      α1/2                    -iβ1/2                -iβ1/2
Ω1  =    τ       ;     Ω2 =    -τ      ;     Ω3 =    -τ       ;    Ω4 =    τ     [10]
 
( commentaire : ci-dessus en fait, j'ai explicité les composantes des matrices Ω1,2,3,4 sur la "base" Id,A,Φ,Γ . Par exemple : Ω1 =  α3/2.Id +  α.A + α1/2.Φ + τ.Γ . C'eût été mieux de noter différemment les matrice Ω1,2,3,4 et leurs composantes mais bon ... )
et avec : A.Ω1 = α1/2Ω; A.Ω2 = -α1/2Ω; A.Ω3 = iβ1/2Ω3 ; A.Ω4 = -iβ1/2Ω4
 
On vérifie aisément que :
Id = [ ( Ω1 + Ω2 )/α1/2 - i.( Ω3 + Ω4 )/β1/2] / [ 2(α+β ) ]  [11]
et donc : Ap = Ap . Id =
{ [ (α1/2)pΩ1 + (-α1/2)pΩ2 ]/α1/2  - i.[ (iβ1/2)pΩ3 + (-iβ1/2)pΩ4 ]/β1/2 } / [ 2(α+β ) ]  [12]
 
Sachant que  exp(λA) = Id + λA + λ2A2/2  +  λ3A3/3! +. . . . +  λnAn/n! + . . .  , on déduit :
 
exp(λA) = 
{ [ exp(λα1/2).Ω1 + exp(-λα1/2).Ω2 ]/α1/2  - i.[ exp(iλβ1/23 + exp(-iλβ1/24 ]/β1/2 } / [ 2(α+β ) ]    [13]

En réexprimant les Ω1,2,3,4 en fonction des Id,A,Φ et Γ, et après quelques tripatouillages trigonométriques et trigonométriques hyperboliques, on obtient :

exp(λA) = 
{  ch(λ.α1/2) ( α.Id + Φ ) + sh(λ.α1/2) (α1/2.A + τ.α-1/2.Γ ) +
  cos(λ.β1/2) ( β.Id - Φ ) + sin(λ.β1/2) (β1/2.A -  τ.β-1/2.Γ ) } / ( σ2 + 4τ2 )1/2     [14]

 

( je rappelle que α+β = ( σ2 + 4τ2 )1/2 ). Voilà .

                          ************************

 

Exemples classiques, cas limites etc ... 

En prévision des cas limites, je réécris exp(λA) ainsi :

J(λ) = exp(λA) = 
{  ch(λ.α1/2) ( α.Id + Φ ) + [ sh(λ.α1/2)/α1/2 ] ( α.A + τ.Γ ) +
  cos(λ.β1/2) ( β.Id - Φ )  + [ sin(λ.β1/2)/β1/2 ] ( β.A -  τ.Γ ) } / ( α + β )     [15]

Rappel : ( σ2 + 4τ2 )1/2 = α + β

* Cas d=e=f =0 et a,b,c non tous nuls, λ réel quelconque fixé ( Transformation de Lorentz ) :

dans ce cas, σ > 0 et τ = 0, en conséquence α = σ  et β = 0 : un passage à la limite sur β s'impose .
L'expression [ sin(λ.β1/2)/β1/2 ] tend vers λ, donc le terme "en sinus" disparaît .
L'expression cos(λ.β1/2) ( β.Id - Φ ) tend vers "- Φ" et donc : 
exp(λA) = { - Φ + ch(λ.σ1/2) ( σ.Id + Φ ) + sh(λ.σ1/2).( σ1/2.A )  } / σ
 
exp(λA) =  - Φ/σ + ch(λ.σ1/2) ( Id + Φ/σ ) + sh(λ.σ1/2).A/σ1/2    [16]

L'écriture matricielle prend beaucoup de place , pour l'alléger je pose ici k = σ1/2

in extenso :   exp(λA) =
ch(λk)                        sh(λk)a/k                         sh(λk)b/k                       sh(λk)c/k
sh(λk)a/k        [a2ch(λk)+b2+c2]/k2          [ch(λk)-1]ab/k2             [ch(λk)-1]ac/k2
sh(λk)b/k          [ch(λk)-1]ab/k2          [b2ch(λk)+a2+c2]/k2        [ch(λk)-1]bc/k2 
sh(λk)c/k          [ch(λk)-1]ac/k2             [ch(λk)-1]bc/k2          [c2ch(λk)+a2+b2]/k2       [17]
 
( dans la suite du texte, les formules ne sont pas numérotées ).

 

Pour obtenir la formulation classique en terme de "vitesse relative", on introduit les quantités Vx,Vy,Vz et v comme suit :
v = tanh(λk) = tanh(λ.σ1/2) = tanh[ λ(a2+b2+c2)1/2 ]
et Vx,y,z tels que : Vx = a.v/k = a.v/σ1/2 = a.v/(a2+b2+c2)1/2
idem pour Vy et Vz :     Vy = b.v/k  et Vz = c.v/k
et aussi : v2 = Vx2 + Vy2 + Vz2
autrement dit : le vecteur "V" est colinéaire à (a,b,c) et de même sens et la norme de "V" est v = tanh(λk) . Ok ?
sachant ch2 - sh2 = 1 , on déduit : 1/ch2 = 1 - tanh2
et donc ch(λk) = ch(λ.σ1/2)  = (1 - v2)-1/2 que l'on nomme traditionnellement γ
enfin, sh(λk) = sh(λ.σ1/2) = ch(λk).tanh(λk) = γ.v
 
On obtient :  exp(λA) =
γ                         γVx                                   γVy                                 γVz
γVx        (γVx2 + Vy2 + Vz2)/v2         (γ-1)VxVy/v2                 (γ-1)VxVz/v2
γVy               (γ-1)VxVy/v2            (Vx2 +  γVy2 + Vz2)/v2       (γ-1)VyVz/v2
γVz              (γ-1)VxVz/v2                   (γ-1)VyVz/v2            (Vx2 + Vy2 +  γVz2)/v2

qui est la transformation de Lorentz exprimée "classiquement" et pour une vitesse relative "v" suivant la direction (a,b,c) . Et toujours avec la convention "vitesse limite c=1", je le rappelle ( c'est pour cela que la matrice ci-dessus est symétrique ... )

Cas σ = τ = 0 :

Ce cas est un peu plus divertissant en termes de passage aux limites. Si σ et τ tendent vers zéro, alors c'est aussi le cas de α et β ( ces limites seront évaluées à  λ fixé ) .

J(λ) = exp(λA) = 
{  ch(λ.α1/2) ( α.Id + Φ ) + [ sh(λ.α1/2)/α1/2 ] ( α.A + τ.Γ ) +
  cos(λ.β1/2) ( β.Id - Φ )  + [ sin(λ.β1/2)/β1/2 ] ( β.A -  τ.Γ ) } / ( α + β )

Il convient d'exprimer ch(λ.α1/2) et cos(λ.β1/2) jusqu'au 2ème ordre . Par contre on exprimera sh(λ.α1/2)/α1/2 et sin(λ.β1/2)/β1/2 au 1er ordre seulement ( c'est suffisant puisque τ tend vers zéro ) . Ainsi : 

ch(λ.α1/2) = 1 + λ2.α/2 + .....
cos(λ.β1/2) = 1 - λ2.β/2 + .....
sh(λ.α1/2)/α1/2 = λ + ....
sin(λ.β1/2)/β1/2 = λ + ....
 
On déduit de l'expression générale :
exp(λA) = Id + λ.A + λ2.Φ/2
 
et, par ailleurs, τ = 0 entraîne Φ = A2
On peut donc simplement écrire exp(λA) = Id + λ.A + .λ2.A2/2   qui n'est autre que le début de la série infinie de l'exponentielle . 
Bien entendu, on peut obtenir ce résultat instantanément ou presque . Sachant que :
A2 = σ.Id + Φ
A.Φ = Φ.A = τ.Γ
on en déduit, dans le cas présent, A2 =  Φ et A3 = 0  ( c.a.d. la matrice nulle ) et donc la série s'arrête à A2  ... (!!)
On obtient donc une matrice à coefficients polynomiaux de degré 2 maxi en λ .

Un exemple :

           0    1    1    0                                       2   0     0    2
           1    0    0    1                                       0   0     0    0
           1    0    0    1                                       0   0     0    0 
A   =   0   -1   -1   0     donc:  Φ = A2 =    -2    0    0   -2
 
                                   1+λ2   λ      λ     λ2
                                      λ      1      0     λ
                                      λ      0      1     λ
 d'où  exp( λ.A)  =      λ2   -λ    -λ    1-λ2
 
( Je rédigerai peut-être l'exemples de la rotation un de ces jours ... )
 

En préparation : commentaires divers ....

Ah J'allais oublier ... c'est la matrice jacobienne de la transformation de coordonnées qui a été mise sur pied ici, et non la transformation complète à proprement parler ( qui peut inclure des translations par exemple ) mais bon, c'est le plus intéressant, je pense ....

 

 
 
 
 
Quelques considérations sur la non-commutativité des matrices du genre "A" entre elles, ou du genre expλ.A) :
 
 
Introduisons tout d'abord quelques définitions et notations qui seront utiles  :
Je rappelle la forme de la matrice A : 
           0     a     b    c
           a     0     d    e
           b   -d     0     f
A   =   c    -e    -f     0
Introduisons six matrices : trois symétriques L1,L2,L3 et trois antisymétriques R1,R2,R3 , telles que 
A = a.L1 + b.L2 + c.L3 + f.R1 - e.R2 + d.R3
 On en déduit aisément les expressions de chacune de ces 6 matrices
( Attention à la répartition des signes : dans R1 et R3 "+1" est au dessus de la diagonale, et le "-1" est en dessous , mais pour R2, c'est le contraire ...)
Ensuite, on introduit deux vecteurs U et W :
             a                                    f
             b                                  -e
U   =    c         et       W    =     d
et aussi deux vecteurs colonnes un peu particuliers et dont les composantes sont des matrices :
                L1                                       R1
                L2                                      R2
 L    =      L3          et        W    =     R3
 
Adoptant les conventions en usage pour l'écriture des opérations matricielles :
A = UT.L   +  WT.R
Introduisons également les vecteurs U' et W'
              a'                                     f'
              b'                                   -e'
U'   =    c'        et       W'    =     d' 
 
et : A' = U'T.L   +  W'T.R
 
En général, A et A' ne commutent pas, bien sûr ( sauf pour quelques cas particuliers ) .
 
Enfin, on introduit le vecteur complexe V = U + i.W ( en fait, une notation générique "V" , par exemple V' = U' + i.W' , V0= U0 + i.W0 etc .... ) 
 
 
J'utilise la notation conventionnelle pour le commutateur de A et A' :
[A,A'] = A.A' - A'.A
 
La matrice [A,A'] est un peu trop volumineuse et je ne l'écris pas ici, mais la calculer ne présente aucune difficulté . Avec son expression explicite sous les yeux, on constate que sa forme est analogue à celle des matrices A et A' :
 
[A,A'] = - ( U ∧ W' +W ∧ U' )T.L + ( UU' - WW' )T.R
 
Au passage, on peut noter que :
VV' = ( UU' - WW' )  +  i.( U ∧ W' +W ∧ U' )
 
Examinons à présent la question de la non commutativité de deux matrices jacobiennes "générées" par A et A' respectivement, à savoir deux matrices du genre : exp(λ.A) et exp(μ.A') , λ et μ réels . Pour cela, considérons la matrice A' déjà définie plus haut et introduisons une suite infinie de matrices An , 0 ≤ n ≤+∞ , comme suit :
A0 telle que G.A0 antisymétrique  
et  An+1   =   [An , A' ]
 
Alors G.An est antisymétrique pour tout n , les paires de vecteurs Un et Wn sont implicitement définies par : 
An = UnT.L   +  WnT.R
 
et Vn = Un + i.Wn
 
En tenant compte des définitions et résultats précédents, on déduit : 
 
Un+1 = - UnW' -  WnU'
Wn+1 =  UnU'  -  WnW'
qui peut s'écrire : Vn+1  =  i.(Vn ∧ V')
 
La propriété suivante est utile : 
si K1 , K2 et K3 sont trois vecteurs réels ou complexes ,
K1 ∧ ( K2 ∧ K3 ) = (K1T. K3).K2 - (K1T.K2).K3
on en déduit : 
V2 = (V'T.V').V0    - ( V0T.V').V'
 
V3 = i.(V'T.V').(V0 ∧ V')
 
On généralise aisément :
pour n > 0 :
V2n = (V'T.V')n .V0    -     (V'T.V')n-1.( V0T.V').V'
 
pour n ≥ 0 :
V2n+1 = i.(V'T.V')n .(V0 ∧ V')
 
Ceci étant établi, on invoque une propriété valide quelle que soit la forme des matrices (carrées ) en présence, pourvu que la suite An
satisfasse la relation An+1 = [An,A'], en substance : 
exp(-μ.A'). A0 . exp(μ.A')  =    Σ(n≥0) (μn.An)/n!
 
d'où l'on peut aussi déduire les 2 autres propriétés :
exp(-μ.A'). A0p . exp(μ.A')  =  {  Σ(n≥0) (μn.An)/n!  }p
et  
exp(-μ.A'). exp(λ.A0). exp(μ.A')  =  exp{ λ.Σ(n≥0) (μn.An)/n!  }
 
L'identité précédente peut s'écrire :
exp(λ.A0). exp(μ.A') = exp(μ.A').exp{ λ.Σ(n≥0) (μn.An)/n!  }
 
 
( Cette propriété, valable pour des opérateurs, fera l'objet d'un texte séparé, démonstration incluse ...) 
 
La suite de la manip consiste à déduire les Un et Wn des expressions des Vn , expliciter la somme  Σ(n≥0) (μn.An)/n! à l'aide des expressions des Un et Wn , à faire des regroupements ad hoc , à faire disparaître la(les) sommation(s) infinie(s) et faire apparaître à la place des fonctions cos, sin ou ch,sh puisque les expressions des Un et Wn auront d'évidentes caractéristiques "cycliques" versus n etc ....
C'est faisable sans faire de restrictions simplificatrices, mais c'est un peu "galère" car les termes (V'T.V') et ( V0T.V') sont des nombres complexes dans le cas général. La séparation des parties réelles et imaginaires des Vn est requise pour expliciter les Un et Wpuis les An , et conduit à des expressions lourdingues et fastidieuses ....
 
Pour le moment, je pense qu'il est plus pertinent d'examiner quelques cas particuliers intéressants en eux-mêmes et pour lesquels, les calculs seront bien plus simples .
 
1er cas : deux "boost de Lorentz" de directions spatiales perpendiculaires :
 
A et A' sont donc définies par f=d=e=0 et f'=d'=e'=0 ,
soit W0 = W' = 0 . Donc V0 = U0 , V' = U' et V0T.V' = 0
D'où :
pour n > 0 :
V2n = (V'T.V')n .V0  
 
pour n ≥ 0 :
V2n+1 = i.(V'T.V')n .(V0 ∧ V')
 
Dans le cas présent, V'T.V' est le carré euclidien 3d de V' (réel ) et ne joue pas un rôle bien intéressant puisque la présence de μ le rend redondant . Il est plus simple de normer U' : V'T.V' = U'T .U' = 1 . Ainsi :
pour n > 0 :
V2n =  V0    ,  c.a.d. : U2n= U0  et W2n = 0
pour n ≥ 0 :
V2n+1 = i.(V0 ∧ V')    ,   c.a.d.  :  U2n+1 = 0 et W2n+1 = U0U'
 
Σ(n≥0) (μn.An)/n! = 
(n≥0) μ2n/(2n)!}.U0T.L +(n≥0) μ2n+1/(2n+1)!}.(U0U')T.W
 
c'est à dire : 
exp(-μ.A'). A0 . exp(μ.A')  =  Σ(n≥0) (μn.An)/n! = ch(μ).U0T.L + sh(μ).(U0U')T.W
 
2ème cas : A0 "boost de Lorentz" et A' rotation ( direction spatiale de A0 perpendiculaire à l'axe de de A' ) :
 
W0 = 0 , U' = 0 , par ailleurs U0 et W' perpendiculaires ( au sens euclidien classique ) : U0T.W' = 0  
Dans ce cas, V'T.V' est réel négatif : V'T.V' =  - W'T.W
 
V0 = U0
V1 = i.(V0 ∧ V') = - U0 ∧ W'
V2 = (V'T.V').V0 = - (W'T.W').U0
V3 = (W'T.W').U0 ∧ W'
Ici encore, il est plus simple de normer W' :  W'T.W' = 1 , ce qui donne : 
V0 = U0
V1 = i.(V0 ∧ V') = - U0 ∧ W'
V2 = (V'T.V').V0 = - U0
V3 = U0 ∧ W'        etc ...
d'où :
A0U0T.L
A1 = - (U0 ∧ W')T.L
A2 = - U0T.L 
A3 = (U0 ∧ W')T.L     etc ...
et finalement : 
exp(-μ.A'). A0 . exp(μ.A')  =    Σ(n≥0) (μn.An)/n!  = cos(μ).U0T - sin(μ).(U0 ∧ W')T.L
 
..... a suivre .....
 
 
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article