Exemple de la métrique de Minkovsky : 4 dimensions . Je suppose que dans le système de coordonnées "de travail", le tenseur métrique a la forme classique :
1 0 0 0
0 -1 0 0
0 0 -1 0
0 a b c
a 0 d e
b -d 0 f
A = c -e -f 0 [2]
où a,b,c,d,e,f sont des nombres réels . J'exclus le cas d'une matrice nulle, ces nombres ne sont donc pas tous nuls .
Définissons les matrices Φ, Γ :
a2+b2+c2 -bd-ce ad-cf ae+bf
bd+ce a2-d2-e2 ab-ef ac+df
-ad+cf ab-ef b2-d2-f2 bc-de
Φ = -ae-bf ac+fd bc-ed c2-e2-f2 [3]
0 f -e d
f 0 -c b
-e c 0 -a
Γ = d -b a 0 [4]
La matrice identité ( 4dim ) :
1 0 0 0
0 1 0 0
0 0 1 0
Id = 0 0 0 1
Sauf erreur, les matrices A, Φ, Γ ( et Id bien sûr ) commutent entre elles ( c'est garanti en principe mais je le vérifierai quand même ...)
Définissons également les nombres σ,τ,α et β :
σ = a2 + b2 + c2 - d2 - e2 - f2
τ = af - be + cd
α = [ ( σ2 + 4τ2 )1/2 + σ ]/2
β = [ ( σ2 + 4τ2 )1/2 - σ ]/2 [5]
commentaire : ici, la puissance "1/2" désigne la racine carrée conventionnelle ( argument et valeur positives ou nulle ) . Par ailleurs, σ et τ peuvent être positifs ou négatifs ( et s'annuler .... ) . Attention, donc, aux possibles confusions, par exemple si τ=0 et σ>0, alors ( σ2 + 4τ2 )1/2 = ( σ2 )1/2 est la valeur absolue de σ ( c.a.d σ), donc β=0 et α est non nul . Par contre si τ=0 et σ<0, alors ( σ2 + 4τ2 )1/2 = ( σ2 )1/2 qui est toujours la valeur absolue de σ, vaudra - σ et donc α = 0 et β est non nul . Vu ?
Dans tous les cas, α et β sont positifs ou nuls
Après des calculs assez laborieux, on obtient :
J(λ) = exp(λA) =
{ ch(λ.α1/2) ( α.Id + Φ ) + sh(λ.α1/2) (α1/2.A + τ.α-1/2.Γ ) +
cos(λ.β1/2) ( β.Id - Φ ) + sin(λ.β1/2) (β1/2.A - τ.β-1/2.Γ ) } / ( σ2 + 4τ2 )1/2 [6]
Démonstration ( fraîchement tapée, je vérifierai qu'il n'y a pas d'erreurs ...) :
Les calculs ( matriciels ) sont un peu longuets, c'est vrai, mais avec de la patience, on vérifie les relations :
A2 = σ.Id + Φ
A.Φ = Φ.A = τ.Γ [7]
A.Γ = Γ.A = τ.Id
en conséquence, pour tout p entier ≥ 0 , Ap peut s'écrire comme une combinaison linéaire des matrices Id,A,Φ et Γ .
Si : Ap = η1.Id + η2.A + η3.Φ + η4.Γ
alors : Ap+1 = μ1.Id + μ2.A + μ3.Φ + μ4.Γ
avec :
μ1 0 σ 0 τ η1
μ2 1 0 0 0 η2
μ3 0 1 0 0 η3
μ4 = 0 0 τ 0 * η4 [8]
Les "η" et "μ" sont des coefficients de combinaisons linéaires. La matrice ci-dessus "représente" la multiplication par A, en quelque sorte . Appelons  cette matrice .
Ensuite, on cherche les valeurs propres et vecteurs propres de Â. Classiquement, on calcule le déterminant de la matrice
-x σ 0 τ
1 -x 0 0
0 1 -x 0
 - x.Id = 0 0 τ -x
Ce déterminant est = x4 - σx2 - τ2 . Ses 4 racines sont : α1/2 , -α1/2 , iβ1/2 et -iβ1/2 [9] .
"i" est le nombre imaginaire classique, les expressions de α et β sont données plus haut ( les deux sont ≥ 0 ) .
Connaissant les valeurs propres, on obtient ensuite quatre vecteurs propres associés :
α3/2 α3/2 iβ3/2 iβ3/2
α -α β -β
α1/2 α1/2 -iβ1/2 -iβ1/2
Ω1 = τ ; Ω2 = -τ ; Ω3 = -τ ; Ω4 = τ [10]
( commentaire : ci-dessus en fait, j'ai explicité les composantes des matrices Ω1,2,3,4 sur la "base" Id,A,Φ,Γ . Par exemple : Ω1 = α3/2.Id + α.A + α1/2.Φ + τ.Γ . C'eût été mieux de noter différemment les matrice Ω1,2,3,4 et leurs composantes mais bon ... )
et avec : A.Ω1 = α1/2Ω1 ; A.Ω2 = -α1/2Ω2 ; A.Ω3 = iβ1/2Ω3 ; A.Ω4 = -iβ1/2Ω4
On vérifie aisément que :
Id = [ ( Ω1 + Ω2 )/α1/2 - i.( Ω3 + Ω4 )/β1/2] / [ 2(α+β ) ] [11]
et donc : Ap = Ap . Id =
{ [ (α1/2)pΩ1 + (-α1/2)pΩ2 ]/α1/2 - i.[ (iβ1/2)pΩ3 + (-iβ1/2)pΩ4 ]/β1/2 } / [ 2(α+β ) ] [12]
Sachant que exp(λA) = Id + λA + λ2A2/2 + λ3A3/3! +. . . . + λnAn/n! + . . . , on déduit :
exp(λA) =
{ [ exp(λα1/2).Ω1 + exp(-λα1/2).Ω2 ]/α1/2 - i.[ exp(iλβ1/2)Ω3 + exp(-iλβ1/2)Ω4 ]/β1/2 } / [ 2(α+β ) ] [13]
En réexprimant les Ω1,2,3,4 en fonction des Id,A,Φ et Γ, et après quelques tripatouillages trigonométriques et trigonométriques hyperboliques, on obtient :
exp(λA) =
{ ch(λ.α1/2) ( α.Id + Φ ) + sh(λ.α1/2) (α1/2.A + τ.α-1/2.Γ ) +
cos(λ.β1/2) ( β.Id - Φ ) + sin(λ.β1/2) (β1/2.A - τ.β-1/2.Γ ) } / ( σ2 + 4τ2 )1/2 [14]
( je rappelle que α+β = ( σ2 + 4τ2 )1/2 ). Voilà .
************************
Exemples classiques, cas limites etc ...
En prévision des cas limites, je réécris exp(λA) ainsi :
J(λ) = exp(λA) =
{ ch(λ.α1/2) ( α.Id + Φ ) + [ sh(λ.α1/2)/α1/2 ] ( α.A + τ.Γ ) +
cos(λ.β1/2) ( β.Id - Φ ) + [ sin(λ.β1/2)/β1/2 ] ( β.A - τ.Γ ) } / ( α + β ) [15]
Rappel : ( σ2 + 4τ2 )1/2 = α + β
* Cas d=e=f =0 et a,b,c non tous nuls, λ réel quelconque fixé ( Transformation de Lorentz ) :
dans ce cas, σ > 0 et τ = 0, en conséquence α = σ et β = 0 : un passage à la limite sur β s'impose .
L'expression [ sin(λ.β1/2)/β1/2 ] tend vers λ, donc le terme "en sinus" disparaît .
L'expression cos(λ.β1/2) ( β.Id - Φ ) tend vers "- Φ" et donc :
exp(λA) = { - Φ + ch(λ.σ1/2) ( σ.Id + Φ ) + sh(λ.σ1/2).( σ1/2.A ) } / σ
exp(λA) = - Φ/σ + ch(λ.σ1/2) ( Id + Φ/σ ) + sh(λ.σ1/2).A/σ1/2 [16]
L'écriture matricielle prend beaucoup de place , pour l'alléger je pose ici k = σ1/2
in extenso : exp(λA) =
ch(λk) sh(λk)a/k sh(λk)b/k sh(λk)c/k
sh(λk)a/k [a2ch(λk)+b2+c2]/k2 [ch(λk)-1]ab/k2 [ch(λk)-1]ac/k2
sh(λk)b/k [ch(λk)-1]ab/k2 [b2ch(λk)+a2+c2]/k2 [ch(λk)-1]bc/k2
sh(λk)c/k [ch(λk)-1]ac/k2 [ch(λk)-1]bc/k2 [c2ch(λk)+a2+b2]/k2 [17]
( dans la suite du texte, les formules ne sont pas numérotées ).
Pour obtenir la formulation classique en terme de "vitesse relative", on introduit les quantités Vx,Vy,Vz et v comme suit :
v = tanh(λk) = tanh(λ.σ1/2) = tanh[ λ(a2+b2+c2)1/2 ]
et Vx,y,z tels que : Vx = a.v/k = a.v/σ1/2 = a.v/(a2+b2+c2)1/2
idem pour Vy et Vz : Vy = b.v/k et Vz = c.v/k
et aussi : v2 = Vx2 + Vy2 + Vz2
autrement dit : le vecteur "V" est colinéaire à (a,b,c) et de même sens et la norme de "V" est v = tanh(λk) . Ok ?
sachant ch2 - sh2 = 1 , on déduit : 1/ch2 = 1 - tanh2
et donc ch(λk) = ch(λ.σ1/2) = (1 - v2)-1/2 que l'on nomme traditionnellement γ
enfin, sh(λk) = sh(λ.σ1/2) = ch(λk).tanh(λk) = γ.v
On obtient : exp(λA) =
γ γVx γVy γVz
γVx (γVx2 + Vy2 + Vz2)/v2 (γ-1)VxVy/v2 (γ-1)VxVz/v2
γVy (γ-1)VxVy/v2 (Vx2 + γVy2 + Vz2)/v2 (γ-1)VyVz/v2
γVz (γ-1)VxVz/v2 (γ-1)VyVz/v2 (Vx2 + Vy2 + γVz2)/v2
qui est la transformation de Lorentz exprimée "classiquement" et pour une vitesse relative "v" suivant la direction (a,b,c) . Et toujours avec la convention "vitesse limite c=1", je le rappelle ( c'est pour cela que la matrice ci-dessus est symétrique ... )
Cas σ = τ = 0 :
Ce cas est un peu plus divertissant en termes de passage aux limites. Si σ et τ tendent vers zéro, alors c'est aussi le cas de α et β ( ces limites seront évaluées à λ fixé ) .
J(λ) = exp(λA) =
{ ch(λ.α1/2) ( α.Id + Φ ) + [ sh(λ.α1/2)/α1/2 ] ( α.A + τ.Γ ) +
cos(λ.β1/2) ( β.Id - Φ ) + [ sin(λ.β1/2)/β1/2 ] ( β.A - τ.Γ ) } / ( α + β )
Il convient d'exprimer ch(λ.α1/2) et cos(λ.β1/2) jusqu'au 2ème ordre . Par contre on exprimera sh(λ.α1/2)/α1/2 et sin(λ.β1/2)/β1/2 au 1er ordre seulement ( c'est suffisant puisque τ tend vers zéro ) . Ainsi :
ch(λ.α1/2) = 1 + λ2.α/2 + .....
cos(λ.β1/2) = 1 - λ2.β/2 + .....
sh(λ.α1/2)/α1/2 = λ + ....
sin(λ.β1/2)/β1/2 = λ + ....
On déduit de l'expression générale :
exp(λA) = Id + λ.A + λ2.Φ/2
et, par ailleurs, τ = 0 entraîne Φ = A2
On peut donc simplement écrire exp(λA) = Id + λ.A + .λ2.A2/2 qui n'est autre que le début de la série infinie de l'exponentielle .
Bien entendu, on peut obtenir ce résultat instantanément ou presque . Sachant que :
A2 = σ.Id + Φ
A.Φ = Φ.A = τ.Γ
on en déduit, dans le cas présent, A2 = Φ et A3 = 0 ( c.a.d. la matrice nulle ) et donc la série s'arrête à A2 ... (!!)
On obtient donc une matrice à coefficients polynomiaux de degré 2 maxi en λ .
Un exemple :
0 1 1 0 2 0 0 2
1 0 0 1 0 0 0 0
1 0 0 1 0 0 0 0
A = 0 -1 -1 0 donc: Φ = A2 = -2 0 0 -2
1+λ2 λ λ λ2
λ 1 0 λ
λ 0 1 λ
d'où exp( λ.A) = λ2 -λ -λ 1-λ2
( Je rédigerai peut-être l'exemples de la rotation un de ces jours ... )
En préparation : commentaires divers ....
Ah J'allais oublier ... c'est la matrice jacobienne de la transformation de coordonnées qui a été mise sur pied ici, et non la transformation complète à proprement parler ( qui peut inclure des translations par exemple ) mais bon, c'est le plus intéressant, je pense ....
Quelques considérations sur la non-commutativité des matrices du genre "A" entre elles, ou du genre expλ.A) :
Introduisons tout d'abord quelques définitions et notations qui seront utiles :
Je rappelle la forme de la matrice A :
0 a b c
a 0 d e
b -d 0 f
A = c -e -f 0
Introduisons six matrices : trois symétriques L1,L2,L3 et trois antisymétriques R1,R2,R3 , telles que
A = a.L1 + b.L2 + c.L3 + f.R1 - e.R2 + d.R3
On en déduit aisément les expressions de chacune de ces 6 matrices
( Attention à la répartition des signes : dans R1 et R3 "+1" est au dessus de la diagonale, et le "-1" est en dessous , mais pour R2, c'est le contraire ...)
Ensuite, on introduit deux vecteurs U et W :
a f
b -e
U = c et W = d
et aussi deux vecteurs colonnes un peu particuliers et dont les composantes sont des matrices :
L1 R1
L2 R2
L = L3 et W = R3
Adoptant les conventions en usage pour l'écriture des opérations matricielles :
A = UT.L + WT.R
Introduisons également les vecteurs U' et W'
a' f'
b' -e'
U' = c' et W' = d'
et : A' = U'T.L + W'T.R
En général, A et A' ne commutent pas, bien sûr ( sauf pour quelques cas particuliers ) .
Enfin, on introduit le vecteur complexe V = U + i.W ( en fait, une notation générique "V" , par exemple V' = U' + i.W' , V0= U0 + i.W0 etc .... )
J'utilise la notation conventionnelle pour le commutateur de A et A' :
[A,A'] = A.A' - A'.A
La matrice [A,A'] est un peu trop volumineuse et je ne l'écris pas ici, mais la calculer ne présente aucune difficulté . Avec son expression explicite sous les yeux, on constate que sa forme est analogue à celle des matrices A et A' :
[A,A'] = - ( U ∧ W' +W ∧ U' )T.L + ( U∧U' - W∧W' )T.R
Au passage, on peut noter que :
V∧V' = ( U∧U' - W∧W' ) + i.( U ∧ W' +W ∧ U' )
Examinons à présent la question de la non commutativité de deux matrices jacobiennes "générées" par A et A' respectivement, à savoir deux matrices du genre : exp(λ.A) et exp(μ.A') , λ et μ réels . Pour cela, considérons la matrice A' déjà définie plus haut et introduisons une suite infinie de matrices An , 0 ≤ n ≤+∞ , comme suit :
A0 telle que G.A0 antisymétrique
et An+1 = [An , A' ]
Alors G.An est antisymétrique pour tout n , les paires de vecteurs Un et Wn sont implicitement définies par :
An = UnT.L + WnT.R
et Vn = Un + i.Wn
En tenant compte des définitions et résultats précédents, on déduit :
Un+1 = - Un∧W' - Wn∧U'
Wn+1 = Un∧U' - Wn∧W'
qui peut s'écrire : Vn+1 = i.(Vn ∧ V')
La propriété suivante est utile :
si K1 , K2 et K3 sont trois vecteurs réels ou complexes ,
K1 ∧ ( K2 ∧ K3 ) = (K1T. K3).K2 - (K1T.K2).K3
on en déduit :
V2 = (V'T.V').V0 - ( V0T.V').V'
V3 = i.(V'T.V').(V0 ∧ V')
On généralise aisément :
pour n > 0 :
V2n = (V'T.V')n .V0 - (V'T.V')n-1.( V0T.V').V'
pour n ≥ 0 :
V2n+1 = i.(V'T.V')n .(V0 ∧ V')
Ceci étant établi, on invoque une propriété valide quelle que soit la forme des matrices (carrées ) en présence, pourvu que la suite An
satisfasse la relation An+1 = [An,A'], en substance :
exp(-μ.A'). A0 . exp(μ.A') = Σ(n≥0) (μn.An)/n!
d'où l'on peut aussi déduire les 2 autres propriétés :
exp(-μ.A'). A0p . exp(μ.A') = { Σ(n≥0) (μn.An)/n! }p
et
exp(-μ.A'). exp(λ.A0). exp(μ.A') = exp{ λ.Σ(n≥0) (μn.An)/n! }
L'identité précédente peut s'écrire :
exp(λ.A0). exp(μ.A') = exp(μ.A').exp{ λ.Σ(n≥0) (μn.An)/n! }
( Cette propriété, valable pour des opérateurs, fera l'objet d'un texte séparé, démonstration incluse ...)
La suite de la manip consiste à déduire les Un et Wn des expressions des Vn , expliciter la somme Σ(n≥0) (μn.An)/n! à l'aide des expressions des Un et Wn , à faire des regroupements ad hoc , à faire disparaître la(les) sommation(s) infinie(s) et faire apparaître à la place des fonctions cos, sin ou ch,sh puisque les expressions des Un et Wn auront d'évidentes caractéristiques "cycliques" versus n etc ....
C'est faisable sans faire de restrictions simplificatrices, mais c'est un peu "galère" car les termes (V'T.V') et ( V0T.V') sont des nombres complexes dans le cas général. La séparation des parties réelles et imaginaires des Vn est requise pour expliciter les Un et Wn puis les An , et conduit à des expressions lourdingues et fastidieuses ....
Pour le moment, je pense qu'il est plus pertinent d'examiner quelques cas particuliers intéressants en eux-mêmes et pour lesquels, les calculs seront bien plus simples .
1er cas : deux "boost de Lorentz" de directions spatiales perpendiculaires :
A et A' sont donc définies par f=d=e=0 et f'=d'=e'=0 ,
soit W0 = W' = 0 . Donc V0 = U0 , V' = U' et V0T.V' = 0
D'où :
pour n > 0 :
V2n = (V'T.V')n .V0
pour n ≥ 0 :
V2n+1 = i.(V'T.V')n .(V0 ∧ V')
Dans le cas présent, V'T.V' est le carré euclidien 3d de V' (réel ) et ne joue pas un rôle bien intéressant puisque la présence de μ le rend redondant . Il est plus simple de normer U' : V'T.V' = U'T .U' = 1 . Ainsi :
pour n > 0 :
V2n = V0 , c.a.d. : U2n= U0 et W2n = 0
pour n ≥ 0 :
V2n+1 = i.(V0 ∧ V') , c.a.d. : U2n+1 = 0 et W2n+1 = U0∧U'
Σ(n≥0) (μn.An)/n! =
{Σ(n≥0) μ2n/(2n)!}.U0T.L +{Σ(n≥0) μ2n+1/(2n+1)!}.(U0∧U')T.W
c'est à dire :
exp(-μ.A'). A0 . exp(μ.A') = Σ(n≥0) (μn.An)/n! = ch(μ).U0T.L + sh(μ).(U0∧U')T.W
2ème cas : A0 "boost de Lorentz" et A' rotation ( direction spatiale de A0 perpendiculaire à l'axe de de A' ) :
W0 = 0 , U' = 0 , par ailleurs U0 et W' perpendiculaires ( au sens euclidien classique ) : U0T.W' = 0
Dans ce cas, V'T.V' est réel négatif : V'T.V' = - W'T.W
V0 = U0
V1 = i.(V0 ∧ V') = - U0 ∧ W'
V2 = (V'T.V').V0 = - (W'T.W').U0
V3 = (W'T.W').U0 ∧ W'
Ici encore, il est plus simple de normer W' : W'T.W' = 1 , ce qui donne :
V0 = U0
V1 = i.(V0 ∧ V') = - U0 ∧ W'
V2 = (V'T.V').V0 = - U0
V3 = U0 ∧ W' etc ...
d'où :
A0 = U0T.L
A1 = - (U0 ∧ W')T.L
A2 = - U0T.L
A3 = (U0 ∧ W')T.L etc ...
et finalement :
exp(-μ.A'). A0 . exp(μ.A') = Σ(n≥0) (μn.An)/n! = cos(μ).U0T - sin(μ).(U0 ∧ W')T.L
..... a suivre .....