approx_haute_fréquence

Publié le

 
Ce texte devait être la suite de celui consacré aux formalismes lagrangien et hamiltonien . Outre la numérotation qui doit être refaite ( paragraphe 7 et non 6 ), j'ai suspendu sa rédaction car je me suis laissé emporter dans une direction un peu trop inspirée par l'approche classique du cas de l'équation d'ondes . Or ce n'était pas ce qui m'avait motivé au départ . La difficulté mathématique et le fait que je ne m'y consacre qu'à temps perdu sont dissuasifs ...
 
 
6 équation différentielle hyperbolique du second ordre aux dérivées partielles et approximation "haute fréquence"
 
Plaçons-nous dans l'espace Ex à N dimensions, doté comme précédemment d'un système de coordonnées natif "Xi". Soit une matrice NxN symétrique "b" dont les coefficients réels dépendent continûment du point de l'espace . Explicités  dans les coordonnées Xi :  bij(X) . Imposons en outre à cette matrice symétrique à coefficients variables "b" de n'avoir que des valeurs propres non nulles et pas toutes de même signe ( rappel : les valeurs propres d'une matrice symétriques sont réelles ) .
 

 Introduisons dans Ex l'équations du second ordre aux dérivées partielles : 

Σ(i,j) bij(X) . (∂2f(X)/∂Xi∂Xj) = 0    [6_1]
 
où f est la fonction inconnue du problème .
 
Le principe de l'approximation haute fréquence consiste à chercher la solution sous la forme : 
 
f(X) = Λ(X) . q[Ψ(X)]   [6_2]
Un assemblage de trois entités : Λ, Ψ et q . 
 
 Λ et Ψ sont deux fonctions inconnues définies sur l'espace Ex, le but sera donc de les déterminer. Pourquoi DEUX fonctions inconnues ? N'est-ce pas compliquer le problème puisque il n'y a, au départ, QU'UNE SEULE fonction inconnue f ? Réponse : Λ et Ψ vont jouer deux rôles mathématiques bien DISTINCTS, et c'est "q" justement, qui va les y forcer .
 
"q" n'est pas une inconnue du problème, dans une application pratique ( c.a.d. :  numérique ) q sera choisie ou dictée par le contexte applicatif, c'est vrai, mais tant qu'on reste dans la construction théorique, "q" est essentiellement un auxiliaire conceptuel du raisonnement .
Plus en détails : 
"q" est une fonction d'une seule variable, une fonction "ordinaire" si l'on veut, aussi noterai-je basiquement q' et q" les dérivées premières et seconde de q par rapport à sa variable ( et dans la présente construction théorique, sa variable sera Ψ ) .
 
Par ailleurs, "q" est censé être une fonction "haute fréquence" vérifiant les propriétés suivantes :
Le contenu fréquentiel de q doit être placé "infiniment haut" . Cela n'a guère de sens dans une application concrète, bien sûr, car q est alors choisie et elle est telle qu'elle est, mais la solution "haute fréquence" sera d'autant plus crédible/valide que le spectre de q sera plus élevé .
Mais ce n'est pas tout : le contenu fréquentiel, supposé "tendre vers l'infini" est aussi supposé être suffisamment "large" pour que la fonction et ses deux dérivées successives ( soient q, q' et q" ) puissent être considérées linéairement indépendantes entre elles . [6_3] 
 
Précision : il s'agit ici de la même notion "linéairement indépendant(e)s " qui s'applique aux vecteurs : une combinaison linéaire des trois fonctions ne peut s'approcher significativement de zéro pour toute valeur de la variable commune que si les coefficients de la combinaison linéaire sont eux même nuls . ( je tiens à préciser ce point car le qualificatif "indépendantes", appliqué à des fonctions, peut être interprété de différentes manières, si on ne précise pas ....)
 
Introduisons l'expression [6_2] dans l'équation [6_1] . On obtient : 
 
q''[Ψ(X)] . Terme1  +  q'[Ψ(X)] .  Terme2  +  q[Ψ(X)] . Terme3  = 0    [6_4]
 
avec : 
Terme1 = Λ(X) . Σ(i,j) bij(X) . (∂Ψ(X)/∂Xi ).( ∂Ψ(X)/∂Xj )  [6_5]
Terme2 =  Σ(i,j)  bij(X){ 2( ∂Λ(X)/∂Xi ).( ∂Ψ(X)/∂Xj )  +   ( Λ(X). ∂2Ψ(X)/∂Xi ∂Xj ) }   [6_6]
Terme3 = Σ(i,j) bij(X) . (∂2Λ(X)/∂Xi∂Xj)    [6_7]
 
Principe du découplage : 
 
Ce que l'on construit ici est une approximation "haute fréquence" de la solution, on accepte donc à priori que l'équation [6_4] ne puisse être satisfaite exactement . On cherchera seulement à rendre le terme de gauche de [6_4] aussi "proche" de zéro que possible, et on veut qu'il en soit ainsi quelle que soit la fonction q choisie pourvu qu'elle satisfasse les critères [6_3] .
Ainsi le terme de gauche de [6_4] est une combinaison linéaires de q,q', et q", combinaison dont les coefficients sont Terme1, Terme2 et Terme3 . Le choix d'une fonction q est assez "libre", les critères [6_3] sont censés être satisfaits, c'est vrai, mais cela laisse encore beaucoup de degrés de libertés qui sont étrangers à l'espace Ex . En conséquence, la "physionomie" de notre problème s'affine un peu : nous devons forcer chacun des Terme1, Terme2 et Terme3 à être aussi près de zéro que possible
.
 Si l'on veut, on peut "voir" le problème, ici, comme un problème d'optimisation "classique" avec fonction coût, bien qu'aucune fonction coût basique, positive par construction n'ait été introduite ici, l'analogie est évidente . 
 
En général les Terme1,2,3 ne pourront s'annuler tous les trois. Par ailleurs l'hypothèse du contenu "haute fréquence" des critères [6_3] implique que sur l'étendue du spectre de q, on a ( globalement ) :
 
q" >> q' >> q  [6_8] 
et donc la "pression" ( c.a.d. la nécessité de rendre les Terme1,2,3 aussi proches de zéro que possible ) sera la plus "forte" sur Terme1, un peu moins "forte" ( mais significative ) sur Terme2 ... et la moins "forte" sur Terme 3 . Et ça tombe bien, justement car Terme1 et Terme2 PEUVENT effectivement être nuls simultanément ( sous certaines conditions de régularité pour Terme2 ...) .
 
En conclusion de ce raisonnement, nous décidons de "forcer" Terme1 et Terme2 à être nuls et nous abandonnons Terme3 à son triste sort puisque en général il ne pourra s'annuler en même temps que les deux autres ( et le critère [6_8] nous dit que la contribution de Terme3 à l'équation [6_4] sera comparativement négligeable ) . Notre problème ainsi reformulé s'écrit :
Terme1 = 0  et Terme2 = 0 . 
 
Λ est coefficient multiplicatif dans Terme1, on rajoute l'hypothèse de travail   Λ(X) diff de zéro ( autant que je sache, cette hypothèse de travail n'est jamais prise en défaut , du moins tant qu'on ne fait pas intervenir des conditions/valeurs initiales ou aux limites mais je reviendrais sur ce point.... ).
 
Nos "nouvelles" équations s'écrivent donc 
 
Σ(i,j) bij(X) . (∂Ψ(X)/∂Xi ).( ∂Ψ(X)/∂Xj ) = 0  [6_8]
 
Σ(i,j)  bij(X){ 2( ∂Λ(X)/∂Xi ).( ∂Ψ(X)/∂Xj )  +   ( Λ(X). ∂2Ψ(X)/∂Xi ∂Xj ) } = 0    [6_9]
Nous avons donc effectué un découplage ( obtenu deux équations à partir d'une seule ) .
 
 
Ensuite, on "plonge" l'espace Ex dans une espace à 2N dimensions Epx doté d'un système de coordonnées "natif" Xi,Pi et on définit sur cet espace la fonction H comme suit :
H(X,P) =   (1/2). Σ(i,j) bij(X) . Pi . Pj    [6_10]
D'emblée, pour alléger l'écriture, on pose : 
Πi(X)   =   ∂Ψ(X)/∂Xi   [6_11]
tout de suite une propriété intéressante :
 
∂Πi(X)/∂Xj = ∂2Ψ(X)/∂Xi ∂Xj =   ∂Πj(X)/∂Xi    [6_12]
c.a.d.  les ∂Πi(X)/∂Xj sont symétriques en i et j .
 
[6_8] et [6_9] se ré-écrivent donc : 
 
Σ(i,j) bij(X) .  Πi(X) . Πj(X)  = 0        [6_13]
ou encore :  H[ X,Π(X) ]  = 0
 et : 
2Σ(i,j) ( ∂Λ(X)/∂Xi ). bij(X) .Πj(X) +   Λ(X).  Σ(i,j)  
bij(X) . ( ∂ Πi(X)/∂Xj  ) = 0     [6_14]
 
Examinons le terme Σ(i,j) ( ∂Λ(X)/∂Xi ). bij(X) .Πj(X)  qui apparaît dans [6_14] :
Σ(i,j) ( ∂Λ(X)/∂Xi ). bij(X) .Πj(X)  = 
Σ(i)  ( ∂Λ(X)/∂Xi ). Σ(i,j) bij(X) .Πj(X) }
 = Σ(i)  ( ∂Λ(X)/∂Xi ).  (∂H/∂Pi)(P = Π(X)  )    [6_15]
 
Notons très momentanément Vi = (∂H/∂Pi)(P = Π(X) 
l'expression [6_15] est  Σ(i)  ( ∂Λ(X)/∂Xi ).Vi
, c.a.d. le produit du gradient de Λ ( versus X ) par le vecteur V . L'équation [6_14] régit donc la variation instantanée de Λ(X) suivant V . 
 
Et bien, tant que nous y sommes, nommons dX/dσ ce vecteur "V". Par définition donc : 
 dXi/dσ      = (∂H/∂Pi)(P = Π(X)      [6_16]
 
Ainsi, nous définissons un élément infinitésimal de courbe dans l'espace Ex, avec son paramétrage σ , un embryon de courbe de Ex déjà paramétré en quelque sorte . Pour que cet élément infinitésimal de courbe donne naissance à une courbe véritable, il nous faut savoir comment le vecteur dX/dσ lui-même varie sur un "pas" dσ le long de la courbe . Voici comment : 
 
d'après [6_13] , la condition H[ X,Π(X) ]  = 0 doit toujours être vérifiée . C'est une contrainte imposée à Π(X) ( et donc à  Ψ(X) , en tout point de l'espace ) . Par conséquent  :
H[ X,Π(X) ]/∂Xi  =  0
qui peut s'écrire :
  (∂H/∂Xi)(P = Π(X) )  + Σ(j)  { (∂H/∂Pj)(P = Π(X)  } .(∂ Πj(X)/∂Xi)q   = 0
 Or d'après [6_16], par définition : (∂H/∂Pj)(P = Π(X)  =  dXj/dσ   
et   ∂ Πj(X)/∂Xi  =  ∂ Πi(X)/∂Xj  d'après  [6_12]
donc : 
(∂H/∂Xi)(P = Π(X) )  + Σ(j) (dXj/dσ) . (∂ Πi(X)/∂Xj) =  0   
(2,3 petites erreurs de notation . corrigées !)
qui peut s'écrire :
(∂H/∂Xi)(P = Π(X) )  + i(X)/ dσ   =  0   [6_17]
ou encore : i(X)/ dσ = - (∂H/∂Xi)(P = Π(X) )    [6_18]
Rappelons [6_16] :  dXi/dσ      = (∂H/∂Pi)(P = Π(X)  
[6_16] et [6_18] sont un système d'équations d'Hamilton .
 
Ici encore, pourvu que l'on se rappelle clairement "qu'est-ce qui dépend de quoi", on peut se permettre une écriture ultra-concise ( et classique ) : 
dXi/dσ    =    (∂H/∂Pi)X   [6_19]
dPi/dσ    =  - (∂H/∂Xi)P  [6_20]
 
Indifféremment dans Epx ou Ex, j'appellerai courbes H-optimales, les courbes solutions des équations  [6_17] et  [6_18] ( resp.  [6_19] et  [6_20] )
 
Discussion concernant le rôle mathématique ou mathématico-physique de ces courbes :
 
L' équation [6_1] est accompagnée de conditions initiales et/ou de conditions aux limites etc .... Le terme de droite de l'équation peut ne pas être nul dans "TOUT l'espace" ( c.a.d. dans l'espace décrit par les coordonnées Xi quand ces coordonnées prennent toutes les valeurs réelles possibles ) . J'appelle "zone source" la partie de l'espace où le terme de droite de [6_1] est non nul LE CAS ECHEANT, j'envisage UNIQUEMENT ici le cas ou le nombre de dimensions de la "zone source" est < N . Par ailleurs si une telle "zone source" est présente dans le problème, je considérerai qu'elle est EXCLUE de l'espace Ex de travail, pour simplifier un peu l'approche d'ensemble .

 Qu'une telle "zone source" définie comme ci-dessus soit présente ou pas, les conditions aux limites et/ou initiales seront toujours très "géométrisées" pour s'adapter à l'esprit de l'approximation haute-fréquence, elles seront ré-exprimées dans l'espace Ex ( éventuellement dans un voisinage infinitésimal de la "zone source" si celle-ci existe ) , d'une façon appauvrie, exclusivement géométrique,  et je préciserai plus loin ce que j'entends par là .

Les conditions initiales et/ou aux limites sont "traduites" de façon à définir LE SOUS-ENSEMBLE des courbes H-optimales qui interviennent EFFECTIVEMENT dans le problème, c'est à dire les SEULES courbes H-optimales qui sont requises pour la construction de la solution "haute fréquence" ( l'exemple de l'équation d'ondes permettra de clarifier un peu les choses ...) . Ces courbes H-optimales "utiles", accompagnées du terme d'amplitude Λ(X) qu'elles transportent, permettent de construire une formule de CONNEXION en fait : connexion entre conditions initiales et/ou aux limites "géométrisées" et point courant, ou encore connexion entre points "courants" distincts sur une même courbe H-optimale si des singularités de Λ(X) apparaissent .
 
Mais retour au concret ( et aux formules ) :
 
Notion de surface racine pour les courbes H-optimales :
 
Je postule l'existence d'une surface à N-1 dimensions dans l'espace Ex, telle qu'en chacun de ses points, les quantités σ, Λ, Ψ et  Π sont données ( je rappelle que Π(X) est le gradient de Ψ(X) dans le système de coordonnées X ) . En chaque point de cette surface, est "enracinée" une courbe optimale, aussi la nommé-je "surface racine" . Je rajoute aussi l'hypothèse de travail suivante : en chaque point de la "surface racine", la courbe optimale associée n'est jamais tangente à la surface .
 
La "surface racine" est, en outre dotée d'un système de coordonnées φ, k compris entre 1 et N-1 . A chaque "N-1"_uplet de coordonnées φk correspond un point de la surface . En ce point les quantités σ, Λ, Ψ et  Π 
sont données , on peut donc invoquer les équations [6_16] et [6_18] et tracer la courbe H-optimale issue de ce point d'ancrage . 
La surface racine est un continuum de points à N-1 dimensions et définit donc un continuum "N-1"dimensionnel de courbes H-optimales qui remplissent l'espace Ex, chacune "ancrée" sur un point spécifique de la surface racine . Chacune de ces courbes est paramétrée par "σ" ( dont la valeur initiale en chaque point d'ancrage est donnée, voir hypothèses plus haut ) . "
σ" devient donc une coordonnée "transverse" à la surface racine que l'on joint aux coordonnées φk pour constituer un nouveau système de N coordonnées pour Ex . Il y a N-1  coordonnées φk, par commodité je choisis l'alias φn pour σ : "σ" et "φn" sont une même entité : Voilà, le système de coordonnées "φ" est sur pied .
 
Une pause pour souffler, et un commentaire :
Les N φk sont-ils toujours un système de coordonnées valide pour Ex ? Est-ce aussi simple ? Réponse : non, ce n'est pas aussi simple, car il peut arriver qu'un point de l'espace soit atteignable par plus d'une courbe H-optimale ancrée sur la surface racine . On peut contourner en partie  le problème  en divisant la surface racines en "portions", cela dit dans ce genre de situation apparaît aussi la difficile question des  singularités de la quantité Λ . Bien que ce ne soit pas le but du présent exposé, j'en dirai quelques mots dans le texte .
 
Retournons à l'équation [6_14] . A l'aide de [6_15] et [6_16], cette équation peut être ré-écrite ainsi :
 
Σ(i)  ( ∂Λ(X)/∂Xi ). dX/dσ +  Λ(X).  Σ(i,j) bij(X) . ( ∂ Πi(X)/∂Xj  ) = 0     
 
L'introduction du système de coordonnées "φ"  ( avec, je le rappelle, φn alias pour σ ) autorise la notation "dérivée partielle" pour la dérivée par rapport à σ ( qui n'était jusqu'à présent qu'une dérivée tangente à la courbe H-optimale considérée ) . J'adopte les conventions de notation suivantes : 
∂ . /∂σ  : dérivée vs σ ( ou φn ) à φ1 , φ2  ......  φn-1
constants , ce sera donc toujours la dérivée vs σ le long de la courbe .
∂ . /∂φk  :  dérivée vs φk aux AUTRES φi  constants ( ce peut être la dérivée" ∂ . /∂σ " précédente si k = N ...)
Bien sûr, ces dérivées commutent entre elles .
 
 
Notre équation [6_14] peut donc s'écrire  : 
 
2 ∂Λ/∂σ +  Λ(X).  Σ(i,j) bij(X) . ( ∂ Πi(X)/∂Xj  ) = 0     [6_21]
 
Examinons le terme      Σ(i,j)  bij(X).(∂Πi(X)/∂Xj) : 
 
Σ(i,j)  bij(X).(∂Πi(X)/∂Xj)  = Σ(i,j) ∂[ bij(X).Πi(X) ]/∂Xj - Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X)
c'est à dire : Σ(i,j)  bij(X).(∂Πi(X)/∂Xj)  =  Σ(j) ∂[ ∂Xj/∂σ ]/∂Xj - Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X)    [6_22]
 
Par ailleurs : 
Σ(j) ∂[ ∂Xj/∂σ ]/∂Xj
  =  Σ(j,k) [ ∂( ∂Xj/∂σ )/∂φk ] . ( ∂φk /∂Xj ) 
 = Σ(j,k) [ ∂( ∂Xj/∂φk )/∂σ ] . ( ∂φk /∂Xj )     [6_23]
Appelons J la matrice jacobienne dont le terme de ligne i et de colonne k est :   ∂Xi/∂φk
alors :
 Σ(j,k) [ ∂( ∂Xj/∂φk )/∂σ ] . ( ∂φk /∂Xj )
=  trace[ ∂J/∂σ . J-1 ]  
 
Posons alors D = det(J) , on peut invoquer l'identité : 
trace[ ∂J/∂σ . J-1 = D-1 . ∂D/∂σ    [6_24]
( je joindrai le démonstration dès que possible )
Et donc : 
Σ(i,j)  bij(X).(∂Πi(X)/∂Xj)  =  D-1D/∂σ  -  Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X)    [6_25]
 
et [6_21] devient : 
2. ( dΛ/dσ) + Λ. D-1 . dD/dσ  -  Λ. Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X)  = 0 
 
multipliant pat Λ.D  : 
2. (D.Λ. dΛ/dσ) + Λ2. dD/dσ  -  D.Λ2Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X)  = 0   
 
c.a.d :     d(D.Λ2) /dσ - D.Λ2.  Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X)  = 0    [6_26]
 
Introduisons à présent une fonction ζ  ( zêta ) définie par :
ζ-1 . dζ/dσ = Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X [6_27]
( c.a.d. :  ln(ζ) est une primitive "en σ" de Σ(i,j) ( ∂ bij(X) /∂Xj ).Πi(X) ) 
[6_26] s'écrit alors :    d(D.Λ2) /dσ - D.Λ2.  ζ-1 . dζ/dσ  = 0
 
et finalement :  d(ζ.D.Λ2) /dσ = 0    [6_28]
équivalent à ζ.D.Λ2 = constante le long de la courbe . Je rappelle que Λ est notre inconnue ici . D est censé être calculable car il implique le "comportement" géométrique de courbe optimales voisines, les courbes elles mêmes étant gouvernées  par des conditions initiales et les équations d'Hamilton. On est donc capable, en principe, de calculer D avec une précision acceptable. Cela peut se faire soit par interpolation entre courbes voisines calculées ou bien par extrapolation si les coefficients de la matrice J sont eux-mêmes calculés numériquement à l'aide d'un système d'équations spécifiques en même temps que chaque courbe H-optimale . Cette dernière méthode est mathématiquement et numériquement "chic" puisqu'on implique encore d'autres équations mais ce peut être beaucoup de travail pour pas grand-chose si Λ n'a pas besoin d'être évalué avec une grande précision : l'interpolation est bien plus simple dans ce cas ( et plus sûre aussi : plus d'équations à intégrer signifie plus de risques d'erreurs, théoriques ou de programmation ... ) .
ζ qui peut s'intégrer numériquement si besoin, ne dépend que des X, des Π  et des dérivées spatiales des bi,j(X) SUR LA COURBE considérée et NON du comportement géométriques de courbes voisines ( si elles convergent, divergent etc ... )
 
 
 
  A SUIVRE ...
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article