Une brève à propos des indices musicaux III

Je poursuis dans cet article l’étude de l’application \sharp : \xi\in E^*\mapsto \xi^\sharp\in E associée à une forme bilinéaire non dégénérée entamée dans deux billets antérieurs. Après avoir présenté ici le cas des produits scalaires et celui des formes symplectiques, j’aborde à présent celui des formes symétriques de signature quelconque. Je vous réfère à ces articles pour la définition de l’application \sharp.

Ici, E est un espace vectoriel réel de dimension finie n >1. Nous noterons g une forme bilinéaire symétrique non dégénérée de signature (p,q) de E. Cela signifie qu’il existe des bases de celui-ci dans lesquelles g est représenté par la matrice diagonale

\Delta:=\mathrm{diag}(\underbrace{1,\ldots,1}_{p},\underbrace{-1,\ldots,-1}_{q})=\mathrm{diag}(I_p,-I_q)

I_k désigne la matrice unité de taille k. Nous dirons de ces bases qu’elles sont adaptées à g.

Naturellement, si (p,q)=(n,0), g est un produit scalaire et, si (p,q)=(0,n), c’est -g qui en est un. Nous allons dès lors supposer que pq\neq 0 puisque les autres cas sont déjà traités.

Le résultat est le suivant

Soient \xi\in E^*\setminus\{0\}, \mathbf x\in E et deux entiers strictement positifs p et q tels que p+q=n. Il existe une forme bilinéaire symétrique non dégénérée de signature (p,q) telle que \mathbf x=\xi^\sharp si, et seulement si, \mathbf x\neq 0.

Ma démonstration est techniquement un peu lourde sans être pour autant conceptuellement difficile : contrairement aux cas des produits scalaires et des formes symplectiques, qui se traitent de façon assez triviale, je n’ai rien trouvé d’immédiat.

On vérifie facilement que si les composantes de \xi dans la base duale d’une base adaptée à g sont \mu=(\mu_1,\ldots,\mu_n), alors celles de \xi^\sharp dans la base adaptée sont u=(\mu_1,\ldots,\mu_p,-\mu_{p+1},\ldots,-\mu_n). Autrement dit u=\Delta \mu(*).

En particulier, si \xi n’est pas nul, alors \xi^\sharp ne l’est pas non plus, ce que nous savions déjà puisque \sharp est une bijection linéaire.

Etablir la réciproque, i.e. que si \mathbf x n’est pas nul, il s’écrit \xi^\sharp pour une certaine forme g de signature (p,q), revient à montrer qu’il existe des bases de E pour lesquelles u=\Delta \mu, où u sont les composantes de \mathbf x dans la base et \mu sont celles de \xi dans la base duale.

Nous allons faire cela en partant d’une base (plus ou moins) quelconque \mathbf f=(\mathbf f_1,\ldots, \mathbf f_n) de E et en trouvant une matrice de changement de bases S qui la transforme en une base \mathbf e=(\mathbf e_1,\ldots, \mathbf e_n) ayant la propriété en question(**).

Les relations liant les différentes composantes de \mathbf x et \xi sont v=Su et \mu=\tilde{S}\nu. Par conséquent, il s’agit d’établir l’existence d’une matrice non singulière S telle que

(1) v=S\Delta\tilde{S}\nu

Assez naturellement, nous allons écrire S sous la forme \begin{pmatrix}A&B\\C&D\end{pmatrix}A est une matrice carrée de taille p, D une de taille q, B est une matrice à p lignes et q colonnes et C une matrice à q lignes et p colonnes. On a alors

S\Delta\tilde{S}=\begin{pmatrix}A\tilde{A}-B\tilde{B}&A\tilde{C}-B\tilde{D}\\C\tilde{A}-D\tilde{B}&C\tilde{C}-D\tilde{D}\end{pmatrix}

La solution que je propose repose sur une discussion basée sur le signe de \xi(\mathbf x); elle montre bien, techniquement du moins, pourquoi l’hypothèse pq\neq 0 fait marcher les choses.

\boxed{\xi(\mathbf x)>0}

Puisque \xi(\mathbf x)\neq 0, on a E=\ker\xi\oplus\mathbf R\mathbf x. On peut donc choisir une base \mathbf f pour laquelle \mathbf f_1=\mathbf x et, si (\varphi^1,\ldots,\varphi^n) est sa base duale, \xi=\xi(\mathbf x)\varphi^1. Pour cette base, v=\overrightarrow{\mathbf e}_1:=(1,0,\ldots,0) et \nu=\xi(\mathbf x)\overrightarrow{\mathbf e}_1. La condition (1) exprime alors le fait que \overrightarrow{\mathbf e}_1 est un vecteur propre de valeur propre 1/\xi(\mathbf x) de la matrice S\Delta\tilde{S}.

Nous allons prendre B=0, C=0, D=I_q et

A=\mathrm{diag}(\frac{1}{\sqrt{\xi(\mathbf x)}},I_{p-1})

Avec ces choix, on a

S\Delta\tilde{S}=\begin{pmatrix}\frac{1}{\xi(\mathbf x)}&0&0\\0&I_{p-1}&0\\0&0&-I_q\end{pmatrix}

qui répond bien à la question.

\boxed{\xi(\mathbf x)<0}

Cette fois, nous choisissons \mathbf f pour que v=\overrightarrow{\mathbf e}_n:=(0,\ldots,0,1) et \xi=\xi(\mathbf x)\varphi^n. C'est alors \overrightarrow{\mathbf e}_n qui est un vecteur propre de valeur propre 1/\xi(\mathbf x) de S\Delta\tilde{S}.

Nous prenons encore B=0 et C=0 mais, en quelque sorte, nous inversons les rôles de A et de D puisque nous posons A=I_p et

D=\mathrm{diag}(I_{q-1},\frac{1}{\sqrt{-\xi(\mathbf x)}})

Cette fois,

S\Delta\tilde{S}=\begin{pmatrix}I_p&0&0\\0&-I_{q-1}&0\\0&0&\frac{1}{\xi(\mathbf x)}\end{pmatrix}

qui répond de nouveau à la question.

\boxed{\xi(\mathbf x)=0}

Ce cas est un peu plus compliqué que les deux précédents. Il va se subdiviser en deux sous-cas.

  • \boxed{p\geqslant q}
    Nous choisissons dans ce cas \mathbf f de manière telle que \mathbf x=\mathbf f_1 et \xi=\varphi^n. Il suffit pour cela de prendre une base (\mathbf x=\mathbf f_1,\ldots,\mathbf f_{n-1}) de \ker \xi et un élément \mathbf f_n de E tel que \xi(\mathbf f_n)=1 (il en existe puisque \xi n’est pas nul).

    Les conditions imposées à S sont alors(***)

    \begin{cases}(A\tilde{C}-B\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=\overrightarrow{\mathbf e}^{(p)}_1\\(C\tilde{C}-D\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=0\end{cases}

    On voit facilement que le choix suivant fournit une matrice non singulière S vérifiant ces conditions : A=I_p, D=I_q, B=0, et

    C=\begin{pmatrix}0&I_{q-1}&0\\1&0&0\end{pmatrix}

    (On notera, concernant C qui doit comporter p colonnes, que ce choix est possible vu que p\geqslant q.)

  • \boxed{p<q}
    Ici, d'une certaine façon, on échange les rôles tenus dans le cas précédent par les indices 1 et n et les matrices B et C. En détails, on choisit cette fois \mathbf f pour que \mathbf x=\mathbf f_n et \xi=\varphi^1 ce qui impose à S de vérifier les relations

    \begin{cases}(A\tilde{A}-B\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=0\\(C\tilde{A}-D\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=\overrightarrow{\mathbf e}^{(q)}_q\end{cases}

    Pour que ce soit le cas, il suffit de prendre A=I_p et D=I_q puis C=0 et

    B=\begin{pmatrix}0&0&1\\0&I_{p-1}&0\end{pmatrix}

Vu sa taille, cet article n’est pas vraiment « une brève » mais je lui ai conservé cette dénomination en raison de sa parenté avec les deux articles mentionnés en début de texte.

Je suis d’ailleurs un peu surpris par la difficulté technique de la preuve ci-dessus. Peut-être existe-t-il une approche plus conceptuelle et concise. J’y réfléchirai et reste ouvert à toute suggestion.

😉

––––––––––
(*) Les n-upples tels que u, \mu, sont tantôt horizontaux (dans le corps du texte, généralement) tantôt verticaux, dans des égalités matricielles le plus souvent. Je ne préciserai pas les choses à chaque occasion, espérant que le contexte lève toute ambiguïté.

(**) Pour que les choses soient bien claires, je précise que la matrice S est celle pour laquelle

\forall l\in\{1,\ldots,n\},\quad \mathbf e_l=\sum\limits_{k=1}^nS_l^k\mathbf f_k

De plus, on notera si nécessaire u et \mu (respectivement v et \nu) les vecteurs des composantes de \mathbf x et \xi dans la base \mathbf e (respectivement \mathbf f) et sa base duale.

(***) Je désigne par \overrightarrow{\mathbf e}^{(k)}_l l’élément de \mathbf R^k dont la seule composante non nulle vaut 1 et occupe la place l.

Publicités

Une brève à propos des indices musicaux II

Il n’y a pas que les produits scalaires qui engendrent une mise en dualité entre un espace vectoriel et son dual comme je l’ai expliqué en début de cet article. En fait, toute forme bilinéaire non dégénérée de l’espace le fait. Ici, nous allons nous intéresser à d’autres formes bilinéaires non dégénérées importantes, celles qui sont antisymétriques et qu’on appelle les formes symplectiques. Nous allons résoudre le même problème à propos de ces formes que celui que nous avons résolu dans le billet en question à propos des produits scalaires.

Considérons donc un espace vectoriel réel E, de dimension finie, et une forme symplectique \omega de E. Tout comme un produit scalaire, cette forme induit des bijections linéaires \flat :E \to E^* et \sharp : E^*\to E dont je vais rappeler les définitions, pour la commodité du lecteur. La première bijection est tout simplement l’application

\flat : x\in E\mapsto \omega(x,-)\in E^*

tandis que \sharp, sa réciproque, est caractérisé par

\forall \xi\in E^*, \forall x\in E, \quad \omega(\xi^\sharp,x)=\xi(x)

Avant d’aborder la question qui va nous occuper dans ce billet, je fais quelques rappels sur les formes symplectiques car elles sont sans doute moins connues du grand public que ne le sont les produits scalaires.

Tout d’abord, comme toute forme bilinéaire, dans toute base (\mathbf e_1,\ldots,\mathbf e_n) de E, une forme symplectique \omega de E est représentée par une matrice, celle dont les éléments sont les nombres \omega_{ij}=\omega(\mathbf e_i,\mathbf e_j). Puisque la forme est antisymétrique, cette matrice l’est également. Mais \omega est non dégénéré et ceci équivaut au fait que le déterminant de cette matrice n’est pas nul. Il en résulte que la dimension de E est paire (voir par exemple ici). Nous poserons donc n=2m.

On s’est naturellement posé la question de savoir si on peut donner à la matrice qui représente \omega une forme canonique « simple », en choisissant bien la base dans laquelle on représente \omega.

Pour les produits scalaires, la réponse à la même question est bien connue. Il s’agit des bases orthonormées. Ce sont celles dans lesquelles ils sont représentés par la matrice unité \mathrm{diag}(1,\ldots,1).

La réponse est également connue pour les formes symplectiques et ce sont les bases de Darboux qui conviennent. Il s’agit de celles dans lesquelles elles sont représentées par la matrice diagonale par blocs

\mathrm{diag}\underbrace{\left(\begin{pmatrix}0&1\\-1&0\end{pmatrix},\ldots,\begin{pmatrix}0&1\\-1&0\end{pmatrix}\right)}_{m\ \mathrm{matrices}}

Ce sont donc les bases dans lesquelles, en termes des composantes de \mathbf x et de \mathbf y(*),

(1) \omega(\mathbf  x,\mathbf  y)=\sum_{k=1}^m\det\begin{pmatrix}x^{2k-1}&y^{2k-1}\\x^{2k}&y^{2k}\end{pmatrix}

Venons-en à présent à notre petit problème à savoir, étant donné \xi\in E^*, trouver l’ensemble \sharp(\xi) des éléments de E qui s’écrivent \xi^\sharp pour une forme symplectique bien choisie de E. La réponse tient en ceci : pour tout \xi\in E^*, on a

\sharp(\xi)=\begin{cases}\{0\}\ \mathrm{si}\ \xi=0\\[1ex]\ker \xi\setminus\{0\}\ \mathrm{sinon}\end{cases}

Je me contente de détailler le cas où \xi n’est pas nul, cela va de soi. Soit alors \xi^\sharp calculé pour une certaine forme symplectique \omega. D’abord \xi^\sharp n’est pas nul non plus (\sharp est une bijection linéaire). De plus, \xi(\xi^\sharp)=\omega(\xi^\sharp,\xi^\sharp)=0. Ainsi, \sharp(\xi)\subset \ker\xi\setminus\{0\}.

Pour l’inclusion inverse, soit \mathbf u\in \ker\xi\setminus\{0\}. Comme \mathbf u n’est pas nul, on peut trouver une base (\mathbf e_2,\ldots,\mathbf e_n) de \ker\xi pour laquelle \mathbf u=\mathbf e_2. On peut aussi trouver un élément \mathbf e_1 de E tel que \xi(\mathbf e_1)=-1 car \xi\neq 0. Clairement, les \mathbf e_k, k=1,\ldots,n, sont linéairement indépendants. Ils forment donc une base de E et, vu nos choix, le premier élément de la base duale de celle-ci est \varepsilon^1=-\xi. Notons \omega la forme symplectique dont ce soit une base de Darboux c’est-à-dire la forme calculée par la formule (1) en termes des composantes relatives à cette base. Alors, pour tout \mathbf x\in E, on a

\omega(\mathbf u,\mathbf  x)=\omega(\mathbf e_2,\mathbf  x)=\det\begin{pmatrix}0&x^1 \\1&x^2\end{pmatrix}=-x^1=\xi(\mathbf x)

et la cause est entendue. 😉

__________
(*) Avec les notations du calcul tensoriel, une base est orthonormée pour un produit scalaire g si, en notant (\varepsilon^1,\ldots,\varepsilon^n) sa base duale,

g=\sum_{k=1}^n\varepsilon^k\otimes\varepsilon^k

et c’est une base de Darboux pour une forme symplectique \omega si

\omega=\sum_{k=1}^m\varepsilon^{2k-1}\wedge\varepsilon^{2k}

Sur quelques vecteurs propres amusants

C’est dans cet article que se trouve l’origine de ce dont je vais vous entretenir mais il ne faut nullement l’avoir lu pour comprendre le présent billet dont le propos est extrêmement élémentaire.

Dans l’article en question, j’ai associé de façon naturelle deux équations différentielles à chaque matrice de trace nulle

H=\begin{pmatrix}p&q\\r&-p\end{pmatrix}

Peut importe ce que sont ces équations, il suffit de savoir que l’on échange ces équations en remplaçant H par

H'=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

C’est en effet à propos de l’application linéaire H\mapsto H' que je souhaite faire ici quelques observations.

Les déterminants des matrices H et H' sont égaux. Puisque leurs traces sont nulles, elles ont même polynôme caractéristique : elles doivent être semblables. Et, en effet, comme on le voit tout de suite(*),

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}p&q\\r&-p\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

Plus généralement

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}t&z\\y&x\end{pmatrix}

L’ensemble des matrices réelles, carrées et de dimension deux est un espace vectoriel réel de dimension quatre. On le note souvent gl(2,\mathbf R). Plus précisément, l’application(**)

\begin{pmatrix}x&y\\z&t\end{pmatrix}\in gl(2,\mathbf R)\mapsto (x,y,z,t)\in\mathbf R^4

est une isométrie, gl(2,\mathbf R) étant muni du produit scalaire (A,B)\mapsto \mathrm{tr}(\tilde AB) et \mathbf R^4 de son produit scalaire canonique.

Le sous-espace des matrices de trace nulle de gl(2,\mathbf R) est noté sl(2,\mathbf R). C’est un hyperplan et son complément orthogonal, qui est donc de dimension un, est la droite vectorielle engendrée par la matrice unité. Comme on le voit immédiatement, celle-ci est en effet orthogonale aux matrices de trace nulle.

Comme on le vérifie très facilement, la similitude de matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est une isométrie de gl(2,\mathbf R); on a vu plus haut qu’elle stabilise sl(2,\mathbf R).

Nous allons déterminer ses vecteurs propres, c’est-à-dire chercher les (x,y,z,t) non nuls pour lesquels il existe un nombre réel \lambda vérifiant (t,z,y,x)=\lambda(x,y,z,t).

Il est particulièrement simple de résoudre ce système d’équations homogènes mais je ne vais pas le faire ici. Je vais seulement décrire ses solutions.

On voit qu’il est compatible si, et seulement si, \lambda^2=1. Autrement dit, les valeurs propres de notre application sont \pm 1.

L’espace des solutions du système lorsque \lambda=1 est \{(x,y,y,x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,1),(0,1,1,0)). Lorsque \lambda=-1, l’espace des solutions est \{(x,-y,y,-x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,-1),(0,-1,1,0)).

Les éléments de ces bases sont deux à deux orthogonaux et leurs longueurs sont toutes égales à \sqrt 2. Rangés dans l’ordre où nous les avons rencontrés ils forment une base de \mathbf R^4 de même orientation que sa base canonique. Dans cette base, notre similitude est représentée par la matrice diagonale \mathrm{diag}(1,1,-1,-1). Son déterminant est donc 1.

Les éléments de gl(2,\mathbf R) représentent les endomorphismes de l’espace vectoriel \mathbf R^2 :

\begin{pmatrix}u\\v\end{pmatrix}\mapsto \begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}u\\v\end{pmatrix}

L’interprétation en termes d’applications linéaires des quatre vecteurs propres que nous venons de mettre en évidence est intéressante :

  • (1,0,0,1) représente l’identité \mathbf 1 de \mathbf R^2 dans lui-même.
  • (0,1,1,0) représente la volte \mathcal V: (x,y)\mapsto (y,x); c’est la symétrie orthogonale par rapport à la droite d’équation x=y.
  • (1,0,0,-1) représente la symétrie orthogonale par rapport à la droite d’équation y=0; regardée comme une application de l’ensemble des nombres complexes dans lui-même, c’est la conjugaison. Nous la noterons \mathcal C.
  • (0,-1,1,0) représente la rotation d’angle \pi/2; sur \mathbf C, c’est aussi la multiplication par i et nous la noterons \mathcal I.

La composée de deux symétries orthogonales est une rotation dont l’angle est le double de l’angle orienté que forment ces droites. Par conséquent, \mathcal V\circ \mathcal C=\mathcal I. Mais \mathcal V et \mathcal C sont des involutions. Nous avons donc aussi \mathcal V\circ \mathcal I=\mathcal C et \mathcal I\circ \mathcal C=\mathcal V. Voici la table complète des composées de nos quatre applications :

\begin{array}{c|c|c|c|c}&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathbf 1&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathcal V&\mathcal V&\mathbf 1&\mathcal I&\mathcal C\\ \hline \mathcal C&\mathcal C&-\mathcal I&\mathbf 1&-\mathcal V\\ \hline \mathcal I&\mathcal I&-\mathcal C&\mathcal V&-\mathbf 1\end{array}

Cette table montre que

\{\pm \mathbf 1, \pm \mathcal V, \pm \mathcal C , \pm \mathcal I\}

est un sous groupe du groupe des isométries de \mathbf R^2, celui engendré par les réflexions \mathcal V et \mathcal C. Celles-ci conservent le carré de sommets (1,1),(-1,1),(-1,-1),(1,-1). C’est donc une copie du groupe diédral D_8 qui est le groupe des symétries d’un carré. Notez qu’il n’y a que deux groupes d’ordre huit non abéliens : le groupe diédral D_8 et le groupe des quaternions.

Une autre façon d’identifier notre groupe à D_8 est d’utiliser la présentation générale des groupes diédraux décrite dans la référence donnée quelques lignes plus haut. Abstraitement, le groupe D_8 est le groupe de présentation

\langle \sigma,\tau|\sigma^2,\tau^4,\sigma\tau\sigma^{-1}\tau\rangle

Cela signifie que D_8 est engendré par les éléments \sigma et \tau et que ceux-ci sont assujettis à vérifier les seules relations

\sigma^2=e \quad \& \quad  \tau^4=e \quad \& \quad  \sigma\tau\sigma^{-1}\tau=e

(e est le neutre). Les éléments du groupe sont alors

e,\tau,\tau^2,\tau^3,\sigma,\sigma\tau,\sigma\tau^2,\sigma\tau^3

Il est facile de voir à l’aide de la table ci-dessus que l’on peut prendre pour \sigma et \tau respectivement la réflexion \mathcal V et la rotation \mathcal I. Par exemple, on a

(\mathbf 1,\mathcal I,\mathcal I^2,\mathcal I^3,\mathcal V,\mathcal V\mathcal I,\mathcal V\mathcal I^2,\mathcal V\mathcal I^3)=(\mathbf 1,\mathcal I,-\mathbf 1,-\mathcal I,\mathcal V,\mathcal C,-\mathcal V,-\mathcal C)

__________
(*) La matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est sa propre inverse. Elle représente en effet la volte

\mathcal V: (x,y)\mapsto (y,x)

de \mathbf R^2 dans la base canonique de ce dernier, volte qui est évidemment une involution.

(**) Nous utiliserons librement cette application pour identifier gl(2,\mathbf R) et \mathbf R^4.

Une brève à propos des bases orthonormées positives en dimension 3

Soit un espace vectoriel E réel, euclidien, orienté et de dimension 3. Nous notons (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

Comme ce produit est antisymétrique, sa table de multiplication dans une base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est complètement caractérisée par les trois produits \mathbf e_1\wedge \mathbf e_2, \mathbf e_2\wedge \mathbf e_3 et \mathbf e_3\wedge \mathbf e_1.

Il est bien connu que la table de multiplication du produit vectoriel est la même dans toutes les bases orthonormées positives. Plus précisément, si la base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est orthonormée et positive, alors

(1) \begin{cases}\mathbf e_1\wedge \mathbf e_2=\mathbf e_3\\ \mathbf e_2\wedge \mathbf e_3=\mathbf e_1\\ \mathbf e_3\wedge \mathbf e_1=\mathbf e_2\end{cases}

Ce dont je n’avais pas conscience jusqu’à aujourd’hui, et dont je me suis rendu compte en préparant un cours que je donnerai demain matin, c’est que la réciproque est vraie :

Si des éléments \mathbf e_1, \mathbf e_2 et \mathbf e_3 de E sont non nuls et vérifient (1), alors (\mathbf e_1,\mathbf e_2,\mathbf e_3) est une base orthonormée et positive de E.

Supposons en effet que \mathbf e_1, \mathbf e_2 et \mathbf e_3, non nuls, vérifient (1).

D’une part, comme tout produit vectoriel est orthogonal à ses facteurs, \mathbf e_1, \mathbf e_2 et \mathbf e_3 sont alors deux à deux perpendiculaires.

En particulier, ils sont linéairement indépendants puisqu’aucun n’est nul : (\mathbf e_1,\mathbf e_2,\mathbf e_3) est donc une base.

Celle-ci est positive vu que

[\mathbf e_1,\mathbf e_2,\mathbf e_3]=[\mathbf e_1,\mathbf e_2,\mathbf e_1\wedge\mathbf e_2]=\|\mathbf e_1\wedge\mathbf e_2\|^2=\|\mathbf e_3\|^2>0

(où [-,-,-] désigne le produit mixte de E).

De plus, étant donné que

\forall \mathbf u,\mathbf v\in E,\quad \|\mathbf u\wedge\mathbf v\|=\|\mathbf u\|\|\mathbf v\|\sin\varphi

\varphi est l’angle non orienté que font \mathbf u et \mathbf v, les longueurs l_i=\|\mathbf e_i\| vérifient les relations

\begin{cases}l_1l_2=l_3\\l_2l_3=l_1\\l_3l_1=l_2\end{cases}

De là, l_1^2=l_2^2=l_3^2=l_1l_2l_3 et donc, vu que les l_i sont strictement positifs, l_1=l_2=l_3=1 : les \mathbf e_i sont normés.

😉

Translations et homothéties

L’ensemble des homothéties (non constantes) et des translations d’un espace affine est un groupe, sous-groupe du groupe des affinités de l’espace. C’est connu mais peu diffusé, du moins en Belgique. Aussi vais-je en toucher un mot ici, d’autant que j’enseigne ce fait, sans l’avoir consigné dans mon syllabus.

A chaque application affine \mathcal T d’un espace affine \mathcal E dans lui-même, ce que nous noterons \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), est associée une application linéaire \mathcal T_*, endomorphisme de l’espace vectoriel \overrightarrow{\mathcal E} qui dirige \mathcal E(*). Elle est caractérisée par la propriété

\forall A,B\in\mathcal E,\quad \mathcal T_*(\overrightarrow{AB})=\mathcal{T}(B)-\mathcal{T}(A)

De plus, si \mathcal S,\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), alors \mathcal S\circ\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) et

(1) (\mathcal S\circ\mathcal T)_*=\mathcal S_*\circ\mathcal T_*

Comme \mathrm{id}_{\mathcal E*} =\mathrm{id}_{\overrightarrow{\mathcal E}} et, si \mathcal T est bijectif, (\mathcal T^{-1})_*=(\mathcal T_*)^{-1}, il résulte immédiatement de l’égalité (1) que l’ensemble des \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) pour lesquels \mathcal T_* est un multiple non nul de l’identité est un sous-groupe du groupe des affinités de \mathcal E.

A ma connaissance, aucune notation particulière n’a été retenue pour désigner ce groupe. Ici, pour le manipuler facilement, nous le noterons G. Par contre, il a reçu un nom. On l’appelle le groupe des homothéties-translations (vous comprendrez très bientôt pourquoi).

Je désigne par t_\mathbf u : X\mapsto X+\mathbf u la translation de vecteur \mathbf u et par \mathcal H_{C,k} l’homothétie de centre C et de rapport k :

\mathcal H_{C,k} : X \mapsto C+k\overrightarrow{CX}

Clairement, t_{\mathbf u*}=\mathrm{id}_{\overrightarrow{\mathcal E}} et \mathcal H_{C,k*}=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Les homothéties et les translations appartiennent donc à G.

Réciproquement,

Si \mathcal T\in G, alors ou bien \mathcal T possède un point fixe et c’est une homothétie ou bien il n’en possède pas et c’est une translation.

En effet, donnons-nous \mathcal T\in G et posons \mathcal T_*=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Fixons aussi un point A de \mathcal E. Alors,

(2) \forall X\in\mathcal E,\quad \mathcal T(X)=\mathcal T(A)+k\overrightarrow{AX}

En particulier, C est un point fixe de \mathcal T si, et seulement si,

(1-k)\overrightarrow{AC}=\overrightarrow{AA'}

(pour alléger l’écriture, j’ai noté A' l’image de A par \mathcal T).

Si k\neq 1, alors \mathcal T possède un point fixe, à savoir

C=A+\frac{1}{1-k}\overrightarrow{AA'}

et, en remplaçant A par C dans (2), on voit que \mathcal T est l’homothétie de centre C et de rapport k.

Si k=1, alors (2) se réécrit sous la forme

\forall X\in\mathcal E,\quad \mathcal T(X)-X=\mathcal T(A)-A

qui montre que \mathcal T est la translation de vecteur \overrightarrow {AA'}. Lorsque celui-ci n’est pas nul, \mathcal T n’a donc aucun point fixe. Dans le cas contraire, il fixe tous les points de \mathcal E et c’est aussi une homothétie(**).

Il est facile, et amusant, de voir comment se composent les homothéties et les translations. Je liste les résultats. Leurs vérifications sont laissées à la discrétion du lecteur.

Composée de deux translations

On a simplement la formule

\boxed{t_\mathbf u \circ t_\mathbf v=t_{\mathbf u+\mathbf v}}

Composée d’une homothétie et d’une translation

Cette fois

\boxed{\mathcal H_{C,k}\circ t_\mathbf u=t_{k\mathbf u}\circ\mathcal H_{C,k}}

Lorsque k\neq 1, la valeur commune des deux membres est l’homothétie de rapport k et de centre

C+\frac{k}{1-k}\mathbf u

Composée de deux homothéties

Si kl\neq 1, alors \mathcal H_{D,l}\circ \mathcal H_{C,k} est l’homothétie de rapport kl et de centre

C+\frac{1-l}{1-kl}\overrightarrow{CD}

sinon, c’est la translation de vecteur

\mathbf (1-l)\overrightarrow{CD}

Ce dernier s’annule si l=1 ou si C=D. Dans le premier cas, k=1 (puisque kl=1) : les deux homothéties sont égales à l’identité de \mathcal E dans lui-même et il en va de même de leur composée. Dans le second cas, les deux homothéties sont réciproques l’une de l’autre et leur composée est donc à nouveau l’identité de \mathcal E dans lui-même.

__________
(*) Traditionnellement, cette application linéaire est notée \overrightarrow{\mathcal T}. Pour alléger les notations, j’utilise ici la notation adoptée par un de mes collègues. Elle est assez légitime. En effet, en géométrie différentielle, la dérivée d’une application f entre variétés — son application linéaire tangente — est notée f_*. Or il se fait que l’application \overrightarrow{\mathcal T} est effectivement la dérivée de \mathcal T. Elle peut donc tout à fait bien être désignée par \mathcal T_*. L’égalité (1) est un avatar du théorème de dérivation des fonctions composées.

(**) Il n’y a qu’une homothétie de rapport 1. C’est l’identité de \mathcal E dans lui-même et c’est également la seule homothétie qui soit une translation.

A propos d’une certaine équation fonctionnelle

Cet article m’a été inspiré par une question posée sur le forum M@TH en ligne.

Les pseudonymes DjiLo, ThM, Cyrano et Tournesol sont ceux de participants qui ont pris part à la discussion. D’une manière ou d’une autre, ils m’ont aidé par des remarques, des observations ou en relevant des erreurs dans ce que je présentais comme solution au problème et je les en remercie.

DjiLo est l’auteur de la question. Il lui a donné une réponse assez élégante que vous trouverez sur le fil de discussion accessible par le lien ci-dessus. Voici la question:

Soit une application continue f:\mathbf R\to \mathbf R. Montrer que s’il existe une application g:\mathbf R^2\to \mathbf R telle que

\forall x,y\in \mathbf R, \quad f(x+y)=g(f(x),f(y))

alors f est monotone.

Dans sa solution, DjiLo montre directement que f est monotone. La mienne, sans doute un peu plus longue, consiste essentiellement à résoudre l’équation ci-dessus, c’est-à-dire à déterminer les couples de fonctions (f,g) vérifiant cette relation. Cela à conduit Tournesol à généraliser le problème comme ceci. Etant donnés un magma (M,*) et un ensemble E, déterminer les applications f:M\to E et g:E^2\to E vérifiant

\forall x,y\in M, \quad f(x*y)=g(f(x),f(y))

Je ne sais rien dire à ce degré de généralité. Par contre, je sais résoudre le problème pour les groupes. D’ailleurs Tournesol avait dans le fil de discussion mentionné plus haut, commencé à étudier le cas M=\mathbf Z/n\mathbf Z et s’était convaincu de ce que, dans ce cas, n est premier si, et seulement si, dans toute solution (f,g), f est nécessairement constant ou injectif. Nous retrouverons et généraliserons bientôt ce fait.

Les solutions d’une équation fonctionnelle

Donnons nous un groupe G et un ensemble E et cherchons les couples (f,g) d’applications f:G \to E et g:E^2\to E tels que

(1) \forall x,y\in G, \quad f(xy)=g(f(x),f(y))

(Je note (a,b)\mapsto ab la multiplication du groupe G.)

Soit donc un tel couple (f,g). Alors g munit l’image I de f d’une structure de groupe. Le neutre en est f(e), où e est celui de G, et f:E\to I est un homomorphisme de groupes. En effet, vu (1), g(I^2)\subseteq I. De plus, étant donnés u=f(x), v=f(y) et w=f(z), on obtient, en appliquant plusieurs fois (1),

\begin{cases}g(g(u,v),w)=g(u,g(v,w))=f(xyz)\\[1ex]g(u,f(e))=g(f(e),u)=f(x)=u\\[1ex]g(u,f(x^{-1}))=f(xx^{-1})=f(e)=g(f(x^{-1}),u)\end{cases}

La deuxième relation montre que f(e) est le neutre de I tandis que la troisième montre que l’inverse de f(x) dans I est l’image par f de l’inverse de x dans G. Vu (1), f est un homomorphisme de groupes.

Le noyau \ker f de f est un sous-groupe distingué G_0 de G et f passe au quotient G/G_0 pour donner un isomorphisme de groupes \bar f:G/G_0 \to I.

En fait, f est caractérisé par le sous-groupe G_0 et l’injection \bar f:G/G_0\to E tandis que g qui n’est contraint que sur I^2 est largement arbitraire si I\neq E.

En effet, donnons-nous un sous-groupe distingué G_0 de G et une injection \xi :G/G_0\to E. Posons f=\xi\circ p, où p:G\to G/G_0 est le passage au quotient. L’application \xi:G/G_0\to \mbox{im\ }f est une bijection et munit, par transport de la structure du groupe quotient G/G_0, l’image I de f d’une structure de groupe. On prolonge arbitrairement la multiplication de I en une application g:E^2\to E et on obtient ainsi un couple (f,g) vérifiant (1) et pour lequel \ker f=G_0 et \bar f =\xi.

Quelques exemples

a) Supposons que G soit un groupe simple. Il a donc exactement deux sous-groupes distingués : \{e\} et G. On obtient alors les solutions de (1) en prenant pour f soit une injection soit une application constante; le groupe I est alors respectivement une copie de G ou réduit à son élément neutre.

Le groupe \mathbf Z/n\mathbf Z est simple si, et seulement si, n est premier. On retrouve ainsi ce qu’avait observé Tournesol à propos de ce groupe.

b) Supposons que G soit le groupe additif (\mathbf R,+). Ses sous-groupes distingués — ses sous-groupes puisqu’il est abélien — sont connus. Un sous-groupe G_0 de G est soit dense dans \mathbf R, soit \{0\} ou encore de la forme \alpha\mathbf Z pour un certain nombre réel \alpha strictement positif.

Je ne sais pas à quoi ressemble G/G_0 lorsque G_0 est dense dans G. Par contre G/\{0\}=G, bien entendu, et, pour \alpha strictement positif, G/\alpha\mathbf Z est isomorphe au cercle trigonométrique S^1, c’est-à-dire l’ensemble des nombres complexes de module 1; un isomorphisme est donné par

x+\alpha\mathbf Z \mapsto e^{2i\pi\frac x \alpha}

Cela étant, pour répondre à la question de DjiLo, nous devons prouver que si (f,g) est une solution de (1) dans laquelle f est continu, alors f est monotone. Nous allons en fait voir qu’il est soit constant soit strictement monotone.

Supposons donc f continu. Le sous-groupe \ker f est donc fermé. S’il est dense dans \mathbf R, alors c’est \mathbf R : f est constant. Si \ker f=\{0\}, alors f est injectif et, par suite, strictement monotone. En effet,

(2) Toute application continue et injective d’un intervalle de \mathbf R dans \mathbf R est strictement croissante ou strictement décroissante.(*)

Nous allons enfin voir qu’il n’est pas possible que \ker f=\alpha\mathbf Z pour un certain nombre réel \alpha strictement positif, en procédant par l’absurde.

Admettons que \ker f=\alpha\mathbf Z, où \alpha >0. Alors f est injectif dans [0,\alpha[ puisque deux nombres en lesquels les valeurs de f sont égales diffèrent d’un multiple entier de \alpha. Par conséquent, vu (2), f est strictement monotone dans [0,\alpha[. Il est par exemple strictement croissant. Ainsi, f(0)<f(\alpha/2). Mais comme f(\alpha)=f(0), il y a dans ]\alpha/2,\alpha[ des x tels que f(x)<f(\alpha/2) ce qui contredit le fait que f est strictement croissant dans [0,\alpha[. On raisonne de la même façon lorsque f est strictement décroissant dans [0,\alpha[.

En résumé, les f continus qui apparaissent dans les solutions de (1) lorsque G=(\mathbf R,+) sont :

— les applications constantes. Pour celles-ci, le groupe I est réduit à son élément neutre.

— les homéomorphismes entre \mathbf R et un intervalle ouvert non vide(**). Pour un tel homéomorphisme, f, la structure de groupe de I est donnée par transport de la structure de (\mathbf R,+) par f. En particulier, sa multiplication est continue puisqu’elle est donnée par

\forall u,v\in I, \quad u*v=f(f^{-1}(u)+f^{-1}(v))

😉

__________
(*) Voici une preuve rapide de (2). Soit un intervalle J\subseteq \mathbf R et une application injective et continue \varphi :J\to\mathbf R. L’ensemble

e=\{(x,y)\in J^2|x<y\}

est l’union des deux ensembles disjoints

e_< =\{(x,y)\in e|\varphi(x) < \varphi(y)\} \quad \& \quad e_> =\{(x,y)\in e|\varphi(x) > \varphi(y)\}

Nous devons vérifier que l’un des d’eux est vide. Or, ce sont des ouverts de e car \varphi est continu. Comme e est connexe, il faut bien que cela soit le cas.

(**) Lorsque f est strictement monotone, le théorème des valeurs intermédiaires montre que l’image par f de tout intervalle ouvert est un intervalle ouvert. Ainsi, f est une application ouverte. Comme elle est aussi continue, c’est un homéomorphisme.

A propos des empilements infinis de radicaux V

Dans le troisième billet consacré aux empilements infinis de radicaux, nous avions observé ceci :

Si \lim u(\mathbf 0) est un nombre réel \gamma_0 et si c^{\gamma_0} converge vers \infty, alors pour tout nombre réel positif r, \lim u(\mathbf r)=\gamma_0.

Cette remarque ne s’applique pas aux empilements

e_{\mathbf p,\mathbf q}=\sqrt{p+q\sqrt{p+q\sqrt{p+q\sqrt{\cdots}}}}

(où p et q sont strictement positifs) car pour ceux-ci, la suite c^{\gamma_0} est constante. Malgré quoi(*),

\forall r\in[0,+\infty[,\quad \lim_{n\to\infty}\underbrace{\sqrt{p+q\sqrt{p+q\sqrt{\cdots\sqrt{p+qr}}}}}_{n\mbox{\ radicaux}}=\gamma_0

Nous allons considérablement renforcer cela, en utilisant une propriété intéressante des suites c^\gamma, \gamma\geqslant \gamma_0, relatives à e_{\mathbf p,\mathbf q}. Pour rappel, ces suites sont définies par

\begin{cases}c^\gamma_0=\gamma\\[2ex]c^\gamma_{n+1}=\cfrac{c^\gamma_n-p}{q}\end{cases}

De plus, \lim u(\mathbf 0)=\gamma_0

\gamma_0=\cfrac{q+\sqrt{q^2+4p}}{2}

est l’unique racine positive de l’équation x^2-qx-p=0.

Voici alors la propriété annoncée.

(1) \boxed{\forall n\in\mathbf N,\quad c^\gamma_n\geqslant \left(\frac{2\gamma_0}{q}\right)^n(\gamma-\gamma_0)+\gamma_0}

Nous la démontrerons plus bas. En voici d’abord un corollaire

Soit une suite c à valeurs positives ou nulles. Si c est O(n^d) pour un certain d\in[0,+\infty[, alors \lim u(c)=\gamma_0 i.e.

\lim_{n\to\infty}\underbrace{\sqrt{p+q\sqrt{p+q\sqrt{\cdots\sqrt{p+qc_n}}}}}_{n\mbox{\ radicaux}}=\cfrac{q+\sqrt{q^2+4p}}{2}

Preuve du corollaire

On suppose c à valeurs non négatives et qu’il est d’ordre O(n^d). Soient \varepsilon >0 et \gamma=\gamma_0+\varepsilon. Il existe K et C>0 tel que

\forall n\geqslant K,\quad c_n\leqslant Cn^d

D’un autre côté, vu (1),

c_n^\gamma\geqslant \left(\frac{2\gamma_0}{q}\right)^n\varepsilon+\gamma_0

Comme

\cfrac{2\gamma_0}{q}=1+\sqrt{1+\cfrac{4p}{q^2}}>2

il existe donc L\geqslant K tel que

\forall n\geqslant L,\quad Cn^d \leqslant c^\gamma_n

Par conséquent, si n\geqslant L, alors u_n(\mathbf 0)\leqslant u_n(c)\leqslant u_n(c^\gamma)=\gamma=\gamma_0+\varepsilon. Mais, quitte à augmenter L, pour n\geqslant L, 0\leqslant \gamma_0-u_n(\mathbf 0) \leqslant \varepsilon car u(\mathbf 0) croît vers \gamma_0. Au total

n\geqslant L\quad \Longrightarrow \quad |u_n(c)-\gamma_0|\leqslant \varepsilon

Comme \varepsilon >0 est arbitraire, le corollaire est démontré.

Preuve de (1)

La fonction f: x\mapsto \frac 1 q(x^2-p) définit un système dynamique sur \mathbf R.

Par définition, l’orbite de \gamma\in\mathbf R sous ce système est la suite de nombres obtenue en lui appliquant de manière répétée f :

\gamma, f(\gamma), (f\circ f)(\gamma), \ldots , f^{\circ n}(\gamma), \ldots

suite en laquelle on reconnaît c^\gamma.

Par définition également, les points fixes du système sont les \gamma dont l’orbite est réduite à un point, c’est-à-dire tels que f(\gamma)=\gamma. Il s’agit des deux racines de l’équation x^2-qx-p=0. L’une est positive, c’est \gamma_0, l’autre, -p/\gamma_0, est négative.

Comme la concavité de la parabole d’équation y=f(x) est tournée vers le haut, il est clair, géométriquement, que l’orbite de tout \gamma>\gamma_0 tend vers +\infty. La formule (1) précise ce fait en montrant qu’au minimum, la croissance de c^\gamma est exponentielle (pour rappel, nous avons constaté plus haut que 2\gamma_0/q>2). Des expériences faites sur ordinateur me donnent l’impression que c^\gamma croît de manière significativement plus forte mais je n’ai pas approfondi la question. On observera pourtant que c’est cette estimation qui a permis de prouver le corollaire. Le simple fait de savoir que c^\gamma tend vers \infty ne permet pas d’établir celui-ci; il permet seulement de prouver que les suites u(\mathbf r) tendent vers \gamma_0. Améliorer notre connaissance de la croissance des suites c^\gamma nous permettrait peut être d’améliorer celle du comportement des suites u(c), c\in \mathscr D_{\mathbf p,\mathbf q}.

Cela étant, la suite

c': n\in\mathbf N\mapsto \left(\frac{2\gamma_0}{q}\right)^n(\gamma-\gamma_0)+\gamma_0\in[0,+\infty[

est l’orbite de \gamma sous l’action du système dynamique associé à la fonction

g :x \mapsto \cfrac{2\gamma_0}{q}(x-\gamma_0)+\gamma_0

(c’est immédiat à vérifier) et (1) provient essentiellement du fait que f majore g.

Ce dernier point est clair géométriquement. La droite d’équation y=g(x) est la tangente au point d’abscisse \gamma_0 du graphe de f et, par convexité, celui-ci, qui est la parabole dont nous avons parlé plus haut, est tout entier d’un même côté de cette tangente; en l’occurrence, il est « au-dessus ». Cela dit, on vérifie immédiatement que

\forall x\in\mathbf R,\quad f(x)-g(x)=\cfrac 1 q(x-\gamma_0)^2

(L’algèbre convaincra donc ceux que l’évidence géométrique aurait laissés sceptiques ;-).)

Nous allons vérifier en détails par récurrence que la suite c^\gamma majore la suite c'.

Clairement, c^\gamma_0\geqslant c'_0. De plus, si c^\gamma_n\geqslant c'_n, alors

c^\gamma_{n+1}=f(c^\gamma_n)\geqslant g(c^\gamma_n)\geqslant g(c'_n)=c'_{n+1}

car g est croissant.

C’est ici que prend fin ce billet. 😉

__________
(*) Cela se vérifie par exemple via une adaptation simple de l’argument donné par Pythales pour le cas p=q=2 (voir ici). C’est de toute façon une conséquence de ce qui va suivre.