Une brève à propos des indices musicaux III

Je poursuis dans cet article l’étude de l’application \sharp : \xi\in E^*\mapsto \xi^\sharp\in E associée à une forme bilinéaire non dégénérée entamée dans deux billets antérieurs. Après avoir présenté ici le cas des produits scalaires et celui des formes symplectiques, j’aborde à présent celui des formes symétriques de signature quelconque. Je vous réfère à ces articles pour la définition de l’application \sharp.

Ici, E est un espace vectoriel réel de dimension finie n >1. Nous noterons g une forme bilinéaire symétrique non dégénérée de signature (p,q) de E. Cela signifie qu’il existe des bases de celui-ci dans lesquelles g est représenté par la matrice diagonale

\Delta:=\mathrm{diag}(\underbrace{1,\ldots,1}_{p},\underbrace{-1,\ldots,-1}_{q})=\mathrm{diag}(I_p,-I_q)

I_k désigne la matrice unité de taille k. Nous dirons de ces bases qu’elles sont adaptées à g.

Naturellement, si (p,q)=(n,0), g est un produit scalaire et, si (p,q)=(0,n), c’est -g qui en est un. Nous allons dès lors supposer que pq\neq 0 puisque les autres cas sont déjà traités.

Le résultat est le suivant

Soient \xi\in E^*\setminus\{0\}, \mathbf x\in E et deux entiers strictement positifs p et q tels que p+q=n. Il existe une forme bilinéaire symétrique non dégénérée de signature (p,q) telle que \mathbf x=\xi^\sharp si, et seulement si, \mathbf x\neq 0.

Ma démonstration est techniquement un peu lourde sans être pour autant conceptuellement difficile : contrairement aux cas des produits scalaires et des formes symplectiques, qui se traitent de façon assez triviale, je n’ai rien trouvé d’immédiat.

On vérifie facilement que si les composantes de \xi dans la base duale d’une base adaptée à g sont \mu=(\mu_1,\ldots,\mu_n), alors celles de \xi^\sharp dans la base adaptée sont u=(\mu_1,\ldots,\mu_p,-\mu_{p+1},\ldots,-\mu_n). Autrement dit u=\Delta \mu(*).

En particulier, si \xi n’est pas nul, alors \xi^\sharp ne l’est pas non plus, ce que nous savions déjà puisque \sharp est une bijection linéaire.

Etablir la réciproque, i.e. que si \mathbf x n’est pas nul, il s’écrit \xi^\sharp pour une certaine forme g de signature (p,q), revient à montrer qu’il existe des bases de E pour lesquelles u=\Delta \mu, où u sont les composantes de \mathbf x dans la base et \mu sont celles de \xi dans la base duale.

Nous allons faire cela en partant d’une base (plus ou moins) quelconque \mathbf f=(\mathbf f_1,\ldots, \mathbf f_n) de E et en trouvant une matrice de changement de bases S qui la transforme en une base \mathbf e=(\mathbf e_1,\ldots, \mathbf e_n) ayant la propriété en question(**).

Les relations liant les différentes composantes de \mathbf x et \xi sont v=Su et \mu=\tilde{S}\nu. Par conséquent, il s’agit d’établir l’existence d’une matrice non singulière S telle que

(1) v=S\Delta\tilde{S}\nu

Assez naturellement, nous allons écrire S sous la forme \begin{pmatrix}A&B\\C&D\end{pmatrix}A est une matrice carrée de taille p, D une de taille q, B est une matrice à p lignes et q colonnes et C une matrice à q lignes et p colonnes. On a alors

S\Delta\tilde{S}=\begin{pmatrix}A\tilde{A}-B\tilde{B}&A\tilde{C}-B\tilde{D}\\C\tilde{A}-D\tilde{B}&C\tilde{C}-D\tilde{D}\end{pmatrix}

La solution que je propose repose sur une discussion basée sur le signe de \xi(\mathbf x); elle montre bien, techniquement du moins, pourquoi l’hypothèse pq\neq 0 fait marcher les choses.

\boxed{\xi(\mathbf x)>0}

Puisque \xi(\mathbf x)\neq 0, on a E=\ker\xi\oplus\mathbf R\mathbf x. On peut donc choisir une base \mathbf f pour laquelle \mathbf f_1=\mathbf x et, si (\varphi^1,\ldots,\varphi^n) est sa base duale, \xi=\xi(\mathbf x)\varphi^1. Pour cette base, v=\overrightarrow{\mathbf e}_1:=(1,0,\ldots,0) et \nu=\xi(\mathbf x)\overrightarrow{\mathbf e}_1. La condition (1) exprime alors le fait que \overrightarrow{\mathbf e}_1 est un vecteur propre de valeur propre 1/\xi(\mathbf x) de la matrice S\Delta\tilde{S}.

Nous allons prendre B=0, C=0, D=I_q et

A=\mathrm{diag}(\frac{1}{\sqrt{\xi(\mathbf x)}},I_{p-1})

Avec ces choix, on a

S\Delta\tilde{S}=\begin{pmatrix}\frac{1}{\xi(\mathbf x)}&0&0\\0&I_{p-1}&0\\0&0&-I_q\end{pmatrix}

qui répond bien à la question.

\boxed{\xi(\mathbf x)<0}

Cette fois, nous choisissons \mathbf f pour que v=\overrightarrow{\mathbf e}_n:=(0,\ldots,0,1) et \xi=\xi(\mathbf x)\varphi^n. C'est alors \overrightarrow{\mathbf e}_n qui est un vecteur propre de valeur propre 1/\xi(\mathbf x) de S\Delta\tilde{S}.

Nous prenons encore B=0 et C=0 mais, en quelque sorte, nous inversons les rôles de A et de D puisque nous posons A=I_p et

D=\mathrm{diag}(I_{q-1},\frac{1}{\sqrt{-\xi(\mathbf x)}})

Cette fois,

S\Delta\tilde{S}=\begin{pmatrix}I_p&0&0\\0&-I_{q-1}&0\\0&0&\frac{1}{\xi(\mathbf x)}\end{pmatrix}

qui répond de nouveau à la question.

\boxed{\xi(\mathbf x)=0}

Ce cas est un peu plus compliqué que les deux précédents. Il va se subdiviser en deux sous-cas.

  • \boxed{p\geqslant q}
    Nous choisissons dans ce cas \mathbf f de manière telle que \mathbf x=\mathbf f_1 et \xi=\varphi^n. Il suffit pour cela de prendre une base (\mathbf x=\mathbf f_1,\ldots,\mathbf f_{n-1}) de \ker \xi et un élément \mathbf f_n de E tel que \xi(\mathbf f_n)=1 (il en existe puisque \xi n’est pas nul).

    Les conditions imposées à S sont alors(***)

    \begin{cases}(A\tilde{C}-B\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=\overrightarrow{\mathbf e}^{(p)}_1\\(C\tilde{C}-D\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=0\end{cases}

    On voit facilement que le choix suivant fournit une matrice non singulière S vérifiant ces conditions : A=I_p, D=I_q, B=0, et

    C=\begin{pmatrix}0&I_{q-1}&0\\1&0&0\end{pmatrix}

    (On notera, concernant C qui doit comporter p colonnes, que ce choix est possible vu que p\geqslant q.)

  • \boxed{p<q}
    Ici, d'une certaine façon, on échange les rôles tenus dans le cas précédent par les indices 1 et n et les matrices B et C. En détails, on choisit cette fois \mathbf f pour que \mathbf x=\mathbf f_n et \xi=\varphi^1 ce qui impose à S de vérifier les relations

    \begin{cases}(A\tilde{A}-B\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=0\\(C\tilde{A}-D\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=\overrightarrow{\mathbf e}^{(q)}_q\end{cases}

    Pour que ce soit le cas, il suffit de prendre A=I_p et D=I_q puis C=0 et

    B=\begin{pmatrix}0&0&1\\0&I_{p-1}&0\end{pmatrix}

Vu sa taille, cet article n’est pas vraiment « une brève » mais je lui ai conservé cette dénomination en raison de sa parenté avec les deux articles mentionnés en début de texte.

Je suis d’ailleurs un peu surpris par la difficulté technique de la preuve ci-dessus. Peut-être existe-t-il une approche plus conceptuelle et concise. J’y réfléchirai et reste ouvert à toute suggestion.

😉

––––––––––
(*) Les n-upples tels que u, \mu, sont tantôt horizontaux (dans le corps du texte, généralement) tantôt verticaux, dans des égalités matricielles le plus souvent. Je ne préciserai pas les choses à chaque occasion, espérant que le contexte lève toute ambiguïté.

(**) Pour que les choses soient bien claires, je précise que la matrice S est celle pour laquelle

\forall l\in\{1,\ldots,n\},\quad \mathbf e_l=\sum\limits_{k=1}^nS_l^k\mathbf f_k

De plus, on notera si nécessaire u et \mu (respectivement v et \nu) les vecteurs des composantes de \mathbf x et \xi dans la base \mathbf e (respectivement \mathbf f) et sa base duale.

(***) Je désigne par \overrightarrow{\mathbf e}^{(k)}_l l’élément de \mathbf R^k dont la seule composante non nulle vaut 1 et occupe la place l.

Publicités

Une brève à propos des indices musicaux II

Il n’y a pas que les produits scalaires qui engendrent une mise en dualité entre un espace vectoriel et son dual comme je l’ai expliqué en début de cet article. En fait, toute forme bilinéaire non dégénérée de l’espace le fait. Ici, nous allons nous intéresser à d’autres formes bilinéaires non dégénérées importantes, celles qui sont antisymétriques et qu’on appelle les formes symplectiques. Nous allons résoudre le même problème à propos de ces formes que celui que nous avons résolu dans le billet en question à propos des produits scalaires.

Considérons donc un espace vectoriel réel E, de dimension finie, et une forme symplectique \omega de E. Tout comme un produit scalaire, cette forme induit des bijections linéaires \flat :E \to E^* et \sharp : E^*\to E dont je vais rappeler les définitions, pour la commodité du lecteur. La première bijection est tout simplement l’application

\flat : x\in E\mapsto \omega(x,-)\in E^*

tandis que \sharp, sa réciproque, est caractérisé par

\forall \xi\in E^*, \forall x\in E, \quad \omega(\xi^\sharp,x)=\xi(x)

Avant d’aborder la question qui va nous occuper dans ce billet, je fais quelques rappels sur les formes symplectiques car elles sont sans doute moins connues du grand public que ne le sont les produits scalaires.

Tout d’abord, comme toute forme bilinéaire, dans toute base (\mathbf e_1,\ldots,\mathbf e_n) de E, une forme symplectique \omega de E est représentée par une matrice, celle dont les éléments sont les nombres \omega_{ij}=\omega(\mathbf e_i,\mathbf e_j). Puisque la forme est antisymétrique, cette matrice l’est également. Mais \omega est non dégénéré et ceci équivaut au fait que le déterminant de cette matrice n’est pas nul. Il en résulte que la dimension de E est paire (voir par exemple ici). Nous poserons donc n=2m.

On s’est naturellement posé la question de savoir si on peut donner à la matrice qui représente \omega une forme canonique « simple », en choisissant bien la base dans laquelle on représente \omega.

Pour les produits scalaires, la réponse à la même question est bien connue. Il s’agit des bases orthonormées. Ce sont celles dans lesquelles ils sont représentés par la matrice unité \mathrm{diag}(1,\ldots,1).

La réponse est également connue pour les formes symplectiques et ce sont les bases de Darboux qui conviennent. Il s’agit de celles dans lesquelles elles sont représentées par la matrice diagonale par blocs

\mathrm{diag}\underbrace{\left(\begin{pmatrix}0&1\\-1&0\end{pmatrix},\ldots,\begin{pmatrix}0&1\\-1&0\end{pmatrix}\right)}_{m\ \mathrm{matrices}}

Ce sont donc les bases dans lesquelles, en termes des composantes de \mathbf x et de \mathbf y(*),

(1) \omega(\mathbf  x,\mathbf  y)=\sum_{k=1}^m\det\begin{pmatrix}x^{2k-1}&y^{2k-1}\\x^{2k}&y^{2k}\end{pmatrix}

Venons-en à présent à notre petit problème à savoir, étant donné \xi\in E^*, trouver l’ensemble \sharp(\xi) des éléments de E qui s’écrivent \xi^\sharp pour une forme symplectique bien choisie de E. La réponse tient en ceci : pour tout \xi\in E^*, on a

\sharp(\xi)=\begin{cases}\{0\}\ \mathrm{si}\ \xi=0\\[1ex]\ker \xi\setminus\{0\}\ \mathrm{sinon}\end{cases}

Je me contente de détailler le cas où \xi n’est pas nul, cela va de soi. Soit alors \xi^\sharp calculé pour une certaine forme symplectique \omega. D’abord \xi^\sharp n’est pas nul non plus (\sharp est une bijection linéaire). De plus, \xi(\xi^\sharp)=\omega(\xi^\sharp,\xi^\sharp)=0. Ainsi, \sharp(\xi)\subset \ker\xi\setminus\{0\}.

Pour l’inclusion inverse, soit \mathbf u\in \ker\xi\setminus\{0\}. Comme \mathbf u n’est pas nul, on peut trouver une base (\mathbf e_2,\ldots,\mathbf e_n) de \ker\xi pour laquelle \mathbf u=\mathbf e_2. On peut aussi trouver un élément \mathbf e_1 de E tel que \xi(\mathbf e_1)=-1 car \xi\neq 0. Clairement, les \mathbf e_k, k=1,\ldots,n, sont linéairement indépendants. Ils forment donc une base de E et, vu nos choix, le premier élément de la base duale de celle-ci est \varepsilon^1=-\xi. Notons \omega la forme symplectique dont ce soit une base de Darboux c’est-à-dire la forme calculée par la formule (1) en termes des composantes relatives à cette base. Alors, pour tout \mathbf x\in E, on a

\omega(\mathbf u,\mathbf  x)=\omega(\mathbf e_2,\mathbf  x)=\det\begin{pmatrix}0&x^1 \\1&x^2\end{pmatrix}=-x^1=\xi(\mathbf x)

et la cause est entendue. 😉

__________
(*) Avec les notations du calcul tensoriel, une base est orthonormée pour un produit scalaire g si, en notant (\varepsilon^1,\ldots,\varepsilon^n) sa base duale,

g=\sum_{k=1}^n\varepsilon^k\otimes\varepsilon^k

et c’est une base de Darboux pour une forme symplectique \omega si

\omega=\sum_{k=1}^m\varepsilon^{2k-1}\wedge\varepsilon^{2k}

Sur quelques vecteurs propres amusants

C’est dans cet article que se trouve l’origine de ce dont je vais vous entretenir mais il ne faut nullement l’avoir lu pour comprendre le présent billet dont le propos est extrêmement élémentaire.

Dans l’article en question, j’ai associé de façon naturelle deux équations différentielles à chaque matrice de trace nulle

H=\begin{pmatrix}p&q\\r&-p\end{pmatrix}

Peut importe ce que sont ces équations, il suffit de savoir que l’on échange ces équations en remplaçant H par

H'=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

C’est en effet à propos de l’application linéaire H\mapsto H' que je souhaite faire ici quelques observations.

Les déterminants des matrices H et H' sont égaux. Puisque leurs traces sont nulles, elles ont même polynôme caractéristique : elles doivent être semblables. Et, en effet, comme on le voit tout de suite(*),

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}p&q\\r&-p\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

Plus généralement

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}t&z\\y&x\end{pmatrix}

L’ensemble des matrices réelles, carrées et de dimension deux est un espace vectoriel réel de dimension quatre. On le note souvent gl(2,\mathbf R). Plus précisément, l’application(**)

\begin{pmatrix}x&y\\z&t\end{pmatrix}\in gl(2,\mathbf R)\mapsto (x,y,z,t)\in\mathbf R^4

est une isométrie, gl(2,\mathbf R) étant muni du produit scalaire (A,B)\mapsto \mathrm{tr}(\tilde AB) et \mathbf R^4 de son produit scalaire canonique.

Le sous-espace des matrices de trace nulle de gl(2,\mathbf R) est noté sl(2,\mathbf R). C’est un hyperplan et son complément orthogonal, qui est donc de dimension un, est la droite vectorielle engendrée par la matrice unité. Comme on le voit immédiatement, celle-ci est en effet orthogonale aux matrices de trace nulle.

Comme on le vérifie très facilement, la similitude de matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est une isométrie de gl(2,\mathbf R); on a vu plus haut qu’elle stabilise sl(2,\mathbf R).

Nous allons déterminer ses vecteurs propres, c’est-à-dire chercher les (x,y,z,t) non nuls pour lesquels il existe un nombre réel \lambda vérifiant (t,z,y,x)=\lambda(x,y,z,t).

Il est particulièrement simple de résoudre ce système d’équations homogènes mais je ne vais pas le faire ici. Je vais seulement décrire ses solutions.

On voit qu’il est compatible si, et seulement si, \lambda^2=1. Autrement dit, les valeurs propres de notre application sont \pm 1.

L’espace des solutions du système lorsque \lambda=1 est \{(x,y,y,x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,1),(0,1,1,0)). Lorsque \lambda=-1, l’espace des solutions est \{(x,-y,y,-x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,-1),(0,-1,1,0)).

Les éléments de ces bases sont deux à deux orthogonaux et leurs longueurs sont toutes égales à \sqrt 2. Rangés dans l’ordre où nous les avons rencontrés ils forment une base de \mathbf R^4 de même orientation que sa base canonique. Dans cette base, notre similitude est représentée par la matrice diagonale \mathrm{diag}(1,1,-1,-1). Son déterminant est donc 1.

Les éléments de gl(2,\mathbf R) représentent les endomorphismes de l’espace vectoriel \mathbf R^2 :

\begin{pmatrix}u\\v\end{pmatrix}\mapsto \begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}u\\v\end{pmatrix}

L’interprétation en termes d’applications linéaires des quatre vecteurs propres que nous venons de mettre en évidence est intéressante :

  • (1,0,0,1) représente l’identité \mathbf 1 de \mathbf R^2 dans lui-même.
  • (0,1,1,0) représente la volte \mathcal V: (x,y)\mapsto (y,x); c’est la symétrie orthogonale par rapport à la droite d’équation x=y.
  • (1,0,0,-1) représente la symétrie orthogonale par rapport à la droite d’équation y=0; regardée comme une application de l’ensemble des nombres complexes dans lui-même, c’est la conjugaison. Nous la noterons \mathcal C.
  • (0,-1,1,0) représente la rotation d’angle \pi/2; sur \mathbf C, c’est aussi la multiplication par i et nous la noterons \mathcal I.

La composée de deux symétries orthogonales est une rotation dont l’angle est le double de l’angle orienté que forment ces droites. Par conséquent, \mathcal V\circ \mathcal C=\mathcal I. Mais \mathcal V et \mathcal C sont des involutions. Nous avons donc aussi \mathcal V\circ \mathcal I=\mathcal C et \mathcal I\circ \mathcal C=\mathcal V. Voici la table complète des composées de nos quatre applications :

\begin{array}{c|c|c|c|c}&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathbf 1&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathcal V&\mathcal V&\mathbf 1&\mathcal I&\mathcal C\\ \hline \mathcal C&\mathcal C&-\mathcal I&\mathbf 1&-\mathcal V\\ \hline \mathcal I&\mathcal I&-\mathcal C&\mathcal V&-\mathbf 1\end{array}

Cette table montre que

\{\pm \mathbf 1, \pm \mathcal V, \pm \mathcal C , \pm \mathcal I\}

est un sous groupe du groupe des isométries de \mathbf R^2, celui engendré par les réflexions \mathcal V et \mathcal C. Celles-ci conservent le carré de sommets (1,1),(-1,1),(-1,-1),(1,-1). C’est donc une copie du groupe diédral D_8 qui est le groupe des symétries d’un carré. Notez qu’il n’y a que deux groupes d’ordre huit non abéliens : le groupe diédral D_8 et le groupe des quaternions.

Une autre façon d’identifier notre groupe à D_8 est d’utiliser la présentation générale des groupes diédraux décrite dans la référence donnée quelques lignes plus haut. Abstraitement, le groupe D_8 est le groupe de présentation

\langle \sigma,\tau|\sigma^2,\tau^4,\sigma\tau\sigma^{-1}\tau\rangle

Cela signifie que D_8 est engendré par les éléments \sigma et \tau et que ceux-ci sont assujettis à vérifier les seules relations

\sigma^2=e \quad \& \quad  \tau^4=e \quad \& \quad  \sigma\tau\sigma^{-1}\tau=e

(e est le neutre). Les éléments du groupe sont alors

e,\tau,\tau^2,\tau^3,\sigma,\sigma\tau,\sigma\tau^2,\sigma\tau^3

Il est facile de voir à l’aide de la table ci-dessus que l’on peut prendre pour \sigma et \tau respectivement la réflexion \mathcal V et la rotation \mathcal I. Par exemple, on a

(\mathbf 1,\mathcal I,\mathcal I^2,\mathcal I^3,\mathcal V,\mathcal V\mathcal I,\mathcal V\mathcal I^2,\mathcal V\mathcal I^3)=(\mathbf 1,\mathcal I,-\mathbf 1,-\mathcal I,\mathcal V,\mathcal C,-\mathcal V,-\mathcal C)

__________
(*) La matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est sa propre inverse. Elle représente en effet la volte

\mathcal V: (x,y)\mapsto (y,x)

de \mathbf R^2 dans la base canonique de ce dernier, volte qui est évidemment une involution.

(**) Nous utiliserons librement cette application pour identifier gl(2,\mathbf R) et \mathbf R^4.

Une brève à propos des bases orthonormées positives en dimension 3

Soit un espace vectoriel E réel, euclidien, orienté et de dimension 3. Nous notons (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

Comme ce produit est antisymétrique, sa table de multiplication dans une base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est complètement caractérisée par les trois produits \mathbf e_1\wedge \mathbf e_2, \mathbf e_2\wedge \mathbf e_3 et \mathbf e_3\wedge \mathbf e_1.

Il est bien connu que la table de multiplication du produit vectoriel est la même dans toutes les bases orthonormées positives. Plus précisément, si la base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est orthonormée et positive, alors

(1) \begin{cases}\mathbf e_1\wedge \mathbf e_2=\mathbf e_3\\ \mathbf e_2\wedge \mathbf e_3=\mathbf e_1\\ \mathbf e_3\wedge \mathbf e_1=\mathbf e_2\end{cases}

Ce dont je n’avais pas conscience jusqu’à aujourd’hui, et dont je me suis rendu compte en préparant un cours que je donnerai demain matin, c’est que la réciproque est vraie :

Si des éléments \mathbf e_1, \mathbf e_2 et \mathbf e_3 de E sont non nuls et vérifient (1), alors (\mathbf e_1,\mathbf e_2,\mathbf e_3) est une base orthonormée et positive de E.

Supposons en effet que \mathbf e_1, \mathbf e_2 et \mathbf e_3, non nuls, vérifient (1).

D’une part, comme tout produit vectoriel est orthogonal à ses facteurs, \mathbf e_1, \mathbf e_2 et \mathbf e_3 sont alors deux à deux perpendiculaires.

En particulier, ils sont linéairement indépendants puisqu’aucun n’est nul : (\mathbf e_1,\mathbf e_2,\mathbf e_3) est donc une base.

Celle-ci est positive vu que

[\mathbf e_1,\mathbf e_2,\mathbf e_3]=[\mathbf e_1,\mathbf e_2,\mathbf e_1\wedge\mathbf e_2]=\|\mathbf e_1\wedge\mathbf e_2\|^2=\|\mathbf e_3\|^2>0

(où [-,-,-] désigne le produit mixte de E).

De plus, étant donné que

\forall \mathbf u,\mathbf v\in E,\quad \|\mathbf u\wedge\mathbf v\|=\|\mathbf u\|\|\mathbf v\|\sin\varphi

\varphi est l’angle non orienté que font \mathbf u et \mathbf v, les longueurs l_i=\|\mathbf e_i\| vérifient les relations

\begin{cases}l_1l_2=l_3\\l_2l_3=l_1\\l_3l_1=l_2\end{cases}

De là, l_1^2=l_2^2=l_3^2=l_1l_2l_3 et donc, vu que les l_i sont strictement positifs, l_1=l_2=l_3=1 : les \mathbf e_i sont normés.

😉

Translations et homothéties

L’ensemble des homothéties (non constantes) et des translations d’un espace affine est un groupe, sous-groupe du groupe des affinités de l’espace. C’est connu mais peu diffusé, du moins en Belgique. Aussi vais-je en toucher un mot ici, d’autant que j’enseigne ce fait, sans l’avoir consigné dans mon syllabus.

A chaque application affine \mathcal T d’un espace affine \mathcal E dans lui-même, ce que nous noterons \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), est associée une application linéaire \mathcal T_*, endomorphisme de l’espace vectoriel \overrightarrow{\mathcal E} qui dirige \mathcal E(*). Elle est caractérisée par la propriété

\forall A,B\in\mathcal E,\quad \mathcal T_*(\overrightarrow{AB})=\mathcal{T}(B)-\mathcal{T}(A)

De plus, si \mathcal S,\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), alors \mathcal S\circ\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) et

(1) (\mathcal S\circ\mathcal T)_*=\mathcal S_*\circ\mathcal T_*

Comme \mathrm{id}_{\mathcal E*} =\mathrm{id}_{\overrightarrow{\mathcal E}} et, si \mathcal T est bijectif, (\mathcal T^{-1})_*=(\mathcal T_*)^{-1}, il résulte immédiatement de l’égalité (1) que l’ensemble des \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) pour lesquels \mathcal T_* est un multiple non nul de l’identité est un sous-groupe du groupe des affinités de \mathcal E.

A ma connaissance, aucune notation particulière n’a été retenue pour désigner ce groupe. Ici, pour le manipuler facilement, nous le noterons G. Par contre, il a reçu un nom. On l’appelle le groupe des homothéties-translations (vous comprendrez très bientôt pourquoi).

Je désigne par t_\mathbf u : X\mapsto X+\mathbf u la translation de vecteur \mathbf u et par \mathcal H_{C,k} l’homothétie de centre C et de rapport k :

\mathcal H_{C,k} : X \mapsto C+k\overrightarrow{CX}

Clairement, t_{\mathbf u*}=\mathrm{id}_{\overrightarrow{\mathcal E}} et \mathcal H_{C,k*}=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Les homothéties et les translations appartiennent donc à G.

Réciproquement,

Si \mathcal T\in G, alors ou bien \mathcal T possède un point fixe et c’est une homothétie ou bien il n’en possède pas et c’est une translation.

En effet, donnons-nous \mathcal T\in G et posons \mathcal T_*=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Fixons aussi un point A de \mathcal E. Alors,

(2) \forall X\in\mathcal E,\quad \mathcal T(X)=\mathcal T(A)+k\overrightarrow{AX}

En particulier, C est un point fixe de \mathcal T si, et seulement si,

(1-k)\overrightarrow{AC}=\overrightarrow{AA'}

(pour alléger l’écriture, j’ai noté A' l’image de A par \mathcal T).

Si k\neq 1, alors \mathcal T possède un point fixe, à savoir

C=A+\frac{1}{1-k}\overrightarrow{AA'}

et, en remplaçant A par C dans (2), on voit que \mathcal T est l’homothétie de centre C et de rapport k.

Si k=1, alors (2) se réécrit sous la forme

\forall X\in\mathcal E,\quad \mathcal T(X)-X=\mathcal T(A)-A

qui montre que \mathcal T est la translation de vecteur \overrightarrow {AA'}. Lorsque celui-ci n’est pas nul, \mathcal T n’a donc aucun point fixe. Dans le cas contraire, il fixe tous les points de \mathcal E et c’est aussi une homothétie(**).

Il est facile, et amusant, de voir comment se composent les homothéties et les translations. Je liste les résultats. Leurs vérifications sont laissées à la discrétion du lecteur.

Composée de deux translations

On a simplement la formule

\boxed{t_\mathbf u \circ t_\mathbf v=t_{\mathbf u+\mathbf v}}

Composée d’une homothétie et d’une translation

Cette fois

\boxed{\mathcal H_{C,k}\circ t_\mathbf u=t_{k\mathbf u}\circ\mathcal H_{C,k}}

Lorsque k\neq 1, la valeur commune des deux membres est l’homothétie de rapport k et de centre

C+\frac{k}{1-k}\mathbf u

Composée de deux homothéties

Si kl\neq 1, alors \mathcal H_{D,l}\circ \mathcal H_{C,k} est l’homothétie de rapport kl et de centre

C+\frac{1-l}{1-kl}\overrightarrow{CD}

sinon, c’est la translation de vecteur

\mathbf (1-l)\overrightarrow{CD}

Ce dernier s’annule si l=1 ou si C=D. Dans le premier cas, k=1 (puisque kl=1) : les deux homothéties sont égales à l’identité de \mathcal E dans lui-même et il en va de même de leur composée. Dans le second cas, les deux homothéties sont réciproques l’une de l’autre et leur composée est donc à nouveau l’identité de \mathcal E dans lui-même.

__________
(*) Traditionnellement, cette application linéaire est notée \overrightarrow{\mathcal T}. Pour alléger les notations, j’utilise ici la notation adoptée par un de mes collègues. Elle est assez légitime. En effet, en géométrie différentielle, la dérivée d’une application f entre variétés — son application linéaire tangente — est notée f_*. Or il se fait que l’application \overrightarrow{\mathcal T} est effectivement la dérivée de \mathcal T. Elle peut donc tout à fait bien être désignée par \mathcal T_*. L’égalité (1) est un avatar du théorème de dérivation des fonctions composées.

(**) Il n’y a qu’une homothétie de rapport 1. C’est l’identité de \mathcal E dans lui-même et c’est également la seule homothétie qui soit une translation.

Une brève à propos du nombre d’or

Le nombre d’or \varphi se débusque un peu partout. J’en ai d’ailleurs déjà parlé sur ce blog. Cette fois-ci, c’est dans le contexte des généralisations d’une formule de Carnot que j’ai étudiées récemment que nous allons le voir surgir.

Voici la formule que nous allons vérifier. Pour les notations utilisées dans l’énoncé et dans la démonstration, voir par exemple ici et ici.

\boxed{\lim\limits_{n\to +\infty}\mathfrak{cos}_n(0)=\varphi}

Pour rappel,

\mathfrak{cos}_n(0)=\frac 1 2p_n^{n-1}

p_n est l’unique zéro réel du polynôme X^{2n-1}-2X^{n-1}-4. La suite n\mapsto p_n décroît strictement vers 1. Le nombre \xi_n:=p_n^n est donc l’unique zéro positif du polynôme X^2-2X-4p_n :

\xi_n=1+\sqrt{1+4p_n}

En particulier, \lim_{n\to+\infty}\xi_n=2\varphi. En conséquence,

\lim\limits_{n\to +\infty}\mathfrak{cos}_n(0)=\lim\limits_{n\to +\infty}\cfrac{\xi_n}{2p_n}=\varphi

comme annoncé!

Comme \mathfrak{cosh}_m(0) vaut également p_n^{n-1}/2, où n=2m, nous avons aussi

\boxed{\lim\limits_{m\to +\infty}\mathfrak{cosh}_m(0)=\varphi}

😉

P.S. En fait, les suites n\mapsto\mathfrak{cos}_n(0) et n\mapsto\mathfrak{cosh}_n(0) sont strictement croissantes. En effet

\frac 1 2p_n^{n-1}=\cfrac{1+\sqrt{1+4p_n}}{2p_n}=\cfrac{1}{2p_n}+\sqrt{\cfrac{1}{4p_n^2}+\cfrac{1}{p_n}}

La propriété résulte alors de ce que la suite des p_n, qui sont positifs, est strictement décroissante. P.L. 26/01/2017

P.S. On a en réalité plus fort que ce qui précède. En effet, les suites de fonctions n\mapsto \mathfrak{cos}_n et n\mapsto \mathfrak{cosh}_n convergent uniformément sur tout compact de \mathbf R vers l’application constante x\mapsto \varphi.

Voyons comment vérifer cela pour la première suite, par exemple. On a

\mathfrak{cos}_n(x)=\frac 1 2 p_n^{n-1} + \sum\limits_{k=1}^{+\infty}\alpha_k\sigma^k(x^n)^k

\sigma=(-1)^{n+1} (pour \mathfrak{cosh_m}, n=2m et \sigma =1). Je rappelle par ailleurs que

|\alpha_k|\leqslant 2\left(\frac{1}{2(n!)}\right)^k\frac{1}{k!}

De là, si |x|\leqslant K — et donc |x|^{nk}\leqslant K^{nk} pour tout entier positif k — alors pour tout entier positif N,

\left|\sum\limits_{k=1}^N\alpha_k\sigma^k(x^n)^k\right|\leqslant \sum\limits_{k=1}^N|\alpha_k|K^{nk}\leqslant 2\sum\limits_{k=1}^N\left(\frac{K^n}{n!}\right)^k\frac{2^{-k}}{k!}

Mais \frac{K^n}{n!} tend vers zéro lorsque n tend vers +\infty car c’est le terme général de la série qui définit \exp K. Par conséquent, à partir d’un certain rang n_0, \frac{K^n}{n!}\leqslant 1. Donc, si n\geqslant n_0, alors

\left|\sum\limits_{k=1}^N\alpha_k\sigma^k(x^n)^k\right|\leqslant 2\frac{K^n}{n!}\sum\limits_{k=1}^N\frac{2^{-k}}{k!}\leqslant 2\sqrt{e}\frac{K^n}{n!}

D’où, en laissant N tendre vers +\infty,

|\mathfrak{cos}_n(x)-\frac 1 2 p_n^{n-1}|\leqslant 2\sqrt{e}\frac{K^n}{n!}

et le résultat suit. P.L. 27/01/2017

Quelques belles images

La série de billets A propos d’une formule de Carnot est consacrée à la recherche des fonctions analytiques vérifiant une généralisation de la formule de Carnot \cos^2(x)=\frac 1 2[\cos(2x)+1]. Dans celui-ci, j’ai introduit les fonctions \varsigma_{2m+1} et \varsigma_{2m}^\pm grâce auxquelles on peut aisément décrire les solutions non constantes de ce problème.

Parmi celles-ci il y a les fonctions(*)(**)

\begin{cases}\mathfrak{cos}_{2m+1}:x\mapsto \varsigma_{2m+1}(x^{2m+1})\\[2ex]\mathfrak{cos}_{2m}:x\mapsto \varsigma_{2m}^-(x^{2m})\end{cases}

et je vais présenter ici un aperçu du graphe de quelques unes.

\boxed{\mathfrak{cos}_1}

carnot_p_qcq_1

\boxed{\mathfrak{cos}_3}

carnot_p_qcq_3

\boxed{\mathfrak{cos}_5}

carnot_p_qcq_5

\boxed{\mathfrak{cos}_7}

carnot_p_qcq_7

\boxed{\mathfrak{cos}_2=\cos}

carnot_p_qcq_2

\boxed{\mathfrak{cos}_4}

carnot_p_qcq_4

\boxed{\mathfrak{cos}_6}

carnot_p_qcq_6

\boxed{\mathfrak{cos}_8}

carnot_p_qcq_8

Les \mathfrak{cos}_n d’indices impairs sont strictement croissants dans ]0,+\infty[ et leur limite en +\infty est +\infty.

Dans ]-\infty, 0[, leur comportement semble analogue à celui des \mathfrak{cos}_n d’indices pairs.

Ceux-ci, par définition, sont des fonctions paires. Leurs graphes sont donc symétriques par rapport à l’axe vertical.

Dans les deux familles, il est saisissant de voir comment évolue le graphe à mesure que l’indice n croît. Par ailleurs, ces graphes suggèrent fortement quelques propriétés des extrema locaux des fonctions \mathfrak{cos}_n. Mais, pour l’instant, je ne sais en formuler aucune avec précision.

P.S. Quand même! Voir le billet suivant. 🙂 P.L. 26/01/2017

__________
(*) Il y a aussi les fonctions

\mathfrak{cosh}_{m}x:\mapsto \varsigma_{2m}^+(x^{2m})

mais leurs graphes se ressemblent très fort pour les petites valeurs de x — les seules en lesquelles je sois en mesure de les évaluer — et on sait à peine les distinguer les uns des autres : on dirait des chaînettes (pour m=1, il s’agit de \cosh). Je ne les montre donc pas.

(**) La fonction notée \mathfrak{cos} ici est la fonction

x\mapsto \mathfrak{cos}_1(\frac 5 2 x)