Courbure et épaississement II

Je continues ici cet article auquel je vous reporte pour les définitions, les notations et des propriétés que nous allons utiliser.

L’objectif poursuivi est de montrer que la courbure de la frontière du t-épaissi d’un convexe d’un plan affine euclidien est moindre que celle de la frontière du convexe, pour autant que celle-ci soit suffisamment régulière.

Ceci est illustré sur la figure suivante, où le phénomène est nettement perceptible.

La courbe dessinée en bleu, la parabole d’équation y=x^2 dans le repère indiqué, délimite un convexe dont elle est la frontière. La courbe tracée en noir est celle du 2-épaissi de celui-ci.

Nous considérons une partie convexe et fermée e d’un plan affine euclidien orienté E. Nous supposons que la frontière du convexe est une courbe régulière \gamma : I\to E de classe C^2, où I est un intervalle ouvert de \mathbf R.

A chaque u\in I est associé un repère de E. Son origine est \gamma(u) et sa base (\mathbf t(u),\mathbf n(u)) est orthonormée et positive. Elle est formée du vecteur tangent unitaire \mathbf t(u)=\gamma'(u)/\|\gamma'(u)\| à \gamma en \gamma(u) et de la normale \mathbf n(u). Celle-ci s’obtient en appliquant à \mathbf t(u) la rotation d’angle \pi/2.

Le repère en question varie conformément aux équations

\begin{cases}\mathbf t'=\kappa^*\|\gamma'\|\mathbf n\\[1ex]\mathbf n'=-\kappa^*\|\gamma'\|\mathbf t\end{cases}

où la fonction \kappa^* est la courbure algébrique de \gamma.

La dérivée \mathbf t' pointe vers la concavité de \gamma alors que \mathbf n, déterminé univoquement par \mathbf t et l’orientation donnée de E, ne le fait peut-être pas. Le signe de \kappa^* est précisément celui qu’il faut pour assurer que \kappa^*\mathbf n ait le bon sens. La courbure \kappa de \gamma est toujours positive ou nulle. C’est la valeur absolue de la courbure algébrique.

Dans notre cas, pour chaque u\in I, le convexe e est entièrement contenu dans le demi-plan délimité par la tangente à \gamma en \gamma(u) vers lequel pointe \mathbf t'(u). Nous supposons que, par contre, \mathbf n(u) pointe vers l’autre demi-plan, ce qui n’est pas une restriction. En particulier, \kappa^* est négatif ou nul.

On a vu dans l’article mentionné plus haut que la frontière du t-épaissi de e est l’ensemble des points de E dont la distance à e vaut exactement t (nous supposons ce dernier strictement positif). Par conséquent, la frontière de e_t est la courbe paramétrée par la fonction

\gamma_t : u\in I \mapsto \gamma(u)+t\mathbf n(u)\in E

Nous allons calculer sa courbure pour la comparer à celle de la frontière de e, en appliquant les équations rappelées plus haut. On a

\gamma_t'=\gamma'-t\kappa^*\|\gamma'\|\mathbf t=(1-t\kappa^*)\gamma'

Vu le signe de \kappa^*, 1-t\kappa^*>0 de sorte que

\mathbf t_t=\frac{\gamma_t'}{\|\gamma_t'\|}=\frac{\gamma'}{\|\gamma'\|}=\mathbf t

On a donc aussi \mathbf n_t=\mathbf n. De plus,

\kappa^*_t\|\gamma_t'\|\mathbf n_t=\mathbf t_t'=\mathbf t'=\kappa^*\|\gamma'\|\mathbf n

Ainsi

\kappa^*_t=\frac{\kappa^*}{1-t\kappa^*}

et, puisque \kappa=-\kappa^* et \kappa_t=-\kappa^*_t,

\boxed{\kappa_t=\frac{\kappa}{1+t\kappa}}

Nous avons atteint notre but. En effet, la formule encadrée montre que \kappa_t\leqslant \kappa, l’inégalité étant stricte si \kappa>0.

La relation que nous avons trouvée est très simple mais il y a encore plus simple et intuitif. Pour rappel, le rayon de courbure \varrho(u) de \gamma en \gamma(u) est l’inverse de la courbure \kappa(u). En passant aux inverses dans la relation liant \kappa_t à \kappa, il vient alors

\boxed{\varrho_t=\varrho+t}

Nous pourrions en rester là mais je tiens à vous faire part d’une observation étrange. Elle est liée à la propriété (f) établie dans l’article cité au début du présent billet : pour tous s,t>0, on a (e_s)_t=e_{s+t}. Ceci implique que, considérant \kappa_t comme une fonction K de (t,\kappa) et \varrho_t comme une fonction R de (t,\varrho), on doit avoir

K(t,K(s,\kappa))=K(s+t,\kappa)\quad \& \quad R(t,R(s,\varrho))=R(s+t,\varrho)

Ceci, pour intéressant que cela puisse être, n’a rien d’étrange. On connait l’origine de cette propriété et, en outre, la vérification directe de ces formules est immédiate, singulièrement dans le cas de R.

Ce qui est surprenant, par contre, c’est que K est essentiellement(*) le flot du champ de vecteurs X:\kappa\mapsto -\kappa^2\frac d{d\kappa} de \mathbf R et R celui de son champ \varrho\mapsto \frac d{d\varrho}. Ces champs sont les expressions locales dans les cartes canoniques de la droite projective réelle d’un champ de vecteurs fondamental de celle-ci. Il s’agit, avec les notations de ce billet, du champ H^*

H=\begin{pmatrix}0&1\\0&0\end{pmatrix}

Cela est-il purement accidentel ou il y a-t-il quelque chose d’intéressant se cachant derrière ce fait? Je n’en sais rien et vais donc finir ici ce billet!

😉

__________
(*) Je ne précise pas le domaines de K, facile à déterminer. D’où cette imprécision : « essentiellement ».

Publicités

Courbure et épaississement

En tondant la pelouse de mon jardin, j’observe un phénomène que je me suis enfin décidé à expliquer mathématiquement. Il s’agit de ceci. Les traces des roues de la tondeuse ont l’aspect de courbes et celles qui voisinent la bordure d’un parterre convexe ont une courbure qui s’atténue à mesure qu’on s’éloigne de la bordure.

C’est une question posée sur M@TH en Ligne à propos des épaissis d’une parabole pleine qui m’a incité à étudier le problème. J’ai parlé pour la première fois dans ce blog du t-épaissis d’une partie e d’un espace euclidien (de dimension finie) E ici. Pour rappel, il s’agit de l’ensemble e_t des points de e qui se trouvent à une distance au plus t de e (on suppose que t est positif ou nul). Vous trouverez dans l’article en question un exemple d’épaissi, celui d’un pentagone d’un pan.

Le rapport avec la tonte de la pelouse est le suivant : j’estime que les traces des roues au voisinage d’un parterre convexe sont assimilables aux frontières d’épaissis du parterre correspondant à des valeurs de t qui sont des multiples de plus en plus grands de la largeur de la tondeuse. Le phénomène observé s’explique alors par le fait qu’en épaississant un convexe d’un plan, on diminue la courbure de sa frontière du moins si celle-ci est assez régulière ce qui est le cas de la frontière du parterre de mon jardin auquel je pense. Je prouverai cela mais, avant, je vais faire quelques petites observations à propos des épaissis. Elles sont sans doute bien connues mais je n’ai pas de références auxquelles vous renvoyer à leur propos.

(a) Pour tout e\subset E et tout t\geqslant 0, le t-épaissi de e est égal à celui de son adhérence.

C’est évident. Notez, au passage, ce qui est clair également, que e_0 est l’adhérence de e.

(b) Pour tout t\geqslant 0, e_t est fermé.

En effet, vu (a), nous pouvons supposer que e est fermé. Cela noté, si x adhère à e_t, il est limite d’une suite x_m d’éléments de e_t. Il existe une suite a_m de points de e tels que d(x_m,e)=d(x_m,a_m). On a

(1) d(x,a_m)\leqslant d(x,x_m)+d(x_m,a_m)\leqslant d(x,x_m)+t

En particulier, la suite m\mapsto a_m est bornée. Quitte à la remplacer par une sous-suite, on peut donc supposer qu’elle converge vers un point a\in e. En passant à la limite dans (1), il vient alors d(x,a)\leqslant t. Ainsi, x appartient à e_t et (b) est prouvé.

(c) Si e est convexe, alors e_t l’est aussi.

Soient a,b\in e_t. Comme on peut supposer e fermé, il existe c,d\in e tels que d(a,c)=d(a,e)\leqslant t et d(b,d)=d(b,e)\leqslant t. D’après le lemme qui suit, les points du segment [a,b] sont donc distants de moins de t du segment [c,d]. Celui-ci est inclus à e puisque ce dernier est convexe. Par conséquent, [a,b]\subset e_t : (c) est établi.

(d) Lemme : Soient des points a,b,c,d de E et x\in [a,b]. On a

d(x,[c,d])\leqslant \sup\{d(a,c),d(b,d)\}

Pour vérifier cela, il suffit de donner un point y\in [c,d] tel que d(x,y)\leqslant \sup\{d(a,c),d(b,d)\}. Le point x est de la forme (\frac 1 2-u)a+(\frac 1 2+u)b, où |u|\leqslant\frac 1 2, et on voit facilement que le point y=(\frac 1 2-u)c+(\frac 1 2+u)d a cette propriété(*). D’où le lemme.

(e) Si e est convexe et t>0, alors la frontière (e_t)^\bulletde e_t est \{x\in E|d(x,e)=t\}.

Pour vérifier cela, nous supposons à nouveau que e est fermé, ce qui n’est pas une restriction. Soit alors un point frontière x de e_t. Il existe un point a de e tel que d(x,e)=d(x,a). Le point x est limite d’une suite m\mapsto x_m de points n’appartenant pas à e_t. On a donc d(x_m,a)>t pour tout m\in \mathbf N. En passant à la limite, nous voyons que d(x,a)\geqslant t. Mais, vu (b), x\in e_t et d(x,a)\leqslant t. Au total d(x,e)=t.

Nous venons de montrer que (e_t)^\bullet\subset \{x\in E|d(x,e)=t\}. Nous l’avons fait sans utiliser la convexité de e mais nous aurons besoin de cette hypothèse pour établir l’inclusion réciproque. Il y a en effet des ensembles non convexes pour lesquels cette inclusion est fausse. Par exemple, le t-épaissi d’un cercle de rayon t est le disque de même centre et de rayon 2t. Le centre du cercle est à distance t de celui-ci mais n’est donc pas un point frontière de son t-épaissi.

Allons-y! Soit un point x de E à distance t de e. Il n’appartient pas à e car t>0. Notons a sa projection orthogonale sur e. C’est l’unique point de e qui réalise la distance de x à e. Il est caractérisé par le fait que les angles non orientés entre \overrightarrow{ax} et \overrightarrow{ay}, y\in e, valent au moins \pi/2. En particulier, il est aussi la projection orthogonale de tous les points de la demi-droite \{a+u\ \overrightarrow{ax}| u>0\}. Les points

y_m=a+\left(1+\frac 1 m\right)\overrightarrow{ax}, m\in \mathbf N\setminus\{0\}

sont donc à distance \left(1+\frac 1 m\right)t>t de e. Ils n’appartiennent aucun à e_t mais ils convergent vers x. Celui-ci est donc un point frontière de e_t. D’où (e).

(f) Pour tous s,t>0, on a (e_s)_t=e_{s+t}.

C’est à peu près évident. Nous supposons à nouveau que e est fermé. Soient alors x\in (e_s)_t, un point y de e_s tel que d(x,y)=d(x,e_s) et un point z de e tel que d(y,z)=d(y,e). Il vient

d(x,z)\leqslant d(x,y)+d(y,z)\leqslant t+s

Ainsi, x\in e_{s+t} et (e_s)_t\subset e_{s+t}. Inversement, supposons que x\in e_{s+t} et notons a un point de e tel que d:=d(x,a)=d(x,e). Si d\leqslant s, alors x appartient à e_s, donc à (e_s)_t. Si d>s, posons

y=a+\frac s d\overrightarrow{ax}

C’est un point de e_s. De plus, d(x,y)=d-s\leqslant t. Par conséquent, x\in(e_s)_t et (f) est prouvé.

Pour des raisons de taille, je termine ici ce billet. Je présenterai ce que je voulais vous dire à propos de la courbure de la frontière des épaissis d’un convexe dans un billet ultérieur.

__________
(*) Par exemple, on note que

\begin{array}{rcl}d(x,y)^2&=&\left(\frac 1 2-u\right)^2d(a,c)^2+2\left(\frac 1 4-u^2\right)d(a,c)d(b,d)\cos\theta+\left(\frac 1 2+u\right)^2d(b,d)^2\\[1ex]&\leqslant&[2u^2(1-\cos\theta)+\frac 1 2(1+\cos\theta)]\sup\{d(a,c),d(b,d)\}\end{array}

\theta est l’angle non orienté entre les vecteurs \overrightarrow{ac} et \overrightarrow{bd} (on pose \theta=\pi/2 si l’un des deux est nul). La majoration s’obtient en remplaçant d(a,c) et d(b,d) par le plus grand des deux. Pour conclure, on observe que la quantité entre crochets ne dépasse pas 1 puisque |u|^2\leqslant \frac 1 4.

Une brève à propos des indices musicaux III

Je poursuis dans cet article l’étude de l’application \sharp : \xi\in E^*\mapsto \xi^\sharp\in E associée à une forme bilinéaire non dégénérée entamée dans deux billets antérieurs. Après avoir présenté ici le cas des produits scalaires et celui des formes symplectiques, j’aborde à présent celui des formes symétriques de signature quelconque. Je vous réfère à ces articles pour la définition de l’application \sharp.

Ici, E est un espace vectoriel réel de dimension finie n >1. Nous noterons g une forme bilinéaire symétrique non dégénérée de signature (p,q) de E. Cela signifie qu’il existe des bases de celui-ci dans lesquelles g est représenté par la matrice diagonale

\Delta:=\mathrm{diag}(\underbrace{1,\ldots,1}_{p},\underbrace{-1,\ldots,-1}_{q})=\mathrm{diag}(I_p,-I_q)

I_k désigne la matrice unité de taille k. Nous dirons de ces bases qu’elles sont adaptées à g.

Naturellement, si (p,q)=(n,0), g est un produit scalaire et, si (p,q)=(0,n), c’est -g qui en est un. Nous allons dès lors supposer que pq\neq 0 puisque les autres cas sont déjà traités.

Le résultat est le suivant

Soient \xi\in E^*\setminus\{0\}, \mathbf x\in E et deux entiers strictement positifs p et q tels que p+q=n. Il existe une forme bilinéaire symétrique non dégénérée de signature (p,q) telle que \mathbf x=\xi^\sharp si, et seulement si, \mathbf x\neq 0.

Ma démonstration est techniquement un peu lourde sans être pour autant conceptuellement difficile : contrairement aux cas des produits scalaires et des formes symplectiques, qui se traitent de façon assez triviale, je n’ai rien trouvé d’immédiat.

On vérifie facilement que si les composantes de \xi dans la base duale d’une base adaptée à g sont \mu=(\mu_1,\ldots,\mu_n), alors celles de \xi^\sharp dans la base adaptée sont u=(\mu_1,\ldots,\mu_p,-\mu_{p+1},\ldots,-\mu_n). Autrement dit u=\Delta \mu(*).

En particulier, si \xi n’est pas nul, alors \xi^\sharp ne l’est pas non plus, ce que nous savions déjà puisque \sharp est une bijection linéaire.

Etablir la réciproque, i.e. que si \mathbf x n’est pas nul, il s’écrit \xi^\sharp pour une certaine forme g de signature (p,q), revient à montrer qu’il existe des bases de E pour lesquelles u=\Delta \mu, où u sont les composantes de \mathbf x dans la base et \mu sont celles de \xi dans la base duale.

Nous allons faire cela en partant d’une base (plus ou moins) quelconque \mathbf f=(\mathbf f_1,\ldots, \mathbf f_n) de E et en trouvant une matrice de changement de bases S qui la transforme en une base \mathbf e=(\mathbf e_1,\ldots, \mathbf e_n) ayant la propriété en question(**).

Les relations liant les différentes composantes de \mathbf x et \xi sont v=Su et \mu=\tilde{S}\nu. Par conséquent, il s’agit d’établir l’existence d’une matrice non singulière S telle que

(1) v=S\Delta\tilde{S}\nu

Assez naturellement, nous allons écrire S sous la forme \begin{pmatrix}A&B\\C&D\end{pmatrix}A est une matrice carrée de taille p, D une de taille q, B est une matrice à p lignes et q colonnes et C une matrice à q lignes et p colonnes. On a alors

S\Delta\tilde{S}=\begin{pmatrix}A\tilde{A}-B\tilde{B}&A\tilde{C}-B\tilde{D}\\C\tilde{A}-D\tilde{B}&C\tilde{C}-D\tilde{D}\end{pmatrix}

La solution que je propose repose sur une discussion basée sur le signe de \xi(\mathbf x); elle montre bien, techniquement du moins, pourquoi l’hypothèse pq\neq 0 fait marcher les choses.

\boxed{\xi(\mathbf x)>0}

Puisque \xi(\mathbf x)\neq 0, on a E=\ker\xi\oplus\mathbf R\mathbf x. On peut donc choisir une base \mathbf f pour laquelle \mathbf f_1=\mathbf x et, si (\varphi^1,\ldots,\varphi^n) est sa base duale, \xi=\xi(\mathbf x)\varphi^1. Pour cette base, v=\overrightarrow{\mathbf e}_1:=(1,0,\ldots,0) et \nu=\xi(\mathbf x)\overrightarrow{\mathbf e}_1. La condition (1) exprime alors le fait que \overrightarrow{\mathbf e}_1 est un vecteur propre de valeur propre 1/\xi(\mathbf x) de la matrice S\Delta\tilde{S}.

Nous allons prendre B=0, C=0, D=I_q et

A=\mathrm{diag}(\frac{1}{\sqrt{\xi(\mathbf x)}},I_{p-1})

Avec ces choix, on a

S\Delta\tilde{S}=\begin{pmatrix}\frac{1}{\xi(\mathbf x)}&0&0\\0&I_{p-1}&0\\0&0&-I_q\end{pmatrix}

qui répond bien à la question.

\boxed{\xi(\mathbf x)<0}

Cette fois, nous choisissons \mathbf f pour que v=\overrightarrow{\mathbf e}_n:=(0,\ldots,0,1) et \xi=\xi(\mathbf x)\varphi^n. C'est alors \overrightarrow{\mathbf e}_n qui est un vecteur propre de valeur propre 1/\xi(\mathbf x) de S\Delta\tilde{S}.

Nous prenons encore B=0 et C=0 mais, en quelque sorte, nous inversons les rôles de A et de D puisque nous posons A=I_p et

D=\mathrm{diag}(I_{q-1},\frac{1}{\sqrt{-\xi(\mathbf x)}})

Cette fois,

S\Delta\tilde{S}=\begin{pmatrix}I_p&0&0\\0&-I_{q-1}&0\\0&0&\frac{1}{\xi(\mathbf x)}\end{pmatrix}

qui répond de nouveau à la question.

\boxed{\xi(\mathbf x)=0}

Ce cas est un peu plus compliqué que les deux précédents. Il va se subdiviser en deux sous-cas.

  • \boxed{p\geqslant q}
    Nous choisissons dans ce cas \mathbf f de manière telle que \mathbf x=\mathbf f_1 et \xi=\varphi^n. Il suffit pour cela de prendre une base (\mathbf x=\mathbf f_1,\ldots,\mathbf f_{n-1}) de \ker \xi et un élément \mathbf f_n de E tel que \xi(\mathbf f_n)=1 (il en existe puisque \xi n’est pas nul).

    Les conditions imposées à S sont alors(***)

    \begin{cases}(A\tilde{C}-B\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=\overrightarrow{\mathbf e}^{(p)}_1\\(C\tilde{C}-D\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=0\end{cases}

    On voit facilement que le choix suivant fournit une matrice non singulière S vérifiant ces conditions : A=I_p, D=I_q, B=0, et

    C=\begin{pmatrix}0&I_{q-1}&0\\1&0&0\end{pmatrix}

    (On notera, concernant C qui doit comporter p colonnes, que ce choix est possible vu que p\geqslant q.)

  • \boxed{p<q}
    Ici, d'une certaine façon, on échange les rôles tenus dans le cas précédent par les indices 1 et n et les matrices B et C. En détails, on choisit cette fois \mathbf f pour que \mathbf x=\mathbf f_n et \xi=\varphi^1 ce qui impose à S de vérifier les relations

    \begin{cases}(A\tilde{A}-B\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=0\\(C\tilde{A}-D\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=\overrightarrow{\mathbf e}^{(q)}_q\end{cases}

    Pour que ce soit le cas, il suffit de prendre A=I_p et D=I_q puis C=0 et

    B=\begin{pmatrix}0&0&1\\0&I_{p-1}&0\end{pmatrix}

Vu sa taille, cet article n’est pas vraiment « une brève » mais je lui ai conservé cette dénomination en raison de sa parenté avec les deux articles mentionnés en début de texte.

Je suis d’ailleurs un peu surpris par la difficulté technique de la preuve ci-dessus. Peut-être existe-t-il une approche plus conceptuelle et concise. J’y réfléchirai et reste ouvert à toute suggestion.

😉

––––––––––
(*) Les n-upples tels que u, \mu, sont tantôt horizontaux (dans le corps du texte, généralement) tantôt verticaux, dans des égalités matricielles le plus souvent. Je ne préciserai pas les choses à chaque occasion, espérant que le contexte lève toute ambiguïté.

(**) Pour que les choses soient bien claires, je précise que la matrice S est celle pour laquelle

\forall l\in\{1,\ldots,n\},\quad \mathbf e_l=\sum\limits_{k=1}^nS_l^k\mathbf f_k

De plus, on notera si nécessaire u et \mu (respectivement v et \nu) les vecteurs des composantes de \mathbf x et \xi dans la base \mathbf e (respectivement \mathbf f) et sa base duale.

(***) Je désigne par \overrightarrow{\mathbf e}^{(k)}_l l’élément de \mathbf R^k dont la seule composante non nulle vaut 1 et occupe la place l.

Une brève à propos des indices musicaux II

Il n’y a pas que les produits scalaires qui engendrent une mise en dualité entre un espace vectoriel et son dual comme je l’ai expliqué en début de cet article. En fait, toute forme bilinéaire non dégénérée de l’espace le fait. Ici, nous allons nous intéresser à d’autres formes bilinéaires non dégénérées importantes, celles qui sont antisymétriques et qu’on appelle les formes symplectiques. Nous allons résoudre le même problème à propos de ces formes que celui que nous avons résolu dans le billet en question à propos des produits scalaires.

Considérons donc un espace vectoriel réel E, de dimension finie, et une forme symplectique \omega de E. Tout comme un produit scalaire, cette forme induit des bijections linéaires \flat :E \to E^* et \sharp : E^*\to E dont je vais rappeler les définitions, pour la commodité du lecteur. La première bijection est tout simplement l’application

\flat : x\in E\mapsto \omega(x,-)\in E^*

tandis que \sharp, sa réciproque, est caractérisé par

\forall \xi\in E^*, \forall x\in E, \quad \omega(\xi^\sharp,x)=\xi(x)

Avant d’aborder la question qui va nous occuper dans ce billet, je fais quelques rappels sur les formes symplectiques car elles sont sans doute moins connues du grand public que ne le sont les produits scalaires.

Tout d’abord, comme toute forme bilinéaire, dans toute base (\mathbf e_1,\ldots,\mathbf e_n) de E, une forme symplectique \omega de E est représentée par une matrice, celle dont les éléments sont les nombres \omega_{ij}=\omega(\mathbf e_i,\mathbf e_j). Puisque la forme est antisymétrique, cette matrice l’est également. Mais \omega est non dégénéré et ceci équivaut au fait que le déterminant de cette matrice n’est pas nul. Il en résulte que la dimension de E est paire (voir par exemple ici). Nous poserons donc n=2m.

On s’est naturellement posé la question de savoir si on peut donner à la matrice qui représente \omega une forme canonique « simple », en choisissant bien la base dans laquelle on représente \omega.

Pour les produits scalaires, la réponse à la même question est bien connue. Il s’agit des bases orthonormées. Ce sont celles dans lesquelles ils sont représentés par la matrice unité \mathrm{diag}(1,\ldots,1).

La réponse est également connue pour les formes symplectiques et ce sont les bases de Darboux qui conviennent. Il s’agit de celles dans lesquelles elles sont représentées par la matrice diagonale par blocs

\mathrm{diag}\underbrace{\left(\begin{pmatrix}0&1\\-1&0\end{pmatrix},\ldots,\begin{pmatrix}0&1\\-1&0\end{pmatrix}\right)}_{m\ \mathrm{matrices}}

Ce sont donc les bases dans lesquelles, en termes des composantes de \mathbf x et de \mathbf y(*),

(1) \omega(\mathbf  x,\mathbf  y)=\sum_{k=1}^m\det\begin{pmatrix}x^{2k-1}&y^{2k-1}\\x^{2k}&y^{2k}\end{pmatrix}

Venons-en à présent à notre petit problème à savoir, étant donné \xi\in E^*, trouver l’ensemble \sharp(\xi) des éléments de E qui s’écrivent \xi^\sharp pour une forme symplectique bien choisie de E. La réponse tient en ceci : pour tout \xi\in E^*, on a

\sharp(\xi)=\begin{cases}\{0\}\ \mathrm{si}\ \xi=0\\[1ex]\ker \xi\setminus\{0\}\ \mathrm{sinon}\end{cases}

Je me contente de détailler le cas où \xi n’est pas nul, cela va de soi. Soit alors \xi^\sharp calculé pour une certaine forme symplectique \omega. D’abord \xi^\sharp n’est pas nul non plus (\sharp est une bijection linéaire). De plus, \xi(\xi^\sharp)=\omega(\xi^\sharp,\xi^\sharp)=0. Ainsi, \sharp(\xi)\subset \ker\xi\setminus\{0\}.

Pour l’inclusion inverse, soit \mathbf u\in \ker\xi\setminus\{0\}. Comme \mathbf u n’est pas nul, on peut trouver une base (\mathbf e_2,\ldots,\mathbf e_n) de \ker\xi pour laquelle \mathbf u=\mathbf e_2. On peut aussi trouver un élément \mathbf e_1 de E tel que \xi(\mathbf e_1)=-1 car \xi\neq 0. Clairement, les \mathbf e_k, k=1,\ldots,n, sont linéairement indépendants. Ils forment donc une base de E et, vu nos choix, le premier élément de la base duale de celle-ci est \varepsilon^1=-\xi. Notons \omega la forme symplectique dont ce soit une base de Darboux c’est-à-dire la forme calculée par la formule (1) en termes des composantes relatives à cette base. Alors, pour tout \mathbf x\in E, on a

\omega(\mathbf u,\mathbf  x)=\omega(\mathbf e_2,\mathbf  x)=\det\begin{pmatrix}0&x^1 \\1&x^2\end{pmatrix}=-x^1=\xi(\mathbf x)

et la cause est entendue. 😉

__________
(*) Avec les notations du calcul tensoriel, une base est orthonormée pour un produit scalaire g si, en notant (\varepsilon^1,\ldots,\varepsilon^n) sa base duale,

g=\sum_{k=1}^n\varepsilon^k\otimes\varepsilon^k

et c’est une base de Darboux pour une forme symplectique \omega si

\omega=\sum_{k=1}^m\varepsilon^{2k-1}\wedge\varepsilon^{2k}

Une brève à propos des indices musicaux

J’affectionne particulièrement les questions où les produits scalaires d’un espace vectoriel interviennent comme paramètre. Le problème abordé dans ce billet, par ailleurs très modeste, est de cette nature.

Donnons-nous donc un espace vectoriel réel E de dimension finie, disons n. Nous désignerons par E^* l’espace dual de E.

Un produit scalaire g de E met canoniquement en dualité l’espace E et son dual. Plus précisément, l’application

\flat : \mathbf x\in E\mapsto g(\mathbf x,-)\in E^*

est une bijection linéaire. Sa réciproque est notée \sharp : \xi\mapsto \xi^\sharp et est caractérisée par

\forall \xi\in E^*, \forall \mathbf x\in E,\quad \xi(\mathbf x)=g(\xi^\sharp,\mathbf x)

Il est d’usage d’indicer les composantes des éléments de E selon une de ses bases (\mathbf e_1,\ldots,\mathbf e_n) à l’aide d’indices en position supérieure : \mathbf x=x^1\mathbf e_1+\cdots+x^n\mathbf e_n et, dans la base duale (\varepsilon^1,\ldots,\varepsilon^n), celles des éléments de E^* à l’aide d’indices en position inférieure : \xi=\xi_1\varepsilon^1+\cdots+\xi_n\varepsilon^n (de sorte que, par exemple, \xi(\mathbf x)=\xi_1x^1+\cdots+\xi_nx^n).

L’application \flat allant de E vers son dual, abaisse donc les indices tandis que \sharp, allant dans l’autre sens, les hausse. C’est pourquoi on a choisi de désigner ces applications à l’aide de symboles empruntés au solfège : le bémol baisse la valeur des notes et le dièse la hausse. Le lecteur qui n’était pas au courant de ce folklore aura probablement été fort intrigué par le titre de ce billet. Je me devais donc d’apporter ces quelques précisions. 😉

Cela étant, venons-en à la modeste question à laquelle ce billet est dédié. Il s’agit tout simplement, étant donné \xi\in E^*, de déterminer l’ensemble \sharp(\xi)\subset E formé des \xi^\sharp obtenus en laissant g décrire l’ensemble des produits scalaires de E. Voici la réponse : pour tout \xi\in E^*, on a

\sharp(\xi)=\begin{cases}\{0\} \  \mbox{si} \ \xi=0\\[1ex]\{\mathbf u\in E|\xi(\mathbf u)>0\}\ \mbox{sinon}\end{cases}

Voici la vérification de cette propriété que je vous propose. Je laisse le cas \xi=0 de côté, naturellement, et suppose donc disposer d’un \xi non nul.

Quel que soit le produit scalaire g de E, on a alors

\xi(\xi^\sharp)=g(\xi^\sharp,\xi^\sharp)=\|\xi^\sharp\|^2>0

En conséquence, \sharp(\xi)\subset \{\mathbf u\in E|\xi(\mathbf u)>0\}.

Pour établir l’inclusion réciproque, considérons un élément \mathbf u de E tel que \xi(\mathbf u)>0. Il existe alors une base (\mathbf e_1,\ldots,\mathbf e_n) de E telle que \mathbf e_1=\mathbf u/\xi(\mathbf u) et dont le premier élément de la base duale soit \varepsilon^1=\xi. (Les bases ayant ces propriétés sont exactement celles pour lesquelles \mathbf e_1=\mathbf u/\xi(\mathbf u) et (\mathbf e_2,\ldots,\mathbf e_n) est une base de l’hyperplan \ker \xi comme on le vérifie très facilement.) La forme bilinéaire symétrique

g: (\mathbf x,\mathbf y)\mapsto \frac 1{\xi(\mathbf u)}x^1y^1+\sum\limits_{2\leqslant k\leqslant n}x^ky^k

est un produit scalaire de E(*) car \xi(\mathbf u)>0. De plus, quel que soit \mathbf x\in E, on a

g(\mathbf u,\mathbf x)=g(\xi(\mathbf u)\mathbf e_1,\mathbf x)=x^1=\xi(\mathbf x)

et le tour est joué. 😉

__________
(*) Avec les notations du calcul tensoriel, g s’écrit

\frac 1{\xi(\mathbf u)}\varepsilon^1\otimes\varepsilon^1+\sum\limits_{2\leqslant k\leqslant n}\varepsilon^k\otimes\varepsilon^k

Sur quelques vecteurs propres amusants

C’est dans cet article que se trouve l’origine de ce dont je vais vous entretenir mais il ne faut nullement l’avoir lu pour comprendre le présent billet dont le propos est extrêmement élémentaire.

Dans l’article en question, j’ai associé de façon naturelle deux équations différentielles à chaque matrice de trace nulle

H=\begin{pmatrix}p&q\\r&-p\end{pmatrix}

Peut importe ce que sont ces équations, il suffit de savoir que l’on échange ces équations en remplaçant H par

H'=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

C’est en effet à propos de l’application linéaire H\mapsto H' que je souhaite faire ici quelques observations.

Les déterminants des matrices H et H' sont égaux. Puisque leurs traces sont nulles, elles ont même polynôme caractéristique : elles doivent être semblables. Et, en effet, comme on le voit tout de suite(*),

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}p&q\\r&-p\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

Plus généralement

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}t&z\\y&x\end{pmatrix}

L’ensemble des matrices réelles, carrées et de dimension deux est un espace vectoriel réel de dimension quatre. On le note souvent gl(2,\mathbf R). Plus précisément, l’application(**)

\begin{pmatrix}x&y\\z&t\end{pmatrix}\in gl(2,\mathbf R)\mapsto (x,y,z,t)\in\mathbf R^4

est une isométrie, gl(2,\mathbf R) étant muni du produit scalaire (A,B)\mapsto \mathrm{tr}(\tilde AB) et \mathbf R^4 de son produit scalaire canonique.

Le sous-espace des matrices de trace nulle de gl(2,\mathbf R) est noté sl(2,\mathbf R). C’est un hyperplan et son complément orthogonal, qui est donc de dimension un, est la droite vectorielle engendrée par la matrice unité. Comme on le voit immédiatement, celle-ci est en effet orthogonale aux matrices de trace nulle.

Comme on le vérifie très facilement, la similitude de matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est une isométrie de gl(2,\mathbf R); on a vu plus haut qu’elle stabilise sl(2,\mathbf R).

Nous allons déterminer ses vecteurs propres, c’est-à-dire chercher les (x,y,z,t) non nuls pour lesquels il existe un nombre réel \lambda vérifiant (t,z,y,x)=\lambda(x,y,z,t).

Il est particulièrement simple de résoudre ce système d’équations homogènes mais je ne vais pas le faire ici. Je vais seulement décrire ses solutions.

On voit qu’il est compatible si, et seulement si, \lambda^2=1. Autrement dit, les valeurs propres de notre application sont \pm 1.

L’espace des solutions du système lorsque \lambda=1 est \{(x,y,y,x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,1),(0,1,1,0)). Lorsque \lambda=-1, l’espace des solutions est \{(x,-y,y,-x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,-1),(0,-1,1,0)).

Les éléments de ces bases sont deux à deux orthogonaux et leurs longueurs sont toutes égales à \sqrt 2. Rangés dans l’ordre où nous les avons rencontrés ils forment une base de \mathbf R^4 de même orientation que sa base canonique. Dans cette base, notre similitude est représentée par la matrice diagonale \mathrm{diag}(1,1,-1,-1). Son déterminant est donc 1.

Les éléments de gl(2,\mathbf R) représentent les endomorphismes de l’espace vectoriel \mathbf R^2 :

\begin{pmatrix}u\\v\end{pmatrix}\mapsto \begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}u\\v\end{pmatrix}

L’interprétation en termes d’applications linéaires des quatre vecteurs propres que nous venons de mettre en évidence est intéressante :

  • (1,0,0,1) représente l’identité \mathbf 1 de \mathbf R^2 dans lui-même.
  • (0,1,1,0) représente la volte \mathcal V: (x,y)\mapsto (y,x); c’est la symétrie orthogonale par rapport à la droite d’équation x=y.
  • (1,0,0,-1) représente la symétrie orthogonale par rapport à la droite d’équation y=0; regardée comme une application de l’ensemble des nombres complexes dans lui-même, c’est la conjugaison. Nous la noterons \mathcal C.
  • (0,-1,1,0) représente la rotation d’angle \pi/2; sur \mathbf C, c’est aussi la multiplication par i et nous la noterons \mathcal I.

La composée de deux symétries orthogonales est une rotation dont l’angle est le double de l’angle orienté que forment ces droites. Par conséquent, \mathcal V\circ \mathcal C=\mathcal I. Mais \mathcal V et \mathcal C sont des involutions. Nous avons donc aussi \mathcal V\circ \mathcal I=\mathcal C et \mathcal I\circ \mathcal C=\mathcal V. Voici la table complète des composées de nos quatre applications :

\begin{array}{c|c|c|c|c}&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathbf 1&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathcal V&\mathcal V&\mathbf 1&\mathcal I&\mathcal C\\ \hline \mathcal C&\mathcal C&-\mathcal I&\mathbf 1&-\mathcal V\\ \hline \mathcal I&\mathcal I&-\mathcal C&\mathcal V&-\mathbf 1\end{array}

Cette table montre que

\{\pm \mathbf 1, \pm \mathcal V, \pm \mathcal C , \pm \mathcal I\}

est un sous groupe du groupe des isométries de \mathbf R^2, celui engendré par les réflexions \mathcal V et \mathcal C. Celles-ci conservent le carré de sommets (1,1),(-1,1),(-1,-1),(1,-1). C’est donc une copie du groupe diédral D_8 qui est le groupe des symétries d’un carré. Notez qu’il n’y a que deux groupes d’ordre huit non abéliens : le groupe diédral D_8 et le groupe des quaternions.

Une autre façon d’identifier notre groupe à D_8 est d’utiliser la présentation générale des groupes diédraux décrite dans la référence donnée quelques lignes plus haut. Abstraitement, le groupe D_8 est le groupe de présentation

\langle \sigma,\tau|\sigma^2,\tau^4,\sigma\tau\sigma^{-1}\tau\rangle

Cela signifie que D_8 est engendré par les éléments \sigma et \tau et que ceux-ci sont assujettis à vérifier les seules relations

\sigma^2=e \quad \& \quad  \tau^4=e \quad \& \quad  \sigma\tau\sigma^{-1}\tau=e

(e est le neutre). Les éléments du groupe sont alors

e,\tau,\tau^2,\tau^3,\sigma,\sigma\tau,\sigma\tau^2,\sigma\tau^3

Il est facile de voir à l’aide de la table ci-dessus que l’on peut prendre pour \sigma et \tau respectivement la réflexion \mathcal V et la rotation \mathcal I. Par exemple, on a

(\mathbf 1,\mathcal I,\mathcal I^2,\mathcal I^3,\mathcal V,\mathcal V\mathcal I,\mathcal V\mathcal I^2,\mathcal V\mathcal I^3)=(\mathbf 1,\mathcal I,-\mathbf 1,-\mathcal I,\mathcal V,\mathcal C,-\mathcal V,-\mathcal C)

__________
(*) La matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est sa propre inverse. Elle représente en effet la volte

\mathcal V: (x,y)\mapsto (y,x)

de \mathbf R^2 dans la base canonique de ce dernier, volte qui est évidemment une involution.

(**) Nous utiliserons librement cette application pour identifier gl(2,\mathbf R) et \mathbf R^4.

Une brève à propos des bases orthonormées positives en dimension 3

Soit un espace vectoriel E réel, euclidien, orienté et de dimension 3. Nous notons (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

Comme ce produit est antisymétrique, sa table de multiplication dans une base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est complètement caractérisée par les trois produits \mathbf e_1\wedge \mathbf e_2, \mathbf e_2\wedge \mathbf e_3 et \mathbf e_3\wedge \mathbf e_1.

Il est bien connu que la table de multiplication du produit vectoriel est la même dans toutes les bases orthonormées positives. Plus précisément, si la base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est orthonormée et positive, alors

(1) \begin{cases}\mathbf e_1\wedge \mathbf e_2=\mathbf e_3\\ \mathbf e_2\wedge \mathbf e_3=\mathbf e_1\\ \mathbf e_3\wedge \mathbf e_1=\mathbf e_2\end{cases}

Ce dont je n’avais pas conscience jusqu’à aujourd’hui, et dont je me suis rendu compte en préparant un cours que je donnerai demain matin, c’est que la réciproque est vraie :

Si des éléments \mathbf e_1, \mathbf e_2 et \mathbf e_3 de E sont non nuls et vérifient (1), alors (\mathbf e_1,\mathbf e_2,\mathbf e_3) est une base orthonormée et positive de E.

Supposons en effet que \mathbf e_1, \mathbf e_2 et \mathbf e_3, non nuls, vérifient (1).

D’une part, comme tout produit vectoriel est orthogonal à ses facteurs, \mathbf e_1, \mathbf e_2 et \mathbf e_3 sont alors deux à deux perpendiculaires.

En particulier, ils sont linéairement indépendants puisqu’aucun n’est nul : (\mathbf e_1,\mathbf e_2,\mathbf e_3) est donc une base.

Celle-ci est positive vu que

[\mathbf e_1,\mathbf e_2,\mathbf e_3]=[\mathbf e_1,\mathbf e_2,\mathbf e_1\wedge\mathbf e_2]=\|\mathbf e_1\wedge\mathbf e_2\|^2=\|\mathbf e_3\|^2>0

(où [-,-,-] désigne le produit mixte de E).

De plus, étant donné que

\forall \mathbf u,\mathbf v\in E,\quad \|\mathbf u\wedge\mathbf v\|=\|\mathbf u\|\|\mathbf v\|\sin\varphi

\varphi est l’angle non orienté que font \mathbf u et \mathbf v, les longueurs l_i=\|\mathbf e_i\| vérifient les relations

\begin{cases}l_1l_2=l_3\\l_2l_3=l_1\\l_3l_1=l_2\end{cases}

De là, l_1^2=l_2^2=l_3^2=l_1l_2l_3 et donc, vu que les l_i sont strictement positifs, l_1=l_2=l_3=1 : les \mathbf e_i sont normés.

😉