Sur les équations de récurrence linéaires à coefficients constants et homogènes II

Voici la suite de ce billet. Nous conservons ses notations.

Nous commencerons par vérifier que les suites u^{(i,r)}:k\mapsto k^r\alpha_i^k,\quad i\in\{1,\ldots,p\}, \quad 0\leqslant r<m_i, sont des solutions de l'équation

\forall k\in \mathbf N,\quad a_0x_{k+n}+a_1x_{k+n-1}+\cdots+a_{n-1}x_{k+1}+a_nx_k=0

Les nombres \alpha_1,\ldots,\alpha_p sont les zéros distincts de son polynôme caractéristique

\chi(t)=a_0t^n+a_1t^{n-1}+\cdots +a_{n-1}t+a_n

et m_1,\ldots,m_p sont leurs multiplicités respectives. Pour rappel, on suppose que a_0,a_n\neq 0.

Nous allons utiliser l’application linéaire T:\mathbf C^\mathbf N\to \mathbf C^\mathbf N consistant à décaler les suites « d’un cran vers la gauche » : T(\mathbf x)_k=\mathbf x_{k+1}. Avec celle-ci, l’équation se réécrit (I désigne l’application identité)

(\underbrace{a_0T^n+a_1T^{n-1}+\cdots+a_{n-1}T+a_nI}_{=\chi(T)})(\mathbf x)=0

Autrement dit, l’espace des solutions de l’équation est le noyau de \chi(T) : \mathcal S=\ker \chi(T).

On a

\chi(T)=a_0(T-\alpha_1I)^{m_1}\cdots(T-\alpha_pI)^{m_p}

Il suffit donc de montrer que

\forall i\in\{1,\ldots,p\}, \forall r\in\{0,\ldots,m_i-1\}, \quad u^{(i,r)}\in\ker(T-\alpha_iI)^{r+1}

pour montrer que les suites u^{(i,r)} sont des solutions.

Pour une valeur donnée de i, on procède par récurrence sur r.

Il est trivial que (T-\alpha_iI)u^{(i,0)}=0.

Supposons alors que (T-\alpha_iI)^1u^{(i,0)}=\cdots=(T-\alpha_iI)^ru^{(i,r-1)}=0 et montrons que (T-\alpha_iI)^{r+1}u^{(i,r)} est nul également.

On a

\left((T-\alpha_iI)u^{(i,r)}\right)_k=u^{(i,r)}_{k+1}-\alpha_iu^{(i,r)}_k=[(k+1)^r-k^r]\alpha_i^{k+1}

Par conséquent, (T-\alpha_iI)u^{(i,r)} est une combinaison linéaire des suites u^{(i,0)},\ldots,u^{(i,r-1)}. Vu l’hypothèse de récurrence, on a donc (T-\alpha_iI)^{r+1}u^{(i,r)} =0.

Les suites u^{(i,r)} sont donc bien des solutions de l’équation.

Pour terminer, nous allons montrer que les suites u^{(i,r)} sont linéairement indépendantes. Cela achèvera la démonstration du théorème de structure présenté dans le billet cité plus haut.

Allons-y! Les polynômes

\displaystyle \chi_j=\prod_{\substack{i=1\\i\neq j}}^p(t-\alpha_i)^{m_i}, j\in\{1,\ldots,p\}

sont premiers entre eux. D’après le théorème de Bezout, il existe des polynômes \varrho_j tels que \varrho_1\chi_1+\cdots+\varrho_p\chi_p=1 et donc tels que

(1) \varrho_1(T)\chi_1(T)+\cdots+\varrho_p(T)\chi_p(T)=I

Notons que, si i\neq j, alors \chi_j(T)u^{(i,r)}=0. En effet, si i\neq j, alors (T-\alpha_iI)^{m_i} est un facteur de \chi_j(T) et on a vu plus haut que ce facteur annule u^{(i,r)}. En appliquant les deux membres de la relation (1) à u^{(i,r)}, nous obtenons dès lors

(2) \varrho_i(T)\chi_i(T)u^{(i,r)}=u^{(i,r)}

Nous sommes prêts pour établir l’indépendance linéaire des u^{(i,r)}.

Supposons que

\displaystyle \sum_{j=1}^p\sum_{r=0}^{m_j-1}c_{j,r}u^{(j,r)}=0

et choisissons un indice quelconque i compris entre 1 et p. Appliquons \varrho_i(T)\chi_i(T) aux deux membres de cette relation. Cela nous donne, vu (2), \sum_{r=0}^{m_i-1}c_{i,r}u^{(i,r)}=0 soit

\forall k\in\mathbf N, \quad \left(c_{i,0}+c_{i,1}k+\cdots+c_{i,m_i-1}k^{m_i-1}\right)\alpha_i^k=0

Mais \alpha_i\neq 0 car a_n=\chi(0)\neq 0. Par conséquent

\forall k\in\mathbf N, \quad c_{i,0}+c_{i,1}k+\cdots+c_{i,m_i-1}k^{m_i-1}=0

ce qui montre que c_{i,0}=c_{i,1}=\cdots=c_{i,m_i-1}=0.

D’où la conclusion puisque i\in\{1,\ldots,p\} est quelconque.

😉

Sur les équations de récurrence linéaires à coefficients constants et homogènes I

Je vais présenter dans ce blog une démonstration du théorème de structure de l’ensemble des solutions des équations de récurrence linéaires à coefficients constants et homogènes. J’y consacrerai deux billets.

Il y a des livres entiers consacrés à ces équations. Néanmoins, je trouve utile (pour moi) de consigner ici ce résultats bien connu ainsi qu’une démonstration de celui-ci.

Par ailleurs, je vais me limiter aux équations à coefficients complexes. A mon avis la méthode de démonstration utilisée s’adapte à des cas bien plus généraux (on pourrait certainement l’adapter sans problèmes à un corps de caractéristique nulle algébriquement clos) mais je ne vais pas discuter de la chose, cela d’autant plus que je ne connais sans doute pas assez d’algèbre pour pouvoir le faire de façon optimale.

Nous considérons une équation de récurrence linéaire à coefficients constants

(1) \forall k\in \mathbf N,\quad a_0x_{k+n}+a_1x_{k+n-1}+\cdots+a_{n-1}x_{k+1}+a_nx_k=0

avec a_0\neq 0 et a_n\neq 0.

Par linéarité de l’équation, toute combinaison linéaire de solutions est encore une solution : l’ensemble \mathscr S des solutions de l’équation est un sous-espace vectoriel de l’espace \mathbf C^\mathbf N.

De plus, l’équation montre que chaque terme de rang au moins n d’une solution est univoquement déterminé par les n précédents (car a_0\neq 0). Seuls les n premiers ne sont pas déterminés par l’équation mais si on se donne des valeurs u=(u_0,\ldots,u_{n-1})\in\mathbf C^n on peut construire de proche en proche une unique solution s(u) de l’équation dont ce sont les n premiers termes. L’application s:\mathbf C^n\to\mathscr S est manifestement une bijection linéaire. Ainsi,

a) L’ensemble \mathscr S des solutions de l’équation (1) est un sous-espace vectoriel de dimension n de \mathbf C^\mathbf N

Le théorème de structure des solutions de l’équation auquel je pense consiste à fournir une base privilégiée de \mathcal S. Il utilise le polynôme caractéristique

\chi(t)=a_0t^n+a_1t^{n-1}+\cdots +a_{n-1}t+a_n

de l’équation. On obtient formellement ce polynôme en remplaçant dans le membre de gauche de l’équation x_j par t^{j-k}.

Nous noterons \alpha_1,\ldots,\alpha_p les zéros distincts de \chi et m_1,\ldots,m_p leurs multiplicités respectives (on a donc m_1+\cdots+m_p=n). Voici alors le théorème

b) Les n suites u^{(i,r)}:k\mapsto k^r\alpha_i^k,\quad i\in\{1,\ldots,p\}, \quad 0\leqslant r<m_i, forment une bases de \mathscr S.

Pour prouver b), nous allons montrer que les suites en question sont des solutions de l’équation et qu’elles sont linéairement indépendantes. Cela suffit car le fait qu’elles forment une base de \mathscr S résulte alors de ce qu’elles sont en nombre égal à sa dimension.

C’est dans ce billet que nous allons faire les vérifications en question.

Courbure et droite projective réelle I

Considérons une courbe régulière (I,\gamma) d’un plan affine euclidien orienté. Pour simplifier l’exposé, nous supposerons avoir choisi une fois pour toute un repère orthonormé et positif et travaillerons directement en coordonnées et composantes relatives à ce repère.

Pour définir la courbure algébrique \kappa^* de \gamma, on utilise traditionnellement une base formée d’une tangente unitaire \mathbf t et d’une normale unitaire \mathbf n comme je l’ai expliqué dans cet article. Le tout est résumé par l’équation

\mathbf t'=\kappa^*\|\gamma'\|\mathbf n

qui exprime en sens, direction et intensité, la manière dont \mathbf t varie, i.e. comment la courbe « se plie ».

On aurait tout aussi bien pu étudier la courbe (I,\varsigma) de la droite projective réelle P^1\mathbf R définie par

\varsigma(t)=\mathbf R\gamma'(t)

La droite \varsigma(t) est en effet le vectoriel directeur de la (droite) tangente à \gamma en t. Sa façon de varier devrait donc nous renseigner tout autant que celle de \mathbf t sur la courbure de \gamma.

C’est précisément ce que nous allons constater ici en calculant le vecteur tangent \varsigma'(t) à l’aide d’une jolie formule.

Nous avons pour cela besoin de quelques rappels à propos de P^1\mathbf R.

Tout d’abord, celui-ci est recouvert par les domaines de deux systèmes privilégiés de coordonnées, dits canoniques, (U_i,\varphi_i). L’ouvert U_i est formé des droites vectorielles de \mathbf R^2 qui ne sont pas perpendiculaires à \mathbf e_i. Alors, si \mathbf u est un vecteur directeur de la droite d, dans U_1, on a \varphi_1(d)=\frac{u_2}{u_1} et, dans U_2, \varphi_2(d)=\frac{u_1}{u_2}.

Nous avons ensuite introduit dans ce billet une famille de champs de vecteurs fondamentaux(*) sur P^1\mathbf R : \{H^*|H\in sl(2,\mathbf R)\}. En choisissant bien H, nous allons obtenir un champ de vecteurs H^* ne s’annulant nulle part et fournissant donc en chaque point de P^1\mathbf R une base de son espace tangent en ce point. Le champ de vecteurs

\Theta:=\begin{pmatrix}0&-1\\1&0\end{pmatrix}^*

fait l’affaire. En effet, comme on le voit facilement à l’aide de formules présentées dans le billet signalé quelques lignes plus haut, les expressions locales de ce champ dans les systèmes de coordonnées canoniques sont

(1) \varphi_{1*}\Theta=1+x^2\quad \& \quad \varphi_{2*}\Theta=-(1+y^2)

Voici la formule annoncée.

\boxed{\varsigma'=\|\gamma'\|\kappa^*\Theta\circ\varsigma}

Elle est très simple à établir en utilisant les coordonnées locales. Je montre comment cela fonctionne dans le premier système canonique. Dans le second, les calculs sont tout à fait similaires.

Posons \gamma(t)=(x_1(t),x_2(t)). Pour rappel, la courbure algébrique est alors donnée par

\kappa^*=\dfrac{x'_1x''_2-x'_2x''_1}{(x'^2_1+x'^2_2)^{3/2}}

De plus, \varphi_1\circ\varsigma=\frac{x'_2}{x'_1}. Par suite,

\varphi_{1*}\varsigma'=(\varphi_1\circ\varsigma)'=\dfrac{x'_1x''_2-x'_2x''_1}{x'^2_1}=\dfrac{(x'^2_1+x'^2_2)^{3/2}}{x'^2_1}\kappa^*

Enfin, vu (1),

\varphi_{1*}\left(\Theta\circ \varsigma\right)=1+\dfrac{x'^2_2}{x'^2_1}=\dfrac{x'^2_1+x'^2_2}{x'^2_1}

D’où la formule annoncée puisque \|\gamma'\|=\sqrt{x'^2_1+x'^2_2}.

Cette formule est particulièrement frappante lorsque t est une abscisse curviligne de \gamma, car alors \|\gamma'\|=1. Ainsi, lorsque (I,\gamma) est rapporté à une abscisse curviligne, sa courbure algébrique en t\in I est la composante du vecteur tangent \varsigma'(t) selon la base \Theta(\varsigma(t)) de l’espace tangent à P^1\mathbf R en \varsigma(t).

Par exemple, si (I,\gamma) est le cercle trigonométrique, i.e. si I=\mathbf R et si, partout dans \mathbf R, \gamma(t)=(\cos t,\sin t), alors la courbure algébrique (qui est l’inverse du rayon de courbure, 1 en l’occurence) est constante et vaut 1. Par conséquent, pour le cercle trigonométrique, (\mathbf R,\varsigma) est une courbe intégrale maximale du champ de vecteurs \Theta de P^1\mathbf R.

Comme le laisse supposer le titre du présent billet, j’ai encore quelques petites choses à raconter à propos de la courbure et de la droite projective réelle mais cela fera l’objet d’un autre billet.

😉

__________
(*) On désigne par sl(2,\mathbf R) l’ensemble des matrices réelles carrées de tailles deux dont la trace est nulle.

A propos des polygones plans : un critère de convexité

Considérons un plan affine \mathcal E modelé sur un espace vectoriel réel E.

Comme illustré par la figure suivante, un polygone A_1A_2\cdots A_n de ce plan(*) est convexe, par définition, si, pour chaque k\in\{1,\ldots,n\}, il est entièrement contenu dans un des demi-plans délimités par la droite A_kA_{k+1}(**).

convexite

Soient une droite \mathcal D de \mathcal E et une équation cartésienne \alpha=0 de celle-ci dans un repère donné de \mathcal E. Le premier membre de cette équation est un polynôme du premier degré en deux variables et nous désignerons par \alpha(P) la valeur qu’il prend en les coordonnées d’un point P.

La droite \mathcal D est le lieu des points P tels que \alpha(P)=0. Son complémentaire possède deux composantes connexes. Ce sont les demi-plans (ouverts) délimités par \mathcal D. L’un est le lieu des points P tels que \alpha(P)>0, l’autre celui des points P tels que \alpha(P)<0.

Pour chaque k\in\{1,\ldots,n\}, choisissons une équation \alpha_k=0 de la droite A_kA_{k+1}. Le polygone A_1A_2\cdots A_n est alors convexe si, et seulement si, pour chaque k\in\{1,\ldots,n\}, les signes des nombres

\alpha_k(A_j),\quad j\in\{1,\ldots,n\}, j\neq k, j\neq k+1

sont égaux.

En utilisant une forme volume de E, nous allons obtenir une version intrinsèque de ce critère. Pour rappel, une forme volume de E est une application bilinéaire, antisymétrique et non nulle de E\times E dans \mathbf R. Voici alors le critère anoncé.

Soit une forme volume \omega de E. Le polygone A_1A_2\cdots A_n est convexe si, et seulement si, pour chaque k\in\{1,\ldots,n\}, les signes des nombres

\omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}}),\quad j\in\{1,\ldots,n\}, j\neq k, j\neq k+1

sont égaux.

Considérons en effet une forme volume \omega de E et choisissons une base (\mathbf e_1,\mathbf e_2) de ce dernier telle que \omega(\mathbf e_1,\mathbf e_2)=1(***). Dans celle-ci, avec des notations évidentes,

\omega(\mathbf u,\mathbf v)=\det\begin{pmatrix}u_1&v_1\\u_2&v_2\end{pmatrix}

Notons alors (x_k,y_k) les coordonnées des A_k dans un repère de \mathcal E dont (\mathbf e_1,\mathbf e_2) est la base. Dans ce repère, la droite A_kA_{k+1} admet l’équation \alpha_k=0, où

\alpha_k(x,y)=(y_{k+1}-y_k)(x-x_k)-(x_{k+1}-x_k)(y-y_k)

D’où la propriété puisque

\alpha_k(A_j)=\omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}})

Les nombres \omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}}) ont une interprétation intéressante. Comme je l’ai expliqué ici, \omega munit \mathcal E d’une orientation et permet de définir l’aire orientée des polygones de \mathcal E. En particulier, celle d’un triangle ABC est \frac 1 2\omega(\overrightarrow{AB},\overrightarrow{AC}). Pour une valeur de k donnée, les nombres \omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}})A_j balaie les sommets autres que A_k et A_{k+1} sont donc les doubles des aires orientées des triangles A_kA_jA_{k+1}.

Par exemple, pour le pentagone représenté ci-dessous et pour k=1, il s’agit des trois triangles A_1A_3A_2, A_1A_4A_2 et A_1A_5A_2. Ils sont représentés en gris.

convexite_2

Un exemple : les parallélogrammes

Considérons un quadrilatère A_1A_2A_3A_4 de \mathcal E pour lequel

\overrightarrow{A_1A_2}+\overrightarrow{A_3A_4}=0

convexite_3

On a aussi

\overrightarrow{A_2A_3}+\overrightarrow{A_4A_1}=\overrightarrow{A_2A_1}+\overrightarrow{A_1A_3}+\overrightarrow{A_4A_3}+\overrightarrow{A_3A_1}=-\left(\overrightarrow{A_1A_2}+\overrightarrow{A_3A_4}\right)=0

par conséquent, les côtés [A_1,A_2] et [A_3,A_4] sont parallèles de même que [A_2,A_3] et [A_4,A_1]. Le quadrilatère est donc ce qu’on appelle communément un parallélogramme.

Lorsqu’on le dessine, on ne peut que le dessiner convexe. Cependant ce n’est pas une preuve formelle de la convexité de ce quadrilatère. Notre critère va par contre nous en donner une immédiatement. Il s’avère en effet que, \omega étant une quelconque forme volume de E,

\begin{cases}\omega(\overrightarrow{A_1A_3},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_4},\overrightarrow{A_1A_2})\\[2ex]\omega(\overrightarrow{A_2A_1},\overrightarrow{A_2A_3})=\omega(\overrightarrow{A_2A_4},\overrightarrow{A_2A_3})\\[2ex]\omega(\overrightarrow{A_3A_1},\overrightarrow{A_3A_4})=\omega(\overrightarrow{A_3A_2},\overrightarrow{A_3A_4})\\[2ex]\omega(\overrightarrow{A_4A_2},\overrightarrow{A_4A_1})=\omega(\overrightarrow{A_4A_3},\overrightarrow{A_4A_1})\end{cases}

En effet

\omega(\overrightarrow{A_1A_4},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3}+\overrightarrow{A_3A_4},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3}-\overrightarrow{A_1A_2},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3},\overrightarrow{A_1A_2})

etc.

C’est ici que s’achève notre billet.

P.S. En fait, je viens de me rendre compte — je suis lent, vous le savez — de ce que tout résulte de ceci : des points C et D de \mathcal E n’appartenant pas à une droite AB, sont situés d’un même côté ou de part et d’autre de celle-ci si, et seulement si, les signes des aires orientées des triangles ACB et ADB sont égaux ou opposés, aires mesurées par rapport à une forme volume quelconque de E. La preuve de cette propriété est facile à écrire vu ce qui se trouve plus haut. P.L. 15/11/2017
__________
(*) Un polygone d’un plan est une suite périodique k\in\mathbf Z \mapsto A_k de points du plan dont trois consécutifs ne sont jamais alignés. Si n est sa période, on désigne le polygone par A_1A_2\cdots A_n. Ses côtés sont les segments [A_k,A_{k+1}], k=1,\ldots,n (bien noter que A_{n+1}=A_1).
(**) Lorsque n vaut trois, cette condition est toujours vérifée: tous les triangles sont convexes! C’est rassurant 😉
(***) Je laisse au lecteur le soin de construire une telle base (c’est facile).

Nombres complexes, produits scalaire, mixte et vectoriel : une brève mise au point

La trilogie produit scalaire, produit mixte et produit vectoriel est assez bien connue en dimension trois. Elle l’est moins en d’autres dimensions, et particulièrement en dimension deux. Pourtant, elle est très amusante en dimension deux, à cause des nombres complexes.

Forme volume et produit mixte

Sur un espace vectoriel (réel) de dimension deux E, une forme volume est une application bilinéaire, antisymétrique et non nulle \omega:E\times E\to\mathbf R.

Comme je l’ai rappelé dans ce billet, une telle forme peut être utilisée pour définir l’aire orientée de certaines parties des plans affines modelés sur E, en particulier, celle des polygones, convexes ou non, de ces plans.

L’espace E admet des bases adaptées à \omega, i.e. des bases (\mathbf e_1,\mathbf e_2) telles que \omega(\mathbf e_1,\mathbf e_2)=1. Dans une telle base,

\forall \mathbf u,\mathbf v\in E,\quad\omega(\mathbf u,\mathbf v)=\det\begin{pmatrix}u_1&v_1\\u_2&v_2\end{pmatrix}

Lorsque l’espace E est euclidien et orienté, il admet une forme volume privilégiée. C’est celle dont les bases orthonormées positives de E sont des bases adaptées. Cette forme volume est ce qu’on appelle le produit mixte de E. On le note

\mathbf u,\mathbf v\mapsto [\mathbf u,\mathbf v]

Outre le fait que, comme toute forme volume, le produit mixte de E donne lieu à une notion d’aire orientée, il permet également, de concert avec le produit scalaire

\mathbf u,\mathbf v\mapsto \mathbf u\cdot\mathbf v

de définir l’angle orienté des couples d’éléments non nuls (\mathbf u,\mathbf v) de E. Celui-ci est en effet donné par

\begin{cases}\cos(\mathbf u,\mathbf v)=\frac{\mathbf u\cdot\mathbf v}{\|\mathbf u\|\|\mathbf v\|}\\[1ex]\sin(\mathbf u,\mathbf v)=\frac{[\mathbf u,\mathbf v]}{\|\mathbf u\|\|\mathbf v\|}\end{cases}

Structure complexe et produit vectoriel

Une structure complexe sur l’espace vectoriel E est une application linéaire J:E\mapsto E telle que J^2=-\mathrm{id}_E. Avec une telle structure, on fait de E un espace vectoriel complexe en conservant l’addition de E et en posant

\forall a,b\in \mathbf R,\forall \mathbf u\in E,\quad (a+ib)\mathbf u=a\mathbf u+bJ\mathbf u

Nous supposons ici que \dim E=2. Comme espace vectoriel complexe, sa dimension est alors 1. Voici pourquoi. Supposons que \mathbf u\in E n’est pas nul. Alors (\mathbf u,J\mathbf u) est une base de l’espace réel E. En effet, \mathbf u et J\mathbf u sont linéairement indépendants sur \mathbf R car les valeurs propres de J sont \pm i. Les éléments de E sont donc les multiples complexes de \mathbf u.

Les bases de la forme (\mathbf u,J\mathbf u) que nous venons de construire sont celles dans lesquelles J est représenté par la matrice

\begin{pmatrix}0&-1\\1&0\end{pmatrix}

Nous dirons que ce sont les bases adaptées à J.

Lorsque le plan vectoriel E est euclidien et orienté, il admet une structure complexe privilégiée à savoir son produit vectoriel. Celui-ci, qui n’a qu’un argument, est la rotation d’angle \frac \pi 2. On le note

\perp: \mathbf u\mapsto \mathbf u^\perp

L’application \perp\circ \perp est la rotation d’angle \pi. C’est donc -\mathrm{id}_E : \perp est bien une structure complexe de E. Les bases orthonormées positives de E lui sont adaptées.

L’espace vectoriel réel des nombres complexes

Comme espace vectoriel réel, l’ensemble des nombres complexes n’est autre que \mathbf R^2. Il est muni d’une structure d’espace vectoriel euclidien orienté canonique : celle pour laquelle (1,i) est une base orthonormée positive.

Pour cette structure, le produit vectoriel est la multiplication par i et c’est la structure complexe naturelle de \mathbf C.

Quant aux produits scalaire et mixte, il sont liés au produit des nombres complexes par une remarquable formule :

(1) \forall u,v\in\mathbf C,\quad \bar uv=u\cdot v+i[u,v]

soit, en termes des parties réelles et imaginaires,

(a-ib)(c+id)=(ac+bd)+i(ad-bc)=(ac+bd)+i\det\begin{pmatrix}a&c\\b&d\end{pmatrix}

Je ne résiste pas à la tentation de montrer à nouveau comment la belle formule (1) donne une preuve de l’inégalité de Cauchy-Schwarz en dimension deux (et donc, comme je l’ai expliqué ailleurs, sur tout espace vectoriel euclidien, de dimension finie ou non).

On prend les carrés des modules des deux membres de (1). Cela donne

|u|^2|v|^2=(u\cdot v)^2+[u,v]^2

En conséquence,

|u\cdot v|\leqslant |u||v|

l’égalité ayant lieu si, et seulement si, [u,v]=0, c’est-à-dire si, et seulement si, u et v sont linéairement dépendants sur \mathbf R.

Voici une autre conséquence de (1).

Dans tout plan vectoriel euclidien orienté, on a

\begin{cases}\mathbf u\cdot \mathbf v^\perp=-[\mathbf u,\mathbf v]\\[1ex][\mathbf u,\mathbf v^\perp]=\mathbf u\cdot\mathbf v\end{cases}

Vu ce qui précède, il suffit de vérifier ces formules pour l’espace \mathbf C. Elles résultent alors de (1) puisque, d’après cette identité,

u\cdot v^\perp+i[u,v^\perp]=\bar u v^\perp=i\bar u v=-[u,v]+i u\cdot v

Voilà, c’est tout pour ce billet.

😉

Une brève à propos des indices musicaux III

Je poursuis dans cet article l’étude de l’application \sharp : \xi\in E^*\mapsto \xi^\sharp\in E associée à une forme bilinéaire non dégénérée entamée dans deux billets antérieurs. Après avoir présenté ici le cas des produits scalaires et celui des formes symplectiques, j’aborde à présent celui des formes symétriques de signature quelconque. Je vous réfère à ces articles pour la définition de l’application \sharp.

Ici, E est un espace vectoriel réel de dimension finie n >1. Nous noterons g une forme bilinéaire symétrique non dégénérée de signature (p,q) de E. Cela signifie qu’il existe des bases de celui-ci dans lesquelles g est représenté par la matrice diagonale

\Delta:=\mathrm{diag}(\underbrace{1,\ldots,1}_{p},\underbrace{-1,\ldots,-1}_{q})=\mathrm{diag}(I_p,-I_q)

I_k désigne la matrice unité de taille k. Nous dirons de ces bases qu’elles sont adaptées à g.

Naturellement, si (p,q)=(n,0), g est un produit scalaire et, si (p,q)=(0,n), c’est -g qui en est un. Nous allons dès lors supposer que pq\neq 0 puisque les autres cas sont déjà traités.

Le résultat est le suivant

Soient \xi\in E^*\setminus\{0\}, \mathbf x\in E et deux entiers strictement positifs p et q tels que p+q=n. Il existe une forme bilinéaire symétrique non dégénérée de signature (p,q) telle que \mathbf x=\xi^\sharp si, et seulement si, \mathbf x\neq 0.

Ma démonstration est techniquement un peu lourde sans être pour autant conceptuellement difficile : contrairement aux cas des produits scalaires et des formes symplectiques, qui se traitent de façon assez triviale, je n’ai rien trouvé d’immédiat.

On vérifie facilement que si les composantes de \xi dans la base duale d’une base adaptée à g sont \mu=(\mu_1,\ldots,\mu_n), alors celles de \xi^\sharp dans la base adaptée sont u=(\mu_1,\ldots,\mu_p,-\mu_{p+1},\ldots,-\mu_n). Autrement dit u=\Delta \mu(*).

En particulier, si \xi n’est pas nul, alors \xi^\sharp ne l’est pas non plus, ce que nous savions déjà puisque \sharp est une bijection linéaire.

Etablir la réciproque, i.e. que si \mathbf x n’est pas nul, il s’écrit \xi^\sharp pour une certaine forme g de signature (p,q), revient à montrer qu’il existe des bases de E pour lesquelles u=\Delta \mu, où u sont les composantes de \mathbf x dans la base et \mu sont celles de \xi dans la base duale.

Nous allons faire cela en partant d’une base (plus ou moins) quelconque \mathbf f=(\mathbf f_1,\ldots, \mathbf f_n) de E et en trouvant une matrice de changement de bases S qui la transforme en une base \mathbf e=(\mathbf e_1,\ldots, \mathbf e_n) ayant la propriété en question(**).

Les relations liant les différentes composantes de \mathbf x et \xi sont v=Su et \mu=\tilde{S}\nu. Par conséquent, il s’agit d’établir l’existence d’une matrice non singulière S telle que

(1) v=S\Delta\tilde{S}\nu

Assez naturellement, nous allons écrire S sous la forme \begin{pmatrix}A&B\\C&D\end{pmatrix}A est une matrice carrée de taille p, D une de taille q, B est une matrice à p lignes et q colonnes et C une matrice à q lignes et p colonnes. On a alors

S\Delta\tilde{S}=\begin{pmatrix}A\tilde{A}-B\tilde{B}&A\tilde{C}-B\tilde{D}\\C\tilde{A}-D\tilde{B}&C\tilde{C}-D\tilde{D}\end{pmatrix}

La solution que je propose repose sur une discussion basée sur le signe de \xi(\mathbf x); elle montre bien, techniquement du moins, pourquoi l’hypothèse pq\neq 0 fait marcher les choses.

\boxed{\xi(\mathbf x)>0}

Puisque \xi(\mathbf x)\neq 0, on a E=\ker\xi\oplus\mathbf R\mathbf x. On peut donc choisir une base \mathbf f pour laquelle \mathbf f_1=\mathbf x et, si (\varphi^1,\ldots,\varphi^n) est sa base duale, \xi=\xi(\mathbf x)\varphi^1. Pour cette base, v=\overrightarrow{\mathbf e}_1:=(1,0,\ldots,0) et \nu=\xi(\mathbf x)\overrightarrow{\mathbf e}_1. La condition (1) exprime alors le fait que \overrightarrow{\mathbf e}_1 est un vecteur propre de valeur propre 1/\xi(\mathbf x) de la matrice S\Delta\tilde{S}.

Nous allons prendre B=0, C=0, D=I_q et

A=\mathrm{diag}(\frac{1}{\sqrt{\xi(\mathbf x)}},I_{p-1})

Avec ces choix, on a

S\Delta\tilde{S}=\begin{pmatrix}\frac{1}{\xi(\mathbf x)}&0&0\\0&I_{p-1}&0\\0&0&-I_q\end{pmatrix}

qui répond bien à la question.

\boxed{\xi(\mathbf x)<0}

Cette fois, nous choisissons \mathbf f pour que v=\overrightarrow{\mathbf e}_n:=(0,\ldots,0,1) et \xi=\xi(\mathbf x)\varphi^n. C'est alors \overrightarrow{\mathbf e}_n qui est un vecteur propre de valeur propre 1/\xi(\mathbf x) de S\Delta\tilde{S}.

Nous prenons encore B=0 et C=0 mais, en quelque sorte, nous inversons les rôles de A et de D puisque nous posons A=I_p et

D=\mathrm{diag}(I_{q-1},\frac{1}{\sqrt{-\xi(\mathbf x)}})

Cette fois,

S\Delta\tilde{S}=\begin{pmatrix}I_p&0&0\\0&-I_{q-1}&0\\0&0&\frac{1}{\xi(\mathbf x)}\end{pmatrix}

qui répond de nouveau à la question.

\boxed{\xi(\mathbf x)=0}

Ce cas est un peu plus compliqué que les deux précédents. Il va se subdiviser en deux sous-cas.

  • \boxed{p\geqslant q}
    Nous choisissons dans ce cas \mathbf f de manière telle que \mathbf x=\mathbf f_1 et \xi=\varphi^n. Il suffit pour cela de prendre une base (\mathbf x=\mathbf f_1,\ldots,\mathbf f_{n-1}) de \ker \xi et un élément \mathbf f_n de E tel que \xi(\mathbf f_n)=1 (il en existe puisque \xi n’est pas nul).

    Les conditions imposées à S sont alors(***)

    \begin{cases}(A\tilde{C}-B\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=\overrightarrow{\mathbf e}^{(p)}_1\\(C\tilde{C}-D\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=0\end{cases}

    On voit facilement que le choix suivant fournit une matrice non singulière S vérifiant ces conditions : A=I_p, D=I_q, B=0, et

    C=\begin{pmatrix}0&I_{q-1}&0\\1&0&0\end{pmatrix}

    (On notera, concernant C qui doit comporter p colonnes, que ce choix est possible vu que p\geqslant q.)

  • \boxed{p<q}
    Ici, d'une certaine façon, on échange les rôles tenus dans le cas précédent par les indices 1 et n et les matrices B et C. En détails, on choisit cette fois \mathbf f pour que \mathbf x=\mathbf f_n et \xi=\varphi^1 ce qui impose à S de vérifier les relations

    \begin{cases}(A\tilde{A}-B\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=0\\(C\tilde{A}-D\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=\overrightarrow{\mathbf e}^{(q)}_q\end{cases}

    Pour que ce soit le cas, il suffit de prendre A=I_p et D=I_q puis C=0 et

    B=\begin{pmatrix}0&0&1\\0&I_{p-1}&0\end{pmatrix}

Vu sa taille, cet article n’est pas vraiment « une brève » mais je lui ai conservé cette dénomination en raison de sa parenté avec les deux articles mentionnés en début de texte.

Je suis d’ailleurs un peu surpris par la difficulté technique de la preuve ci-dessus. Peut-être existe-t-il une approche plus conceptuelle et concise. J’y réfléchirai et reste ouvert à toute suggestion.

😉

––––––––––
(*) Les n-upples tels que u, \mu, sont tantôt horizontaux (dans le corps du texte, généralement) tantôt verticaux, dans des égalités matricielles le plus souvent. Je ne préciserai pas les choses à chaque occasion, espérant que le contexte lève toute ambiguïté.

(**) Pour que les choses soient bien claires, je précise que la matrice S est celle pour laquelle

\forall l\in\{1,\ldots,n\},\quad \mathbf e_l=\sum\limits_{k=1}^nS_l^k\mathbf f_k

De plus, on notera si nécessaire u et \mu (respectivement v et \nu) les vecteurs des composantes de \mathbf x et \xi dans la base \mathbf e (respectivement \mathbf f) et sa base duale.

(***) Je désigne par \overrightarrow{\mathbf e}^{(k)}_l l’élément de \mathbf R^k dont la seule composante non nulle vaut 1 et occupe la place l.

Une brève à propos des indices musicaux II

Il n’y a pas que les produits scalaires qui engendrent une mise en dualité entre un espace vectoriel et son dual comme je l’ai expliqué en début de cet article. En fait, toute forme bilinéaire non dégénérée de l’espace le fait. Ici, nous allons nous intéresser à d’autres formes bilinéaires non dégénérées importantes, celles qui sont antisymétriques et qu’on appelle les formes symplectiques. Nous allons résoudre le même problème à propos de ces formes que celui que nous avons résolu dans le billet en question à propos des produits scalaires.

Considérons donc un espace vectoriel réel E, de dimension finie, et une forme symplectique \omega de E. Tout comme un produit scalaire, cette forme induit des bijections linéaires \flat :E \to E^* et \sharp : E^*\to E dont je vais rappeler les définitions, pour la commodité du lecteur. La première bijection est tout simplement l’application

\flat : x\in E\mapsto \omega(x,-)\in E^*

tandis que \sharp, sa réciproque, est caractérisé par

\forall \xi\in E^*, \forall x\in E, \quad \omega(\xi^\sharp,x)=\xi(x)

Avant d’aborder la question qui va nous occuper dans ce billet, je fais quelques rappels sur les formes symplectiques car elles sont sans doute moins connues du grand public que ne le sont les produits scalaires.

Tout d’abord, comme toute forme bilinéaire, dans toute base (\mathbf e_1,\ldots,\mathbf e_n) de E, une forme symplectique \omega de E est représentée par une matrice, celle dont les éléments sont les nombres \omega_{ij}=\omega(\mathbf e_i,\mathbf e_j). Puisque la forme est antisymétrique, cette matrice l’est également. Mais \omega est non dégénéré et ceci équivaut au fait que le déterminant de cette matrice n’est pas nul. Il en résulte que la dimension de E est paire (voir par exemple ici). Nous poserons donc n=2m.

On s’est naturellement posé la question de savoir si on peut donner à la matrice qui représente \omega une forme canonique « simple », en choisissant bien la base dans laquelle on représente \omega.

Pour les produits scalaires, la réponse à la même question est bien connue. Il s’agit des bases orthonormées. Ce sont celles dans lesquelles ils sont représentés par la matrice unité \mathrm{diag}(1,\ldots,1).

La réponse est également connue pour les formes symplectiques et ce sont les bases de Darboux qui conviennent. Il s’agit de celles dans lesquelles elles sont représentées par la matrice diagonale par blocs

\mathrm{diag}\underbrace{\left(\begin{pmatrix}0&1\\-1&0\end{pmatrix},\ldots,\begin{pmatrix}0&1\\-1&0\end{pmatrix}\right)}_{m\ \mathrm{matrices}}

Ce sont donc les bases dans lesquelles, en termes des composantes de \mathbf x et de \mathbf y(*),

(1) \omega(\mathbf  x,\mathbf  y)=\sum_{k=1}^m\det\begin{pmatrix}x^{2k-1}&y^{2k-1}\\x^{2k}&y^{2k}\end{pmatrix}

Venons-en à présent à notre petit problème à savoir, étant donné \xi\in E^*, trouver l’ensemble \sharp(\xi) des éléments de E qui s’écrivent \xi^\sharp pour une forme symplectique bien choisie de E. La réponse tient en ceci : pour tout \xi\in E^*, on a

\sharp(\xi)=\begin{cases}\{0\}\ \mathrm{si}\ \xi=0\\[1ex]\ker \xi\setminus\{0\}\ \mathrm{sinon}\end{cases}

Je me contente de détailler le cas où \xi n’est pas nul, cela va de soi. Soit alors \xi^\sharp calculé pour une certaine forme symplectique \omega. D’abord \xi^\sharp n’est pas nul non plus (\sharp est une bijection linéaire). De plus, \xi(\xi^\sharp)=\omega(\xi^\sharp,\xi^\sharp)=0. Ainsi, \sharp(\xi)\subset \ker\xi\setminus\{0\}.

Pour l’inclusion inverse, soit \mathbf u\in \ker\xi\setminus\{0\}. Comme \mathbf u n’est pas nul, on peut trouver une base (\mathbf e_2,\ldots,\mathbf e_n) de \ker\xi pour laquelle \mathbf u=\mathbf e_2. On peut aussi trouver un élément \mathbf e_1 de E tel que \xi(\mathbf e_1)=-1 car \xi\neq 0. Clairement, les \mathbf e_k, k=1,\ldots,n, sont linéairement indépendants. Ils forment donc une base de E et, vu nos choix, le premier élément de la base duale de celle-ci est \varepsilon^1=-\xi. Notons \omega la forme symplectique dont ce soit une base de Darboux c’est-à-dire la forme calculée par la formule (1) en termes des composantes relatives à cette base. Alors, pour tout \mathbf x\in E, on a

\omega(\mathbf u,\mathbf  x)=\omega(\mathbf e_2,\mathbf  x)=\det\begin{pmatrix}0&x^1 \\1&x^2\end{pmatrix}=-x^1=\xi(\mathbf x)

et la cause est entendue. 😉

__________
(*) Avec les notations du calcul tensoriel, une base est orthonormée pour un produit scalaire g si, en notant (\varepsilon^1,\ldots,\varepsilon^n) sa base duale,

g=\sum_{k=1}^n\varepsilon^k\otimes\varepsilon^k

et c’est une base de Darboux pour une forme symplectique \omega si

\omega=\sum_{k=1}^m\varepsilon^{2k-1}\wedge\varepsilon^{2k}

Sur quelques vecteurs propres amusants

C’est dans cet article que se trouve l’origine de ce dont je vais vous entretenir mais il ne faut nullement l’avoir lu pour comprendre le présent billet dont le propos est extrêmement élémentaire.

Dans l’article en question, j’ai associé de façon naturelle deux équations différentielles à chaque matrice de trace nulle

H=\begin{pmatrix}p&q\\r&-p\end{pmatrix}

Peut importe ce que sont ces équations, il suffit de savoir que l’on échange ces équations en remplaçant H par

H'=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

C’est en effet à propos de l’application linéaire H\mapsto H' que je souhaite faire ici quelques observations.

Les déterminants des matrices H et H' sont égaux. Puisque leurs traces sont nulles, elles ont même polynôme caractéristique : elles doivent être semblables. Et, en effet, comme on le voit tout de suite(*),

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}p&q\\r&-p\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

Plus généralement

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}t&z\\y&x\end{pmatrix}

L’ensemble des matrices réelles, carrées et de dimension deux est un espace vectoriel réel de dimension quatre. On le note souvent gl(2,\mathbf R). Plus précisément, l’application(**)

\begin{pmatrix}x&y\\z&t\end{pmatrix}\in gl(2,\mathbf R)\mapsto (x,y,z,t)\in\mathbf R^4

est une isométrie, gl(2,\mathbf R) étant muni du produit scalaire (A,B)\mapsto \mathrm{tr}(\tilde AB) et \mathbf R^4 de son produit scalaire canonique.

Le sous-espace des matrices de trace nulle de gl(2,\mathbf R) est noté sl(2,\mathbf R). C’est un hyperplan et son complément orthogonal, qui est donc de dimension un, est la droite vectorielle engendrée par la matrice unité. Comme on le voit immédiatement, celle-ci est en effet orthogonale aux matrices de trace nulle.

Comme on le vérifie très facilement, la similitude de matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est une isométrie de gl(2,\mathbf R); on a vu plus haut qu’elle stabilise sl(2,\mathbf R).

Nous allons déterminer ses vecteurs propres, c’est-à-dire chercher les (x,y,z,t) non nuls pour lesquels il existe un nombre réel \lambda vérifiant (t,z,y,x)=\lambda(x,y,z,t).

Il est particulièrement simple de résoudre ce système d’équations homogènes mais je ne vais pas le faire ici. Je vais seulement décrire ses solutions.

On voit qu’il est compatible si, et seulement si, \lambda^2=1. Autrement dit, les valeurs propres de notre application sont \pm 1.

L’espace des solutions du système lorsque \lambda=1 est \{(x,y,y,x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,1),(0,1,1,0)). Lorsque \lambda=-1, l’espace des solutions est \{(x,-y,y,-x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,-1),(0,-1,1,0)).

Les éléments de ces bases sont deux à deux orthogonaux et leurs longueurs sont toutes égales à \sqrt 2. Rangés dans l’ordre où nous les avons rencontrés ils forment une base de \mathbf R^4 de même orientation que sa base canonique. Dans cette base, notre similitude est représentée par la matrice diagonale \mathrm{diag}(1,1,-1,-1). Son déterminant est donc 1.

Les éléments de gl(2,\mathbf R) représentent les endomorphismes de l’espace vectoriel \mathbf R^2 :

\begin{pmatrix}u\\v\end{pmatrix}\mapsto \begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}u\\v\end{pmatrix}

L’interprétation en termes d’applications linéaires des quatre vecteurs propres que nous venons de mettre en évidence est intéressante :

  • (1,0,0,1) représente l’identité \mathbf 1 de \mathbf R^2 dans lui-même.
  • (0,1,1,0) représente la volte \mathcal V: (x,y)\mapsto (y,x); c’est la symétrie orthogonale par rapport à la droite d’équation x=y.
  • (1,0,0,-1) représente la symétrie orthogonale par rapport à la droite d’équation y=0; regardée comme une application de l’ensemble des nombres complexes dans lui-même, c’est la conjugaison. Nous la noterons \mathcal C.
  • (0,-1,1,0) représente la rotation d’angle \pi/2; sur \mathbf C, c’est aussi la multiplication par i et nous la noterons \mathcal I.

La composée de deux symétries orthogonales est une rotation dont l’angle est le double de l’angle orienté que forment ces droites. Par conséquent, \mathcal V\circ \mathcal C=\mathcal I. Mais \mathcal V et \mathcal C sont des involutions. Nous avons donc aussi \mathcal V\circ \mathcal I=\mathcal C et \mathcal I\circ \mathcal C=\mathcal V. Voici la table complète des composées de nos quatre applications :

\begin{array}{c|c|c|c|c}&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathbf 1&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathcal V&\mathcal V&\mathbf 1&\mathcal I&\mathcal C\\ \hline \mathcal C&\mathcal C&-\mathcal I&\mathbf 1&-\mathcal V\\ \hline \mathcal I&\mathcal I&-\mathcal C&\mathcal V&-\mathbf 1\end{array}

Cette table montre que

\{\pm \mathbf 1, \pm \mathcal V, \pm \mathcal C , \pm \mathcal I\}

est un sous groupe du groupe des isométries de \mathbf R^2, celui engendré par les réflexions \mathcal V et \mathcal C. Celles-ci conservent le carré de sommets (1,1),(-1,1),(-1,-1),(1,-1). C’est donc une copie du groupe diédral D_8 qui est le groupe des symétries d’un carré. Notez qu’il n’y a que deux groupes d’ordre huit non abéliens : le groupe diédral D_8 et le groupe des quaternions.

Une autre façon d’identifier notre groupe à D_8 est d’utiliser la présentation générale des groupes diédraux décrite dans la référence donnée quelques lignes plus haut. Abstraitement, le groupe D_8 est le groupe de présentation

\langle \sigma,\tau|\sigma^2,\tau^4,\sigma\tau\sigma^{-1}\tau\rangle

Cela signifie que D_8 est engendré par les éléments \sigma et \tau et que ceux-ci sont assujettis à vérifier les seules relations

\sigma^2=e \quad \& \quad  \tau^4=e \quad \& \quad  \sigma\tau\sigma^{-1}\tau=e

(e est le neutre). Les éléments du groupe sont alors

e,\tau,\tau^2,\tau^3,\sigma,\sigma\tau,\sigma\tau^2,\sigma\tau^3

Il est facile de voir à l’aide de la table ci-dessus que l’on peut prendre pour \sigma et \tau respectivement la réflexion \mathcal V et la rotation \mathcal I. Par exemple, on a

(\mathbf 1,\mathcal I,\mathcal I^2,\mathcal I^3,\mathcal V,\mathcal V\mathcal I,\mathcal V\mathcal I^2,\mathcal V\mathcal I^3)=(\mathbf 1,\mathcal I,-\mathbf 1,-\mathcal I,\mathcal V,\mathcal C,-\mathcal V,-\mathcal C)

__________
(*) La matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est sa propre inverse. Elle représente en effet la volte

\mathcal V: (x,y)\mapsto (y,x)

de \mathbf R^2 dans la base canonique de ce dernier, volte qui est évidemment une involution.

(**) Nous utiliserons librement cette application pour identifier gl(2,\mathbf R) et \mathbf R^4.

Une brève à propos des bases orthonormées positives en dimension 3

Soit un espace vectoriel E réel, euclidien, orienté et de dimension 3. Nous notons (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

Comme ce produit est antisymétrique, sa table de multiplication dans une base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est complètement caractérisée par les trois produits \mathbf e_1\wedge \mathbf e_2, \mathbf e_2\wedge \mathbf e_3 et \mathbf e_3\wedge \mathbf e_1.

Il est bien connu que la table de multiplication du produit vectoriel est la même dans toutes les bases orthonormées positives. Plus précisément, si la base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est orthonormée et positive, alors

(1) \begin{cases}\mathbf e_1\wedge \mathbf e_2=\mathbf e_3\\ \mathbf e_2\wedge \mathbf e_3=\mathbf e_1\\ \mathbf e_3\wedge \mathbf e_1=\mathbf e_2\end{cases}

Ce dont je n’avais pas conscience jusqu’à aujourd’hui, et dont je me suis rendu compte en préparant un cours que je donnerai demain matin, c’est que la réciproque est vraie :

Si des éléments \mathbf e_1, \mathbf e_2 et \mathbf e_3 de E sont non nuls et vérifient (1), alors (\mathbf e_1,\mathbf e_2,\mathbf e_3) est une base orthonormée et positive de E.

Supposons en effet que \mathbf e_1, \mathbf e_2 et \mathbf e_3, non nuls, vérifient (1).

D’une part, comme tout produit vectoriel est orthogonal à ses facteurs, \mathbf e_1, \mathbf e_2 et \mathbf e_3 sont alors deux à deux perpendiculaires.

En particulier, ils sont linéairement indépendants puisqu’aucun n’est nul : (\mathbf e_1,\mathbf e_2,\mathbf e_3) est donc une base.

Celle-ci est positive vu que

[\mathbf e_1,\mathbf e_2,\mathbf e_3]=[\mathbf e_1,\mathbf e_2,\mathbf e_1\wedge\mathbf e_2]=\|\mathbf e_1\wedge\mathbf e_2\|^2=\|\mathbf e_3\|^2>0

(où [-,-,-] désigne le produit mixte de E).

De plus, étant donné que

\forall \mathbf u,\mathbf v\in E,\quad \|\mathbf u\wedge\mathbf v\|=\|\mathbf u\|\|\mathbf v\|\sin\varphi

\varphi est l’angle non orienté que font \mathbf u et \mathbf v, les longueurs l_i=\|\mathbf e_i\| vérifient les relations

\begin{cases}l_1l_2=l_3\\l_2l_3=l_1\\l_3l_1=l_2\end{cases}

De là, l_1^2=l_2^2=l_3^2=l_1l_2l_3 et donc, vu que les l_i sont strictement positifs, l_1=l_2=l_3=1 : les \mathbf e_i sont normés.

😉

Translations et homothéties

L’ensemble des homothéties (non constantes) et des translations d’un espace affine est un groupe, sous-groupe du groupe des affinités de l’espace. C’est connu mais peu diffusé, du moins en Belgique. Aussi vais-je en toucher un mot ici, d’autant que j’enseigne ce fait, sans l’avoir consigné dans mon syllabus.

A chaque application affine \mathcal T d’un espace affine \mathcal E dans lui-même, ce que nous noterons \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), est associée une application linéaire \mathcal T_*, endomorphisme de l’espace vectoriel \overrightarrow{\mathcal E} qui dirige \mathcal E(*). Elle est caractérisée par la propriété

\forall A,B\in\mathcal E,\quad \mathcal T_*(\overrightarrow{AB})=\mathcal{T}(B)-\mathcal{T}(A)

De plus, si \mathcal S,\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), alors \mathcal S\circ\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) et

(1) (\mathcal S\circ\mathcal T)_*=\mathcal S_*\circ\mathcal T_*

Comme \mathrm{id}_{\mathcal E*} =\mathrm{id}_{\overrightarrow{\mathcal E}} et, si \mathcal T est bijectif, (\mathcal T^{-1})_*=(\mathcal T_*)^{-1}, il résulte immédiatement de l’égalité (1) que l’ensemble des \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) pour lesquels \mathcal T_* est un multiple non nul de l’identité est un sous-groupe du groupe des affinités de \mathcal E.

A ma connaissance, aucune notation particulière n’a été retenue pour désigner ce groupe. Ici, pour le manipuler facilement, nous le noterons G. Par contre, il a reçu un nom. On l’appelle le groupe des homothéties-translations (vous comprendrez très bientôt pourquoi).

Je désigne par t_\mathbf u : X\mapsto X+\mathbf u la translation de vecteur \mathbf u et par \mathcal H_{C,k} l’homothétie de centre C et de rapport k :

\mathcal H_{C,k} : X \mapsto C+k\overrightarrow{CX}

Clairement, t_{\mathbf u*}=\mathrm{id}_{\overrightarrow{\mathcal E}} et \mathcal H_{C,k*}=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Les homothéties et les translations appartiennent donc à G.

Réciproquement,

Si \mathcal T\in G, alors ou bien \mathcal T possède un point fixe et c’est une homothétie ou bien il n’en possède pas et c’est une translation.

En effet, donnons-nous \mathcal T\in G et posons \mathcal T_*=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Fixons aussi un point A de \mathcal E. Alors,

(2) \forall X\in\mathcal E,\quad \mathcal T(X)=\mathcal T(A)+k\overrightarrow{AX}

En particulier, C est un point fixe de \mathcal T si, et seulement si,

(1-k)\overrightarrow{AC}=\overrightarrow{AA'}

(pour alléger l’écriture, j’ai noté A' l’image de A par \mathcal T).

Si k\neq 1, alors \mathcal T possède un point fixe, à savoir

C=A+\frac{1}{1-k}\overrightarrow{AA'}

et, en remplaçant A par C dans (2), on voit que \mathcal T est l’homothétie de centre C et de rapport k.

Si k=1, alors (2) se réécrit sous la forme

\forall X\in\mathcal E,\quad \mathcal T(X)-X=\mathcal T(A)-A

qui montre que \mathcal T est la translation de vecteur \overrightarrow {AA'}. Lorsque celui-ci n’est pas nul, \mathcal T n’a donc aucun point fixe. Dans le cas contraire, il fixe tous les points de \mathcal E et c’est aussi une homothétie(**).

Il est facile, et amusant, de voir comment se composent les homothéties et les translations. Je liste les résultats. Leurs vérifications sont laissées à la discrétion du lecteur.

Composée de deux translations

On a simplement la formule

\boxed{t_\mathbf u \circ t_\mathbf v=t_{\mathbf u+\mathbf v}}

Composée d’une homothétie et d’une translation

Cette fois

\boxed{\mathcal H_{C,k}\circ t_\mathbf u=t_{k\mathbf u}\circ\mathcal H_{C,k}}

Lorsque k\neq 1, la valeur commune des deux membres est l’homothétie de rapport k et de centre

C+\frac{k}{1-k}\mathbf u

Composée de deux homothéties

Si kl\neq 1, alors \mathcal H_{D,l}\circ \mathcal H_{C,k} est l’homothétie de rapport kl et de centre

C+\frac{1-l}{1-kl}\overrightarrow{CD}

sinon, c’est la translation de vecteur

\mathbf (1-l)\overrightarrow{CD}

Ce dernier s’annule si l=1 ou si C=D. Dans le premier cas, k=1 (puisque kl=1) : les deux homothéties sont égales à l’identité de \mathcal E dans lui-même et il en va de même de leur composée. Dans le second cas, les deux homothéties sont réciproques l’une de l’autre et leur composée est donc à nouveau l’identité de \mathcal E dans lui-même.

__________
(*) Traditionnellement, cette application linéaire est notée \overrightarrow{\mathcal T}. Pour alléger les notations, j’utilise ici la notation adoptée par un de mes collègues. Elle est assez légitime. En effet, en géométrie différentielle, la dérivée d’une application f entre variétés — son application linéaire tangente — est notée f_*. Or il se fait que l’application \overrightarrow{\mathcal T} est effectivement la dérivée de \mathcal T. Elle peut donc tout à fait bien être désignée par \mathcal T_*. L’égalité (1) est un avatar du théorème de dérivation des fonctions composées.

(**) Il n’y a qu’une homothétie de rapport 1. C’est l’identité de \mathcal E dans lui-même et c’est également la seule homothétie qui soit une translation.