Courbure et droite projective réelle I

Considérons une courbe régulière (I,\gamma) d’un plan affine euclidien orienté. Pour simplifier l’exposé, nous supposerons avoir choisi une fois pour toute un repère orthonormé et positif et travaillerons directement en coordonnées et composantes relatives à ce repère.

Pour définir la courbure algébrique \kappa^* de \gamma, on utilise traditionnellement une base formée d’une tangente unitaire \mathbf t et d’une normale unitaire \mathbf n comme je l’ai expliqué dans cet article. Le tout est résumé par l’équation

\mathbf t'=\kappa^*\|\gamma'\|\mathbf n

qui exprime en sens, direction et intensité, la manière dont \mathbf t varie, i.e. comment la courbe « se plie ».

On aurait tout aussi bien pu étudier la courbe (I,\varsigma) de la droite projective réelle P^1\mathbf R définie par

\varsigma(t)=\mathbf R\gamma'(t)

La droite \varsigma(t) est en effet le vectoriel directeur de la (droite) tangente à \gamma en t. Sa façon de varier devrait donc nous renseigner tout autant que celle de \mathbf t sur la courbure de \gamma.

C’est précisément ce que nous allons constater ici en calculant le vecteur tangent \varsigma'(t) à l’aide d’une jolie formule.

Nous avons pour cela besoin de quelques rappels à propos de P^1\mathbf R.

Tout d’abord, celui-ci est recouvert par les domaines de deux systèmes privilégiés de coordonnées, dits canoniques, (U_i,\varphi_i). L’ouvert U_i est formé des droites vectorielles de \mathbf R^2 qui ne sont pas perpendiculaires à \mathbf e_i. Alors, si \mathbf u est un vecteur directeur de la droite d, dans U_1, on a \varphi_1(d)=\frac{u_2}{u_1} et, dans U_2, \varphi_2(d)=\frac{u_1}{u_2}.

Nous avons ensuite introduit dans ce billet une famille de champs de vecteurs fondamentaux(*) sur P^1\mathbf R : \{H^*|H\in sl(2,\mathbf R)\}. En choisissant bien H, nous allons obtenir un champ de vecteurs H^* ne s’annulant nulle part et fournissant donc en chaque point de P^1\mathbf R une base de son espace tangent en ce point. Le champ de vecteurs

\Theta:=\begin{pmatrix}0&-1\\1&0\end{pmatrix}^*

fait l’affaire. En effet, comme on le voit facilement à l’aide de formules présentées dans le billet signalé quelques lignes plus haut, les expressions locales de ce champ dans les systèmes de coordonnées canoniques sont

(1) \varphi_{1*}\Theta=1+x^2\quad \& \quad \varphi_{2*}\Theta=-(1+y^2)

Voici la formule annoncée.

\boxed{\varsigma'=\|\gamma'\|\kappa^*\Theta\circ\varsigma}

Elle est très simple à établir en utilisant les coordonnées locales. Je montre comment cela fonctionne dans le premier système canonique. Dans le second, les calculs sont tout à fait similaires.

Posons \gamma(t)=(x_1(t),x_2(t)). Pour rappel, la courbure algébrique est alors donnée par

\kappa^*=\dfrac{x'_1x''_2-x'_2x''_1}{(x'^2_1+x'^2_2)^{3/2}}

De plus, \varphi_1\circ\varsigma=\frac{x'_2}{x'_1}. Par suite,

\varphi_{1*}\varsigma'=(\varphi_1\circ\varsigma)'=\dfrac{x'_1x''_2-x'_2x''_1}{x'^2_1}=\dfrac{(x'^2_1+x'^2_2)^{3/2}}{x'^2_1}\kappa^*

Enfin, vu (1),

\varphi_{1*}\left(\Theta\circ \varsigma\right)=1+\dfrac{x'^2_2}{x'^2_1}=\dfrac{x'^2_1+x'^2_2}{x'^2_1}

D’où la formule annoncée puisque \|\gamma'\|=\sqrt{x'^2_1+x'^2_2}.

Cette formule est particulièrement frappante lorsque t est une abscisse curviligne de \gamma, car alors \|\gamma'\|=1. Ainsi, lorsque (I,\gamma) est rapporté à une abscisse curviligne, sa courbure algébrique en t\in I est la composante du vecteur tangent \varsigma'(t) selon la base \Theta(\varsigma(t)) de l’espace tangent à P^1\mathbf R en \varsigma(t).

Par exemple, si (I,\gamma) est le cercle trigonométrique, i.e. si I=\mathbf R et si, partout dans \mathbf R, \gamma(t)=(\cos t,\sin t), alors la courbure algébrique (qui est l’inverse du rayon de courbure, 1 en l’occurence) est constante et vaut 1. Par conséquent, pour le cercle trigonométrique, (\mathbf R,\varsigma) est une courbe intégrale maximale du champ de vecteurs \Theta de P^1\mathbf R.

Comme le laisse supposer le titre du présent billet, j’ai encore quelques petites choses à raconter à propos de la courbure et de la droite projective réelle mais cela fera l’objet d’un autre billet.

😉

__________
(*) On désigne par sl(2,\mathbf R) l’ensemble des matrices réelles carrées de tailles deux dont la trace est nulle.

Publicités

A propos des polygones plans : un critère de convexité

Considérons un plan affine \mathcal E modelé sur un espace vectoriel réel E.

Comme illustré par la figure suivante, un polygone A_1A_2\cdots A_n de ce plan(*) est convexe, par définition, si, pour chaque k\in\{1,\ldots,n\}, il est entièrement contenu dans un des demi-plans délimités par la droite A_kA_{k+1}(**).

convexite

Soient une droite \mathcal D de \mathcal E et une équation cartésienne \alpha=0 de celle-ci dans un repère donné de \mathcal E. Le premier membre de cette équation est un polynôme du premier degré en deux variables et nous désignerons par \alpha(P) la valeur qu’il prend en les coordonnées d’un point P.

La droite \mathcal D est le lieu des points P tels que \alpha(P)=0. Son complémentaire possède deux composantes connexes. Ce sont les demi-plans (ouverts) délimités par \mathcal D. L’un est le lieu des points P tels que \alpha(P)>0, l’autre celui des points P tels que \alpha(P)<0.

Pour chaque k\in\{1,\ldots,n\}, choisissons une équation \alpha_k=0 de la droite A_kA_{k+1}. Le polygone A_1A_2\cdots A_n est alors convexe si, et seulement si, pour chaque k\in\{1,\ldots,n\}, les signes des nombres

\alpha_k(A_j),\quad j\in\{1,\ldots,n\}, j\neq k, j\neq k+1

sont égaux.

En utilisant une forme volume de E, nous allons obtenir une version intrinsèque de ce critère. Pour rappel, une forme volume de E est une application bilinéaire, antisymétrique et non nulle de E\times E dans \mathbf R. Voici alors le critère anoncé.

Soit une forme volume \omega de E. Le polygone A_1A_2\cdots A_n est convexe si, et seulement si, pour chaque k\in\{1,\ldots,n\}, les signes des nombres

\omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}}),\quad j\in\{1,\ldots,n\}, j\neq k, j\neq k+1

sont égaux.

Considérons en effet une forme volume \omega de E et choisissons une base (\mathbf e_1,\mathbf e_2) de ce dernier telle que \omega(\mathbf e_1,\mathbf e_2)=1(***). Dans celle-ci, avec des notations évidentes,

\omega(\mathbf u,\mathbf v)=\det\begin{pmatrix}u_1&v_1\\u_2&v_2\end{pmatrix}

Notons alors (x_k,y_k) les coordonnées des A_k dans un repère de \mathcal E dont (\mathbf e_1,\mathbf e_2) est la base. Dans ce repère, la droite A_kA_{k+1} admet l’équation \alpha_k=0, où

\alpha_k(x,y)=(y_{k+1}-y_k)(x-x_k)-(x_{k+1}-x_k)(y-y_k)

D’où la propriété puisque

\alpha_k(A_j)=\omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}})

Les nombres \omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}}) ont une interprétation intéressante. Comme je l’ai expliqué ici, \omega munit \mathcal E d’une orientation et permet de définir l’aire orientée des polygones de \mathcal E. En particulier, celle d’un triangle ABC est \frac 1 2\omega(\overrightarrow{AB},\overrightarrow{AC}). Pour une valeur de k donnée, les nombres \omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}})A_j balaie les sommets autres que A_k et A_{k+1} sont donc les doubles des aires orientées des triangles A_kA_jA_{k+1}.

Par exemple, pour le pentagone représenté ci-dessous et pour k=1, il s’agit des trois triangles A_1A_3A_2, A_1A_4A_2 et A_1A_5A_2. Ils sont représentés en gris.

convexite_2

Un exemple : les parallélogrammes

Considérons un quadrilatère A_1A_2A_3A_4 de \mathcal E pour lequel

\overrightarrow{A_1A_2}+\overrightarrow{A_3A_4}=0

convexite_3

On a aussi

\overrightarrow{A_2A_3}+\overrightarrow{A_4A_1}=\overrightarrow{A_2A_1}+\overrightarrow{A_1A_3}+\overrightarrow{A_4A_3}+\overrightarrow{A_3A_1}=-\left(\overrightarrow{A_1A_2}+\overrightarrow{A_3A_4}\right)=0

par conséquent, les côtés [A_1,A_2] et [A_3,A_4] sont parallèles de même que [A_2,A_3] et [A_4,A_1]. Le quadrilatère est donc ce qu’on appelle communément un parallélogramme.

Lorsqu’on le dessine, on ne peut que le dessiner convexe. Cependant ce n’est pas une preuve formelle de la convexité de ce quadrilatère. Notre critère va par contre nous en donner une immédiatement. Il s’avère en effet que, \omega étant une quelconque forme volume de E,

\begin{cases}\omega(\overrightarrow{A_1A_3},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_4},\overrightarrow{A_1A_2})\\[2ex]\omega(\overrightarrow{A_2A_1},\overrightarrow{A_2A_3})=\omega(\overrightarrow{A_2A_4},\overrightarrow{A_2A_3})\\[2ex]\omega(\overrightarrow{A_3A_1},\overrightarrow{A_3A_4})=\omega(\overrightarrow{A_3A_2},\overrightarrow{A_3A_4})\\[2ex]\omega(\overrightarrow{A_4A_2},\overrightarrow{A_4A_1})=\omega(\overrightarrow{A_4A_3},\overrightarrow{A_4A_1})\end{cases}

En effet

\omega(\overrightarrow{A_1A_4},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3}+\overrightarrow{A_3A_4},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3}-\overrightarrow{A_1A_2},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3},\overrightarrow{A_1A_2})

etc.

C’est ici que s’achève notre billet.

P.S. En fait, je viens de me rendre compte — je suis lent, vous le savez — de ce que tout résulte de ceci : des points C et D de \mathcal E n’appartenant pas à une droite AB, sont situés d’un même côté ou de part et d’autre de celle-ci si, et seulement si, les signes des aires orientées des triangles ACB et ADB sont égaux ou opposés, aires mesurées par rapport à une forme volume quelconque de E. La preuve de cette propriété est facile à écrire vu ce qui se trouve plus haut. P.L. 15/11/2017
__________
(*) Un polygone d’un plan est une suite périodique k\in\mathbf Z \mapsto A_k de points du plan dont trois consécutifs ne sont jamais alignés. Si n est sa période, on désigne le polygone par A_1A_2\cdots A_n. Ses côtés sont les segments [A_k,A_{k+1}], k=1,\ldots,n (bien noter que A_{n+1}=A_1).
(**) Lorsque n vaut trois, cette condition est toujours vérifée: tous les triangles sont convexes! C’est rassurant 😉
(***) Je laisse au lecteur le soin de construire une telle base (c’est facile).

Nombres complexes, produits scalaire, mixte et vectoriel : une brève mise au point

La trilogie produit scalaire, produit mixte et produit vectoriel est assez bien connue en dimension trois. Elle l’est moins en d’autres dimensions, et particulièrement en dimension deux. Pourtant, elle est très amusante en dimension deux, à cause des nombres complexes.

Forme volume et produit mixte

Sur un espace vectoriel (réel) de dimension deux E, une forme volume est une application bilinéaire, antisymétrique et non nulle \omega:E\times E\to\mathbf R.

Comme je l’ai rappelé dans ce billet, une telle forme peut être utilisée pour définir l’aire orientée de certaines parties des plans affines modelés sur E, en particulier, celle des polygones, convexes ou non, de ces plans.

L’espace E admet des bases adaptées à \omega, i.e. des bases (\mathbf e_1,\mathbf e_2) telles que \omega(\mathbf e_1,\mathbf e_2)=1. Dans une telle base,

\forall \mathbf u,\mathbf v\in E,\quad\omega(\mathbf u,\mathbf v)=\det\begin{pmatrix}u_1&v_1\\u_2&v_2\end{pmatrix}

Lorsque l’espace E est euclidien et orienté, il admet une forme volume privilégiée. C’est celle dont les bases orthonormées positives de E sont des bases adaptées. Cette forme volume est ce qu’on appelle le produit mixte de E. On le note

\mathbf u,\mathbf v\mapsto [\mathbf u,\mathbf v]

Outre le fait que, comme toute forme volume, le produit mixte de E donne lieu à une notion d’aire orientée, il permet également, de concert avec le produit scalaire

\mathbf u,\mathbf v\mapsto \mathbf u\cdot\mathbf v

de définir l’angle orienté des couples d’éléments non nuls (\mathbf u,\mathbf v) de E. Celui-ci est en effet donné par

\begin{cases}\cos(\mathbf u,\mathbf v)=\frac{\mathbf u\cdot\mathbf v}{\|\mathbf u\|\|\mathbf v\|}\\[1ex]\sin(\mathbf u,\mathbf v)=\frac{[\mathbf u,\mathbf v]}{\|\mathbf u\|\|\mathbf v\|}\end{cases}

Structure complexe et produit vectoriel

Une structure complexe sur l’espace vectoriel E est une application linéaire J:E\mapsto E telle que J^2=-\mathrm{id}_E. Avec une telle structure, on fait de E un espace vectoriel complexe en conservant l’addition de E et en posant

\forall a,b\in \mathbf R,\forall \mathbf u\in E,\quad (a+ib)\mathbf u=a\mathbf u+bJ\mathbf u

Nous supposons ici que \dim E=2. Comme espace vectoriel complexe, sa dimension est alors 1. Voici pourquoi. Supposons que \mathbf u\in E n’est pas nul. Alors (\mathbf u,J\mathbf u) est une base de l’espace réel E. En effet, \mathbf u et J\mathbf u sont linéairement indépendants sur \mathbf R car les valeurs propres de J sont \pm i. Les éléments de E sont donc les multiples complexes de \mathbf u.

Les bases de la forme (\mathbf u,J\mathbf u) que nous venons de construire sont celles dans lesquelles J est représenté par la matrice

\begin{pmatrix}0&-1\\1&0\end{pmatrix}

Nous dirons que ce sont les bases adaptées à J.

Lorsque le plan vectoriel E est euclidien et orienté, il admet une structure complexe privilégiée à savoir son produit vectoriel. Celui-ci, qui n’a qu’un argument, est la rotation d’angle \frac \pi 2. On le note

\perp: \mathbf u\mapsto \mathbf u^\perp

L’application \perp\circ \perp est la rotation d’angle \pi. C’est donc -\mathrm{id}_E : \perp est bien une structure complexe de E. Les bases orthonormées positives de E lui sont adaptées.

L’espace vectoriel réel des nombres complexes

Comme espace vectoriel réel, l’ensemble des nombres complexes n’est autre que \mathbf R^2. Il est muni d’une structure d’espace vectoriel euclidien orienté canonique : celle pour laquelle (1,i) est une base orthonormée positive.

Pour cette structure, le produit vectoriel est la multiplication par i et c’est la structure complexe naturelle de \mathbf C.

Quant aux produits scalaire et mixte, il sont liés au produit des nombres complexes par une remarquable formule :

(1) \forall u,v\in\mathbf C,\quad \bar uv=u\cdot v+i[u,v]

soit, en termes des parties réelles et imaginaires,

(a-ib)(c+id)=(ac+bd)+i(ad-bc)=(ac+bd)+i\det\begin{pmatrix}a&c\\b&d\end{pmatrix}

Je ne résiste pas à la tentation de montrer à nouveau comment la belle formule (1) donne une preuve de l’inégalité de Cauchy-Schwarz en dimension deux (et donc, comme je l’ai expliqué ailleurs, sur tout espace vectoriel euclidien, de dimension finie ou non).

On prend les carrés des modules des deux membres de (1). Cela donne

|u|^2|v|^2=(u\cdot v)^2+[u,v]^2

En conséquence,

|u\cdot v|\leqslant |u||v|

l’égalité ayant lieu si, et seulement si, [u,v]=0, c’est-à-dire si, et seulement si, u et v sont linéairement dépendants sur \mathbf R.

Voici une autre conséquence de (1).

Dans tout plan vectoriel euclidien orienté, on a

\begin{cases}\mathbf u\cdot \mathbf v^\perp=-[\mathbf u,\mathbf v]\\[1ex][\mathbf u,\mathbf v^\perp]=\mathbf u\cdot\mathbf v\end{cases}

Vu ce qui précède, il suffit de vérifier ces formules pour l’espace \mathbf C. Elles résultent alors de (1) puisque, d’après cette identité,

u\cdot v^\perp+i[u,v^\perp]=\bar u v^\perp=i\bar u v=-[u,v]+i u\cdot v

Voilà, c’est tout pour ce billet.

😉

A propos des polygones plans : aire et milieux des côtés

Le but de cet article est de prouver la propriété suivante :

Des polygones A_1A_2\cdots A_n et A'_1A'_2\cdots A'_n dont les milieux des côtés homologues sont égaux ont même aire.

Je vais d’abord préciser le contexte dans lequel cette proposition est considérée. En particulier, je vais préciser la notion d’aire à laquelle elle réfère.

Nous nous plaçons dans un plan affine muni d’une SL(2,\mathbf R)-structure.

Je ne nomme pas ce plan car nous n’en considérerons pas d’autre et quand je parlerai du plan, il s’agira de lui.

D’autre part, je vous renvoie à ce billet pour ce qui concerne les SL(n,\mathbf R)-strucutures et les formes volumes associées. Cela dit, il n’est pas nécessaire de savoir ce qu’est une SL(n,\mathbf R)-strucutures pour comprendre ce qui suit et, comme on le constatera, l’utilisation que nous allons faire de la forme volume est extrêmement simple.

Nous noterons \omega la forme volume associée à la SL(2,\mathbf R)-structure dont est muni le plan. Pour rappel, c’est une application à valeurs réelles, bilinéaire, antisymétrique et non nulle définie sur l’espace E des vecteurs libres du plan, i.e. l’espace vectoriel sur lequel il est modelé.

Notre plan est alors doté d’une orientation privilégiée, liée à sa SL(2,\mathbf R)-structure. Les bases positives définissant cette orientation sont les bases (\mathbf u,\mathbf v) pour lesquelles \omega(\mathbf u,\mathbf v) est strictement positif.

Aire orientée d’un polygone : définition

La forme volume est utilisée pour introduire la notion d’aire orientée de certaines parties du plan. Je me limiterai ici à l’aire orientée des polygones(*) telle que l’a introduite Möbius. Par définition, l’aire (orientée, je ne le préciserai plus) d’un triangle A_1A_2A_3 est le nombre

\mathscr A_{A_1A_2A_3}=\frac 1 2\omega(\overrightarrow{A_1A_2},\overrightarrow{A_1A_3})

Pour définir l’aire \mathscr A_\mathbf P d’un polygone \mathbf P=A_1A_2\cdots A_n, on choisit alors un point quelconque O et on pose

\mathscr A_\mathbf P=\sum_{k=1}^n\mathscr A_{OA_kA_{k+1}}

Le membre de droite de cette égalité ne dépend pas de O. En effet, si O', A, B sont des points, alors

\omega(\overrightarrow{O'A},\overrightarrow{O'B})=\omega(\overrightarrow{O'O}+\overrightarrow{OA},\overrightarrow{O'O}+\overrightarrow{OB})=\omega(\overrightarrow{OA},\overrightarrow{OB})+\omega(\overrightarrow{O'O},\overrightarrow{AB})

Par conséquent,

\begin{array}{rcl}\sum_{k=1}^n\omega(\overrightarrow{O'A_k}, \overrightarrow{O'A_{k+1}})&=&\sum_{k=1}^n\omega(\overrightarrow{OA_k}, \overrightarrow{OA_{k+1}})+\omega(\overrightarrow{O'O},\sum_{k=1}^n \overrightarrow{A_kA_{k+1}})\\[2ex]&=&\sum_{k=1}^n\omega(\overrightarrow{OA_k}, \overrightarrow{OA_{k+1}})\end{array}

puisqu’en vertu de la relation de Chasles,

\sum_{k=1}^n \overrightarrow{A_kA_{k+1}}=0

Aire orientée d’un polygone : expression analytique

Il existe des base adaptées à \omega. Ce sont les bases dans lesquelles (avec des notations évidentes)

\forall \mathbf u,\mathbf v\in E,\quad \omega(\mathbf u,\mathbf v)=\det\begin{pmatrix}u_1&v_1\\u_2&v_2\end{pmatrix}

Ce sont exactement les bases (\mathbf u,\mathbf v) pour lesquelles \omega(\mathbf u,\mathbf v)=1. En particulier, elles appartiennent à l’orientation associée à \omega.(**)
Dans un repère du plan dont la base est adaptée à \omega, on a alors

(2) \mathscr A_{A_1A_2\cdots A_n}=\sum_{k=1}^n\det\begin{pmatrix}x_k&x_{k+1}\\y_k&y_{k+1}\end{pmatrix}

Pour le voir, il suffit d’appliquer la définition de l’aire orientée du polygone A_1A_2\cdots A_n en prenant pour O l’origine du repère.

Preuve de la propriété

Nous allons à présent vérifier la propriété énoncée en début de billet et dans laquelle l’aire dont il est question est l’aire orientée dont on vient de parler.

Le fait que les milieux des côtés homologues des polygones A_1A_2\cdots A_n et A'_1A'_2\cdots A'_n soient égaux se traduit par

(1) \forall k\in\{1,\ldots,n\},\quad \overrightarrow{A_kA'_k}+\overrightarrow{A_{k+1}A'_{k+1}}=0

Cela noté, il vient

\begin{array}{rcl}2\mathscr A_{A'_1A'_2\cdots A'_n}&=&\sum_{k=1}^n\omega(\overrightarrow{OA'_k},\overrightarrow{OA'_{k+1}})\\[2ex]&=&\sum_{k=1}^n\omega(\overrightarrow{OA_k}+\overrightarrow{A_kA'_k},\overrightarrow{OA_{k+1}}+\overrightarrow{A_{k+1}A'_{k+1}})\\[2ex]&=&\sum_{k=1}^n\omega(\overrightarrow{OA_k},\overrightarrow{OA_{k+1}})+\sum_{k=1}^n\omega(\overrightarrow{A_kA'_k},\overrightarrow{A_{k+1}A'_{k+1}})+\sum_{k=1}^n\omega(\overrightarrow{OA_k},\overrightarrow{A_{k+1}A'_{k+1}}-\overrightarrow{A_{k-1}A'_{k-1}})\end{array}

Mais, vu (1) et l’antisymétrie de \omega, les termes \omega(\overrightarrow{A_kA'_k},\overrightarrow{A_{k+1}A'_{k+1}}) sont nuls et, vu (1) toujours, pour k\in\{1,\ldots,n\},

\overrightarrow{A_{k+1}A'_{k+1}}-\overrightarrow{A_{k-1}A'_{k-1}}=\overrightarrow{A_{k+1}A'_{k+1}}+\overrightarrow{A_kA'_k}=0

Ainsi,

2\mathscr A_{A'_1A'_2\cdots A'_n}=\sum_{k=1}^n\omega(\overrightarrow{OA_k},\overrightarrow{OA_{k+1}})=2\mathscr A_{A_1A_2\cdots A_n}

et le tour est joué.

Portée de la propriété

La propriété que nous venons de démontrer n’est réellement significative que lorsque le nombre de sommets des polygones est pair. En effet, nous avions constaté dans cet article que si n est impair, il n’y a qu’un polygone à n sommets dont les milieux des côtés soient prescrits. De plus, dans le même article, nous avons constaté que, étant donnés n points, n pair, alors ou bien il n’y a pas de polygone dont ce soient les milieux des côtés, ou bien tout point A_1 est le premier sommet d’un unique polygone A_1A_2\cdots A_n dont ce soient les milieux des côtés et c’est dans ce dernier cas que la propriété apporte un information non triviale.

Ce que je viens de rappeler découle aisément du fait suivant. Soient des points B_1,\ldots, B_n et, pour k\in\{1,\ldots,n\}, la symétrie centrale s_k de centre B_k. Si A_1A_2\cdots A_n est un polygone dont les B_k sont les milieux des côtés, alors, pour k\in\{1,\ldots,n\}, A_{k+1}=s_k(A_k). En particulier, A_1 est un point fixe de la composée \varsigma:=s_n\circ \cdots \circ s_1. Cela étant :

— si n est impair, \varsigma est une symétrie centrale et l’unique polygone A_1A_2\cdots A_n dont les B_k soient les milieux des côtés est celui pour lequel A_1 est le centre de cette symétrie, à savoir le point

B_1+\overrightarrow{B_2B_3}+\overrightarrow{B_4B_5}+\cdots

— si n est pair, \varsigma est une translation. Elle n’a des points fixes que si c’est l’identité, auquel cas, tous les points du plan en sont des points fixes. On peut vérifier que le vecteur de cette translation est le double de

\overrightarrow{B_1B_2}+\overrightarrow{B_3B_4}+\cdots

Pour qu’il y ait des polygones dont les B_k soient les milieux des côtés, il faut, et il suffit, que ce vecteur soit nul.

Pour n=4, cette condition signifie que le quadrilatère B_1B_2B_3B_4 est un parallélogramme. On l’appelle le parallélogramme de Varignon des polygones dont les milieux des côtés sont les B_k.

Il est remarquable que l’aire du parallélogramme de Varignon d’un quadrilatère soit la moitié de celle de celui-ci. (Ceci se voit facilement en utilisant par exemple (2); c’est assez difficile à prouver sans utiliser de repère en raison de la diversité des configurations qu’il faut envisager : quadrilatère convexe, croisé, etc.) Notez que l’aire du triangle formé des milieux des côtés d’un triangle vaut le quart de l’aire de ce dernier. Mais la régularité que laissent éventuellement pressentir ces deux observations n’existe pas : pour n>4, le rapport de l’aire d’un polygone à n sommets à celle du polygone formé par les milieux de ses côtés dépend non seulement de n mais aussi du polygone. Pour l’instant, je ne sais pas de quelle manière.

Je vais donc achever ce billet ici. 😉

__________
(*) Un polygone du plan est une suite périodique k\in\mathbf Z \mapsto A_k de points dont trois consécutifs ne sont jamais alignés. Si n est sa période, on désigne le polygone par A_1A_2\cdots A_n. Ses côtés sont les segments [A_k,A_{k+1}], k=1,\ldots,n (bien noter que A_{n+1}=A_1).
(**) Un plan affine euclidien et orienté possède une forme volume privilégiée, celle dont les bases orthonormées positives de l’espace des vecteurs libres sont des bases adaptées. La notion d’aire associée est très classique. Par exemple, l’aire d’un triangle est, à un signe près qui dépend de son orientation, le fameux produit « base fois hauteur sur deux ».

Courbure et épaississement II

Je continues ici cet article auquel je vous reporte pour les définitions, les notations et des propriétés que nous allons utiliser.

L’objectif poursuivi est de montrer que la courbure de la frontière du t-épaissi d’un convexe d’un plan affine euclidien est moindre que celle de la frontière du convexe, pour autant que celle-ci soit suffisamment régulière.

Ceci est illustré sur la figure suivante, où le phénomène est nettement perceptible.

La courbe dessinée en bleu, la parabole d’équation y=x^2 dans le repère indiqué, délimite un convexe dont elle est la frontière. La courbe tracée en noir est celle du 2-épaissi de celui-ci.

Nous considérons une partie convexe et fermée e d’un plan affine euclidien orienté E. Nous supposons que la frontière du convexe est une courbe régulière \gamma : I\to E de classe C^2, où I est un intervalle ouvert de \mathbf R.

A chaque u\in I est associé un repère de E. Son origine est \gamma(u) et sa base (\mathbf t(u),\mathbf n(u)) est orthonormée et positive. Elle est formée du vecteur tangent unitaire \mathbf t(u)=\gamma'(u)/\|\gamma'(u)\| à \gamma en \gamma(u) et de la normale \mathbf n(u). Celle-ci s’obtient en appliquant à \mathbf t(u) la rotation d’angle \pi/2.

Le repère en question varie conformément aux équations

\begin{cases}\mathbf t'=\kappa^*\|\gamma'\|\mathbf n\\[1ex]\mathbf n'=-\kappa^*\|\gamma'\|\mathbf t\end{cases}

où la fonction \kappa^* est la courbure algébrique de \gamma.

La dérivée \mathbf t' pointe vers la concavité de \gamma alors que \mathbf n, déterminé univoquement par \mathbf t et l’orientation donnée de E, ne le fait peut-être pas. Le signe de \kappa^* est précisément celui qu’il faut pour assurer que \kappa^*\mathbf n ait le bon sens. La courbure \kappa de \gamma est toujours positive ou nulle. C’est la valeur absolue de la courbure algébrique.

Dans notre cas, pour chaque u\in I, le convexe e est entièrement contenu dans le demi-plan délimité par la tangente à \gamma en \gamma(u) vers lequel pointe \mathbf t'(u). Nous supposons que, par contre, \mathbf n(u) pointe vers l’autre demi-plan, ce qui n’est pas une restriction. En particulier, \kappa^* est négatif ou nul.

On a vu dans l’article mentionné plus haut que la frontière du t-épaissi de e est l’ensemble des points de E dont la distance à e vaut exactement t (nous supposons ce dernier strictement positif). Par conséquent, la frontière de e_t est la courbe paramétrée par la fonction

\gamma_t : u\in I \mapsto \gamma(u)+t\mathbf n(u)\in E

Nous allons calculer sa courbure pour la comparer à celle de la frontière de e, en appliquant les équations rappelées plus haut. On a

\gamma_t'=\gamma'-t\kappa^*\|\gamma'\|\mathbf t=(1-t\kappa^*)\gamma'

Vu le signe de \kappa^*, 1-t\kappa^*>0 de sorte que

\mathbf t_t=\frac{\gamma_t'}{\|\gamma_t'\|}=\frac{\gamma'}{\|\gamma'\|}=\mathbf t

On a donc aussi \mathbf n_t=\mathbf n. De plus,

\kappa^*_t\|\gamma_t'\|\mathbf n_t=\mathbf t_t'=\mathbf t'=\kappa^*\|\gamma'\|\mathbf n

Ainsi

\kappa^*_t=\frac{\kappa^*}{1-t\kappa^*}

et, puisque \kappa=-\kappa^* et \kappa_t=-\kappa^*_t,

\boxed{\kappa_t=\frac{\kappa}{1+t\kappa}}

Nous avons atteint notre but. En effet, la formule encadrée montre que \kappa_t\leqslant \kappa, l’inégalité étant stricte si \kappa>0.

La relation que nous avons trouvée est très simple mais il y a encore plus simple et intuitif. Pour rappel, le rayon de courbure \varrho(u) de \gamma en \gamma(u) est l’inverse de la courbure \kappa(u). En passant aux inverses dans la relation liant \kappa_t à \kappa, il vient alors

\boxed{\varrho_t=\varrho+t}

Nous pourrions en rester là mais je tiens à vous faire part d’une observation étrange. Elle est liée à la propriété (f) établie dans l’article cité au début du présent billet : pour tous s,t>0, on a (e_s)_t=e_{s+t}. Ceci implique que, considérant \kappa_t comme une fonction K de (t,\kappa) et \varrho_t comme une fonction R de (t,\varrho), on doit avoir

K(t,K(s,\kappa))=K(s+t,\kappa)\quad \& \quad R(t,R(s,\varrho))=R(s+t,\varrho)

Ceci, pour intéressant que cela puisse être, n’a rien d’étrange. On connait l’origine de cette propriété et, en outre, la vérification directe de ces formules est immédiate, singulièrement dans le cas de R.

Ce qui est surprenant, par contre, c’est que K est essentiellement(*) le flot du champ de vecteurs X:\kappa\mapsto -\kappa^2\frac d{d\kappa} de \mathbf R et R celui de son champ \varrho\mapsto \frac d{d\varrho}. Ces champs sont les expressions locales dans les cartes canoniques de la droite projective réelle d’un champ de vecteurs fondamental de celle-ci. Il s’agit, avec les notations de ce billet, du champ H^*

H=\begin{pmatrix}0&1\\0&0\end{pmatrix}

Cela est-il purement accidentel ou il y a-t-il quelque chose d’intéressant se cachant derrière ce fait? Je n’en sais rien et vais donc finir ici ce billet!

😉

__________
(*) Je ne précise pas le domaines de K, facile à déterminer. D’où cette imprécision : « essentiellement ».

Courbure et épaississement

En tondant la pelouse de mon jardin, j’observe un phénomène que je me suis enfin décidé à expliquer mathématiquement. Il s’agit de ceci. Les traces des roues de la tondeuse ont l’aspect de courbes et celles qui voisinent la bordure d’un parterre convexe ont une courbure qui s’atténue à mesure qu’on s’éloigne de la bordure.

C’est une question posée sur M@TH en Ligne à propos des épaissis d’une parabole pleine qui m’a incité à étudier le problème. J’ai parlé pour la première fois dans ce blog du t-épaissis d’une partie e d’un espace euclidien (de dimension finie) E ici. Pour rappel, il s’agit de l’ensemble e_t des points de e qui se trouvent à une distance au plus t de e (on suppose que t est positif ou nul). Vous trouverez dans l’article en question un exemple d’épaissi, celui d’un pentagone d’un pan.

Le rapport avec la tonte de la pelouse est le suivant : j’estime que les traces des roues au voisinage d’un parterre convexe sont assimilables aux frontières d’épaissis du parterre correspondant à des valeurs de t qui sont des multiples de plus en plus grands de la largeur de la tondeuse. Le phénomène observé s’explique alors par le fait qu’en épaississant un convexe d’un plan, on diminue la courbure de sa frontière du moins si celle-ci est assez régulière ce qui est le cas de la frontière du parterre de mon jardin auquel je pense. Je prouverai cela mais, avant, je vais faire quelques petites observations à propos des épaissis. Elles sont sans doute bien connues mais je n’ai pas de références auxquelles vous renvoyer à leur propos.

(a) Pour tout e\subset E et tout t\geqslant 0, le t-épaissi de e est égal à celui de son adhérence.

C’est évident. Notez, au passage, ce qui est clair également, que e_0 est l’adhérence de e.

(b) Pour tout t\geqslant 0, e_t est fermé.

En effet, vu (a), nous pouvons supposer que e est fermé. Cela noté, si x adhère à e_t, il est limite d’une suite x_m d’éléments de e_t. Il existe une suite a_m de points de e tels que d(x_m,e)=d(x_m,a_m). On a

(1) d(x,a_m)\leqslant d(x,x_m)+d(x_m,a_m)\leqslant d(x,x_m)+t

En particulier, la suite m\mapsto a_m est bornée. Quitte à la remplacer par une sous-suite, on peut donc supposer qu’elle converge vers un point a\in e. En passant à la limite dans (1), il vient alors d(x,a)\leqslant t. Ainsi, x appartient à e_t et (b) est prouvé.

(c) Si e est convexe, alors e_t l’est aussi.

Soient a,b\in e_t. Comme on peut supposer e fermé, il existe c,d\in e tels que d(a,c)=d(a,e)\leqslant t et d(b,d)=d(b,e)\leqslant t. D’après le lemme qui suit, les points du segment [a,b] sont donc distants de moins de t du segment [c,d]. Celui-ci est inclus à e puisque ce dernier est convexe. Par conséquent, [a,b]\subset e_t : (c) est établi.

(d) Lemme : Soient des points a,b,c,d de E et x\in [a,b]. On a

d(x,[c,d])\leqslant \sup\{d(a,c),d(b,d)\}

Pour vérifier cela, il suffit de donner un point y\in [c,d] tel que d(x,y)\leqslant \sup\{d(a,c),d(b,d)\}. Le point x est de la forme (\frac 1 2-u)a+(\frac 1 2+u)b, où |u|\leqslant\frac 1 2, et on voit facilement que le point y=(\frac 1 2-u)c+(\frac 1 2+u)d a cette propriété(*). D’où le lemme.

(e) Si e est convexe et t>0, alors la frontière (e_t)^\bulletde e_t est \{x\in E|d(x,e)=t\}.

Pour vérifier cela, nous supposons à nouveau que e est fermé, ce qui n’est pas une restriction. Soit alors un point frontière x de e_t. Il existe un point a de e tel que d(x,e)=d(x,a). Le point x est limite d’une suite m\mapsto x_m de points n’appartenant pas à e_t. On a donc d(x_m,a)>t pour tout m\in \mathbf N. En passant à la limite, nous voyons que d(x,a)\geqslant t. Mais, vu (b), x\in e_t et d(x,a)\leqslant t. Au total d(x,e)=t.

Nous venons de montrer que (e_t)^\bullet\subset \{x\in E|d(x,e)=t\}. Nous l’avons fait sans utiliser la convexité de e mais nous aurons besoin de cette hypothèse pour établir l’inclusion réciproque. Il y a en effet des ensembles non convexes pour lesquels cette inclusion est fausse. Par exemple, le t-épaissi d’un cercle de rayon t est le disque de même centre et de rayon 2t. Le centre du cercle est à distance t de celui-ci mais n’est donc pas un point frontière de son t-épaissi.

Allons-y! Soit un point x de E à distance t de e. Il n’appartient pas à e car t>0. Notons a sa projection orthogonale sur e. C’est l’unique point de e qui réalise la distance de x à e. Il est caractérisé par le fait que les angles non orientés entre \overrightarrow{ax} et \overrightarrow{ay}, y\in e, valent au moins \pi/2. En particulier, il est aussi la projection orthogonale de tous les points de la demi-droite \{a+u\ \overrightarrow{ax}| u>0\}. Les points

y_m=a+\left(1+\frac 1 m\right)\overrightarrow{ax}, m\in \mathbf N\setminus\{0\}

sont donc à distance \left(1+\frac 1 m\right)t>t de e. Ils n’appartiennent aucun à e_t mais ils convergent vers x. Celui-ci est donc un point frontière de e_t. D’où (e).

(f) Pour tous s,t>0, on a (e_s)_t=e_{s+t}.

C’est à peu près évident. Nous supposons à nouveau que e est fermé. Soient alors x\in (e_s)_t, un point y de e_s tel que d(x,y)=d(x,e_s) et un point z de e tel que d(y,z)=d(y,e). Il vient

d(x,z)\leqslant d(x,y)+d(y,z)\leqslant t+s

Ainsi, x\in e_{s+t} et (e_s)_t\subset e_{s+t}. Inversement, supposons que x\in e_{s+t} et notons a un point de e tel que d:=d(x,a)=d(x,e). Si d\leqslant s, alors x appartient à e_s, donc à (e_s)_t. Si d>s, posons

y=a+\frac s d\overrightarrow{ax}

C’est un point de e_s. De plus, d(x,y)=d-s\leqslant t. Par conséquent, x\in(e_s)_t et (f) est prouvé.

Pour des raisons de taille, je termine ici ce billet. Je présenterai ce que je voulais vous dire à propos de la courbure de la frontière des épaissis d’un convexe dans un billet ultérieur.

__________
(*) Par exemple, on note que

\begin{array}{rcl}d(x,y)^2&=&\left(\frac 1 2-u\right)^2d(a,c)^2+2\left(\frac 1 4-u^2\right)d(a,c)d(b,d)\cos\theta+\left(\frac 1 2+u\right)^2d(b,d)^2\\[1ex]&\leqslant&[2u^2(1-\cos\theta)+\frac 1 2(1+\cos\theta)]\sup\{d(a,c),d(b,d)\}\end{array}

\theta est l’angle non orienté entre les vecteurs \overrightarrow{ac} et \overrightarrow{bd} (on pose \theta=\pi/2 si l’un des deux est nul). La majoration s’obtient en remplaçant d(a,c) et d(b,d) par le plus grand des deux. Pour conclure, on observe que la quantité entre crochets ne dépasse pas 1 puisque |u|^2\leqslant \frac 1 4.

Une brève à propos des indices musicaux III

Je poursuis dans cet article l’étude de l’application \sharp : \xi\in E^*\mapsto \xi^\sharp\in E associée à une forme bilinéaire non dégénérée entamée dans deux billets antérieurs. Après avoir présenté ici le cas des produits scalaires et celui des formes symplectiques, j’aborde à présent celui des formes symétriques de signature quelconque. Je vous réfère à ces articles pour la définition de l’application \sharp.

Ici, E est un espace vectoriel réel de dimension finie n >1. Nous noterons g une forme bilinéaire symétrique non dégénérée de signature (p,q) de E. Cela signifie qu’il existe des bases de celui-ci dans lesquelles g est représenté par la matrice diagonale

\Delta:=\mathrm{diag}(\underbrace{1,\ldots,1}_{p},\underbrace{-1,\ldots,-1}_{q})=\mathrm{diag}(I_p,-I_q)

I_k désigne la matrice unité de taille k. Nous dirons de ces bases qu’elles sont adaptées à g.

Naturellement, si (p,q)=(n,0), g est un produit scalaire et, si (p,q)=(0,n), c’est -g qui en est un. Nous allons dès lors supposer que pq\neq 0 puisque les autres cas sont déjà traités.

Le résultat est le suivant

Soient \xi\in E^*\setminus\{0\}, \mathbf x\in E et deux entiers strictement positifs p et q tels que p+q=n. Il existe une forme bilinéaire symétrique non dégénérée de signature (p,q) telle que \mathbf x=\xi^\sharp si, et seulement si, \mathbf x\neq 0.

Ma démonstration est techniquement un peu lourde sans être pour autant conceptuellement difficile : contrairement aux cas des produits scalaires et des formes symplectiques, qui se traitent de façon assez triviale, je n’ai rien trouvé d’immédiat.

On vérifie facilement que si les composantes de \xi dans la base duale d’une base adaptée à g sont \mu=(\mu_1,\ldots,\mu_n), alors celles de \xi^\sharp dans la base adaptée sont u=(\mu_1,\ldots,\mu_p,-\mu_{p+1},\ldots,-\mu_n). Autrement dit u=\Delta \mu(*).

En particulier, si \xi n’est pas nul, alors \xi^\sharp ne l’est pas non plus, ce que nous savions déjà puisque \sharp est une bijection linéaire.

Etablir la réciproque, i.e. que si \mathbf x n’est pas nul, il s’écrit \xi^\sharp pour une certaine forme g de signature (p,q), revient à montrer qu’il existe des bases de E pour lesquelles u=\Delta \mu, où u sont les composantes de \mathbf x dans la base et \mu sont celles de \xi dans la base duale.

Nous allons faire cela en partant d’une base (plus ou moins) quelconque \mathbf f=(\mathbf f_1,\ldots, \mathbf f_n) de E et en trouvant une matrice de changement de bases S qui la transforme en une base \mathbf e=(\mathbf e_1,\ldots, \mathbf e_n) ayant la propriété en question(**).

Les relations liant les différentes composantes de \mathbf x et \xi sont v=Su et \mu=\tilde{S}\nu. Par conséquent, il s’agit d’établir l’existence d’une matrice non singulière S telle que

(1) v=S\Delta\tilde{S}\nu

Assez naturellement, nous allons écrire S sous la forme \begin{pmatrix}A&B\\C&D\end{pmatrix}A est une matrice carrée de taille p, D une de taille q, B est une matrice à p lignes et q colonnes et C une matrice à q lignes et p colonnes. On a alors

S\Delta\tilde{S}=\begin{pmatrix}A\tilde{A}-B\tilde{B}&A\tilde{C}-B\tilde{D}\\C\tilde{A}-D\tilde{B}&C\tilde{C}-D\tilde{D}\end{pmatrix}

La solution que je propose repose sur une discussion basée sur le signe de \xi(\mathbf x); elle montre bien, techniquement du moins, pourquoi l’hypothèse pq\neq 0 fait marcher les choses.

\boxed{\xi(\mathbf x)>0}

Puisque \xi(\mathbf x)\neq 0, on a E=\ker\xi\oplus\mathbf R\mathbf x. On peut donc choisir une base \mathbf f pour laquelle \mathbf f_1=\mathbf x et, si (\varphi^1,\ldots,\varphi^n) est sa base duale, \xi=\xi(\mathbf x)\varphi^1. Pour cette base, v=\overrightarrow{\mathbf e}_1:=(1,0,\ldots,0) et \nu=\xi(\mathbf x)\overrightarrow{\mathbf e}_1. La condition (1) exprime alors le fait que \overrightarrow{\mathbf e}_1 est un vecteur propre de valeur propre 1/\xi(\mathbf x) de la matrice S\Delta\tilde{S}.

Nous allons prendre B=0, C=0, D=I_q et

A=\mathrm{diag}(\frac{1}{\sqrt{\xi(\mathbf x)}},I_{p-1})

Avec ces choix, on a

S\Delta\tilde{S}=\begin{pmatrix}\frac{1}{\xi(\mathbf x)}&0&0\\0&I_{p-1}&0\\0&0&-I_q\end{pmatrix}

qui répond bien à la question.

\boxed{\xi(\mathbf x)<0}

Cette fois, nous choisissons \mathbf f pour que v=\overrightarrow{\mathbf e}_n:=(0,\ldots,0,1) et \xi=\xi(\mathbf x)\varphi^n. C'est alors \overrightarrow{\mathbf e}_n qui est un vecteur propre de valeur propre 1/\xi(\mathbf x) de S\Delta\tilde{S}.

Nous prenons encore B=0 et C=0 mais, en quelque sorte, nous inversons les rôles de A et de D puisque nous posons A=I_p et

D=\mathrm{diag}(I_{q-1},\frac{1}{\sqrt{-\xi(\mathbf x)}})

Cette fois,

S\Delta\tilde{S}=\begin{pmatrix}I_p&0&0\\0&-I_{q-1}&0\\0&0&\frac{1}{\xi(\mathbf x)}\end{pmatrix}

qui répond de nouveau à la question.

\boxed{\xi(\mathbf x)=0}

Ce cas est un peu plus compliqué que les deux précédents. Il va se subdiviser en deux sous-cas.

  • \boxed{p\geqslant q}
    Nous choisissons dans ce cas \mathbf f de manière telle que \mathbf x=\mathbf f_1 et \xi=\varphi^n. Il suffit pour cela de prendre une base (\mathbf x=\mathbf f_1,\ldots,\mathbf f_{n-1}) de \ker \xi et un élément \mathbf f_n de E tel que \xi(\mathbf f_n)=1 (il en existe puisque \xi n’est pas nul).

    Les conditions imposées à S sont alors(***)

    \begin{cases}(A\tilde{C}-B\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=\overrightarrow{\mathbf e}^{(p)}_1\\(C\tilde{C}-D\tilde{D})\overrightarrow{\mathbf e}^{(q)}_q=0\end{cases}

    On voit facilement que le choix suivant fournit une matrice non singulière S vérifiant ces conditions : A=I_p, D=I_q, B=0, et

    C=\begin{pmatrix}0&I_{q-1}&0\\1&0&0\end{pmatrix}

    (On notera, concernant C qui doit comporter p colonnes, que ce choix est possible vu que p\geqslant q.)

  • \boxed{p<q}
    Ici, d'une certaine façon, on échange les rôles tenus dans le cas précédent par les indices 1 et n et les matrices B et C. En détails, on choisit cette fois \mathbf f pour que \mathbf x=\mathbf f_n et \xi=\varphi^1 ce qui impose à S de vérifier les relations

    \begin{cases}(A\tilde{A}-B\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=0\\(C\tilde{A}-D\tilde{B})\overrightarrow{\mathbf e}^{(p)}_1=\overrightarrow{\mathbf e}^{(q)}_q\end{cases}

    Pour que ce soit le cas, il suffit de prendre A=I_p et D=I_q puis C=0 et

    B=\begin{pmatrix}0&0&1\\0&I_{p-1}&0\end{pmatrix}

Vu sa taille, cet article n’est pas vraiment « une brève » mais je lui ai conservé cette dénomination en raison de sa parenté avec les deux articles mentionnés en début de texte.

Je suis d’ailleurs un peu surpris par la difficulté technique de la preuve ci-dessus. Peut-être existe-t-il une approche plus conceptuelle et concise. J’y réfléchirai et reste ouvert à toute suggestion.

😉

––––––––––
(*) Les n-upples tels que u, \mu, sont tantôt horizontaux (dans le corps du texte, généralement) tantôt verticaux, dans des égalités matricielles le plus souvent. Je ne préciserai pas les choses à chaque occasion, espérant que le contexte lève toute ambiguïté.

(**) Pour que les choses soient bien claires, je précise que la matrice S est celle pour laquelle

\forall l\in\{1,\ldots,n\},\quad \mathbf e_l=\sum\limits_{k=1}^nS_l^k\mathbf f_k

De plus, on notera si nécessaire u et \mu (respectivement v et \nu) les vecteurs des composantes de \mathbf x et \xi dans la base \mathbf e (respectivement \mathbf f) et sa base duale.

(***) Je désigne par \overrightarrow{\mathbf e}^{(k)}_l l’élément de \mathbf R^k dont la seule composante non nulle vaut 1 et occupe la place l.