Où sont les orthocentres d’un triangle?

Considérons un plan affine \mathscr E dirigé par le plan vectoriel E et un triangle \Delta de \mathscr E.

Le choix d’un produit scalaire g sur E dote le triangle \Delta d’attributs métriques. De façon non exhaustive : des bissectrices, des hauteurs, des cercles circonscrit, inscrit et exinscrits, des longueurs pour ses côtés, des mesures pour ses angles, etc.

Dans ce billet, on se propose de déterminer le lieu de l’orthocentre de \Delta obtenu en laissant g décrire l’ensemble des produits scalaires de E(*).

Un énoncé

Nous allons montrer que ce lieu, dont voici un aperçu :

lieu

est constitué de trois parties.

  • L’ensemble des trois sommets du triangle
  • Ce sont naturellement les points du lieu correspondant aux produits scalaires pour lesquels \Delta est un triangle rectangle. Ils sont les seuls points du lieu appartenant aux côtés du triangle.

  • L’intérieur du triangle
  • Cette partie est le lieu de l’orthocentre de \Delta correspondant aux produits scalaires pour lesquels il est acutangle.

  • L’union des intérieurs des trois angles opposés par le sommet aux angles du triangle
  • C’est le lieu de l’orthocentre de \Delta correspondant aux produits scalaires pour lesquels il a un angle obtus (et qui est alors l’angle opposé à celui dans lequel se trouve l’orthocentre).

Pour formuler cette description de façon analytique, nous allons utiliser des coordonnées barycentriques relatives à \Delta. Choisissons, arbitrairement, un ordre pour ses sommets que nous nommerons A, B et C. Tout point P du plan \mathscr E s’écrit alors de façon unique sous la forme d’une combinaison affine

P=uA+vB+wC

(pour rappel, la somme des nombres u,v,w vaut 1). Les nombres u,v,w sont les coordonnées barycentriques de P par rapport au triangle ABC.

Naturellement, les coordonnées barycentriques de A,B,C sont, dans l’ordre (1,0,0),(0,1,0),(0,0,1) et les côtés du triangle ont pour équations u=0 pour BC, etc.

La figure suivante donne les signes des coordonnées barycentriques de P en fonction de sa position dans le complémentaire des côtés du triangle. Par exemple, « -++ » indique que dans la région concernée, u est négatif et v,w sont positifs.

signes

Nous pouvons donc énoncer :

(1) Il existe un produit scalaire de E pour lequel un point de \mathscr E est un orthocentre du triangle \Delta si, et seulement si, soit ce point est un sommet du triangle soit le produit de ses coordonnées barycentriques par rapport à ce triangle (pour un ordre arbitraire des sommets de celui-ci) est strictement positif.

et une de ses preuves

\boxed{1} Notons g un produit scalaire de E et

\begin{pmatrix}p&r\\r&q\end{pmatrix}

la matrice symétrique définie positive qui le représente dans la base (\overrightarrow{AB},\overrightarrow{AC}) de E.

Cela signifie que si (a,b) et (c,d) sont respectivement les composantes de \mathbf u et \mathbf v dans la base en question, alors

(2) g(\mathbf u,\mathbf v)=\begin{pmatrix}a&b\end{pmatrix}\begin{pmatrix}p&r\\r&q\end{pmatrix}\begin{pmatrix}c\\d\end{pmatrix}

D’autre part, pour qu’une matrice de la forme ci-dessus soit définie positive, il est nécessaire et suffisant que p,pq-r^2>0.

Ceci étant rappelé, avec les notations que nous venons d’introduire,

Les coordonnées barycentriques de l’orthocentre du triangle ABC dans l’espace euclidien (\mathscr E,g) sont

(3) \left(\dfrac{(p-r)(q-r)}{pq-r^2},\dfrac{r(q-r)}{pq-r^2},\dfrac{r(p-r)}{pq-r^2}\right)

En effet, la somme des nombres \frac{(p-r)(q-r)}{pq-r^2},\frac{r(q-r)}{pq-r^2},\frac{r(p-r)}{pq-r^2} vaut 1. Ils sont donc les coordonnées barycentriques d’un point de E par rapport à ABC. C’est le point H de coordonnées

\left(\dfrac{r(q-r)}{pq-r^2},\dfrac{r(p-r)}{pq-r^2}\right)

dans le repère (A,(\overrightarrow{AB},\overrightarrow{AC})) de \mathscr E. A l’aide de la formule (2), il est alors immédiat de vérifier que

\overrightarrow{BH}\perp\overrightarrow{AC}\quad \& \quad \overrightarrow{CH}\perp\overrightarrow{AB}

Ainsi, H est l’orthocentre du triangle ABC pour le produit scalaire g.

\boxed{2\ \mathrm a)} Soient un produit scalaire g de E et H l’orthocentre qu’il donne au triangle ABC. D’après \boxed{1} dont nous conservons les notations, les coordonnées barycentriques de H sont données par (3). Visiblement, leur produit est positif ou nul. Il est nul si, et seulement si, r=0 ou q=r ou p=r c’est à dire lorsque H est un des sommets du triangle. Ainsi, soit H est un sommet de \Delta soit le produit de ses coordonnées barycentriques par rapport à ABC est strictement positif.

\boxed{2\ \mathrm b)} Il est clair que les sommets de \Delta sont des orthocentres potentiels. De toutes façons, il est immédiat de trouver pour chaque sommet des produits scalaires pour lesquels le triangle est rectangle en celui-ci. Par exemple, avec les notations de \boxed{1}, le triangle est rectangle en A,B ou C selon que g est le produit scalaire pour lequel (p,q,r)=(1,1,0), (p,q,r)=(1,2,1) ou (p,q,r)=(2,1,1). Soit alors un point H de E dont le produit des coordonnées barycentriques (u,v,w) par rapport à A,B,C est strictement positif. Nous allons voir qu’il existe des nombres p,q,r vérifiant p,pq-r^2>0 et tels que

u=\dfrac{(p-r)(q-r)}{pq-r^2}, v=\dfrac{r(q-r)}{pq-r^2}, w=\dfrac{r(p-r)}{pq-r^2}

et donc que H est un orthocentre de \Delta.

Les relations ci-dessus impliquent en effet que

p=(1+\frac{u}{v})r, \ q=(1+\frac{u}{w})r

Les coordonnées (u,v,w) étant homogènes de poids nul en p,q et r, ces derniers ne sont définis qu’à un multiple près (conformément au fait que les coordonnées barycentriques de l’orthocentre sont invariantes par similitude). Les valeurs de p et q ci-dessus conviennent donc à condition de pouvoir choisir r pour que p,q,r vérifient les inégalités p>0 et pq-r^2>0. La condition p>0 détermine le signe de r, qui ne peut être nul(**). D’autre part, avec les valeurs de p et de q ci-dessus, on a

pq-r^2=\frac{u}{vw}r^2>0

L’énoncé (1) est ainsi démontré.

__________
(*) Ce qui suit est fortement inspiré du huitième chapitre de mon livre Le mathématicien et ses esclaves publié en 2009 aux Presses Universitaires Liégeoises dans la collection Si les mathématiques m’étaient contées.
(**) Le nombre 1+\frac uv n’est pas nuls car uvw>0. De fait, si 1+\frac uv est nul alors u+v=0, ce qui implique w=1 et, donc, uvw\leqslant 0.

Une petite formule et les éléments de Frenet d’une courbe régulière

Une petite formule

Voici d’abord la « petite formule ». J’expliquerai plus loin à quoi elle va nous servir.

Nous considérons une fonction f de classe C^1 d’un intervalle ouvert I\subset\mathbf R dans \mathbf R^3 ne s’annulant nulle part. Alors

\boxed{\left(\frac{f}{\|f\|}\right)'=\frac{(f\wedge f')\wedge f}{\|f\|^3}}

et, en conséquence,

\boxed{\left\|\left(\frac{f}{\|f\|}\right)'\right\|=\frac{\|f\wedge f'\|}{\|f\|^2}}

On désigne ici par \wedge le produit vectoriel associé au produit scalaire et à l’orientation canoniques de \mathbf R^3.

Comme f\wedge f' et f sont orthogonaux, on a \|(f\wedge f')\wedge f\|=\|f\wedge f'\|\|f\| et on obtient alors immédiatement la seconde formule en prenant les normes des deux membres de la première.

Celle-ci s’obtient en appliquant la formule standard donnant la dérivée d’un quotient puis en développant un peu le résultat. En détails, le point centré \cdot représentant le produit scalaire,

\begin{array}{rcl}\left(\frac{f}{\|f\|}\right)'&=&\frac 1{\|f\|^2}(\|f\|f'-\|f\|'f)\\[2ex]&=&\frac 1{\|f\|^2}\left(\|f\|f'-\frac{f\cdot f'}{\|f\|}f\right)\\[2ex]&=&\frac 1{\|f\|^3}(\|f\|^2f'-(f\cdot f')f)\\[2ex]&=&\frac1{\|f\|^3}(f\wedge f')\wedge f\end{array}

La dernière égalité s’obtient en appliquant la formule du double produit vectoriel tandis que, pour la seconde, on a utilisé la formule

\|f\|'=\cfrac{f\cdot f'}{\|f\|}

que l’on obtient aisément en dérivant les deux membres de \|f\|^2=f\cdot f.

Où allons-nous et pourquoi?

Une des difficultés techniques récurrentes que l’on rencontre lorsqu’on enseigne la théorie élémentaire des courbes de \mathbf R^3 est d’établir les formules donnant le trièdre de Frenet, la courbure et la torsion d’une courbe lorsqu’elle est décrite au moyen d’un paramétrage quelconque et non à l’aide d’une abscisse curviligne.

J’ai emprunté à John Roe(*) ce qu’il appelle lui-même un truc permettant d’obtenir relativement rapidement les formules donnant ces grandeurs mais il s’est avéré à l’usage qu’il était assez difficile à utiliser pédagogiquement : passablement artificiel, il me fallait régulièrement le réétudier avant d’aller donner cours et, visiblement, les étudiants ne l’appréciaient pas trop ayant eux mêmes des difficultés à le mémoriser efficacement.

Récemment, je me suis penché à nouveau sur la question et je suis parvenu à obtenir une méthode directe, facile à mettre en œuvre, aisée à mémoriser et suffisamment naturelle pour ne pas rebuter les étudiants lesquels, tout comme moi-même, n’aiment pas trop les deus ex machina. Pour surprenant que cela puisse paraitre, c’est la première formule prouvée plus haut qui, d’une certaine façon, est la clé de la simplicité de ces calculs. Elle et son corollaire interviennent à plusieurs reprises et l’avoir préalablement établie allège sensiblement la présentation de ceux-ci.

Je vais vous montrer comment cela fonctionne après avoir rappelé un minimum de choses à propos du trièdre de Frenet, de la courbure et de la torsion.

Rappels

a) Pour une courbe(**) (J,\eta) de \mathbf R^3 rapportée à une abscisse curviligne, les équations de Frenet s’écrivent

\begin{cases}\mathbf t'=\kappa\mathbf n\\ \mathbf n'=-\kappa\mathbf t+\tau\mathbf b\\\mathbf b'=-\tau\mathbf n\end{cases}

\mathbf t, \mathbf n et \mathbf b sont la tangente unitaire, la normale principale et la binormale de la courbe. Les fonctions \kappa et \tau sont la courbure, supposée sans zéros, et la torsion de cette courbe; la base orthonormée positive (\mathbf t,\mathbf n,\mathbf b) de \mathbf R^3 est communément appelée trièdre de Frenet de \eta (au point de J où toutes ces fonctions sont évaluées).

En fait, \mathbf t=\eta' et la première équation de Frenet condense, en quelque sorte, les définitions de \kappa=\|\mathbf t'\| et de \mathbf n=\mathbf t'/\|\mathbf t'\|. La binormale est alors simplement le produit vectoriel \mathbf t\wedge \mathbf n.

Le fait que l’argument de \eta soit une abscisse curviligne rend particulièrement simples et naturelles les définitions de son trièdre de Frenet, de sa courbure et de sa torsion. Pour une courbe dont l’argument n’est pas de la même nature, les définitions de ces éléments sont un peu plus compliquées. Nous allons voir de quoi il retourne au paragraphe suivant.

b) Une courbe (I,\gamma) régulière, c’est-à-dire dont le vecteur tangent n’a pas de zéros, est équivalente à un paramétrage rapporté à une abscisse curviligne (J,\eta) de même orientation : il existe un changement de paramètre u: I\to J tel que \gamma=\eta\circ u.

Alors, par définition, les tangente unitaire, normale principale etc. de \gamma sont celles de \eta calculées en u. Par exemple(***), la courbure \kappa_\gamma de \gamma est \kappa_\eta\circ u. Semblablement, \mathbf t_\gamma=\mathbf t_\eta\circ u, etc.

Naturellement, il faut vérifier que ces notions sont indépendantes du paramétrage naturel (J,\eta) auxiliaire choisi pour les introduire. En fait, cela résulte de ce qu’elles s’expriment toutes par des formules utilisant exclusivement \gamma et ses dérivées.

C’est précisément à l’obtention de ces formules qu’est consacré le reste de ce billet.

La tangente unitaire

En dérivant la relation \gamma=\eta\circ u à l’aide du théorème de dérivation des fonctions composées, il vient \gamma'=u'\ \eta'\circ u=u'\mathbf t_\gamma. Puisque les deux courbes ont la même orientation, \gamma' et \eta'\circ u ont même sens. Ainsi u' est strictement positif et, compte tenu de ce que \eta'\circ u est normé, il vient u'=\|\gamma'\|. De là

\boxed{\mathbf t_\gamma=\cfrac{\gamma'}{\|\gamma'\|}}

La courbure et la normale principale

En dérivant l’égalité \mathbf t_\gamma=\mathbf t_\eta\circ u, on obtient \mathbf t_\gamma'=\|\gamma'\|\mathbf t_\eta'\circ u puis

\|\mathbf t_\gamma'\|=\|\|\gamma'\|\mathbf t_\eta'\circ u\|=\|\gamma'\|\kappa_\eta\circ u=\|\gamma'\|\kappa_\gamma

De là, en appliquant la conséquence de la « petite formule »,

\boxed{\kappa_\gamma=\cfrac{\|\gamma'\wedge\gamma''\|}{\|\gamma'\|^3}}

Pour aller plus loin, nous devons supposer que la courbure de \eta, et donc celle de \gamma, soit sans zéros. C’est en effet à cette condition que le trièdre de Frenet et la torsion existent. Pour le reste de ce billet, nous supposons donc que les deux vecteurs \gamma' et \gamma'' sont partout linéairement indépendants.

Dans ces conditions, d’après la première équation de Frenet et les définitions données plus haut,

\mathbf t_\gamma'=\|\gamma'\|\mathbf t_\eta'\circ u=\|\gamma'\|\kappa_\gamma\mathbf n_\gamma

Ainsi, vu la « petite formule » et l’expression de \kappa_\gamma que nous venons de trouver,

\boxed{n_\gamma=\cfrac{(\gamma'\wedge\gamma'')\wedge\gamma'}{\|\gamma'\wedge\gamma''\|\|\gamma'\|}}

La binormale et la torsion

Vu les définitions,

\mathbf b_\gamma=\mathbf b_\eta\circ u=(\mathbf t_\eta\circ u)\wedge(\mathbf n_\eta\circ u)=\mathbf t_\gamma\wedge\mathbf n_\gamma

Avec les formules déjà obtenues et la formule du double produit vectoriel(****), il vient

\mathbf t_\gamma\wedge\mathbf n_\gamma=\cfrac{\gamma'\wedge((\gamma'\wedge\gamma'')\wedge\gamma')}{\|\gamma'\wedge\gamma''\|\|\gamma'\|^2}=\cfrac{\|\gamma'\|^2\gamma'\wedge\gamma''-(\gamma'\cdot(\gamma'\wedge\gamma''))\gamma'}{\|\gamma'\wedge\gamma''\|\|\gamma'\|^2}

Dès lors, puisque \gamma'\cdot(\gamma'\wedge\gamma'') est nul,

\boxed{\mathbf b_\gamma=\cfrac{\gamma'\wedge\gamma''}{\|\gamma'\wedge\gamma''\|}}

Pour calculer la torsion de \gamma, nous allons dériver \mathbf b_\gamma et nous utiliserons la troisième équation de Frenet. On a

\mathbf b_\gamma'=(\mathbf b_\eta\circ u)'=\|\gamma'\|\mathbf b_\eta'\circ u=-\|\gamma'\|\tau_\gamma\mathbf n_\gamma

D’après la « petite formule » appliquée à f=\gamma'\wedge\gamma'', dont la dérivée est \gamma'\wedge\gamma''',

\begin{array}{rcl}\mathbf b_\gamma'&=&\cfrac{((\gamma'\wedge\gamma'')\wedge(\gamma'\wedge\gamma'''))\wedge(\gamma'\wedge\gamma'')}{\|\gamma'\wedge\gamma''\|^3}\\[2ex]&=&\cfrac{[\gamma',\gamma'',\gamma''']}{\|\gamma'\wedge\gamma''\|^3}\ \gamma'\wedge(\gamma'\wedge\gamma'')\end{array}

[-,-,-] désigne le produit mixte (-\wedge -)\cdot - de \mathbf R^3. Pour obtenir la seconde égalité, on a appliqué la formule du double produit vectoriel à (\gamma'\wedge\gamma'')\wedge(\gamma'\wedge\gamma''') vu comme produit des trois facteurs \gamma'\wedge\gamma'',\gamma' et \gamma''' et, comme plus haut, on a tenu compte de ce que \gamma'\cdot(\gamma'\wedge\gamma'') est nul.

Il résulte alors immédiatement de la formule obtenue ci-dessus pour \mathbf n_\gamma que

\boxed{\tau_\gamma=\cfrac{[\gamma',\gamma'',\gamma''']}{\|\gamma'\wedge\gamma''\|^2}}

__________
(*) John Roe : Elementary Geometry, Oxford University Press, 1993 — un magnifique livre!
(**) Suivant en cela C. G. Gibson : Elementary Geometry of Differentiable Curves, Cambridge University Press, 2001 (également un très beau livre), j’appelle courbe ou paramétrage (de \mathbf R^3 pour ce qui nous concerne ici) une application différentiable \eta : J\to \mathbf R^3, où J est un intervalle ouvert de \mathbf R. Il ne s’agit donc pas d’un ensemble de points; l’ensemble de point auquel on se serait peut-être attendu est l’image \eta(J) de \eta. Il est appelé trace de \eta par Gibson. Géométriquement, c’est cette trace qui est significative, aussi introduit-on la notion d’équivalence de paramétrages : deux paramétrages de même trace (J,\eta) et (I,\gamma) sont dits équivalents s’il existe un changement de variable régulier u: I\to J tel que \gamma=\eta\circ u.
(***) Pour préciser de quelle courbe on calcule la grandeur X, on indice si nécessaire celle-ci par le nom de la courbe : X_\gamma, X_\eta etc.
(****) Les trois facteurs sont \gamma',\gamma'\wedge\gamma'' et \gamma'.

Une remarque à propos de certaines séries de puissances III

Le but de ce billet est de calculer les séries

\displaystyle \mathscr S_r=\sum_{k=0}^\infty k^rx^k, r\in\mathbf N

J’en ai parlé ici où j’ai par ailleurs introduit les polynômes \xi_r\in\mathbf K[t], \mathbf K\in\{\mathbf R,\mathbf C\}, dont j’ai présenté quelques propriétés ici.

Ceux-ci sont tels que \mathscr S_r=\xi_r\left(\frac 1{1-x}\right) et sont univoquement déterminés par le fait qu’ils vérifient

(1) \forall r\in\mathbf N,\quad \xi_{r+1}=t(t-1)\xi'_r

et par la condition initiale \xi_0=t. Chaque \xi_r est de degré r+1 et s’annule en 0.

La série génératrice des \xi_r

Il s’agit, par définition, de la série \displaystyle \xi_\lambda=\sum_{r=0}^\infty\xi_r\lambda^r.

Cette série vérifie une certaine équation différentielle et, grâce à celle-ci, nous allons pouvoir la calculer.

En effet, multipliant les deux membres de (1) par \lambda^{r+1} puis en sommant sur r, il vient facilement

\lambda t(t-1)\xi'_\lambda-\xi_\lambda+t=0,\quad \xi_\lambda(0)=0

Nous chercherons \xi_\lambda sous la forme \displaystyle\xi_\lambda=\sum_{k=1}^\infty u_kt^k ce qui, injecté dans l’équation différentielle, donne l’équation

\displaystyle \lambda\sum_{k=2}^\infty(k-1)u_{k-1}t^k-\sum_{k=1}^\infty(\lambda k+1)u^kt^k+t=0

Formellement(*), ceci équivaut au système

\begin{cases}\forall k>1,\quad \lambda(k-1)u_{k-1}-(\lambda k+1)u_k=0\\[2ex](\lambda +1)u_1=1\end{cases}

ce dont on déduit aisément que

\displaystyle \forall k>0,\quad u_k=(k-1)!\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}

Ainsi que nous l’avions fait dans le premier billet mentionné au début, posons \xi_r(t)=\sum_{i=1}^{r+1}a_{r,i}t^i. Nous venons de démontrer que

\displaystyle\boxed{\forall k>0, \quad\sum_{r=k-1}^\infty a_{r,k}\lambda^r=(k-1)!\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}}

Une formule pour \ a_{r,k}

En développant en fractions simples le membre de gauche de l’égalité encadrée, nous allons calculer les coefficients a_{r,k}.

Nous cherchons les éléments v_i de \mathbf K tels que

\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}=\dfrac{v_1}{\lambda+1}+\dfrac{v_2}{2\lambda+1}+\cdots+\dfrac{v_k}{k\lambda+1}

C’est facile : comme les zéros du dénominateur de la fraction à décomposer sont simples, il suffit, après avoir chassé les dénominateurs dans cette égalité, d’évaluer les deux membres de l’égalité obtenue en chacun de leurs zéros. On trouve

\displaystyle\forall i\in\{1,\ldots,k\},\quad v_i=\dfrac{(-1)^{i+1}}{(i-1)!(k-i)!}

Cela étant, en utilisant la série géométrique \sum_{r=0}^\infty\lambda^r=\frac{1}{1-\lambda}, il vient

\displaystyle\dfrac{v_1}{\lambda+1}+\dfrac{v_2}{2\lambda+1}+\cdots+\dfrac{v_k}{k\lambda+1}=\sum_{r=0}^\infty\left(\sum_{i=1}^kv_i(-i)^r\right)\lambda^r

Dès lors

\displaystyle \boxed{a_{r,k}=(-1)^r\sum_{i=0}^{k-1}{k-1 \choose i}(-1)^i(i+1)^r}

et, donc,

\displaystyle \boxed{\mathscr S_r(x)=\sum_{k=0}^\infty k^rx^k=\sum_{i=1}^{r+1}\left((-1)^r\sum_{j=0}^{i-1}{i-1 \choose j}(-1)^j(j+1)^r\right)\frac 1{(1-x)^i}}

Deux formules remarquables

Dans le premier article cité plus haut, nous avions obtenu ceci :

\displaystyle a_{r,1}=(-1)^r,\quad a_{r,2}=(-1)^{r+1}2^r+(-1)^r, \quad a_{r,r}=-\frac 12(r+1)!, \quad a_{r,r+1}=r!

La seconde formule encadrée redonne facilement les deux premières égalités. Par contre, il n’est pas immédiat qu’elle redonne les deux dernières. En comparant celles-ci avec les expressions qu’elle donne de a_{r,r} et de a_{r,r+1}, nous obtenons deux égalités remarquables :

\displaystyle (-1)^r\sum_{i=1}^r\dfrac{(-1)^ii^r}{(i-1)!(r-i)!}=\dfrac{r(r+1)}2\   \& \   (-1)^{r+1}\sum_{i=1}^{r+1}\frac{(-1)^ii^r}{(i-1)!(r+1-i)!}=1

Les nombres

\displaystyle \sum_{i=1}^k\frac{(-1)^{k-i}i^r}{(i-1)!(k-i)!}

semblent avoir de belles propriétés. Pour l’instant je ne sais rien dire de plus à leur propos. Peut-être une autre fois…

😉

__________
(*) Les calculs sont menés dans le cadre des séries formelles. Leur éventuelle convergence ne sera pas étudiée ici.

Une remarque à propos de certaines séries de puissances II

Nous avons vu dans l’article Une remarque à propos de certaines séries de puissances I que, pour chaque r\in\mathbf N, il existe un seul polynôme \xi_r\in\mathbf K[t] nul en zéro, de degré r+1 et tel que(*)

\displaystyle \sum_{k=0}^\infty k^rx^k=\xi_r\left(\frac 1{1-x}\right)

La suite r\mapsto \xi_r est déterminée univoquement par la relation de récurrence

(1) \forall r\in\mathbf N,\quad \xi_{r+1}=t(t-1)\xi'_r,

assortie de la condition initiale \xi_0=t.

Voici l’allure des graphes de \xi_i, i\in\{1,2,3,4,5,6\}. Ceux de \xi_1,\xi_3,\xi_5 sont représentés dans des tons « rouges » dont l’intensité augmente avec l’indice (\xi_1 est en rose pale et \xi_5 presque en brun). Les graphes de \xi_2,\xi_4,\xi_6 sont dans les tons « bleus », avec la même convention sur l’intensité.

series

Nous allons faire quelques observations à propos des zéros des polynômes \xi_r. Comme on le verra, elles sont très bien illustrées par l’image ci-dessus.

\boxed{A}

Les zéros du polynôme \xi_r sont tous réels et simples; ils appartiennent à [0,1].

— Le seul zéro de \xi_0 est 0 et, pour r>0, 0 est le plus petit zéro de \xi_r et 1 le plus grand.

— Si \alpha_{r,0}=0<\alpha_{r,1}<\cdots<\alpha_{r,r}=1 sont les zéros de \xi_r, alors \forall i\in\{1,\ldots,r\},\quad \alpha_{r,i-1}<\alpha_{r+1,i}<\alpha_{r,i}.

Nous allons établir ces propriétés par récurrence sur r\geqslant 1 (je mets de côté \xi_0. Les affirmations qui le concernent sont triviales).

Pour rappel, \xi_1=t(t-1) et le cas de base est donc réglé.
Supposons alors que les zéros de \xi_r soient comme dans l'énoncé. Alors, d'après le théorème de Rolle, \xi'_r s'annule dans chaque intervalle ]\alpha_{r,i},\alpha_{r,i+1}[, i\in\{0,\ldots, r-1\}. Dès lors, vu (1), \xi_{r+1} s'annule une fois dans chacun de ces intervalles. Comme il s'annule aussi en 0 et 1, il possède r+2 zéros lesquels sont séparés par les \alpha_{r,i}, 0<i<r.

La propriété est donc établie.

\boxed{B}

Pour r>0, les polynômes \xi_{2r} sont tous annulés par \frac 12 et le point (\frac 12,0) est un centre de symétrie de leurs graphes.

— La droite d’équation x=\frac 12 est un axe de symétrie des graphes des polynômes \xi_{2r+1}.

Ces propriétés résultent immédiatement du fait que la parité des polynômes \eta_r\in\mathbf K[s] définis par \eta_r(s)=\xi_r(s+\frac 12) est l’opposée de celle de r. Pour vérifier ceci, observons que, vu (1), les polynômes \eta_r vérifient la relation

\forall r\in\mathbf N,\quad \eta_{r+1}=\left(s^2-\frac 14\right)\eta'_r

Si on se souvient de ce qu’un polynôme f nul en 0 est pair ou impair selon que sa dérivée est respectivement impaire ou paire, alors la propriété immédiatement résulte d’une simple récurrence sur r.

Voilà, c’est tout pour ce billet.

😉

P.S. Les polynômes \xi_r sont calculés ici. P.L. 3/12/2017
__________
(*) Nous prenons \mathbf K\in\{\mathbf R,\mathbf C\}. Les séries de puissances que nous considérons ont toujours un rayon de convergence strictement positif.

Une remarque à propos de certaines séries de puissances I

On rencontre assez régulièrement le problème de calculer des séries de la forme

\displaystyle \mathscr S_P(x)=\sum_{k=0}^\infty P(k)x^k

P\in\mathbf K[t] est un polynôme à coefficients dans \mathbf K\in\{\mathbf R,\mathbf C\}.

Cette famille de séries inclut la célèbre série géométrique \sum_{k=0}^\infty x^k=\frac 1{1-x} et nous allons montrer que

(1) Pour tout polynôme P de degré n\in\mathbf N, il existe un seul polynôme Q de degré n+1 s’annulant en 0 et tel que \displaystyle \mathscr S_P(x)=Q\left(\frac 1{1-x}\right).

L’unicité de Q est évidente et nous n’y reviendrons pas. Pour le reste, la propriété (1) va résulter de quelques faits simples que nous allons passer en revue.

Une formule pour les puissances de la série géométrique

Il s’agit de la formule

\displaystyle \forall n\in\mathbf N,\quad\sum_{k=0}^\infty{n+k\choose n}x^k=\frac{1}{(1-x)^{n+1}}

Elle résulte immédiatement des deux suivantes

\displaystyle \frac{d^n}{dx^n}\frac 1{1-x}=\frac{n!}{(1-x)^{n+1}}\quad \& \quad\frac{d^n}{dx^n}\frac 1{1-x}=\sum_{k=0}^\infty\frac{(n+k)!}{k!}x^k

qui sont très faciles à démontrer par récurrence sur n (je ne vais pas détailler ces vérifications).

Une base de l’espace des polynômes

Les polynômes e_n\in\mathbf K[t], n\in \mathbf N, définis par e_0(t)=1 et, pour n>0, par e_n=\frac 1{n!}(t+n)(t+n-1)\cdots(t+1) forment une base de \mathbf K[t].

En effet, e_n(t)-\frac{t^n}{n!} est une somme de termes de degrés strictement plus petits que n. Ainsi, la matrice qui exprime les polynômes e_n dans la base canonique 1, t, t^2, \ldots, t^n,\ldots est triangulaire inférieure et sa diagonale est \mathrm{diag}(\frac 1{0!},\frac 1{1!}, \ldots, \frac 1{n!}, \ldots). Elle est donc inversible.

Preuve de la propriété (1)

Soient un polynôme P\in\mathbf K[t] de degré n et \sum_{i=0}^np_ie_i sa décomposition selon la base (e_0,e_1,\ldots, e_n,\ldots). On a

\displaystyle \mathscr S_P(x)=\sum_{i=0}^np_i\sum_{k=0}^\infty e_i(k)x^k=\sum_{i=0}^np_i\sum_{k=0}^\infty{i+k\choose i}x^k=\sum_{i=1}^{n+1}\frac{p_{i-1}}{(1-x)^i}

car pour tous n,k\in \mathbf N, e_n(k)={n+k\choose n}. D’où la propriété.

Les séries \mathscr S_r

Lorsque P(t)=t^r, je note \mathscr S_r la série \mathscr S_P. Je note aussi \xi_r l’unique polynôme prévu par la propriété (1), c’est-à-dire le polynôme de degré r+1 qui s’annule en 0 et qui est tel que

(2) \displaystyle \mathscr S_r(x)=\sum_{k=0}^\infty k^rx^k=\xi_r\left(\frac 1{1-x}\right)

Les polynômes \xi_r vérifient une relation de récurrence qui permet de calculer les premiers facilement « à la main » et, de toute façon, d’en programmer le calcul à l’aide d’un logiciel de calcul formel(*).

Les polynômes \xi_r sont univoquement déterminés par les conditions \xi_0(t)=t et

(3) \forall r\in\mathbf N,\quad \xi_{r+1}(t)=t(t-1)\xi'_r(t)

Pour obtenir cette relation, dérivons les membres extrêmes de (2) par rapport à x. On a

\displaystyle \mathscr S'_r(x)=\sum_{k=1}^\infty k^{r+1}x^{k-1}=\frac 1x\sum_{k=1}^\infty k^{r+1}x^k=\frac 1x\mathscr S_{r+1}(x)

et

\displaystyle \left[\xi_r\left(\frac 1{1-x}\right)\right]'=\frac 1{(1-x)^2}\xi'_r\left(\frac 1{1-x}\right)

de sorte que

\displaystyle \frac 1x\xi_{r+1}\left(\frac 1{1-x}\right)=\frac 1{(1-x)^2}\xi'_r\left(\frac 1{1-x}\right)

On obtient alors (3) en effectuant le changement de variable t=\frac 1{1-x} dans cette dernière relation.

La relation (3) ( et la condition initiale) nous donne aisément le tableau des premiers \xi_r :

\displaystyle \begin{array}{c|l}\xi_0&t\\\hline\xi_1&t^2-t\\\hline\xi_2&2t^3-3t^2+t\\\hline\xi_3&6t^4-12t^3+7t^2-t\end{array}

D’où les premières séries \mathscr S_r :

\displaystyle \begin{array}{lcl}\displaystyle{\sum_{k=0}^\infty x^k}&=&\displaystyle{\frac 1{1-x}}\\[2ex]\displaystyle{\sum_{k=0}^\infty kx^k}&=&\displaystyle{-\frac 1{1-x}+\frac 1{(1-x)^2}}\\[2ex]\displaystyle{\sum_{k=0}^\infty k^2x^k}&=&\displaystyle{\frac 1{1-x}-\frac 3{(1-x)^2}+\frac 2{(1-x)^3}}\\[2ex]\displaystyle{\sum_{k=0}^\infty k^3x^k}&=&\displaystyle{-\frac 1{1-x}+\frac 7{(1-x)^2}-\frac {12}{(1-x)^3}+\frac 6{(1-x)^4}}\end{array}

Quelques coefficients des polynômes \xi_r

Voici quelques coefficients des polynômes \xi_r. Pour l’instant, je ne les connais pas tous(**).

Ecrivons \xi_r(t)=\sum_{i=1}^{r+1}a_{r,i}t^i. Alors

(4) \displaystyle a_{r,1}=(-1)^r,\quad a_{r,2}=(-1)^{r+1}2^r+(-1)^r, \quad a_{r,r}=-\frac 12(r+1)!, \quad a_{r,r+1}=r!

La dérivée n-ième des deux membres de (3) en t=0 nous donne la relation

(5) \xi_{r+1}^{(n)}(0)=-n\xi_r^{(n)}(0)+n(n-1)\xi_r^{(n-1)}(0)

D’un autre côté, \xi_r^{(n)}(0) vaut n!a_{r,n} si 1\leqslant n\leqslant r+1 et est nul pour les autres valeurs de n\in \mathbf N.

En faisant n=1 et n=r+2 dans (5), on obtient facilement les valeurs de a_{r,1} et a_{r,r+1}. Ensuite, avec n=r+1, on voit que r\mapsto a_{r,r} est solution de l’équation de récurrence x_{r+1}=rx_r-(r+1)!,x_1=-1, dont -\frac 12(r+1)! est visiblement la solution. Enfin, avec n=2, on voit que a_{r,2} est solution de l’équation x_{r+1}=-2x_r+(-1)^r, x_1=1, dont (-1)^{r+1}2^r+(-1)^r est la solution, comme on le voit aisément.

P.S. Je pense avoir trouvé une expression explicite des \xi_r et donc des séries \mathscr S_r. Cela sera exposé dans un billet à venir. P.L. 2/12/2017

P.S. Voilà, on trouvera ces expressions ici. P.L. 3/12/2017

__________
(*) Pour alléger l’écriture, je noterai désormais f', f'', f''', \ldots, f^{(n)},\ldots les dérivées successives d’une fonction, d’un polynôme ou d’une série (dérivée terme à terme) f.
(**) Je présente dans ce billet, quelques belles propriétés de ces polynômes.

Sur les équations de récurrence linéaires à coefficients constants et homogènes II

Voici la suite de ce billet. Nous conservons ses notations.

Nous commencerons par vérifier que les suites u^{(i,r)}:k\mapsto k^r\alpha_i^k,\quad i\in\{1,\ldots,p\}, \quad 0\leqslant r<m_i, sont des solutions de l'équation

\forall k\in \mathbf N,\quad a_0x_{k+n}+a_1x_{k+n-1}+\cdots+a_{n-1}x_{k+1}+a_nx_k=0

Les nombres \alpha_1,\ldots,\alpha_p sont les zéros distincts de son polynôme caractéristique

\chi(t)=a_0t^n+a_1t^{n-1}+\cdots +a_{n-1}t+a_n

et m_1,\ldots,m_p sont leurs multiplicités respectives. Pour rappel, on suppose que a_0,a_n\neq 0.

Nous allons utiliser l’application linéaire T:\mathbf C^\mathbf N\to \mathbf C^\mathbf N consistant à décaler les suites « d’un cran vers la gauche » : T(\mathbf x)_k=\mathbf x_{k+1}. Avec celle-ci, l’équation se réécrit (I désigne l’application identité)

(\underbrace{a_0T^n+a_1T^{n-1}+\cdots+a_{n-1}T+a_nI}_{=\chi(T)})(\mathbf x)=0

Autrement dit, l’espace des solutions de l’équation est le noyau de \chi(T) : \mathcal S=\ker \chi(T).

On a

\chi(T)=a_0(T-\alpha_1I)^{m_1}\cdots(T-\alpha_pI)^{m_p}

Il suffit donc de montrer que

\forall i\in\{1,\ldots,p\}, \forall r\in\{0,\ldots,m_i-1\}, \quad u^{(i,r)}\in\ker(T-\alpha_iI)^{r+1}

pour montrer que les suites u^{(i,r)} sont des solutions.

Pour une valeur donnée de i, on procède par récurrence sur r.

Il est trivial que (T-\alpha_iI)u^{(i,0)}=0.

Supposons alors que (T-\alpha_iI)^1u^{(i,0)}=\cdots=(T-\alpha_iI)^ru^{(i,r-1)}=0 et montrons que (T-\alpha_iI)^{r+1}u^{(i,r)} est nul également.

On a

\left((T-\alpha_iI)u^{(i,r)}\right)_k=u^{(i,r)}_{k+1}-\alpha_iu^{(i,r)}_k=[(k+1)^r-k^r]\alpha_i^{k+1}

Par conséquent, (T-\alpha_iI)u^{(i,r)} est une combinaison linéaire des suites u^{(i,0)},\ldots,u^{(i,r-1)}. Vu l’hypothèse de récurrence, on a donc (T-\alpha_iI)^{r+1}u^{(i,r)} =0.

Les suites u^{(i,r)} sont donc bien des solutions de l’équation.

Pour terminer, nous allons montrer que les suites u^{(i,r)} sont linéairement indépendantes. Cela achèvera la démonstration du théorème de structure présenté dans le billet cité plus haut.

Allons-y! Les polynômes

\displaystyle \chi_j=\prod_{\substack{i=1\\i\neq j}}^p(t-\alpha_i)^{m_i}, j\in\{1,\ldots,p\}

sont premiers entre eux. D’après le théorème de Bezout, il existe des polynômes \varrho_j tels que \varrho_1\chi_1+\cdots+\varrho_p\chi_p=1 et donc tels que

(1) \varrho_1(T)\chi_1(T)+\cdots+\varrho_p(T)\chi_p(T)=I

Notons que, si i\neq j, alors \chi_j(T)u^{(i,r)}=0. En effet, si i\neq j, alors (T-\alpha_iI)^{m_i} est un facteur de \chi_j(T) et on a vu plus haut que ce facteur annule u^{(i,r)}. En appliquant les deux membres de la relation (1) à u^{(i,r)}, nous obtenons dès lors

(2) \varrho_i(T)\chi_i(T)u^{(i,r)}=u^{(i,r)}

Nous sommes prêts pour établir l’indépendance linéaire des u^{(i,r)}.

Supposons que

\displaystyle \sum_{j=1}^p\sum_{r=0}^{m_j-1}c_{j,r}u^{(j,r)}=0

et choisissons un indice quelconque i compris entre 1 et p. Appliquons \varrho_i(T)\chi_i(T) aux deux membres de cette relation. Cela nous donne, vu (2), \sum_{r=0}^{m_i-1}c_{i,r}u^{(i,r)}=0 soit

\forall k\in\mathbf N, \quad \left(c_{i,0}+c_{i,1}k+\cdots+c_{i,m_i-1}k^{m_i-1}\right)\alpha_i^k=0

Mais \alpha_i\neq 0 car a_n=\chi(0)\neq 0. Par conséquent

\forall k\in\mathbf N, \quad c_{i,0}+c_{i,1}k+\cdots+c_{i,m_i-1}k^{m_i-1}=0

ce qui montre que c_{i,0}=c_{i,1}=\cdots=c_{i,m_i-1}=0.

D’où la conclusion puisque i\in\{1,\ldots,p\} est quelconque.

😉

Sur les équations de récurrence linéaires à coefficients constants et homogènes I

Je vais présenter dans ce blog une démonstration du théorème de structure de l’ensemble des solutions des équations de récurrence linéaires à coefficients constants et homogènes. J’y consacrerai deux billets.

Il y a des livres entiers consacrés à ces équations. Néanmoins, je trouve utile (pour moi) de consigner ici ce résultats bien connu ainsi qu’une démonstration de celui-ci.

Par ailleurs, je vais me limiter aux équations à coefficients complexes. A mon avis la méthode de démonstration utilisée s’adapte à des cas bien plus généraux (on pourrait certainement l’adapter sans problèmes à un corps de caractéristique nulle algébriquement clos) mais je ne vais pas discuter de la chose, cela d’autant plus que je ne connais sans doute pas assez d’algèbre pour pouvoir le faire de façon optimale.

Nous considérons une équation de récurrence linéaire à coefficients constants

(1) \forall k\in \mathbf N,\quad a_0x_{k+n}+a_1x_{k+n-1}+\cdots+a_{n-1}x_{k+1}+a_nx_k=0

avec a_0\neq 0 et a_n\neq 0.

Par linéarité de l’équation, toute combinaison linéaire de solutions est encore une solution : l’ensemble \mathscr S des solutions de l’équation est un sous-espace vectoriel de l’espace \mathbf C^\mathbf N.

De plus, l’équation montre que chaque terme de rang au moins n d’une solution est univoquement déterminé par les n précédents (car a_0\neq 0). Seuls les n premiers ne sont pas déterminés par l’équation mais si on se donne des valeurs u=(u_0,\ldots,u_{n-1})\in\mathbf C^n on peut construire de proche en proche une unique solution s(u) de l’équation dont ce sont les n premiers termes. L’application s:\mathbf C^n\to\mathscr S est manifestement une bijection linéaire. Ainsi,

a) L’ensemble \mathscr S des solutions de l’équation (1) est un sous-espace vectoriel de dimension n de \mathbf C^\mathbf N

Le théorème de structure des solutions de l’équation auquel je pense consiste à fournir une base privilégiée de \mathcal S. Il utilise le polynôme caractéristique

\chi(t)=a_0t^n+a_1t^{n-1}+\cdots +a_{n-1}t+a_n

de l’équation. On obtient formellement ce polynôme en remplaçant dans le membre de gauche de l’équation x_j par t^{j-k}.

Nous noterons \alpha_1,\ldots,\alpha_p les zéros distincts de \chi et m_1,\ldots,m_p leurs multiplicités respectives (on a donc m_1+\cdots+m_p=n). Voici alors le théorème

b) Les n suites u^{(i,r)}:k\mapsto k^r\alpha_i^k,\quad i\in\{1,\ldots,p\}, \quad 0\leqslant r<m_i, forment une bases de \mathscr S.

Pour prouver b), nous allons montrer que les suites en question sont des solutions de l’équation et qu’elles sont linéairement indépendantes. Cela suffit car le fait qu’elles forment une base de \mathscr S résulte alors de ce qu’elles sont en nombre égal à sa dimension.

C’est dans ce billet que nous allons faire les vérifications en question.

En guise d’exercice : trouver la bonne combinaison …

J’ai obtenu par hasard la formule suivante que je vous propose de démontrer pour vous divertir. Elle est tombée comme un fruit mûr lorsque je faisais certains calculs qui ne la concernaient pas. Elle est peut-être facile à prouver directement. Je n’en sais rien, je n’ai pas vraiment essayé de le faire. La voici

\sum_{l=0}^k{n+l \choose n}={n+1+k \choose n+1}

Les nombres k et n sont des entiers positifs ou nuls.

Bon amusement! 😉

Courbure et droite projective réelle II

Ce préambule est un des plus compliqués que j’aie eu à rédiger jusqu’à présent ici. En effet, cet article fait référence à divers autres, ainsi qu’à quelques notions rarement évoquées dans ce blog. Je vous demande donc de faire preuve de la plus grande indulgence en lisant ce qui suit …

Le présent billet fait, naturellement, référence à celui-ci — chronologiquement, celui qui le précéde dans ce blog. Il fait aussi référence, de façon importante, à cet autre et, vers la fin, à ceux-ci : a et b.

Idéalement, pour les notations mais aussi pour certains concepts, il serait judicieux que vous jetiez un coup d’œil attentif à chacun de ces articles car je ne vais guère pouvoir rappeler ici les notations ni les définitions ni les résultats que je vais utiliser.

Le but que je poursuis ici est d’interpréter dans le cadre de la géométrie de la droite projective réelle certaines propriétés des courbes régulières d’un espace affine euclidien orienté de dimension deux et, plus particulièrement, la courbure de celles-ci.

Ayant choisi un repère orthonormé positif du plan où se déploient ces courbes, nous sommes ramenés à \mathbf R^2 muni de la structure standard d’espace euclidien orienté. C’est dans cet espace que nous évoluerons ci-dessous.

La cohomologie de de Rham de la droite projective réelle

Considérons la 1-forme \omega de P^1\mathbf R définie par

\forall d\in P^1\mathbf R,\quad \omega_d(\Theta_d)=1

(Pour rappel, \Theta_d n’étant pas nul, c’est une base de l’espace tangent en d à P^1\mathbf R.) C’est une forme volume de P^1\mathbf R car elle est sans zéros. Ainsi que je l’ai signalé dans un des articles mentionnés plus haut, les expressions locales de \Theta dans les cartes canoniques (U_i,\varphi_i) sont

\varphi_{1*}\Theta=(1+x^2)\dfrac{d}{dx}\quad \& \quad \varphi_{2*}\Theta=-(1+y^2)\dfrac{d}{dy}

Par conséquent, celles de \omega sont

(\varphi_1^{-1})_*\omega=\dfrac{dx}{1+x^2}\quad \& \quad (\varphi_2^{-1})_*\omega=-\dfrac{dy}{1+y^2}

Vu que P^1\mathbf R\setminus U_1 est réduit à un point, nous en déduisons que

\displaystyle\int_{P^1\mathbf R}\omega=\displaystyle\int_\mathbf R(\varphi_1^{-1})_*\omega=\int_{-\infty}^{+\infty}\frac{dx}{1+x^2}=\pi

La forme \omega n’est donc pas exacte(*) et sa classe de cohomologie est une base du premier espace de cohomologie de de Rham de P^1\mathbf R(**).

Cela noté, dans le premier billet mentionné au début de ce texte, nous avions associé à chaque courbe régulière (I,\gamma) de \mathbf R^2 une courbe (I,\varsigma) de P^1\mathbf R en posant

\forall t\in I,\quad \varsigma(t)=\mathbf R\gamma'(t)

et nous avions établi cette formule : \varsigma'=\kappa^*\|\gamma'\|\Theta\circ\varsigma, où \kappa^* est la courbure algébrique de la courbe (I,\gamma). Elle équivaut à celle-ci que je trouve particulièrement jolie :

(1) \boxed{\displaystyle\omega(\varsigma')=\kappa^*\|\gamma'\|}

« La fonction angle n’existe pas sur la droite projective réelle »

\boxed{\mathrm A} Considérons une droite d\in U_1 et un de ses vecteurs directeurs (u_1,u_2). Le nombre \varphi_1(d)=u_2/u_1 est ce qu’on appelle souvent le coefficient angulaire de d et, si \alpha est une détermination(***) de l’angle orienté entre « l’axe des x » et d, alors \varphi_1(d)=\tan\alpha. Nous choisirons la détermination appartenant à ]-\pi/2,\pi/2[ et nous la noterons \alpha_1(d). Cela nous donne une fonction \alpha_1=\mathrm{arctg} \circ\varphi_1\in C^\infty(U_1,\mathbf R). Avec une interprétation similaire, la seconde carte canonique de P^1\mathbf R nous donne une fonction \alpha_2=\mathrm{arccot} \circ\varphi_2-\pi/2\in C^\infty(U_2,\mathbf R). Elle prend également ses valeurs dans ]-\pi/2,\pi/2[.

Les fonctions \alpha_i sont des primitives de \omega. Plus précisément,

\displaystyle\omega_{|U_1}=d\alpha_1 \quad \& \quad \omega_{|U_2}=d\alpha_2

Cela résulte immédiatement des expressions locales de \omega dans les cartes canoniques que nous avons explicitées plus haut.

\boxed{\mathrm B} Soit une courbe régulière (I,\gamma) de \mathrm R^2 rapportée à une abscisse curviligne. Si t\in I et si \varsigma(t)\in U_i, alors

\kappa^*(t)=\omega(\varsigma'(t))=(d\alpha_i)(\varsigma'(t))=(\alpha_i\circ\varsigma)'(t)

Cela dit,

Il n’existe pas de fonction \alpha\in C^\infty(P^1\mathbf R,\mathbf R) telle que, pour toute courbe régulière (I,\gamma) de \mathrm R^2 rapportée à une abscisse curviligne on ait \kappa^*=(\alpha\circ\varsigma)'.

Supposons au contraire qu’une telle fonction \alpha existe et prenons pour (I,\gamma) le cercle trigonométrique, i.e. la courbe t\mapsto (\cos t,\sin t). La courbure algébrique de celle-ci est constante et vaut 1. On a alors

d\alpha(\varsigma')=(\alpha\circ \varsigma)'=1=\omega(\varsigma')

Comme \varsigma' n’a donc aucun zéros et comme \varsigma(\mathbf R)=P^1\mathbf R, nous déduisons de cela que \omega=d\alpha, une contradiction.

La propriété que nous venons de démontrer contraste avec la propriété classique de la courbure selon laquelle, pour toute courbe (I,\gamma) rapportée à une abscisse curviligne et tout \mathbf u\in \mathbf R^2\setminus\{0\}, \kappa^* admet une primitive \alpha\in C^\infty(I,\mathbf R) telle que, pour tout t\in I, \alpha(t) soit une détermination de l’angle orienté entre \mathbf u et la tangente unitaire \mathbf t(t) de \gamma en t.

Retour sur la frontière des épaissis d’un convexe

Ici, je vous réfère aux billets notés a et b dans le préambule.

J’y avais démontré que, pour u>0, la courbure \kappa_u de la frontière du u-épaissi e_u d’un convexe e s’exprime au moyen de la courbure \kappa de la frontière de e par la formule

\kappa_u=\dfrac{\kappa}{1+u\kappa}

Voici une preuve de cette formule résultant de (1).

Pour rappel, la frontière du u-épaissi d’un convexe e dont la frontière est une courbe régulière (I,\gamma) dont la normale principale \mathbf n pointe vers l’extérieur de e est la courbe (I,\gamma_u) donnée par \gamma_u(t)=\gamma(t)+u\mathbf n. Pour simplifier les notations, j’indicerai par u les grandeurs relatives à \gamma_u(t). On a

\gamma'_u=\gamma'-u\kappa^*\|\gamma'\|\mathbf t=(1-u\kappa^*)\gamma'

En particulier, \varsigma_u=\varsigma et, vu (1), \kappa^*\|\gamma'\|=\kappa_u^*\|\gamma'_u\|=\kappa_u^*|1-u\kappa^*|\|\gamma'\|.

La formule annoncée résulte alors du fait que \kappa^*\leqslant 0, ce qui implique que 1-u\kappa^*>0 et \kappa=-\kappa^*, \kappa_u=-\kappa_u^*.

Courbure et rayon de courbure : deux avatars d’un même objet

Cette dernière section est une ébauche. Je n’ai pas encore toutes les clés du phénomène que je vais y décrire.

\boxed{A} Le rayon de courbure \varrho et la de courbure \kappa d’une courbe (I,\gamma) sont liés par la relation \varrho\kappa=1. Ce sont donc les coordonnées dans les deux cartes canoniques d’un élément de P^1\mathbf R, à savoir

\mathfrak k=\varphi_1^{-1}(\kappa)=\varphi_2^{-1}(\rho)

D’une certaine façon, \mathfrak k rend mieux compte de ce qu’il se passe que \kappa et \varrho car lorsque l’un d’eux est nul l’autre n’existe pas ou « est infini », ce que le passage au projectif prend bien en charge.

Introduisons une fonction \varpi:TP^1\mathbf R\to P^1\mathbf R en posant \varpi=\varphi_1^{-1}\circ\omega. Il vient alors, pour toute courbe (I,\gamma) rapportée à une abscisse curviligne,

\displaystyle\boxed{\varpi(\varsigma')=\mathfrak k}

\boxed{B} Dans les conditions de la section précédente la fonction u\in]0,+\infty[\mapsto \frac{\kappa}{1+u\kappa}\in\mathbf R est une solution de l’équation différentielle x'+x^2=0. Or il se fait que l’expression locale dans la carte (U_1,\varphi_1) du champ de vecteurs

\Xi=\begin{pmatrix}0&-1\\0&0\end{pmatrix}^*

de P^1\mathbf R (voir la seconde référence citée dans le préambule pour la définition des champs de vecteurs de la forme H^*) est \varphi_{1*}\Xi=-x^2\frac d{dx}. Cela nous montre que la courbe u\in]0,+\infty[\mapsto \mathfrak k_u\in P^1\mathbf R est une courbe intégrale de \Xi.

Ce fait étrange est lié à une propriété des épaissis des convexes, établie dans l’article désigné par a ci-dessus : pour tous u,v>0, on a (e_u)_v=e_{u+v}.

__________
(*) Notez que, à cause de la dimension de P^1\mathbf R, ses 1-formes sont fermées.
(**) La droite projective P^1\mathbf R étant de dimension 1, sa cohomologie de de Rham (à coefficients réels) se réduit à deux termes :

H^*(P^1\mathbf R,\mathbf R)=H^0(P^1\mathbf R,\mathbf R)\oplus H^1(P^1\mathbf R,\mathbf R)

Il se fait que H^1(P^1\mathbf R,\mathbf R) est de dimension 1 (l’autre terme aussi, mais c’est trivial — peu importe).
(***) L’angle orienté entre deux droites est la classe modulo \pi de l’angle orienté entre un vecteur directeur de la première et un vecteur directeur de la seconde.

Courbure et droite projective réelle I

Considérons une courbe régulière (I,\gamma) d’un plan affine euclidien orienté. Pour simplifier l’exposé, nous supposerons avoir choisi une fois pour toute un repère orthonormé et positif et travaillerons directement en coordonnées et composantes relatives à ce repère.

Pour définir la courbure algébrique \kappa^* de \gamma, on utilise traditionnellement une base formée d’une tangente unitaire \mathbf t et d’une normale unitaire \mathbf n comme je l’ai expliqué dans cet article. Le tout est résumé par l’équation

\mathbf t'=\kappa^*\|\gamma'\|\mathbf n

qui exprime en sens, direction et intensité, la manière dont \mathbf t varie, i.e. comment la courbe « se plie ».

On aurait tout aussi bien pu étudier la courbe (I,\varsigma) de la droite projective réelle P^1\mathbf R définie par

\varsigma(t)=\mathbf R\gamma'(t)

La droite \varsigma(t) est en effet le vectoriel directeur de la (droite) tangente à \gamma en t. Sa façon de varier devrait donc nous renseigner tout autant que celle de \mathbf t sur la courbure de \gamma.

C’est précisément ce que nous allons constater ici en calculant le vecteur tangent \varsigma'(t) à l’aide d’une jolie formule.

Nous avons pour cela besoin de quelques rappels à propos de P^1\mathbf R.

Tout d’abord, celui-ci est recouvert par les domaines de deux systèmes privilégiés de coordonnées, dits canoniques, (U_i,\varphi_i). L’ouvert U_i est formé des droites vectorielles de \mathbf R^2 qui ne sont pas perpendiculaires à \mathbf e_i. Alors, si \mathbf u est un vecteur directeur de la droite d, dans U_1, on a \varphi_1(d)=\frac{u_2}{u_1} et, dans U_2, \varphi_2(d)=\frac{u_1}{u_2}.

Nous avons ensuite introduit dans ce billet une famille de champs de vecteurs fondamentaux(*) sur P^1\mathbf R : \{H^*|H\in sl(2,\mathbf R)\}. En choisissant bien H, nous allons obtenir un champ de vecteurs H^* ne s’annulant nulle part et fournissant donc en chaque point de P^1\mathbf R une base de son espace tangent en ce point. Le champ de vecteurs

\Theta:=\begin{pmatrix}0&-1\\1&0\end{pmatrix}^*

fait l’affaire. En effet, comme on le voit facilement à l’aide de formules présentées dans le billet signalé quelques lignes plus haut, les expressions locales de ce champ dans les systèmes de coordonnées canoniques sont

(1) \varphi_{1*}\Theta=1+x^2\quad \& \quad \varphi_{2*}\Theta=-(1+y^2)

Voici la formule annoncée.

\boxed{\varsigma'=\|\gamma'\|\kappa^*\Theta\circ\varsigma}

Elle est très simple à établir en utilisant les coordonnées locales. Je montre comment cela fonctionne dans le premier système canonique. Dans le second, les calculs sont tout à fait similaires.

Posons \gamma(t)=(x_1(t),x_2(t)). Pour rappel, la courbure algébrique est alors donnée par

\kappa^*=\dfrac{x'_1x''_2-x'_2x''_1}{(x'^2_1+x'^2_2)^{3/2}}

De plus, \varphi_1\circ\varsigma=\frac{x'_2}{x'_1}. Par suite,

\varphi_{1*}\varsigma'=(\varphi_1\circ\varsigma)'=\dfrac{x'_1x''_2-x'_2x''_1}{x'^2_1}=\dfrac{(x'^2_1+x'^2_2)^{3/2}}{x'^2_1}\kappa^*

Enfin, vu (1),

\varphi_{1*}\left(\Theta\circ \varsigma\right)=1+\dfrac{x'^2_2}{x'^2_1}=\dfrac{x'^2_1+x'^2_2}{x'^2_1}

D’où la formule annoncée puisque \|\gamma'\|=\sqrt{x'^2_1+x'^2_2}.

Cette formule est particulièrement frappante lorsque t est une abscisse curviligne de \gamma, car alors \|\gamma'\|=1. Ainsi, lorsque (I,\gamma) est rapporté à une abscisse curviligne, sa courbure algébrique en t\in I est la composante du vecteur tangent \varsigma'(t) selon la base \Theta(\varsigma(t)) de l’espace tangent à P^1\mathbf R en \varsigma(t).

Par exemple, si (I,\gamma) est le cercle trigonométrique, i.e. si I=\mathbf R et si, partout dans \mathbf R, \gamma(t)=(\cos t,\sin t), alors la courbure algébrique (qui est l’inverse du rayon de courbure, 1 en l’occurence) est constante et vaut 1. Par conséquent, pour le cercle trigonométrique, (\mathbf R,\varsigma) est une courbe intégrale maximale du champ de vecteurs \Theta de P^1\mathbf R.

Comme le laisse supposer le titre du présent billet, j’ai encore quelques petites choses à raconter à propos de la courbure et de la droite projective réelle mais cela fera l’objet d’un autre billet.

😉

__________
(*) On désigne par sl(2,\mathbf R) l’ensemble des matrices réelles carrées de tailles deux dont la trace est nulle.