Une remarque à propos de certaines séries de puissances III

Le but de ce billet est de calculer les séries

\displaystyle \mathscr S_r=\sum_{k=0}^\infty k^rx^k, r\in\mathbf N

J’en ai parlé ici où j’ai par ailleurs introduit les polynômes \xi_r\in\mathbf K[t], \mathbf K\in\{\mathbf R,\mathbf C\}, dont j’ai présenté quelques propriétés ici.

Ceux-ci sont tels que \mathscr S_r=\xi_r\left(\frac 1{1-x}\right) et sont univoquement déterminés par le fait qu’ils vérifient

(1) \forall r\in\mathbf N,\quad \xi_{r+1}=t(t-1)\xi'_r

et par la condition initiale \xi_0=t. Chaque \xi_r est de degré r+1 et s’annule en 0.

La série génératrice des \xi_r

Il s’agit, par définition, de la série \displaystyle \xi_\lambda=\sum_{r=0}^\infty\xi_r\lambda^r.

Cette série vérifie une certaine équation différentielle et, grâce à celle-ci, nous allons pouvoir la calculer.

En effet, multipliant les deux membres de (1) par \lambda^{r+1} puis en sommant sur r, il vient facilement

\lambda t(t-1)\xi'_\lambda-\xi_\lambda+t=0,\quad \xi_\lambda(0)=0

Nous chercherons \xi_\lambda sous la forme \displaystyle\xi_\lambda=\sum_{k=1}^\infty u_kt^k ce qui, injecté dans l’équation différentielle, donne l’équation

\displaystyle \lambda\sum_{k=2}^\infty(k-1)u_{k-1}t^k-\sum_{k=1}^\infty(\lambda k+1)u^kt^k+t=0

Formellement(*), ceci équivaut au système

\begin{cases}\forall k>1,\quad \lambda(k-1)u_{k-1}-(\lambda k+1)u_k=0\\[2ex](\lambda +1)u_1=1\end{cases}

ce dont on déduit aisément que

\displaystyle \forall k>0,\quad u_k=(k-1)!\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}

Ainsi que nous l’avions fait dans le premier billet mentionné au début, posons \xi_r(t)=\sum_{i=1}^{r+1}a_{r,i}t^i. Nous venons de démontrer que

\displaystyle\boxed{\forall k>0, \quad\sum_{r=k-1}^\infty a_{r,k}\lambda^r=(k-1)!\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}}

Une formule pour \ a_{r,k}

En développant en fractions simples le membre de gauche de l’égalité encadrée, nous allons calculer les coefficients a_{r,k}.

Nous cherchons les éléments v_i de \mathbf K tels que

\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}=\dfrac{v_1}{\lambda+1}+\dfrac{v_2}{2\lambda+1}+\cdots+\dfrac{v_k}{k\lambda+1}

C’est facile : comme les zéros du dénominateur de la fraction à décomposer sont simples, il suffit, après avoir chassé les dénominateurs dans cette égalité, d’évaluer les deux membres de l’égalité obtenue en chacun de leurs zéros. On trouve

\displaystyle\forall i\in\{1,\ldots,k\},\quad v_i=\dfrac{(-1)^{i+1}}{(i-1)!(k-i)!}

Cela étant, en utilisant la série géométrique \sum_{r=0}^\infty\lambda^r=\frac{1}{1-\lambda}, il vient

\displaystyle\dfrac{v_1}{\lambda+1}+\dfrac{v_2}{2\lambda+1}+\cdots+\dfrac{v_k}{k\lambda+1}=\sum_{r=0}^\infty\left(\sum_{i=1}^kv_i(-i)^r\right)\lambda^r

Dès lors

\displaystyle \boxed{a_{r,k}=(-1)^r\sum_{i=0}^{k-1}{k-1 \choose i}(-1)^i(i+1)^r}

et, donc,

\displaystyle \boxed{\mathscr S_r(x)=\sum_{k=0}^\infty k^rx^k=\sum_{i=1}^{r+1}\left((-1)^r\sum_{j=0}^{i-1}{i-1 \choose j}(-1)^j(j+1)^r\right)\frac 1{(1-x)^i}}

Deux formules remarquables

Dans le premier article cité plus haut, nous avions obtenu ceci :

\displaystyle a_{r,1}=(-1)^r,\quad a_{r,2}=(-1)^{r+1}2^r+(-1)^r, \quad a_{r,r}=-\frac 12(r+1)!, \quad a_{r,r+1}=r!

La seconde formule encadrée redonne facilement les deux premières égalités. Par contre, il n’est pas immédiat qu’elle redonne les deux dernières. En comparant celles-ci avec les expressions qu’elle donne de a_{r,r} et de a_{r,r+1}, nous obtenons deux égalités remarquables :

\displaystyle (-1)^r\sum_{i=1}^r\dfrac{(-1)^ii^r}{(i-1)!(r-i)!}=\dfrac{r(r+1)}2\   \& \   (-1)^{r+1}\sum_{i=1}^{r+1}\frac{(-1)^ii^r}{(i-1)!(r+1-i)!}=1

Les nombres

\displaystyle \sum_{i=1}^k\frac{(-1)^{k-i}i^r}{(i-1)!(k-i)!}

semblent avoir de belles propriétés. Pour l’instant je ne sais rien dire de plus à leur propos. Peut-être une autre fois…

😉

__________
(*) Les calculs sont menés dans le cadre des séries formelles. Leur éventuelle convergence ne sera pas étudiée ici.

Publicités

Une remarque à propos de certaines séries de puissances I

On rencontre assez régulièrement le problème de calculer des séries de la forme

\displaystyle \mathscr S_P(x)=\sum_{k=0}^\infty P(k)x^k

P\in\mathbf K[t] est un polynôme à coefficients dans \mathbf K\in\{\mathbf R,\mathbf C\}.

Cette famille de séries inclut la célèbre série géométrique \sum_{k=0}^\infty x^k=\frac 1{1-x} et nous allons montrer que

(1) Pour tout polynôme P de degré n\in\mathbf N, il existe un seul polynôme Q de degré n+1 s’annulant en 0 et tel que \displaystyle \mathscr S_P(x)=Q\left(\frac 1{1-x}\right).

L’unicité de Q est évidente et nous n’y reviendrons pas. Pour le reste, la propriété (1) va résulter de quelques faits simples que nous allons passer en revue.

Une formule pour les puissances de la série géométrique

Il s’agit de la formule

\displaystyle \forall n\in\mathbf N,\quad\sum_{k=0}^\infty{n+k\choose n}x^k=\frac{1}{(1-x)^{n+1}}

Elle résulte immédiatement des deux suivantes

\displaystyle \frac{d^n}{dx^n}\frac 1{1-x}=\frac{n!}{(1-x)^{n+1}}\quad \& \quad\frac{d^n}{dx^n}\frac 1{1-x}=\sum_{k=0}^\infty\frac{(n+k)!}{k!}x^k

qui sont très faciles à démontrer par récurrence sur n (je ne vais pas détailler ces vérifications).

Une base de l’espace des polynômes

Les polynômes e_n\in\mathbf K[t], n\in \mathbf N, définis par e_0(t)=1 et, pour n>0, par e_n=\frac 1{n!}(t+n)(t+n-1)\cdots(t+1) forment une base de \mathbf K[t].

En effet, e_n(t)-\frac{t^n}{n!} est une somme de termes de degrés strictement plus petits que n. Ainsi, la matrice qui exprime les polynômes e_n dans la base canonique 1, t, t^2, \ldots, t^n,\ldots est triangulaire inférieure et sa diagonale est \mathrm{diag}(\frac 1{0!},\frac 1{1!}, \ldots, \frac 1{n!}, \ldots). Elle est donc inversible.

Preuve de la propriété (1)

Soient un polynôme P\in\mathbf K[t] de degré n et \sum_{i=0}^np_ie_i sa décomposition selon la base (e_0,e_1,\ldots, e_n,\ldots). On a

\displaystyle \mathscr S_P(x)=\sum_{i=0}^np_i\sum_{k=0}^\infty e_i(k)x^k=\sum_{i=0}^np_i\sum_{k=0}^\infty{i+k\choose i}x^k=\sum_{i=1}^{n+1}\frac{p_{i-1}}{(1-x)^i}

car pour tous n,k\in \mathbf N, e_n(k)={n+k\choose n}. D’où la propriété.

Les séries \mathscr S_r

Lorsque P(t)=t^r, je note \mathscr S_r la série \mathscr S_P. Je note aussi \xi_r l’unique polynôme prévu par la propriété (1), c’est-à-dire le polynôme de degré r+1 qui s’annule en 0 et qui est tel que

(2) \displaystyle \mathscr S_r(x)=\sum_{k=0}^\infty k^rx^k=\xi_r\left(\frac 1{1-x}\right)

Les polynômes \xi_r vérifient une relation de récurrence qui permet de calculer les premiers facilement « à la main » et, de toute façon, d’en programmer le calcul à l’aide d’un logiciel de calcul formel(*).

Les polynômes \xi_r sont univoquement déterminés par les conditions \xi_0(t)=t et

(3) \forall r\in\mathbf N,\quad \xi_{r+1}(t)=t(t-1)\xi'_r(t)

Pour obtenir cette relation, dérivons les membres extrêmes de (2) par rapport à x. On a

\displaystyle \mathscr S'_r(x)=\sum_{k=1}^\infty k^{r+1}x^{k-1}=\frac 1x\sum_{k=1}^\infty k^{r+1}x^k=\frac 1x\mathscr S_{r+1}(x)

et

\displaystyle \left[\xi_r\left(\frac 1{1-x}\right)\right]'=\frac 1{(1-x)^2}\xi'_r\left(\frac 1{1-x}\right)

de sorte que

\displaystyle \frac 1x\xi_{r+1}\left(\frac 1{1-x}\right)=\frac 1{(1-x)^2}\xi'_r\left(\frac 1{1-x}\right)

On obtient alors (3) en effectuant le changement de variable t=\frac 1{1-x} dans cette dernière relation.

La relation (3) ( et la condition initiale) nous donne aisément le tableau des premiers \xi_r :

\displaystyle \begin{array}{c|l}\xi_0&t\\\hline\xi_1&t^2-t\\\hline\xi_2&2t^3-3t^2+t\\\hline\xi_3&6t^4-12t^3+7t^2-t\end{array}

D’où les premières séries \mathscr S_r :

\displaystyle \begin{array}{lcl}\displaystyle{\sum_{k=0}^\infty x^k}&=&\displaystyle{\frac 1{1-x}}\\[2ex]\displaystyle{\sum_{k=0}^\infty kx^k}&=&\displaystyle{-\frac 1{1-x}+\frac 1{(1-x)^2}}\\[2ex]\displaystyle{\sum_{k=0}^\infty k^2x^k}&=&\displaystyle{\frac 1{1-x}-\frac 3{(1-x)^2}+\frac 2{(1-x)^3}}\\[2ex]\displaystyle{\sum_{k=0}^\infty k^3x^k}&=&\displaystyle{-\frac 1{1-x}+\frac 7{(1-x)^2}-\frac {12}{(1-x)^3}+\frac 6{(1-x)^4}}\end{array}

Quelques coefficients des polynômes \xi_r

Voici quelques coefficients des polynômes \xi_r. Pour l’instant, je ne les connais pas tous(**).

Ecrivons \xi_r(t)=\sum_{i=1}^{r+1}a_{r,i}t^i. Alors

(4) \displaystyle a_{r,1}=(-1)^r,\quad a_{r,2}=(-1)^{r+1}2^r+(-1)^r, \quad a_{r,r}=-\frac 12(r+1)!, \quad a_{r,r+1}=r!

La dérivée n-ième des deux membres de (3) en t=0 nous donne la relation

(5) \xi_{r+1}^{(n)}(0)=-n\xi_r^{(n)}(0)+n(n-1)\xi_r^{(n-1)}(0)

D’un autre côté, \xi_r^{(n)}(0) vaut n!a_{r,n} si 1\leqslant n\leqslant r+1 et est nul pour les autres valeurs de n\in \mathbf N.

En faisant n=1 et n=r+2 dans (5), on obtient facilement les valeurs de a_{r,1} et a_{r,r+1}. Ensuite, avec n=r+1, on voit que r\mapsto a_{r,r} est solution de l’équation de récurrence x_{r+1}=rx_r-(r+1)!,x_1=-1, dont -\frac 12(r+1)! est visiblement la solution. Enfin, avec n=2, on voit que a_{r,2} est solution de l’équation x_{r+1}=-2x_r+(-1)^r, x_1=1, dont (-1)^{r+1}2^r+(-1)^r est la solution, comme on le voit aisément.

P.S. Je pense avoir trouvé une expression explicite des \xi_r et donc des séries \mathscr S_r. Cela sera exposé dans un billet à venir. P.L. 2/12/2017

P.S. Voilà, on trouvera ces expressions ici. P.L. 3/12/2017

__________
(*) Pour alléger l’écriture, je noterai désormais f', f'', f''', \ldots, f^{(n)},\ldots les dérivées successives d’une fonction, d’un polynôme ou d’une série (dérivée terme à terme) f.
(**) Je présente dans ce billet, quelques belles propriétés de ces polynômes.

Sur les équations de récurrence linéaires à coefficients constants et homogènes II

Voici la suite de ce billet. Nous conservons ses notations.

Nous commencerons par vérifier que les suites u^{(i,r)}:k\mapsto k^r\alpha_i^k,\quad i\in\{1,\ldots,p\}, \quad 0\leqslant r<m_i, sont des solutions de l'équation

\forall k\in \mathbf N,\quad a_0x_{k+n}+a_1x_{k+n-1}+\cdots+a_{n-1}x_{k+1}+a_nx_k=0

Les nombres \alpha_1,\ldots,\alpha_p sont les zéros distincts de son polynôme caractéristique

\chi(t)=a_0t^n+a_1t^{n-1}+\cdots +a_{n-1}t+a_n

et m_1,\ldots,m_p sont leurs multiplicités respectives. Pour rappel, on suppose que a_0,a_n\neq 0.

Nous allons utiliser l’application linéaire T:\mathbf C^\mathbf N\to \mathbf C^\mathbf N consistant à décaler les suites « d’un cran vers la gauche » : T(\mathbf x)_k=\mathbf x_{k+1}. Avec celle-ci, l’équation se réécrit (I désigne l’application identité)

(\underbrace{a_0T^n+a_1T^{n-1}+\cdots+a_{n-1}T+a_nI}_{=\chi(T)})(\mathbf x)=0

Autrement dit, l’espace des solutions de l’équation est le noyau de \chi(T) : \mathcal S=\ker \chi(T).

On a

\chi(T)=a_0(T-\alpha_1I)^{m_1}\cdots(T-\alpha_pI)^{m_p}

Il suffit donc de montrer que

\forall i\in\{1,\ldots,p\}, \forall r\in\{0,\ldots,m_i-1\}, \quad u^{(i,r)}\in\ker(T-\alpha_iI)^{r+1}

pour montrer que les suites u^{(i,r)} sont des solutions.

Pour une valeur donnée de i, on procède par récurrence sur r.

Il est trivial que (T-\alpha_iI)u^{(i,0)}=0.

Supposons alors que (T-\alpha_iI)^1u^{(i,0)}=\cdots=(T-\alpha_iI)^ru^{(i,r-1)}=0 et montrons que (T-\alpha_iI)^{r+1}u^{(i,r)} est nul également.

On a

\left((T-\alpha_iI)u^{(i,r)}\right)_k=u^{(i,r)}_{k+1}-\alpha_iu^{(i,r)}_k=[(k+1)^r-k^r]\alpha_i^{k+1}

Par conséquent, (T-\alpha_iI)u^{(i,r)} est une combinaison linéaire des suites u^{(i,0)},\ldots,u^{(i,r-1)}. Vu l’hypothèse de récurrence, on a donc (T-\alpha_iI)^{r+1}u^{(i,r)} =0.

Les suites u^{(i,r)} sont donc bien des solutions de l’équation.

Pour terminer, nous allons montrer que les suites u^{(i,r)} sont linéairement indépendantes. Cela achèvera la démonstration du théorème de structure présenté dans le billet cité plus haut.

Allons-y! Les polynômes

\displaystyle \chi_j=\prod_{\substack{i=1\\i\neq j}}^p(t-\alpha_i)^{m_i}, j\in\{1,\ldots,p\}

sont premiers entre eux. D’après le théorème de Bezout, il existe des polynômes \varrho_j tels que \varrho_1\chi_1+\cdots+\varrho_p\chi_p=1 et donc tels que

(1) \varrho_1(T)\chi_1(T)+\cdots+\varrho_p(T)\chi_p(T)=I

Notons que, si i\neq j, alors \chi_j(T)u^{(i,r)}=0. En effet, si i\neq j, alors (T-\alpha_iI)^{m_i} est un facteur de \chi_j(T) et on a vu plus haut que ce facteur annule u^{(i,r)}. En appliquant les deux membres de la relation (1) à u^{(i,r)}, nous obtenons dès lors

(2) \varrho_i(T)\chi_i(T)u^{(i,r)}=u^{(i,r)}

Nous sommes prêts pour établir l’indépendance linéaire des u^{(i,r)}.

Supposons que

\displaystyle \sum_{j=1}^p\sum_{r=0}^{m_j-1}c_{j,r}u^{(j,r)}=0

et choisissons un indice quelconque i compris entre 1 et p. Appliquons \varrho_i(T)\chi_i(T) aux deux membres de cette relation. Cela nous donne, vu (2), \sum_{r=0}^{m_i-1}c_{i,r}u^{(i,r)}=0 soit

\forall k\in\mathbf N, \quad \left(c_{i,0}+c_{i,1}k+\cdots+c_{i,m_i-1}k^{m_i-1}\right)\alpha_i^k=0

Mais \alpha_i\neq 0 car a_n=\chi(0)\neq 0. Par conséquent

\forall k\in\mathbf N, \quad c_{i,0}+c_{i,1}k+\cdots+c_{i,m_i-1}k^{m_i-1}=0

ce qui montre que c_{i,0}=c_{i,1}=\cdots=c_{i,m_i-1}=0.

D’où la conclusion puisque i\in\{1,\ldots,p\} est quelconque.

😉

Sur les équations de récurrence linéaires à coefficients constants et homogènes I

Je vais présenter dans ce blog une démonstration du théorème de structure de l’ensemble des solutions des équations de récurrence linéaires à coefficients constants et homogènes. J’y consacrerai deux billets.

Il y a des livres entiers consacrés à ces équations. Néanmoins, je trouve utile (pour moi) de consigner ici ce résultats bien connu ainsi qu’une démonstration de celui-ci.

Par ailleurs, je vais me limiter aux équations à coefficients complexes. A mon avis la méthode de démonstration utilisée s’adapte à des cas bien plus généraux (on pourrait certainement l’adapter sans problèmes à un corps de caractéristique nulle algébriquement clos) mais je ne vais pas discuter de la chose, cela d’autant plus que je ne connais sans doute pas assez d’algèbre pour pouvoir le faire de façon optimale.

Nous considérons une équation de récurrence linéaire à coefficients constants

(1) \forall k\in \mathbf N,\quad a_0x_{k+n}+a_1x_{k+n-1}+\cdots+a_{n-1}x_{k+1}+a_nx_k=0

avec a_0\neq 0 et a_n\neq 0.

Par linéarité de l’équation, toute combinaison linéaire de solutions est encore une solution : l’ensemble \mathscr S des solutions de l’équation est un sous-espace vectoriel de l’espace \mathbf C^\mathbf N.

De plus, l’équation montre que chaque terme de rang au moins n d’une solution est univoquement déterminé par les n précédents (car a_0\neq 0). Seuls les n premiers ne sont pas déterminés par l’équation mais si on se donne des valeurs u=(u_0,\ldots,u_{n-1})\in\mathbf C^n on peut construire de proche en proche une unique solution s(u) de l’équation dont ce sont les n premiers termes. L’application s:\mathbf C^n\to\mathscr S est manifestement une bijection linéaire. Ainsi,

a) L’ensemble \mathscr S des solutions de l’équation (1) est un sous-espace vectoriel de dimension n de \mathbf C^\mathbf N

Le théorème de structure des solutions de l’équation auquel je pense consiste à fournir une base privilégiée de \mathcal S. Il utilise le polynôme caractéristique

\chi(t)=a_0t^n+a_1t^{n-1}+\cdots +a_{n-1}t+a_n

de l’équation. On obtient formellement ce polynôme en remplaçant dans le membre de gauche de l’équation x_j par t^{j-k}.

Nous noterons \alpha_1,\ldots,\alpha_p les zéros distincts de \chi et m_1,\ldots,m_p leurs multiplicités respectives (on a donc m_1+\cdots+m_p=n). Voici alors le théorème

b) Les n suites u^{(i,r)}:k\mapsto k^r\alpha_i^k,\quad i\in\{1,\ldots,p\}, \quad 0\leqslant r<m_i, forment une bases de \mathscr S.

Pour prouver b), nous allons montrer que les suites en question sont des solutions de l’équation et qu’elles sont linéairement indépendantes. Cela suffit car le fait qu’elles forment une base de \mathscr S résulte alors de ce qu’elles sont en nombre égal à sa dimension.

C’est dans ce billet que nous allons faire les vérifications en question.

En guise d’exercice : trouver la bonne combinaison …

J’ai obtenu par hasard la formule suivante que je vous propose de démontrer pour vous divertir. Elle est tombée comme un fruit mûr lorsque je faisais certains calculs qui ne la concernaient pas. Elle est peut-être facile à prouver directement. Je n’en sais rien, je n’ai pas vraiment essayé de le faire. La voici

\sum_{l=0}^k{n+l \choose n}={n+1+k \choose n+1}

Les nombres k et n sont des entiers positifs ou nuls.

Bon amusement! 😉

Courbure et droite projective réelle I

Considérons une courbe régulière (I,\gamma) d’un plan affine euclidien orienté. Pour simplifier l’exposé, nous supposerons avoir choisi une fois pour toute un repère orthonormé et positif et travaillerons directement en coordonnées et composantes relatives à ce repère.

Pour définir la courbure algébrique \kappa^* de \gamma, on utilise traditionnellement une base formée d’une tangente unitaire \mathbf t et d’une normale unitaire \mathbf n comme je l’ai expliqué dans cet article. Le tout est résumé par l’équation

\mathbf t'=\kappa^*\|\gamma'\|\mathbf n

qui exprime en sens, direction et intensité, la manière dont \mathbf t varie, i.e. comment la courbe « se plie ».

On aurait tout aussi bien pu étudier la courbe (I,\varsigma) de la droite projective réelle P^1\mathbf R définie par

\varsigma(t)=\mathbf R\gamma'(t)

La droite \varsigma(t) est en effet le vectoriel directeur de la (droite) tangente à \gamma en t. Sa façon de varier devrait donc nous renseigner tout autant que celle de \mathbf t sur la courbure de \gamma.

C’est précisément ce que nous allons constater ici en calculant le vecteur tangent \varsigma'(t) à l’aide d’une jolie formule.

Nous avons pour cela besoin de quelques rappels à propos de P^1\mathbf R.

Tout d’abord, celui-ci est recouvert par les domaines de deux systèmes privilégiés de coordonnées, dits canoniques, (U_i,\varphi_i). L’ouvert U_i est formé des droites vectorielles de \mathbf R^2 qui ne sont pas perpendiculaires à \mathbf e_i. Alors, si \mathbf u est un vecteur directeur de la droite d, dans U_1, on a \varphi_1(d)=\frac{u_2}{u_1} et, dans U_2, \varphi_2(d)=\frac{u_1}{u_2}.

Nous avons ensuite introduit dans ce billet une famille de champs de vecteurs fondamentaux(*) sur P^1\mathbf R : \{H^*|H\in sl(2,\mathbf R)\}. En choisissant bien H, nous allons obtenir un champ de vecteurs H^* ne s’annulant nulle part et fournissant donc en chaque point de P^1\mathbf R une base de son espace tangent en ce point. Le champ de vecteurs

\Theta:=\begin{pmatrix}0&-1\\1&0\end{pmatrix}^*

fait l’affaire. En effet, comme on le voit facilement à l’aide de formules présentées dans le billet signalé quelques lignes plus haut, les expressions locales de ce champ dans les systèmes de coordonnées canoniques sont

(1) \varphi_{1*}\Theta=1+x^2\quad \& \quad \varphi_{2*}\Theta=-(1+y^2)

Voici la formule annoncée.

\boxed{\varsigma'=\|\gamma'\|\kappa^*\Theta\circ\varsigma}

Elle est très simple à établir en utilisant les coordonnées locales. Je montre comment cela fonctionne dans le premier système canonique. Dans le second, les calculs sont tout à fait similaires.

Posons \gamma(t)=(x_1(t),x_2(t)). Pour rappel, la courbure algébrique est alors donnée par

\kappa^*=\dfrac{x'_1x''_2-x'_2x''_1}{(x'^2_1+x'^2_2)^{3/2}}

De plus, \varphi_1\circ\varsigma=\frac{x'_2}{x'_1}. Par suite,

\varphi_{1*}\varsigma'=(\varphi_1\circ\varsigma)'=\dfrac{x'_1x''_2-x'_2x''_1}{x'^2_1}=\dfrac{(x'^2_1+x'^2_2)^{3/2}}{x'^2_1}\kappa^*

Enfin, vu (1),

\varphi_{1*}\left(\Theta\circ \varsigma\right)=1+\dfrac{x'^2_2}{x'^2_1}=\dfrac{x'^2_1+x'^2_2}{x'^2_1}

D’où la formule annoncée puisque \|\gamma'\|=\sqrt{x'^2_1+x'^2_2}.

Cette formule est particulièrement frappante lorsque t est une abscisse curviligne de \gamma, car alors \|\gamma'\|=1. Ainsi, lorsque (I,\gamma) est rapporté à une abscisse curviligne, sa courbure algébrique en t\in I est la composante du vecteur tangent \varsigma'(t) selon la base \Theta(\varsigma(t)) de l’espace tangent à P^1\mathbf R en \varsigma(t).

Par exemple, si (I,\gamma) est le cercle trigonométrique, i.e. si I=\mathbf R et si, partout dans \mathbf R, \gamma(t)=(\cos t,\sin t), alors la courbure algébrique (qui est l’inverse du rayon de courbure, 1 en l’occurence) est constante et vaut 1. Par conséquent, pour le cercle trigonométrique, (\mathbf R,\varsigma) est une courbe intégrale maximale du champ de vecteurs \Theta de P^1\mathbf R.

Comme le laisse supposer le titre du présent billet, j’ai encore quelques petites choses à raconter à propos de la courbure et de la droite projective réelle mais cela fera l’objet d’un autre billet.

😉

__________
(*) On désigne par sl(2,\mathbf R) l’ensemble des matrices réelles carrées de tailles deux dont la trace est nulle.

A propos des polygones plans : un critère de convexité

Considérons un plan affine \mathcal E modelé sur un espace vectoriel réel E.

Comme illustré par la figure suivante, un polygone A_1A_2\cdots A_n de ce plan(*) est convexe, par définition, si, pour chaque k\in\{1,\ldots,n\}, il est entièrement contenu dans un des demi-plans délimités par la droite A_kA_{k+1}(**).

convexite

Soient une droite \mathcal D de \mathcal E et une équation cartésienne \alpha=0 de celle-ci dans un repère donné de \mathcal E. Le premier membre de cette équation est un polynôme du premier degré en deux variables et nous désignerons par \alpha(P) la valeur qu’il prend en les coordonnées d’un point P.

La droite \mathcal D est le lieu des points P tels que \alpha(P)=0. Son complémentaire possède deux composantes connexes. Ce sont les demi-plans (ouverts) délimités par \mathcal D. L’un est le lieu des points P tels que \alpha(P)>0, l’autre celui des points P tels que \alpha(P)<0.

Pour chaque k\in\{1,\ldots,n\}, choisissons une équation \alpha_k=0 de la droite A_kA_{k+1}. Le polygone A_1A_2\cdots A_n est alors convexe si, et seulement si, pour chaque k\in\{1,\ldots,n\}, les signes des nombres

\alpha_k(A_j),\quad j\in\{1,\ldots,n\}, j\neq k, j\neq k+1

sont égaux.

En utilisant une forme volume de E, nous allons obtenir une version intrinsèque de ce critère. Pour rappel, une forme volume de E est une application bilinéaire, antisymétrique et non nulle de E\times E dans \mathbf R. Voici alors le critère anoncé.

Soit une forme volume \omega de E. Le polygone A_1A_2\cdots A_n est convexe si, et seulement si, pour chaque k\in\{1,\ldots,n\}, les signes des nombres

\omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}}),\quad j\in\{1,\ldots,n\}, j\neq k, j\neq k+1

sont égaux.

Considérons en effet une forme volume \omega de E et choisissons une base (\mathbf e_1,\mathbf e_2) de ce dernier telle que \omega(\mathbf e_1,\mathbf e_2)=1(***). Dans celle-ci, avec des notations évidentes,

\omega(\mathbf u,\mathbf v)=\det\begin{pmatrix}u_1&v_1\\u_2&v_2\end{pmatrix}

Notons alors (x_k,y_k) les coordonnées des A_k dans un repère de \mathcal E dont (\mathbf e_1,\mathbf e_2) est la base. Dans ce repère, la droite A_kA_{k+1} admet l’équation \alpha_k=0, où

\alpha_k(x,y)=(y_{k+1}-y_k)(x-x_k)-(x_{k+1}-x_k)(y-y_k)

D’où la propriété puisque

\alpha_k(A_j)=\omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}})

Les nombres \omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}}) ont une interprétation intéressante. Comme je l’ai expliqué ici, \omega munit \mathcal E d’une orientation et permet de définir l’aire orientée des polygones de \mathcal E. En particulier, celle d’un triangle ABC est \frac 1 2\omega(\overrightarrow{AB},\overrightarrow{AC}). Pour une valeur de k donnée, les nombres \omega(\overrightarrow{A_kA_j},\overrightarrow{A_kA_{k+1}})A_j balaie les sommets autres que A_k et A_{k+1} sont donc les doubles des aires orientées des triangles A_kA_jA_{k+1}.

Par exemple, pour le pentagone représenté ci-dessous et pour k=1, il s’agit des trois triangles A_1A_3A_2, A_1A_4A_2 et A_1A_5A_2. Ils sont représentés en gris.

convexite_2

Un exemple : les parallélogrammes

Considérons un quadrilatère A_1A_2A_3A_4 de \mathcal E pour lequel

\overrightarrow{A_1A_2}+\overrightarrow{A_3A_4}=0

convexite_3

On a aussi

\overrightarrow{A_2A_3}+\overrightarrow{A_4A_1}=\overrightarrow{A_2A_1}+\overrightarrow{A_1A_3}+\overrightarrow{A_4A_3}+\overrightarrow{A_3A_1}=-\left(\overrightarrow{A_1A_2}+\overrightarrow{A_3A_4}\right)=0

par conséquent, les côtés [A_1,A_2] et [A_3,A_4] sont parallèles de même que [A_2,A_3] et [A_4,A_1]. Le quadrilatère est donc ce qu’on appelle communément un parallélogramme.

Lorsqu’on le dessine, on ne peut que le dessiner convexe. Cependant ce n’est pas une preuve formelle de la convexité de ce quadrilatère. Notre critère va par contre nous en donner une immédiatement. Il s’avère en effet que, \omega étant une quelconque forme volume de E,

\begin{cases}\omega(\overrightarrow{A_1A_3},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_4},\overrightarrow{A_1A_2})\\[2ex]\omega(\overrightarrow{A_2A_1},\overrightarrow{A_2A_3})=\omega(\overrightarrow{A_2A_4},\overrightarrow{A_2A_3})\\[2ex]\omega(\overrightarrow{A_3A_1},\overrightarrow{A_3A_4})=\omega(\overrightarrow{A_3A_2},\overrightarrow{A_3A_4})\\[2ex]\omega(\overrightarrow{A_4A_2},\overrightarrow{A_4A_1})=\omega(\overrightarrow{A_4A_3},\overrightarrow{A_4A_1})\end{cases}

En effet

\omega(\overrightarrow{A_1A_4},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3}+\overrightarrow{A_3A_4},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3}-\overrightarrow{A_1A_2},\overrightarrow{A_1A_2})=\omega(\overrightarrow{A_1A_3},\overrightarrow{A_1A_2})

etc.

C’est ici que s’achève notre billet.

P.S. En fait, je viens de me rendre compte — je suis lent, vous le savez — de ce que tout résulte de ceci : des points C et D de \mathcal E n’appartenant pas à une droite AB, sont situés d’un même côté ou de part et d’autre de celle-ci si, et seulement si, les signes des aires orientées des triangles ACB et ADB sont égaux ou opposés, aires mesurées par rapport à une forme volume quelconque de E. La preuve de cette propriété est facile à écrire vu ce qui se trouve plus haut. P.L. 15/11/2017
__________
(*) Un polygone d’un plan est une suite périodique k\in\mathbf Z \mapsto A_k de points du plan dont trois consécutifs ne sont jamais alignés. Si n est sa période, on désigne le polygone par A_1A_2\cdots A_n. Ses côtés sont les segments [A_k,A_{k+1}], k=1,\ldots,n (bien noter que A_{n+1}=A_1).
(**) Lorsque n vaut trois, cette condition est toujours vérifée: tous les triangles sont convexes! C’est rassurant 😉
(***) Je laisse au lecteur le soin de construire une telle base (c’est facile).