A propos d’un empilement infini de radicaux

Le but de ce billet est de calculer l’empilement infini de radicaux e_{a,b} où la suite a est périodique de période 2 et b est la suite constante \mathbf{1}, celle dont les éléments valent tous 1(*).

Nous notons p la valeur commune des éléments de rang pair de a et q celle des éléments de rang impair, où p, q sont des nombres réels strictement positifs. L’empilement e_{a,b} est donc

e:=\sqrt{p+\sqrt{q+\sqrt{p+\sqrt{q+\cdots}}}}

Nous allons prouver que

L’empilement e est égal à la plus grande racine de l’équation

(1) (x^2-p)^2-x-q=0

La méthode

Nous montrerons d’abord, \boxed A, que l’équation

(x^2-p)^2-x-q=0

admet une seule racine (positive) plus grande que \sqrt p, \ \xi (c’est sa plus grande racine).

Ensuite, \boxed B, nous construirons une suite c:n\in\mathbf N\mapsto [0,+\infty[ à laquelle est associée une suite constante d’approximations u(c) de e. Ceci prouve que la limite de la suite u(\mathbf 0), la valeur de e, est un nombre réel.

Nous montrerons enfin, \boxed C, que \lim u(\mathbf 0)=\xi, ce qui sera alors facile.

Nous noterons f la fonction.

x \mapsto (x^2-p)^2-x-q=x^4-2px^2-x+p^2-q

Nous l’étudierons principalement dans ]0,+\infty[.

Voici un aperçu du graphe de f lorsque p = 1 et q = 0.8. C’est un cas où la fonction possède deux zéros positifs. Ils sont séparés par \sqrt p.

Voici un exemple du second cas possible, celui où f ne possède qu’un seul zéro positif. Ici, p=\frac 12 et, comme plus haut, q=0.8.

Les détails

\boxed A

Nous allons utiliser les dérivées premières et secondes de f :

\begin{cases}f'(x)=4x^3-4px-1\\[1ex] f''(x)=12x^2-4p\end{cases}

La dérivée seconde s’annule en \pm \sqrt{\frac{p}{3}}. Elle est strictement négative dans ]0,\sqrt{\frac{p}{3}}] et strictement positive dans ]\sqrt{\frac{p}{3}},+\infty[. Comme f'(0)=-1, f' est strictement décroissant et négatif dans ]0,\sqrt{\frac{p}{3}}] et strictement croissant au-delà de \sqrt{\frac{p}{3}}. En particulier, f' s’annule une fois exactement dans ]0,+\infty[, au-delà de \sqrt{\frac{p}{3}}. Notons \alpha ce zéro.

On voit ainsi que la fonction f atteint un minimum local en \alpha. Elle décroit strictement dans ]0,\alpha[ puis croit strictement dans [\alpha,+\infty[. Nous allons voir que le minimum local f(\alpha) est strictement négatif. Dès lors, f admet un unique zéro dans ]\alpha,+\infty[, disons \xi. De plus, si f(0)=p^2-q \sqrt p\geqslant 0, alors f possède un second zéro positif ou nul, \eta. Nous vérifierons que lorsqu’il existe, \eta < \sqrt p.

\bullet Nous considérons \alpha comme une fonction de p. D’après le théorème des fonctions implicites, elle est de classe C^\infty. En effet

f''(\alpha)=12(\alpha^2-\frac p3)>0

Sa dérivée s’obtient en dérivant la relation f'(\alpha)=0 par rapport à p, ce qui donne

\alpha'=\dfrac{\alpha}{3\alpha^2-p}

Notons également que f'(\alpha)=0 montre que

\alpha^2-p=\frac 1{4\alpha}>0

On a alors

\dfrac{d(f\circ\alpha)}{dp}=f'(\alpha)\alpha'-2(\alpha^2-p)=-\dfrac 1{2\alpha}<0

Le minimum de f dans ]0,+\infty[ est donc strictement décroissant par rapport à p. Mais, \alpha^3(0)=\frac 14 et, du coup(**),

f(\alpha(0))=-\frac 34\alpha(0)-q<0

Au total, f(\alpha) est bien strictement négatif.

\bullet Le zéro \xi de f est également une fonction de classe C^\infty de p car f'(\xi)>0. On obtient aisément

\xi'=\dfrac{2(\xi^2-p)}{f'(\xi)}

Avec cette formule, on voit que la dérivée de la fonction p\mapsto \xi^2-p vaut

2\xi\xi'-1=\dfrac{4\xi(\xi^2-p)-f'(\xi)}{f'(\xi)}=\dfrac 1{f'(\xi)}

Cette fonction est donc strictement croissante. Sa limite lorsque p tend vers 0 est positive. Elle est donc strictement positive en les p strictement positifs. Au total, \xi>\sqrt p comme annoncé.

\bullet On démontre de façon semblable que, lorsque \eta existe, c’est-à-dire quand p^2\geqslant q, il est strictement inférieur à \sqrt p. Cette fois la dérivée de p\mapsto \eta^2-p est strictement négative car f'(\eta)<0. De plus, il est clair que \eta(\sqrt q) = 0. Je ne vais pas détailler.

\boxed B

Pour rappel, la suite d’approximations u(c) de notre empilement associée à une suite c:n\in\mathbf N\mapsto [0,+\infty[ est la suite dont voici les premiers éléments

c_0,\ \sqrt{p+c_1},\ \sqrt{p+\sqrt{q+ c_2}},\ \sqrt{p+\sqrt{q+ \sqrt{p+ c_3}}}, \ldots

(de façon générale, c_n figure immédiatement sous le n-ième radical.)

Puisque \xi >0, \xi^2>p et (\xi^2-p)^2-\xi-q=0, on a

\xi=\sqrt{p+\sqrt{q+\xi}}

Il est alors immédiat de voir que pour la suite c définie par

n\mapsto\begin{cases}\xi&\mathrm{\ si\ } n\mathrm{\ est\ pair}\\ \xi^2-p&\mathrm{\ sinon}\end{cases}

la suite u(c) est la suite constante \xi,\xi,\xi,\ldots

\boxed C

Vu \boxed{B}, la suite u(\mathbf 0) converge vers un nombre réel \gamma_0>0 (voir par exemple ce billet) qui est la valeur attribuée à notre empilement e. Mais, clairement, nous avons

u_{n+2}(\mathbf 0)=\sqrt{p+\sqrt{q+u_n(\mathbf 0)}}

En passant à la limite, il vient \gamma_0=\sqrt{p+\sqrt{q+\gamma_0}}.

En élevant les deux membres au carré, nous obtenons \gamma_0^2-p=\sqrt{q+\gamma_0}. En particulier \gamma_0^2-p>0. Par une élévation au carré supplémentaire, nous obtenons enfin f(\gamma_0)=0.

Vu ce qui précède, nous avons donc \gamma_0=\xi et

e:=\sqrt{p+\sqrt{q+\sqrt{p+\sqrt{q+\cdots}}}}=\xi

En particulier,

\lim_{n\to+\infty}\underbrace{\sqrt{p+\sqrt{q+\sqrt{p+\sqrt{q+\cdots}}}}}_{n \mathrm{\ radicaux}}=\xi

P.S. Un participant du forum M@TH en Ligne, Tournesol, a trouvé une méthode plus expéditive pour prouver que f possède une unique racine strictement plus grande que \sqrt p. En fait, il est beaucoup plus expéditif, entre autre pour montrer que le minimum de f dans ]0,+\infty[ est strictement négatif. Après être arrivé aux même conclusions que moi concernant la dérivée première f', il conclut que f est strictement décroissant sur [\sqrt p,\alpha] et strictement croissant sur ]\alpha,+\infty[. Comme f(\sqrt p)=-\sqrt p-q<0, f(\alpha) est également strictement négatif. Le reste est alors clair. P.L. 06/12/2018

P.S. J’aurais dû tester le résultat sur le cas où q=p et vérifier qu’il rend bien dans ce cas la valeur de e que nous avons calculée dans ce billet. Cette valeur est la racine positive de l’équation x^2-x-p=0 i.e. \frac 12\left(1+\sqrt{4p+1}\right). Cela se fait facilement. Lorsque q=p, x^2-x-p est un facteur du membre de gauche de l’équation (1) :

(x^2-p)^2-x-p=(x^2+x-p+1)(x^2-x-p)

Les quatre racines de l’équation (1) sont alors

\frac 12\left(-1\pm\sqrt{4p-3}\right)\quad \& \quad \frac 12\left(1\pm\sqrt{4p+1}\right)

et la plus grande est \frac 12\left(1+\sqrt{4p+1}\right), la valeur attendue pour e. P.L. 07/11/2020

__________
(*) Les articles concernant les empilements infinis de radicaux où vous trouverez les notations et les résultats que je vais utiliser ici se trouvent sous la rubrique Empilements infinis de radicaux du sommaire.
(**) On prend en réalité la limite pour p tendant vers zéro par valeurs positives puisqu’en principe p est supposé strictement positif. Par abus de notations, on note \alpha(0), f(\alpha(0)), \ldots ces limites.

Une brève sur les plans affines euclidiens et orientés II

Dans ce billet auquel je vous renvoie pour les définitions et les notations, je faisais observer la chose suivante : le cercle de centre A et passant par le point B est l’ensemble

\{(1-\lambda)A+\lambda B|\lambda\in S^1\}

C’était alors juste une simple observation sur laquelle le billet s’achève. Dans le présent billet, nous allons l’exploiter pour établir la propriété (bien connue) suivante

Quatre points X_1,X_2,X_3,X_4 de \mathcal E sont alignés ou cocycliques si, et seulement si, le rapport anharmonique [X_1,X_2,X_3,X_4] est réel.

Pour rappel, si A,B sont deux points distincts, alors X_k est une combinaisons affine de ces points : X_k=(1-\lambda_k)A+\lambda_k B et(*)

\begin{array}{lcr}[X_1,X_2,X_3,X_4]&=&\dfrac{\overrightarrow{X_1X_3}}{\overrightarrow{X_3X_2}}\ \dfrac{\overrightarrow{X_4X_2}}{\overrightarrow{X_1X_4}}\\[3ex]&=&\dfrac{\lambda_3-\lambda_1}{\lambda_2-\lambda_3}\dfrac{\lambda_2-\lambda_4}{\lambda_4-\lambda_1}\\[3ex]&=&[\lambda_1,\lambda_2,\lambda_3,\lambda_4]\end{array}

Nous allons à présent prouver la proposition, en commençant par établir que la condition est nécessaire.

\boxed{\mathrm A}

\bullet Supposons les X_k situés sur une droite et prenons A et B sur celle-ci. Les abscisses affines \lambda_k sont alors des nombres réels de même, dès lors, que le birapport [\lambda_1,\lambda_2,\lambda_3,\lambda_4].

\bullet Supposons les X_k situés sur un cercle et prenons pour A le centre de ce dernier et pour B un quelconque de ses points. Les modules des \lambda_k valent 1 de sorte que le conjugué du birapport des X_k vaut

[\overline{\lambda}_1,\overline{\lambda}_2,\overline{\lambda}_3,\overline{\lambda}_4]=[\frac{1}{\lambda_1},\frac{1}{\lambda_2},\frac{1}{\lambda_3},\frac{1}{\lambda_4}]=[\lambda_1,\lambda_2,\lambda_3,\lambda_4]

Ce birapport est donc réel.

\boxed{\mathrm B}

Nous supposons à présent que [X_1,X_2,X_3,X_4] est réel et nous discutons sur le fait que X_1,X_2,X_3 sont alignés ou sont les sommets d’un triangle.

\bullet Dans le premier cas, nous prenons A et B sur la droite X_1X_2. Les abscisses affines \lambda_1,\lambda_2,\lambda_3 sont réelles et, en exprimant que [\lambda_1,\lambda_2,\lambda_3,\lambda_4] est égal à son conjugué, on obtient immédiatement \overline{\lambda}_4=\lambda_4 : \lambda_4 est réel et X_4 appartient à la droite AB.

\bullet Dans le second cas, X_1,X_2,X_3 sont sur le cercle circonscrit au triangle dont ils sont les sommets. Nous prenons alors pour A le centre de ce cercle et pour B un quelconque de ses points. Les modules des nombres \lambda_1,\lambda_2,\lambda_3 valent 1. Cette fois en exprimant que [\lambda_1,\lambda_2,\lambda_3,\lambda_4] est égal à son conjugué, on obtient |\lambda_4|^2=1 après un tout petit peu de calcul. Ainsi |\lambda_4|=1 et le point X_4 appartient au cercle en question.

Voilà, ce billet s’achève ici.

😉

__________
(*) Les \overrightarrow{X_kX_l} sont des multiples de \overrightarrow{AB} et le rapport de deux d’entre eux est celui de ces multiples.

Une brève sur les plans affines euclidiens et orientés

Le présent billet transpose rapidement aux plans affines euclidiens et orientés ce que je présentais dans cet article consacré aux plans vectoriels euclidiens et orientés.

Je ne prétends nullement être original dans ce qui suit. Je veux simplement mettre en évidence un fait amusant que j’ignorais jusqu’il y a peu(*).

Considérons un plan affine euclidien orienté \mathcal E. Par définition d’un tel plan, l’espace vectoriel E qui le dirige est un plan vectoriel muni d’un produit scalaire et d’une orientation.

Comme je l’ai expliqué dans l’article cité ci-dessus, on fait de E une droite vectorielle complexe E_\mathbf C en conservant l’addition de E et en posant

\forall a,b\in \mathbf R,\forall \mathbf u\in E,\quad (a+ib)\mathbf u=a\mathbf u+bJ\mathbf u

J est la rotation (vectorielle) d’angle \pi/2.

L’espace affine \mathcal E devient alors une droite affine complexe \mathcal E_\mathbf C. Ses translations sont celles de \mathcal E et ses combinaisons affines sont définies de façon classique : si la somme de a_1,\ldots,a_p\in\mathbf C vaut 1 et si P_1,\ldots, P_p \in\mathcal E, alors, pour tout point O,

\displaystyle{\sum_{k=1}^p}a_kP_k=O+\sum_{k=1}^pa_k\overrightarrow{OP_k}

(Avec la relation de Chasles, on montre facilement que le membre de droite de cette égalité ne dépend pas de O.)

Soient alors des points distincts A et B de \mathcal E_\mathbf C.

L’ensemble

\{(1-\lambda)A+\lambda B|\lambda\in\mathbf R\}

est la droite réelle (i.e. de \mathcal E) passant par ces points tandis que

\{(1-\lambda)A+\lambda B|\lambda\in\mathbf C\}

est la droite complexe passant par ces points, c’est-à-dire \mathcal E_\mathbf C tout entier.

Voici alors l’objet qui est à l’origine de ce billet :

\{(1-\lambda)A+\lambda B|\lambda\in S^1\}

S^1 est le cercle trigonométrique, i.e. l’ensemble des nombres complexes dont le module vaut 1. Cet ensemble est le cercle de \mathcal E de centre A passant par B.

En effet, d’une part

(1-\lambda)A+\lambda B=A+\lambda\overrightarrow{AB}

et, d’autre part, dans E, les multiplications par les éléments de S^1 sont les rotations vectorielles.

Je trouve amusant de décrire les cercles comme des ensembles de combinaisons affines de deux points, au même titre que les droites et leurs segments.

Nous en resterons là! 😉

__________
(*) Ignorance bien regrettable mais,voilà, je n’utilise pratiquement jamais les espaces affines complexes.

Une brève, à propos d’un logarithme qui se prend pour une exponentielle!

Comme je l’ai expliqué ici, à chaque équation différentielle isochrone est associée une application exponentielle(*).

Je rappelle sommairement ce que nous allons utiliser du matériel présenté dans ce billet.

Une équation différentielle \ddot x= f(x,\dot x)(**) est isochrone si, et seulement si, f est quadratique en h. (Ce n’est pas la définition mais une caractérisation que nous allons exploiter.) La solution maximale t\mapsto u(t,x_0,h) de cette équation qui vaut x_0\in\Omega en t=0 et dont la dérivée vaut h\in\mathbf R^n en t=0 ne dépend de t et de h que par l’intermédiaire de leur produit : il existe une fonction \exp: (x_0,h)\mapsto \exp_{x_0}(h) telle que, dans l’intervalle de définition de u,

u(t,x_0,h)=\exp_{x_0}(th)

L’application \exp est l’exponentielle associée à l’équation isochrone \ddot x= f(x,\dot x). Je ne vais pas m’étendre ici sur son domaine de définition. J’en dis quelques mots dans ce pdf mais ce ne sera pas utile pour le présent billet. Dans le texte en question, je donne divers exemples d’applications exponentielles. Ils recouvrent les notions d’exponentielle que l’on connait généralement dans l’enseignement secondaire et dans les premières années d’études scientifiques à l’université, parmi lesquelles l’exponentielle de matrices (qui est un cas particulier de l’exponentielle des groupes de Lie, pour ceux qui connaissent ceux-ci).

Sur \mathbf R, les équations isochrones sont les équations de la forme \ddot x=g(x)\dot x^2. On peut dire pas mal de choses à leur propos mais dans ce billet, nous nous contenterons de déterminer l’application exponentielle associée à l’équation isochrone \ddot x = \dot x^2.

Pour résoudre l’équation \ddot x = \dot x^2, x(0)=x_0, \dot x(0)=h nous introduisons, ce qui est classique, l’inconnue y=\dot x. Ceci transforme l’équation en question en le système équivalent

\begin{cases}\dot x=y, \quad x(0)=x_0\\\dot y=y^2, \quad y(0)=h\end{cases}

Comme on le voit, facilement, la solution maximale de l’équation \dot y=y^2, \quad y(0)=h est

y : t\in I_h\mapsto \dfrac h{1-ht}\in \mathbf R

I_h=\begin{cases}]-\infty,\frac 1h[\mathrm{\ si\ }h>0\\[1ex]\mathbf R\mathrm{\ si\ }h=0\\[1ex]]\frac 1h,+\infty[\mathrm{\ si\ }h <0\end{cases}

En fait,

t\in I_h \Longleftrightarrow th<1

De là,

x : t\in I_h\mapsto x_0+\displaystyle{\int_0^t}\frac h{1-hu}du=x_0-\ln(1-ht)

et, donc, l’exponentielle associée à l’équation \ddot x=\dot x^2 est l’application

\exp : (x_0,h)\in\mathbf R\times]-\infty,1[\mapsto x_0+\ln\frac 1{1-h}\in \mathbf R

En particulier, pour l’équation considérée,

\exp_0(h)=\ln\frac 1{1-h}

est un logarithme !

__________
(*) Dans le billet en question, je ne parle que d’équations définies sur un ouvert de \mathbf R^n mais un des cadres les plus généraux où les notions d’équations isochrones et d’exponentielles associées sont disponibles est celui des variétés différentielles.
(**) Où f: (x,h)\in\Omega\times\mathbf R^n \mapsto f(x,h)\in\mathbf R^n est de classe C^k, avec \Omega un ouvert de \mathbf R^n et k>1.

Petite remarque sur les quaternions et la dépendance linéaire II

Voici une modeste suite à cet article. Je ne pensais pas qu’elle viendrait si rapidement. Elle va dans le sens de ce que j’écrivais dans les dernières lignes du billet sans pour autant épuiser complètement le sujet, me semble-t-il. Disons que c’est un premier pas dans dans la direction que je souhaite suivre. Il n’y en aura peut-être pas d’autre car ces questions de nature topologique sont assez délicates, du moins pour moi.

Je conserve ici les notations de l’article cité, auquel je vous réfère pour les détails. En plus, pour alléger l’écriture nous conviendrons de désigner par L^* l’ensemble des éléments non nuls de tout espace vectoriel L.

Pour rappel, nous avons vu que des éléments \mathbf u,\mathbf v de l’espace vectoriel E sont linéairement dépendants et sont liés par la relation linéaire r\mathbf v+s\mathbf u=0 si, et seulement si, le produit des quaternions p=r+\mathbf u et q=s+\mathbf v est réel.

Nous allons étudier ici le produit de quaternions comme une application différentiable \mathscr P de \mathbf H_E^2 dans \mathbf H_E et, tout naturellement, nous intéresser plus particulièrement à la structure de la pré-image de l’ensemble des quaternions réels par cette application.

Comme nous allons le voir, \mathscr P est singulier en (0,0). Par contre, sa restriction \mathbf P à \mathbf H_E^{2*} est une submersion surjective. C’est donc plutôt la pré-image de \mathbf R\simeq \mathbf R+\{0\}\subset \mathbf H_E par cette restriction que nous allons étudier. Nous constaterons que c’est une variété différentiable ayant une structure assez simple.

L’application linéaire tangente de \mathscr P

Soient \xi=(p,q)\in \mathbf H_E^2 et un vecteur tangent \tau=(h,k)\in T_\xi\mathbf H_E^2\simeq \mathbf H_E^2. La dérivée de \mathscr P dans la direction de \tau est donnée par

\begin{array}{rcl}\mathscr P_{*\xi}\tau&=&\frac d{dt}(p+th)(q+tk)_{|t=0}\\[1ex]&=&pk+hq\end{array}

D’après cette formule, si \xi est nul, alors \mathscr P_{*\xi}=0 tandis que si \xi n’est pas nul, alors \mathscr P_{*\xi} est surjectif. Par conséquent, l’application \mathscr P est singulière à l’origine. De plus, comme \mathbf H_E^{2*} est un ouvert de \mathbf H_E^2, les applications linéaires tangentes à \mathbf P et à \mathscr P en chaque \xi\in \mathbf H_E^{2*} coïncident. L’application \mathbf P, qui est par ailleurs visiblement surjective, est donc une submersion.

La variété V_E

L’ensemble V_E=\mathbf P^{-1}\mathbf R est une variété plongée de \mathbf H_E^{2*} de dimension cinq.

D’après le théorème de transversalité pour les sous-variétés, il résulte en effet de ce qui précède que V_E est une variété plongée de \mathbf H_E^{2*} et qu’en plus, son espace tangent en \xi est la pré-image par \mathbf P_{*\xi} de l’espace tangent à \mathbf R en \mathbf P(\xi). Ce dernier s’identifie à \mathbf R. Par conséquent,

T_\xi V_E=\{(h,k)\in\mathbf H_E^2|pk+hq\in\mathbf R\}

De là, \dim V_E=5. En effet, si p n’est pas nul, alors T_\xi V_E est l’image de l’application linéaire

(h,a)\in\mathbf H_E\times\mathbf R\mapsto (h,-p^{-1}hq+ap^{-1})\in\mathbf H_E^2

et si q n’est pas nul, c’est celle de

(k,a)\in\mathbf H_E\times\mathbf R\mapsto (aq^{-1}-pkq^{-1},k)\in\mathbf H_E^2

On conclut en notant que ces deux applications sont injectives.

Les fibres de \mathbf P:V_E\to \mathbf R

Par définition, il s’agit des ensembles \mathbf P^{-1}\{\varphi\}, \varphi\in\mathbf R. Il est évident que si \varphi n’est pas nul, alors

\mathbf P^{-1}\{\varphi\}=\{(p,\varphi p^{-1})|p\in\mathbf H_E^*\}

et que

\mathbf P^{-1}\{0\}= \mathbf H_E^*\times\{0\}\cup\{0\}\times\mathbf H_E^*

Voici deux conséquences de ceci. La première est immédiate.

L’application (\varphi,p)\mapsto (p,\varphi p^{-1}) est un difféomorphisme de \mathbf R^*\times \mathbf H_E^* sur l’ouvert \mathbf P^{-1}\mathbf R^* de V_E.

Ensuite

L’application P:V_E\to \mathbf R n’est pas un fibré localement trivial.

En effet, si c’était un tel fibré alors il serait trivialisable car \mathbf R est contractile.
Mais alors, toutes ses fibres seraient homéomorphes. Or les fibres \mathbf P^{-1}\{\varphi\}, \varphi\in\mathbf R^*, sont connexes (elles sont homéomorphes à \mathbf H_E^*) alors que \mathbf P^{-1}\{0\} ne l’est pas(*).

Conclusions

Nous y voyons à présent un peu plus clair sur les couples d’éléments linéairement dépendants de E et les relations linéaires qui les lient. Comme on l’a vu dans le billet cité au début de cet article, ces données sont encodées dans \mathscr P^{-1}\mathbf R.

Ce qui précède montre que cet espace topologique admet une stratification naturelle, de même que V_E :

\mathscr P^{-1}\mathbf R=\{(0,0)\}\cup \underbrace{\mathbf P^{-1}\{0\}\cup\mathbf P^{-1}\mathbf R^*}_{V_E}

Contrairement à V_E, \mathscr P^{-1}\mathbf R n’est pas une variété plongée dans \mathbf H_E^2 car c’est en fait un cône, de sommet \{0\}.
Quant à \mathbf P: V_E\to\mathbf R, il s’en est fallu de peu que ce soit un fibré localement trivial. C’est la faute à la fibre particulière \mathbf P^{-1}\{0\} qui n’a pas le bon goût d’être difféomorphe aux autres. Par contre, celles-ci s’entendent bien entre elles : le fibré \mathbf P :P^{-1}\mathbf R^*\to \mathbf R^* admet une trivialisation globale canonique.

__________
(*) Si L est un espace vectoriel de dimension finie, alors L^*\times\{0\}\cup\{0\}\times L^* n’est pas connexe pour la topologie induite par L\times L. En effet, les deux fermés L^*\times\{0\} et \{0\}\times L^* partitionnent L^*\times\{0\}\cup\{0\}\times L^*.

Petite remarque sur les quaternions et la dépendance linéaire

Quaternions …

Considérons un espace vectoriel réel E de dimension trois, euclidien et orienté. Nous noterons (\mathbf u,\mathbf v)\mapsto \mathbf u\cdot\mathbf v son produit scalaire et (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

L’algèbre \mathbf H_E des quaternions sur E généralise de façon simple celle des quaternions classiques, \mathbf H. C’est l’espace vectoriel \mathbf R\oplus E muni du produit associatif (la vérification est facile par calcul direct)

(r+\mathbf u,s+\mathbf v)\mapsto (rs-\mathbf u\cdot\mathbf v)+(r\mathbf v+s\mathbf u+\mathbf u\wedge\mathbf v)

En fait, tout comme \mathbf H (que l’on pourrait noter \mathbf H_{\mathbf R^3}), c’est un corps. L’inverse d’un quaternion non nul p=r+\mathbf u est le quaternion \overline p/|p|^2, où |p|=\sqrt{r^2+\|u\|^2} est le module de p et \overline p:=r-\mathbf u est son conjugué. Remarquons que, tout comme pour les nombres complexes et les quaternions classiques, on a |p|^2=p\overline p=\overline pp.

… et dépendance linéaire

Par définition, des éléments \mathbf u,\mathbf v de E sont linéairement dépendants s’il existe des nombres réels r et s dont l’un au moins n’est pas nul tels que s\mathbf u+r\mathbf v=0.

Nous dirons qu’une égalité de la forme s\mathbf u+r\mathbf v=0 est une relation liant \mathbf u et \mathbf v et qu’elle est triviale si r=s=0 et non triviale sinon.

Curieusement, le fait que deux éléments de E soient linéairement dépendants et les relations, triviales ou non, les liant sont facilement encodés au moyen du produit des quaternions. En effet,

Soient p=r+\mathbf u et q=s+\mathbf v des quaternions sur E. Les propriétés suivantes sont équivalentes.

a) pq\in\mathbf R

b) \mathbf u et \mathbf v sont linéairement dépendants et s\mathbf u+r\mathbf v=0

c) p\in\mathbf R\overline q\quad \lor \quad q\in\mathbf R\overline p

Les vérifications sont faciles. Voici un exemple d’une façon de faire.

\boxed{\mathrm{a)}\Longrightarrow \mathrm{b)}}

Cette implication est assez évidente. Si a) est vrai, alors, d’après la définition du produit de quaternions, on a

(1) r\mathbf v+s\mathbf u+\mathbf u\wedge\mathbf v=0

En multipliant les deux membres de cette égalité scalairement par \mathbf u\wedge\mathbf v, on obtient \|\mathbf u\wedge\mathbf v\|^2=0. Ainsi, \mathbf u\wedge\mathbf v est nul, ce qui signifie que \mathbf u et \mathbf v sont linéairement dépendants. De plus, il résulte alors de (1) que r\mathbf v+s\mathbf u=0.

\boxed{\mathrm{b)}\Longrightarrow \mathrm{c)}}

Pour cette implication, il faut travailler un tout petit peu plus. Nous supposons b) vrai et nous discutons sur \mathbf u et \mathbf v.

i) S’ils sont nuls alors p et q sont réels, donc égaux à leurs propres conjugués. Dès lors, si r n’est pas nul, alors

q=\dfrac srp\in\mathbf R\overline p

sinon, on a

p=0q\in\mathbf R\overline q

ii) Si \mathbf u ou \mathbf v n’est pas nul, alors l’un est un multiple réel de l’autre. Supposons par exemple que \mathbf v=a\mathbf u, où a\in\mathbf R. La relation r\mathbf v+s\mathbf u=0 donne alors (s+ra)\mathbf u=0 et, donc, s+ra=0 puisque \mathbf u n’est pas nul. Ainsi s=-ar et

q=s+\mathbf v=-a(r-\mathbf u)\in\mathbf R\overline p

Semblablement, si c’est \mathbf u qui est un multiple réel de \mathbf v, alors p\in\mathbf R\overline q.

\boxed{\mathrm{c)}\Longrightarrow \mathrm{a)}}

Cette implication est également presqu’évidente. Par exemple, si p\in\mathbf R\overline q, alors il existe un nombre réel a tel que p=a\overline q de sorte que pq=a\overline qq=a\|q\|^2\in\mathbf R.

Voilà, ce billet s’achève tout doucement. Je pense que l’on pourrait aller plus loin et obtenir des renseignements intéressants sur les couples d’éléments de E linéairement dépendants. J’ai le sentiment que ceci est lié à cette question. Je vais encore réfléchir à tout cela et lever la plume ici.

😉

Coordonnées barycentriques et aires orientées

Dans ce billet, j’ai signalé que les coordonnées barycentriques d’un point par rapport à un triangle sont données par certains rapports d’aires orientées mais je n’ai pas démontré ces formules. Or, il se fait qu’avec la notion de forme volume(*), elles sont immédiates à établir, ce que nous allons voir dans le présent article.

Le contexte est celui-ci : \mathscr E est un plan affine dirigé par un plan vectoriel E muni d’une forme volume \omega.

Par exemple, \mathscr E est un plan affine euclidien orienté. En effet, comme rappelé dans la référence b mentionnée en bas de page, le produit scalaire et l’orientation de E induisent canoniquement une forme volume sur E, à savoir le produit mixte(**).

La forme volume \omega permet de définir une notion d’aire aire orientée. Pour un triangle XYZ, c’est le nombre

\mathscr A_{XYZ}=\frac 12\omega(\overrightarrow{XY},\overrightarrow{XZ})

Cela étant,

Les coordonnées barycentriques (\alpha, \beta, \gamma) d’un point P par rapport à un triangle ABC sont les rapports

\alpha = \dfrac{\mathscr{A}_{PBC}}{\mathscr{A}_{ABC}},\quad \beta = \dfrac{\mathscr{A}_{APC}}{\mathscr{A}_{ABC}},\quad \gamma = \dfrac{\mathscr{A}_{ABP}}{\mathscr{A}_{ABC}}

En effet, puisque

P=\alpha A+\beta B+\gamma C

il vient

2\mathscr A_{APC}=\omega(\beta\overrightarrow{AB}+\gamma\overrightarrow{AC},\overrightarrow{AC})=\beta\omega(\overrightarrow{AB},\overrightarrow{AC})=2\beta\mathscr{A}_{ABC}

De la même façon, on obtient immédiatement \mathscr A_{ABP}=\gamma\mathscr A_{ABC}. Pour la troisième égalité, il faut travailler un petit peu plus :

\begin{array}{rcl}2\mathscr A_{PBC}&=&\omega(\overrightarrow{PB},\overrightarrow{PC})\\[1ex]&=&\omega(\overrightarrow{PB},\overrightarrow{BC})\\[1ex]&=&\omega(\alpha\overrightarrow{AB}+\gamma\overrightarrow{CB},\overrightarrow{BC})\\[1ex]&=&\alpha\omega(\overrightarrow{AB},\overrightarrow{BC})\\[1ex]&=&\alpha\omega(\overrightarrow{AB},\overrightarrow{AC})\\[1ex]&=&2\alpha\mathscr{A}_{ABC}\end{array}

Voilà, c’est tout pour ce billet. 😉

__________
(*) Avant de poursuivre, il est peut-être utile de jeter un coup d’œil aux billets que voici : a et b afin de se rafraichir la mémoire à propos des formes volumes sur un espace vectoriel de dimension deux. La notion de forme volume apparaît également ici.
(**) C’est le plus souvent dans ce cas particulier que l’aire orientée est considérée, sans référence explicite à une forme volume. C’est sans doute dommage vu l’efficacité du concept (et le fait qu’il s’agit d’un cas particulier d’une notion extrêmement générale singulièrement utile en géométrie différentielle). Cela dit, deux formes volumes d’un espace vectoriel sont toujours proportionnelles; les quotients apparaissant dans l’énoncé sont donc indépendants de la forme volume \omega, comme de juste.

Une petite formule et les éléments de Frenet d’une courbe régulière

Une petite formule

Voici d’abord la « petite formule ». J’expliquerai plus loin à quoi elle va nous servir.

Nous considérons une fonction f de classe C^1 d’un intervalle ouvert I\subset\mathbf R dans \mathbf R^3 ne s’annulant nulle part. Alors

\boxed{\left(\frac{f}{\|f\|}\right)'=\frac{(f\wedge f')\wedge f}{\|f\|^3}}

et, en conséquence,

\boxed{\left\|\left(\frac{f}{\|f\|}\right)'\right\|=\frac{\|f\wedge f'\|}{\|f\|^2}}

On désigne ici par \wedge le produit vectoriel associé au produit scalaire et à l’orientation canoniques de \mathbf R^3.

Comme f\wedge f' et f sont orthogonaux, on a \|(f\wedge f')\wedge f\|=\|f\wedge f'\|\|f\| et on obtient alors immédiatement la seconde formule en prenant les normes des deux membres de la première.

Celle-ci s’obtient en appliquant la formule standard donnant la dérivée d’un quotient puis en développant un peu le résultat. En détails, le point centré \cdot représentant le produit scalaire,

\begin{array}{rcl}\left(\frac{f}{\|f\|}\right)'&=&\frac 1{\|f\|^2}(\|f\|f'-\|f\|'f)\\[2ex]&=&\frac 1{\|f\|^2}\left(\|f\|f'-\frac{f\cdot f'}{\|f\|}f\right)\\[2ex]&=&\frac 1{\|f\|^3}(\|f\|^2f'-(f\cdot f')f)\\[2ex]&=&\frac1{\|f\|^3}(f\wedge f')\wedge f\end{array}

La dernière égalité s’obtient en appliquant la formule du double produit vectoriel tandis que, pour la seconde, on a utilisé la formule

\|f\|'=\cfrac{f\cdot f'}{\|f\|}

que l’on obtient aisément en dérivant les deux membres de \|f\|^2=f\cdot f.

Où allons-nous et pourquoi?

Une des difficultés techniques récurrentes que l’on rencontre lorsqu’on enseigne la théorie élémentaire des courbes de \mathbf R^3 est d’établir les formules donnant le trièdre de Frenet, la courbure et la torsion d’une courbe lorsqu’elle est décrite au moyen d’un paramétrage quelconque et non à l’aide d’une abscisse curviligne.

J’ai emprunté à John Roe(*) ce qu’il appelle lui-même un truc permettant d’obtenir relativement rapidement les formules donnant ces grandeurs mais il s’est avéré à l’usage qu’il était assez difficile à utiliser pédagogiquement : passablement artificiel, il me fallait régulièrement le réétudier avant d’aller donner cours et, visiblement, les étudiants ne l’appréciaient pas trop ayant eux mêmes des difficultés à le mémoriser efficacement.

Récemment, je me suis penché à nouveau sur la question et je suis parvenu à obtenir une méthode directe, facile à mettre en œuvre, aisée à mémoriser et suffisamment naturelle pour ne pas rebuter les étudiants lesquels, tout comme moi-même, n’aiment pas trop les deus ex machina. Pour surprenant que cela puisse paraitre, c’est la première formule prouvée plus haut qui, d’une certaine façon, est la clé de la simplicité de ces calculs. Elle et son corollaire interviennent à plusieurs reprises et l’avoir préalablement établie allège sensiblement la présentation de ceux-ci.

Je vais vous montrer comment cela fonctionne après avoir rappelé un minimum de choses à propos du trièdre de Frenet, de la courbure et de la torsion.

Rappels

a) Pour une courbe(**) (J,\eta) de \mathbf R^3 rapportée à une abscisse curviligne, les équations de Frenet s’écrivent

\begin{cases}\mathbf t'=\kappa\mathbf n\\ \mathbf n'=-\kappa\mathbf t+\tau\mathbf b\\\mathbf b'=-\tau\mathbf n\end{cases}

\mathbf t, \mathbf n et \mathbf b sont la tangente unitaire, la normale principale et la binormale de la courbe. Les fonctions \kappa et \tau sont la courbure, supposée sans zéros, et la torsion de cette courbe; la base orthonormée positive (\mathbf t,\mathbf n,\mathbf b) de \mathbf R^3 est communément appelée trièdre de Frenet de \eta (au point de J où toutes ces fonctions sont évaluées).

En fait, \mathbf t=\eta' et la première équation de Frenet condense, en quelque sorte, les définitions de \kappa=\|\mathbf t'\| et de \mathbf n=\mathbf t'/\|\mathbf t'\|. La binormale est alors simplement le produit vectoriel \mathbf t\wedge \mathbf n.

Le fait que l’argument de \eta soit une abscisse curviligne rend particulièrement simples et naturelles les définitions de son trièdre de Frenet, de sa courbure et de sa torsion. Pour une courbe dont l’argument n’est pas de la même nature, les définitions de ces éléments sont un peu plus compliquées. Nous allons voir de quoi il retourne au paragraphe suivant.

b) Une courbe (I,\gamma) régulière, c’est-à-dire dont le vecteur tangent n’a pas de zéros, est équivalente à un paramétrage rapporté à une abscisse curviligne (J,\eta) de même orientation : il existe un changement de paramètre u: I\to J tel que \gamma=\eta\circ u.

Alors, par définition, les tangente unitaire, normale principale etc. de \gamma sont celles de \eta calculées en u. Par exemple(***), la courbure \kappa_\gamma de \gamma est \kappa_\eta\circ u. Semblablement, \mathbf t_\gamma=\mathbf t_\eta\circ u, etc.

Naturellement, il faut vérifier que ces notions sont indépendantes du paramétrage naturel (J,\eta) auxiliaire choisi pour les introduire. En fait, cela résulte de ce qu’elles s’expriment toutes par des formules utilisant exclusivement \gamma et ses dérivées.

C’est précisément à l’obtention de ces formules qu’est consacré le reste de ce billet.

La tangente unitaire

En dérivant la relation \gamma=\eta\circ u à l’aide du théorème de dérivation des fonctions composées, il vient \gamma'=u'\ \eta'\circ u=u'\mathbf t_\gamma. Puisque les deux courbes ont la même orientation, \gamma' et \eta'\circ u ont même sens. Ainsi u' est strictement positif et, compte tenu de ce que \eta'\circ u est normé, il vient u'=\|\gamma'\|. De là

\boxed{\mathbf t_\gamma=\cfrac{\gamma'}{\|\gamma'\|}}

La courbure et la normale principale

En dérivant l’égalité \mathbf t_\gamma=\mathbf t_\eta\circ u, on obtient \mathbf t_\gamma'=\|\gamma'\|\mathbf t_\eta'\circ u puis

\|\mathbf t_\gamma'\|=\|\|\gamma'\|\mathbf t_\eta'\circ u\|=\|\gamma'\|\kappa_\eta\circ u=\|\gamma'\|\kappa_\gamma

De là, en appliquant la conséquence de la « petite formule »,

\boxed{\kappa_\gamma=\cfrac{\|\gamma'\wedge\gamma''\|}{\|\gamma'\|^3}}

Pour aller plus loin, nous devons supposer que la courbure de \eta, et donc celle de \gamma, soit sans zéros. C’est en effet à cette condition que le trièdre de Frenet et la torsion existent. Pour le reste de ce billet, nous supposons donc que les deux vecteurs \gamma' et \gamma'' sont partout linéairement indépendants.

Dans ces conditions, d’après la première équation de Frenet et les définitions données plus haut,

\mathbf t_\gamma'=\|\gamma'\|\mathbf t_\eta'\circ u=\|\gamma'\|\kappa_\gamma\mathbf n_\gamma

Ainsi, vu la « petite formule » et l’expression de \kappa_\gamma que nous venons de trouver,

\boxed{n_\gamma=\cfrac{(\gamma'\wedge\gamma'')\wedge\gamma'}{\|\gamma'\wedge\gamma''\|\|\gamma'\|}}

La binormale et la torsion

Vu les définitions,

\mathbf b_\gamma=\mathbf b_\eta\circ u=(\mathbf t_\eta\circ u)\wedge(\mathbf n_\eta\circ u)=\mathbf t_\gamma\wedge\mathbf n_\gamma

Avec les formules déjà obtenues et la formule du double produit vectoriel(****), il vient

\mathbf t_\gamma\wedge\mathbf n_\gamma=\cfrac{\gamma'\wedge((\gamma'\wedge\gamma'')\wedge\gamma')}{\|\gamma'\wedge\gamma''\|\|\gamma'\|^2}=\cfrac{\|\gamma'\|^2\gamma'\wedge\gamma''-(\gamma'\cdot(\gamma'\wedge\gamma''))\gamma'}{\|\gamma'\wedge\gamma''\|\|\gamma'\|^2}

Dès lors, puisque \gamma'\cdot(\gamma'\wedge\gamma'') est nul,

\boxed{\mathbf b_\gamma=\cfrac{\gamma'\wedge\gamma''}{\|\gamma'\wedge\gamma''\|}}

Pour calculer la torsion de \gamma, nous allons dériver \mathbf b_\gamma et nous utiliserons la troisième équation de Frenet. On a

\mathbf b_\gamma'=(\mathbf b_\eta\circ u)'=\|\gamma'\|\mathbf b_\eta'\circ u=-\|\gamma'\|\tau_\gamma\mathbf n_\gamma

D’après la « petite formule » appliquée à f=\gamma'\wedge\gamma'', dont la dérivée est \gamma'\wedge\gamma''',

\begin{array}{rcl}\mathbf b_\gamma'&=&\cfrac{((\gamma'\wedge\gamma'')\wedge(\gamma'\wedge\gamma'''))\wedge(\gamma'\wedge\gamma'')}{\|\gamma'\wedge\gamma''\|^3}\\[2ex]&=&\cfrac{[\gamma',\gamma'',\gamma''']}{\|\gamma'\wedge\gamma''\|^3}\ \gamma'\wedge(\gamma'\wedge\gamma'')\end{array}

[-,-,-] désigne le produit mixte (-\wedge -)\cdot - de \mathbf R^3. Pour obtenir la seconde égalité, on a appliqué la formule du double produit vectoriel à (\gamma'\wedge\gamma'')\wedge(\gamma'\wedge\gamma''') vu comme produit des trois facteurs \gamma'\wedge\gamma'',\gamma' et \gamma''' et, comme plus haut, on a tenu compte de ce que \gamma'\cdot(\gamma'\wedge\gamma'') est nul.

Il résulte alors immédiatement de la formule obtenue ci-dessus pour \mathbf n_\gamma que

\boxed{\tau_\gamma=\cfrac{[\gamma',\gamma'',\gamma''']}{\|\gamma'\wedge\gamma''\|^2}}

__________
(*) John Roe : Elementary Geometry, Oxford University Press, 1993 — un magnifique livre!
(**) Suivant en cela C. G. Gibson : Elementary Geometry of Differentiable Curves, Cambridge University Press, 2001 (également un très beau livre), j’appelle courbe ou paramétrage (de \mathbf R^3 pour ce qui nous concerne ici) une application différentiable \eta : J\to \mathbf R^3, où J est un intervalle ouvert de \mathbf R. Il ne s’agit donc pas d’un ensemble de points; l’ensemble de point auquel on se serait peut-être attendu est l’image \eta(J) de \eta. Il est appelé trace de \eta par Gibson. Géométriquement, c’est cette trace qui est significative, aussi introduit-on la notion d’équivalence de paramétrages : deux paramétrages de même trace (J,\eta) et (I,\gamma) sont dits équivalents s’il existe un changement de variable régulier u: I\to J tel que \gamma=\eta\circ u.
(***) Pour préciser de quelle courbe on calcule la grandeur X, on indice si nécessaire celle-ci par le nom de la courbe : X_\gamma, X_\eta etc.
(****) Les trois facteurs sont \gamma',\gamma'\wedge\gamma'' et \gamma'.

Une remarque à propos de certaines séries de puissances III

Le but de ce billet est de calculer les séries

\displaystyle \mathscr S_r=\sum_{k=0}^\infty k^rx^k, r\in\mathbf N

J’en ai parlé ici où j’ai par ailleurs introduit les polynômes \xi_r\in\mathbf K[t], \mathbf K\in\{\mathbf R,\mathbf C\}, dont j’ai présenté quelques propriétés ici.

Ceux-ci sont tels que \mathscr S_r=\xi_r\left(\frac 1{1-x}\right) et sont univoquement déterminés par le fait qu’ils vérifient

(1) \forall r\in\mathbf N,\quad \xi_{r+1}=t(t-1)\xi'_r

et par la condition initiale \xi_0=t. Chaque \xi_r est de degré r+1 et s’annule en 0.

La série génératrice des \xi_r

Il s’agit, par définition, de la série \displaystyle \xi_\lambda=\sum_{r=0}^\infty\xi_r\lambda^r.

Cette série vérifie une certaine équation différentielle et, grâce à celle-ci, nous allons pouvoir la calculer.

En effet, multipliant les deux membres de (1) par \lambda^{r+1} puis en sommant sur r, il vient facilement

\lambda t(t-1)\xi'_\lambda-\xi_\lambda+t=0,\quad \xi_\lambda(0)=0

Nous chercherons \xi_\lambda sous la forme \displaystyle\xi_\lambda=\sum_{k=1}^\infty u_kt^k ce qui, injecté dans l’équation différentielle, donne l’équation

\displaystyle \lambda\sum_{k=2}^\infty(k-1)u_{k-1}t^k-\sum_{k=1}^\infty(\lambda k+1)u^kt^k+t=0

Formellement(*), ceci équivaut au système

\begin{cases}\forall k>1,\quad \lambda(k-1)u_{k-1}-(\lambda k+1)u_k=0\\[2ex](\lambda +1)u_1=1\end{cases}

ce dont on déduit aisément que

\displaystyle \forall k>0,\quad u_k=(k-1)!\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}

Ainsi que nous l’avions fait dans le premier billet mentionné au début, posons \xi_r(t)=\sum_{i=1}^{r+1}a_{r,i}t^i. Nous venons de démontrer que

\displaystyle\boxed{\forall k>0, \quad\sum_{r=k-1}^\infty a_{r,k}\lambda^r=(k-1)!\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}}

Une formule pour \ a_{r,k}

En développant en fractions simples le membre de gauche de l’égalité encadrée, nous allons calculer les coefficients a_{r,k}.

Nous cherchons les éléments v_i de \mathbf K tels que

\dfrac{\lambda^{k-1}}{(k\lambda+1)\cdots(\lambda+1)}=\dfrac{v_1}{\lambda+1}+\dfrac{v_2}{2\lambda+1}+\cdots+\dfrac{v_k}{k\lambda+1}

C’est facile : comme les zéros du dénominateur de la fraction à décomposer sont simples, il suffit, après avoir chassé les dénominateurs dans cette égalité, d’évaluer les deux membres de l’égalité obtenue en chacun de leurs zéros. On trouve

\displaystyle\forall i\in\{1,\ldots,k\},\quad v_i=\dfrac{(-1)^{i+1}}{(i-1)!(k-i)!}

Cela étant, en utilisant la série géométrique \sum_{r=0}^\infty\lambda^r=\frac{1}{1-\lambda}, il vient

\displaystyle\dfrac{v_1}{\lambda+1}+\dfrac{v_2}{2\lambda+1}+\cdots+\dfrac{v_k}{k\lambda+1}=\sum_{r=0}^\infty\left(\sum_{i=1}^kv_i(-i)^r\right)\lambda^r

Dès lors

\displaystyle \boxed{a_{r,k}=(-1)^r\sum_{i=0}^{k-1}{k-1 \choose i}(-1)^i(i+1)^r}

et, donc,

\displaystyle \boxed{\mathscr S_r(x)=\sum_{k=0}^\infty k^rx^k=\sum_{i=1}^{r+1}\left((-1)^r\sum_{j=0}^{i-1}{i-1 \choose j}(-1)^j(j+1)^r\right)\frac 1{(1-x)^i}}

Deux formules remarquables

Dans le premier article cité plus haut, nous avions obtenu ceci :

\displaystyle a_{r,1}=(-1)^r,\quad a_{r,2}=(-1)^{r+1}2^r+(-1)^r, \quad a_{r,r}=-\frac 12(r+1)!, \quad a_{r,r+1}=r!

La seconde formule encadrée redonne facilement les deux premières égalités. Par contre, il n’est pas immédiat qu’elle redonne les deux dernières. En comparant celles-ci avec les expressions qu’elle donne de a_{r,r} et de a_{r,r+1}, nous obtenons deux égalités remarquables :

\displaystyle (-1)^r\sum_{i=1}^r\dfrac{(-1)^ii^r}{(i-1)!(r-i)!}=\dfrac{r(r+1)}2\   \& \   (-1)^{r+1}\sum_{i=1}^{r+1}\frac{(-1)^ii^r}{(i-1)!(r+1-i)!}=1

Les nombres

\displaystyle \sum_{i=1}^k\frac{(-1)^{k-i}i^r}{(i-1)!(k-i)!}

semblent avoir de belles propriétés. Pour l’instant je ne sais rien dire de plus à leur propos. Peut-être une autre fois…

😉

__________
(*) Les calculs sont menés dans le cadre des séries formelles. Leur éventuelle convergence ne sera pas étudiée ici.

Une remarque à propos de certaines séries de puissances I

On rencontre assez régulièrement le problème de calculer des séries de la forme

\displaystyle \mathscr S_P(x)=\sum_{k=0}^\infty P(k)x^k

P\in\mathbf K[t] est un polynôme à coefficients dans \mathbf K\in\{\mathbf R,\mathbf C\}.

Cette famille de séries inclut la célèbre série géométrique \sum_{k=0}^\infty x^k=\frac 1{1-x} et nous allons montrer que

(1) Pour tout polynôme P de degré n\in\mathbf N, il existe un seul polynôme Q de degré n+1 s’annulant en 0 et tel que \displaystyle \mathscr S_P(x)=Q\left(\frac 1{1-x}\right).

L’unicité de Q est évidente et nous n’y reviendrons pas. Pour le reste, la propriété (1) va résulter de quelques faits simples que nous allons passer en revue.

Une formule pour les puissances de la série géométrique

Il s’agit de la formule

\displaystyle \forall n\in\mathbf N,\quad\sum_{k=0}^\infty{n+k\choose n}x^k=\frac{1}{(1-x)^{n+1}}

Elle résulte immédiatement des deux suivantes

\displaystyle \frac{d^n}{dx^n}\frac 1{1-x}=\frac{n!}{(1-x)^{n+1}}\quad \& \quad\frac{d^n}{dx^n}\frac 1{1-x}=\sum_{k=0}^\infty\frac{(n+k)!}{k!}x^k

qui sont très faciles à démontrer par récurrence sur n (je ne vais pas détailler ces vérifications).

Une base de l’espace des polynômes

Les polynômes e_n\in\mathbf K[t], n\in \mathbf N, définis par e_0(t)=1 et, pour n>0, par e_n=\frac 1{n!}(t+n)(t+n-1)\cdots(t+1) forment une base de \mathbf K[t].

En effet, e_n(t)-\frac{t^n}{n!} est une somme de termes de degrés strictement plus petits que n. Ainsi, la matrice qui exprime les polynômes e_n dans la base canonique 1, t, t^2, \ldots, t^n,\ldots est triangulaire inférieure et sa diagonale est \mathrm{diag}(\frac 1{0!},\frac 1{1!}, \ldots, \frac 1{n!}, \ldots). Elle est donc inversible.

Preuve de la propriété (1)

Soient un polynôme P\in\mathbf K[t] de degré n et \sum_{i=0}^np_ie_i sa décomposition selon la base (e_0,e_1,\ldots, e_n,\ldots). On a

\displaystyle \mathscr S_P(x)=\sum_{i=0}^np_i\sum_{k=0}^\infty e_i(k)x^k=\sum_{i=0}^np_i\sum_{k=0}^\infty{i+k\choose i}x^k=\sum_{i=1}^{n+1}\frac{p_{i-1}}{(1-x)^i}

car pour tous n,k\in \mathbf N, e_n(k)={n+k\choose n}. D’où la propriété.

Les séries \mathscr S_r

Lorsque P(t)=t^r, je note \mathscr S_r la série \mathscr S_P. Je note aussi \xi_r l’unique polynôme prévu par la propriété (1), c’est-à-dire le polynôme de degré r+1 qui s’annule en 0 et qui est tel que

(2) \displaystyle \mathscr S_r(x)=\sum_{k=0}^\infty k^rx^k=\xi_r\left(\frac 1{1-x}\right)

Les polynômes \xi_r vérifient une relation de récurrence qui permet de calculer les premiers facilement « à la main » et, de toute façon, d’en programmer le calcul à l’aide d’un logiciel de calcul formel(*).

Les polynômes \xi_r sont univoquement déterminés par les conditions \xi_0(t)=t et

(3) \forall r\in\mathbf N,\quad \xi_{r+1}(t)=t(t-1)\xi'_r(t)

Pour obtenir cette relation, dérivons les membres extrêmes de (2) par rapport à x. On a

\displaystyle \mathscr S'_r(x)=\sum_{k=1}^\infty k^{r+1}x^{k-1}=\frac 1x\sum_{k=1}^\infty k^{r+1}x^k=\frac 1x\mathscr S_{r+1}(x)

et

\displaystyle \left[\xi_r\left(\frac 1{1-x}\right)\right]'=\frac 1{(1-x)^2}\xi'_r\left(\frac 1{1-x}\right)

de sorte que

\displaystyle \frac 1x\xi_{r+1}\left(\frac 1{1-x}\right)=\frac 1{(1-x)^2}\xi'_r\left(\frac 1{1-x}\right)

On obtient alors (3) en effectuant le changement de variable t=\frac 1{1-x} dans cette dernière relation.

La relation (3) ( et la condition initiale) nous donne aisément le tableau des premiers \xi_r :

\displaystyle \begin{array}{c|l}\xi_0&t\\\hline\xi_1&t^2-t\\\hline\xi_2&2t^3-3t^2+t\\\hline\xi_3&6t^4-12t^3+7t^2-t\end{array}

D’où les premières séries \mathscr S_r :

\displaystyle \begin{array}{lcl}\displaystyle{\sum_{k=0}^\infty x^k}&=&\displaystyle{\frac 1{1-x}}\\[2ex]\displaystyle{\sum_{k=0}^\infty kx^k}&=&\displaystyle{-\frac 1{1-x}+\frac 1{(1-x)^2}}\\[2ex]\displaystyle{\sum_{k=0}^\infty k^2x^k}&=&\displaystyle{\frac 1{1-x}-\frac 3{(1-x)^2}+\frac 2{(1-x)^3}}\\[2ex]\displaystyle{\sum_{k=0}^\infty k^3x^k}&=&\displaystyle{-\frac 1{1-x}+\frac 7{(1-x)^2}-\frac {12}{(1-x)^3}+\frac 6{(1-x)^4}}\end{array}

Quelques coefficients des polynômes \xi_r

Voici quelques coefficients des polynômes \xi_r. Pour l’instant, je ne les connais pas tous(**).

Ecrivons \xi_r(t)=\sum_{i=1}^{r+1}a_{r,i}t^i. Alors

(4) \displaystyle a_{r,1}=(-1)^r,\quad a_{r,2}=(-1)^{r+1}2^r+(-1)^r, \quad a_{r,r}=-\frac 12(r+1)!, \quad a_{r,r+1}=r!

La dérivée n-ième des deux membres de (3) en t=0 nous donne la relation

(5) \xi_{r+1}^{(n)}(0)=-n\xi_r^{(n)}(0)+n(n-1)\xi_r^{(n-1)}(0)

D’un autre côté, \xi_r^{(n)}(0) vaut n!a_{r,n} si 1\leqslant n\leqslant r+1 et est nul pour les autres valeurs de n\in \mathbf N.

En faisant n=1 et n=r+2 dans (5), on obtient facilement les valeurs de a_{r,1} et a_{r,r+1}. Ensuite, avec n=r+1, on voit que r\mapsto a_{r,r} est solution de l’équation de récurrence x_{r+1}=rx_r-(r+1)!,x_1=-1, dont -\frac 12(r+1)! est visiblement la solution. Enfin, avec n=2, on voit que a_{r,2} est solution de l’équation x_{r+1}=-2x_r+(-1)^r, x_1=1, dont (-1)^{r+1}2^r+(-1)^r est la solution, comme on le voit aisément.

P.S. Je pense avoir trouvé une expression explicite des \xi_r et donc des séries \mathscr S_r. Cela sera exposé dans un billet à venir. P.L. 2/12/2017

P.S. Voilà, on trouvera ces expressions ici. P.L. 3/12/2017

__________
(*) Pour alléger l’écriture, je noterai désormais f', f'', f''', \ldots, f^{(n)},\ldots les dérivées successives d’une fonction, d’un polynôme ou d’une série (dérivée terme à terme) f.
(**) Je présente dans ce billet, quelques belles propriétés de ces polynômes.