Sur quelques vecteurs propres amusants

C’est dans cet article que se trouve l’origine de ce dont je vais vous entretenir mais il ne faut nullement l’avoir lu pour comprendre le présent billet dont le propos est extrêmement élémentaire.

Dans l’article en question, j’ai associé de façon naturelle deux équations différentielles à chaque matrice de trace nulle

H=\begin{pmatrix}p&q\\r&-p\end{pmatrix}

Peut importe ce que sont ces équations, il suffit de savoir que l’on échange ces équations en remplaçant H par

H'=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

C’est en effet à propos de l’application linéaire H\mapsto H' que je souhaite faire ici quelques observations.

Les déterminants des matrices H et H' sont égaux. Puisque leurs traces sont nulles, elles ont même polynôme caractéristique : elles doivent être semblables. Et, en effet, comme on le voit tout de suite(*),

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}p&q\\r&-p\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}-p&r\\q&p\end{pmatrix}

Plus généralement

\begin{pmatrix}0&1\\1&0\end{pmatrix}\begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}0&1\\1&0\end{pmatrix}=\begin{pmatrix}t&z\\y&x\end{pmatrix}

L’ensemble des matrices réelles, carrées et de dimension deux est un espace vectoriel réel de dimension quatre. On le note souvent gl(2,\mathbf R). Plus précisément, l’application(**)

\begin{pmatrix}x&y\\z&t\end{pmatrix}\in gl(2,\mathbf R)\mapsto (x,y,z,t)\in\mathbf R^4

est une isométrie, gl(2,\mathbf R) étant muni du produit scalaire (A,B)\mapsto \mathrm{tr}(\tilde AB) et \mathbf R^4 de son produit scalaire canonique.

Le sous-espace des matrices de trace nulle de gl(2,\mathbf R) est noté sl(2,\mathbf R). C’est un hyperplan et son complément orthogonal, qui est donc de dimension un, est la droite vectorielle engendrée par la matrice unité. Comme on le voit immédiatement, celle-ci est en effet orthogonale aux matrices de trace nulle.

Comme on le vérifie très facilement, la similitude de matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est une isométrie de gl(2,\mathbf R); on a vu plus haut qu’elle stabilise sl(2,\mathbf R).

Nous allons déterminer ses vecteurs propres, c’est-à-dire chercher les (x,y,z,t) non nuls pour lesquels il existe un nombre réel \lambda vérifiant (t,z,y,x)=\lambda(x,y,z,t).

Il est particulièrement simple de résoudre ce système d’équations homogènes mais je ne vais pas le faire ici. Je vais seulement décrire ses solutions.

On voit qu’il est compatible si, et seulement si, \lambda^2=1. Autrement dit, les valeurs propres de notre application sont \pm 1.

L’espace des solutions du système lorsque \lambda=1 est \{(x,y,y,x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,1),(0,1,1,0)). Lorsque \lambda=-1, l’espace des solutions est \{(x,-y,y,-x)|x,y\in\mathbf R\}. Il est de dimension deux et admet la base ((1,0,0,-1),(0,-1,1,0)).

Les éléments de ces bases sont deux à deux orthogonaux et leurs longueurs sont toutes égales à \sqrt 2. Rangés dans l’ordre où nous les avons rencontrés ils forment une base de \mathbf R^4 de même orientation que sa base canonique. Dans cette base, notre similitude est représentée par la matrice diagonale \mathrm{diag}(1,1,-1,-1). Son déterminant est donc 1.

Les éléments de gl(2,\mathbf R) représentent les endomorphismes de l’espace vectoriel \mathbf R^2 :

\begin{pmatrix}u\\v\end{pmatrix}\mapsto \begin{pmatrix}x&y\\z&t\end{pmatrix}\begin{pmatrix}u\\v\end{pmatrix}

L’interprétation en termes d’applications linéaires des quatre vecteurs propres que nous venons de mettre en évidence est intéressante :

  • (1,0,0,1) représente l’identité \mathbf 1 de \mathbf R^2 dans lui-même.
  • (0,1,1,0) représente la volte \mathcal V: (x,y)\mapsto (y,x); c’est la symétrie orthogonale par rapport à la droite d’équation x=y.
  • (1,0,0,-1) représente la symétrie orthogonale par rapport à la droite d’équation y=0; regardée comme une application de l’ensemble des nombres complexes dans lui-même, c’est la conjugaison. Nous la noterons \mathcal C.
  • (0,-1,1,0) représente la rotation d’angle \pi/2; sur \mathbf C, c’est aussi la multiplication par i et nous la noterons \mathcal I.

La composée de deux symétries orthogonales est une rotation dont l’angle est le double de l’angle orienté que forment ces droites. Par conséquent, \mathcal V\circ \mathcal C=\mathcal I. Mais \mathcal V et \mathcal C sont des involutions. Nous avons donc aussi \mathcal V\circ \mathcal I=\mathcal C et \mathcal I\circ \mathcal C=\mathcal V. Voici la table complète des composées de nos quatre applications :

\begin{array}{c|c|c|c|c}&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathbf 1&\mathbf 1&\mathcal V&\mathcal C&\mathcal I\\ \hline \mathcal V&\mathcal V&\mathbf 1&\mathcal I&\mathcal C\\ \hline \mathcal C&\mathcal C&-\mathcal I&\mathbf 1&-\mathcal V\\ \hline \mathcal I&\mathcal I&-\mathcal C&\mathcal V&-\mathbf 1\end{array}

Cette table montre que

\{\pm \mathbf 1, \pm \mathcal V, \pm \mathcal C , \pm \mathcal I\}

est un sous groupe du groupe des isométries de \mathbf R^2, celui engendré par les réflexions \mathcal V et \mathcal C. Celles-ci conservent le carré de sommets (1,1),(-1,1),(-1,-1),(1,-1). C’est donc une copie du groupe diédral D_8 qui est le groupe des symétries d’un carré. Notez qu’il n’y a que deux groupes d’ordre huit non abéliens : le groupe diédral D_8 et le groupe des quaternions.

Une autre façon d’identifier notre groupe à D_8 est d’utiliser la présentation générale des groupes diédraux décrite dans la référence donnée quelques lignes plus haut. Abstraitement, le groupe D_8 est le groupe de présentation

\langle \sigma,\tau|\sigma^2,\tau^4,\sigma\tau\sigma^{-1}\tau\rangle

Cela signifie que D_8 est engendré par les éléments \sigma et \tau et que ceux-ci sont assujettis à vérifier les seules relations

\sigma^2=e \quad \& \quad  \tau^4=e \quad \& \quad  \sigma\tau\sigma^{-1}\tau=e

(e est le neutre). Les éléments du groupe sont alors

e,\tau,\tau^2,\tau^3,\sigma,\sigma\tau,\sigma\tau^2,\sigma\tau^3

Il est facile de voir à l’aide de la table ci-dessus que l’on peut prendre pour \sigma et \tau respectivement la réflexion \mathcal V et la rotation \mathcal I. Par exemple, on a

(\mathbf 1,\mathcal I,\mathcal I^2,\mathcal I^3,\mathcal V,\mathcal V\mathcal I,\mathcal V\mathcal I^2,\mathcal V\mathcal I^3)=(\mathbf 1,\mathcal I,-\mathbf 1,-\mathcal I,\mathcal V,\mathcal C,-\mathcal V,-\mathcal C)

__________
(*) La matrice \begin{pmatrix}0&1\\1&0\end{pmatrix} est sa propre inverse. Elle représente en effet la volte

\mathcal V: (x,y)\mapsto (y,x)

de \mathbf R^2 dans la base canonique de ce dernier, volte qui est évidemment une involution.

(**) Nous utiliserons librement cette application pour identifier gl(2,\mathbf R) et \mathbf R^4.

Une brève à propos des bases orthonormées positives en dimension 3

Soit un espace vectoriel E réel, euclidien, orienté et de dimension 3. Nous notons (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

Comme ce produit est antisymétrique, sa table de multiplication dans une base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est complètement caractérisée par les trois produits \mathbf e_1\wedge \mathbf e_2, \mathbf e_2\wedge \mathbf e_3 et \mathbf e_3\wedge \mathbf e_1.

Il est bien connu que la table de multiplication du produit vectoriel est la même dans toutes les bases orthonormées positives. Plus précisément, si la base (\mathbf e_1,\mathbf e_2,\mathbf e_3) est orthonormée et positive, alors

(1) \begin{cases}\mathbf e_1\wedge \mathbf e_2=\mathbf e_3\\ \mathbf e_2\wedge \mathbf e_3=\mathbf e_1\\ \mathbf e_3\wedge \mathbf e_1=\mathbf e_2\end{cases}

Ce dont je n’avais pas conscience jusqu’à aujourd’hui, et dont je me suis rendu compte en préparant un cours que je donnerai demain matin, c’est que la réciproque est vraie :

Si des éléments \mathbf e_1, \mathbf e_2 et \mathbf e_3 de E sont non nuls et vérifient (1), alors (\mathbf e_1,\mathbf e_2,\mathbf e_3) est une base orthonormée et positive de E.

Supposons en effet que \mathbf e_1, \mathbf e_2 et \mathbf e_3, non nuls, vérifient (1).

D’une part, comme tout produit vectoriel est orthogonal à ses facteurs, \mathbf e_1, \mathbf e_2 et \mathbf e_3 sont alors deux à deux perpendiculaires.

En particulier, ils sont linéairement indépendants puisqu’aucun n’est nul : (\mathbf e_1,\mathbf e_2,\mathbf e_3) est donc une base.

Celle-ci est positive vu que

[\mathbf e_1,\mathbf e_2,\mathbf e_3]=[\mathbf e_1,\mathbf e_2,\mathbf e_1\wedge\mathbf e_2]=\|\mathbf e_1\wedge\mathbf e_2\|^2=\|\mathbf e_3\|^2>0

(où [-,-,-] désigne le produit mixte de E).

De plus, étant donné que

\forall \mathbf u,\mathbf v\in E,\quad \|\mathbf u\wedge\mathbf v\|=\|\mathbf u\|\|\mathbf v\|\sin\varphi

\varphi est l’angle non orienté que font \mathbf u et \mathbf v, les longueurs l_i=\|\mathbf e_i\| vérifient les relations

\begin{cases}l_1l_2=l_3\\l_2l_3=l_1\\l_3l_1=l_2\end{cases}

De là, l_1^2=l_2^2=l_3^2=l_1l_2l_3 et donc, vu que les l_i sont strictement positifs, l_1=l_2=l_3=1 : les \mathbf e_i sont normés.

😉

Translations et homothéties

L’ensemble des homothéties (non constantes) et des translations d’un espace affine est un groupe, sous-groupe du groupe des affinités de l’espace. C’est connu mais peu diffusé, du moins en Belgique. Aussi vais-je en toucher un mot ici, d’autant que j’enseigne ce fait, sans l’avoir consigné dans mon syllabus.

A chaque application affine \mathcal T d’un espace affine \mathcal E dans lui-même, ce que nous noterons \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), est associée une application linéaire \mathcal T_*, endomorphisme de l’espace vectoriel \overrightarrow{\mathcal E} qui dirige \mathcal E(*). Elle est caractérisée par la propriété

\forall A,B\in\mathcal E,\quad \mathcal T_*(\overrightarrow{AB})=\mathcal{T}(B)-\mathcal{T}(A)

De plus, si \mathcal S,\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E), alors \mathcal S\circ\mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) et

(1) (\mathcal S\circ\mathcal T)_*=\mathcal S_*\circ\mathcal T_*

Comme \mathrm{id}_{\mathcal E*} =\mathrm{id}_{\overrightarrow{\mathcal E}} et, si \mathcal T est bijectif, (\mathcal T^{-1})_*=(\mathcal T_*)^{-1}, il résulte immédiatement de l’égalité (1) que l’ensemble des \mathcal T\in \mathrm{Aff}(\mathcal E,\mathcal E) pour lesquels \mathcal T_* est un multiple non nul de l’identité est un sous-groupe du groupe des affinités de \mathcal E.

A ma connaissance, aucune notation particulière n’a été retenue pour désigner ce groupe. Ici, pour le manipuler facilement, nous le noterons G. Par contre, il a reçu un nom. On l’appelle le groupe des homothéties-translations (vous comprendrez très bientôt pourquoi).

Je désigne par t_\mathbf u : X\mapsto X+\mathbf u la translation de vecteur \mathbf u et par \mathcal H_{C,k} l’homothétie de centre C et de rapport k :

\mathcal H_{C,k} : X \mapsto C+k\overrightarrow{CX}

Clairement, t_{\mathbf u*}=\mathrm{id}_{\overrightarrow{\mathcal E}} et \mathcal H_{C,k*}=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Les homothéties et les translations appartiennent donc à G.

Réciproquement,

Si \mathcal T\in G, alors ou bien \mathcal T possède un point fixe et c’est une homothétie ou bien il n’en possède pas et c’est une translation.

En effet, donnons-nous \mathcal T\in G et posons \mathcal T_*=k\mathrm{id}_{\overrightarrow{\mathcal E}}. Fixons aussi un point A de \mathcal E. Alors,

(2) \forall X\in\mathcal E,\quad \mathcal T(X)=\mathcal T(A)+k\overrightarrow{AX}

En particulier, C est un point fixe de \mathcal T si, et seulement si,

(1-k)\overrightarrow{AC}=\overrightarrow{AA'}

(pour alléger l’écriture, j’ai noté A' l’image de A par \mathcal T).

Si k\neq 1, alors \mathcal T possède un point fixe, à savoir

C=A+\frac{1}{1-k}\overrightarrow{AA'}

et, en remplaçant A par C dans (2), on voit que \mathcal T est l’homothétie de centre C et de rapport k.

Si k=1, alors (2) se réécrit sous la forme

\forall X\in\mathcal E,\quad \mathcal T(X)-X=\mathcal T(A)-A

qui montre que \mathcal T est la translation de vecteur \overrightarrow {AA'}. Lorsque celui-ci n’est pas nul, \mathcal T n’a donc aucun point fixe. Dans le cas contraire, il fixe tous les points de \mathcal E et c’est aussi une homothétie(**).

Il est facile, et amusant, de voir comment se composent les homothéties et les translations. Je liste les résultats. Leurs vérifications sont laissées à la discrétion du lecteur.

Composée de deux translations

On a simplement la formule

\boxed{t_\mathbf u \circ t_\mathbf v=t_{\mathbf u+\mathbf v}}

Composée d’une homothétie et d’une translation

Cette fois

\boxed{\mathcal H_{C,k}\circ t_\mathbf u=t_{k\mathbf u}\circ\mathcal H_{C,k}}

Lorsque k\neq 1, la valeur commune des deux membres est l’homothétie de rapport k et de centre

C+\frac{k}{1-k}\mathbf u

Composée de deux homothéties

Si kl\neq 1, alors \mathcal H_{D,l}\circ \mathcal H_{C,k} est l’homothétie de rapport kl et de centre

C+\frac{1-l}{1-kl}\overrightarrow{CD}

sinon, c’est la translation de vecteur

\mathbf (1-l)\overrightarrow{CD}

Ce dernier s’annule si l=1 ou si C=D. Dans le premier cas, k=1 (puisque kl=1) : les deux homothéties sont égales à l’identité de \mathcal E dans lui-même et il en va de même de leur composée. Dans le second cas, les deux homothéties sont réciproques l’une de l’autre et leur composée est donc à nouveau l’identité de \mathcal E dans lui-même.

__________
(*) Traditionnellement, cette application linéaire est notée \overrightarrow{\mathcal T}. Pour alléger les notations, j’utilise ici la notation adoptée par un de mes collègues. Elle est assez légitime. En effet, en géométrie différentielle, la dérivée d’une application f entre variétés — son application linéaire tangente — est notée f_*. Or il se fait que l’application \overrightarrow{\mathcal T} est effectivement la dérivée de \mathcal T. Elle peut donc tout à fait bien être désignée par \mathcal T_*. L’égalité (1) est un avatar du théorème de dérivation des fonctions composées.

(**) Il n’y a qu’une homothétie de rapport 1. C’est l’identité de \mathcal E dans lui-même et c’est également la seule homothétie qui soit une translation.

Une brève à propos du nombre d’or

Le nombre d’or \varphi se débusque un peu partout. J’en ai d’ailleurs déjà parlé sur ce blog. Cette fois-ci, c’est dans le contexte des généralisations d’une formule de Carnot que j’ai étudiées récemment que nous allons le voir surgir.

Voici la formule que nous allons vérifier. Pour les notations utilisées dans l’énoncé et dans la démonstration, voir par exemple ici et ici.

\boxed{\lim\limits_{n\to +\infty}\mathfrak{cos}_n(0)=\varphi}

Pour rappel,

\mathfrak{cos}_n(0)=\frac 1 2p_n^{n-1}

p_n est l’unique zéro réel du polynôme X^{2n-1}-2X^{n-1}-4. La suite n\mapsto p_n décroît strictement vers 1. Le nombre \xi_n:=p_n^n est donc l’unique zéro positif du polynôme X^2-2X-4p_n :

\xi_n=1+\sqrt{1+4p_n}

En particulier, \lim_{n\to+\infty}\xi_n=2\varphi. En conséquence,

\lim\limits_{n\to +\infty}\mathfrak{cos}_n(0)=\lim\limits_{n\to +\infty}\cfrac{\xi_n}{2p_n}=\varphi

comme annoncé!

Comme \mathfrak{cosh}_m(0) vaut également p_n^{n-1}/2, où n=2m, nous avons aussi

\boxed{\lim\limits_{m\to +\infty}\mathfrak{cosh}_m(0)=\varphi}

😉

P.S. En fait, les suites n\mapsto\mathfrak{cos}_n(0) et n\mapsto\mathfrak{cosh}_n(0) sont strictement croissantes. En effet

\frac 1 2p_n^{n-1}=\cfrac{1+\sqrt{1+4p_n}}{2p_n}=\cfrac{1}{2p_n}+\sqrt{\cfrac{1}{4p_n^2}+\cfrac{1}{p_n}}

La propriété résulte alors de ce que la suite des p_n, qui sont positifs, est strictement décroissante. P.L. 26/01/2017

P.S. On a en réalité plus fort que ce qui précède. En effet, les suites de fonctions n\mapsto \mathfrak{cos}_n et n\mapsto \mathfrak{cosh}_n convergent uniformément sur tout compact de \mathbf R vers l’application constante x\mapsto \varphi.

Voyons comment vérifer cela pour la première suite, par exemple. On a

\mathfrak{cos}_n(x)=\frac 1 2 p_n^{n-1} + \sum\limits_{k=1}^{+\infty}\alpha_k\sigma^k(x^n)^k

\sigma=(-1)^{n+1} (pour \mathfrak{cosh_m}, n=2m et \sigma =1). Je rappelle par ailleurs que

|\alpha_k|\leqslant 2\left(\frac{1}{2(n!)}\right)^k\frac{1}{k!}

De là, si |x|\leqslant K — et donc |x|^{nk}\leqslant K^{nk} pour tout entier positif k — alors pour tout entier positif N,

\left|\sum\limits_{k=1}^N\alpha_k\sigma^k(x^n)^k\right|\leqslant \sum\limits_{k=1}^N|\alpha_k|K^{nk}\leqslant 2\sum\limits_{k=1}^N\left(\frac{K^n}{n!}\right)^k\frac{2^{-k}}{k!}

Mais \frac{K^n}{n!} tend vers zéro lorsque n tend vers +\infty car c’est le terme général de la série qui définit \exp K. Par conséquent, à partir d’un certain rang n_0, \frac{K^n}{n!}\leqslant 1. Donc, si n\geqslant n_0, alors

\left|\sum\limits_{k=1}^N\alpha_k\sigma^k(x^n)^k\right|\leqslant 2\frac{K^n}{n!}\sum\limits_{k=1}^N\frac{2^{-k}}{k!}\leqslant 2\sqrt{e}\frac{K^n}{n!}

D’où, en laissant N tendre vers +\infty,

|\mathfrak{cos}_n(x)-\frac 1 2 p_n^{n-1}|\leqslant 2\sqrt{e}\frac{K^n}{n!}

et le résultat suit. P.L. 27/01/2017

Quelques belles images

La série de billets A propos d’une formule de Carnot est consacrée à la recherche des fonctions analytiques vérifiant une généralisation de la formule de Carnot \cos^2(x)=\frac 1 2[\cos(2x)+1]. Dans celui-ci, j’ai introduit les fonctions \varsigma_{2m+1} et \varsigma_{2m}^\pm grâce auxquelles on peut aisément décrire les solutions non constantes de ce problème.

Parmi celles-ci il y a les fonctions(*)(**)

\begin{cases}\mathfrak{cos}_{2m+1}:x\mapsto \varsigma_{2m+1}(x^{2m+1})\\[2ex]\mathfrak{cos}_{2m}:x\mapsto \varsigma_{2m}^-(x^{2m})\end{cases}

et je vais présenter ici un aperçu du graphe de quelques unes.

\boxed{\mathfrak{cos}_1}

carnot_p_qcq_1

\boxed{\mathfrak{cos}_3}

carnot_p_qcq_3

\boxed{\mathfrak{cos}_5}

carnot_p_qcq_5

\boxed{\mathfrak{cos}_7}

carnot_p_qcq_7

\boxed{\mathfrak{cos}_2=\cos}

carnot_p_qcq_2

\boxed{\mathfrak{cos}_4}

carnot_p_qcq_4

\boxed{\mathfrak{cos}_6}

carnot_p_qcq_6

\boxed{\mathfrak{cos}_8}

carnot_p_qcq_8

Les \mathfrak{cos}_n d’indices impairs sont strictement croissants dans ]0,+\infty[ et leur limite en +\infty est +\infty.

Dans ]-\infty, 0[, leur comportement semble analogue à celui des \mathfrak{cos}_n d’indices pairs.

Ceux-ci, par définition, sont des fonctions paires. Leurs graphes sont donc symétriques par rapport à l’axe vertical.

Dans les deux familles, il est saisissant de voir comment évolue le graphe à mesure que l’indice n croît. Par ailleurs, ces graphes suggèrent fortement quelques propriétés des extrema locaux des fonctions \mathfrak{cos}_n. Mais, pour l’instant, je ne sais en formuler aucune avec précision.

P.S. Quand même! Voir le billet suivant. 🙂 P.L. 26/01/2017

__________
(*) Il y a aussi les fonctions

\mathfrak{cosh}_{m}x:\mapsto \varsigma_{2m}^+(x^{2m})

mais leurs graphes se ressemblent très fort pour les petites valeurs de x — les seules en lesquelles je sois en mesure de les évaluer — et on sait à peine les distinguer les uns des autres : on dirait des chaînettes (pour m=1, il s’agit de \cosh). Je ne les montre donc pas.

(**) La fonction notée \mathfrak{cos} ici est la fonction

x\mapsto \mathfrak{cos}_1(\frac 5 2 x)

A propos d’une formule de Carnot V

Nous allons établir ici que les séries formelles obtenues dans ce billet définissent des fonctions qui sont analytiques sur \mathbf R tout entier.

Nous conservons les notations du billet en question. En particulier, les séries considérées sont celles de la forme

(1) \frac 1 2p^{n-1}+\sum\limits_{k=1}^{+\infty} a_{kn}(1)\frac{u^kx^{kn}}{(kn)!}

Les coefficients a_{kn}(1) sont définis par les équations a_n(1)=1, et, pour tout k>1,

\left(p^{kn-1}-p^{n-1}\right)a_{kn}(1)=\sum\limits_{i+j=k \atop i,j>0}\frac{(kn)!}{(in)!(jn)!}a_{in}(1)a_{jn}(1)

Posons

\alpha_k=\cfrac{a_{kn}(1)}{(kn)!}

La suite des \alpha est donc définie par

\begin{cases}\alpha_1=\frac{1}{n!}\\[2ex]\forall k>1,\quad (p^{kn-1}-p^{n-1})\alpha_k=\sum_{i+j=k \atop i,j>0}\alpha_i\alpha_j \end{cases}

Nos problèmes de convergence seront réglés par le lemme suivant.

Soient un nombre réel r et la suite \gamma définie par

\begin{cases}\gamma_1=r\\[2ex]\forall k>1,\quad (p^{kn-1}-p^{n-1})\gamma_k=\sum_{i+j=k \atop i,j>0}\gamma_i\gamma_j \end{cases}

Alors, pour tout k>0,

|\gamma_k|\leqslant 2\left(\frac{|r|}{2}\right)^k\frac{1}{k!}

Nous allons établir cette majoration par récurrence (forte) sur k. Pour le cas de base, k=1, il n’y a rien à faire. Passons à l’induction et supposons que la majoration soit vérifiée par \gamma_1,\ldots,\gamma_{k-1}. On a alors

(p^{kn-1}-p^{n-1})|\gamma_k|\leqslant 4\left(\frac{|r|}{2}\right)^k\frac{1}{k!}\sum\limits_{i=1}^{k-1}{k \choose i}=2\left(\frac{|r|}{2}\right)^k\frac{1}{k!}[4(2^{k-1}-1)]

Tout revient alors à démontrer que

\forall k>0, \quad \frac{4(2^{k-1}-1)}{p^{kn-1}-p^{n-1}}\leqslant 1

ou encore que

\forall k\geqslant 0, \quad (p^n)^{k+1}-p^n\geqslant 4p(2^k-1)

ce que nous allons également faire par récurrence sur k. Nous poserons \xi=p^n pour alléger l’écriture. Observons que, par définition de p, on a \xi^2-2\xi-4p=0 ce qui montre en particulier que \xi>2. Nous devons vérifier que

\forall k\geqslant 0, \quad \xi^{k+1}-\xi\geqslant 4p(2^k-1)

Pour k=0, il n’y a rien à faire. Supposons alors k>0 et \xi^k-\xi\geqslant 4p(2^{k-1}-1). En multipliant cette relation par \xi et en tenant compte du fait que \xi^2=2\xi+4p, il vient

\xi^{k+1}-\xi\geqslant \xi+4p+4p(2^{k-1}-1)\xi

Mais

\xi+4p+4p(2^{k-1}-1)\xi\geqslant 4p(2^k-1)

En effet,

\xi+4p+4p(2^{k-1}-1)\xi-4p(2^k-1)=\xi+4p(2^{k-1}-1)(\xi-2)

est effectivement non négatif puisque k>0 et \xi>2.

Voilà, notre lemme est prouvé.

Pour établir que la série (1) définit une fonction analytique sur \mathbf R, nous devons montrer que son rayon de convergence est infini, ou encore, qu’elle converge absolument en tout nombre réel x. Nous allons faire cela en montrant que la série de puissances

(2) \frac 1 2 p^{n-1}+\sum\limits_{k=1}^{+\infty}\alpha_ky^k

converge absolument partout et en notant que (1) se déduit de (2) en y remplaçant y par ux^n. Mais la convergence de (2) est immédiate. En effet, en appliquant le lemme à \alpha, on obtient

|\alpha_ky^k|\leqslant 2\left(\frac{|y|}{2(n!)}\right)^k\frac{1}{k!}

On conclut en observant que le membre de droite de cette majoration est le terme général de la série définissant 2\exp(\frac{|y|}{2(n!)}).

On peut d’une certaine façon se « débarrasser » de u en faisant une sorte de changement d’échelle. L’idée est d’en prendre une racine n-ième v et d’écrire ux^n=(vx)^n. Pour rester dans le cadre des nombres réels, il faut donc discuter selon la parité de n. Lorsqu’il est impair, u admet une seule racine n-ième réelle et elle est de même signe que lui. Lorsque n est pair, -u possède deux racines n-ième réelles et elles sont opposées (excepté si u est nul bien entendu).

Voici alors ce que je propose pour décrire les fonctions analytiques f qui vérifient la formule de Carnot généralisée(*)

(3) f(x)^2=\frac{1}{p_n}[f(p_nx)+1]

Lorsque n est impair, on note \varsigma_n la fonction

y\mapsto \frac 1 2p^{n-1}+\sum\limits_{k=1}^{+\infty}\alpha_ky^k

tandis que pour n pair, on introduit deux fonctions :

\begin{cases}\varsigma_n^+: y\mapsto \frac 1 2 p^{n-1}+\sum\limits_{k=1}^{+\infty}\alpha_ky^k\\[2ex]\varsigma_n^-: y\mapsto \frac 1 2 p^{n-1}+\sum\limits_{k=1}^{+\infty}\alpha_k(-1)^ky^k \end{cases}

En guise de synthèse de ce que nous avons observé dans les billets de cette série, nous pouvons alors énoncer le résultat suivant.

Parmi les fonctions analytiques qui vérifient la formule de Carnot généralisée (3), il y a les deux constantes \frac 1 2 p^{n-1} et -\frac{2}{p^n}. Ce sont les deux zéros du polynôme du second degré p_nX^2-X-1. Il y a aussi les fonctions x\mapsto \varsigma_n((vx)^n) dans le cas impair et x\mapsto \varsigma_n^\pm((vx)^n) dans le cas pair, où v est un nombre réel quelconque(**), et il n’y a pas d’autres fonctions analytiques que celles que nous venons de décrire qui vérifient la formule de Carnot généralisée (3). Enfin, lorsque q n’est pas un des nombres p_n, n>0, alors les seules fonctions analytiques vérifiant la formule de Carnot généralisée

f(x)^2=\frac 1 q[f(qx)+1]

sont les deux fonctions constantes dont les valeurs sont les zéros du polynôme qX^2-X-1.

Dans les deux premiers billets de la série, nous avons rencontré \mathfrak{cos}(x)=\varsigma_1(x) ainsi que \cosh(x)=\varsigma_2^+(x^2) et \cos(x)=\varsigma_2^-(x^2).

Pour rappel,

p_3=\frac{1}{3}\left(2+\sqrt[3]{17 + 3 \sqrt{33}} - \frac{2}{\sqrt[3]{17+3\sqrt{33}}}\right)\simeq 1.54369

et voici un petit aperçu d’une approximation du graphe de \varsigma_3(x^3) qui me semble assez bonne :

sigma_3

Le graphe de la fonction est en bleu; les horizontales sont celles d’équations y=-1 et y=0,55.

S’il est clair qu’aucune fonction vérifiant une formule de Carnot généralisée ne peut prendre de valeur moindre que -1, je ne connais pas l’origine de ces maxima locaux approximativement égaux à 0,55 de \varsigma_3(x^3) pas plus que ceux de \mathfrak{cos} qui valent 5.

En fait, je ne connais pas encore grand chose des fonctions \varsigma_{2s+1} et \varsigma_{2s}^\pm. Les expérimentations numériques donnent quelques pistes mais je n’ai rien de sérieux que je sache établir.

Il se peut, naturellement, que ces fonctions soient bien connues mais je n’en sais rien.

Je vais essayer d’en savoir plus sur cette question et, bien entendu, toute remarque à propos de ces fonctions est la bienvenue!

😉

__________
(*) Pour rappel, ce que nous avons noté p jusqu’ici dans ce billet est en réalité le nombre p_n, unique zéro réel du polynôme X^{2n-1}-2X^{n-1}-4. Nous avons utilisé la notation simplifiée p pour alléger l’écriture.
(**) Lors que v est nul, ces fonctions se réduisent à la première de deux constantes mentionnées.

A propos d’une formule de Carnot IV

Je vais poursuivre ici l’étude, entamée dans ce billet, des fonctions

f:x\in\mathbf R\mapsto \sum\limits_{k=0}^{+\infty}a_k\frac{x^k}{k!}

vérifiant la formule de Carnot généralisée pour une valeur non nécessairement entière de p (cf. le billet en question dont j’utilise librement les notations et résultats).

Nous nous intéressons aux f non constants. Nous fixons par conséquent un entier strictement positif n, prenons p=p_n et a_0=\frac 1 2p^{n-1}. Pour chaque k>0, nous avons alors

(1) \left(p^{k-1}-p^{n-1}\right)a_k=\sum_{i+j=k \atop i,j>0}\frac{k!}{i!j!}a_ia_j

Voici alors une première constatation.

Si k n’est pas multiple de n, alors a_k=0.

Voici comment voir cela. Naturellement, si n=1, il n’y a rien à prouver. Nous supposons donc n>1. Nous montrons alors par récurrence sur l’entier s>1 que a_k=0 pour tout entier k<s qui n’est pas multiple de n.

Pour le cas de base, s=2, cela revient à montrer que a_1 est nul. Pour le constater, on écrit (1) avec k=1, ce qui donne (1-p^{n-1})a_1=0 et, donc a_1=0 puisque p^{n-1}-1\neq 0.

Passons alors de s à s+1. Si s est multiple de n, il n'y a rien à faire car les entiers non multiples de n qui sont plus petits que s+1 sont également plus petits que s. Dans le cas contraire, on utilise à nouveau (1) qui donne

\left(p^{s-1}-p^{n-1}\right)a_s=\sum\limits_{i+j=s \atop i,j>0}\frac{k!}{i!j!}a_ia_j

Dans chaque terme de la somme du membre de droite, d’une part i,j<s et, d'autre part, i ou j n’est pas un multiple de n sans quoi s en serait un. Par conséquent, a_ia_j=0. Le membre de droite est donc nul.

Par ailleurs, p^{s-1} \neq p^{n-1} sinon s=n vu que p \neq 1.

Au total, a_s=0 et notre vérification est achevée.

En raison de ce que nous venons de constater, pour k=n, (1) est une tautologie. Le coefficient a_n est donc indéterminé. De plus les seuls coefficients du développement de f qui soient non nuls sont ceux dont l’indice est divisible par n et, pour tout k>1,

(2) \left(p^{kn-1}-p^{n-1}\right)a_{kn}=\sum\limits_{i+j=k \atop i,j>0}\frac{(kn)!}{(in)!(jn)!}a_{in}a_{jn}

Comme pour k>1, p^{kn-1}-p^{n-1} n’est pas nul, pour chaque valeur u attribuée à a_n, ces équations déterminent univoquement les a_{kn}, k>1. Nous les notons provisoirement a_{kn}(u), juste pour pouvoir énoncer ceci.

Pour tout k>0, on a a_{kn}(u)=a_{kn}(1)u^k.

C’est en réalité très simple à vérifier. En effet, en multipliant les deux membres de (2) par u^k, on constate que les deux suites k\mapsto a_{kn}(u) et k \mapsto a_{kn}(1)u^k vérifient la même relation de récurrence. Elles coïncident donc puisqu’elles prennent la même valeur en k=1.

Nous savons donc ce que doivent être les développements de Taylor des fonctions que nous cherchons. Ce ne sont pour l’instant que des séries formelles et il nous reste à voir si elles convergent et définissent des fonctions analytiques.

C’est ce que nous ferons dans un billet à venir.

😉