A propos d’une formule de Carnot II

Nous poursuivons ici notre quête des fonctions analytiques f:\mathbf R\to\mathbf R vérifiant une relation généralisant une formule trigonométrique de Carnot, à savoir

\forall x\in\mathbf R,\quad f(x)^2=\frac 1 p(f(px)+1)

p est un entier positif.

Dans le billet précédent, nous avions constaté que f est constant sauf éventuellement si p=2 et f(0)=1 ou si p=6 et f(0)=\frac 1 2.

Nous avions d’ailleurs analysé le premier de ces deux cas et constaté que, pour p=2, les fonctions analytiques vérifiant la formule ci-dessus sont, outre la fonction constante de valeur -\frac 1 2, les fonctions x\mapsto \cosh(vx) et x\mapsto \cos(vx), où v est un nombre réel arbitraire.

Nous allons à présent étudier le second cas : p=6 et f(0)=\frac 1 2.

Pour rappel, le développement de Taylor de f au voisinage de 0 est noté \sum_{k=0}^{+\infty}\frac{a_k}{k!}x^k et les a sont contraints par les conditions

6a_0^2-a_0-1=0

et, pour k>0,

(6^{k-1}-2a_0)a_k=\sum\limits_{{i+j=k} \atop {i,j>0}}\frac{k!}{i!j!}a_ia_j

Ici, nous supposons que a_0=f(0) vaut \frac 1 2. La première condition est donc satisfaite.

Pour k=1, la seconde est la tautologie 0=0. En d’autres mots, a_1 est arbitraire. Nous poserons a_1=\frac 5 2 u (le coefficient \frac 5 2 est un choix de pure commodité). Il s’avère alors qu’il existe des nombres \gamma_k tels que

\forall k\in\mathbf N,\quad a_k=\gamma_k u^k

On voit cela à l’aide de la seconde contrainte imposée aux a qui nous montre ceci : pour k>1,

(6^{k-1}-1)\gamma_k=\sum\limits_{{i+j=k}\atop{i,j>0}}\frac{k!}{i!j!}\gamma_i\gamma_j

ce qui permet de conclure sachant que \gamma_0=\frac 1 2 et \gamma_1=\frac 5 2.

La suite des \gamma débute par les termes suivants

\frac 1 2, \frac 5 2, \frac 5 2, \frac{15}{14}, \frac{165}{602}, \frac{7275}{155.918}, \frac{280.125}{48.490.498}, \ldots

Je n’ai pas, pour l’instant, de « forme fermée » exprimant \gamma_k comme fonction de k. Cela dit,

\boxed{\forall k\in\mathbf N,\quad 0<\gamma_k\leqslant \frac{5}{2^{k-1}}}

Je crois qu’il existe des encadrements plus forts mais celui-ci, que nous allons vérifier par récurrence, suffira à nos besoins.

Il est clair que les \gamma sont strictement positifs et, d’après la liste de leurs premières valeurs, il est clair également que l’inégalité de droite de l’encadré est vérifiée pour k=0,1,2,3. Supposons alors que n\geqslant 4 et qu’elle le soit pour k=0,1,\ldots, n-1. Il vient

(6^{n-1}-1)\gamma_n\leqslant(\sum\limits_{{i+j=n}\atop{i,j>0}}\frac{n!}{i!j!})\frac{25}{2^{n-2}}=(2^n-2)\frac{25}{2^{n-2}}

Ainsi, \gamma_n\leqslant \frac{5}{2^{n-1}}\frac{10(2^n-2)}{6^{n-1}-1}. Pour conclure, il suffit donc de vérifier que \frac{10(2^n-2)}{6^{n-1}-1}\leqslant 1 ce qui s’écrit encore

2^{n+1}-4\leqslant 6^{n-2}+ 6^{n-3}+\cdots+1

Or, puisque n>3,

6^{n-2}+ 6^{n-3}+\cdots+1\geqslant 2^{2n-4}+2^{2n-6}+1\geqslant 2^{n+1}-4

et le tour est joué.

A cause de l’encadré, nous avons

\left|\frac{a_k}{k!}x^k\right|\leqslant \frac{10}{k!}\left|\frac{ux}{2}\right|^k

Par conséquent, la série \sum_{k=0}^{+\infty}\frac{a_k}{k!}x^k converge absolument dans \mathbf R; elle y définit donc une fonction analytique dont elle est le développement de Taylor en 0.

Un peu par boutade, nous allons noter \mathfrak{cos} la fonction en question lorsque u=1 :

\forall x\in\mathbf R,\quad \mathfrak{cos}(x)=\sum\limits_{k=0}^{+\infty}\gamma_k\cfrac{x^k}{k!}

Il résulte alors de ce qui précède que les fonctions analytiques qui vérifient la formule de Carnot généralisée avec p=6 sont la fonction constante de valeur -\frac 1 3 et les fonctions de la forme x\mapsto \mathfrak{cos}(ux)u est un nombre réel arbitraire.

Nous appellerons \mathfrak{sin} la dérivée de \mathfrak{cos} :

\forall x\in\mathbf R,\quad \mathfrak{sin}(x)=\sum\limits_{k=0}^{+\infty}\gamma_{k+1}\cfrac{x^k}{k!}

Il est clair que

\lim\limits_{x\to+\infty}\mathfrak{cos}(x)=\lim\limits_{x\to+\infty}\mathfrak{sin}(x)=+\infty

Voici alors un aperçu des graphes des deux fonctions dans ]-25,0[ :
carnot_6

(Celui de \mathfrak{cos} est en bleu.) En réalité, les deux graphes ci-dessus sont ceux des polynômes de degré 150 obtenus en tronquant les séries définissant nos deux fonctions. On peut montrer que les restes correspondants des séries ne dépassent pas 2,1\times 10^{-432} en valeur absolue. Ces polynômes constituent donc d’excellentes approximations des fonctions (sur l’intervalle considéré) et les graphes ci-dessus sont assez réalistes.

En dérivant la formule de Carnot généralisée, on voit que

\mathfrak{sin}(6x)=2\mathfrak{cos}(x)\mathfrak{sin}(x)

En particulier, l’ensemble des zéros de \mathfrak{sin} est stable par multiplication par 6.

Comme le suggère la figure, cet ensemble n’est pas vide. Mieux, rangés par valeurs décroissantes, les zéros de \mathfrak{sin} semblent être les points en lesquels \mathfrak{cos} atteint alternativement un minimum local puis un maximum local. Mais rien de cela n’est déjà prouvé pas plus que je ne connais de relations liant les deux fonctions autres que la formule de Carnot généralisée et la dernière que nous venons d’écrire.

Nous allons prudemment achever ce billet ici.

😉

P.S. Pour en revenir à une des motivations m’ayant incité à concevoir ce billet, la fonction \mathfrak{cos} donne lieu à l’identité (valable pour x\geqslant 0)

\mathfrak{cos}(\frac{x}{6^n})=\frac 1 6 \underbrace{\sqrt{6+\sqrt{6+\sqrt{\cdots+\sqrt{6+6\mathfrak{cos}(x)}}}}}_{n\ \mbox{radicaux}}

P.L. 30/11/2016

A propos d’une formule de Carnot

Dans cet article, nous avions obtenus deux belles formules trigonométriques en utilisant de façon répétée la formule de Carnot

\cos^2x=\frac 1 2\left(\cos(2x)+1\right)

et son analogue en trigonométrie hyperbolique. Cela nous a conduit à des suites d’approximations intéressantes de l’empilement infini de radicaux

\sqrt{2+\sqrt{2+\sqrt{2+\sqrt{\cdots}}}}

Nous allons ici déterminer les fonctions analytiques f sur \mathbf R qui vérifient l’équation

(1) \forall x\in \mathbf R, \quad f(x)^2=\frac 1 p\left(f(px)+1\right)

p est un entier positif donné. C’est une manière de généraliser la formule de Carnot en question pour laquelle p=2. Elle ne s’impose peut-être pas. Je me demandais simplement si nous pourrions de cette façon obtenir des suites d’approximations intéressantes d’autres empilements infinis de radicaux.

Aux constantes près, nous allons essentiellement trouver trois fonctions (le sens de « essentiellement » sera clair en fin de billet). Deux sont bien connues. Elles sont obtenues avec p=2. Il s’agit de \cos et de \cosh. La troisième s’obtient avec p=6. Si j’ai pu établir son existence, je ne l’ai par contre pas identifiée mais il est vrai que je ne connais rien aux fonctions particulières qui ont pu être étudiées spécifiquement, spéciales ou autres, par exemple en analyse numérique.

Notons

\sum\limits_{k=0}^{+\infty}\cfrac{a_k}{k!}x^k

le développement de Taylor en 0 d’une solution f de (1).

Les conditions nécessaires et suffisantes imposées aux a_k pour que f vérifie (1) sont

(2) pa_0^2-a_0-1=0

et, pour k>0,

p^{k-1}\cfrac{a_k}{k!}=\sum\limits_{i+j=k}\cfrac{a_i}{i!}\cfrac{a_j}{j!}

relation qui s’écrit encore

(3) \left(p^{k-1}-2a_0\right)a_k=\sum\limits_{{i+j=k}\atop{i,j>0}}\frac{k!}{i!j!}a_ia_j

Ainsi, a_0 est un zéro du polynôme pX^2-X-1. Ce dernier en possède deux puisque son discriminant est strictement positif. Par exemple, pour p=2, il s’agit de 1 et de -\frac 1 2.

La relation (3) quant à elle va nous permettre de calculer les a d’indices positifs par récurrence.

Le cas \boxed{a_0\notin\left\{\frac{p^k}{2}|k\in\mathbf N\right\}}

Voici alors une première observation.

Si a_0\notin\left\{\frac{p^k}{2}|k\in\mathbf N\right\} alors f est constant.

On va vérifier ceci en montrant par récurrence que a_k=0 pour k>0.

Avec k=1, (3) nous donne (1-2a_0)a_1=0 et, donc, a_1=0 puisque a_0\neq 1/2.

Ensuite, si k>1 et si a_1=\cdots=a_{k-1}=0, alors on déduit de

\left(p^{k-1}-2a_0\right)a_k=\sum\limits_{{i+j=k}\atop{i,j>0}}\frac{k!}{i!j!}a_ia_j=0

que a_k=0, puisque a_0\neq p^{k-1}/2.

Pour chaque valeur entière de p, (1) admet deux solutions constantes x\mapsto a_0, à savoir celles pour lesquelles a_0 vérifie (2).

Pour trouver les éventuelles solutions non constantes de (1), nous devons déterminer les triples (k,p,a_0) tels que

\begin{cases}pa_0^2-a_0-1=0\\[1ex]p^{k-1}-2a_0=0\end{cases}

Comme le lecteur le vérifiera facilement, il y en a deux, ni plus ni moins : (1,6,\frac 1 2) et (2,2,1).

Le cas \boxed{p=2,a_0=1}

Lorsque p=2 et a_0=1, les a d’indices impairs sont tous nuls. En effet, (3) écrit avec k=0 montre immédiatement que a_1=0. De plus, si k>0 et si a_1=a_3=\cdots=a_{2k-1} sont nuls, alors a_{2k+1}=0. En effet, par (3) de nouveau,

\underbrace{\left(2^{2k}-2\right)}_{\neq 0}a_{2k+1}=\sum\limits_{{i+j=2k+1}\atop{i,j>0}}\frac{k!}{i!j!}a_ia_j=0

car parmi les indices i, j apparaissant dans la somme des a_ia_j, il y en a toujours un qui est impair.

Cela étant, pour k=2, (3) est une tautologie; il n’y a pas de contrainte sur a_2. Nous rebaptisons ce dernier u. J’affirme alors que

\forall k\in\mathbf N, \quad a_{2k}=u^k

C’est vrai pour k=0 et k=1. Supposons que cela soit vérifié pour 0\leqslant k<n. Alors ce l'est pour k=n. En effet, faisant k=2n dans (3), nous obtenons

\left(2^{2n-1}-2\right)a_{2n}=\left(\sum\limits_{{i+j=n}\atop{i,j>0}}\cfrac{(2n)!}{(2i)!(2j)!}\right)u^n

Or(*)

2^{2n-1}-2=\sum\limits_{\ell=1}^{n-1}{2n \choose 2\ell}

de sorte que a_{2n}=u^n.

Il résulte de ce qui précède que

f(x)=\sum\limits_{k=0}^{+\infty}\frac{u^kx^{2k}}{(2k)!}

Ainsi, pour u=0, f se réduit à l’application constante x\mapsto 1. Pour u>0, on a f: x\mapsto \cosh(\sqrt u x) et, pour u<0, f: x\mapsto \cos(\sqrt{|u|}x) . En conclusion, lorsque p=2, les solutions analytiques de (1) sont l'application constante x\mapsto -\frac 1 2, les applications x\mapsto \cosh(vx) et les applications x\mapsto \cos(vx), où v est un nombre réels arbitraire.

Pour ne pas être trop long, nous étudierons le dernier cas dans un autre billet.
__________
(*) Pour éliminer les coefficients binomiaux dont l'indice inférieur est impair, il suffit d'ajouter 0=(1-1)^{2n} à 2^{2n}=(1+1)^{2n}.

A propos d’une certaine équation fonctionnelle

Cet article m’a été inspiré par une question posée sur le forum M@TH en ligne.

Les pseudonymes DjiLo, ThM, Cyrano et Tournesol sont ceux de participants qui ont pris part à la discussion. D’une manière ou d’une autre, ils m’ont aidé par des remarques, des observations ou en relevant des erreurs dans ce que je présentais comme solution au problème et je les en remercie.

DjiLo est l’auteur de la question. Il lui a donné une réponse assez élégante que vous trouverez sur le fil de discussion accessible par le lien ci-dessus. Voici la question:

Soit une application continue f:\mathbf R\to \mathbf R. Montrer que s’il existe une application g:\mathbf R^2\to \mathbf R telle que

\forall x,y\in \mathbf R, \quad f(x+y)=g(f(x),f(y))

alors f est monotone.

Dans sa solution, DjiLo montre directement que f est monotone. La mienne, sans doute un peu plus longue, consiste essentiellement à résoudre l’équation ci-dessus, c’est-à-dire à déterminer les couples de fonctions (f,g) vérifiant cette relation. Cela à conduit Tournesol à généraliser le problème comme ceci. Etant donnés un magma (M,*) et un ensemble E, déterminer les applications f:M\to E et g:E^2\to E vérifiant

\forall x,y\in M, \quad f(x*y)=g(f(x),f(y))

Je ne sais rien dire à ce degré de généralité. Par contre, je sais résoudre le problème pour les groupes. D’ailleurs Tournesol avait dans le fil de discussion mentionné plus haut, commencé à étudier le cas M=\mathbf Z/n\mathbf Z et s’était convaincu de ce que, dans ce cas, n est premier si, et seulement si, dans toute solution (f,g), f est nécessairement constant ou injectif. Nous retrouverons et généraliserons bientôt ce fait.

Les solutions d’une équation fonctionnelle

Donnons nous un groupe G et un ensemble E et cherchons les couples (f,g) d’applications f:G \to E et g:E^2\to E tels que

(1) \forall x,y\in G, \quad f(xy)=g(f(x),f(y))

(Je note (a,b)\mapsto ab la multiplication du groupe G.)

Soit donc un tel couple (f,g). Alors g munit l’image I de f d’une structure de groupe. Le neutre en est f(e), où e est celui de G, et f:E\to I est un homomorphisme de groupes. En effet, vu (1), g(I^2)\subseteq I. De plus, étant donnés u=f(x), v=f(y) et w=f(z), on obtient, en appliquant plusieurs fois (1),

\begin{cases}g(g(u,v),w)=g(u,g(v,w))=f(xyz)\\[1ex]g(u,f(e))=g(f(e),u)=f(x)=u\\[1ex]g(u,f(x^{-1}))=f(xx^{-1})=f(e)=g(f(x^{-1}),u)\end{cases}

La deuxième relation montre que f(e) est le neutre de I tandis que la troisième montre que l’inverse de f(x) dans I est l’image par f de l’inverse de x dans G. Vu (1), f est un homomorphisme de groupes.

Le noyau \ker f de f est un sous-groupe distingué G_0 de G et f passe au quotient G/G_0 pour donner un isomorphisme de groupes \bar f:G/G_0 \to I.

En fait, f est caractérisé par le sous-groupe G_0 et l’injection \bar f:G/G_0\to E tandis que g qui n’est contraint que sur I^2 est largement arbitraire si I\neq E.

En effet, donnons-nous un sous-groupe distingué G_0 de G et une injection \xi :G/G_0\to E. Posons f=\xi\circ p, où p:G\to G/G_0 est le passage au quotient. L’application \xi:G/G_0\to \mbox{im\ }f est une bijection et munit, par transport de la structure du groupe quotient G/G_0, l’image I de f d’une structure de groupe. On prolonge arbitrairement la multiplication de I en une application g:E^2\to E et on obtient ainsi un couple (f,g) vérifiant (1) et pour lequel \ker f=G_0 et \bar f =\xi.

Quelques exemples

a) Supposons que G soit un groupe simple. Il a donc exactement deux sous-groupes distingués : \{e\} et G. On obtient alors les solutions de (1) en prenant pour f soit une injection soit une application constante; le groupe I est alors respectivement une copie de G ou réduit à son élément neutre.

Le groupe \mathbf Z/n\mathbf Z est simple si, et seulement si, n est premier. On retrouve ainsi ce qu’avait observé Tournesol à propos de ce groupe.

b) Supposons que G soit le groupe additif (\mathbf R,+). Ses sous-groupes distingués — ses sous-groupes puisqu’il est abélien — sont connus. Un sous-groupe G_0 de G est soit dense dans \mathbf R, soit \{0\} ou encore de la forme \alpha\mathbf Z pour un certain nombre réel \alpha strictement positif.

Je ne sais pas à quoi ressemble G/G_0 lorsque G_0 est dense dans G. Par contre G/\{0\}=G, bien entendu, et, pour \alpha strictement positif, G/\alpha\mathbf Z est isomorphe au cercle trigonométrique S^1, c’est-à-dire l’ensemble des nombres complexes de module 1; un isomorphisme est donné par

x+\alpha\mathbf Z \mapsto e^{2i\pi\frac x \alpha}

Cela étant, pour répondre à la question de DjiLo, nous devons prouver que si (f,g) est une solution de (1) dans laquelle f est continu, alors f est monotone. Nous allons en fait voir qu’il est soit constant soit strictement monotone.

Supposons donc f continu. Le sous-groupe \ker f est donc fermé. S’il est dense dans \mathbf R, alors c’est \mathbf R : f est constant. Si \ker f=\{0\}, alors f est injectif et, par suite, strictement monotone. En effet,

(2) Toute application continue et injective d’un intervalle de \mathbf R dans \mathbf R est strictement croissante ou strictement décroissante.(*)

Nous allons enfin voir qu’il n’est pas possible que \ker f=\alpha\mathbf Z pour un certain nombre réel \alpha strictement positif, en procédant par l’absurde.

Admettons que \ker f=\alpha\mathbf Z, où \alpha >0. Alors f est injectif dans [0,\alpha[ puisque deux nombres en lesquels les valeurs de f sont égales diffèrent d’un multiple entier de \alpha. Par conséquent, vu (2), f est strictement monotone dans [0,\alpha[. Il est par exemple strictement croissant. Ainsi, f(0)<f(\alpha/2). Mais comme f(\alpha)=f(0), il y a dans ]\alpha/2,\alpha[ des x tels que f(x)<f(\alpha/2) ce qui contredit le fait que f est strictement croissant dans [0,\alpha[. On raisonne de la même façon lorsque f est strictement décroissant dans [0,\alpha[.

En résumé, les f continus qui apparaissent dans les solutions de (1) lorsque G=(\mathbf R,+) sont :

— les applications constantes. Pour celles-ci, le groupe I est réduit à son élément neutre.

— les homéomorphismes entre \mathbf R et un intervalle ouvert non vide(**). Pour un tel homéomorphisme, f, la structure de groupe de I est donnée par transport de la structure de (\mathbf R,+) par f. En particulier, sa multiplication est continue puisqu’elle est donnée par

\forall u,v\in I, \quad u*v=f(f^{-1}(u)+f^{-1}(v))

😉

__________
(*) Voici une preuve rapide de (2). Soit un intervalle J\subseteq \mathbf R et une application injective et continue \varphi :J\to\mathbf R. L’ensemble

e=\{(x,y)\in J^2|x<y\}

est l’union des deux ensembles disjoints

e_< =\{(x,y)\in e|\varphi(x) < \varphi(y)\} \quad \& \quad e_> =\{(x,y)\in e|\varphi(x) > \varphi(y)\}

Nous devons vérifier que l’un des d’eux est vide. Or, ce sont des ouverts de e car \varphi est continu. Comme e est connexe, il faut bien que cela soit le cas.

(**) Lorsque f est strictement monotone, le théorème des valeurs intermédiaires montre que l’image par f de tout intervalle ouvert est un intervalle ouvert. Ainsi, f est une application ouverte. Comme elle est aussi continue, c’est un homéomorphisme.

A propos des empilements infinis de radicaux V

Dans le troisième billet consacré aux empilements infinis de radicaux, nous avions observé ceci :

Si \lim u(\mathbf 0) est un nombre réel \gamma_0 et si c^{\gamma_0} converge vers \infty, alors pour tout nombre réel positif r, \lim u(\mathbf r)=\gamma_0.

Cette remarque ne s’applique pas aux empilements

e_{\mathbf p,\mathbf q}=\sqrt{p+q\sqrt{p+q\sqrt{p+q\sqrt{\cdots}}}}

(où p et q sont strictement positifs) car pour ceux-ci, la suite c^{\gamma_0} est constante. Malgré quoi(*),

\forall r\in[0,+\infty[,\quad \lim_{n\to\infty}\underbrace{\sqrt{p+q\sqrt{p+q\sqrt{\cdots\sqrt{p+qr}}}}}_{n\mbox{\ radicaux}}=\gamma_0

Nous allons considérablement renforcer cela, en utilisant une propriété intéressante des suites c^\gamma, \gamma\geqslant \gamma_0, relatives à e_{\mathbf p,\mathbf q}. Pour rappel, ces suites sont définies par

\begin{cases}c^\gamma_0=\gamma\\[2ex]c^\gamma_{n+1}=\cfrac{c^\gamma_n-p}{q}\end{cases}

De plus, \lim u(\mathbf 0)=\gamma_0

\gamma_0=\cfrac{q+\sqrt{q^2+4p}}{2}

est l’unique racine positive de l’équation x^2-qx-p=0.

Voici alors la propriété annoncée.

(1) \boxed{\forall n\in\mathbf N,\quad c^\gamma_n\geqslant \left(\frac{2\gamma_0}{q}\right)^n(\gamma-\gamma_0)+\gamma_0}

Nous la démontrerons plus bas. En voici d’abord un corollaire

Soit une suite c à valeurs positives ou nulles. Si c est O(n^d) pour un certain d\in[0,+\infty[, alors \lim u(c)=\gamma_0 i.e.

\lim_{n\to\infty}\underbrace{\sqrt{p+q\sqrt{p+q\sqrt{\cdots\sqrt{p+qc_n}}}}}_{n\mbox{\ radicaux}}=\cfrac{q+\sqrt{q^2+4p}}{2}

Preuve du corollaire

On suppose c à valeurs non négatives et qu’il est d’ordre O(n^d). Soient \varepsilon >0 et \gamma=\gamma_0+\varepsilon. Il existe K et C>0 tel que

\forall n\geqslant K,\quad c_n\leqslant Cn^d

D’un autre côté, vu (1),

c_n^\gamma\geqslant \left(\frac{2\gamma_0}{q}\right)^n\varepsilon+\gamma_0

Comme

\cfrac{2\gamma_0}{q}=1+\sqrt{1+\cfrac{4p}{q^2}}>2

il existe donc L\geqslant K tel que

\forall n\geqslant L,\quad Cn^d \leqslant c^\gamma_n

Par conséquent, si n\geqslant L, alors u_n(\mathbf 0)\leqslant u_n(c)\leqslant u_n(c^\gamma)=\gamma=\gamma_0+\varepsilon. Mais, quitte à augmenter L, pour n\geqslant L, 0\leqslant \gamma_0-u_n(\mathbf 0) \leqslant \varepsilon car u(\mathbf 0) croît vers \gamma_0. Au total

n\geqslant L\quad \Longrightarrow \quad |u_n(c)-\gamma_0|\leqslant \varepsilon

Comme \varepsilon >0 est arbitraire, le corollaire est démontré.

Preuve de (1)

La fonction f: x\mapsto \frac 1 q(x^2-p) définit un système dynamique sur \mathbf R.

Par définition, l’orbite de \gamma\in\mathbf R sous ce système est la suite de nombres obtenue en lui appliquant de manière répétée f :

\gamma, f(\gamma), (f\circ f)(\gamma), \ldots , f^{\circ n}(\gamma), \ldots

suite en laquelle on reconnaît c^\gamma.

Par définition également, les points fixes du système sont les \gamma dont l’orbite est réduite à un point, c’est-à-dire tels que f(\gamma)=\gamma. Il s’agit des deux racines de l’équation x^2-qx-p=0. L’une est positive, c’est \gamma_0, l’autre, -p/\gamma_0, est négative.

Comme la concavité de la parabole d’équation y=f(x) est tournée vers le haut, il est clair, géométriquement, que l’orbite de tout \gamma>\gamma_0 tend vers +\infty. La formule (1) précise ce fait en montrant qu’au minimum, la croissance de c^\gamma est exponentielle (pour rappel, nous avons constaté plus haut que 2\gamma_0/q>2). Des expériences faites sur ordinateur me donnent l’impression que c^\gamma croît de manière significativement plus forte mais je n’ai pas approfondi la question. On observera pourtant que c’est cette estimation qui a permis de prouver le corollaire. Le simple fait de savoir que c^\gamma tend vers \infty ne permet pas d’établir celui-ci; il permet seulement de prouver que les suites u(\mathbf r) tendent vers \gamma_0. Améliorer notre connaissance de la croissance des suites c^\gamma nous permettrait peut être d’améliorer celle du comportement des suites u(c), c\in \mathscr D_{\mathbf p,\mathbf q}.

Cela étant, la suite

c': n\in\mathbf N\mapsto \left(\frac{2\gamma_0}{q}\right)^n(\gamma-\gamma_0)+\gamma_0\in[0,+\infty[

est l’orbite de \gamma sous l’action du système dynamique associé à la fonction

g :x \mapsto \cfrac{2\gamma_0}{q}(x-\gamma_0)+\gamma_0

(c’est immédiat à vérifier) et (1) provient essentiellement du fait que f majore g.

Ce dernier point est clair géométriquement. La droite d’équation y=g(x) est la tangente au point d’abscisse \gamma_0 du graphe de f et, par convexité, celui-ci, qui est la parabole dont nous avons parlé plus haut, est tout entier d’un même côté de cette tangente; en l’occurrence, il est « au-dessus ». Cela dit, on vérifie immédiatement que

\forall x\in\mathbf R,\quad f(x)-g(x)=\cfrac 1 q(x-\gamma_0)^2

(L’algèbre convaincra donc ceux que l’évidence géométrique aurait laissés sceptiques😉.)

Nous allons vérifier en détails par récurrence que la suite c^\gamma majore la suite c'.

Clairement, c^\gamma_0\geqslant c'_0. De plus, si c^\gamma_n\geqslant c'_n, alors

c^\gamma_{n+1}=f(c^\gamma_n)\geqslant g(c^\gamma_n)\geqslant g(c'_n)=c'_{n+1}

car g est croissant.

C’est ici que prend fin ce billet.😉

__________
(*) Cela se vérifie par exemple via une adaptation simple de l’argument donné par Pythales pour le cas p=q=2 (voir ici). C’est de toute façon une conséquence de ce qui va suivre.

Une brève : deux belles formules trigonométriques et un empilement infini de radicaux

La formule de Carnot

\cos^2\cfrac x 2=\frac 1 2(1+\cos x)

permet d’obtenir une belle formule en divisant encore et encore x par 2. Il s’agit en l’occurrence de la formule, valable pour x\in[-\pi/2,\pi/2] et n>0,

\cos\cfrac{x}{2^n}=\frac 1 2 \underbrace{\sqrt{2+\sqrt{2+\sqrt{\cdots\sqrt{2+2\cos x}}}}}_{n\mbox{\ radicaux}}

Elle se démontre facilement par récurrence sur n.

Elle donne les limites suivantes

\forall r\in[0,2],\quad \lim_{n\to\infty}\underbrace{\sqrt{2+\sqrt{2+\sqrt{\cdots\sqrt{2+r}}}}}_{n\mbox{\ radicaux}}=2

Mais la formule de Carnot ci-dessus est vraie aussi en trigonométrie hyperbolique :

\cosh^2\cfrac x 2=\frac 1 2(1+\cosh x)

Par conséquent, pour tout nombre réel x,

\cosh\cfrac{x}{2^n}=\frac 1 2 \underbrace{\sqrt{2+\sqrt{2+\sqrt{\cdots\sqrt{2+2\cosh x}}}}}_{n\mbox{\ radicaux}}

et, dès lors,

\forall r\in[2,+\infty[,\quad \lim_{n\to\infty}\underbrace{\sqrt{2+\sqrt{2+\sqrt{\cdots\sqrt{2+r}}}}}_{n\mbox{\ radicaux}}=2

Au total, la limite

\lim_{n\to\infty}\underbrace{\sqrt{2+\sqrt{2+\sqrt{\cdots\sqrt{2+r}}}}}_{n\mbox{\ radicaux}}

existe pour tout nombre réel positif r et vaut toujours deux.

Il faut rendre à César ce qui est à César! En l’occurrence, c’est à Pythales, un intervenant émérite du forum M@th en Ligne, qu’il faut rendre ce qui lui appartient. Il a fourni une jolie preuve de ce que nous venons de constater. Il observe que la suite n\mapsto u_n dont on prend la limite est croissante et majorée par 2 si r \leqslant 2 et décroissante et minorée par par 2 sinon. Dans tous les cas, la suite converge et, comme

u_{n+1}=\sqrt{2+u_n}

sa limite u, qui est positive, vérifie u=\sqrt{2+u}. Elle vaut donc 2.

Une brève à propos du coût des emballages

Le côté d’un cube de volume V vaut \sqrt[3]{V}; l’aire du cube vaut alors A=6\sqrt[3]{V^2}. Le même volume est obtenu avec n cubes dont la somme des aires vaut

A_n=n\times 6\sqrt[3]{\left(\frac{V}{n}\right)^2}=\sqrt[3]n\ A

Voici un aperçu du graphe de la fonction \sqrt[3]{\quad}.

aire

Il nous donne une idée de la manière selon laquelle A_n croît avec n.

La relation

A_n=\sqrt[3]n\ A

vaut pour d’autres formes que celle du cube. En effet, pour toute forme de « récipient » pour laquelle on peut définir un volume V et une aire A, le quotient

\varrho=\cfrac{A^3}{V^2}

est invariant par similitudes. Nous l’appellerons ici facteur de forme. Si on répartit à parts égales V dans n « récipients » de facteur de forme \varrho, alors chacun a une aire égale à

\sqrt[3]{\varrho\left(\frac{V}{n}\right)^2}

et la somme de leurs aires vaut

A_n=\sqrt[3]{n}\sqrt[3]{\varrho V^2}=\sqrt[3]{n}\ A

Ainsi, l’aire d’un Mathusalem de champagne est la moitié de l’aire totale des huit bouteilles qu’il peut remplir …

😉

A propos des empilements infinis de radicaux IV

Je vais compléter les trois billets précédents en établissant que, pour des suites a et b à valeurs strictement positives, on a

(1) \boxed{\mathrm{im\ } e_{a,b}=[\lim u(\mathbf 0),\infty]}

ce qui est une façon de résumer l’alternative suivante : soit \lim u(\mathbf 0)=\infty et \mathrm{im\ } e_{a,b}=\{\infty\}, soit \lim u(\mathbf 0)=\gamma_0\in\mathbf R et \mathrm{im\ } e_{a,b}=[\gamma_0,\infty]. Dans le premier cas, pour toute suite c\in\mathscr D_{a,b}, u(c) tend vers \infty. Dans le second, il y a des suites c\in\mathscr D_{a,b} pour lesquelles u(c) tend vers \infty mais, pour chaque nombre réel \gamma\geqslant \gamma_0, il y en a aussi pour lesquelles u(c) tend vers \gamma. J’ajoute que les deux cas se présentent.

Pour établir cela, nous allons utiliser une propriété supplémentaire des fonctions \xi _n :

(2) \boxed{\lim_{x\to\infty}\xi_n(x)=\infty}

Nous allons montrer cela (qui est à peu près évident) en montrant par récurrence sur n que cette propriété est vraie pour toutes les suites a et b dont les valeurs sont strictement positives.

La propriété est vérifiée pour n=0 puisque \xi_0:x\mapsto x.
Supposons ensuite qu’elle le soit pour n=p. Alors, comme

\xi_{p+1}(x)=\sqrt{a_0+b_0\xi_p^\sigma(x)}

il vient

\lim_{x\to\infty}\xi_{p+1}(x)=\sqrt{a_0+b_0\lim_{x\to\infty}\xi_p^\sigma(x)}=\infty

puisque, par hypothèse de récurrence, \lim_{x\to\infty}\xi_p^\sigma(x)=\infty. D’où la propriété.

Cela étant, comme \xi_n est strictement croissant, c’est une bijection de [0,+\infty[ sur [u_n(\mathbf 0),+\infty[. De plus, si c est une suite à valeurs positives ou nulles, alors u(c) majore u(\mathbf 0) puisque

u_n(\mathbf 0)=\xi_n(0)\leqslant \xi_n(c_n)=u_n(c)

En conséquence, les suites u(c) sont exactement les suites v telles que

\forall n\in \mathbf N, \quad v_n\geqslant u_n(\mathbf 0)

En particulier, il existe des suites c telles que \lim u(c)=\infty. C’est par exemple le cas de la suite

n\mapsto \xi_n^{-1}(u_n(\mathbf 0)+n)

Ainsi, l’image de e_{a,b} contient toujours \infty.

Cela étant, nous avons démontré dans le billet précédent que u(\mathbf 0) converge vers \infty ou vers une limite réelle, que nous noterons alors \gamma_0.

Dans le premier cas, pour toute suite c à valeurs positives ou nulles, u(c) tend vers \infty puisqu’il majore u(\mathbf 0). Dès lors l’image de e_{a,b} est \{\infty\}.

Dans le second cas, comme nous l’avons montré dans le billet précédent, [\gamma_0,+\infty[ est inclus à l’image de e_{a,b} et il résulte de ce qui précède que celle-ci ne contient aucun nombre réel strictement plus petit que \gamma_0. Mais elle contient \infty. Nous en concluons que \mathrm{im\ }e_{a,b}=[\gamma_0,\infty], ce qui achève de prouver (1).

Il reste à se convaincre de ce qu’il existe des suites a et b à valeurs strictement positives pour lesquelles u(\mathbf 0) tend vers \infty. Considérons des suites à valeurs strictement positives quelconques a et b ainsi qu’une suite à valeurs positives ou nulles c telle que u(c) tende vers \infty. Posons b'=b et choisissons une suite a' telle que

\forall n\in\mathbf N, \quad a'_n>a_n+b_nc_{n+1}

Il est facile de vérifier que la suite u(\mathbf 0) associée à a' et b' majore la suite u(c) associée à a et b(*). Elle tend donc aussi vers \infty. L’affaire est entendue!

P.S. La construction de a' ci-dessus permet de vérifier que, malheureusement peut-être, les « racines continues » présentées sur ce site (c’est-à-dire les empilements e(a,b)a est une suite d’entiers strictement positifs et b=\mathbf 1), ne convergent pas toujours. En effet, dans la construction en question, on peut prendre des a'_n entiers. Ainsi, à partir d’une racine continue éventuellement convergente, on peut en construire une pour laquelle les suites u(c), c\in\mathscr D_{a,b}, tendent toutes vers \infty. P.L. 16/10/2016

P.S. Un ami auquel j’ai fait part de mes cogitations sur les empilements infinis de radicaux m’a proposé un exemple explicite de suites a,b à valeurs strictement positives pour lesquelles \lim u(\mathbf 0)=\infty. Il s’agit de a=\mathbf 1 et b: n\mapsto 2^{(2^n)}. Il est facile en effet de voir que

\forall n\in \mathbf N, \quad u_n(\mathbf 0)\geqslant 2^n

ce qui montre bien que ces suites conviennent. P.L. 19/10/2016

__________
(*) Pour ne pas alourdir les notations, je n’ai pas explicité la dépendance des u(...) aux suites a et b dont ils dépendent, pas plus que je ne l’ai fait pour les fonctions \xi_n.
Je crois cependant que cette phrase est claire.