A propos d’une inégalité … triangulaire

Ce fil du forum « M@TH en Ligne » est à l’origine du présent billet. On y propose de prouver que si \alpha,\beta,\gamma sont les angles d’un triangle, alors

\displaystyle \frac{\sin\alpha-\sin\beta}{\sin\beta+\sin\gamma}+\frac{\sin\beta-\sin\gamma}{\sin\gamma+\sin\alpha}+\frac{\sin\gamma-\sin\alpha}{\sin\alpha+\sin\beta}<\frac 12

Un participant du forum affirmait savoir le faire, et c’est sans doute aucun le cas, mais il n’a pas donné sa démonstration.

L’inégalité m’a interpellé et j’ai immédiatement songé à la relation des sinus (les notations sont classiques)

\displaystyle \frac{\sin\alpha}a=\frac{\sin\beta}b=\frac{\sin\gamma}c

qui transforme l’inégalité proposée en celle-ci, qui lui est équivalente :

(\star) \displaystyle \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}<\frac 12

pensant que cela mènerait à une piste fertile.

Cela ne m’avait cependant conduit à rien et j’avais rapidement délaissé la question. Il y a quelques jours, je suis tombé à nouveau sur ce problème et je me suis résolu à lui faire la peau, coûte que coûte.

Je présente ci-dessous la démonstration que j’ai enfin obtenue.

Il s’agit donc de vérifier que

(1) \displaystyle \forall (a,b,c)\in\mathfrak O, \quad \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}<\frac 12

\mathfrak O est l’ouvert de \mathbf R^3

\{(x,y,z)\in\mathbf R^3|0<x<y+z,0<y<z+x,0<z<x+y\}

Notons \varpi le plan de \mathbf R^3 d’équation cartésienne x+y+z=1.

Les propositions (1) et

 (2) \displaystyle \forall (a,b,c)\in\mathfrak O\cap\varpi, \quad \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}<\frac 12

sont équivalentes.

En effet, d’une part, (1) implique (2) puisque \mathfrak O\cap\varpi\subset\mathfrak O. Supposons d’autre part que (2) soit vrai. Soit alors (a,b,c)\in\mathfrak O. On a

\displaystyle (a',b',c'):=\left(\frac a{a+b+c},\frac b{a+b+c},\frac a{c+b+c}\right)\in\mathfrak O\cap\varpi

et

\displaystyle \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}= \frac{a'-b'}{b'+c'}+\frac{b'-c'}{c'+a'}+\frac{c'-a'}{a'+b'}<\frac 12

Ainsi, (2) implique (1).

On peut reformuler cette équivalence en disant que l’inégalité (\star) est vraie pour tous les triangles si, et seulement si, elle l’est pour les tous les triangles dont le périmètre vaut 1.

Reformulation

Nous allons montrer que(*)

Les propositions (2) et

 (3) \forall (u,v,w)\in ]\frac 14,\frac 12[^3\cap\varpi, \quad \dfrac vu+\dfrac wv+\dfrac uw < \dfrac 72

sont équivalentes.

On démontre cela à l’aide de l’application

\displaystyle \varphi :(x,y,z)\in\mathbf R^3\mapsto \left(\frac{y+z}2,\frac{z+x}2,\frac{x+y}2\right)\in\mathbf R^3

C’est une bijection linéaire. Elle s’inverse en

(x,y,z)\mapsto (-x+y+z,x-y+z,x+y-z)

Il est facile de voir que si \varphi(a,b,c)=(u,v,w), alors

\displaystyle \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}=\frac vu+\frac wv+\frac uw -3

de sorte que

\displaystyle \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}<\frac 12 \Longleftrightarrow \frac vu+\frac wv+\frac uw<\frac 72

On vérifie également facilement que

\varphi(\mathfrak O)=\{(x,y,z)\in\mathbf R^3|x<y+z<3x,y<z+x<3y,z<x+y<3z\}

et, enfin, que

\varphi(\mathfrak O)\cap\varpi=]\frac 14,\frac 12[^3\cap\varpi

ce qui termine la preuve de l’équivalence de (2) et (3).

Un résultat

Notons \omega le premier octant ouvert \{(x,y,z)\in\mathbf R^3|x,y,z>0\} de \mathbf R^3 et e l’application

\displaystyle (x,y,z)\in\omega\mapsto \frac yx+\frac zy+\frac xz\in\mathbf R

J’affirme que

a) \min_{(x,y,z)\in[\frac 14,\frac 12]^3}e(x,y,z)=3, borne atteinte si, et seulement si, x=y=z

b) \sup_{(x,y,z)\in[\frac 14,\frac 12]^3}e(x,y,z)=\frac 72, borne atteinte si, et seulement si, (x,y,z) est un des sommets du cube [\frac 14,\frac 12]^3 n’appartenant pas à la droite d’équations x=y=z

La fonction e étant continue, ses bornes inférieure et supérieure sur le compact [\frac 14,\frac 12]^3 sont réalisées.

Cela étant, le produit des nombres y/x, z/y,x/z vaut 1. D’après l’inégalité entre moyennes géométrique et arithmétique, leur somme est supérieure ou égale à 3 et vaut 3 si, et seulement si, x=y=z. D’où a).

Voici alors une preuve de b). Les dérivées partielles de e sont

\displaystyle e'_x= -\frac y{x^2}+\frac 1z, \quad e'_y= -\frac z{y^2}+\frac 1x,\quad e'_z= -\frac x{z^2}+\frac 1y

Les zéros de ces dérivées sont les points de \omega situés sur la droite \mathcal D d’équations x=y=z. Ceux qui appartiennent au cube [\frac 14,\frac 12]^3 sont les points de la diagonale qui joint les sommets (\frac 14,\frac 14,\frac 14) et (\frac 12,\frac 12,\frac 12). Comme e vaut 3 sur ces points, il résulte de ceci que le maximum de e sur ce cube n’est pas atteint à l’intérieur de celui-ci mais bien sur sa frontière.

En fait, la restriction de e à un plan perpendiculaire à un axe de coordonnées ne possède qu’un point stationnaire, à savoir le point de percée de la droite \mathcal D dans ce plan, en lequel e=3. En conséquence, le maximum de e sur le cube [\frac 14,\frac 12]^3 n’est pas atteint non plus en un point de l’intérieur relatif d’une de ses faces mais bien sur une de ses arêtes.

Vu la symétrie circulaire de e en ses arguments, il suffit de vérifier cela pour les plans perpendiculaires à l’axe des z coupant \omega. Fixons donc z dans e. Les dérivées partielles de l’application (x,y)\mapsto e(x,y,z) s’annulent en le seul point (z,z,z). En effet, e'_x=0 si, et seulement si, x^2=yz et e'_y=0 si, et seulement si, y^2=xz. Donc, si les dérivées partielles de cette application s’annulent en (x,y), alors x^3=xyz=y^3, puis x=y=z comme annoncé.

Pour poursuivre, nous allons baptiser les sommets du cube [\frac 14,\frac 12]^3 comme suggéré par le dessin suivant

Les coordonnées des sommets sont reprises dans le tableau suivant, dans lequel on a indiqué les valeurs que e prend en ces points.

\begin{array}{c|c|c}&(x,y,z)&e(x,y,z)\\ \hline A_1&(1/4,1/4,1/4)&3\\ \hline A_2&(1/2,1/2,1/2)&3\\ \hline B_1&(1/2,1/4,1/4)&7/2\\ \hline B_2&(1/4,1/2,1/4)&7/2\\ \hline B_3&(1/4,1/4,1/2)&7/2\\ \hline C_1&(1/4,1/2,1/2)&7/2\\ \hline C_2&(1/2,1/4,1/2)&7/2\\ \hline C_3&(1/2,1/2,1/4)&7/2\end{array}

La diagonale [A_1,A_2] du cube est l’ensemble des points en lesquels e y atteint son minimum.

Cela étant

Les restrictions de e à chaque arête du cube sont des fonctions strictement convexes.

Ces restrictions sont toutes des applications de la forme t\in[\frac 14,\frac12]\mapsto \frac at+bt+c\in\mathbf R où les nombres a,b,c sont strictement positifs. En effet, sur une arête, deux des coordonnées x,y,z sont fixées à \frac 14 ou à \frac 12. Par exemple, sur [B_3,C_2], y=\frac 14, z=\frac 12 et la restriction de e est l’application t\mapsto \frac 1{4t}+2t+2. Il y a en tout quatre fonctions qui apparaissent. En voici l’allure. Les couleurs des tracés correspondent à celles des arêtes du cube représenté ci-dessus.

tracés

Les minima des restrictions aux arêtes bleues et rouges sont atteints en \frac 1{2\sqrt 2} et valent respectivement \sqrt 2+2 et 2\sqrt 2+\frac 12. Le nombre \frac 1{2\sqrt 2} est aussi l’abscisse du point de croisement des courbes orange et verte.

Cela étant, les restrictions de e sont donc strictement convexes puisque la dérivée seconde \frac{2a}{t^3} de t\in]0+\infty[\mapsto \frac at+bt+c\in\mathbf R est strictement positive.

Ainsi, la meilleure borne supérieure de la restriction  de e au cube [\frac 14,\frac 12]^3 est \frac 72 et est atteinte en les sommets B_1,B_2,B_3, C_1,C_2,C_3 : b) est prouvé.

Mais aussi  (3) puisque ]\frac 14,\frac 12[^3\cap\varpi est l’intérieur relatif du triangle B_1B_2B_3. Du coup, nous avons démontré (\star) et résolu le problème posé dans le fil de discussion du forum « M@TH en Ligne » mentionné au tout début de ce billet. Vu a), nous avons également établi que, pour tout triangle de côtés a,b,c,

\displaystyle \frac{a-b}{b+c}+\frac{b-c}{c+a}+\frac{c-a}{a+b}\geqslant 0

l’égalité ayant lieu exactement pour les triangles équilatéraux.

__________
(*) Je précise les notations : ]\frac 14,\frac 12[^3 est le cube ]\frac 14,\frac 12[\times]\frac 14,\frac 12[\times]\frac 14,\frac 12[.

Une belle variété différentielle

Dans ce billet, je vais présenter quelques propriétés de l’ensemble

V_n=\{x\in\mathbf R^n|x_1\cdots x_n=1\quad \&\quad x_1,\ldots, x_n>0\}

n est un entier au moins égal à 2.

Variété différentielle
Cet ensemble est une variété de classe C^\infty plongée dans \mathbf R^n — une hypersurface. Elle admet en effet l’équation cartésienne globale

F:x\in\omega_n\mapsto x_1\cdots x_n-1\in\mathbf R

\omega_n=\{x\in\mathbf R^n|x_1,\ldots,x_n>0\}

De fait, V_n est l’ensemble des zéros de F et le gradient de ce dernier ne s’annule nulle part puisque(*)

F'_i(x)=x_1\cdots x_{i-1}x_{i+1}\cdots x_n>0

lorsque x\in\omega_n.
En particulier, si u\in V_n,

\mathrm{grad}_uF=(F'_1(u),\ldots,F'_n(u))=\left(\dfrac 1{u_1},\ldots,\dfrac 1{u_n}\right)

de sorte que

(1) La variété affine T_uV_n tangente à V_n en u est l’hyperplan d’équation cartésienne

\dfrac{x_1}{u_1}+\cdots+\dfrac{x_n}{u_n}=n

La variété V_n est connexe. En effet, l’application

x\in\omega_{n-1}\mapsto \left(x_1,\ldots,x_{n-1},\dfrac 1{x_1\cdots x_{n-1}}\right)\in V_n

est un homéomorphisme de \omega_{n-1}, qui est connexe, sur V_n, qui l’est donc aussi(**).

Un difféomorphisme
Notons \alpha_n l’hyperplan de \mathbf R^n d’équation cartésienne x_1+\cdots+x_n=0.
Il se fait que

1) Chaque droite perpendiculaire à \alpha_n coupe V_n en exactement un point.
2) La restriction à V_n de la projection orthogonale de \mathbf R^n sur \alpha_n est un difféomorphisme.

Nous noterons \varphi la restriction à V_n de la projection orthogonale de \mathbf R^n sur \alpha_n.
Cela étant, prouvons 1). Soit \mathcal D une droite perpendiculaire à \alpha_n. Si u est un de ses points, alors

\mathcal D=\{(t+u_1,\ldots,t+u_n))|t\in\mathbf R\}

car (1,\ldots,1) est orthogonal à \alpha_n.

— Afin de voir que \mathcal D rencontre V_n, prenons pour u le point d’intersection de \mathcal D et de \alpha_n et notons P l’application polynômiale

t\mapsto (t+u_1)\cdots(t+u_n)

Puisque u_1+\cdots +u_n=0, la plus petite composante de u, disons u_i, est inférieure ou égale à 0. On a P(-u_i)=0 et la limite de P en +\infty est +\infty. En vertu du théorème des valeurs intermédiaires, il existe donc t>-u_i tel que P(t)=1. Comme u_i est la plus petite composante de u, les nombres t+u_k, k\in\{1,\ldots,n\}, sont strictement positifs. Ainsi

(t+u_1,\ldots,t+u_n)\in\mathcal D\cap V_n

— On va ensuite vérifier, par l’absurde, que \mathcal D ne rencontre V_n qu’en un seul point. Pour cela, nous prenons pour u l’élément de \mathcal D\cap V_n le plus proche de \alpha_n. Vu ce choix, les composantes d’un second élément de cette intersection sont de la forme u_i+tt est strictement positif. Leur produit vaut 1, ce qui donne

(2) \sum_{k=0}^nc_kt^{n-k}=1

c_k=\sum_{i_1<\cdots<i_k}u_{i_1}\cdots u_{i_k}

Comme u\in V_n, ces ceofficients sont strictement positifs et c_n=u_1\cdots u_n=1. Vu (2), cette dernière égalité implique que

\sum_{k=1}^nc_kt^{n-k}=0

C’est absurde car tous les termes du membre de gauche de cette relation sont strictement positifs.

Voici alors une preuve de 2).

On va vérifier que \varphi est un difféomorphisme en montrant que c’est une bijection de classe C^\infty dont la différentielle est partout non singulière.

— L’application \varphi est injective. En effet, vu 1), les perpendiculaires à \alpha_n menées par des points distincts u,v de \in V_n sont disjointes (elles sont parallèles et disjointes). En particulier, leurs intersections avec \alpha_n, \varphi(u) et \varphi(v), sont distinctes. Vu 1) de nouveau, elle est aussi surjective. C’est donc une bijection.

— L’application \varphi est la composée \mathcal A\circ i de la projection orthogonale \mathcal A de \mathcal R^n sur \alpha_n et du plongement i de V_n dans \mathbf R^n. Ces deux fonctions sont de classe C^\infty. La première parce que c’est une application affine et la seconde en raison du fait que V_n est une variété plongée de classe C^\infty de \mathbf R^n.

— L’application linéaire tangente de \varphi en un point u est \varphi_{*u}=\mathcal A_{*u}\circ i_{*u}.

D’une part, l’application \mathcal A_{*u} est l’application linéaire A associée à l’application affine \mathcal A(***). En l’occurrence c’est la projection orthogonale de \mathbf R^n sur \alpha_n (qui est son propre espace vectoriel directeur puisqu’il contient 0). En particulier, le noyau de A est la droite d’équations x_1=\cdots =x_n.

D’autre part, i_{*u} est une bijection de l’espace tangent de V_n en u sur l’espace vectoriel directeur de la variété affine tangente à V_n en u. Vu (1), il s’agit du sous-espace vectoriel de \mathbf R^n d’équation

\dfrac{x_1}{u_1}+\cdots+\dfrac{x_n}{u_n}=0

On a donc \ker \mathcal A_{*u}\cap\mathrm{im\ } i_{*u}=\{0\}. Ceci montre que \varphi_{*u} est injectif mais comme les dimensionns de V_n et \alpha_n sont égales, il est dès lors bijectif, ce qui achève la preuve de 2).

Un convexe
Nous allons montrer, de deux façons différentes, que

V_n^+=\{x\in \omega_n|x_1\cdots x_n\geqslant 1\}

est convexe. Nous verrons d’abord que c’est une intersection de convexes puis nous verrons qu’il est l’image par une bijection linéaire de \alpha_n\times\mathbf R sur \mathbf R^n de l’épigraphe d’une fonction de classe C^\infty strictement convexe f: \alpha_n\to\mathbf R.

Dans les deux cas, nous utiliserons l’inégalité suivante

(\star) Si les nombres réels a_1,\ldots a_m sont strictement positifs et si leur produit vaut 1, alors leur somme est plus grande ou égale à m et elle vaut m si, et seulement si, ces nombres sont tous égaux à 1.

Elle résulte immédiatement de l’inégalité entre les moyennes géométrique et arithmétique

\sqrt[m]{a_1 \cdots a_m}\leqslant\dfrac { a_1+\cdots+a_m}m

et du fait que, dans celle-ci, l’égalité est réalisée si, et seulement si, les a_i sont égaux.

Pour tout u\in V_n, notons \xi_u le demi-espace fermé de \mathbf R^n délimité par T_uV_n et contenant u+\delta, où \delta=(1,\ldots,1).
L’hyperplan T_uV_n délimite deux demi-espaces fermés. Vu (1), il s’agit de l’ensemble des solutions de l’inéquation

(3) \dfrac{x_1}{u_1}+\cdots+\dfrac{x_n}{u_n}\geqslant n

et celui des solutions de

\dfrac{x_1}{u_1}+\cdots+\dfrac{x_n}{u_n}\leqslant n

Le premier contient u+\delta. C’est donc \xi_u.

On a

(4) \displaystyle V_n^+=\omega_n\cap\bigcap_{u\in V_n}\xi_u

Montrons d’abord que si x\in V_n^+ et u\in V_n, alors x\in\omega_n\cap\xi_u. Puisque x appartient à V_n^+, il appartient à \omega_n et a:=x_1\cdots x_n\geqslant 1. D’après (\star), on a alors

\displaystyle \frac{x_1}{\sqrt[n]{a}\ u_1}+\cdots+\frac{x_n}{\sqrt[n]{a}\ u_n}\geqslant n

En effet, le produit des nombres positifs x_k/(\sqrt[n]{a}\ u_k) vaut 1. En multipliant les deux membres de cette inégalité par \sqrt[n]{a}, on voit que x\in\xi_u puisque \sqrt[n]{a}\ n\geqslant n.

Ensuite, vérifions qu’un point x de \omega_n appartenant à chaque \xi_u, u\in V_n, appartient à V_n^+. Avec de nouveau a=x_1\cdots x_n, u=x/\sqrt[n]{a}\in V_n. Puisque x\in \xi_u, il vérifie l’inégalité (3), ce qui donne n\sqrt[n]{a}\geqslant n. Dès lors a\geqslant 1 et x\in V_n^+. L’égalité (4) est ainsi établie.

Elle montre que V_n^+ est convexe car \omega_n et les \xi_u, u\in V_n, sont convexes. Il est même strictement convexe en ce sens que chaque hyperplan d’appui T_uV_n, u\in V_n, ne le rencontre qu’en u. En effet si x\in V_n^+\cap T_uV_n alors

\displaystyle \frac{x_1}{u_1}+\cdots+\frac{x_n}{u_n}=n

D’après l’inégalité entre les moyennnes arithmétique et géométrique, le produit des nombres x_k/u_k, qui vaut x_1\cdots x_n, ne dépasse pas 1. Or il vaut au moins 1 puisque x\in V_n^+. Il est donc égal à 1. Vu (\star), les x_k/u_k sont égaux à 1 et x=u.

Un convexe (suite)
Je vais à présent donner la seconde preuve de la convexité de V_n^+ annoncée au début de la section précédente.

La fonction f Soit un point x de \alpha_n. Par définition de \varphi, le point \varphi^{-1}(x) appartient à la perpendiculaire à \alpha_n menée par x. Il existe donc un nombre t, et un seul, tel que \varphi^{-1}(x)=x+t\delta. Nous le noterons f(x), introduisant ainsi une fonction f:\alpha_n\to \mathbf R qui, tout comme \varphi^{-1}(x), est de classe C^\infty. Nous désignerons ci-dessous par \mathcal G et \mathcal G^+ le graphe et l’épigraphe de f. Le graphe de f est, bien entendu, une variété différentielle plongée dans \alpha_n\times\mathbf R.

L’épigraphe de f Nous allons voir que la restriction de la bijection linéaire

T : (x,t)\in\alpha_n\times\mathbf R\mapsto x+t\delta\in\mathbf R^n

à l’épigraphe de f est une bijection entre celui-ci et V_n^+.

Montrons d’abord que T(\mathcal G^+)\subseteq V_n^+. Soit (x,t)\in\mathcal G^+. On a

u:=T((x,t))=x+f(x)\delta+(t-f(x))\delta

y:=x+f(x)\delta\in V_n et s:=t-f(x)\geqslant 0. Par suite

u_1\cdots u_n=(y_1+s)\cdots(y_n+s)\geqslant y_1\cdots y_n=1

ce qui montre que u appartient à V_n^+.

Vérifions ensuite que T_{|\mathcal G^+} est surjectif. Soit u=T(x,t)\delta\in V_n^+. Nous allons  voir que t\geqslant f(x), ce qui suffit pour conclure. Posons t=f(x)+s. On a

u_1\cdots u_n=\underbrace{(x_1+f(x)+s)\cdots(x_n+f(x)+s)}_{\geqslant 1}\geqslant \underbrace{(x_1+f(x))\cdots(x_n+f(x))}_{=1}

et les x_i+f(x) sont strictement positifs. Par conséquent,  $layex s\geqsalnt 0$ et t\geqslant f(x) comme annoncé.

Notons que \tau_{|\mathcal G} est aussi une bijection, de \mathcal G sur V_n. Il est facile de voir que c’est un difféomorphisme entre ces deux variétés.

Convexité stricte de f La fonction f est strictement convexe c’est-à-dire que tout segment de droite délimité par deux points distincts de son graphe est entièrement contenu dans son épigraphe et ne rencontre son graphe qu’en ces points. C’est une façon géométrique de formuler l’inégalité stricte de Jensen. En formules, cela donne : si \lambda\in]0,1[ et si x,y\in\alpha_n sont distincts, alors

f((1-\lambda)x+\lambda y)<(1-\lambda)f(x)+\lambda f(y)

Mais puisque T est linéaire, T_{|\mathcal G^+}:\mathcal G^+\to V_n^+ est une bijection et T(\mathcal G)=V_n, ceci est équivalent à : tout segment de droite délimité par deux points de V_n est entièrement contenu dans V_n^+ et ne rencontre V_n qu’en ces points. Soit en formules : si \lambda\in]0,1[ et si u,v\in V_n sont distincts, alors

(5) \displaystyle \prod_{k=1}^n[(1-\lambda)u_k+\lambda v_k]>1

Démonstration Nous allons à présent vérifier que f est strictement convexe en utilisant cette dernière caractérisation. Supposons que \lambda\in ]0,1[ et que u,v\in V_n. On a

\displaystyle \prod_{k=1}^n[(1-\lambda)u_k+\lambda v_k]=\sum_{p=0}^n\gamma_p(1-\lambda)^p\lambda^{n-p}

Bien entendu, \gamma_0=\gamma_n=1 et nous montrerons plus bas que, pour p\in\{1,\ldots n-1\}, \gamma_p\geqslant {n \choose p}, l’égalité ayant lieu si, et seulement si, u=v. Comme les nombres (1-\lambda)^p\lambda^{n-p} sont strictement positifs, on a donc

\displaystyle \sum_{p=0}^n\gamma_p(1-\lambda)^p\lambda^{n-p}\geqslant \sum_{p=0}^n{n \choose p}(1-\lambda)^p\lambda^{n-p}=1

l’égalité ayant lieu si, et seulement si, u=v. L’inégalité (5) est donc démontrée, sous l’hypothèse que u\neq v.

Démonstration (suite) Nous allons prouver ici nos allégations relatives aux coefficients \gamma_p. Nous supposons d’emblée que p\in\{1,\ldots n-1\} car il est évident, comme nous l’avons laissé entendre, que \gamma_0=\gamma_n=1.

Le coefficient \gamma_p s’obtient en choisissant de toutes les façons possibles le terme en 1-\lambda dans p facteurs du membre de gauche de l’inégalité (5) et le terme en \lambda dans les autres facteurs. Donc

\displaystyle \gamma_p=\sum_{(I,J)}\left(\prod_{i\in I}u_i\right)\left(\prod_{j\in J}v_j\right)

où la somme porte sur les couples formés d’un ensemble à p éléments I\subset \{1,\ldots,n\} et de son complémentaire J=\{1,\ldots,n\}\setminus I. Comme v\in V_n, v_1\cdots v_n=1 de sorte que

\displaystyle \prod_{j\in J}v_j=\prod_{i\in I}\frac 1{v_i}

Par suite,

\displaystyle \gamma_p=\sum_I\underbrace{\prod_{i\in I}\frac{u_i}{v_i}}_{s_I}

Le produit des {n \choose p} nombres s_I vaut 1. En effet, chaque nombre k\in\{1,\ldots,n\} figure exactement dans

{n \choose p}-{n-1 \choose p}={n-1 \choose p-1}

sous-ensembles à p éléments de \{1,\ldots,n\}. Par conséquent,

\displaystyle \prod_Is_I=\left(\frac{u_1\cdots u_n}{v_1\cdots v_n}\right)^{n-1 \choose p-1}=1

Vu (\star), on a donc \gamma_p\geqslant {n \choose p}, l’égalité ayant lieu si, et seulement si, les s_I sont égaux à 1.

Pour conclure, il nous reste donc à montrer que les s_I sont égaux à 1, alors u=v, la réciproque étant évidente.

Supposons donc que les s_I sont égaux à 1. Soient k\in\{1,\ldots n\} et \mathcal I_k l’ensemble des I contenant k. Comme on l’a observé plus haut, il y en a {n-1 \choose p-1}. De plus, chaque nombre l\in\{1,\ldots n\}\setminus\{k\} figure dans exactement {n-2 \choose p-2} éléments de \mathcal I_k puisque I\in\mathcal I_k si, et seulement si, I\setminus\{k\} est un sous-ensemble à p-1 éléments de \{1,\ldots n\}\setminus\{k\}. Par conséquent,

\displaystyle 1=\prod_{I\in\mathcal I_k}s_I=\left(\frac{u_k}{v_k}\right)^{{n-1 \choose p-1}}\left(\frac{u_1\cdots u_{k-1}u_{k+1}\cdots u_n}{v_1\cdots v_{k-1}v_{k+1}\cdots v_n}\right)^{{n-2 \choose p-2}}=\left(\frac{u_k}{v_k}\right)^{{n-2 \choose p-1}}

puisque u_1\cdots u_n=v_1\cdots v_n=1. Dès lors u_k=v_k pour tout k\in\{1,\ldots n\} : u=v.

Conclusion Puisque la fonction f est strictement convexe, son épigraphe est convexe et, dès lors, V_n^+=T(\mathcal G^+) l’est aussi.

Un convexe (suite)

Il y a en fait une troisième façon de prouver que V_n^+ est convexe. Elle vient assez facilement à l’esprit et est plus expéditive que les précédentes. Mais, contrairement à celles-ci, qui sont fort instructives, elle ne révèle pas grand chose de la géométrie de V_n. En plus, elle ne respecte pas du tout l’invariance de V_n et V_n^+ sous l’action du groupe des permutations \mathfrak S_n. Je n’en raffole pas, vous l’aurez compris, mais je la propose quand même, pour être complet. Cela dit, elle ferait sans doute l’objet un bon exercice pour les étudiants des premières années d’étude en sciences mathématiques.

La fonction

\displaystyle g:x\in\omega_{n-1}\mapsto \frac 1{x_1\cdots x_{n-1}}\in\mathbf R

est convexe. En effet, un calcul facile montre qu’en chaque point x de \omega_{n-1}, sa matrice hessienne H(x) vérifie

\displaystyle \forall h\in \mathbf R^{n-1}, \quad H(x)h\cdot h=\sum_{i,j}H(x)_{ij}h_ih_j=g(x)\left(\sum_{i=1}^{n-1}\frac{h_i}{x_i}\right)^2

Elle est donc semi-défini positive.

Par ailleurs, V_n et V_n^+ sont respectivement le graphe et l’épigraphe de g. En particulier, V_n^+ est convexe.
__________
(*) Pour alléger l’écriture, nous désignerons par f'_i(x) la dérivée partielle d’une fonction f par rapport à sa i-ème variable calculée en x.
(**) En fait cette application est un paramétrage de V_n. Les \omega_m sont connexes car ils sont convexes puisque ce sont des intersections de demi-espaces.
(***) Si \mathcal T:\mathcal E\to\mathcal F est une application affine, alors il existe une, et une seule, application linéaire T: E\to F, où E et F sont les espaces vectoriels directeurs de \mathcal E et de \mathcal F, vérifiant

\mathcal T(Y)=\mathcal T(X)+T(\overrightarrow{XY})

Lorsque \mathcal E et \mathcal F sont de dimensions finies, alors \mathcal T est de classe C^\infty et son application linéaire tangente est partout égale à T.

PPCM, PGCD et valuation p-adique

Selon le théorème fondamental de l’arithmétique, tout nombre entier(*) s’écrit, de façon unique à l’ordre des facteurs près, comme un produit de puissances de nombres premiers, sa décomposition en facteurs premiers.

Pour tout nombre premier p et tout entier x, on note v_p(x) la plus grande puissance de p qui divise x, i.e. celle à laquelle il figure dans la décomposition de x en facteurs premiers. L’application v_p est la valuation p-adique(**).

Dans ce billet, je me propose de montrer sur quelques exemples comment l’utiliser pour obtenir simplement des démonstrations de certaines propriétés.

Tout repose sur les deux observations suivantes.

–– D’après le théorème fondamental de l’arithmétique, des nombres entiers x et y sont égaux si, et seulement si, v_p(x)=v_p(y) pour tout nombre premier p.
–– Pour tout nombre premier p et tous nombres entiers x et y, v_p(xy)=v_p(x)+v_p(y).

Si la seconde observation est évidente, elle n’en est pas moins bien utile. C’est elle, en effet, qui permet une utilisation « algébrique » du théorème fondamental.

Les propriétés que nous allons démontrer avec les valuations p-adiques concernent le PPCM et le PGCD. Pour alléger les écritures, je noterai m(x_1,x_2,\ldots) le PPCM de nombres entiers x_1,x_2,\ldots et d(x_1,x_2,\ldots) leur PGCD. On a alors(***), avec des notations évidentes,

v_p(m(x_1,x_2,\ldots))=\sup\{v_p(x_1),v_p(x_2),\ldots\}\quad\&\quad v_p(d(x_1,x_2,\ldots))=\min\{v_p(x_1),v_p(x_2),\ldots\}

Remarquons par ailleurs que les fonctions m et d sont symétriques; elle ne dépendent donc que de l’ensemble de leurs arguments et non de l’ordre de ceux-ci(****). Il est parfois commode de noter m(A) et d(A) le PPCM et le PGCD des éléments de l’ensemble (fini, non vide) d’entiers A. Dans la foulée, nous poserons v_p(A)=\{v_p(x)|x\in A\}.

\boxed A

Soient A et B des ensembles finis et non vides d’entiers. On a

\begin{cases}m(A\cup B)=m(m(A),m(B))\\[1ex]d(A\cup B)=d(d(A),d(B))\end{cases}

Ces propriétés permettent de calculer les et PPCM et PGCD d’ensembles de plus de deux éléments en se ramenant à de plus petits ensembles voire à deux éléments. Par exemple

d(24,16,72,44)=d(d(24,16),d(72,44))=d(8,4)=4

Par ailleurs, si elles peuvent sembler évidentes, l’utilisation des valuations p-adiques rend leurs vérifications mécaniques. Ainsi, pour un nombre premier quelconque p,

\begin{array}{rcl}v_p(d(A\cup B))&=&\min(v_p(A\cup B))\\[1ex]&=&\min(v_p(A)\cup v_p(B))\\[1ex]&=&\min(\min(v_p(A)),\min(v_p(B)))\\[1ex]&=&\min(v_p(d(A)),v_p(d(B)))\\[1ex]&=&v_p(d(d(A),d(B)))\end{array}

D’où la seconde égalité. Pour la première, on procède de même mais, au lieu d’utiliser la formule \min(P\cup Q)=\min(\min(P),\min(Q)) comme on vient de le faire, on utilisera son analogue pour \sup : \sup(P\cup Q)=\sup(\sup(P),\sup(Q)).

\boxed B

La propriété bien utile

(1) m(x,y)d(x,y)=xy

x,y sont des nombres entiers quelconques est vite expédiée avec les valuations p-adiques. En effet, étant donné un nombre premier p, on peut supposer sans perte de généralité que v_p(x)\geqslant v_p(y) car m, d et le produit de nombres entiers sont symétriques en leurs arguments. Alors

v_p(m(x,y)d(x,y))=v_p(m(x,y))+v_p(d(x,y))=v_p(x)+v_p(y)=v_p(xy)

\boxed C

Voici ce qui pourrait être considéré comme une généralisation de la propriété précédente. Quels que soient les nombres entiers x, y et z, on a

(2) m(x,y)m(y,z)m(z,x)d(x,y,z)=xyz\ m(x,y,z)

Soit de nouveau un nombre premier quelconque p. Les deux membres de (2) étant symétriques en x,y,z, nous pouvons supposer que v_p(x)\leqslant v_p(y)\leqslant v_p(z). Alors, en notant MG et MD les membres de gauche et de droite de l’égalité, il vient

\begin{array}{rcl}v_p(MG)&=&v_p(m(x,y))+v_p(m(y,z))+v_p(m(z,x))+v_p(d(x,y,z))\\[1ex]&=&v_p(y)+v_p(z)+v_p(z)+v_p(x)\\[1ex]&=&v_p(x)+v_p(y)+2v_p(z)\end{array}

puis

\begin{array}{rcl}v_p(MD)&=&v_p(x)+v_p(y)+v_p(z)+v_p(m(x,y,z))\\[1ex]&=&v_p(x)+v_p(y)+2v_p(z)\end{array}

ce qui prouve la propriété.

Pour z=y, il vient MG=m(x,y)^2zd(x,y) et MD=xyz\ m(x,y). En simplifiant alors les deux membres de (2) par m(x,y)z, on retrouve (1).
C’est ici que s’achève ce billet.
_________
(*) Par simplicité, nous nous limiterons dans ce billet aux entiers strictement positifs.
(**) Elle est en fait définie sur \mathbf Z, et s’étend même à \mathbf Q donnant alors naissance au corps des nombres p-adiques et à l’analyse p-adique. Il s’agit de notion et discipline importantes et je renvoie le lecteur intéressé à ce texte de Bruno Winckler qui est une jolie introduction à l’analyse p-adique.
(***) J’ai tendance à considérer que c’est évident mais je vais rassurer le lecteur un peu dubitatif en fournissant une vérification très simple. Je ne détaille que le cas du PPCM car celui du PGCD se règle de façon tout à fait semblable. Pour qu’un nombre soit multiple des nombres x_i, il faut, et il suffit, que, pour chaque nombre premier p, sa valuation p-adique soit plus grande ou égale à celle de chaque x_i. La valuation p-adique du plus petit commun multiple des x_i est donc le plus petit nombre supérieur ou égal à leurs valuations v_p(x_i), c’est-à-dire, leur meilleure borne supérieure.
(****) C’est vrai même si plusieurs arguments sont égaux. Par exemple, d(16,34,54,16)=d(16,34,54) que nous noterons à l’occasion d\{16,34,54\}.

A propos d’un empilement infini de radicaux

Le but de ce billet est de calculer l’empilement infini de radicaux e_{a,b} où la suite a est périodique de période 2 et b est la suite constante \mathbf{1}, celle dont les éléments valent tous 1(*).

Nous notons p la valeur commune des éléments de rang pair de a et q celle des éléments de rang impair, où p, q sont des nombres réels strictement positifs. L’empilement e_{a,b} est donc

e:=\sqrt{p+\sqrt{q+\sqrt{p+\sqrt{q+\cdots}}}}

Nous allons prouver que

L’empilement e est égal à la plus grande racine de l’équation

(1) (x^2-p)^2-x-q=0

La méthode

Nous montrerons d’abord, \boxed A, que l’équation

(x^2-p)^2-x-q=0

admet une seule racine (positive) plus grande que \sqrt p, \ \xi (c’est sa plus grande racine).

Ensuite, \boxed B, nous construirons une suite c:n\in\mathbf N\mapsto [0,+\infty[ à laquelle est associée une suite constante d’approximations u(c) de e. Ceci prouve que la limite de la suite u(\mathbf 0), la valeur de e, est un nombre réel.

Nous montrerons enfin, \boxed C, que \lim u(\mathbf 0)=\xi, ce qui sera alors facile.

Nous noterons f la fonction.

x \mapsto (x^2-p)^2-x-q=x^4-2px^2-x+p^2-q

Nous l’étudierons principalement dans ]0,+\infty[.

Voici un aperçu du graphe de f lorsque p = 1 et q = 0.8. C’est un cas où la fonction possède deux zéros positifs. Ils sont séparés par \sqrt p.

Voici un exemple du second cas possible, celui où f ne possède qu’un seul zéro positif. Ici, p=\frac 12 et, comme plus haut, q=0.8.

Les détails

\boxed A

Nous allons utiliser les dérivées premières et secondes de f :

\begin{cases}f'(x)=4x^3-4px-1\\[1ex] f''(x)=12x^2-4p\end{cases}

La dérivée seconde s’annule en \pm \sqrt{\frac{p}{3}}. Elle est strictement négative dans ]0,\sqrt{\frac{p}{3}}] et strictement positive dans ]\sqrt{\frac{p}{3}},+\infty[. Comme f'(0)=-1, f' est strictement décroissant et négatif dans ]0,\sqrt{\frac{p}{3}}] et strictement croissant au-delà de \sqrt{\frac{p}{3}}. En particulier, f' s’annule une fois exactement dans ]0,+\infty[, au-delà de \sqrt{\frac{p}{3}}. Notons \alpha ce zéro.

On voit ainsi que la fonction f atteint un minimum local en \alpha. Elle décroit strictement dans ]0,\alpha[ puis croit strictement dans [\alpha,+\infty[. Nous allons voir que le minimum local f(\alpha) est strictement négatif. Dès lors, f admet un unique zéro dans ]\alpha,+\infty[, disons \xi. De plus, si f(0)=p^2-q \sqrt p\geqslant 0, alors f possède un second zéro positif ou nul, \eta. Nous vérifierons que lorsqu’il existe, \eta < \sqrt p.

\bullet Nous considérons \alpha comme une fonction de p. D’après le théorème des fonctions implicites, elle est de classe C^\infty. En effet

f''(\alpha)=12(\alpha^2-\frac p3)>0

Sa dérivée s’obtient en dérivant la relation f'(\alpha)=0 par rapport à p, ce qui donne

\alpha'=\dfrac{\alpha}{3\alpha^2-p}

Notons également que f'(\alpha)=0 montre que

\alpha^2-p=\frac 1{4\alpha}>0

On a alors

\dfrac{d(f\circ\alpha)}{dp}=f'(\alpha)\alpha'-2(\alpha^2-p)=-\dfrac 1{2\alpha}<0

Le minimum de f dans ]0,+\infty[ est donc strictement décroissant par rapport à p. Mais, \alpha^3(0)=\frac 14 et, du coup(**),

f(\alpha(0))=-\frac 34\alpha(0)-q<0

Au total, f(\alpha) est bien strictement négatif.

\bullet Le zéro \xi de f est également une fonction de classe C^\infty de p car f'(\xi)>0. On obtient aisément

\xi'=\dfrac{2(\xi^2-p)}{f'(\xi)}

Avec cette formule, on voit que la dérivée de la fonction p\mapsto \xi^2-p vaut

2\xi\xi'-1=\dfrac{4\xi(\xi^2-p)-f'(\xi)}{f'(\xi)}=\dfrac 1{f'(\xi)}

Cette fonction est donc strictement croissante. Sa limite lorsque p tend vers 0 est positive. Elle est donc strictement positive en les p strictement positifs. Au total, \xi>\sqrt p comme annoncé.

\bullet On démontre de façon semblable que, lorsque \eta existe, c’est-à-dire quand p^2\geqslant q, il est strictement inférieur à \sqrt p. Cette fois la dérivée de p\mapsto \eta^2-p est strictement négative car f'(\eta)<0. De plus, il est clair que \eta(\sqrt q) = 0. Je ne vais pas détailler.

\boxed B

Pour rappel, la suite d’approximations u(c) de notre empilement associée à une suite c:n\in\mathbf N\mapsto [0,+\infty[ est la suite dont voici les premiers éléments

c_0,\ \sqrt{p+c_1},\ \sqrt{p+\sqrt{q+ c_2}},\ \sqrt{p+\sqrt{q+ \sqrt{p+ c_3}}}, \ldots

(de façon générale, c_n figure immédiatement sous le n-ième radical.)

Puisque \xi >0, \xi^2>p et (\xi^2-p)^2-\xi-q=0, on a

\xi=\sqrt{p+\sqrt{q+\xi}}

Il est alors immédiat de voir que pour la suite c définie par

n\mapsto\begin{cases}\xi&\mathrm{\ si\ } n\mathrm{\ est\ pair}\\ \xi^2-p&\mathrm{\ sinon}\end{cases}

la suite u(c) est la suite constante \xi,\xi,\xi,\ldots

\boxed C

Vu \boxed{B}, la suite u(\mathbf 0) converge vers un nombre réel \gamma_0>0 (voir par exemple ce billet) qui est la valeur attribuée à notre empilement e. Mais, clairement, nous avons

u_{n+2}(\mathbf 0)=\sqrt{p+\sqrt{q+u_n(\mathbf 0)}}

En passant à la limite, il vient \gamma_0=\sqrt{p+\sqrt{q+\gamma_0}}.

En élevant les deux membres au carré, nous obtenons \gamma_0^2-p=\sqrt{q+\gamma_0}. En particulier \gamma_0^2-p>0. Par une élévation au carré supplémentaire, nous obtenons enfin f(\gamma_0)=0.

Vu ce qui précède, nous avons donc \gamma_0=\xi et

e:=\sqrt{p+\sqrt{q+\sqrt{p+\sqrt{q+\cdots}}}}=\xi

En particulier,

\lim_{n\to+\infty}\underbrace{\sqrt{p+\sqrt{q+\sqrt{p+\sqrt{q+\cdots}}}}}_{n \mathrm{\ radicaux}}=\xi

P.S. Un participant du forum M@TH en Ligne, Tournesol, a trouvé une méthode plus expéditive pour prouver que f possède une unique racine strictement plus grande que \sqrt p. En fait, il est beaucoup plus expéditif, entre autre pour montrer que le minimum de f dans ]0,+\infty[ est strictement négatif. Après être arrivé aux même conclusions que moi concernant la dérivée première f', il conclut que f est strictement décroissant sur [\sqrt p,\alpha] et strictement croissant sur ]\alpha,+\infty[. Comme f(\sqrt p)=-\sqrt p-q<0, f(\alpha) est également strictement négatif. Le reste est alors clair. P.L. 06/12/2018

P.S. J’aurais dû tester le résultat sur le cas où q=p et vérifier qu’il rend bien dans ce cas la valeur de e que nous avons calculée dans ce billet. Cette valeur est la racine positive de l’équation x^2-x-p=0 i.e. \frac 12\left(1+\sqrt{4p+1}\right). Cela se fait facilement. Lorsque q=p, x^2-x-p est un facteur du membre de gauche de l’équation (1) :

(x^2-p)^2-x-p=(x^2+x-p+1)(x^2-x-p)

Les quatre racines de l’équation (1) sont alors

\frac 12\left(-1\pm\sqrt{4p-3}\right)\quad \& \quad \frac 12\left(1\pm\sqrt{4p+1}\right)

et la plus grande est \frac 12\left(1+\sqrt{4p+1}\right), la valeur attendue pour e. P.L. 07/11/2020

__________
(*) Les articles concernant les empilements infinis de radicaux où vous trouverez les notations et les résultats que je vais utiliser ici se trouvent sous la rubrique Empilements infinis de radicaux du sommaire.
(**) On prend en réalité la limite pour p tendant vers zéro par valeurs positives puisqu’en principe p est supposé strictement positif. Par abus de notations, on note \alpha(0), f(\alpha(0)), \ldots ces limites.

Une brève sur les plans affines euclidiens et orientés II

Dans ce billet auquel je vous renvoie pour les définitions et les notations, je faisais observer la chose suivante : le cercle de centre A et passant par le point B est l’ensemble

\{(1-\lambda)A+\lambda B|\lambda\in S^1\}

C’était alors juste une simple observation sur laquelle le billet s’achève. Dans le présent billet, nous allons l’exploiter pour établir la propriété (bien connue) suivante

Quatre points X_1,X_2,X_3,X_4 de \mathcal E sont alignés ou cocycliques si, et seulement si, le rapport anharmonique [X_1,X_2,X_3,X_4] est réel.

Pour rappel, si A,B sont deux points distincts, alors X_k est une combinaisons affine de ces points : X_k=(1-\lambda_k)A+\lambda_k B et(*)

\begin{array}{lcr}[X_1,X_2,X_3,X_4]&=&\dfrac{\overrightarrow{X_1X_3}}{\overrightarrow{X_3X_2}}\ \dfrac{\overrightarrow{X_4X_2}}{\overrightarrow{X_1X_4}}\\[3ex]&=&\dfrac{\lambda_3-\lambda_1}{\lambda_2-\lambda_3}\dfrac{\lambda_2-\lambda_4}{\lambda_4-\lambda_1}\\[3ex]&=&[\lambda_1,\lambda_2,\lambda_3,\lambda_4]\end{array}

Nous allons à présent prouver la proposition, en commençant par établir que la condition est nécessaire.

\boxed{\mathrm A}

\bullet Supposons les X_k situés sur une droite et prenons A et B sur celle-ci. Les abscisses affines \lambda_k sont alors des nombres réels de même, dès lors, que le birapport [\lambda_1,\lambda_2,\lambda_3,\lambda_4].

\bullet Supposons les X_k situés sur un cercle et prenons pour A le centre de ce dernier et pour B un quelconque de ses points. Les modules des \lambda_k valent 1 de sorte que le conjugué du birapport des X_k vaut

[\overline{\lambda}_1,\overline{\lambda}_2,\overline{\lambda}_3,\overline{\lambda}_4]=[\frac{1}{\lambda_1},\frac{1}{\lambda_2},\frac{1}{\lambda_3},\frac{1}{\lambda_4}]=[\lambda_1,\lambda_2,\lambda_3,\lambda_4]

Ce birapport est donc réel.

\boxed{\mathrm B}

Nous supposons à présent que [X_1,X_2,X_3,X_4] est réel et nous discutons sur le fait que X_1,X_2,X_3 sont alignés ou sont les sommets d’un triangle.

\bullet Dans le premier cas, nous prenons A et B sur la droite X_1X_2. Les abscisses affines \lambda_1,\lambda_2,\lambda_3 sont réelles et, en exprimant que [\lambda_1,\lambda_2,\lambda_3,\lambda_4] est égal à son conjugué, on obtient immédiatement \overline{\lambda}_4=\lambda_4 : \lambda_4 est réel et X_4 appartient à la droite AB.

\bullet Dans le second cas, X_1,X_2,X_3 sont sur le cercle circonscrit au triangle dont ils sont les sommets. Nous prenons alors pour A le centre de ce cercle et pour B un quelconque de ses points. Les modules des nombres \lambda_1,\lambda_2,\lambda_3 valent 1. Cette fois en exprimant que [\lambda_1,\lambda_2,\lambda_3,\lambda_4] est égal à son conjugué, on obtient |\lambda_4|^2=1 après un tout petit peu de calcul. Ainsi |\lambda_4|=1 et le point X_4 appartient au cercle en question.

Voilà, ce billet s’achève ici.

😉

__________
(*) Les \overrightarrow{X_kX_l} sont des multiples de \overrightarrow{AB} et le rapport de deux d’entre eux est celui de ces multiples.

Une brève sur les plans affines euclidiens et orientés

Le présent billet transpose rapidement aux plans affines euclidiens et orientés ce que je présentais dans cet article consacré aux plans vectoriels euclidiens et orientés.

Je ne prétends nullement être original dans ce qui suit. Je veux simplement mettre en évidence un fait amusant que j’ignorais jusqu’il y a peu(*).

Considérons un plan affine euclidien orienté \mathcal E. Par définition d’un tel plan, l’espace vectoriel E qui le dirige est un plan vectoriel muni d’un produit scalaire et d’une orientation.

Comme je l’ai expliqué dans l’article cité ci-dessus, on fait de E une droite vectorielle complexe E_\mathbf C en conservant l’addition de E et en posant

\forall a,b\in \mathbf R,\forall \mathbf u\in E,\quad (a+ib)\mathbf u=a\mathbf u+bJ\mathbf u

J est la rotation (vectorielle) d’angle \pi/2.

L’espace affine \mathcal E devient alors une droite affine complexe \mathcal E_\mathbf C. Ses translations sont celles de \mathcal E et ses combinaisons affines sont définies de façon classique : si la somme de a_1,\ldots,a_p\in\mathbf C vaut 1 et si P_1,\ldots, P_p \in\mathcal E, alors, pour tout point O,

\displaystyle{\sum_{k=1}^p}a_kP_k=O+\sum_{k=1}^pa_k\overrightarrow{OP_k}

(Avec la relation de Chasles, on montre facilement que le membre de droite de cette égalité ne dépend pas de O.)

Soient alors des points distincts A et B de \mathcal E_\mathbf C.

L’ensemble

\{(1-\lambda)A+\lambda B|\lambda\in\mathbf R\}

est la droite réelle (i.e. de \mathcal E) passant par ces points tandis que

\{(1-\lambda)A+\lambda B|\lambda\in\mathbf C\}

est la droite complexe passant par ces points, c’est-à-dire \mathcal E_\mathbf C tout entier.

Voici alors l’objet qui est à l’origine de ce billet :

\{(1-\lambda)A+\lambda B|\lambda\in S^1\}

S^1 est le cercle trigonométrique, i.e. l’ensemble des nombres complexes dont le module vaut 1. Cet ensemble est le cercle de \mathcal E de centre A passant par B.

En effet, d’une part

(1-\lambda)A+\lambda B=A+\lambda\overrightarrow{AB}

et, d’autre part, dans E, les multiplications par les éléments de S^1 sont les rotations vectorielles.

Je trouve amusant de décrire les cercles comme des ensembles de combinaisons affines de deux points, au même titre que les droites et leurs segments.

Nous en resterons là! 😉

__________
(*) Ignorance bien regrettable mais,voilà, je n’utilise pratiquement jamais les espaces affines complexes.

Une brève, à propos d’un logarithme qui se prend pour une exponentielle!

Comme je l’ai expliqué ici, à chaque équation différentielle isochrone est associée une application exponentielle(*).

Je rappelle sommairement ce que nous allons utiliser du matériel présenté dans ce billet.

Une équation différentielle \ddot x= f(x,\dot x)(**) est isochrone si, et seulement si, f est quadratique en h. (Ce n’est pas la définition mais une caractérisation que nous allons exploiter.) La solution maximale t\mapsto u(t,x_0,h) de cette équation qui vaut x_0\in\Omega en t=0 et dont la dérivée vaut h\in\mathbf R^n en t=0 ne dépend de t et de h que par l’intermédiaire de leur produit : il existe une fonction \exp: (x_0,h)\mapsto \exp_{x_0}(h) telle que, dans l’intervalle de définition de u,

u(t,x_0,h)=\exp_{x_0}(th)

L’application \exp est l’exponentielle associée à l’équation isochrone \ddot x= f(x,\dot x). Je ne vais pas m’étendre ici sur son domaine de définition. J’en dis quelques mots dans ce pdf mais ce ne sera pas utile pour le présent billet. Dans le texte en question, je donne divers exemples d’applications exponentielles. Ils recouvrent les notions d’exponentielle que l’on connait généralement dans l’enseignement secondaire et dans les premières années d’études scientifiques à l’université, parmi lesquelles l’exponentielle de matrices (qui est un cas particulier de l’exponentielle des groupes de Lie, pour ceux qui connaissent ceux-ci).

Sur \mathbf R, les équations isochrones sont les équations de la forme \ddot x=g(x)\dot x^2. On peut dire pas mal de choses à leur propos mais dans ce billet, nous nous contenterons de déterminer l’application exponentielle associée à l’équation isochrone \ddot x = \dot x^2.

Pour résoudre l’équation \ddot x = \dot x^2, x(0)=x_0, \dot x(0)=h nous introduisons, ce qui est classique, l’inconnue y=\dot x. Ceci transforme l’équation en question en le système équivalent

\begin{cases}\dot x=y, \quad x(0)=x_0\\\dot y=y^2, \quad y(0)=h\end{cases}

Comme on le voit, facilement, la solution maximale de l’équation \dot y=y^2, \quad y(0)=h est

y : t\in I_h\mapsto \dfrac h{1-ht}\in \mathbf R

I_h=\begin{cases}]-\infty,\frac 1h[\mathrm{\ si\ }h>0\\[1ex]\mathbf R\mathrm{\ si\ }h=0\\[1ex]]\frac 1h,+\infty[\mathrm{\ si\ }h <0\end{cases}

En fait,

t\in I_h \Longleftrightarrow th<1

De là,

x : t\in I_h\mapsto x_0+\displaystyle{\int_0^t}\frac h{1-hu}du=x_0-\ln(1-ht)

et, donc, l’exponentielle associée à l’équation \ddot x=\dot x^2 est l’application

\exp : (x_0,h)\in\mathbf R\times]-\infty,1[\mapsto x_0+\ln\frac 1{1-h}\in \mathbf R

En particulier, pour l’équation considérée,

\exp_0(h)=\ln\frac 1{1-h}

est un logarithme !

__________
(*) Dans le billet en question, je ne parle que d’équations définies sur un ouvert de \mathbf R^n mais un des cadres les plus généraux où les notions d’équations isochrones et d’exponentielles associées sont disponibles est celui des variétés différentielles.
(**) Où f: (x,h)\in\Omega\times\mathbf R^n \mapsto f(x,h)\in\mathbf R^n est de classe C^k, avec \Omega un ouvert de \mathbf R^n et k>1.

Petite remarque sur les quaternions et la dépendance linéaire II

Voici une modeste suite à cet article. Je ne pensais pas qu’elle viendrait si rapidement. Elle va dans le sens de ce que j’écrivais dans les dernières lignes du billet sans pour autant épuiser complètement le sujet, me semble-t-il. Disons que c’est un premier pas dans dans la direction que je souhaite suivre. Il n’y en aura peut-être pas d’autre car ces questions de nature topologique sont assez délicates, du moins pour moi.

Je conserve ici les notations de l’article cité, auquel je vous réfère pour les détails. En plus, pour alléger l’écriture nous conviendrons de désigner par L^* l’ensemble des éléments non nuls de tout espace vectoriel L.

Pour rappel, nous avons vu que des éléments \mathbf u,\mathbf v de l’espace vectoriel E sont linéairement dépendants et sont liés par la relation linéaire r\mathbf v+s\mathbf u=0 si, et seulement si, le produit des quaternions p=r+\mathbf u et q=s+\mathbf v est réel.

Nous allons étudier ici le produit de quaternions comme une application différentiable \mathscr P de \mathbf H_E^2 dans \mathbf H_E et, tout naturellement, nous intéresser plus particulièrement à la structure de la pré-image de l’ensemble des quaternions réels par cette application.

Comme nous allons le voir, \mathscr P est singulier en (0,0). Par contre, sa restriction \mathbf P à \mathbf H_E^{2*} est une submersion surjective. C’est donc plutôt la pré-image de \mathbf R\simeq \mathbf R+\{0\}\subset \mathbf H_E par cette restriction que nous allons étudier. Nous constaterons que c’est une variété différentiable ayant une structure assez simple.

L’application linéaire tangente de \mathscr P

Soient \xi=(p,q)\in \mathbf H_E^2 et un vecteur tangent \tau=(h,k)\in T_\xi\mathbf H_E^2\simeq \mathbf H_E^2. La dérivée de \mathscr P dans la direction de \tau est donnée par

\begin{array}{rcl}\mathscr P_{*\xi}\tau&=&\frac d{dt}(p+th)(q+tk)_{|t=0}\\[1ex]&=&pk+hq\end{array}

D’après cette formule, si \xi est nul, alors \mathscr P_{*\xi}=0 tandis que si \xi n’est pas nul, alors \mathscr P_{*\xi} est surjectif. Par conséquent, l’application \mathscr P est singulière à l’origine. De plus, comme \mathbf H_E^{2*} est un ouvert de \mathbf H_E^2, les applications linéaires tangentes à \mathbf P et à \mathscr P en chaque \xi\in \mathbf H_E^{2*} coïncident. L’application \mathbf P, qui est par ailleurs visiblement surjective, est donc une submersion.

La variété V_E

L’ensemble V_E=\mathbf P^{-1}\mathbf R est une variété plongée de \mathbf H_E^{2*} de dimension cinq.

D’après le théorème de transversalité pour les sous-variétés, il résulte en effet de ce qui précède que V_E est une variété plongée de \mathbf H_E^{2*} et qu’en plus, son espace tangent en \xi est la pré-image par \mathbf P_{*\xi} de l’espace tangent à \mathbf R en \mathbf P(\xi). Ce dernier s’identifie à \mathbf R. Par conséquent,

T_\xi V_E=\{(h,k)\in\mathbf H_E^2|pk+hq\in\mathbf R\}

De là, \dim V_E=5. En effet, si p n’est pas nul, alors T_\xi V_E est l’image de l’application linéaire

(h,a)\in\mathbf H_E\times\mathbf R\mapsto (h,-p^{-1}hq+ap^{-1})\in\mathbf H_E^2

et si q n’est pas nul, c’est celle de

(k,a)\in\mathbf H_E\times\mathbf R\mapsto (aq^{-1}-pkq^{-1},k)\in\mathbf H_E^2

On conclut en notant que ces deux applications sont injectives.

Les fibres de \mathbf P:V_E\to \mathbf R

Par définition, il s’agit des ensembles \mathbf P^{-1}\{\varphi\}, \varphi\in\mathbf R. Il est évident que si \varphi n’est pas nul, alors

\mathbf P^{-1}\{\varphi\}=\{(p,\varphi p^{-1})|p\in\mathbf H_E^*\}

et que

\mathbf P^{-1}\{0\}= \mathbf H_E^*\times\{0\}\cup\{0\}\times\mathbf H_E^*

Voici deux conséquences de ceci. La première est immédiate.

L’application (\varphi,p)\mapsto (p,\varphi p^{-1}) est un difféomorphisme de \mathbf R^*\times \mathbf H_E^* sur l’ouvert \mathbf P^{-1}\mathbf R^* de V_E.

Ensuite

L’application P:V_E\to \mathbf R n’est pas un fibré localement trivial.

En effet, si c’était un tel fibré alors il serait trivialisable car \mathbf R est contractile.
Mais alors, toutes ses fibres seraient homéomorphes. Or les fibres \mathbf P^{-1}\{\varphi\}, \varphi\in\mathbf R^*, sont connexes (elles sont homéomorphes à \mathbf H_E^*) alors que \mathbf P^{-1}\{0\} ne l’est pas(*).

Conclusions

Nous y voyons à présent un peu plus clair sur les couples d’éléments linéairement dépendants de E et les relations linéaires qui les lient. Comme on l’a vu dans le billet cité au début de cet article, ces données sont encodées dans \mathscr P^{-1}\mathbf R.

Ce qui précède montre que cet espace topologique admet une stratification naturelle, de même que V_E :

\mathscr P^{-1}\mathbf R=\{(0,0)\}\cup \underbrace{\mathbf P^{-1}\{0\}\cup\mathbf P^{-1}\mathbf R^*}_{V_E}

Contrairement à V_E, \mathscr P^{-1}\mathbf R n’est pas une variété plongée dans \mathbf H_E^2 car c’est en fait un cône, de sommet \{0\}.
Quant à \mathbf P: V_E\to\mathbf R, il s’en est fallu de peu que ce soit un fibré localement trivial. C’est la faute à la fibre particulière \mathbf P^{-1}\{0\} qui n’a pas le bon goût d’être difféomorphe aux autres. Par contre, celles-ci s’entendent bien entre elles : le fibré \mathbf P :P^{-1}\mathbf R^*\to \mathbf R^* admet une trivialisation globale canonique.

__________
(*) Si L est un espace vectoriel de dimension finie, alors L^*\times\{0\}\cup\{0\}\times L^* n’est pas connexe pour la topologie induite par L\times L. En effet, les deux fermés L^*\times\{0\} et \{0\}\times L^* partitionnent L^*\times\{0\}\cup\{0\}\times L^*.

Petite remarque sur les quaternions et la dépendance linéaire

Quaternions …

Considérons un espace vectoriel réel E de dimension trois, euclidien et orienté. Nous noterons (\mathbf u,\mathbf v)\mapsto \mathbf u\cdot\mathbf v son produit scalaire et (\mathbf u,\mathbf v)\mapsto \mathbf u\wedge\mathbf v son produit vectoriel.

L’algèbre \mathbf H_E des quaternions sur E généralise de façon simple celle des quaternions classiques, \mathbf H. C’est l’espace vectoriel \mathbf R\oplus E muni du produit associatif (la vérification est facile par calcul direct)

(r+\mathbf u,s+\mathbf v)\mapsto (rs-\mathbf u\cdot\mathbf v)+(r\mathbf v+s\mathbf u+\mathbf u\wedge\mathbf v)

En fait, tout comme \mathbf H (que l’on pourrait noter \mathbf H_{\mathbf R^3}), c’est un corps. L’inverse d’un quaternion non nul p=r+\mathbf u est le quaternion \overline p/|p|^2, où |p|=\sqrt{r^2+\|u\|^2} est le module de p et \overline p:=r-\mathbf u est son conjugué. Remarquons que, tout comme pour les nombres complexes et les quaternions classiques, on a |p|^2=p\overline p=\overline pp.

… et dépendance linéaire

Par définition, des éléments \mathbf u,\mathbf v de E sont linéairement dépendants s’il existe des nombres réels r et s dont l’un au moins n’est pas nul tels que s\mathbf u+r\mathbf v=0.

Nous dirons qu’une égalité de la forme s\mathbf u+r\mathbf v=0 est une relation liant \mathbf u et \mathbf v et qu’elle est triviale si r=s=0 et non triviale sinon.

Curieusement, le fait que deux éléments de E soient linéairement dépendants et les relations, triviales ou non, les liant sont facilement encodés au moyen du produit des quaternions. En effet,

Soient p=r+\mathbf u et q=s+\mathbf v des quaternions sur E. Les propriétés suivantes sont équivalentes.

a) pq\in\mathbf R

b) \mathbf u et \mathbf v sont linéairement dépendants et s\mathbf u+r\mathbf v=0

c) p\in\mathbf R\overline q\quad \lor \quad q\in\mathbf R\overline p

Les vérifications sont faciles. Voici un exemple d’une façon de faire.

\boxed{\mathrm{a)}\Longrightarrow \mathrm{b)}}

Cette implication est assez évidente. Si a) est vrai, alors, d’après la définition du produit de quaternions, on a

(1) r\mathbf v+s\mathbf u+\mathbf u\wedge\mathbf v=0

En multipliant les deux membres de cette égalité scalairement par \mathbf u\wedge\mathbf v, on obtient \|\mathbf u\wedge\mathbf v\|^2=0. Ainsi, \mathbf u\wedge\mathbf v est nul, ce qui signifie que \mathbf u et \mathbf v sont linéairement dépendants. De plus, il résulte alors de (1) que r\mathbf v+s\mathbf u=0.

\boxed{\mathrm{b)}\Longrightarrow \mathrm{c)}}

Pour cette implication, il faut travailler un tout petit peu plus. Nous supposons b) vrai et nous discutons sur \mathbf u et \mathbf v.

i) S’ils sont nuls alors p et q sont réels, donc égaux à leurs propres conjugués. Dès lors, si r n’est pas nul, alors

q=\dfrac srp\in\mathbf R\overline p

sinon, on a

p=0q\in\mathbf R\overline q

ii) Si \mathbf u ou \mathbf v n’est pas nul, alors l’un est un multiple réel de l’autre. Supposons par exemple que \mathbf v=a\mathbf u, où a\in\mathbf R. La relation r\mathbf v+s\mathbf u=0 donne alors (s+ra)\mathbf u=0 et, donc, s+ra=0 puisque \mathbf u n’est pas nul. Ainsi s=-ar et

q=s+\mathbf v=-a(r-\mathbf u)\in\mathbf R\overline p

Semblablement, si c’est \mathbf u qui est un multiple réel de \mathbf v, alors p\in\mathbf R\overline q.

\boxed{\mathrm{c)}\Longrightarrow \mathrm{a)}}

Cette implication est également presqu’évidente. Par exemple, si p\in\mathbf R\overline q, alors il existe un nombre réel a tel que p=a\overline q de sorte que pq=a\overline qq=a\|q\|^2\in\mathbf R.

Voilà, ce billet s’achève tout doucement. Je pense que l’on pourrait aller plus loin et obtenir des renseignements intéressants sur les couples d’éléments de E linéairement dépendants. J’ai le sentiment que ceci est lié à cette question. Je vais encore réfléchir à tout cela et lever la plume ici.

😉

Coordonnées barycentriques et aires orientées

Dans ce billet, j’ai signalé que les coordonnées barycentriques d’un point par rapport à un triangle sont données par certains rapports d’aires orientées mais je n’ai pas démontré ces formules. Or, il se fait qu’avec la notion de forme volume(*), elles sont immédiates à établir, ce que nous allons voir dans le présent article.

Le contexte est celui-ci : \mathscr E est un plan affine dirigé par un plan vectoriel E muni d’une forme volume \omega.

Par exemple, \mathscr E est un plan affine euclidien orienté. En effet, comme rappelé dans la référence b mentionnée en bas de page, le produit scalaire et l’orientation de E induisent canoniquement une forme volume sur E, à savoir le produit mixte(**).

La forme volume \omega permet de définir une notion d’aire aire orientée. Pour un triangle XYZ, c’est le nombre

\mathscr A_{XYZ}=\frac 12\omega(\overrightarrow{XY},\overrightarrow{XZ})

Cela étant,

Les coordonnées barycentriques (\alpha, \beta, \gamma) d’un point P par rapport à un triangle ABC sont les rapports

\alpha = \dfrac{\mathscr{A}_{PBC}}{\mathscr{A}_{ABC}},\quad \beta = \dfrac{\mathscr{A}_{APC}}{\mathscr{A}_{ABC}},\quad \gamma = \dfrac{\mathscr{A}_{ABP}}{\mathscr{A}_{ABC}}

En effet, puisque

P=\alpha A+\beta B+\gamma C

il vient

2\mathscr A_{APC}=\omega(\beta\overrightarrow{AB}+\gamma\overrightarrow{AC},\overrightarrow{AC})=\beta\omega(\overrightarrow{AB},\overrightarrow{AC})=2\beta\mathscr{A}_{ABC}

De la même façon, on obtient immédiatement \mathscr A_{ABP}=\gamma\mathscr A_{ABC}. Pour la troisième égalité, il faut travailler un petit peu plus :

\begin{array}{rcl}2\mathscr A_{PBC}&=&\omega(\overrightarrow{PB},\overrightarrow{PC})\\[1ex]&=&\omega(\overrightarrow{PB},\overrightarrow{BC})\\[1ex]&=&\omega(\alpha\overrightarrow{AB}+\gamma\overrightarrow{CB},\overrightarrow{BC})\\[1ex]&=&\alpha\omega(\overrightarrow{AB},\overrightarrow{BC})\\[1ex]&=&\alpha\omega(\overrightarrow{AB},\overrightarrow{AC})\\[1ex]&=&2\alpha\mathscr{A}_{ABC}\end{array}

Voilà, c’est tout pour ce billet. 😉

__________
(*) Avant de poursuivre, il est peut-être utile de jeter un coup d’œil aux billets que voici : a et b afin de se rafraichir la mémoire à propos des formes volumes sur un espace vectoriel de dimension deux. La notion de forme volume apparaît également ici.
(**) C’est le plus souvent dans ce cas particulier que l’aire orientée est considérée, sans référence explicite à une forme volume. C’est sans doute dommage vu l’efficacité du concept (et le fait qu’il s’agit d’un cas particulier d’une notion extrêmement générale singulièrement utile en géométrie différentielle). Cela dit, deux formes volumes d’un espace vectoriel sont toujours proportionnelles; les quotients apparaissant dans l’énoncé sont donc indépendants de la forme volume \omega, comme de juste.