Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
-
Upload
papa-toure -
Category
Documents
-
view
235 -
download
0
Transcript of Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
1/345
EXERCICES CORRIGS
COLLECTION ENSEIGNEMENT SUP //// Mathmatiques
Jean-Baptiste Hiriart-Urruty
L3M1
Optimisation
et analyse convexe
Optimisation
et analyse convexe
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
2/345
This page intentionally left blank
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
3/345
OPTIMISATION
ET
ANALYSE CONVEXE
Exercices et problmes corrigs,
avec rappels de cours
Jean-Baptiste Hiriart-Urruty
Collection dirige par Daniel Guin
17, avenue du HoggarParc dactivits de Courtabuf, BP 112
91944 Les Ulis Cedex A, France
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
4/345
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
5/345
TABLE DES MATIRES
Introduction v
Abrviations et notations ix
I Rvision de bases : calcul diffrentiel, algbre linaireet bilinaire 1
I.1 Algbre linaire et bilinaire . . . . . . . . . . . . . . . . . . . 1
I.2 Calcul diffrentiel . . . . . . . . . . . . . . . . . . . . . . . . . 2I.3 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . 3
II Minimisation sans contraintes. Conditions de minimalit 41
II.1 Conditions de minimalit du premier ordre . . . . . . . . . . . 41
II.2 Conditions de minimalit du second ordre . . . . . . . . . . . . 42
III Minimisation avec contraintes. Conditions de minimalit 63
III.1 Conditions de minimalit du premier ordre . . . . . . . . . . . 63III.2 Cne tangent, cne normal un ensemble . . . . . . . . . . . . 65
III.3 Prise en compte de la convexit . . . . . . . . . . . . . . . . . 66
III.4 Conditions de minimalit du second ordre . . . . . . . . . . . . 66
IV Mini-maximisation. Dualisation de problmesde minimisation convexe 127
IV.1 Points-selles (ou cols) ; problmes de mini-maximisation . . . . 127
IV.2 Points-selles de lagrangiens . . . . . . . . . . . . . . . . . . . . 128IV.3 Premiers pas dans la thorie de la dualit . . . . . . . . . . . . 129
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
6/345
Optimisation et analyse convexe
V Polydres convexes ferms. Optimisation donnes affines(Programmation linaire) 165V.1 Polydres convexes ferms . . . . . . . . . . . . . . . . . . . . 165V.2 Optimisation donnes affines (Programmation linaire) . . . 168
V.2.1 Dfinitions et notations . . . . . . . . . . . . . . . . . 168V.2.2 Rsultats fondamentaux dexistence . . . . . . . . . . 170
V.3 La dualit en programmation linaire . . . . . . . . . . . . . . 171V.3.1 Formulations de problmes duaux . . . . . . . . . . . . 171V.3.2 Relations entre les valeurs optimales et les solutions
de programmes linaires en dualit . . . . . . . . . . . 172V.3.3 Caractrisation simultane des solutions du problme
primal et du problme dual . . . . . . . . . . . . . . . 173
VI Ensembles et fonctions convexes. Projection sur un convexeferm 217VI.1 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . . . 217
VI.1.1 Ensembles convexes associs un convexe donn . . . 217VI.1.2 Enveloppe convexe, enveloppe convexe ferme . . . . . 218VI.1.3 Hyperplan dappui, fonction dappui . . . . . . . . . . 219VI.1.4 Thormes de sparation par un hyperplan affine . . . 219
VI.2 Projection sur un convexe ferm . . . . . . . . . . . . . . . . . 220VI.3 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . 220
VII Initiation au calcul sous-diffrentiel et de transformesde Legendre-Fenchel 271VII.1 La transformation de Legendre-Fenchel . . . . . . . . . . . . . 271
VII.1.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . 271VII.1.2 Quelques proprits et rgles de calcul . . . . . . . . . 272
VII.2 Le sous-diffrentiel dune fonction . . . . . . . . . . . . . . . . 273VII.2.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . 273VII.2.2 Quelques proprits et rgles de calcul . . . . . . . . . 274
VII.3 La convexification dune fonction . . . . . . . . . . . . . . . . . 275
Sources 323
Rfrences gnrales 325
Notice historique 327
Index 331
iv
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
7/345
INTRODUCTION
Good modern science implies good variational problemsM.S. Berger (1983)
Le recueil dexercices et problmes corrigs que nous proposons ici concerneles domaines des Mathmatiques rpertories sous les vocables dOptimisationetAnalyse convexe. LOptimisation est traite dans ses aspects suivants : la clde vote que constituent les conditions doptimalit (chapitres II et III) ; le rle(incontournable) de la dualisation de problmes (chapitre IV) ; le monde particu-lier (et toujours en haut de laffiche depuis ses dbuts) de lOptimisation linaire
(chapitre V). LAnalyse convexe (moderne) nest pas traite en tant que telle maispar lutilisation quon peut en avoir en Optimisation ; il sagit en fait dune initia-tion la manipulation de concepts et de rsultats concernant essentiellement : laprojection sur un convexe ferm (au chapitre VI), le calcul sous-diffrentiel et detransformes de Legendre-Fenchel (chapitre VII). LAnalyse linaire et bilinaire(ou, plutt, lAnalyse matricielle) ainsi que le Calcul diffrentiel interviennent demanire harmonieuse en Optimisation et Analyse convexe : un chapitre de revi-sion des bases leur est consacr (chapitre I). Prs de 160 exercices et problmessont corrigs, parfois comments et situs dans un contexte dutilisation ou de
dveloppement historique, gradus dans leur difficult par un, deux ou trois: Exercices plutt faciles (applications immdiates dun rsultat du Cours,vrification dun savoir-faire de base, etc.) ;
Exercices que le lecteur-tudiant doit pouvoir aborder aprs une bonnecomprhension et assimilation du Cours. De difficult moyenne, ce sont de loinles plus nombreux ;
Exercices plus difficiles, soit cause de certains calculs mener bien,soit simplement en raison dun degr de maturit plus grand que leur rsolutionrequiert.
Comme tous les exercices de mathmatiques, ceux prsents ici ne seront pro-fitables au lecteur-tudiant que si celui-ci les travaille, un crayon la main, sans
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
8/345
Optimisation et analyse convexe
regarder la correction dans un premier temps. Quil garde lesprit ce proverbechinois :
Jentends et joublie, (cours oral)
je vois et je retiens,(tude du cours)
je fais et je comprends . (exercices)
Le cadre de travailchoisi est volontairement simple (celui des espaces de di-mension finie), et nous avons voulu insister sur les ideset mcanismes de basedavantage que sur les gnralisations possibles ou les techniques particulires telou tel contexte. Les problmes dits variationnels requirent dans leur traitementune intervention plus grande de la Topologie et de lAnalyse fonctionnelle, com-mencer par le cadre fondamental des espaces de Hilbert ; ils seront abords
dans un prochain recueil.Lesconnaissances mathmatiquespour tirer profit des exercices et problmes
du recueil prsent sont maintenues minimales, celles normalement acquises aprsune formation scientifique Bac + 2 ou Bac + 3(suivant les cas).
Chaque chapitre dbute par des rappels de rsultats essentiels, ce qui ne doitpas empcher le lecteur-tudiant daller consulter les rfrences indiques lafin du livre. Lapproche retenue est celle dune progression en spirale plutt quelinaire au sens strict : ainsi, par exemple, la fonction A Mn(R)ln(dtA)
est dabord considre pour un calcul de diffrentielles, puis pour sa convexit,puis plus tard en raison de son rle comme fonction-barrire dans des problmesdoptimisation matricielle.
Pour ce qui est de lenseignement, les aspects de lOptimisation et Analyseconvexe traits en exercices ici trouvent leur place dans les formations de niveaudeuxime cycle universitaire (modules gnralistes ou professionnaliss) et dansla formation mathmatique des ingnieurs, sur une dure dun semestre environ ;la connaissance de ces aspects est un pralable des formations plus en aval, enoptimisation numrique par exemple.
La plupart des exercices et problmes proposs, sinon tous, ont t poss ensances dexercices ou examens lUniversit Paul Sabatier de Toulouse.
Je voudrais remercier les anciens tudiants ou jeunes collgues qui ont bienvoulu relire une premire version de ce document et y relever une multitude depetites fautes (il en reste srement...), parmi eux : D. Mallard, M. Torki, Y. Lucet,C. Imbert et J. Benoist. Enfin je ne voudrais pas oublier A. Andrei pour la partprimordiale qui a t la sienne dans la saisie informatique de louvrage.
Toulouse, 19891997J.-B. Hiriart-Urruty
vi
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
9/345
Introduction
Depuis sa publication il y a dix ans (en mars 1998), cet ouvrage a subi les vicis-situdes dun document de formation destin un public (dtudiants en sciences)en nette diminution. Il a t traduit en russe par des collgues de Kiev (Ukraine)en 2004, mais la version franaise originelle nest plus disponible depuis 2006.Ainsi, pour rpondre une demande de collgues et tudiants, un nouveau tiragea t envisag. Je remercie les ditions EDP Sciences, notamment mon collgueD. Guin (directeur de la collection Enseignement Sup Mathmatiques), davoiraccueilli ce projet. Aude Rondepierre a donn un coup de main pour reprendreles fichiers informatiques anciens ; quelle soit remercie de sa bonne volont etefficacit.
Toulouse, printemps 2009J.-B. Hiriart-Urruty
vii
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
10/345
This page intentionally left blank
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
11/345
ABRVIATIONS ET NOTATIONS
:= : gal par dfinition.cf. :confer, signifie se reporter .
i.e. :id est, signifie cest--dire .
ln : notation normalise pour le logarithme nprien.
R+, R+ ou]0, +[ :ensemble des rels strictement positifs.
u+ :partie positive du rel u.
x = (x1, . . . , xn) ou x = (1, . . . , n) : notation gnrique pour un vecteurde Rn.u+ signifie (u+1, . . . , u
+n )lorsqueu= (u1, . . . , un) Rn.
Lorque u et v sont deux vecteurs de Rn, u v signifie ui vi pour touti= 1, . . . , n.
{uk} ou (uk) : notations utilises pour les suites indexes par des entiersnaturels.
Pour une fonction fdiffrentiable en x (resp. deux fois diffrentiable en x),Df(x) dsigne la diffrentielle (premire) de f en x (resp. D2f(x) dsigne ladiffrentielle seconde de f en x).Si la variable est relle (et note t), on utilise lanotationf(t)(resp.f(t)) pour la drive de fent (resp. la drive seconde de fent) [ce sont des lments de lespace darrive et non des applications linaires].
Pour une fonction numrique fdfinie sur un ouvertO de Rn,diffrentiableen x O(resp. deux fois diffrentiable en x O),f(x)(resp.2f(x)) dsignele (vecteur)gradientde f en x(resp. la matrice hessiennede f en x).
Lorsquelle existe, la drive directionnelle de f en x dans la direction d estnote f(x, d).
Pour une fonction vectoriellef : O Rn
Rm
diffrentiable enx O,J f(x)dsigne la matrice jacobiennede f en x(matrice mlignes et ncolonnes).
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
12/345
Optimisation et analyse convexe
Mm,n(R) :ensemble des matrices (m, n)(mlignes etncolonnes) coefficientsrels;Mn(R)est une abrviation deMn,n(R).
[aij ] :matrice de terme gnral aij ( la i-me ligne et j-me colonne).diag (1, . . . , n) : matrice diagonale dont les lments diagonaux sont
1, . . . , n.
In (ou I quand il ny a pas dambigut) : matrice-unit deMn(R), i.e.diag (1,. . .,1).
A ou tA : transpose de A Mm,n(R) [les deux notations sont dun usagetrs courant ; par contreAt est proscrire car gnratrice de confusions].
Lorsque Aest inversible, A dsigne linverse de A (ou, ce qui revient aumme, la transpose de A1).
tr A: trace de A Mn(R).dt A: dterminant de A Mn(R).cofA : matrice des cofacteurs de A Mn(R),i.e.celle dont le terme (i, j)est
(1)i+j dt Aij, oAij est obtenue partir de Aen enlevant la i-me ligne et laj-me colonne.
Sn(R) :ensemble des matrices deMn(R)qui sont symtriques.
symbolise la somme directe de sous-espaces vectoriels.vect
{v1, . . . , vk
}:sous-espace vectoriel engendr par les vecteurs v1, . . . , vk.
Sauf indication contraire, Rn est muni de sa base canonique; ainsi AMm,n(R) est canoniquement associe une application linaire de Rn dans Rm,do les notations Ker A, Im A, etc.
Lisomorphisme canonique de Rn sur Mn,1(R)est celui qui x = (x1, . . . , xn)
associe la matrice unicolonne X=
x1...xn
; des expressions comme AX(ouAx)nedevraient pas arrter ltudiant-lecteur. Si, par exemple, u et v sont deux vecteurs
de Rn
, uvest une matrice carre de taille ndont le terme gnral est uivj,alorsqueuv est la matrice-scalaire (ou scalaire)
ni=1
uivj .
, , , , ( | ) : notations utilises pour les produits scalaires (dansdes espaces euclidiens). Sauf indication contraire,, dsigne dans Rn le produitscalaire usuel (celui qui x = (1, . . . , n) et y = (1, . . . , n) associex, y :=n
i=1ii,soit encorexy(cf.supra)). Bien des problmes doptimisation se posent
dans des espaces de matrices : si X := Mm,n(R),le produit scalaire standard surXest dfini par M, N :=tr (MN).
x
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
13/345
Abrviations et notations
Soit A Mn(R), u et v des vecteurs de Rn : uAv est un(e) (matrice-)scalaire gal(e) (sa transpose)uAv ; un mcanisme plus commode dutilisationet engendrant moins de fautes est dcrire
u,Av
= Au, v .Si l est une application linaire dun espace euclidien (E, , ) dans un
autre espace euclidien (F, , ), ladjointe l de l est lapplication linaire de Fdans Edfinie par
l(y), x = y, l(x) pour tout (x, y) E F.
Si lon reprsente lensemble des formes linaires sur E par E via le produitscalaire , (idem pour F), prendre ladjointe de l ou sa transpose revientau mme. Lorsque E et F sont munies de bases orthonormales (comme cest le
cas des espaces euclidiens(Rn, , )munies de leurs bases canoniques), la matricereprsentant ladjointe de l(= sa transpose) dans ces bases est la transpose dela matrice reprsentant l.
: norme dans un espace vectoriel norm X. Si Xest muni dun produitscalaire, (exemples typiques : Rn, Mm,n(R)), et en labsence dautres pr-cisions, dsignera la norme drive du produit scalaire (i.e. = , ).Lorsquinterviennent la fois des normes de vecteurs et de matrices, on vite lesconfusions en utilisantpour les vecteurs et||| |||pour les matrices).
intSou S: intrieur de S ; S:adhrence de S;fr S :frontire de S.B(x, r) :boule ferme de centre xet de rayon r.
n : simplexe-unit de Rn, cest--dire lensemble des (1, . . . , n) Rn telsque 1+ . . . + n = 1et i 0pour tout i(coefficients qui servent dans la prisede combinaisons convexes).
A Sn(R) est dite (symtrique) semi-dfinie positive lorsqueAx,x 0pour toutx
Rn [cette appellation est prfrable positive qui peut signifier,
dans certains cas, coefficients positifs ]. On dsignera parPn(R) lensembledes matrices semi-dfinies positives de taille n.
A Sn(R)est dite (symtrique)dfinie positivelorsque Ax,x >0pour toutx= 0de Rn (ce qui revient :Asemi-dfinie positive et inversible). On dsignerapar
Pn(R)lensemble des matrices dfinies positives de taille n.Le caractre de semi-dfinie ou dfinie positivit ne sera considr dans ce
recueil que pour des matrices symtriques.
xi
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
14/345
This page intentionally left blank
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
15/345
I
RVISION DE BASES : CALCULDIFFRENTIEL, ALGBRE LINAIRE
ET BILINAIRE
Rappels
I.1. Algbre linaire et bilinaire
Sil : Rn R est linaire, il existe un unique v Rn tel quel(x) = v, x pourtoutx Rn ; les fonctions affines valeurs relles sont de la formex v, x+c,ov Rn etc R. Mme chose sil est une forme linaire sur un espace euclidien(E, , ) : lscrit de manire unique sous la formev, , o v E.
Si q : Rn R est une forme quadratique, il existe un unique Q Sn(R) telqueq(x) =
1
2Qx,x pour toutx Rn (le coefficient 1/2 est mis l pour simplifier
les calculs).
Rappel du mcanisme de transposition : Ax,y = x, Ay (produits scalairesdans Rm et Rn respectivement).
SiHest un sous-espace vectoriel de Rn,Hdsigne son sous-espace orthogo-nal. Rappel : si Aest linaire, (KerA) =Im(A).
Un rsultat-cl de lAlgbre linaire et bilinaire : si S Sn(R), toutes lesvaleurs propres i de S sont relles et il existe une matrice orthogonale U tellequeUSU= diag(1, . . . , n) ; ainsi il existe des vecteurs propres xiunitaires (xi
associ i) tels que S=n
i=1 ixixi (ceci est appel unedcomposition spectrale
de S).
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
16/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Les formulations variationnelles suivantes de la plus grande et la plus petitevaleurs propres de S Sn(R)sont essentielles :
max(S) = maxx= 0
Sx,x x 2 , min(S) = minx= 0
Sx,x x 2
Sn(R)est muni de lordre (partiel) suivant : A Bdans Sn(R)lorsqueA Bestsemi-dfinie positive (A B Pn(R)).
Si X
Pn(R), la racine carre positive de X (note X1/2) est lunique SPn(R) telle que S2 = X. Lapplication X X1/2 a des proprits similaires celles de la fonction racine carre sur R+ ; prudence tout de mme... Mmesremarques pour lapplication X
X
1.SiKest un cne convexe ferm dun espace euclidien (E, , ),le cne polaire
K de Kest le cne convexe ferm de Edfini comme suit :
K := {s E| s, x 0pour tout x K}.
I.2. Calcul diffrentiel
f :O Rn R dfinie sur un ouvertO de Rn est dite diffrentiable enx
Osil existe l: Rn
Rlinaire telle que :
f(x + h) =f(x) + l(h) + h (h) , avec (h) 0quand h= 0. (1.1)
lest reprsente (dans (Rn, , ) euclidien) par un unique vecteur, appelgradientde f en x, et notf(x) (a se lit nabla f de x). Dsignant par jf(x) ladrive partielle en x de fpar rapport la je variable,f(x) est le vecteur deRn de composantes1f(x) ,...,nf(x). Une manire quivalente dexprimer (1.1)
est :
limt0+f(x+ td)
f(x)
t = f(x) , d (1.2)et la convergence est uniforme par rapport d lorsque celui-ci reste dans unensemble born de Rn (la sphre-unit par exemple).
Plus gnralement, F : O Rn Rm qui x O associe F(x) =f1(x)...fm(x)
est dite diffrentiable en x Osi chacune des fonctions-composantesf1,...,fm lest. On appelle alors matrice jacobiennede F en x, et on note JF(x)
la matrice de Mm,n(R)dont les lignes sont [f1(x)] ,..., [fm(x)], cest--direque le terme (i, j)de JF(x)est jfi(x) .
2
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
17/345
I.3. Fonctions convexes
Revenant une fonction numrique f :O Rn R diffrentiable surO,on dit que fest deux fois diffrentiable en x O lorsquef :O Rn Rnest diffrentiable en x. La matrice jacobienne de
f en x est appele matrice
hessiennedef enxet note2f(x) ; il sagit dune matrice symtrique de taillen dont le terme (i, j) est i(jf)(x) = 2ijf(x) (drive partielle dordre 2 en xde fpar rapport la ie et je variables).
Rappel : dans le cas o f est deux fois diffrentiable en x O, on a ledveloppement de Taylor-Young dordre deux suivant :
f(x + h) =f(x) + f(x) , h +122f(x) h, h + h 2 (h) , (1.3)
avec (h) 0quand h
= 0.Enfin deux ensembles de rsultats de Calcul diffrentiel sont essentiels en Op-
timisation : le thorme de la fonction implicite et le thorme dinversion locale ;les dveloppements de Taylor sous leurs formes diverses. revoir si ncessaire.
I.3. Fonctions convexes
Soit C un convexe de Rn ; f : C
R est dite convexe sur C si pour tout
(x, x) C Cet tout ]0, 1[on a :f
x+ (1 ) x f(x) + (1 ) f(x). (1.4)f est dite strictement convexe sur Cquand lingalit (1.4) est stricte ds quex = x. Une proprit encore plus forte est comme suit : f est dite fortementconvexe sur C, de module de forte convexit c >0, lorsque
fx+ (1 ) x
f(x) + (1 ) f(x)
1
2
c (1
)
x
x
2 (1.5)
pour tout (x, x) C Cet tout ]0, 1[ .Rappelons deux rsultats essentiels :
Theoreme. Soit fdiffrentiable sur un ouvertO de Rn et C un convexe deO.Alors :
(i) fest convexe surCsi et seulement si
f(x) f(x) + f(x) , x x pour tout (x, x) C C ; (1.6)
3
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
18/345
Chapitre I. Rvision de bases : calcul diffrentiel...
(ii) fest strictement convexe surCsi et seulement si lingalit(1.6)est stricteds quex= x ;
(iii) fest fortement convexe surCde modulecsi et seulement si
f(x) f(x) + f(x) , xx+12
c xx 2, pour tout(x, x) C C. (1.7)
Theoreme. Soitfdeux fois diffrentiable sur un ouvert convexeO.Alors :(i) f est convexe surO si et seulement si2f(x) est semi-dfinie positive
pour toutx O ;(ii) Si2f(x) est dfinie positive pour tout x O, alors fest strictement
convexe sur
O;
(iii) f est fortement convexe surO de module c si et seulement si la pluspetite valeur propre de2f(x) est minore surO parc, soit encore :
2f(x) d, d c d 2 pour tout x O et tout d Rn.
Rfrences. Parmi les exercices de [15] figurent des applications simples lAna-lyse numrique matricielle et lOptimisation. Outre les rfrences suggres enpp. 305 307 de [15] (et rdites prsent), signalons [16], ouvrage complet et trsdiffus, dans lequel laspect matriciel (celui qui prvaut dans les applications) est
privilgi.Pour les fonctions convexes diffrentiables, on pourra consulter [12], Cha-pitre IV, Section 4, par exemple.
* ExerciceI.1.Soit f : Rn Rcontinment diffrentiable.1) Soit x0 tel quef(x0)= 0. Que reprsentef(x0)pour la surface de
niveau S:= {x Rn | f(x) =f(x0)} ?2) Rappeler lquation de lhyperplan affine (de Rn+1) tangent au graphe
de f en (x0, f(x0)) .
Donner laide def(x0)un vecteur normal cet hyperplan.3) On suppose quil existe L >0 tel que
f(x) fx L x x pour toutx, x Rn Rn.Montrer qualors
|f(x + d) f(x) f(x), d| L2 d 2 pour tout (x, d) Rn Rn.
4
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
19/345
I.3. Fonctions convexes
Solution : 1) f(x0)est un vecteur normal Senx0; le sous-espace tangent Sen x0 est orthogonal f(x0).
2) Soit grf := {(x, f(x)) | x Rn}le graphe de f(partie de Rn+1 donc).Le sous-espace affine tangent grf en (x0, f(x0))a pour quation
y= f(x0) + f(x0), x x0.
Un vecteur normal cet hyperplan est fourni par (f(x0), 1) Rn R.On peut voir aussi grfcomme la surface de niveau 0 de la fonction
g: (x, r) Rn R g(x, r) :=f(x) r.
Comme g (x0, f(x0)) = (f(x0), 1) nest jamais nul, le vecteur(f(x0), 1)est normal grf en (x0, f(x0)) .
Figure1.
3)ftant continment diffrentiable, on a grce la formule de Taylor lordre zro avec reste sous forme dintgrale
f(x + d) =f(x) + 1
0f(x + td), ddt.
Sachant que f(x), d = 1
0f(x), ddt, on transforme lexpression pr-
cdente en
f(x + d) f(x) f(x), d =
1
0f(x + td) f(x), ddt.
5
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
20/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Il sensuit grce lhypothse faite surf :
|f(x + td)
f(x), d
|
f(x + td)
f(x)
d
tL d 2,
do :
|f(x + d) f(x) f(x), d| 1
0(tL d 2)dt= L
2 d 2 .
Commentaire : Prolongement de lexercice. On suppose prsent que fest deux fois diff-
rentiable sur Rn. Comment traduire alors en termes de2f lhypothse dans la3e question ? Proposer ensuite une dmonstration de lingalit de la 3e questionqui sappuie sur une autre formule de Taylor.
Il importe de bien assimiler ce que reprsentent gomtriquement les objetsf(x)et2f(x)vis--vis des surfaces de niveau et du graphe de f.
* ExerciceI.2.
Situations : dterminer :
1) f : Rn R f(x), 2f(x)en tout point x.x f(x) := c, x + .
2) F : Rn Rm JF(x).x F(x) :=Lx + b, oL Mm,n(R).
3) f : Rn R f(x), 2f(x).x f(x) := 12Ax,x + d, x + ,
o A
Mn(R).
4) g: Rn R g(x), 2g(x).x g(x) :=
mi=1
[ri(x)]2 ,
o les ri: Rn R sont deuxfois diffrentiables.
Commentaire : Ne pas se lancer tte baisse dans le calcul de drives partielles !Pour les fonctions de base que sont les fonctions affines, quadratiques, sommes
de carrs, etc., il faut savoir dterminer f(x), 2
f(x)rapidement et sans erreur, mcaniquement presque.
6
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
21/345
I.3. Fonctions convexes
Solution :1)f(x) = c,2f(x) = 0pour tout x Rn.2)JF(x) =L (Lest la partie linaire de la fonction affine F).3)f(x) = 12
A+ Ax + d,f(x) =Ax+ dsi Aest symtrique.
2f(x) = 12
A+ A
,2f(x) =A siAest symtrique.
4)g(x) = 2mi=1
ri(x)ri(x),
2g(x) = 2mi=1
ri(x) [ri(x)]+ ri(x)2ri(x)
.
Ainsi, si (r1(x),...,rm(x)) est proche de 0 dans Rm , on peut consid-
rer que 2mi=1
ri(x) [ri(x)] est une bonne approximation de 2g(x) ;approximation qui, de plus, ne fait appel quaux gradients des fonctions ri.
* ExerciceI.3.
Situations : Questions :
1) g : Rn R
x g(x) :=mi=1
f+i (x)2 ,o les fi : Rn R sont deuxfois diffrentiables eta+ dsigne max(0, a).
g est-elle diffrentiable deux foisdiffrentiable ?
2)
Rn
Rm
R
A
fg :=f A
o A : u Au = A0u+ b, avecA0 Mm,n(R),et fdeux fois diff-rentiable.
Dterminerg, 2g en fonction deslments correspondants fet 2f.
Application : Soit : Rn R deuxfois diffrentiable, x0 Rn, d Rn.On pose (t) :=f(x0+ td).
Calculer (t) (resp. (t)) en fonc-
tion def(x0+ td)(resp. 2f(x0+td)).
7
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
22/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Solution : 1) La fonction u R (u+)2 est drivable une fois, mais pasdeux fois (daccord ?). Par suite, g est diffrentiable sur Rn et
g(x) = 2mi=1
f+i (x) fi(x)pour tout x Rn.
Mais, en gnral,g nest pas deux fois diffrentiable en les pointsxo lun desfi sannule.
Lorsque les fi sont de classeC2, la fonction g est dans une classe interm-diaire entreC2(Rn)etC1(Rn), celle des fonctions diffrentiables dont le gra-dient est localement lipschitzien.
2)g(u) =A0 f(Au) ;2g(u) =A0 2f(Au)A0.
Application :A : R Rn dfinie parAt := x0 + td. CommeA0 :t A0t=td, nous avons A0 : Rn Rqui x Rn associex, d. Par consquent, leslments deR que sont les drives premire et seconde (usuelles) de sontdonnes par :
(t) = f(x0+ td), d, (t) = 2f(x0+ td)d, d.
** ExerciceI.4.SoitMn(R)structur en espace euclidien grce au produit sca-laire A, B := tr AB ; soit louvert de Mn(R)constitu des matricesinversibles. On considre les applications suivantes :
1)tr : A Mn(R) trA R2)dt : A Mn(R) dtA R3)g: A g(A) :=ln|dtA| R4)f1 :A f1(A) :=A1 5)p
N, fp: A
Mn(R)
fp(A) :=Ap
Mn(R)
fp:A fp(A) :=Ap .
Indiquer rapidement pourquoi ces applications sont diffrentiables. Dter-miner en tout point de leurs domaines de dfinition le gradient pour les troispremires et la diffrentielle pour les dernires.
Commentaire : Si l :Mn(R) R est linaire (l est une forme linaire surMn(R)donc), lest continue et il existe un unique M Mn(R)tel que
l(H) = M, H pour tout H Mn(R).
8
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
23/345
I.3. Fonctions convexes
Lorsque l est la diffrentielle Df(x0) dune fonction f : Mn(R) Rdiffrentiable en x0 , son reprsentant MdansMn(R)est le gradient def enx0 (et est not
f(x0)).
Bien matriser le calcul diffrentiel sur les fonctions de matrices est essentielen Analyse matricielle, Optimisation et (surtout) Statistique.
Solution : 1)A trAest linaire (continue) ; donc sa diffrentielle en toutA Mn(R)est elle-mme :
D tr (A) :H trH= In, H .
Par consquent
tr (A) =In pour toutA Mn(R).2) Lapplicationdtpeut tre vue comme une application multilinaire (conti-nue) deMn(R) Rn Rn dans R. Elle est donc diffrentiable en toutA=
a1,...,an
avec
Ddt (A) :H=
h1,...,hn n
j=1
dt
a1,...,aj1, hj , aj+1,...,an
.
En dveloppant dta1,...,aj1, hj , aj+1,...,anpar rapport laje colonne, onobtient :
dt
a1,...,aj1, hj , aj+1,...,an
=
ni=1
hji(cofA)ij,
o cof Adsigne la matrice des cofacteurs de A. Il sensuit :
[Ddt(A)] (H) =n
i,j=1hji(cofA)ij = cofA, H .
En dfinitive,dt(A) =cofAen tout A Mn(R).
3) Par application du thorme de composition des applications diffren-tiables, g est diffrentiable et
Dg(A) :H cofA, Hdt A
= A1 , H .Donc g(A) = A1en tout A .
9
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
24/345
Chapitre I. Rvision de bases : calcul diffrentiel...
4) LapplicationA cofAest diffrentiable car chacune de ses applications-composantes (qui sont des dterminants) est diffrentiable ; il sensuit que lap-
plication f1 : A A1 =(cofA)dtA est diffrentiable. Le calcul de la diff-rentielle de f1 en Ase fait rapidement partir de la relation
f1(A)f1(A) =In pour tout A ,que lon diffrentie. On trouve :
Df1(A) :H [D f1(A)] H= A1HA1.5) Lapplication qui (A1, . . . , Ap)
Mn(R)
. . .
Mn(R) associe le pro-
duit A1A2 . . . Ap est multilinaire (continue) ; elle est donc diffrentiable et sadiffrentielle en (A1, . . . , Ap)est :
(H1, . . . , H p) pi=1
A1 . . . Ai1HiAi+1 . . . Ap.
Il sensuit alors :
Dfp(A) :H [Dfp(A)] (H) =p
i=1Ai1HApi pour tout A Mn(R) ;
Dfp(A) :H [Dfp(A)] (H) = pi=1
AiHAi1p pour tout A .
** ExerciceI.5.SoitA Sn(R)et f :x Rn \ {0} f(x) :=Ax,x x 2 . Calcu-lerf(x) en x= 0 et le comparer la projection orthogonale de Ax sur lesous-espace vectoriel H
xorthogonal x.
Solution : On a aismentf(x) = 2 x 2 [Ax f(x)x] .
La dcompositionAx=
Ax Ax,x x 2 x
+
Ax,x x 2 xest la dcomposition
orthogonale de Axsuivant Hx et (Hx) = Rx. Donc,f(x)est au coefficient
multiplicatif 2
x 2
prs la projection orthogonale de Axsur Hx.
10
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
25/345
I.3. Fonctions convexes
Enx Rn \{0} minimisant (ou maximisant) fsur Rn \{0}, on a ncessai-rementf(x) = 0, soitAx = f(x) x ; de telsx sont donc des vecteurs propres
associs la valeur propre f(x)( suivre dans lExercice III.4).
** ExerciceI.6.SoitMm,n(R) structur en espace euclidien grce au produitscalaire M, N :=trMN et soit B Sn(R).
On dfinit f, g: Mm,n(R) Rparf(A) := tr
ABA
etg(A) := dt
ABA
respectivement.
Dterminer les diffrentielles (premires) et les gradients de f et g en tout
A Mm,n(R).Solution : fpeut tre vue comme f2 f1, o
f1: A f1(A) :=ABA et f2:C f2(C) :=tr C.Puisque f1(A+ H) =f1(A) + HBA+ ABH+ HBH, il vient que f1 estdiffrentiable en A avec Df1(A) : H [Df1(A)] (H) = HBA +ABH.Quant f2 qui est linaire (continue), Df2(C) =f2. Il sensuit :
Df(A) :H [Df(A)] (H) = trHBA+ ABH= 2 tr(ABH)
car tr(HBA) = tr(ABH)en raison de la symtrie de B
= 2 AB,H .
Dof(A) = 2AB.Si f3 : C Sm(R) f3(C) := dt C, on a g = f3 f1 par dfinition
mme de g. Lapplication f3 est diffrentiable et
Df3(C) :K [Df3(C)] (K) = tr ((cof C) K) (cf.Exercice 1.4)Par suite :
Dg (A) :H [Dg (A)] (H) = 2 tr
cof
ABA
ABH
= 2 cof
ABA
AB,H
et
g(A) = 2cofABA
AB.En particulier,g(A) A = 2cofABAABA = 2dtABA Im.11
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
26/345
Chapitre I. Rvision de bases : calcul diffrentiel...
*** ExerciceI.7.Soit f : Rn R convexe et diffrentiable sur Rn. Montrerlquivalence des trois proprits suivantes (o Lest une constante >0) :
(i) f(x) f(x) L x xpour tout x,x (f est L-lipschitziennesur Rn).
(ii)f(x) f(x) f(x), x x 12L f(x) f(x) 2 pour toutx, x.(iii)f(x) f(x), x x 1L f(x) f(x) 2 pour tout x, x.
Indication. Pour [(i) (ii)] on pourra considrer :
fx : y f(y) f(x) f(x), y x.
Solution : [(i) (ii)]. Soit (x, x) Rn Rn et montrons que lingalit (ii)est vrifie pour ce couple de points. Considrons
fx : y Rn fx(y) :=f(y) f(x) f(x), y x.Il est clair que fx est convexe avecfx L-lipschitzienne sur Rn (puisque
fx= f f(x)). Par consquent, pour tout y Rn,fx(y) =fx(x
) + 1
0fx(x+ t(y x)), y xdt
=fx(x)+fx(x), yx+
10
fx(x+t(yx))fx(x), yxdt
fx(x) + fx(x), y x +
10
tL y x2 dt
fx(x) + fx(x), y x +L
2 y x2
. (1.8)Le point xminimise fx sur Rn. Par suite
0 =fx(x) fx
x fx(x
)L
.
Daprs lingalit (1.8)dans laquelle on fait y= x fx(x)
L
(0
) fxx fx(x)
L fx(x) 1Lfx(x), fx x +L2 fx(x)
L 2
,
12
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
27/345
I.3. Fonctions convexes
soit
0 fx(x)
1
2L fx(x
)
2
ce qui nest autre que lingalit (ii) .[(ii) (iii)]. On crit (ii)pour (x, x)et (x, x)successivement, et on ad-
ditionne membre membre les ingalits pour obtenir (iii) .[(iii) (i)]. Rsulte de lingalit de Cauchy-Schwarz.
** ExerciceI.8.Soit A Mn(R) inversible, V Mm,n(R) et U Mn,m(R).
On suppose que Im V A1
Uest inversible.1 ) Montrer que A U Vest alors inversible, avec
(A U V)1 =A1 + A1UIm V A1U1 V A1.2) Application 1. Soit u, v Rn. Quelle condition assurerait que A+uv
est inversible? Quelle est alors linverse de A + uv?
3)Application 2. Rappeler pourquoi A+In est inversible pour| |suffi-samment petit ; donner alors une expression de(A + In)
1 .
4) Application 3. On remplace dans A la ke colonne
a1k...ank
para1k...
ank
,et on appelle Ala nouvelle matrice ainsi obtenue. Exprimer A1 sous la formeEkA
1, o Ekest une matrice que lon dterminera ; en dduire lexpression destermes a(1)ij de A
1 en fonction de ceux a(1)kl deA1.
5) Application 4.On suppose ici queAest de plus symtrique. Soit uet v
dans Rn
, et des rels ; on se propose de dterminer linverse de A + uu+vv.
On posed := (1 +
A1u, u
)(1+
A1v, v
) (A1u, v)2.Montrerque A + uu+ vv est inversible ds lors que d= 0,avec
A + uu+ vv1
=A1 1d
(1 +
A1v, v
)A1uuA1
+ (1 +
A1u, u
)A1vvA1
A
1u, v A1vuA1 + A1uvA1 .
13
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
28/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Indication. Pour la 4e question, on utilisera le rsultat de la 2e question avec
u=
a1k a1k............
ank ank
et v=
0
...010...0
ke ligne.
Pour la 5e question, on utilisera le rsultat de la 1re question avec U :=
[u v] Mn,2(R
)etV := u
v M2,n(R)].Solution : U V Mn(R), V A1U Mm(R)par construction.
V
A1 U
V A1U
n
n
n
m
m
1) Puisquon propose une expressionEde (A U V)1, il suffit de vrifierque (A U V) E=In (ou bien E(A U V) =In).
On a :
(A
U V) E= (A
U V) A1 + A1UIm V A1U1 V A1=AA1 + AA1U
Im V A1U
1V A1 U V A1
U V A1UIm V A1U1 V A1=In U V A1 + U
Im V A1U
Im V A1U
1V A1
=In U V A1 + U V A1 =In.
2) On se place dans le cas o m= 1:
uet v sont dans Rn
Mn,1(R),
et la condition Im V A1Uest inversible revient 1 + v, A1u = 0.
14
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
29/345
I.3. Fonctions convexes
Donc, siA1u, v =1,la matrice A+ uv est inversible avec
A + uv1 =A1 11 + A1u, vA1uvA1. (1.9)Cas particuliers :
A= In : Siu, v =1, In+ uv est inversible avec
In+ uv
1
=In 11 +
u, v
uv. (1.10)
A= In, u=v : In+ uu est inversible avecIn+ uu
1
=In 11+ u 2 uu
. (1.11)
La formule (1.9) donne linverse dune matrice perturbe par une matrice
de rang 1; on rappelle en liaison avec (1.10) le rsultat suivant sur les dter-minants :
dt
In+ uv
= 1 + u, v ( revoir si ncessaire) .
3) Lensemble des matrices n ninversibles est un ouvert deMn(R).Puisque A ,il existe donc >0 tel que A + In pour| | .
Appliquons le rsultat de la 1re question avec U=In et V = In:
(A + In)1 =A1 A1 In+ A11 A1.
4) En prenant u=
a1k a1k............
ank ank
et v=
0...010
...0
ke ligne,
15
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
30/345
Chapitre I. Rvision de bases : calcul diffrentiel...
on constate que A=A uv (cest fait pour !). Appliquons le rsultat de la2e question : si
A1u
k= 1, la matrice Aest inversible et
ke colonne
A1 =A1 + 1
1 (A1u)kA1
u10 ... 0un
A1
=
In+ 1
1 (A1u)k
A1u
1
0 ... 0A1u
n
Ek
A1.
Explicitons A1 =
a(1)ij
: Ek est de la forme
ke colonne
1 0 0...
0 1 0... 0
0 0 1......... 1 0 0
0 ... 0 1 0
... 0 0 1
,
et A1 =EkA1 ; do :
a(1)k,j =a
(1)k,j
1
1 (A1u)k
= a
(1)k,j
1nl=1
a(1)kl alk
;
si i =k, a(1)i,j =a(1)ij n
l=1 a(1)il
alk
nl=1
a(1)kl alk
a(1)kj =a(1)ij nl=1
a(1)il alk a(1)kj .16
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
31/345
I.3. Fonctions convexes
5)Avec U := [u v]et V :=uv
,on a
I2 V A1U=1 + A1u, u A1u, v
A1u, v
1 +
A1v, v ( M2(R)) .
Cette matrice est inversible si et seulement si
d: =dt
I2 V A1U
= (1 +
A1u, u
)(1 +
A1v, v
) (A1u, v)2 = 0.Dans ce cas
I2 V A1U
1=
1
d
1 +
A1v, v
A1u, v A1u, v 1 + A1u, u
.
Lapplication de la formule dmontre la 1re question conduit alors aprs quelques calculs, certes la formule annonce.
** ExerciceI.9.Ingalit de Kantorovitch
SoitAsymtrique dfinie positive. Montrer que pour tout x Rn
x 4 Ax,x A1x, x 14
1n
+
n1
2 x 4, (1.12)
o 1 et n dsignent respectivement la plus grande et la plus petite valeurpropre de A.
Indication. Il y a intrt diagonaliserA(et doncA1). On utilisera ensuite lesproprits de convexit de la fonctionx >0 1/x.
Solution : Par homognit, il suffit de dmontrer lingalit (1.12) pour x = 1.
Rangeons les valeurs propres de Apar ordre dcroissant :1 2 . . . n, et considrons une matrice orthogonale Pdiagonalisant A:
A=tPP, avec := diag(1, 2, . . . , n).
17
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
32/345
Chapitre I. Rvision de bases : calcul diffrentiel...
A1 = (tPP)1 = tP1P, ou 1 = diag(1/1, 1/2, . . . , 1/n) ;Ax,x = tPPx,x = (P x), P x ;A1x, x = 1(P x), P x.
La transformation P : x S :={x | x = 1} y = P x Sest unebijection de la sphre-unit euclidienne sur elle-mme. Oprons alors le chan-gement de variables y = P x. Il faut donc dmontrer que pour tout vecteurunitaire yde Rn,
1 y, y 1y, y 14 1n +n12
. (1.13)
Considrons pour cela le graphe (et ce qui est au-dessus, appel lpigraphe)de la fonction : x > 0 1/x.(Il est suppos que n < 1, sinon il ny arien dmontrer.)
Figure 2.
tant donn y = (y1,...,yn) Rn de norme 1, posons i := y2i . Ainsiy, y =
ni=1
y2i i (resp.1y, y =ni=1
y2i1
i) est une combinaison convexe
des i (resp. des 1/i).
Pour k = 1, 2,...,n, soit Mk le point du graphe de de coordonnes ket 1/k.
18
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
33/345
I.3. Fonctions convexes
Le point M, barycentre des pointsMk affects des coefficients i, est dansle domaine convexe Ddlimit par le graphe de et la droiteM1Mn(et mme
dans le polygone convexe de sommets M1,M2,..., Mn). Deux points de mmeabscisse que M(abscisse note ) jouent un rle particulier :
le premier, M,est le point correspondant du graphe de ;
le second, M,est le point correspondant sur la droite M1Mn.
Ainsi :
Mest dordonnen
i=1
i1
i; M est dordonne
1n
i=1 ii= 1
;
M est dordonne y() = 1
1+
1
n
1n(par un calcul algbrique
facile).crire que lordonne de Mest suprieure celle de M conduit
ni=1
i1
i
1
, soit 1y, y y, y 1.
De mme, crivons que lordonne de M est suprieure celle de M :ni=1
i1
i y(),
do ni=1
ii
ni=1
i1
i
y
=
1+ n
1n
Comme la fonction u u (1+ n u)1n
atteint son maximum pour
u=1+ n
2 , lexpression y
est majore par
1+ n
2
2 11n
, soit
encore
1
4
1n
+n1
+ 2
=
1
4
1n
+
n1
2.
La deuxime ingalit dans (1.13)est donc dmontre.
19
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
34/345
Chapitre I. Rvision de bases : calcul diffrentiel...
** ExerciceI.10.Gomtrie de lensemble des matrices symtriquessemi-dfinies positives
On part deSn(R), n 2, structur en espace euclidien laide du produitscalaire fondamental (A, B) A, B := tr(AB). On dsigne parPn(R)(resp.
Pn(R)) lensemble de A Sn(R) qui sont semi-dfinies positives (resp.
dfinies positives).
1)Montrer quePn(R)est un cne convexe ferm deSn(R)et que lintrieurdePn(R)est exactement
Pn(R).
2)Montrer que le cne polaire [Pn(R)] dePn(R)nest autre quePn(R).3) On suppose ici que n= 2.
a) Rappeler quelles conditions sur les rels a,b, et csont ncessaires et
suffisantes pour que A =
a bb c
soit semi-dfinie positive (resp. dfinie
positive).
b) On dfinit : S2(R) R3 par
A= a bb c (A) := (a,b,c).Dans R3 rapport un repre orthonorm (O;i,j, k), reprsenter
1 00 0
,
1 00 1
,
1 11 1
et (P2(R)).
c) Montrer que toutes les matrices non nulles A =
a bb c
se trouvant
sur la frontire deP2(R)sont de forme xx, o xest un lment non
nul de R2
. En dduire une description des A= a bb c se trouvant surcette frontire laide de conditions sur les coefficients a, b, cde A.
Indication. Parmi les matrices dePn(R), il y a celles de la formeA= xx, avecx Rn \ {0}. Pour ces matricesA et un B Sn(R), on note que A, B =Bx,x.
De plus, siS Sn(R), une dcomposition spectrale deS estS=n
i=1ixix
i ,
o les i sont les valeurs propres de A, xi Rn
est un vecteur propre unitaireassoci i.
20
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
35/345
I.3. Fonctions convexes
Solution : 1) Soit A, B Pn(R)et [0, 1]. On a :
x
Rn,
(A+ (1
)B)x, x
=
Ax,x
+ (1
)
Bx,x
0,
ce qui implique A+ (1 )B Pn(R).De mme, il est immdiat de constater queA Pn(R)lorsqueA Pn(R)
et >0. DoncPn(R)est bien un cne convexe deSn(R).Soit{Ak}une suite dlments dePn(R)convergeant versA. Outre le fait
clair que A Sn(R), lingalitAkx, x 0 pour tout x Rn,
induit par passage la limite sur k :Ax,x 0 pour tout x Rn. ParconsquentA Pn(R). EtPn(R)est bien ferm dansSn(R).
Soit APn(R) et n > 0 la plus petite valeur propre de A. Rappe-
lons cet gard lingalit suivante (que lon reverra dans lExercice 3.4) :Ax,x n x 2 pour tout x Rn. Soit prsent M Sn(R). Puisque
M:=
M, M =ni=1
2i
1/2(1 . . .n, valeurs propres de M),
il suffit de prendre
M
n pour tre sr davoir
(A+ M)x, x (n+ n) x 2 0 pour tout x Rn,soit A + M Pn(R). Donc Aest bien lintrieur dePn(R).
Rciproquement, soitA lintrieur dePn(R). Il existe alors > 0assezpetit tel que A In Pn(R). En consquence, lingalit
(A In)x, x 0 pour toutx Rn
induit
Ax,x
x
2 pour tout x
Rn,
soit A Pn(R).Le rsultat de cette 1re question explique la notation
Pn(R) utilise pour
lensemble des matrices symtriques dfinies positives.La frontire dePn(R) est donc constitue des matrices semi-dfinies po-
sitives qui sont singulires ; parmi celles-l figurent les matrices de rang 1,cest--dire du type xxavec x= 0.
2) Soit B
Sn(R)dans le cne polaire de
Pn(R). Puisque
B, A
0
pour tout A Pn(R), en particulier B, xx= Bx,x 0pour tout x Rn ; donc B est semi-dfinie ngative.
21
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
36/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Rciproquement, soit B semi-dfinie ngative et A Pn(R). En dcom-posant A sous la forme
n
i=1 ixixi (avec 1
n 0, valeurs propres
de A), on a
B, A = B,ni=1
ixixi =
ni=1
iBxi, xi 0.
DoB [Pn(R)].Ce rsultat [Pn(R)] =Pn(R) apparat ainsi comme la gnralisation
de la relation de polarit (Rn+) = Rn+ dans lespace euclidien standard
(Rn, , ).3) a)
A=
a bb c
P2 (R)
(a >0 et ac b2 >0) ;
A=
a bb c
P2(R)
a 0, c 0et ac b2 0
.
b)
Figure 3.
P1 =
1 00 0
P2 =
1 00 1
P
3= 1 11 1
Remarquons que le produit scalaire A, Bnest pas le produit sca-laire usuel de (A)et (B)dans R3 ; en effet
a bb c , a b
b c =aa+ 2bb+ cc,
22
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
37/345
I.3. Fonctions convexes
tandis que
a bb c , a b
b c = aa+ bb+ cc.c) Les matrices de la frontire deP2(R)sont les matrices semi-dfinies po-
sitives singulires ; mise part la matrice nulle, il sagit donc de matricesde rang 1,i.e. du type
x1x2
[x1 x2] =
x21 x1x2x1x2 x
22
ox= (x1, x2)est un lment non nul de R2.
En dfinitive, la frontire deP2(R)peut tre dcrite comme a ac
ac c
, a 0 et c 0
.
Remarque : On aurait pu utiliser
: A :=
a bb c
S2(R) (A) := (a,
2b, c) R3
qui a lavantage de conserver les produits scalaires usuels dansS2(R)et R3, oumieux, :A =
a bb c
(A) := 1
2(2b, c a, c+ a)qui permet de repr-
senter (P2(R))par le cne de R3 dquationw
u2 + v2 et les lments de
x1x2
[x1 x2]
= 1
2
2x1x2
x22 x21x22+ x
21
par la frontire de ce cne, dquation :
w2
=u2
+ v2
, w 0.
** ExerciceI.11.Soit A Mn(R) symtrique et inversible, soit H un sous-espace vectoriel de Rn. Montrer quune condition ncessaire et suffisante pourque Asoit dfinie positive est :
(C)
Ax,x >0 pour tout x H\ {0}et
A1x, x
>0 pour tout x
H
\ {0
}.
23
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
38/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Solution : La ncessit de (C) est immdiate puisque A1 est (symtrique)dfinie positive ds que Alest.
La dfinie positivit de A sous la condition (C) sera dmontre en deuxtapes. Montrons tout dabord que Rn =H A1(H).On a dimH+dimA1(H) =dimH+dimH=n.Il suffit donc de dmon-
trer que H A1(H) = {0}. Prenons pour cela x H A1(H).CommeAxH, Ax,y = 0pour tout y H. Ainsi : xH etAx,x = 0. Or,daprs le premier volet de la condition (C), ceci nest possible que si x= 0.
Montrons prsent que
A(x+ y), x + y 0pour tout x H et tout y A1(H),
ce qui assurera la semi-dfinie positivit de A.Soit donc x Het y A1(H).Alors
A(x+ y), x + y = Ax,x + 2x,Ay + Ay,y,
avec :
Ax,x 0 puisque x H,x,Ay = 0 puisque x H et Ay H,
etAy,y = x, A1x puisque x :=Ay H.
En dfinitive,A(x+ y), x+ y 0.
Commentaire : Il y a en fait une caractrisation de A dfinie positive plusgnrale que (C), avec un cne convexe ferm Kau lieu dun sous-espace vec-toriel H : dans (C) on remplace H par K et H par le cne polaire K. Maisla dmonstration est plus difficile. On retiendra nanmoins la belle symtrie dursultat puisque(A1)1 =A et (K) =K.
** ExerciceI.12.Soit A= [aij ] Sn(R). Rassemblez toutes les caractrisationsque vous connaissez de :
A est dfinie positive , et de Aest semi-dfinie positive .
24
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
39/345
I.3. Fonctions convexes
Solution : DansSn(R)structur en espace euclidien grce au produit scalaire A, B:= tr(AB), on considre :
Pn(R) :=ensemble des matrices dfinies positives,Pn(R) :=ensemble des matrices semi-dfinies positives.
Nous serons aussi amens considrer la forme quadratique qA sur Rn
associe A, savoir : x Rn qA(x) = Ax,x.
* Proprits dePn(R)etPn(R)(cf.Exercice I.10) :
Pn(R) est un cne convexe ferm deSn(R), dont lintrieur est Pn(R)prcisment (
Pn(R)est donc un cne convexe ouvert deSn(R)). Le cne polaire dePn(R) est exactementPn(R)(le cne des matrices
semi-dfinies ngatives), cest--dire :
( B, A 0pour tout A Pn(R)) (B Pn(R)) .Cela se voit facilement en utilisant, pour S Sn(R), une dcomposition spec-trale de S :
S=ni=1
ixixi
(o lesisont les valeurs propres de S, xi Rn est un vecteur propre unitaireassoci i) et en observant que S,yy= Sy,y.
Sur la frontire du cnePn(R) se trouvent donc toutes les matrices semi-dfinies positives qui sont singulires ; il y a
la matrice nulle (cest la pointe du cne) ; les matrices de rang 1, i.e. celles de la forme xx avec x= 0 (ce sont
les gnratrices extrmales du cnePn(R)) ; les matrices de rang 2, 3, ..., n1.Lorsquen= 2, on peut visualiser P2(R)dans S2(R) R3 (cf.Exercice I.10)
mais ceci est trs particulier dans la mesure o la frontire deS2(R), prive delorigine, est lisse (ny figurent que des gnratrices extrmales).
*Caractrisations diverses de A
Pn(R) : Toutes les valeurs propres i de Asont strictement positives. dt Ak >0 pour tout k= 1, . . . , n ,o Ak = [aij ]1 i k
1 j k
.
Il existeB inversible telle queA = BB(auquel cas Ax,x = Bx2).
25
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
40/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Il y a diffrentes factorisations possibles de Asous cette forme :
la factorisation de Cholesky, o B est triangulaire infrieure avec l-ments diagonaux strictement positifs ;
en prenant B symtrique dfinie positive (B est dans ce cas la racinecarre positive de A, note A1/2).
Les invariants principaux ik(A) de A, k = 1, . . . , n, sont strictementpositifs.
Si PA est le polynme caractristique de A, on a :
PA = (
X)n + i1(A)(
X)n1 +
+ ik(A)(
X)nk +
+ in(A).
Rappelons queik(A) =
1i10 pour tout x K \ {0}
(cf.Exercice I.11 pour une dmonstration dans le cas plus simple o Kest unsous-espace vectoriel de Rn).
Il y a dautres tests de dpistage du caractre dfini positif de A Sn(R),mais ils sont moins utiles dans la pratique ; titre dexemple :
A
Pn(R)
(A+ (1 )In est inversible pour tout ]0, 1]) ;
A
Pn(R) (Il existeB Sn(R)telle que A=exp B) .
*Caractrisations diverses de A Pn(R) : Toutes les valeurs propres de Asont positives. Il existe B telle que A = BB (alors la forme quadratique qA(x) =
Ax,xest minimise (nulle en fait) sur le noyau de B). Tous les mineurs principaux dordre k de A, k = 1, . . . , n, sont po-
sitifs (et pas seulement les dt (Ak), k = 1, . . . , n). On rappelle quun mi-neur principal dordre k de A est le dterminant dune matrice (k, k) ex-
traite de A en retenant les lignes et colonnes de numros n1, n2, . . . , nk, o1 n1< n2 < < nk < n.
26
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
41/345
I.3. Fonctions convexes
Considrons par exemple
A= 2111 2111 2
S3(R).Le calcul des mineurs principaux de Ase dcompose en :
3 dterminants de matrices (1,1) (tous gaux 2 ici),
3 dterminants de matrices (2,2) (tous gaux 3 ici),
1 dterminant de matrice (3,3) (ici dt A= 0).
Donc Aest semi-dfinie positive.
Considrons prsent A =
0 001
S2(R). Bien que dt A1 0 et
dtA2 0, la matrice A nest pas semi-dfinie positive (elle est mme semi-dfinie ngative).
*Proprits de la forme quadratiqueqA :
(A Pn(R)) (qA est une fonction convexe sur Rn) A Pn(R) (qA est strictement convexe sur Rn)
(qA est fortement convexe sur Rn) .
** ExerciceI.13.SoitPn(R)lensemble desA Sn(R)qui sont dfinies positives
(cest un ouvert convexe deSn(R)). Soit
f :
Pn(R)
R
A f(A) :=ln(dt A1).
On se propose de montrer que fest strictement convexe sur
Pn(R). Pourcela, on prend X0
Pn(R), H Sn(R), et on considre la fonction de la
variable relle dfinie par
(t) :=ln(dt(X0+ tH)1).
1)Vrifier que est dfinie sur un intervalle ouvert (de R) contenant lori-gine ; on notera IX0,Hcet intervalle.
27
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
42/345
Chapitre I. Rvision de bases : calcul diffrentiel...
2)Montrer que
(t) (0) = n
i=1
ln(1 + ti)pour tout t IX0,H,
o les i dsignent les valeurs propres de X1/20 HX
1/20 .
3)Dduire de ce qui prcde la stricte convexit de f.
Solution : 1)
Pn(R)tant ouvert et convexe,
IX0,H := {t R|X0+ tH
Pn (R)}est galement ouvert et convexe : cest limage inverse de
Pn(R)par lapplica-tion affine (continue) t X0+ tH.
2)De : X0+ tH=X1/20
X
1/20 + tX
1/20 H
=X
1/20
In+ tX
1/20 HX
1/20
X
1/20 ,
on tire :
(X0+ tH)1 =X1/20 In+ tX1/20 HX1/20 1 X1/20 ,do :
ln
dt (X0+ tH)1= ln(dt X10 ) + lndt In+ tX1/20 HX1/20 1 .
Si {i| i= 1, . . . , n} est le spectre (entirement rel) de la matrice symtriqueX1/20 HX
1/20 , alors {1 + ti| i= 1, . . . , n} (resp. {(1 + ti)1 | i= 1, . . . , n})
est le spectre de In+ tX1/2
0 HX1/2
0 (resp. de In+ tX1/20 HX1/20 1). Enconsquence,
(t) =(0) ni=1
ln(1 + ti).
3) est strictement convexe sur IX0,H car > 0 sur IX0,H. Par suite, la
fonction fdont toute trace sur une droite passant par X0
Pn(R)et dirige par H Sn(R) est strictement convexe, est elle-mme strictementconvexe.
28
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
43/345
I.3. Fonctions convexes
Commentaire :
La proprit dmontre dans lexercice se traduit par : si Aet B sont (sy-
mtriques) dfinies positives et diffrentes, et si ]0, 1[alorsdt(A+ (1 )B)>(dtA)(dtB)1.
Autre exemple de consquence :{A Pn (R)|dtA 1} est un ensemble
convexe (ce qui ne saute pas aux yeux...).
La proprit dmontre dans cet exercice est essentielle ; on y reviendramaintes et maintes fois.
** ExerciceI.14. Soit f :Sn(R) RA f(A) := dt A.
1) Rappeler ce quest la diffrentielle de f enA Sn(R).2)Soit g:
Pn (R) RA g(A) := ln(dt A).
Sachant que g est deux fois diffrentiable sur
Pn(R), dterminer le plusconomiquement possible la diffrentielle seconde de g en A
Pn (R).
Solution : 1) Df(A) : H Sn(R) cofA, H ; revoir ce sujetlExercice 1.4 si ncessaire.
2)Dg(A) :H Sn(R) A1, H (= tr(A1H)).On sait que D2g(A) : Sn(R) Sn(R) R
(H, K) D2g(A)(H, K)est une forme bilinaire symtrique sur Sn(R). La voie la plus conomique pourdterminer D2g(A)(H, K) est la suivante : D2g(A)(H, K) est la diffrentielle
(premire) en A de lapplication X
Pn (R)
Dg(X)H, applique K.
Dans le cas prsent :
D2g(A)(H, K) = A1KA1, H = tr(A1KA1H).Il sensuit notamment (par un dveloppement de Taylor-Young lordre
deux de g en A
Pn(R)) : pour tout H Sn(R),
ln(dt (A+ H)) = ln(dt (A)) + tr(A1H) tr(A1HA1H) + H2 (H),
o (H) 0quand H 0.
29
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
44/345
Chapitre I. Rvision de bases : calcul diffrentiel...
** ExerciceI.15. SoitO un ouvert convexe de Rn et f :O R+. On dit quef est logarithmiquement convexe (surO) lorsque la fonction ln f :O R estconvexe.
1) a) Montrer que si: O R est convexe, il en est de mme de la fonctionexp .
b) En dduire quune fonction logarithmiquement convexe est ncessaire-ment convexe.
2) a) On suppose ici que f est deux fois diffrentiable sur O. Montrerlquivalence des assertions suivantes :
(i) f est logarithmiquement convexe ;
(ii) f(x)2f(x) f(x) [f(x)] pour tout x O ;(iii) La fonction x ea,xf(x)est convexe pour tout a Rn.
b) En dduire que si f1 et f2 sont logarithmiquement convexes et deux foisdiffrentiables surO, il en est de mme de leur somme f1+ f2.
Solution : 1) a) La fonction : x O (x)est convexe par hypothse ;la fonction y
R
expy est croissante et convexe. Par suite, la fonction
compose qui x Oassocie exp (x)est convexe; en effet : ]0, 1[ , x, x O, (x+ (1 )x) (x) + (1 )(x),do
(exp )(x+ (1 )x) exp[(x) + (1 )(x)] exp(x) + (1 )(x).
b) Appliquons le rsultat prcdent := ln f; il vient que f= exp(ln f)
est convexe.2) a) [(i) (ii)].On sait que la fonction (deux fois diffrentiable):= ln f
est convexe si et seulement si :
2(x)est semi-dfinie positive pour tout x O.Mais
2(x) = f(x)2f(x) f(x)[f(x)]
f(x)2 pour toutx O ;
lquivalence annonce sensuit.
30
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
45/345
I.3. Fonctions convexes
[(ii) (iii)]. Soit ga : x O ga(x) := ea,xf(x). La fonction ga estdeux fois diffrentiable surOavec
2
ga(x) = ea,x
f(x)aa+ f(x)a+ a[f(x)]+ 2f(x) pour toutx O.Par consquent, ce quexprime (iii)est exactement :f(x)(a, h)2 + 2 f(x), h a, h + 2f(x)h, h 0 pour tout x O,
tout a Rn et tout h Rn ;soit encoref(x)u2 + 2 f(x), h u+ 2f(x)h, h 0 pour tout x O,tout u R
et tout h Rn.Le trinme du second degr mis en vidence ci-dessus est positif sur R si
et seulement si son discriminant est ngatif ; cela se traduit par
(f(x), h)2 f(x) 2f(x)h, h 0.Lquivalence de (iii)et (ii)est claire prsent.b) Si f1 et f2 sont logarithmiquement convexes, toutes les fonctions x
ea,xf1(x)et x ea,xf2(x)sont convexes (daprs [(i) (iii)]de la ques-tion prcdente) ; par suite, toutes les fonctions x ea,x(f1+f2)(x) sontconvexes, et donc f1+ f2 est logarithmiquement convexe (daprs [(iii) (i)]
de la question prcdente).
Commentaire : Prolongement de lexercice : Dmontrer lquivalence entre (i)et(iii)de la question 2)a) et le rsultat de la question 2)b) pour des fonctionsqui ne sont pas ncessairement diffrentiables.
** ExerciceI.16. Soit Q Sp(R)et A Mm,p(R). Montrer lquivalence desdeux assertions suivantes :
(i)Qx,x >0 pour tout x Ker A \ {0} ;(ii) Il existe0 0tel que Q + 0AAsoit dfinie positive.
Solution : [(ii)(i)]. Immdiat : si x Ker A, x= 0,
Qx,x
=
Qx,x
+ 0
Ax
2=
(Q + 0A
A)x, x
>0.
31
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
46/345
Chapitre I. Rvision de bases : calcul diffrentiel...
[(i)(ii)]. Supposons que (ii) ne soit pas ralise. Pour tout n N il existedonc un vecteur xn= 0tel que
Qxn, xn + n Axn2 0,
soit encore, en posant un:=xn/ xn,
()n Qun, unn
+ Aun2 0.On peut alors extraire de{un}une sous-suite{unk}k convergeant, lorsque
k +,vers un vecteur ude norme 1. En passant la limite dans linga-lit()nk , on obtient Au= 0. Or, daprs(i),Qu,u >0,ce qui implique que
Qun
k
, unk
>0 pour k assez grand. Ceci contredit lingalit (
)nk
.
Commentaire : Il est clair que si Q+0AA est dfinie positive pour un cer-tain 0, il en est de mme de Q + AAds que 0.
** ExerciceI.17. SoitA et Bdans Sn(R),Atant de plus dfinie positive. Mon-trer que :
le spectre de AB est entirement rel ;
la plus grande valeur propre de AB est gal supu= 0Bu,u
A1u, u ; AB est diagonalisable.
Indication. ConsidrerC :=A1/2BA1/2 ou, ce qui revient au mme, la rductionde la forme quadratique associe B dans lespace euclidien (Rn, , A) avecu, vA := Au,v.
Solution : Les valeurs propres deAB sont les racines de la fonction polynmecaractristique P() = dt (AB In). Mais, en factorisant A1/2 gauchedans AB In, puis en multipliant droite par A1/2, on constate que
(dt (AB In) = 0) (dt (A1/2B A1/2) = 0) (dt (A1/2BA1/2 In) = 0).
Le spectre de AB est donc celui de la matrice symtrique A1/2BA1/2, entire-ment constitu de rels.
32
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
47/345
I.3. Fonctions convexes
De plus
max(AB) =max(A1/2BA1/2) = supx= 0
A1/2BA1/2x, xx, x
= supu= 0
Bu,uA1u, u
en posantu=A1/2x
.
Soit Uune matrice orthogonale diagonalisant A1/2BA1/2 :
U1(A1/2BA1/2)U= diag(1, . . . , n).
Alors P :=A1/2
Udiagonalise AB :P1(AB)P= diag(1, . . . , n).
Remarque : Si B est semi-dfinie positive (resp. dfinie positive) il en est demme de A1/2BA1/2 ; le spectre de AB est alors constitu de rels 0(resp.>0).
** ProblemeI.18. Les donnes sont les suivantes : N, Mentiers 1,Amatricesymtrique dfinie positive de taille N, b RN, B matrice M lignes et Ncolonnes(M N)non nulle. On dsigne par , le produit scalaire usuel aussibien dans RN que dans RM, et par la norme euclidienne associe.
On considre le problme de minimisation (dans RN)suivant :
(P)
Minimiserf(x) := 12Ax,x b, xsous la contrainte Bx = 0.
A Existence, unicit, caractrisation des solutions de (
P):
1) Quelles sont les proprits defrelatives la diffrentiabilit, la convexit,et le comportement linfini ?
2) Dmontrer que (P) a une solution et une seule (que lon notera xpar lasuite).
3) a) Montrer que xest caractrise (parmi les lments de RN) par le systme
(S)
Bx = 0
Ax
b
Im(B).
b) Vrifier que f(x) = 12Ax,x = 12b, x:
33
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
48/345
Chapitre I. Rvision de bases : calcul diffrentiel...
B Lagrangien et lagrangien augment :
tant donn r 0, on dfinit les applicationsLetLr de RN RM dans Rpar :
L(x, ) :=f(x) + ,Bx (lagrangien usuel) ;
Lr(x, ) := L(x, ) + r2 Bx 2 (lagrangien augment).
On dit que(x, ) RNRM est un point-selle (ou un col) de L sur RNRMlorsque :
(x, ) RN RM, L(x, ) L(x, ) L(x, ).
Dfinition analogue dun point-selle deLr.1) a) Montrer que lon a toujours :
supRM
infxRN
L(x, ) inf
xRN
supRM
L(x, )
(Cette ingalit est dans R {}, et sa dmonstration ne fait pas appel lexpression particulire deLcomme fonction de xet ).
b) Soit (x, )un point-selle deL
. Montrer :
L(x, ) = maxRM(infxRNL(x, )) = minxRN(supRML(x, )) .2) Soit r 0et (x, ) RN RM.
a) tablir les quivalences suivantes :Lr(x, ) Lr(x, )pour tout RM (Bx = 0) ;Lr(x, ) Lr(x, )pour tout x RN
A + rBB
x + B=b
.
b) Quelles conclusions peut-on tirer de ce qui prcde concernant les liensexistant entre les points-selles deLr et la solution de (P) ?
C Algorithme dArrow-Uzawa ( pas variable) :
Les donnes sont :r 0, 0 RM, (n)une suite de rels > 0. On considreles suites (xn) de RN, (n) de RM construites de manire rcurrente commesuit :
n N, xn minimiseLr(, n)sur RN,n+1=n+ nBxn.
Soit (x, )un point-selle deLr.
34
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
49/345
I.3. Fonctions convexes
1) tablir les relations suivantes :
(A+ rBB)(xn
x) + B(n
) = 0 ;
n+1 = n + nB(xn x).En dduire
n+1 2 = n 2 2nA(xn x), xn x+ n(n 2r) B(xn x) 2 .
2) On suppose dsormais n [0, 1]pour tout n, o:
0< 0 < 1
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
50/345
Chapitre I. Rvision de bases : calcul diffrentiel...
Si dsigne la plus petite valeur propre de A( >0 donc), on a :
Ax,x
x
2, do f(x)
2x
2
b
x
pour tout x.
Ainsi limx+
f(x)
x = +:fest ce quon appelle 1-coercive sur RN .
2) La 1-coercivit de f est plus quil nen faut pour assurer lexis-tence dun minimum de f sur Ker B. Servons-nous de la proprit :
lim x +
x
Ker B
f(x) = +.
Choisissons x0 Ker B ; il existe r > x0tel que(x Ker B et x > r) (f(x) f(x0)) .
De ce fait :infBx=0
f(x) = inf Bx = 0 x r
f(x).
Lexistence dun minimum xde f sur Ker Bsensuit. Lunicit de ce mini-mum vient de la stricte convexit de f.
3) (S)
Bx = 0
RM tel que Ax b+ B= 0.a) Faisons une dmonstration directe du fait que (S)caractrisela solution
xde (P). Partons de xvrifiant (S). Soit x Ker B ; a-t-on
1
2Ax,x b, x 1
2Ax,x b, x ?
La fonctionftant convexe, on sait que f(x) f(x) + f(x), x x,soit icif(x) f(x) + Ax b, x x.
MaisAx b Im(B) = (Ker B) et xx Ker B,donc Axb, xx = 0. On suppose que x minimise f surKer B. Tout dabord,Bx = 0. Ensuite
f(x + td) f(x)pour tout t R et d Ker B,i.e. 12 t
2
Ad,d
+ t
Ax
b, d
0 pour tout t
R et d
Ker B.
Ceci nest possible que siAx b, d = 0. Donc Ax b (Ker B) =Im(B).
36
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
51/345
I.3. Fonctions convexes
Remarque : Lensemble des vrifiant Ax b+B= 0est lensemble desmultiplicateurs de Lagrange associ x. Cest un sous-espace affine de RM, de
la forme +Ker(B).Il est rduit {} lorsqueB est surjective (i.e., lorsqueles m vecteurs-lignes de B sont linairement indpendants), ce quindiquaitdj le thorme de Lagrange.
b) Puisque Axb Im(B) = (Ker B), on aAxb, x = 0, soitAx,x = b, x.
Do f(x) = 12Ax,x = 12b, x.
B 1) a) Soit (x0, 0) RN RM.Par dfinitions,
infxRNL(x, ) L(x0, 0) supRML(x, ).Do :
supRM
infxRN
L(x, ) inf
xRN
supRM
L(x, )
.
b) Considrons maintenant un point-selle (x, )de L sur RNRM.On a :
L(x, ) = infxRN
L(x, ) supRM
infxRN
L(x, )
;
L(x, ) = supRM
L(x, ) infxRN
supRM
L(x, )
.
Par suite :
supRM
infxRN
L(x, )
supremum atteint pour =
= inf xRN
supRM
L(x, )
infimum atteint pour x = x
= L(x, ).
2)a) L(x, ) =f(x) + ,Bx ;Lr(x, ) = L(x, ) + r2 BBx,x.Alors :
maximiseLr(x, )sur RM si et seulement siLr(x, ) =Bx= 0 ; x minimise la fonction quadratique convexeLr(, ) sur RN si et seule-
ment sixLr(x, ) =Ax b + B+ rBBx= 0.
b) Pour r 0donn, un point-selle deLr est exactement un couple (x, )deRN
RM vrifiant
Bx = 0 et (A+ rBB)x + B= b,
37
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
52/345
Chapitre I. Rvision de bases : calcul diffrentiel...
soit encoreBx = 0 et Ax+ B= b.
En comparant ceci (S), on voit donc que la solution xde (P)est prci-sment la premire composante de tout point-selle deL (ou deLr, ceci pourun r >0, ou quelque soit r 0).
C 1)Puisque xn est, par construction, un minimum deLr(, n)sur RN, ilest caractris comme suit :
(A+ rBB)xn+ Bn = b.
On a vu quil existe effectivement un point-selle (x, )deLr surR
N
RM
etque ce point-selle est caractris par les relations :
Bx = 0 et (A + rBB)x + B=b.
Par suite :(A+ rBB)(xn x) + B(n ) = 0,n+1 =n + nB(xn x).
()
()
On tire de ():
n+1 2= n 2 + 2 nB(xn x), n + 2n B(xn x) 2 .Il vient de(), en faisant le produit scalaire des deux membres avec xnx:
A(xn x), xn x + r B(xn x) 2 +B(xn x), n = 0.Les deux galits prcdentes conduisent :
n+1 2 n 2 =
2
nA(x
n x), x
n x
+ (2n
2n
r)
B(xn
x)
2 . ()
2)a) On doit sassurer que le second membre de ()est 0.Cest le cas siB(xn x) = 0. Sinon, il faut prouver que
n B(xn x) 2 2[A(xn x), xn x + r B(xn x) 2] 0,soit n 2
r+
A(xn x), xn x B(xn x) 2
()
Or : 1
Au,u
Bu2 pour tout utel que Bu= 0 et n 1
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
53/345
I.3. Fonctions convexes
b) Par choix de n, on a : 2r n > 2 et n 0 >0pour tout n.Alors
n 2 n+1 2 =n[(2r n) B(xn x) 2
+ 2A(xn x), xn x] 0 2
B(xn x) 2 + 2A(xn x), xn x
.
CommeA(xn x), xn x 1 B(xn x)2 (voir la formulation va-riationnelle de et se rappeler que >0), le second membre de lingalitprcdente est 0.
Or n 2 n+1 2 0quand n +(puisque la suitede rels positifs ( n 2)n est dcroissante) ; donc
A(xn x), xn x 1
B(xn x) 2 0 quand n +.
Utilisons prsent lingalit stricte 1 0 2(r+ 1
)1>0.
Par consquent : limn+ B(xnx)
2 = 0, et limn+A(xnx), xnx = 0.
CommeA(xn x), xn x xn x 2
, avec >0 plus petite valeurpropre de A, il sensuit limn+ xn x = 0.
39
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
54/345
Chapitre I. Rvision de bases : calcul diffrentiel...
3)
RM =ImB KerB
Tout multiplicateur de Lagrange (i.e., toute seconde composante de point-selle deLr) se dcompose en = + s, oest la projection de lorigine surle sous-espace affine des multiplicateurs de Lagrange, et s Ker(B).
Dsignons par p2 le projecteur orthogonal de RM dimage Ker(B)(et denoyau ImB). Puisque n+1= n+ Bxn, on a :p2(n+1) =p2(n)pour toutn N, donc :
p2(n) =p2(0) =0,2 pour tout n.
On sait que limn+ xn x = 0, et lgalit
A+ rBB
(xn x) + B(n ) = 0
vue au 1)de C, donne : limn+ B
(n ) = 0.
Or lapplicationu ImB Bu est une normesur ImB. En crivant
n = (idRMp2)(n ) +p2(n )
dcomposition suivantImB Ker(B)
et
B(n ) =B
(idRMp2)(n )
,
on a donc limn+(idRMp2)(n ) = 0, soit limn+(idRMp2)(n) =
.
En rassemblant : n+ 0,2 quand n +.40
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
55/345
II
MINIMISATION SANS CONTRAINTES.CONDITIONS DE MINIMALIT
Rappels
f : Rn R(ou mme R {+}) est dite 0-coercive (resp. 1-coercive) surC Rn lorsque
lim x +
x C
f(x) = +
(resp. lim x +
x C
f(x)
x = +
).
Si Cest convexe et si f : C R est strictement convexe sur C, alors ilexiste au plus un x C minimisant f sur C.
II.1. Conditions de minimalit du premier ordre
SoitOun ouvert deR
n
et f : O R
. Si x O est un minimum local de f et si fest diffrentiable en x, alors
f(x) = 0. On supposeO convexe et f convexe surO. Alors les conditions suivantes
relatives x O sont quivalentes :(i) xest un minimum (global) de f surO ;(ii) xest un minimum local de f.
Et si fest diffrentiable en x, on a une troisime condition quivalente :
(iii)f(x) = 0.
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
56/345
Chapitre II. Minimisation sans contraintes. Conditions de minimalit
II.2. Conditions de minimalit du second ordre
Soit
Oun ouvert de Rn et f :
O R.
Si x O est un minimum local de fet si fest deux fois diffrentiable enx, alors
f(x) = 0 et2f(x) est semi-dfinie positive. Si x Oest un point o fest deux fois diffrentiable et si :
f(x) = 0,2f(x) est dfinie positive,alorsxest un minimum local strict de f.
Rfrences. Chapitre II de [11].
** ExerciceII.1. Soit f : Rn R {+}et S Rn. On suppose que :(i) Sest ferm;
(ii) f est semi-continue infrieurement sur Rn ;
(iii) Il existe un point deSen lequel fest finie;
(iv) lim
x +x S
f(x) = +
.
Montrer que fest borne infrieurement sur Set quil existe x Stel quef(x) = infxSf(x).
Indication. On montrera que toute suite minimisante pour f sur S est borne,ou bien on commencera par traiter le cas o Sest born et on ramnera le casgnral ce cas grce lhypothse de0-coercivit def surS (hypothse(iv)).
Solution : On rappelle tout dabord les diffrentes caractrisations de f estsemi-continue infrieurement sur Rn :
En tout point x Rn, on a lim infxx f(x) f(x) (ingalit dansR {+}) ;
R, {x Rn | f(x) }est ferm ; epif := {(x, r) Rn R | f(x) r}est ferm.
Soitf:= infSf(
R
{})et soit
{xk
} Sune suite minimisante pour f
sur S,i.e., telle que f(xk) fquand k +.
42
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
57/345
II.2. Conditions de minimalit du second ordre
Montrons que{xk} est borne. Si ce ntait pas le cas, il existerait unesous-suite{xkl}l de{xk} telle que xkl + quand l +. Par la
0-coercivit def sur S(hypothse (iv)), cela impliqueraitf=
liml+
f(xkl) = +,
ce qui est impossible.La suite{xk} tant borne, il existe une sous-suite{xkl} qui converge vers
un lment xde S. Do, grce la semi-continuit infrieure de f,
f=
liml+
f(xkl) f(x).
Commef(x)> et f(x) f, on en dduit que la valeur fest finie etatteinte en x.
Autre dmonstration : Soit x0 Sen lequel fest finie; puisque f(x)+quand x +, x S, il existe r (> x0)tel que
f(x) f(x0)ds que x S, x > r.
Donc minimiser f sur Srevient minimiser f sur S B (0, r) .
Commentaire : Le rsultat de lexercice est utilis frquemment dans le contextesuivant. Soit un ouvert de Rn et g: Rvrifiant :
gest continue sur ; g(x) +quand x a fr ;lim
x +x
g(x) = +.
Alors, si Sest un ferm tel que S =, g est borne infrieurement surS et il existe x S tel que g(x) = infxS g(x). Il suffit pour voir celade considrerf :x Rn f(x) :=g(x)si x , +sinon.
** ExerciceII.2. Soit D1 := {A1+ tv1| t R} et D2 := {A2+ tv2| t R} deuxdroites affines de Rn dfinies laide des points Ai et des vecteurs directeursnon nulsvi.On cherche les points M1 D1 et M2 D2 minimisant la distance(euclidienne) de M1 M2.
1) Formaliser le problme ci-dessus comme un problme de minimisationconvexe sans contraintes.
43
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
58/345
Chapitre II. Minimisation sans contraintes. Conditions de minimalit
2) Rsoudre le problme pos en prcisant : les conditions dexistence etdunicit des solutions, comment caractriser ces solutions, les proprits parti-culires des solutions.
Figure 4.
Solution : 1)SoitM1 =A1+ t1v1, t1 RM2 =A2+ t2v2, t2 R,
de sorte que M1M22 = A2A1+ t1v1 t2v22 .
Le problme consiste minimiser
f(t1, t2) := M1M22, (t1, t2) R2.On a :
f(t1, t2) =t21 v12 +t22 v22 2t1t2v1, v2 + 2t1A2A1, v1 2t2A2A1, v2 + A2A12 .
f est une fonction quadratique de la variable t = (t1, t2), convexe mmecar
2f(t1, t2) = 2 v12 v1, v2v1, v2 v22
est semi-dfinie positive pour tout (t1, t2) R2.
44
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
59/345
II.2. Conditions de minimalit du second ordre
Le problme pos peut donc tre formalis en
(P) Minimiser f(t1, t2)(t1, t2) R2.
2) Les solutions
t1, t2
de (P) sont les solutions deft1, t2 = 0, soitencore
(S)
t1 v12 t2v1, v2 = A2A1, v1t2
v2
2
t1
v1, v2
=
A2A1, v2
.
1er cas:v1 etv2 sont colinaires, i.e.,D1 etD2 sont parallles. Il y a uneinfinit de solutions (S) ; en posantv2 =v1, ce sont les
t1, t2
vrifiant
t1 t2
v12 = A2A1, v1.Les points M1, M2 correspondants sont
M1 =A1+ t1v1, M2 =A2+A2A1, v1
v12 + t1
v1.
videmmentM1M2 =
A1A2+
A2A1, v1 v12 v1 est orthogonal v1 (et v2).
2e cas: v1 etv2 sont linairement indpendants. Dans ce cas,2f(t1, t2)est dfinie positive pour tout (t1, t2)
R
2 (
v1
2> 0 et dt
2f(t1, t2) =
4 v12 v22 (v1, v2)2 >0 ), et le problme (P) a une et une seulesolution
t1, t2
. Ce
t1, t2
est lunique solution de (S) :
t1 = A2A1, v1 v22 +A2A1, v2v1, v2
v12 v22 (v1, v2)2 ,
t2 =A2A1, v2 v12 A2A1, v1v1, v2
v12
v22
(v1, v2)2
45
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
60/345
Chapitre II. Minimisation sans contraintes. Conditions de minimalit
Et on vrifie queM1M2 =
A1A2+t2v2 t1v1 est orthogonal v1 et v2 :
la droite (M1M2)est la perpendiculaire commune D1 etD2.La distance minimale entre deux points deD1 etD2 se dduit donc de
f
t1, t2
=M1M22 .
Dans le cas particulier o n= 3,
M1M2=
A1A2, v1, v2 v1 v2 ,
o
A1A2, v1, v2
dsigne le produit mixte de
A1A2, v1, v2, etv1 v2le produit
vectoriel dev1 etv2.
** ExerciceII.3. Condition ncessaire de minimalit prs dEkeland
Soit f : Rn R continue et borne infrieurement sur Rn. Soit > 0 etu une solution prs du problme de minimisation de f sur Rn, cest--direvrifiant f(u) inf
xRnf(x) + . tant donn >0 on considre
g: x Rn g(x) :=f(x) + x u .
1) Montrer quil existev Rn minimisant g sur Rn.Montrer que ce point v vrifie les conditions ci-aprs :
(i) f(v) f(u) ;(ii) v u ;(iii) x Rn, f(v) f(x) +
x v .
2) Soit f : Rn Rdiffrentiable et borne infrieurement sur Rn. Montrerque pour tout >0 il existe x tel que f(x) .
Solution : 1) g est continue ; de plus, f tant borne infrieurement,g(x) + quand x +. Par consquent, il existe un point v mi-nimisant gsur Rn :
x Rn, f(v) + v u f(x) +
x u . (2.1)
Faisons x= u dans (2.1) :
f(v) +
v u f(u), (2.2)
do f(v) f(u).
46
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
61/345
II.2. Conditions de minimalit du second ordre
En notant f:= infxRnf(x), il vient de (2.2) :
f+
v u
f+ ,
do v u .Enfin lingalit x u x v+v u, introduite dans (2.1),
conduit f(v) f(x) +
x v .
2) Partant dun minimum 2 prs de f et choisissant = , il existedaprs la question prcdente un x tel que
x Rn, f(x) f(x) + x x .
Pourd Rn et >0 faisons successivement x= x+ det x = x ddanslingalit prcdente ; on obtient :
f(x+ d) f(x) d , soit f(x+ d) f(x)
d ;
f(x d) f(x) d , soit f(x d) f(x)
d .
Un passage la limite 0+ induit :
f(x) , d d et f(x) , d d ,
soit encore | f(x) , d| d .Cette dernire ingalit tant vraie pourtout d Rn, il sensuit f(x) .
* ExerciceII.4. Soitn 2et f : Rn Rla fonction polynomiale de degr cinqdfinie par
x= (x1, . . . , xn) Rn f(x) := (1 + xn)3n1i=1
x2i + x2n.
Montrer que 0 ( Rn
) est le seul point critique de f, quil est minimum localstrict de f, mais quil nest pas minimum global de f.
47
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
62/345
Chapitre II. Minimisation sans contraintes. Conditions de minimalit
Solution : On a :
if(x) = 2xi(1 + xn)3 pour tout i= 1, . . . , n
1 ;
nf(x) = 3(1 + xn)2n1i=1
x2i + 2xn.
Ainsi le seul point x Rn vrifiantf(x) = 0est x= 0.Ce point x = 0 est un minimum local strict de f car 2f(x) =
diag (2, . . . , 2)est dfinie positive.Maisf(1, . . . , 1, xn) = (n 1) (1 + xn)3 + x2nest une fonction polynomiale
du 3e degr, prenant donc toutes les valeurs relles. Il ny a donc pas de mini-mum global de f sur Rn.
*** ExerciceII.5. Soit f : Rn Rcontinue et x Rn. Montrer :
(xest minimum global de f)
Toutx tel quef(x) =f(x)
est un minimum local de f
.
Solution : Limplication
tant vidente, considrons limplication in-
verse. Supposons donc que tout x au mme niveau que x soit un minimumlocal de f. Si x nest pas un minimum global de f, cest quil existe u Rntel que f(u) < f(x) . Dfinissons : t [0, 1] (t) := f(tx + (1 t)u)et posons S :={t [0, 1] | (t) =f(x)} . Ainsi S est une partie non vide(1 S) ferme (de par la continuit de fdonc de ) et minore. Dsignonspar t0 la borne infrieure de S: t0 S et 0< t0 1.
Le pointt0x+ (1 t0)utant au mme niveau que x, il est minimum localde f; par consquent t0 est un minimum local de : il existe >0 tel que :
|t t0| t [0, 1] ( (t) (t0)) .
Comme t0 est la borne infrieure de S, on en dduit :t0 < t < t0
0< t
( (t)> (t0)) .
Prenons un tel t, que nous appelons t1 :
t0 < t1< t0, 0< t1, et (t1)> (t0) .
48
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
63/345
II.2. Conditions de minimalit du second ordre
Alors (1) = (t0) [ (0) , (t1)] et, daprs le thorme des valeursintermdiaires, il existe t2 [0, t1]tel que (t2) = (1) (=f(x)) .Par cons-
quent, t2 ]0, t1] S, et puisque t1 < t0, ceci contredit la dfinition de t0comme borne infrieure de S.
Figure5.
Remarque : Dans lassertion de droite de lnonc, on ne peut pas rempla-cer minimum local de f par point critique de f ; prendre lexemple def :x R f(x) =x3.
*** ExerciceII.6. On dsigne parPn(R)lensemble des matrices dfinies posi-
tives de taille n(cest un ouvert deSn(R)). tant donns Aet B dans
Pn(R),on considre le problme de minimisation suivant :
(P)
Minimiserf(X) := tr (AX) + tr
BX1
X
Pn(R).
1) Quelles proprits de f, utiles pour sa minimisation (diffrentiabilit,convexit, coercivit) peut-on dgager ? En dduire que le problme(P) a uneet une seule solution.
2) (i) Vrifier que la solution de (P) est la (seule) matrice X vrifiantXAX=B.
(ii) Donner, partir de BA (ou de AB), une procdure permettant deconstruire X.
(iii)En dduire la valeur optimale dans (P) .3) On fait n = 2 ici. Montrer que la valeur optimale dans (
P) est
2
tr (AB) + 2dt (AB).
49
-
8/10/2019 Optimisation Et Analyse Convexe Exercices Et Probl Mes Corrig s Avec Rappels de Cours
64/345
Chapitre II. Minimisation sans contraintes. Conditions de minimalit
Indication. Le cas simple on= 1 permet de guider la dmarche et de contrlerles rsultats.
Solution : Sn(R)est structur en espace euclidien grce au produit scalaire U, V = tr (U V) .Le problme (P) est celui de la minimisation sur (le cne convexe ou-
vert)
Pn (R) = : de la fonction-objectif X f(X) = A, X + B, X1 .
1) Lapplication X X1 est bijective et de classe C; ilsensuit que f est C sur .De lingalit de convexit
U, V dans ]0, 1[ [U+ (1 ) V]1 U1 + (1 ) V1 ,et de la (semi-) dfinie positivit de B, on dduit que X B, X1 estconvexe sur (daccord ?).
De manire concentrer sur une seule partie toute la contribution de AetB aux deux parties de f(X),posonsC :=A1/2BA1/2.Comme
f(X) = tr
A1/2
A1/2XA1/2
A1/2 + C
A1/2XA1/2
1= tr A1/2XA1/2 + CA1/2XA1/21
et que lapplication X Y := A1/2XA1/21 est visiblement unebijection de sur , le problme (P) est quivalent celui de la minimisa-tion de
Y g(Y) :=tr Y1 + CY= In, Y1 + C, Ysur .
La frontire fr de est exactement lensemble des matrices semi-dfiniespositives singulires (i.e., dont la plus petite valeur propre est nulle). En cons-quence :
Y Y0 fr (ou X X0 fr )
=
g(Y) +
(ou f(X) +)
.
De mme, un calcul (pas trop difficile) sur les matrices dfinies positives conduit lucider le comportement linfini :
Y , Y (ou X , X )= g(Y) +(ou f(X) +) .
50