Lagrangien et conditions de Kuhn et Tucker Ce vade mecum expose la méthode de résolution des programmes d’optimisation sta- tique (par opposition aux programmes d’optimisation dynamique qui ne seront pas abor- dés ici) dans le cas d’une fonction objectif multivariée. Les sections 1 et 2 donnent un certain nombre de définitions préliminaines.
Pour trouver une solution à l’optimisation, le problème d’origine est remplacé par un problème équivalent. Par exemple, il est possible de faire un changement de variables permettant de décomposer le problème en sous-problèmes ou la substitution d’inconnues permettant d’en réduire le nombre.
L' optimisation non linéaire étudie le cas général dans lequel l’objectif ou les contraintes (ou les deux) contiennent des parties non linéaires, éventuellement non-convexes. L' optimisation stochastique (en) étudie le cas dans lequel certaines des contraintes dépendent de variables aléatoires.
En passant a la limite dans l'inegalite on obtient limn!1 J(xn) = 1 , donc (xn) est une suite minimisante. (ii) Si A est minoree, alors elle possede une borne inferieure I (comme une partie non vide et minoree de R). Alors par de nition, pour tout " > 0, il existe y" 2 A t.q. I y" < I + " et par de nition de A, il existe un x" 2 K t.q. y" = J(x").