[PDF] [PDF] Minimiser une fonction de 2 variables





Previous PDF Next PDF



Minimisation de fonctionnelle quadratique

Minimisation de fonctionnelle quadratique. Dorian Cacitti-Holland. 2020-2021. Références. 1. Oraux X-ENS Analyse 4 (pas tout à fait).



Résolution de problèmes par minimisation dune fonctionnelle et

Université Antilles Guyane. Résolution de problèmes par minimisation d'une fonctionnelle et applications. Master Info. Image. Plis fòs ba pengwen là !



Minimiser une fonction de 2 variables

Minimiser une fonction de 2 variables par valeur initiale fn fonction (argument x vectoriel) ... fonction le point minimum



1 Le calcul variationnel

est une fonctionnelle qui prend une fonction ajoute son carré et le carré de sa dérivée Et il faut trouver la fonction f qui minimise cette intégrale1.



Algorithmes de minimisation

De nombreux problèmes nécessitent de minimiser une fonction : -Minimiser la distance (XHI2) entre calculer analytiquement les zéros de la fonction F'(X).



Chp. 4. Minimisation dune fonction dune variable

Minimisation d'une fonction d'une variable. Avertissement! Dans tout ce chap?tre I désigne un intervalle de IR . 4.1 Fonctions convexes d'une variable.



Minimisation de la variation totale 1 Fonctionnelle approchée 2

Utiliser la méthode de quasi-Newton pour minimiser la fonctionnelle. Déterminer empiriquement la vitesse de convergence de l'algorithme. On peut montrer.



Page 1 Plan Minimisation de fonctions logiques Comment minimiser

Minimisation des fonctions multi-niveau - Factorisation Minimiser la fonction logique revient alors à minimiser une fonction Z = M1 + M2 + M3 + M4 + M5 ...



INITIATION À LA FONCTIONNELLE DE MUMFORD-SHAH par

Après une courte introduction de la fonctionnelle et de sa minimisation on mettra en évidence certains problèmes ma- thématiques difficiles qu'elle soulève



X. Algorithmes doptimisation

Pour minimiser une fonction à une variable dans un domaine on utilise fminbnd et si la fonction a plusieurs variables on utilise fminsearch.



[PDF] Minimisation de fonctionnelle quadratique

Minimisation de fonctionnelle quadratique Dorian Cacitti-Holland 2020-2021 Références 1 Oraux X-ENS Analyse 4 (pas tout à fait)



[PDF] Techniques doptimisation

Optimisation continue – discrète – fonctionnelle Optimisation fonctionnelle / paramétrique On choisit l'incrément pour minimiser l'erreur :



[PDF] Cours-Optimisationpdf

L'objectif est de maximiser M(x) ce qui revient `a minimiser Il s'agit donc de la minimisation de la fonction J(v) = v ? u2 sur K Cette fonction



[PDF] Minimiser une fonction de 2 variables

Produit une liste contenant la valeur minimale de la fonction le point minimum le gradient au point minimum ainsi qu'une évaluation de la qualité de l' 



Minimisation dune fonctionnelle dans un espace produit par une

Résumé — On étudie dans cette note la méthode de relaxation pour minimiser une fonctionnelle convexe sur un ensemble convexe a"un espace produit



[PDF] Résolution de problèmes par minimisation dune fonctionnelle et

Université Antilles Guyane Résolution de problèmes par minimisation d'une fonctionnelle et applications Master Info Image Plis fòs ba pengwen là !



[PDF] COURS OPTIMISATION Cours à lISFA en M1SAF Ionel Sorin

Une fonction J : IRn ?? IR (fonction coût) 2 Un ensemble U ? IRn (ensemble des contraintes) On cherche à minimiser J sur U c'est à dire 



[PDF] aspects théoriques numériques et algorithmes

Exercice 4 8 (Minimisation d'une fonctionnelle non quadratique) Page 72 72 On souhaite résoudre dans cet exercice un probl`eme de minimisation 



[PDF] Introduction à lOptimisation Numérique

Commençons par analyser le problème de minimisation : d'une part la fonction f est deux fois différentiable sur R2 et strictement convexe D'autre part le 

  • Comment on minimise une fonction ?

    Produit une liste contenant la valeur minimale de la fonction, le point minimum, le gradient au point minimum ainsi qu'une évaluation de la qualité de l'itération (de 1 à 5). Produit aussi sur demande la matrice hessienne au point minimum: hessian = T. ?l(?, ?) #on change le signe pour minimiser
  • Quelles sont les méthodes d'optimisation ?

    Techniques de l'optimisation combinatoire

    la théorie des graphes (chemin optimal dont le problème du voyageur de commerce)la théorie des jeux (stratégies performantes)la théorie du contrôle, de la régulation et de l'automatique (cf Catégorie:Automatique)l'optimisation multidisciplinaire.
  • Le but d'un problème d'optimisation est de trouver une solution maximisant (resp. mini- misant) une fonction objectif donnée. A chaque problème d'optimisation on peut associer un problème de décision dont le but est de déterminer s'il existe une solution pour laquelle la fonction objectif soit supérieure (resp.
[PDF] Minimiser une fonction de 2 variables

Minimiser une fonction de 2 variables

(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2

J.-C. Mass´eUniversit´e Laval

Minimiser une fonction de 2 variables

(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2 ∂f/∂x=∂f/∂y= 0 =? points critiques: (1/3,0) ,(1,0) (1/3,0) : minimum local f(1/3,0) =-4/27 =-0.148148

J.-C. Mass´eUniversit´e Laval

Minimiser une fonction de 2 variables

(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2 ∂f/∂x=∂f/∂y= 0 =? points critiques: (1/3,0) ,(1,0) (1/3,0) : minimum local f(1/3,0) =-4/27 =-0.148148

Contours dans le carré

[-3,3]×[-3,3] > a = seq(-3,3,length=200); b = a #grille > v = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) v[i,j] = f(c(a[i],b[j]))} > contour(a,b,v,levels=c(50,30,10,2,0,- .125),xlab='x',ylab='y',col='red')

J.-C. Mass´eUniversit´e Laval

Minimiser une fonction de 2 variables

(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2 ∂f/∂x=∂f/∂y= 0 =? points critiques: (1/3,0) ,(1,0) (1/3,0) : minimum local f(1/3,0) =-4/27 =-0.148148

Contours dans le carré

[-3,3]×[-3,3] > a = seq(-3,3,length=200); b = a #grille > v = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) v[i,j] = f(c(a[i],b[j]))} > contour(a,b,v,levels=c(50,30,10,2,0,- .125),xlab='x',ylab='y',col='red')

J.-C. Mass´eUniversit´e Laval

Contours d'une fonction de 2 var.

J.-C. Mass´eUniversit´e Laval

Fonction optim

Par défaut, calcule un point

minimum selon la méthode de Nelder-Mead (simplexe)

J.-C. Mass´eUniversit´e Laval

Fonction optim

Par défaut, calcule un point

minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE)

J.-C. Mass´eUniversit´e Laval

Fonction optim

Par défaut, calcule un point

minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE) par valeur initiale fn fonction ( argument x vectoriel

J.-C. Mass´eUniversit´e Laval

Fonction optim

Par défaut, calcule un point

minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE) par valeur initiale fn fonction ( argument x vectoriel BFGS : méthode de type quasi-Newton vue en classe hessian = T : calcule la matrice hessienne en =?l??(?θ) si fn=l une log-vraisemblance. Utile pour obtenir une estimation de la variabilité des estimateurs de vraisemblance maximale: matrice de covariance asymptotique :=?(I(?θ))-1≈(-l??(?θ))-1

J.-C. Mass´eUniversit´e Laval

Fonction optim

Par défaut, calcule un point

minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE) par valeur initiale fn fonction ( argument x vectoriel BFGS : méthode de type quasi-Newton vue en classe hessian = T : calcule la matrice hessienne en =?l??(?θ) si fn=l une log-vraisemblance. Utile pour obtenir une estimation de la variabilité des estimateurs de vraisemblance maximale: matrice de covariance asymptotique :=?(I(?θ))-1≈(-l??(?θ))-1 control : permet de choisir les facteurs de Nelder-Mead, le n. d'itérations, la tolérance, etc.

J.-C. Mass´eUniversit´e Laval

Fonction nlm

Calcule un point

minimum selon une méthode de type

Newton

J.-C. Mass´eUniversit´e Laval

Fonction nlm

Calcule un point

minimum selon une méthode de type

Newton

nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...)

J.-C. Mass´eUniversit´e Laval

Fonction nlm

Calcule un point

minimum selon une méthode de type

Newton

nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...) Par défaut utilise des dérivées numériques.

J.-C. Mass´eUniversit´e Laval

Fonction nlm

Calcule un point

minimum selon une méthode de type

Newton

nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...) Par défaut utilise des dérivées numériques. Produit une liste contenant la valeur minimale de la fonction, le point minimum, le gradient au point minimum ainsi qu'une évaluation de la qualité de l'itération (de 1 à 5). Produit aussi sur demande la matrice hessienne au point minimum: hessian = T

J.-C. Mass´eUniversit´e Laval

Fonction nlm

Calcule un point

minimum selon une méthode de type

Newton

nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...) Par défaut utilise des dérivées numériques. Produit une liste contenant la valeur minimale de la fonction, le point minimum, le gradient au point minimum ainsi qu'une évaluation de la qualité de l'itération (de 1 à 5). Produit aussi sur demande la matrice hessienne au point minimum: hessian = T

Fonction moins polyvalente qu'

optim

J.-C. Mass´eUniversit´e Laval

optimetnlmappliquées > optim(c(0,0),f)# par défaut Nelder-Mead, minimisation $par # fonction f de la p. 1 [1] 3.333333e-01 4.934999e-09 ≈(1/3,0) $value [1] -0.1481481 ≈f(1/3,0) =-4/27

J.-C. Mass´eUniversit´e Laval

optimetnlmappliquées > optim(c(0,0),f)# par défaut Nelder-Mead, minimisation $par # fonction f de la p. 1 [1] 3.333333e-01 4.934999e-09 ≈(1/3,0) $value [1] -0.1481481 ≈f(1/3,0) =-4/27 > nlm(f,c(0,0))#par défaut type Newton, minimisation $minimum [1] -0.1481481 $estimate [1] 3.333324e-01 -4.558233e-07

J.-C. Mass´eUniversit´e Laval

optimetnlmappliquées > optim(c(0,0),f)# par défaut Nelder-Mead, minimisation $par # fonction f de la p. 1 [1] 3.333333e-01 4.934999e-09 ≈(1/3,0) $value [1] -0.1481481 ≈f(1/3,0) =-4/27 > nlm(f,c(0,0))#par défaut type Newton, minimisation $minimum [1] -0.1481481 $estimate [1] 3.333324e-01 -4.558233e-07 > optim(c(2,0),f) #autre valeur initiale $par [1] 3.776441e+55 -5.926356e+54 # divergence! $value [1] -5.385772e+166

J.-C. Mass´eUniversit´e Laval

Vraisemblance à 2 paramètres

Modèle de Weibull à paramètres

θ,α >0

f(y|θ,α) =α y

α-1exp?

-?y , y >0

J.-C. Mass´eUniversit´e Laval

Vraisemblance à 2 paramètres

Modèle de Weibull à paramètres

θ,α >0

f(y|θ,α) =α y

α-1exp?

-?y , y >0

Log-vraisemblance p. r. aux observations

y1,...,yn l(θ,α) =-nlogθ+nlogα+(α-1)n?

1log?yiθ?

-n? 1? yi

J.-C. Mass´eUniversit´e Laval

Vraisemblance à 2 paramètres

Modèle de Weibull à paramètres

θ,α >0

f(y|θ,α) =α y

α-1exp?

-?y , y >0

Log-vraisemblance p. r. aux observations

y1,...,yn l(θ,α) =-nlogθ+nlogα+(α-1)n?

1log?yiθ?

-n? 1? yi

Fonction scorel?(θ,α)T=?

-nα/θ+αθ-1?(yi/θ)α

J.-C. Mass

´eUniversit´e Laval

Vraisemblance à 2 paramètres (suite)

Matrice hessienne

=l??(θ,α) =- information observée lθθ=α(α+ 1)/θ2?(yi/θ)α-nαθ-2 l θα=θ-1?[1-(yi/θ)α{1 +αlog(yi/θ)}] l

J.-C. Mass´eUniversit´e Laval

Vraisemblance à 2 paramètres (suite)

Matrice hessienne

=l??(θ,α) =- information observée lθθ=α(α+ 1)/θ2?(yi/θ)α-nαθ-2 l θα=θ-1?[1-(yi/θ)α{1 +αlog(yi/θ)}] l -l(θ,α) #on change le signe pour minimiser! > lneg = function(p,x){ e = -sum(e)} #p vecteur : (p[1],p[2]) =

J.-C. Mass´eUniversit´e Laval

Vraisemblance à 2 paramètres (suite)

Matrice hessienne

=l??(θ,α) =- information observée lθθ=α(α+ 1)/θ2?(yi/θ)α-nαθ-2 l θα=θ-1?[1-(yi/θ)α{1 +αlog(yi/θ)}] l -l(θ,α) #on change le signe pour minimiser! > lneg = function(p,x){ e = -sum(e)} #p vecteur : (p[1],p[2]) = Premier objectif: identifier la région du point maximum avec le graphique des contours.

J.-C. Mass´eUniversit´e Laval

Contours de la vraisemblance

Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des

> y = seq(100,250,length=200) #grille des

J.-C. Mass´eUniversit´e Laval

Contours de la vraisemblance

Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des

> y = seq(100,250,length=200) #grille des

Valeurs de la log-vraisemblance

l(θ,α) sur la grille > logv = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) logv[i,j] = -lneg(c(y[i],x[j]),t0)} # t0: temps de panne

J.-C. Mass´eUniversit´e Laval

Contours de la vraisemblance

Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des

> y = seq(100,250,length=200) #grille des

Valeurs de la log-vraisemblance

l(θ,α) sur la grille > logv = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) logv[i,j] = -lneg(c(y[i],x[j]),t0)} # t0: temps de panne

Minimum et maximum des valeurs de

l(θ,α) sur la grille > range(logv) # intervalle des valeurs [1] -254028.28687 -48.75647

J.-C. Mass´eUniversit´e Laval

Contours de la vraisemblance

Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des

> y = seq(100,250,length=200) #grille des

Valeurs de la log-vraisemblance

l(θ,α) sur la grille > logv = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) logv[i,j] = -lneg(c(y[i],x[j]),t0)} # t0: temps de panne

Minimum et maximum des valeurs de

l(θ,α) sur la grille > range(logv) # intervalle des valeurs [1] -254028.28687 -48.75647

Contours

> contour(x,y,logv,levels=c(-50,-55,-60,-80,-

J.-C. Mass´eUniversit´e Laval

Contours de la log-vraisemblance

J.-C. Mass´eUniversit´e Laval

Estimation

Fonction

optim : (Nelder-Mead) > p0 = c(165,1) #valeur initiale (modèle exponentiel

α= 1

> optim(p0,lneg,x=t0) $par [1] 181.409455 5.976163q $value #valeur minimale de lneg [1] 48.75639 -l(?θ,?α)

J.-C. Mass´eUniversit´e Laval

Estimation

Fonction

optim : (Nelder-Mead) > p0 = c(165,1) #valeur initiale (modèle exponentiel

α= 1

> optim(p0,lneg,x=t0) $par [1] 181.409455 5.976163q $value #valeur minimale de lneg [1] 48.75639 -l(?θ,?α)

Méthode BFGS (quasi-Newton)

> optim(p0,lneg,x=t0,method='BFGS') $par [1] 181.44731 5.97875 $value [1] 48.75639

J.-C. Mass´eUniversit´e Laval

Estimation (suite)

Calcul de l'

information observée =-l??(?θ,?α) estimation de

I(?θ,?α)

> optim(p0,lneg,x=t0,method='BFGS',hessian=TRUE) $hessian [,1] [,2] [1,] 0.01084155 -0.02432539 [2,] -0.02432539 0.52368771

J.-C. Mass´eUniversit´e Laval

Estimation (suite)

Calcul de l'

information observée =-l??(?θ,?α)quotesdbs_dbs28.pdfusesText_34
[PDF] methode variationnelle cours

[PDF] principe variationnel

[PDF] identité de beltrami

[PDF] probleme variationnel lagrangien

[PDF] formulation variationnelle exercices corrigés

[PDF] cours volume 6ème

[PDF] comment calculer le déterminant dune matrice 4x4

[PDF] determinant matrice inversible

[PDF] determinant matrice exercices corrigés

[PDF] determinant matrice 2x3

[PDF] calcul du determinant dune matrice pdf

[PDF] déterminant matrice triangulaire

[PDF] forme canonique de commandabilité

[PDF] représentation d'état exercices corrigés pdf

[PDF] passage fonction de transfert représentation d'état