Par défaut, calcule un point minimum selon la méthode de Nelder-Mead ( simplexe) optim(par, fn, gr = NULL, , method = c("Nelder-Mead", "BFGS", "CG"
Previous PDF | Next PDF |
[PDF] Minimiser une fonction de 2 variables
Par défaut, calcule un point minimum selon la méthode de Nelder-Mead ( simplexe) optim(par, fn, gr = NULL, , method = c("Nelder-Mead", "BFGS", "CG"
[PDF] Résolution de problèmes par minimisation dune fonctionnelle et
variante qui soit invariante en fonction de la taille de la cible serait « Moyenne Admettons que nous cherchions a minimiser l'erreur quadratique Quel est
[PDF] Algorithmes de minimisation
De nombreux problèmes nécessitent de minimiser une fonction : -Minimiser la distance calculer analytiquement les zéros de la fonction F'(X) -Soit par ce que
[PDF] Introduction à loptimisation
3 2 Minimisation d'une fonctionnelle quadratique sans contrainte blèmes de maximisation puisque maximiser une quantité revient à minimiser son opposé
[PDF] Introduction `a loptimisation
La minimisation On a vu en introduction une CS d'existence d'un mi- nimum et d' un maximum : si f est une fonction continue sur S fermé borné alors ∃x1 ∈ S et
[PDF] Techniques doptimisation
On définit pour une direction d ∈Rn au point x la fonction φ à une variable : φ(s) = f(x+sd) n-m inconnues «libres» permettant de minimiser le critère │ ⎩ │
[PDF] Chp 4 Minimisation dune fonction dune variable
Dans tout ce chapıtre, I désigne un intervalle de IR 4 1 Fonctions convexes d' une variable Définition 9 Une fonction ϕ, partout définie sur I, est dite convexe (
[PDF] Une méthode directe de minimisation et applications - Numdam
On désigne par J(v) une fonctionnelle non linéaire (application de V dans R) continue Nous sommes ainsi ramenés à la minimisation d'une fonction K de Inf
[PDF] COURS OPTIMISATION Cours en Master M1 SITN Ionel Sorin
1 Une fonction J : IRn ↦→ IR (fonction coût) 2 Un ensemble U ⊂ IRn ( ensemble des contraintes) On cherche à minimiser J sur U, c'est à dire, on cherche x∗
[PDF] principe variationnel
[PDF] identité de beltrami
[PDF] probleme variationnel lagrangien
[PDF] formulation variationnelle exercices corrigés
[PDF] cours volume 6ème
[PDF] comment calculer le déterminant d'une matrice 4x4
[PDF] determinant matrice inversible
[PDF] determinant matrice exercices corrigés
[PDF] determinant matrice propriété
[PDF] determinant matrice 2x3
[PDF] calcul du determinant d'une matrice pdf
[PDF] déterminant matrice triangulaire
[PDF] forme canonique de commandabilité
[PDF] représentation d'état exercices corrigés pdf
![[PDF] Minimiser une fonction de 2 variables [PDF] Minimiser une fonction de 2 variables](https://pdfprof.com/Listes/17/22994-17Pr_11.A10.pdf.pdf.jpg)
Minimiser une fonction de 2 variables
(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2J.-C. Mass´eUniversit´e Laval
Minimiser une fonction de 2 variables
(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2 ∂f/∂x=∂f/∂y= 0 =? points critiques: (1/3,0) ,(1,0) (1/3,0) : minimum local f(1/3,0) =-4/27 =-0.148148J.-C. Mass´eUniversit´e Laval
Minimiser une fonction de 2 variables
(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2 ∂f/∂x=∂f/∂y= 0 =? points critiques: (1/3,0) ,(1,0) (1/3,0) : minimum local f(1/3,0) =-4/27 =-0.148148Contours dans le carré
[-3,3]×[-3,3] > a = seq(-3,3,length=200); b = a #grille > v = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) v[i,j] = f(c(a[i],b[j]))} > contour(a,b,v,levels=c(50,30,10,2,0,- .125),xlab='x',ylab='y',col='red')J.-C. Mass´eUniversit´e Laval
Minimiser une fonction de 2 variables
(x,y)?→f(x,y) = 2y2-x(x-1)2> f = function(x) 2*x[2]ˆ2-x[1]*(x[1]-1)ˆ2 ∂f/∂x=∂f/∂y= 0 =? points critiques: (1/3,0) ,(1,0) (1/3,0) : minimum local f(1/3,0) =-4/27 =-0.148148Contours dans le carré
[-3,3]×[-3,3] > a = seq(-3,3,length=200); b = a #grille > v = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) v[i,j] = f(c(a[i],b[j]))} > contour(a,b,v,levels=c(50,30,10,2,0,- .125),xlab='x',ylab='y',col='red')J.-C. Mass´eUniversit´e Laval
Contours d'une fonction de 2 var.
J.-C. Mass´eUniversit´e Laval
Fonction optim
Par défaut, calcule un point
minimum selon la méthode de Nelder-Mead (simplexe)J.-C. Mass´eUniversit´e Laval
Fonction optim
Par défaut, calcule un point
minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE)J.-C. Mass´eUniversit´e Laval
Fonction optim
Par défaut, calcule un point
minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE) par valeur initiale fn fonction ( argument x vectorielJ.-C. Mass´eUniversit´e Laval
Fonction optim
Par défaut, calcule un point
minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE) par valeur initiale fn fonction ( argument x vectoriel BFGS : méthode de type quasi-Newton vue en classe hessian = T : calcule la matrice hessienne en =?l??(?θ) si fn=l une log-vraisemblance. Utile pour obtenir une estimation de la variabilité des estimateurs de vraisemblance maximale: matrice de covariance asymptotique :=?(I(?θ))-1≈(-l??(?θ))-1J.-C. Mass´eUniversit´e Laval
Fonction optim
Par défaut, calcule un point
minimum selon la méthode de Nelder-Mead (simplexe) optim(par, fn, gr = NULL, ..., method = c("Nelder-Mead", "BFGS", "CG", "L-BFGS-B", "SANN"), lower = -Inf, upper = Inf, control = list(), hessian = FALSE) par valeur initiale fn fonction ( argument x vectoriel BFGS : méthode de type quasi-Newton vue en classe hessian = T : calcule la matrice hessienne en =?l??(?θ) si fn=l une log-vraisemblance. Utile pour obtenir une estimation de la variabilité des estimateurs de vraisemblance maximale: matrice de covariance asymptotique :=?(I(?θ))-1≈(-l??(?θ))-1 control : permet de choisir les facteurs de Nelder-Mead, le n. d'itérations, la tolérance, etc.J.-C. Mass´eUniversit´e Laval
Fonction nlm
Calcule un point
minimum selon une méthode de typeNewton
J.-C. Mass´eUniversit´e Laval
Fonction nlm
Calcule un point
minimum selon une méthode de typeNewton
nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...)J.-C. Mass´eUniversit´e Laval
Fonction nlm
Calcule un point
minimum selon une méthode de typeNewton
nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...) Par défaut utilise des dérivées numériques.J.-C. Mass´eUniversit´e Laval
Fonction nlm
Calcule un point
minimum selon une méthode de typeNewton
nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...) Par défaut utilise des dérivées numériques. Produit une liste contenant la valeur minimale de la fonction, le point minimum, le gradient au point minimum ainsi qu'une évaluation de la qualité de l'itération (de 1 à 5). Produit aussi sur demande la matrice hessienne au point minimum: hessian = TJ.-C. Mass´eUniversit´e Laval
Fonction nlm
Calcule un point
minimum selon une méthode de typeNewton
nlm(f, p, hessian = FALSE, typsize=rep(1, length(p)), fscale=1, print.level = 0, ndigit=12, gradtol = 1e-6, steptol = 1e-6, iterlim = 100, ...) Par défaut utilise des dérivées numériques. Produit une liste contenant la valeur minimale de la fonction, le point minimum, le gradient au point minimum ainsi qu'une évaluation de la qualité de l'itération (de 1 à 5). Produit aussi sur demande la matrice hessienne au point minimum: hessian = TFonction moins polyvalente qu'
optimJ.-C. Mass´eUniversit´e Laval
optimetnlmappliquées > optim(c(0,0),f)# par défaut Nelder-Mead, minimisation $par # fonction f de la p. 1 [1] 3.333333e-01 4.934999e-09 ≈(1/3,0) $value [1] -0.1481481 ≈f(1/3,0) =-4/27J.-C. Mass´eUniversit´e Laval
optimetnlmappliquées > optim(c(0,0),f)# par défaut Nelder-Mead, minimisation $par # fonction f de la p. 1 [1] 3.333333e-01 4.934999e-09 ≈(1/3,0) $value [1] -0.1481481 ≈f(1/3,0) =-4/27 > nlm(f,c(0,0))#par défaut type Newton, minimisation $minimum [1] -0.1481481 $estimate [1] 3.333324e-01 -4.558233e-07J.-C. Mass´eUniversit´e Laval
optimetnlmappliquées > optim(c(0,0),f)# par défaut Nelder-Mead, minimisation $par # fonction f de la p. 1 [1] 3.333333e-01 4.934999e-09 ≈(1/3,0) $value [1] -0.1481481 ≈f(1/3,0) =-4/27 > nlm(f,c(0,0))#par défaut type Newton, minimisation $minimum [1] -0.1481481 $estimate [1] 3.333324e-01 -4.558233e-07 > optim(c(2,0),f) #autre valeur initiale $par [1] 3.776441e+55 -5.926356e+54 # divergence! $value [1] -5.385772e+166J.-C. Mass´eUniversit´e Laval
Vraisemblance à 2 paramètres
Modèle de Weibull à paramètres
θ,α >0
f(y|θ,α) =α yα-1exp?
-?y , y >0J.-C. Mass´eUniversit´e Laval
Vraisemblance à 2 paramètres
Modèle de Weibull à paramètres
θ,α >0
f(y|θ,α) =α yα-1exp?
-?y , y >0Log-vraisemblance p. r. aux observations
y1,...,yn l(θ,α) =-nlogθ+nlogα+(α-1)n?1log?yiθ?
-n? 1? yiJ.-C. Mass´eUniversit´e Laval
Vraisemblance à 2 paramètres
Modèle de Weibull à paramètres
θ,α >0
f(y|θ,α) =α yα-1exp?
-?y , y >0Log-vraisemblance p. r. aux observations
y1,...,yn l(θ,α) =-nlogθ+nlogα+(α-1)n?1log?yiθ?
-n? 1? yiFonction scorel?(θ,α)T=?
-nα/θ+αθ-1?(yi/θ)αJ.-C. Mass
´eUniversit´e Laval
Vraisemblance à 2 paramètres (suite)
Matrice hessienne
=l??(θ,α) =- information observée lθθ=α(α+ 1)/θ2?(yi/θ)α-nαθ-2 l θα=θ-1?[1-(yi/θ)α{1 +αlog(yi/θ)}] lJ.-C. Mass´eUniversit´e Laval
Vraisemblance à 2 paramètres (suite)
Matrice hessienne
=l??(θ,α) =- information observée lθθ=α(α+ 1)/θ2?(yi/θ)α-nαθ-2 l θα=θ-1?[1-(yi/θ)α{1 +αlog(yi/θ)}] l -l(θ,α) #on change le signe pour minimiser! > lneg = function(p,x){ e = -sum(e)} #p vecteur : (p[1],p[2]) =J.-C. Mass´eUniversit´e Laval
Vraisemblance à 2 paramètres (suite)
Matrice hessienne
=l??(θ,α) =- information observée lθθ=α(α+ 1)/θ2?(yi/θ)α-nαθ-2 l θα=θ-1?[1-(yi/θ)α{1 +αlog(yi/θ)}] l -l(θ,α) #on change le signe pour minimiser! > lneg = function(p,x){ e = -sum(e)} #p vecteur : (p[1],p[2]) = Premier objectif: identifier la région du point maximum avec le graphique des contours.J.-C. Mass´eUniversit´e Laval
Contours de la vraisemblance
Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des
> y = seq(100,250,length=200) #grille desJ.-C. Mass´eUniversit´e Laval
Contours de la vraisemblance
Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des
> y = seq(100,250,length=200) #grille desValeurs de la log-vraisemblance
l(θ,α) sur la grille > logv = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) logv[i,j] = -lneg(c(y[i],x[j]),t0)} # t0: temps de panneJ.-C. Mass´eUniversit´e Laval
Contours de la vraisemblance
Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des
> y = seq(100,250,length=200) #grille desValeurs de la log-vraisemblance
l(θ,α) sur la grille > logv = matrix(numeric(200ˆ2),nrow=200) > for (i in 1:200) {for (j in 1:200) logv[i,j] = -lneg(c(y[i],x[j]),t0)} # t0: temps de panneMinimum et maximum des valeurs de
l(θ,α) sur la grille > range(logv) # intervalle des valeurs [1] -254028.28687 -48.75647J.-C. Mass´eUniversit´e Laval
Contours de la vraisemblance
Temps de panne# t0 = c(225,171,198,189,189,135,162,135,117,162)> x = seq(1,15,length=200) #grille des
> y = seq(100,250,length=200) #grille des