[PDF] Analyse de sensibilité et réduction de dimension. Application à l





Previous PDF Next PDF



Analyse de sensibilité dans un contexte de prévision du prix des

De même on introduit un indice PRCC ou « Partial Rank Correlation Coefficient » pour remplacer l'indice. PCC. Soit une simulation de taille n du modèle étudié 



Analyse de sensibilité et réduction de dimension. Application à l

temps de calcul pour être résolu. ? Comment quantifier l'impact du remplacement du modèle par le métamodèle sur l'estimation des indices de sensibilité ?



Analyse de sensibilité: mesure de limportance des facteurs par

incertitude sur chaque x(k) modélisée par une distribution de probabilité continue définition précise des indices de sensibilité qui dépendent : du modèle.



TER : Calcul des indices de Sobol pour un modèle épidémiologique

8 mai 2017 Nous ferons l'analyse de sensibilité du modèle. Pour cela nous utiliserons une décom- position de la variance permettant de calculer les ...



Journal de la Société Française de Statistique Revue sur lanalyse

7 déc. 2010 l'aide de ce modèle (par exemple la variance d'une variable de sortie). ... L'estimation des indices de sensibilité est alors entâchée de ...



Des indices pour hiérarchiser la sensibilité du littoral aux pollutions

30 juin 2011 Le tableau 1 montre un exemple d'adaptation locale de cet indice pour l'atlas de sensibilité du littoral de la Manche (50).



Analyse de sensibilité du modèle mathématique “Erosion

signifiée par le calcul d'un indice appelé “Indice de Sensibilité” et par un pourcentage de IS est l'indice de sensibilité de la sortie du modèle ;.



Utilisation de lanalyse de sensibilité pour mieux connaître son

4 juin 2015 Analyse de sensibilité globale : indice de sensibilité de Sobol par Monte Carlo. Décrivons à présent le modèle que nous allons utiliser ...



Journal de la Société Française de Statistique Analyse de sensibilité

simuler le modèle. L'indice de sensibilité SZ de la variable d'entrée Z traduit alors l'influence de l'incertitude de la variable d'entrée spatialisée Z sur 



Analyse de sensibilité globale dun modèle spatialisé pour l

1 déc. 2011 réalisation de cartes d'indices de sensibilité permet ensuite ... la variance à un modèle dont les variables d'entrée et les sorties sont ...

Analyse de sensibilité et réduction de dimension.

Application à l"océanographie.

Alexandre Janon (Université Joseph Fourier, INRIA)

Soutenance de thèse

15 novembre 2012, Maison Jean Kuntzmann, Grenoble

1/ 48 Plan Partie1: Contexte et problématique de la thèse ?Partie2: Généralités sur l"analyse de sensibilité et la construction de métamodèles ?Partie3: Résumé des contributions ?Conclusion et perspectives 2/ 48

Partie 1:Contexte et Problématique

3/ 48

Contexte de la thèse

Équipe MOISE:développement desystèmes de prévision ensciences de l"environnement(météorologie, océanographie, étude des fleuves et des crues, climatologie). ?Ces systèmes de prévision utilisent desmodèles, ayant pour objectif de décrire mathématiquement le comportement de fluides géophysiques (océan, atmosphère). 4/ 48 Problématique générale - Erreur de modèle La réalité du système physique étudié n"est pas toujours décrite exactement par le modèle mathématique, etla prévision est entâchée d"une incertitude. ?En effet, le modèle est le fruit des approximations suivantes: ?simplifications physiques: négligence de l"effet de certaines forces; ?approximations numériques: erreur de discrétisation; ?estimation des paramètres du modèle, qui ne sont en généralpas connus exactement. ?Dans cette thèse, nous nous centrons sur l"incertitudeliée au troisième type d"approximation. 5/ 48

Problématique - Notion de sensibilité

Nous souhaitons quantifier l"impact de l"incertitude attachée aux paramètres du modèle sur l"état du système prédit par le modèle (ou sur la ou les quantités d"intérêt calculées en sortie). ?Plus particulièrement,nous souhaitons identifier les paramètres " sensibles ». ?L"indice de sensibilitéd"un paramètre quantifie l"importance de l"influence de son incertitude sur la sortie. Il s"agit de la part de la variabilité de la sortie expliquée par la variabilité du paramètre. 6/ 48 Problématique - Intérêt de l"analyse de sensibilité L"analyse de sensibilitéconsiste à calculer les indices de sensibilité pour chacun des paramètres d"entrée, ce qui permet declasserces derniers en fonction de leur influence sur la sortie.

?Les paramètres les plus influents sont ceux sur lesquelsl"incertitude doit être réduite - dans la mesure du possible-

en priorité afin d"apporter une réduction de l"incertitude sur la sortie la plus importante.

?À l"inverse, les paramètres les moins influents peuvent êtrefixés à une valeur nominale, ce qui permet de simplifier lemodèle.

7/ 48 Problématique - Quantification de l"erreur d"estimation On s"intéresse au calcul effectif des indices de sensibilité.

?Il existe plusieurs méthodes permettant de calculernumériquement des valeurs approchées de ces indices, à partir

d"un grand échantillon de la quantité d"intérêt, pour différentes valeurs des paramètres d"entrée. ?Lorsque ces calculs prennent un temps prohibitif, il devient nécessaire de remplacer le modèle original par une approximation, appeléemétamodèle, nécessitant moins de temps de calcul pour être résolu.

?Comment quantifier l"impact du remplacement du modèle parle métamodèle sur l"estimation des indices de sensibilité ?

Cette quantification peut faire appel à uneborne d"erreur, à spécifier, du métamodèle. 8/ 48

Partie 2:Analyse de sensibilité et

construction de métamodèles 2.a. Indices de sensibilité: définition, estimation, estimation de l"erreur ?2.b.Métamodèles: généralités, méthode base réduite, borne d"erreur 9/ 48 Quantification d"incertitude [Santner, Cacuci, Saltelli...]

Paramètres:

variables aléatoires X

1,...,Xp

de lois connues

0.0 0.5 1.0 1.5 2.0

0.0 0.2 0.4 0.6 0.8 1.0

x z

0.0 0.5 1.0 1.5 2.0

0.0 0.2 0.4 0.6 0.8 1.0

x y

Sortie du modèle:

variable aléatoire Y de loi inconnue a priori -10 -5 0 5 10

0.00 0.05 0.10 0.15 0.20 0.25 0.30

density.default(x = z, width = 1)

N = 160000 Bandwidth = 0.25

Density

code de calcul E(Y): sortie moyennée sur les valeurs possibles des paramètres, pondérées par leur proba. ?Var(Y): dispersion de la sortie autour de cette moyenne lorsqueX1,...,Xpvarient

10/ 48

Analyse de sensibilité globale [op.cit.]

Hypothèses:

Yscalaire;X1,...,Xpindépendants.

?Quelle est la contribution dechaqueparamètre à l"incertitude sur la sortie ? Espérance conditionnelleE(Y|Xi): variable aléatoire: ?ne dépendant que deXi ?donnant, àXifixé, la moyenne deYsur lesXj(j?=i) ?meilleure approximation deYne dépendant que deXi. ?Sa varianceVar(E(Y|Xi))est un réel quantifiant la dispersion de (la meilleure approx. de)Ylorsque seulXivarie. ?En renormalisant, on obtientl"indice de sensibilité (de Sobol) deXi: c"est la part de variance deY"expliquée» par l"incertitude surXi. → Calcul numérique deSi?

11/ 48

Estimation deSi[Sobol, Saltelli]

On noteY=f(X)oùX= (X1,...,Xp).

?On peut écrire: S i=Cov(Y,Y?) VarY, pourY?=f(X?1,...,X?i-1,Xi,X?i+1,...,X?p), où X ?= (X?1,...,X?p)est une copie indépendante deX. ?Soit{Xk}k=1,...,Net{X?k}k=1,...,N: deux échantillons iid de la loi deX. ?On estimeSipar Monte-Carlo: Si=1 N? N k=1yky?k-?1N? N k=1yk??1N? N k=1y?k? 1 N? N k=1(yk)2-?1N? N k=1yk? 2 ??Siconverge p.s. versSiquandN→+∞. → Quantification de l"erreur|Si-?Si|?

Le calcul de?Sinécessite 2Névaluations def.

→ Comment réduire le temps nécessaire à chaque évaluation ?12/ 48 Quantification de l"erreur Monte-CarloApproche "standard" ?Si=?Si(E)oùE=? {Xk},{X?k}? désigne le couple d"échantillons de la loi deXchoisis aléatoirement. ?Pour quantifier l"erreur entre?SietSi, on évalue?Si(E)pour plusieurs échantillons indépendantsE(1),...,E(R). ?On obtient ainsi un ensemble de réplications

R={?S(1)

i,...,?S(R) i}de?Si. Si xx x xxxx x xx x[ ] quantiles x:?S(1) i,...,?S(R) i On en déduit unintervalle de confiance (approché)de niveau désiré.

13/ 48

Quantification de l"erreur Monte-CarloApproche bootstrap Problème:le calcul desRréplications de?Sinécessite 2N×R

évaluations de la fonctionf.

?Dans l"approche bootstrap: ?on tire un couple d"échantillons:

E=?{Xk}k=1,...,N,{X?k}k=1,...,N?

?pourr=1,...,R, on calcule larèmeréplication?S(r) isur le couple derééchantillons bootstrap: E (r)=?{Xk} k?Lr,{X?k}k?Lr? oùLrest unelistetirée avec remise dans{1,...,N}; ?l"ensemble de réplications est alors utilisé commeprécédemment. ?Le calcul desRréplications peut s"effectuer à partir des 2N

évaluations defsur les points contenus dansE.

?Le bootstrap est une approximation de l"approche précédente.

14/ 48

Partie 2:Analyse de sensibilité et

construction de métamodèles 2.a. Indices de sensibilité: définition, estimation, estimation de l"erreur ?2.b.Métamodèles: généralités, méthode base réduite, borne d"erreur

15/ 48

Métamodèles

Accélèrentle calcul de la variable d"étatupourK?1 valeurs du paramètre. ?LesKappels au code classique sont remplacés par deux phases:

Phaseoffline:coûteuse, faite une seule fois.

Collecte d" " informations » sur l"ensemble{u(X);X? X}dans lequel " vit » la variable d"état.

Phaseonline:peu coûteuse, faiteKfois.

Pour chaque valeur du paramètre, on utilise les données de la phase offline pour accélérer la résolution approchée de l"EDP. ?Intéressant si:

16/ 48

Métamodèles non intrusifs/intrusifs

Métamodèles non intrusifs:on dispose seulement d"un ?±Interpolation ou régression: ?Krigeage / interpolation par RKHS [Santner, Kleijnen,Schaback]. ?Décomposition en polynômes de chaos non intrusifs[Sudret-Blatman]. ?Métamodèles intrusifs:on travaille sur l"équation satisfaite par la variable d"état. ?Métamodèles par bases réduites [Maday-Patera], polynômesde chaos [Ghanem et al.]. ?Inconvénient:on doit connaître et pouvoir traiter cette

équation.

?Avantage:on peut espérer être plus performant. ?Dans la suite on considère la méthode base réduite.

17/ 48

Métamodèle base réduite: réduction de dimension

Code classique (éléments fi-

nis):uest cherché dans un espace de grande dimension, non adaptéspécifiquement au problème. u(X) =N-1? i=1ui(X)φi inconnues

Métamodèle:?uest cherché

dans un espace de dimension plus petite ,adaptéau prob- lème. ?u(X) =n? inconnues

à déterminer

(POD [Sirovitch],

PGD [Nouy],

Greedy [Patera,

Maday, Prud"homme])

Typiquement, en 1D:N ?100,n?10.18/ 48

Borne d"erreur

On peut avoir une borne majorant l"erreur entreu(X)et?u(X). ?Bornecalculable explicitement, via une procédure offline/online efficace. ?Se traduit en une borne?(X)sur l"erreur de la sortie réduite ?Y:???Y(X)-?Y(X)??? ?Une telle borne d"erreurnepeutpass"obtenir à partir de méthodes non intrusives.

19/ 48

Partie 3:Résumé des contributions

3.a. Métamodèle base réduite pour l"équation de Burgers ?3.b.Estimation d"erreur sortie-dépendante pour la méthode base réduite ?3.c.Intervalles de confiance combinés pour l"estimation des indices de Sobol sur métamodèle ?3.d.Propriétés asymptotiques de l"estimation d"indices de

Sobol par Monte-Carlo

20/ 48

Modèle

Modèle donné par l"équation de Burgersavec viscosité: on chercheufonction det?[0;T]et dex?[0;1]telle que: ?∂u u(t=0,x) =u0(x)?x?[0;1] u(t,x=0) =b0(t) u(t,x=1) =b1(t) ?Paramétrisation de la condition initiale, du terme source etdes conditions de bord: b

0(t) =b0m+n(b0)?

l=1A b0 lsin(ωb0 lt)b1(t) =b1m+n(b1)? l=1A b1 lsin(ωb1 lt)

ψ(t,x) =fm+n

T(f)? l=1n S(f)? p=1A f lpsin(ωfT lt)sin(ωfSpx)u0(x) =u0m+n(u0)? l=1A u0 lsin(ωu0 lx)

21/ 48

Schéma de résolution

Discrétisation en temps:

schéma d"Euler implicite: (Id-ΔtF)(un+1d) =und Δt: pas de temps;u1d,...,uTd: solutions approchées à chaque instant discret,F: opérateur différentiel non linéaire. ?Discrétisation en espace:Fest discrétisé (en un opérateur non linéaire) grâce à une formulation éléments finisP1 (Lagrange) et un traitement de la condition de bord par pénalisation. Ainsi les solutions discrètesu1,...,uTsatisfont l"équation non linéaire: (Id-ΔtF)(un+1) =un. ?Cette équation non linéaire est résolue grâce à uneitération de Newton , qui la transforme en une succession de systèmes d"équations linéaires à résoudre.

?C"est la résolution de ces systèmes linéaires qui estaccélérée à l"aide de la méthode base réduite, pourobtenir?u1,...,?uT.

22/ 48

Borne d"erreur

On noteu1e,...,uTela solution de la récurrence non-linéaire: (Id-ΔtFe)(un+1) =un oùFeest l"opérateurFdiscrétisé à l"aide d"éléments finisP1 etimposition forte de la condition de bord. ?Théorème:PourΔt<Δt?, on a: où ??·?est la normeL2(0,1); ?Best une fonction connue; ?Qsont des quantités connues; ?rkest la forme résidu; ??·?0est la norme duale deH10(0,1).

23/ 48

Borne d"erreur

Etapes de preuve:

?estimation d"erreur en normeénergie; ?passage à la normeL2(0,1)(constantes inf-sup); ?récurrence en temps par estimation de stabilité du schémad"Euler.

24/ 48

Notre contribution

Nous proposons unenouvelle borne d"erreur, reposant sur des majorations plus fines que celles existantes dans la littérature [Veroy-Prud"homme-Patera, Nguyen et al., Jung et al.]. ?Paramétrisation de la condition de bord en utilisant uneforme faible pénalisée , ce qui diminue la complexité des phases offline et online.

25/ 48

Exemple de résultat obtenu [AJ et al., M2AN, 2012] Bornes d"erreur relatives moyennes sur un échantillon de paramètres, en fonction de la taille de la base réduite, pour différentes méthodes de choix de base réduite (échelle log.): 1e-05

0.0001

0.001 0.01 0.1 1

2 4 6 8 10 12 14 16

Mean relative error bound (Greedy)

Mean relative error bound (POD)Mean relative error bound (POD-Greedy)

26/ 48

Exemple de résultat obtenu [op.cit.]

Erreurs/bornes d"erreurs relatives en fonction du temps (échelle log.): 1e-05

0.0001

0.001 0.01 0.1 1

0 0.5 1 1.5 2

tL2 error bound (relative)

L2 reference bound (relative)

L2 actual error (relative)

Points: vraie erreur; plein: borne erreur; pointillés: borne de référence dans la litt.

27/ 48

Partie 3:Résumé des contributions

3.a. Métamodèle base réduite pour l"équation de Burgers ?3.b.Estimation d"erreur sortie-dépendante pour la méthode base réduite ?3.c.Intervalles de confiance combinés pour l"estimation des indices de Sobol sur métamodèle ?3.d.Propriétés asymptotiques de l"estimation d"indices de

Sobol par Monte-Carlo

28/ 48

Estimation d"erreur sur la sortie

Rappel du contexte:

?u: variable d"état, solution numérique d"une EDP (supposée linéaire); ??u: solution de l"EDP obtenue par base réduite; ?La méthode base réduite donne une borne d"erreur?telle que ?Quantité d"intérêt: ?sur le modèle initial:f=?(u)(?: forme linéaire); ?sur le métamodèle:?f=?(?u). ?Borne d"erreursur la quantité d"intérêt: f-?f??? oùL: constante de Lipschitz de?. ?Peut-on faire mieux que cette borne sur??? f-?f???

29/ 48

Estimation d"erreur sur la sortie

La borne Lipschitz est optimale parmi les bornes dépendant de ?≥ ?u-?u?. ?Méthode existante (basée sur le problème dual): nécessite dequotesdbs_dbs1.pdfusesText_1
[PDF] indice de un libro infantil

[PDF] indice de un proyecto de inversion

[PDF] indice de un proyecto definicion

[PDF] indice de un proyecto empresarial

[PDF] indice de un proyecto en word

[PDF] indice de un proyecto productivo

[PDF] indice de vente marketing

[PDF] indice des prix ? la consommation base 1996

[PDF] indice des prix ? la consommation belgique

[PDF] indice des prix ? la consommation janvier 2015

[PDF] indice des prix ? la consommation janvier 2016

[PDF] indice des prix ? la consommation janvier 2017

[PDF] indice maths 1ere es corrigé

[PDF] indices insee

[PDF] indiquer les références ? rappeler dans le courrier ? vous expédier