[PDF] [PDF] Traitement statistique des processus alpha-stable





Previous PDF Next PDF



Ch. 5 : Echantillonnage estimation

Calculer p(X = 24) en l'approximant par p(23.5 ? Y ? 24.5) o`u Y suit une loi normale de mêmes espérance et écart-type que X. 3. Page 4. 3 Estimation. On 



Traitement statistique des processus alpha-stable

Définition 3 Un estimateur du paramètre inconnu ? est une statistique ?? dont Exercice 21 : Test de l'espérance d'une loi normale d'écart-type inconnu.



La loi normale

Lorsque l'on suppose qu'une variable X suit le mod`ele de la loi normale Exemples de lois normales avec moyennes différentes même écart-type :.



B2 - Intervalle de confiance dune moyenne avec écart-type inconnu

`A partir de ce résultat on construit un intervalle de confiance aléatoire au seuil ? comme précédemment : On détermine t? `a partir de la loi normale centrée 



Comparaison des moyennes de deux populations normales décarts

P1 de moyenne m1 et d'écart-type 0'1 inconnus ; m2se fera donc aisément en utilisant la table de Ici loi normale pour la variable t --.



ESTIMATION DE PARAMÈTRES

Dans le cas d'un caractère quantitatif la moyenne m et l'écart-type ?pop d'une on considère que la variable aléatoire X suit une loi normale :.



Cours de Statistiques inférentielles

Son écart-type ?X est la racine positive de la variance. 1.2 Lois usuelles. 1.2.1 Loi normale ou loi de Gauss. Une variable aléatoire réelle X suit 



Estimations et intervalles de confiance

valeur inconnue du paramètre. Dans la suite nous nous intéresserons donc à deux types d'estimations : – soit une estimation donnée par valeur scalaire issue 



LOI NORMALE

- L'écart-type noté ?



CORRIGE DES EXERCICES : Estimation ponctuelle et estimation

X suit approximativement une loi normale temps ? inconnu est estimé par l'écart-type observé sans biais s*=23 mn. L'intervalle de confiance au niveau ...



[PDF] La loi normale

Pour chaque µ ? il existe une loi normale de moyenne µ et d'écart-type ? Exemples de lois normales avec moyennes différentes même écart-type :



[PDF] loi normale - Lycée Les Iscles

La variable aléatoire X suit une loi normale de moyenne m et d'écart type ? ( on note : X ? N(m;?) ) signifie que : L'ensemble des valeurs possibles de X 



[PDF] LOI NORMALE - maths et tiques

Pour une loi normale centrée réduite l'espérance est égale à 0 et l'écart-type est égal à 1 III Probabilité sur une loi normale



[PDF] 7 Loi normale ou loi de Laplace-Gauss - EM consulte

22 jui 2010 · Une variable suivant la loi normale centrée réduite est notée Z Si X est de moyenne ? et d'écart type ? suit une loi normale centrée réduite



[PDF] Loi normale - Probabilité

suppose que la variable aléatoire X suit la loi normale d'espérance 15 et d'écart-type ? inconnu Une valeur approchée au millième de ? pour que la 



[PDF] Statistiques

Son écart-type est ?X = ?Var(X) 1 2 1 Lois de v a finies déj`a connues Loi de Bernoulli de param`etre p notée b( 



[PDF] Traitement statistique des processus alpha-stable

Exercice 6 : Intervalle de confiance de l'espérance m d'une loi normale d'écart-type inconnu Un fabricant de piles électriques affirme que la durée de vie 



[PDF] Cours de Statistiques inférentielles

Son écart-type ?X est la racine positive de la variance 1 2 Lois usuelles 1 2 1 Loi normale ou loi de Gauss Une variable aléatoire réelle X suit une loi 



[PDF] B2 - Intervalle de confiance dune moyenne avec écart-type inconnu

`A partir de ce résultat on construit un intervalle de confiance aléatoire au seuil ? comme précédemment : On détermine t? `a partir de la loi normale centrée 



[PDF] Rappels sur les propriétés de la loi Normale - opsuniv-batna2dz

#Si la variance est inconnue un grand échantillon permet de déduire une valeur fiable pour la loi normale de même espérance et de même écart#type

  • Comment trouver l écart-type d'une loi normale ?

    On commence par standardiser la loi normale. On rappelle que si �� ? �� ? �� ; �� ? ? , alors �� = �� ? �� �� est la variable normale centrée réduite �� ? �� ? 0 ; 1 ? ? . On a �� ? �� ( 6 3 ; 1 4 4 ) . On rappelle que l'écart-type est égal à la racine carrée positive de la variance, donc �� = ? 1 4 4 = 1 2 .
  • Comment trouver MU et Sigma ?

    Espérance et écart-type
    Si une v.a. suit une loi normale N ( ? ; ? 2 ) , alors l'espérance de vaut E ( X ) = ? et sa variance vaut ² V ( x ) = ? ² et son écart-type ² ? ( X ) = ? ² .
  • Comment savoir si on peut utiliser la loi normale ?

    Elle peut être utilisée dans un grand nombre de situations, c'est ce qui la rend si utile. Lorsqu'un phénomène est influencé par de nombreux facteurs dont aucun n'est prépondérant les résultats des mesures de ce phénomène obéissent à une loi normale.
  • Pour une loi normale centrée réduite, l'espérance est égale à 0 et l'écart-type est égal à 1.
[PDF] Traitement statistique des processus alpha-stable

Probabilités et Statistique

Cours - TD

ENSICA 2

èmeannée

2005/2006

Introduction

La théorie des probabilités procède selon une méthode qui s"apparente à la démarche dé-

ductive. Connaissant la loi d"une variable ou d"un vecteur aléatoire, on sait calculer les valeurs

exactes des paramètres qui la caractérisent, comme l"espérance ou la variance, et déterminer

les lois de nouvelles variables ou vecteurs aléatoires fonction de la variable ou des vecteurs aléatoires donnés ainsi que les limites de suites de variables et de vecteurs aléatoires.

La théorie statistique procède selon une démarche radicalement différente qui s"apparente

à l"induction et qui consiste à exploiter des données d"une ou plusieurs variables décrivant

plusieurs populations qui ont une existence réelle dans lesdomaines économiques, industriel, médical ou autre, dans le but de prendre des décisions du type: choix d"une hypothèse parmi plusieurs possibles, comparaison de paramètres, etc.

Par exemple, étant données plusieurs populations décritespar des variables aléatoires nu-

mériques dont les paramètres (espérance, variance,...) sont inconnus, il pourra s"agir d"estimer

d"abord ces paramètres à l"aide des seules informations contenus dans de petits échantillons

extraits de ces populations, puis de tester les hypothèses d"égalité ou d"inégalité de ces para-

mètres. 1

Table des matières1 Estimation statistique4

1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4

2 Estimation ponctuelle d"un paramètre . . . . . . . . . . . . . . . . .. . . . . . . 4

2.1 Modèle statistique inférentiel . . . . . . . . . . . . . . . . . . . .. . . . . . . 4

2.2 Qualités d"un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 5

2.3 Méthodes d"estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 9

2.3.1 Résultats généraux pour un échantillon . . . . . . . . . . . .. . . . . 9

2.3.2 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . .. 9

2.4 Notion de statistique exhaustive . . . . . . . . . . . . . . . . . . .. . . . . . 12

3 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . .. . . . . . . . 13

3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3.2 Estimation d"une moyenne théorique . . . . . . . . . . . . . . . . .. . . . . 14

3.2.1 Construction de l"intervalle de confiance de la moyenne inconnuem

d"une population gaussienneN(m,σ2)oùσ2est connue . . . . . . . . 14

3.2.2 Construction de l"intervalle de confiance d"une moyennemd"une po-

pulation gaussienneN(m,σ2)oùσ2est inconnue . . . . . . . . . . . 16

3.2.3 Cas de grands échantillons (n >30) . . . . . . . . . . . . . . . . . . . 18

3.3 Estimation d"une proportionp. . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.3.1 Cas d"un échantillon de grande taille (n >30) . . . . . . . . . . . . . 18

3.3.2 Cas d"un échantillon de petite taillen. . . . . . . . . . . . . . . . . . 19

3.4 Estimation d"un paramètre d"une population quelconque, dans le cas de

grands échantillons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.4.1 Intervalle de confiance obtenu par convergence en loi de l"E.M.V. . . . 20

3.4.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Tests d"hypothèse22

1 Principes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 22

1.1 Exemple introductif : le "test binomial" . . . . . . . . . . . . .. . . . . . . . 22

1.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.3 Test d"une hypothèse simple contre une hypothèse simple. . . . . . . . . . . 26

1.4 Test d"une hypothèse simple contre une hypothèse composite . . . . . . . . . 30

1.5 Test d"une hypothèse composite contre une hypothèse composite . . . . . . . 34

2 Tests pour échantillons gaussiens . . . . . . . . . . . . . . . . . . . .. . . . . . . 35

2.1 Tests de comparaison d"un seul paramètre à une valeur ou un ensemble de

valeurs données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.2 Tests de comparaison de deux paramètres issus de populations distinctes . . 40

2

2.3 Test du chi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .44

3 Tests d"analyse de variance . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . 51

3.1 Cas d"un facteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .51

3.2 Cas de deux facteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .53

3 Régression à une variable56

1 Régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 56

1.1 Modèle linéaire standard . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 57

1.2 Modèle linéaire gaussien simple . . . . . . . . . . . . . . . . . . . .. . . . . 58

1.3 Tests sur les paramètresβ0etβ1. . . . . . . . . . . . . . . . . . . . . . . . . 62

1.4 Prédiction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

2 Régression non-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . 64

2.1 Modèle général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

2.2 Estimation des paramètres . . . . . . . . . . . . . . . . . . . . . . . . .. . . 65

2.2.1 Modèle à variance constante (pour touti,Var(εi) =σ2) . . . . . . . . 65

2.2.2 Modèle à variance:σ2i=ωi·σ2. . . . . . . . . . . . . . . . . . . . . . 66

2.3 Détermination des intervalles de confiance sous les hypothèses de normalité

et d"équivariance résiduelle (dite aussi homoscédasticité) . . . . . . . . . . . 67

2.3.1 Méthode d"approximation linéaire . . . . . . . . . . . . . . . .. . . . 67

2.3.2 Méthode des isocontours . . . . . . . . . . . . . . . . . . . . . . . . .67

2.4 Tests d"hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 68

2.4.1 Test du rapport de vraisemblance . . . . . . . . . . . . . . . . . .. . 68

3

Chapitre 1Estimation statistique1 Introduction

La procédure d"estimation s"articule selon le schéma suivant :

Etant donnée unePOPULATION

de tailleN, décrite par la v.a.X de loi de probabilité connue, dépendant du paramètreθinconnu.

Onextrait un ECHANTILLON

formé denobservations indépendantes(X1=x1,...,Xn=xn) de la variableX

OnESTIME

θà l"aide d"une v.a.

?θ=T(X1,...,Xn) L"indépendance n"est rigoureusement acquise que s"il y a tirage avec remise; toutefois si la population est très grande (plusieurs milliers au moins)on peut faire l"économie de cette hypothèse. T(X1,..,Xn)est une v.a. fonction de l"échantillon(X1,..,Xn), ditestatistique, construite pour

représenter de façon optimale l"information sur un paramètre inconnu, contenue dans l"échan-

tillon.

ExempleEstimation d"une moyenne

Pour estimer la durée de vie moyennemd"une ampoule électrique, on prélève au hasard un

échantillon de30ampoules. On réalise une expérience pour observer les durées de vie de ces

ampoules. Quelle estimation dempeut-on proposer?

2 Estimation ponctuelle d"un paramètre

2.1 Modèle statistique inférentiel

Soit(x1,...,xn)une observation (ou une réalisation) du vecteur aléatoireX= (X1,...,Xn); (x1,x2,...,xn)est dit aussi unéchantillon de données.

Définition 1Construire unmodèle statistiquerevient à définir sur l"espace probabiliséIRn,

muni de la tribu des boréliensB(IRn)une probabilitéPθ, oùθest un paramètre ou un vecteur

de paramètres inconnu. 4 La probabilitéPsera définie, selon l"un des deux cas, par : ?la loi conjointePθ(X1=x1,...,Xn=xn)dans le cas de v.a. discrètes, ou la densité conjointefX;θ(x1,...,xn)dans le cas de v.a. continues. Définition 2UnestatistiqueTest une application de l"espace(IR,B(IR),Pθ)nà valeurs dansIR.

T: IRn-→IR

(x1,x2,...,xn)?-→T(x1,x2,...,xn) =t . La quantitétest une observation de la v.a.T(X1,X2,...,Xn).

Par exemple, les statistiques usuelles sont :

- la moyenne empirique X=1n? n i=1Xi, - la variance empiriqueS2n-1=1 n-1? n i=1?Xi-X?2, Exemple 1La v.a.Tn=?ni=1Xi(somme desXiindépendants) a pour loi de probabilité une loi normaleN(nμ,nσ2)si la structure est(IR,B(IR),N(μ,σ2))n.

2.2 Qualités d"un estimateur

Définition 3Unestimateurdu paramètre inconnuθest une statistique?θdont la valeur observée est une approximation deθ. NotationOn note souvent?θn=?θ(X1,X2,...,Xn)la v.a. correspondant à l"estimateurT.

La qualité d"un estimateurTdu paramètreθsera évaluée grâce aux propriétés suivantes.

Définition 4UnestimateurTest sans biaissiIE(T) =θ.

Exemple 2 La statistique

X=1n? n i=1Xiest un estimateur sans biais de la moyenne théoriquem= IE(Xi).

Solution :Calculons l"espérance de

X. IE

X?= IE?

1nn i=1X i? 1nn i=1IE(Xi) =m

La statistiqueS2n-1=1

n-1? n i=1?Xi-X?2est un estimateur sans biais deσ2=

Var(Xi).

5 Solution :Calculons l"espérance deS2n-1. On a : IE ?S2n-1?= IE? 1 n-1n i=1?

Xi-X?2?

1n-1n i=1IE??Xi-X?2? 1 n-1n i=1IE??(Xi-m) +?m-X??2? 1 n-1n i=1IE? (Xi-m)2+?m-X?2+ 2(Xi-m)?m-X?? 1 n-1n i=1?

IE?(Xi-m)2?+ IE??m-X?2?

+ 2IE?(Xi-m)?m-X??? 1 n-1n i=1?

Var(Xi-m) + Var?m-X?-2IE?(Xi-m)?X-m???

1 n-1n i=1?

Var(Xi) + Var?X?-21nn

j=1IE((Xi-m)(Xj-m))? IE ?S2n-1?=1 n-1n i=1?

2+σ2n-21nIE?(Xi-m)2??

1 n-1n i=1?

2+σ2n-2nσ2?

=1n-1n i=1? n-1nσ2? =σ2.

On démontre que :V(S2n-1) =1

n(μ4-n-3n-1σ4)oùμ4est le moment centré d"ordre quatre deX (μ4=E((X-¯X)4). Définition 5Un estimateurTestbiaisési le biaisIE(T)?=θ. Définition 6Un estimateurTestasymptotiquement sans biaissilimn→+∞IE(T) =θ. Définition 7Soient deux estimateursT1etT2sans biais deθ. On dit queT1estmeilleur queT2si on a :Var(T1)0,limn→+∞P(|T-θ|< ?) = 1. Théorème 1Tout estimateur sans biais ou asymptotiquement sans biais tel que lim n→+∞Var(T) = 0est convergent en probabilité versθ. PreuveUtiliser l"implication|T-IE(T)|Tchebicheff :?? >0,P(|T-IE(T)|< ε)?Var(T) ?2. 6 Théorème 2Sous les hypothèses de régularité suivantes : H

1:Le support de la densitéD={x/f(x;θ)>0}est indépendant deθ;

H

2:θvarie dans un intervalle ouvert I;

H

3:?θ?I,?x?D,∂

∂θf(x;θ)et∂2∂θ2f(x;θ)existent et sont intégrables par rapport àx; H

4:pour toutθ?I, pour toutA? B(IR),?

A f(x;θ)dxest deux fois dérivable par rapport àθ; H

5:∂

∂θlnf(X;θ)est une v.a. de carré intégrable d"un estimateur sans biais. HS : On détermine la borne de Cramer-Rao,Vn(θ), définie par : V n(θ) =1 où-IE?∂2logf(X1,...,Xn;θ) ∂θ2? est l"information de Fisher et dans le cas particulier d"un échantillonX1,...,Xnde v.a indépendantes de même loi : V n(θ) =1 -nIE?∂2logf(X;θ)∂θ2? oùf(X;θ)désigne la densité siXest continue ouP(X=x)siXest discrète.

Quel que soit l"estimateur sans biais

?θdeθ, la borneVn(θ)deCramer-RaominoreVar??θ?

Var??θ?

?Vn(θ). Définition 9Un estimateurTnsans biais deθest ditefficacesi sa variance atteint la borne de Cramer-Rao. Remarque 1: De plusieurs estimateurs sans biais, le meilleur est celuiqui a la plus petite variance. Attention! Il est possible qu"il n"existe pas d"estimateur efficace. Exercice 1 : Estimation de la borne d"un support borné de variable aléatoire

On considèreTla variable aléatoire : "durée d"attente à un feu rouge». La durée du feu

rouge est égale àθ, paramètre inconnu strictement positif.

On observe un échantillont1,t2,...,tnde taillen, oùtidésigne la durée d"attente observée pour

leièmeindividu. On fait l"hypothèse que les variables aléatoiresT1,T2,...,Tnsont indépendantes

et de même loi uniforme sur[0;θ], notéeU[0;θ]. 7

1)Représenter le graphe de la densité de la loiU[0;θ]et préciser ses paramètres de moyenne

et de variance.

2)Soit la statistique

T=1n? n i=1Ti. CalculerIE?T?etVar?T?.

Montrer que la statistique

?θ1= 2 Test un estimateur sans biais deθet convergent en probabilité.

3)Soit la statistiqueYn= sup

iTi. a)En utilisant l"équivalence des événements(Yn< y)et(?i= 1,...,n Ti< y), calculer la fonction de répartition deYn. En déduire sa densité, calculerIE(Yn),Var(Yn)et tracer le graphe de la densité pourn= 3, puis pourn= 30. Comparer les graphes et interpréter les. b)Montrer que la statistique?θ2=n+1 nYnest un estimateur sans biais deθet convergent en probabilité.

4)Comparer les variancesVar??θ1?

etVar??θ2? . Lequel des deux estimateurs?θ1et?θ2choisiriez- vous pour estimerθ? Calculer la borne de Cramer-Rao et conclure. Application :pourn= 10, on a(t1,...,t10) = (28;33;42;15;20;27;18;40;16;25).Quelle est l"estimation de la durée du feu rouge?

Exercice 2 : Estimateur sans biais deσ

(Extrait de l"ouvrage de B.Garel. Modélisation probabiliste et statistique). SoientX1,...,Xndes v.a. indépendantes de même loiN(m;σ2).On observeYi=|Xi-m|,i=

1,...,n.

1)Montrer que?i, Yiadmet la densitégsur IR+définie par :

y?-→g(y) =2 ⎷2πσe-y2

2σ21lIR+(y).

En déduire que IE(Yi) =σ?

2 Remarquons queIE(|Xi-m|)est un indice de dispersion qui joue un rôle analogue mais non équivalent à la variance.

2)On cherche un estimateur sans biais deσde la forme?σ=n?

i=1a iYi.En calculant l"espérance de?σ,trouver une contrainte linéaire sur lesai.

3)Sous cette contrainte, montrer quen?

i=1a2iest minimale si et seulement si lesaisont tous

égaux.

4)On note alors?σnl"estimateur deσassocié à ce dernier cas : lesaisont tous égaux. Calculer

V(?σn).

5)Calculer la borne inférieure de Cramer-Rao pour un estimateur sans biais deσ.L"estimateur

?σnest-il efficace? 8

2.3 Méthodes d"estimation

Il existe plusieurs méthodes pour construire un estimateur: la méthode des moindres carrés (théorie de la régression), la méthode des moments et la méthode du maximum de vraisem- blance, qui est la méthode de référence présentée ci-dessous.

2.3.1 Résultats généraux pour un échantillon

Théorème 3Dans le cas d"un échantillon(X1,X2,...,Xn)extrait d"une population de moyenneμet de varianceσ2, inconnues, les propriétés suivantes sont vérifiées : - La statistique X=1nn i=1X iest un estimateur sans biais et convergent en probabilité de la moyenneμ. - La statistiqueS2n-1=1 n-1n i=1?

Xi-X?2est un estimateur sans biais et convergent

en probabilité de la varianceσ2. PreuveOn a démontré (exemples 2) queIE?X?=μ, queIE?S2n-1?=σ2et Var

X?=1n2n

i=1V(Xi) =nσ2n2=σ2n Par un calcul analogue, mais plus long, on établit que : Var ?S2n-1?=n (n-1)2?

4-σ4-2(μ4-2σ4)n+μ4-3σ4n2?

qui converge vers 0 quandn→+∞oùμ4= IE(Xi-μ)4(moment centré d"ordre 4 deXi). Rappelons le théorème de Fisher, utile à la théorie des tests. Théorème 4Si l"échantillon(X1,...,Xn)est formé de v.a. de même loi normale, les esti- mateurs

XetS2n-1sont indépendantes.

2.3.2 Méthode du maximum de vraisemblance

On se donne une population décrite par une v.a.Xde loi connue, fonction d"un paramètre inconnuθ. Définition 10On appellefonction de vraisemblanceouvraisemblancedes v.a.X1,...,Xn, 9 la fonctionltelle que : l:IRn×Θ-→IR+ (x ;θ)densité conjointe deX1,...,Xn, dans le cas à densité ou P

θ(X1=x1,...,Xn=xn),

dans le cas de v.a. discrètes. oùx = (x1,x2,...xn). Remarque 2Si les v.a.X1,...,Xnsont indépendantes et identiquement distribuées (iid), on a : l(x i=1f(xi;θ)dans le cas à densité ou n i=1IP

θ[Xi=xi]dans le cas discret.

Exemple 3Soit l"échantillon(X1,...,Xn)où chaqueXiest de loi normaleN(μ,σ2). La fonction de vraisemblance s"écrit alors : ?(x1,...,xn), l(x ;θ) =n? i=1f(i)

θ(xi)

n? i=11 ⎷2πσexp? 12? xi-θσ? 2? ?1 ⎷2π? n (n? i=1σ -1) exp? 12n i=1? xi-θσ? 2? Définition 11On appelleestimateur du maximum de vraisemblance(noté e.m.v.), la statistique ?θdéfinie par?θ=?θ(x1,x2,...,xn)et associée à la valeur deθqui rendmaximumquotesdbs_dbs28.pdfusesText_34
[PDF] statistique excel

[PDF] formule de calcul excel pourcentage d'évolution

[PDF] graphique excel

[PDF] formule excel pourcentage d'augmentation

[PDF] calcul taux de croissance excel

[PDF] calcul pourcentage excel 2010

[PDF] calculer écart entre deux valeurs excel

[PDF] calcul cp fumées

[PDF] combustion stoechiométrique

[PDF] calculatrice ti 82 puissance de 10

[PDF] comment faire les puissances sur une calculatrice texas

[PDF] comment faire puissance sur calculatrice ti 82

[PDF] ecriture scientifique calculatrice casio

[PDF] touche puissance sur calculatrice iphone

[PDF] comment faire les puissances sur une calculatrice casio fx-92