[PDF] Processus de Poisson



Previous PDF Next PDF







Processus de Poisson - Université Grenoble Alpes

Processus de Poisson Leçons : 263, 264 Soit (,F,P) un espace probabilisé Définition 1 Un processus de comptage est une suite de variables aléatoires réelles (N(t))t¾0 telles que 1 N(0) = 0 2 8t ¾ 0,N(t) 2N 3 t 7N(t) est croissante Du point de vue de la modélisation, 80 ¶ a ¶ b, N(b) N(a) représente le nombre de



Processus de Poisson - univ-tlemcendz

3 Processus de Poisson : 3 1 Première définition : Un processus de Poisson avec intensité ???? est un processus de renouvellement dont les durées de vie suivent une loi ℇ???? L’appellation processus de Poisson est justifiée par le théorème suivant : 3 2 Théorème : Si ( ; ≥0) est un processus de renouvellement avec



Processus de Poisson

Introduction Il existe plusieurs types de processus de Poisson Dans ce mémoire, ce sont les processus "temporels" qui seront abordés, mais il existe également des processus de Poisson dans le plan



Processus ponctuel de Poisson - École Polytechnique

Th´eor`eme 1 2 Sous les conditions pr´ec´edentes, le processus de pointage (T n) n d´efini par la r´eunion de {T1 n; n ≥ 1} et {T2 n; n ≥ 1} est un processus de pointage associ´e a un processus de Poisson de param`etre λ= λ 1 +λ 2 D´emonstration Il suffit de remarquer que le processus de comptage Nassoci´e au processus de



Processus de Poisson homogènes Application à des données

Un processus de comptage est dit à accroissements indépendants si les nombres de tops se produisant dans des intervalles de temps disjoints sont indépendants 1 2 Processus de Poisson homogènes - Première approche Définition 1 Un processus de comptage {N(t) ; t ≥ 0} est appelé processus de Poisson d’intensité λ > 0 si : a) N(0) = 0;



Processus de Poisson - Université libre de Bruxelles

2 Soient fN(t) jt2R+gun processus de Poisson de paramètre et fY n jn2Ngune chaîne de Markov de matrice P, indépendante de fN(t)g Notons T 0 = 0, et T 1;T 2; les instants successifs d'arrivées dans le processus de Poisson On dé nit le processus fZ(t) jt2R+gde la façon suivante : Z(t) = Y n 8t2[T n;T n+1[:



Processus de Poisson - IREM Clermont-Ferrand

Processus de Poisson D’après « Construction d’un modèle de Poisson » de Michel Henry Dans Autour de la modélisation en probabilités, Presses Universitaires Franc-Comtoises, 2001 Rappel des programmes de BTS « La loi de Poisson est introduite comme correspondant au nombre de réalisations observées, durant un intervalle



LE PROCESSUS DE POISSON - univ-rennes1fr

File d’attente M=M=1 et processus de Poisson Dans la cadre d’une file d’attente M=M=1, la loi des inter-arrivées est E( ), et celle des temps de service est E( ) Le processus d’arrivée des clients au serveur est donc un processus de Poisson simple de paramètre De plus, en régime stationnaire, le processus de sortie du système est



Porcessus de Poisson Exercices solutionnØs

modØliser cette situation à l™aide d™un processus de Poisson En e⁄et, si nous dØ–nissons un ØvØnement comme Øtant le versement de dividendes et, pour tout nombre rØel positif t, N (t) = le nombre de versements de dividendes durant l™intervalle de temps (0;t];



Processus markoviens de sauts - lpsmparis

On parle alors de processus de Markov standard On démontre que cette condition implique, pour tout couple (i,j), l’aspect C1 des fonctions p ij(t), c’est-à-dire de la matrice de transition P(t) Pour dériver la matrice P en t = 0, il suffit de dériver terme à terme ses coefficients p ij(t) en t = 0 C’est

[PDF] processus de prise de décision management

[PDF] processus de prise de décision pdf

[PDF] processus de réalisation d'un objet technique 6ème

[PDF] processus de réalisation d'un projet

[PDF] Processus de réalisation d’un objet technique

[PDF] processus de réalisation exemple

[PDF] processus de socialisation définition

[PDF] processus de socialisation durkheim

[PDF] processus de socialisation durkheim pdf

[PDF] processus de socialisation et construction des identités sociales dissertation

[PDF] processus de support

[PDF] processus de vente d'un produit

[PDF] processus du controle de gestion pdf

[PDF] processus et acteurs de la mondialisation composition

[PDF] Processus genocidaire nazi

Université de Liège

Faculté des Sciences

Institut de Mathématique

Processus de Poisson

Année académique 2006-2007Mémoire présenté parChristel Ruweten vue de l"obtention du grade de licenciée en

Sciences Mathématiques

Introduction

Il existe plusieurs types de processus de Poisson. Dans ce mémoire,ce sont les processus "temporels" qui seront abordés, mais il existe également des processus de Poisson dans le plan (comme la projection sur un plan de la répartition des étoiles dans le ciel) ou dans d"autres espaces. En langage non mathématique, un processus de Poisson dans le temps est le processus

qui est souvent le mieux adapté pour expliquer un processus "d"arrivées", ce dernier mot étant

pris au sens large. En effet, une arrivée peut être une panne se produisant sur une machine,

un coup de téléphone arrivant à un standard, un client accédant à un guichet, .... Comme

nous le verrons dans la suite, les processus de Poisson temporels sesubdivisent en plusieurs types. La première partie de ce travail reprend les aspects théoriques desdifférents processus de Poisson temporels. Après un premier chapitre ayant pour but d"asseoir les principes probabi-

listes et statistiques utiles tout au long de ce travail, le deuxième chapitre consiste à définir de

façon rigoureuse le plus connu et le plus simple d"entre eux, appelé ici processus de Poisson de

base, ainsi que d"en chercher les caractéristiques principales. Cette partie du travail était sans

doute la plus simple car beaucoup d"ouvrages traitent ce sujet en profondeur. Cependant, pour

adhérer encore plus à la réalité, il ne faut pas s"arrêter là et il faut étudier les généralisations

possibles de ce processus. On parle alors de processus de Poisson non-homogène ou de pro- cessus de Poisson composé. Le troisième chapitre est donc consacré au processus de Poisson

non-homogène permettant de modéliser des situations où l"intensitédes occurrences n"est pas

constante au cours du temps. Par un changement d"échelle, ce processus se ramène à un pro- cessus de Poisson de base. Le quatrième chapitre permet lui de leverl"hypothèse selon laquelle

deux arrivées ne peuvent se produire en même temps en considérant le processus de Poisson dit

composé. Il cache en fait un processus de Poisson de base. Leur lien avec le processus de base explique pourquoi ces deux processus ne sont souvent que cités dans la littérature. Comme le

but de ce mémoire était de comparer ces trois processus entre eux, il ne suffisait pas de donner

les relations les liant. La première difficulté a donc consisté à trouver des moyens pour adapter

les propriétés d"un processus de Poisson de base à ces généralisations. Dans certains cas, cela

n"a malheureusement pas été possible. Le cinquième chapitre aborde quant à lui le cas de la

superposition de plusieurs processus de Poisson et de l"amincissement d"un tel processus. Commence alors la seconde et dernière partie. Elle est consacrée à l"application sur des

exemples concrets de la théorie développée dans la première partie.Cette seconde partie a

été le point de départ de nouvelles embûches. La première est venue du fait que les processus

stochastiques en général, et donc les processus de Poisson, sontétudiés principalement par

des probabilistes qui se soucient parfois peu de la mise en pratique. Cela étant, dans les

références les plus populaires dans ce domaine, les méthodes de simulations et de tests sont

i ii

peu développées. Pour les besoins de cette partie, il a donc été nécessaire de trouver des

techniques statistiques utilisables dans le contexte et de les comparer afin de voir leur efficacité

respective. La seconde difficulté n"était pas inhérente au sujet des processus de Poisson mais il

était indispensable de l"aborder quand même. Il s"agit de la problématique liée à l"estimation

des paramètres lors d"un test d"ajustement de Kolmogorov-Smirnov. Par souci de clarté, ce point est abordé dans le premier chapitre avec les autres notions liées indirectement aux

processus de Poisson. Enfin, le dernier problème fut la recherche des données à analyser. Il est

habituellement considéré acquis que les arrivées à la poste sont poissoniennes. C"est un exemple

parmi tant d"autres qu"il serait intéressant d"analyser afin de contredire ou de confirmer ces a

priori bien connus. Les données utilisées sont des données réelles (non simulées) qu"il a fallu

récolter "à la main".

Tout au long de ce travail, l"utilisation d"un logiciel statistique a été nécessaire. C"est le

logiciel R qui a été choisi pour ses facilités de programmation. Je tiens tout d"abord à remercier toutes celles et ceux qui m"ont aidé dans la réalisation de ce mémoire, que ce soit en me permettant d"utiliser leurs données pour les analyses, en me procurant un endroit calme où travailler ou encore en me donnant de nombreux conseils.Des conseils, j"en ai reçu beaucoup de ma promotrice,

Madame Haesbroeck, que je remercie vivement. Ses

nombreuses suggestions et questions m"ont permis de mener à bien ce travail. Je la remercie également pour la découverte de cette théorie ainsi que pour sa disponibilité tout au long de l"année.Enfin, je remercie toute ma famille pour leur soutien au long de mes études, mes camarades pour les bons moments passés ensemble et Olivier pour sa patience et ses encouragements.

Table des matières1 Notions de base1

1.1 Fonctions génératrices et caractéristique . . . . . . . . . . . . . . .. . . . . . . 1

1.2 Quelques lois de distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . .6

1.3 Tests d"ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 14

1.4 Introduction aux processus stochastiques . . . . . . . . . . . . . . .. . . . . . . 16

2 Processus de Poisson de base19

2.1 Distribution des marges finies du processus . . . . . . . . . . . . . . . . .. . . 20

2.2 Définition alternative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.3 Temps d"inter-arrivées et temps d"occurrence . . . . . . . . . . . . .. . . . . . 26

2.4 Distributions tronquées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 34

3 Processus de Poisson non homogène35

3.1 Distribution des marges finies du processus . . . . . . . . . . . . . . . . .. . . 36

3.2 Temps d"inter-arrivées et temps d"occurrence . . . . . . . . . . . . .. . . . . . 43

3.3 Lien avec le processus de Poisson de base . . . . . . . . . . . . . . . . . . .. . 48

4 Processus de Poisson composé51

4.1 Distribution des marges finies du processus . . . . . . . . . . . . . . . . .. . . 51

4.2 Temps d"inter-arrivées et temps d"occurrence . . . . . . . . . . . . .. . . . . . 59

5 Autres processus de Poisson61

5.1 Amincissement d"un processus de Poisson . . . . . . . . . . . . . . . . . .. . . 61

5.2 Superposition de processus de Poisson . . . . . . . . . . . . . . . . . . .. . . . 67

6 Processus de Poisson en pratique73

6.1 Processus de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 73

6.1.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

6.1.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

6.1.3 Intervalle de confiance pour le paramètre d"intensitéν. . . . . . . . . . 75

6.1.4 Comparaison des intensités de deux processus de Poisson . . . .. . . . . 76

6.2 Processus de Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . .. . . 76

6.2.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

6.2.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6.3 Processus de Poisson non homogène . . . . . . . . . . . . . . . . . . . . .. . . 77

6.3.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6.3.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

iv

TABLE DES MATIÈRESv

6.3.3 Estimation de la fonction moyenne . . . . . . . . . . . . . . . . . . . . . 79

7 Applications84

7.1 Données provenant de la littérature . . . . . . . . . . . . . . . . . . . . .. . . . 84

7.2 Données observées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 87

A Logiciel R96

Bibliographie105

Chapitre 1Notions de base

Ce premier chapitre a pour but de présenter brièvement les différents concepts de base relatifs aux probabilités ainsi qu"aux processus stochastiques quiseront nécessaires dans la suite. Malgré que cela ne soit pas en lien direct avec le sujet de ce travail, une section est également consacrée aux tests d"ajustement. Pour les applications abordées dans le chapitre

7, il a été très utile d"étudier les tests qui sont le plus souvent employés mais aussi leurs

inconvénients afin d"essayer de les palier. Pour plus de précision ou d"information, il est conseillé

de consulter les ouvrages référenciés. En outre, il sera supposéque les fonctions de densité

abordées sont toujours bien définies et continues.

1.1 Fonctions génératrices et caractéristique

Ces fonctions sont très importantes car elles ont la particularité decaractériser complè-

tement la variable aléatoire à laquelle elles se rapportent. En d"autrestermes, connaître la

fonction génératrice ou la fonction caractéristique d"une variable aléatoire est équivalent à

connaître sa distribution. Commençons alors par la plus simple d"entreelles. Définition 1.1.SoitXune variable aléatoire discrète ne prenant que des valeurs entières positives ou nulles. Lafonction génératrice des probabilités de la variableXest la fonction G

X(t) =E[tX] =+∞?

n=0t nIP[X=n](1.1)

définie pour toutt?Rtel que l"espérance existe (c-à-d tel que la série soit absolument conver-

gente). Pourt?[-1,1], cette série converge absolument; la fonction génératrice des probabilités est donc au moins définie dans l"intervalle[-1,1]. Comme son nom l"indique, cette fonction permet de générer les probabilités de la variableX. Proposition 1.1.SoitXune variable aléatoire discrète ne prenant que des valeurs entières positives ou nulles. Pour toutk?N, on a

IP[X=k] =DktGX(t)|t=0

k!.(1.2)

La fonction génératrice des probabilités d"une variable aléatoire discrète à valeurs entières

positives ou nullesXcaractérise donc complètement cette dernière. 1

CHAPITRE 1. NOTIONS DE BASE2

Démonstration.Cela a un sens de calculer les dérivées en zéro car cette valeur appartient

à l"ensemble des points où la fonction est définie. Comme la série converge absolument sur

[-1,1]et que le terme général de cette série est dérivable sur cet intervalle, on peut1faire

porter la dérivée sur chacun des termes de la série. En évaluant en zéro les dérivées successives

de la fonction génératrice des probabilités, on obtient alors la loi de probabilité de la variable :

G

X(0) =IP[X= 0]

D tGX(t)|t=0=+∞? n=1nt n-1IP[X=n]|t=0=IP[X= 1] D ktGX(t)|t=0=+∞? n=kn(n-1)...(n-k+ 1)tn-kIP[X=n]|t=0=k!IP[X=k] pour toutk?N.

Or une variable aléatoire discrète est complètement définie par sa loi de probabilité.?

Cette proposition montre l"importance de considérer des variables àvaleurs entières posi- tives ou nulles car les termes pourn <0ne sont pas dérivables en zéro. Si les moments non-centrés d"ordre inférieur ou égal àpde la variableXexistent, il est

possible de les retrouver en évaluant en1les dérivées successives de la fonction génératrice

des probabilités deX. En effet, en passant la dérivée à l"intérieur de la série, il vient

D tGX(t)|t=1=+∞? n=0nIP[X=n] =E[X](1.3) D

2tGX(t)|t=1=+∞?

n=1n(n-1)IP[X=n] =+∞? n=0n

2IP[X=n]-+∞?

n=0nIP[X=n] =E[X2]-E[X] ce qui donne

E[X2] =D2tGX(t)|t=1+DtGX(t)|t=1(1.4)

D ktGX(t)|t=1=+∞? n=kn(n-1)...(n-k+ 1)IP[X=n] =k? i=1C iE[Xi] en isolant lek-ième moment non-centré, cela donneE[Xk] =?ki=1C? iDitGX(t)|t=1,

Proposition 1.2.La fonction génératrice des probabilités d"une somme de variables indépen-

dantes à valeurs entières non négatives, définie en tout pointten lequel la fonction génératrice

des probabilités de chacune des variables est définie, est leproduit des fonctions génératrices

des probabilités de ces variables.

1cfr F.BASTIN,ANALYSE NON LINEAIRE, Partie 1, Université de Liège, Département de Mathématique,

Année académique 2004-2005.

CHAPITRE 1. NOTIONS DE BASE3

Démonstration.SoientX1,X2,...,Xndes variables indépendantes à valeurs entières non né-

gatives etY=X1+X2+...+Xn. Pourtréel tel queE[tXi]existe,?i= 1,2,...,n, G Y(t) =E[tY] =E[tX1tX2...tXn] =E[tX1]E[tX2]...E[tXn] =GX1(t)GX2(t)...GXn(t), où la troisième égalité est due à l"indépendance des variables.? Cette fonction, bien que très utile et facile d"utilisation, a deux inconvénients, à savoir

qu"elle n"est définie que pour des variables discrètes à valeurs positivesou nulles et que, même

pour ces variables, elle n"est pas définie partout. Pour résoudre le premier, on introduit la fonction génératrice des moments.

Définition 1.2.Pour toute variable aléatoireX, discrète ou continue, lafonction généra-

trice des momentsest définie par M

X(t) =E[etX] =?

xetxIP[X=x]siXest discrète?+∞ -∞etxf(x)dxsiXest continue et de densitéf(1.5) pout toutt?Rtel que l"espérance soit définie.

Cette fonction possède des propriétés similaires à la fonction génératrice des probabilités.

Proposition 1.3.Si les moments non-centrés d"ordre inférieur ou égal àpde la variableX

existent, la fonction génératrice des moments deXpermet de les retrouver grâce à la formule

E[Xk] =DktMX(t)|t=0.(1.6)

Démonstration.On va être intéressé par cette fonction au point0, ce qui est légitime puisque

ent= 0, la série est absolument convergente et l"intégrale existe.

Cela étant, l"opérateur de dérivation passe à l"intérieur de la série ou de l"intégrale2, ce qui

donne D tMX(t)|t=0=E?Dt(etX)?|t=0=E?XetX?|t=0=E[X] D

2tMX(t)|t=0=E?D2t(etX)?|t=0=E?X2etX?|t=0=E[X2]

D ktMX(t)|t=0=E?

Dkt(etX)?

t=0=E?

XketX?

t=0=E[Xk] Proposition 1.4.Soient deux variables aléatoiresXetYtelles queMX(t) =MY(t)pour toutten lequel ces expressions existent. Alors ces deux variables ont la même distribution.

Cela étant, la fonction génératrice des moments caractérise complétement la distribution.

Démonstration.Traitons les cas discret et continu séparément.

Cas discret

: Supposons queXprenne les valeurs{x1,...,xn}et que les valeurs possibles pour Ysoient{y1,...,ym}. NotonspXi=IP[X=xi]etpYj=IP[Y=yj]pour touti= 1,...,n

2cfr J.SCHMETS,Analyse Mathématique, Introduction au Calcul Intégral, Liège, Éditions Derouaux, 1994.

CHAPITRE 1. NOTIONS DE BASE4

etj= 1,...,m. Alors l"hypothèse d"égalité des fonctions génératrices des moments se traduit

comme suit : n? i=1p X ietxi=m? j=1p Y jetyj,?t.

En posant

b k=?xisik=i y jsik=j et a k=???p X isik=ietxi?=yj?j p Y jsik=jetyj?=xi?i p X i-pYjsik? {i,j}etxi=yj, il est possible de réécrire cela sous la forme ka ketbk= 0,?t(1.7)

où lesbksont tous distincts. Comme les fonctionsetbksont alors indépendantes, l"équation (1.7)

est équivalente à la nullité de tous lesak. Cela étant,n=metpXi=pYjpour touti,j=

1,...,n. Cela montre que les deux variables discrètes ont même distribution.

Cas continu

: NotonsfXetfYles fonctions de densité deXetYrespectivement. Il vient M

X(t) =?

R etxfX(x)dx=L-tfX,

oùLtfXest la transformée de Laplace defXent. L"hypothèse d"égalité des fonctions géné-

ratrices des moments se traduit alors par L -tfX=L-tfY,?t ? L -t(fX-fY) = 0,?t ?fX-fY= 0presque partout ?fX=fYcar les densités sont supposées continues.

Les variables ont donc la même distribution.?

Proposition 1.5.La fonction génératrice des moments d"une somme de variables aléatoires

indépendantes, définie en tout pointten lequel la fonction génératrice des moments de chacune

des variables est définie, est le produit des fonctions génératrices des moments des variables

considérées. La preuve est similaire à celle de la proposition 1.2. On constate que si cette fonction s"applique à tout type de variablealéatoire, elle n"est pas

nécessairement définie pour toutt?R. Pour pallier à ce second inconvénient, il faut introduire

la fonction caractéristique. Définition 1.3.SoitXune variable aléatoire quelconque. Safonction caractéristiqueest définie pour toutt?Rpar

X(t) =E[eitX] =?

xeitxIP[X=x]siXest discrète?+∞ -∞eitxf(x)dxsiXest continue et de densitéf.(1.8)

CHAPITRE 1. NOTIONS DE BASE5

Dans le cas où la variableXest continue, la fonction caractéristique correspond à la trans- formée de Fourier de sa fonction de densité.

Comme précédemment, la fonction caractéristique caractérise complètement une variable. Plu-

sieurs démonstrations de ce fait sont possibles; celle introduite ici suit le même schéma que

pour les fonctions génératrices et donne un moyen simple de retrouver les moments non-centrés

lorsqu"ils existent. Proposition 1.6.Si les moments d"ordre inférieur ou égal àpexistent, alors D

Démonstration.Comme précédemment, la dérivée peut passer sous le signe d"intégration ou

D ktφX(t)|t=0=E[DkteitX]|t=0=E[(iX)keitX]|t=0=ikE[Xk]. Proposition 1.7.Soient deux variables aléatoiresXetYtelles queφX(t) =φY(t)en tout

pointt. Alors ces deux variables ont la même distribution. Cela étant, la fonction caractéris-

tique caractérise complètement la distribution. Démonstration.Traitons les cas discret et continu séparément.

Cas discret

: En utilisant les mêmes notations que dans la preuve de la proposition 1.4, l"égalité des fonctions caractéristiques est équivalente à n j=1e itxjpXj=m? k=1e itykpYk,?t n? j=1e2iπt xj

2πpXj=m?

k=1e2iπt yk2πpYk,?t

et comme la fonction caractéristique est2π-périodique, un résultat concernant les séries

trigonométriques de Fourier donne ?n=metpXj=pYk?j,k= 1,...,n. Pour le cas discret, la conclusion est donc immédiate.

Cas continu

: NotonsfXetfYles fonctions de densité deXetY. Il vient

X(t) =φY(t),?t

R eitxfX(x)dx=? R eitxfY(x)dx,?t R eitx(fX(x)-fY(x))dx,?t et, en introduisant la notationF+tfXpour la transformée de Fourier, cela donne ?F +t(fX-fY) = 0 =F+t0,?t.

CHAPITRE 1. NOTIONS DE BASE6

L"injectivité de la transformée de Fourier implique alors ?fX=fY, ce qui suffit pour conclure.? Proposition 1.8.La fonction caractéristique d"une somme de variables aléatoires indépen- dantes est le produit des fonctions caractéristiques de cesvariables.

La preuve suit le même schéma que celle donnée dans le cas des fonctions génératrices des

probabilités. Voici quelques propriétés importantes de cette fonction, conséquences directes du fait que

X(t) =E[eitX].

Proposition 1.9.La fonction caractéristique de toute variable aléatoireXvérifie les proprié-

tés suivantes : (a)φX(0) = 1; (c)φaX+b(t) =eibtφX(at),?a,b?R.

Lorsque l"on considère des variables aléatoires non négatives, on peut remplacer avec profit

la fonction caractéristique par la transformée de Laplace de la fonction de densité dont voici

la définition. Définition 1.4.SoitXune variable aléatoire non négative, satransformée de Laplaceest définie par

X(s) =E[e-sX] =?

xe-sxIP[X=x]siXest discrète?+∞ -∞e-sxf(x)dxsiXest continue et de densitéf(1.10) pour une variable imaginaires=r+itavecr?R+ett?R.

Quandsest purement imaginaire,s=it, on a

X(s) =φX(-t).(1.11)

De même, lorsquesest purement réel,s=r, on a

X(s) =MX(-r).(1.12)

1.2 Quelques lois de distributions

Pour comprendre la suite de ce travail, il sera utile de connaître les définitions et quelques

propriétés des lois les plus rencontrées. En effet, celles-ci serontalors appliquées sans autre

explication que la référence à cette section. Pour les autres, un simple rappel sera effectué en

cas de besoin.

CHAPITRE 1. NOTIONS DE BASE7

Définition 1.5.Une variable aléatoire discrèteXsuit uneloi de Poisson de paramètre ν?R+, ce que l"on noteX≂P(ν), siX(Ω) =Net si,?x?N,

IP[X=x] =e-ννx

x!. Les graphiques représentés aux figures 1.1, 1.2, 1.3, 1.4 permettentde voir l"impact du

paramètreνsur la loi de la variable. Ils ont été obtenus dans le logiciel R par la commande

ppois().

0 2 4 6 8 10

0.0 0.1 0.2 0.3 0.4 0.5 0.6

X

Probabilité

Fig.1.1 - Poisson :ν= 0,5

0 2 4 6 8 10

0.00 0.05 0.10 0.15 0.20 0.25

X

Probabilité

Fig.1.2 - Poisson :ν= 2

0 2 4 6 8 10

0.00 0.05 0.10 0.15

X

Probabilité

Fig.1.3 - Poisson :ν= 5

0 5 10 15 20

0.00 0.02 0.04 0.06 0.08 0.10 0.12

X

Probabilité

Fig.1.4 - Poisson :ν= 10

Proposition 1.10.La fonction génératrice des probabilités d"une variable aléatoire discrète

distribuée selon une loi de Poisson de paramètreνest donnée par G

X(t) =eν(t-1),?t?R.

Démonstration.En utilisant successivement les définitions 1.1 et 1.5 puis le développement en série de l"exponentielle, on obtient G

X(t) =E[tX] =+∞?

n=0t nIP[X=n] =+∞? n=0t ne-ννn n!=e-ν+∞? n=0(tν)nn!=e-νetν=eν(t-1), pour toutt?Rcar le développement en série de la fonction exponentielle est valable surR.?

CHAPITRE 1. NOTIONS DE BASE8

Au départ de cette expression et des formules (1.3) et (1.4), il estpossible de trouver l"espérance et la variance deX, toutes deux égales àν.

Revenons sur l"interprétation des graphiques précédents. Lorsqueνest petit, l"espérance et

la variance de la variable aléatoire le sont aussi. Donc la valeur la plus probable pour la variable est proche de0et la dispersion est faible. La masse de probabilité est par conséquent concentrée sur les petites valeurs, comme le montrent les graphiques 1.1 et 1.2. Ensuite, lorsque

νaugmente, la masse de probabilité se déplace vers la droite tout en s"étalant de plus en plus.

Cela est illustré par les graphiques 1.3 et 1.4. Proposition 1.11.Les fonctions génératrice des moments et caractéristique d"une variable

aléatoire discrète distribuée selon une loi de Poisson de paramètreνsont données respective-

ment par Mquotesdbs_dbs5.pdfusesText_10