Porcessus de Poisson Exercices solutionnés
16 oct. 2000 Exercice. Considérons un processus de Poisson ' ? &' (/) : / # 0' ayant une intensité de ? 2. Déterminez la distribution conditionnelle de.
Processus aléatoires et applications
2 janv. 2010 2.2 Généralités sur les processus stochastiques . ... 5 Le processus ponctuel de Poisson ... A Solution de quelques exercices.
Processus de Poisson Exercice 1: On sintéresse au nombre de
processus de Poisson homogène d'intensité ? = 5. Exercice 2: (Paradoxe de l'autobus) Pierre prend tous les matins le bus pour se rendre à l'université.
MAT-3071 Processus Stochastiques
Séance d'exercices : Jeudi 10h30-12h30 (local SH-2420) Poisson Processus de Poisson composé
EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry
Equations différentielles stochastiques Corrigés. 129. 5.1 Equation Linéaire . Exercice 8.1.1 Montrer que si N est un processus de Poisson standard
MASTER ISIFAR 2`eme année Bases mathématiques de l
18 nov. 2009 Exercice 1. ... Corrigé La fonction génératrice est définie pour tout t ? 0 et vaut ... Corrigé Le processus de Poisson est un processus `a ...
Processus de Poisson
Comme nous le verrons dans la suite les processus de Poisson temporels se subdivisent en plusieurs types. La première partie de ce travail reprend les aspects
Exercices corrigés
Quelle est la valeur de la moyenne E[N] d'une variable aléatoire N qui suit une loi Poisson(?)?. 2. On observe des clients à l'entrée d'un système. Le processus
Correction de la PC2
Processus Aléatoires. MA 202. Correction de la PC2. Exercice loi de Poisson de paramètre ? i.e. pour tout n ? N
PROCESSUS DE POISSON : Corrigé des exercices
PROCESSUS DE POISSON : Corrigé des exercices. 1. Les arrivées d'autobus `a une station forment un processus de Poisson d'intensité.
Porcessus de Poisson Exercices solutionnØs - HEC
Porcessus de Poisson Exercices solutionnØs Genevi?ve Gauthier derni?re mise à jour : 16 octobre 2000 Exercice ConsidØrons un processus de Poisson N = fN (t) : t 0g ayant une intensitØ de = 2 DØterminez la distribution conditionnelle de l™instant ? 1 auquel survient le premier ØvØnement Øtant donnØ qu™au temps
Processus de Poisson
Recalculer les propriet´ es classiques des processus de Poisson :´ 1 Soient (N t) t 0 et (M t) t 0 deux processus de Poisson independants de param´ etres` et Montrer que (N t+M t) t 0 est un processus de Poisson de parametre` + 2 Soit (X n) n 1 une suite de variables de Bernoulli independantes de param´ etre` pet (N t) t 0
Feuille de TD n 12 : Le processus de Poisson Le mouvement
t 0 deux processus de Poisson ind ependants d’intensit es respectives et 0 D eterminer la loi du processus (N(t) + N0(t)) t 0 2 Soient (Y n) n 1 une suite de variables i i d de loi de Bernoulli de param etre p et (N(t)) t 0 un processus de Poisson d’intensit e ind ependant de ces variables D eterminer la loi du processus (N0(t)) t 0 d
Universit e de Bordeaux Processus de Poisson 2015/16
t) sont deux processus de Poisson ind ependants d’intensit es respectives p et (1 p) Exercice 12 A l’arr^et Peixotto il passe 6 bus de la liane 10 et 2 bus de la liane 20 en une heure On suppose que les passages de ces bus forment deux processus de Poisson ind ependants 1 Donner les intensit es des deux processus de Poisson 2
LE PROCESSUS DE POISSON - univ-rennes1fr
File d’attente M=M=1 et processus de Poisson Dans la cadre d’une ?le d’attente M=M=1 la loi des inter-arrivées est E( ) et celle des temps de service est E( ) Le processus d’arrivée des clients au serveur est donc un processus de Poisson simple de paramètre De plus en régime stationnaire le processus de sortie du système est
Processus de Poisson
Processus de Poisson 1 Introduction au processus de Poisson Soit (Xn) une suite de variables al eatoires ind ep endantes et identiquement distribu ees de loi exponentielle E( ) avec > 0 Si Sn = X1 +X2 + +Xn N0 = 0 et pour tout t > 0 Nt = X1 n=1 1I(S n t); (Nt) est un processus de Poisson d’intensit e Exercice 1
Processus ponctuel de Poisson - École Polytechnique
Th´eor`eme 1 2 Sous les conditions pr´ec´edentes le processus de pointage (T n) n d´e?ni par la r´eunion de {T1 n; n ? 1} et {T2 n; n ? 1} est un processus de pointage associ´e a un processus de Poisson de param`etre ?= ? 1 +? 2 D´emonstration Il su?t de remarquer que le processus de comptage Nassoci´e au processus de
Feuille d’exercices (cours 9 et 10 Mesures aleatoires de Poisson´
t= M([0t]) t?0 le processus de comptage associe´ a` M Montrer que Nestun processus de Poisson d’intensite´ 1 En deduire que´ Mestune mesure de Poisson d’intensite´ ?(dx) Exercice 6 Trouver une tribu Esur [01] et une mesure de probabilit´e µsur ([01]E) telle que µ(B) ? {01}pour tout B?Emais telle que µne soit pas
Convergence de mesures processus de Poisson et de Lévy Examen
Convergence de mesures processus de Poisson et de Lévy – Examen 14-12-2018 Durée : 3 heures Les documents sont autorisés mais sont interdits : livres calculatrices téléphones ordi-nateurs ou objets apparentés Toutes les réponses doivent être justi?ées et la rédaction sera prise en compte
Correction de l’exercice 34 : processus de Poisson et
tsuit la loi de Poisson de param etre t 5 On commence par d e nir T 0 pour que les relations W t = t T N t et Z t = T N t+1 td e nissent bien deux variables al eaoires sur tout : conform ement a l’intuition on prendra T 0 = 0 Pour cette question trois fa?cons possibles de mener les calculs : { On peut calculer la fonction de r epartition
Processus de Poisson - Université Grenoble Alpes
Processus de Poisson Leçons : 263 264 Soit (FP) un espace probabilisé Dé?nition 1 Un processus de comptage est une suite de variables aléatoires réelles (N(t))t¾0 telles que 1 N(0) = 0 2 8t ¾ 0N(t) 2N 3 t 7!N(t) est croissante Du point de vue de la modélisation 80 ¶ a ¶ b N(b) N(a) représente le nombre de
Searches related to exercices corrigés processus de poisson filetype:pdf
superposition de plusieurs processus de Poisson et de l’amincissement d’un tel processus Commence alors la seconde et dernière partie Elle est consacrée à l’application sur des
Comment calculer le processus de poisson d’intensité?
- Si on pose M(u) = N(m?1(u)), alors le processus {M(u),u? 0} est un processus de Poisson d’intensité ?= 1. Démonstration. Comme cela a été expliqué avant, on ne considère le processus que pour des valeurs plus petites que la valeur critique uc. Soient 0 ? u1
Qu'est-ce que le processus de Poisson d'intensité?
- Dans les conditions de la dé?nition 5.3, le processus {N(t),t? 0} est un processus de Poisson d’intensité ?= Xr i=1 ?i. Démonstration. La première chose dont il faut s’assurer est que le processus superposé n’est pas composé, c-à-d qu’en un temps tquelconque il n’est pas possible d’avoir une occurrence pour plusieurs des processus {Nj(t),t? 0}.
Quelle est la différence entre le processus de poisson et les autres processus?
- Pour le processus de Poisson qui est un processus homogµene, ces variables (al¶eatoires) sont ind¶ependantes et de loi une exponentielle de paramµetre‚. Mais pour les autres processus (qui ne v¶eri?ent plus l’hypothµese d’homog¶en¶eit¶e), ces variables ne sont ind¶ependantes que conditionellement au nombre d’¶ev¶enementsNi.
Comment calculer l’intensité d’un processus dé-poisson?
- Soit {X(t),t ? 0} un processus de Poisson composé d’intensité ? dé- ?ni au moyen du processus de Poisson {N(t),t? 0} et de la famille de variables aléatoires {Yn,n= 0,1,2,...}. Les temps d’inter-arrivées sont indépendants et identiquement distribués selon une loi exponentielle de paramètre ?.
Université de Liège
Faculté des Sciences
Institut de Mathématique
Processus de Poisson
Année académique 2006-2007Mémoire présenté parChristel Ruweten vue de l"obtention du grade de licenciée enSciences Mathématiques
Introduction
Il existe plusieurs types de processus de Poisson. Dans ce mémoire,ce sont les processus "temporels" qui seront abordés, mais il existe également des processus de Poisson dans le plan (comme la projection sur un plan de la répartition des étoiles dans le ciel) ou dans d"autres espaces. En langage non mathématique, un processus de Poisson dans le temps est le processusqui est souvent le mieux adapté pour expliquer un processus "d"arrivées", ce dernier mot étant
pris au sens large. En effet, une arrivée peut être une panne se produisant sur une machine,un coup de téléphone arrivant à un standard, un client accédant à un guichet, .... Comme
nous le verrons dans la suite, les processus de Poisson temporels sesubdivisent en plusieurs types. La première partie de ce travail reprend les aspects théoriques desdifférents processus de Poisson temporels. Après un premier chapitre ayant pour but d"asseoir les principes probabi-listes et statistiques utiles tout au long de ce travail, le deuxième chapitre consiste à définir de
façon rigoureuse le plus connu et le plus simple d"entre eux, appelé ici processus de Poisson de
base, ainsi que d"en chercher les caractéristiques principales. Cette partie du travail était sans
doute la plus simple car beaucoup d"ouvrages traitent ce sujet en profondeur. Cependant, pouradhérer encore plus à la réalité, il ne faut pas s"arrêter là et il faut étudier les généralisations
possibles de ce processus. On parle alors de processus de Poisson non-homogène ou de pro- cessus de Poisson composé. Le troisième chapitre est donc consacré au processus de Poissonnon-homogène permettant de modéliser des situations où l"intensitédes occurrences n"est pas
constante au cours du temps. Par un changement d"échelle, ce processus se ramène à un pro- cessus de Poisson de base. Le quatrième chapitre permet lui de leverl"hypothèse selon laquelledeux arrivées ne peuvent se produire en même temps en considérant le processus de Poisson dit
composé. Il cache en fait un processus de Poisson de base. Leur lien avec le processus de base explique pourquoi ces deux processus ne sont souvent que cités dans la littérature. Comme lebut de ce mémoire était de comparer ces trois processus entre eux, il ne suffisait pas de donner
les relations les liant. La première difficulté a donc consisté à trouver des moyens pour adapter
les propriétés d"un processus de Poisson de base à ces généralisations. Dans certains cas, cela
n"a malheureusement pas été possible. Le cinquième chapitre aborde quant à lui le cas de la
superposition de plusieurs processus de Poisson et de l"amincissement d"un tel processus. Commence alors la seconde et dernière partie. Elle est consacrée à l"application sur desexemples concrets de la théorie développée dans la première partie.Cette seconde partie a
été le point de départ de nouvelles embûches. La première est venue du fait que les processus
stochastiques en général, et donc les processus de Poisson, sontétudiés principalement par
des probabilistes qui se soucient parfois peu de la mise en pratique. Cela étant, dans lesréférences les plus populaires dans ce domaine, les méthodes de simulations et de tests sont
i iipeu développées. Pour les besoins de cette partie, il a donc été nécessaire de trouver des
techniques statistiques utilisables dans le contexte et de les comparer afin de voir leur efficacité
respective. La seconde difficulté n"était pas inhérente au sujet des processus de Poisson mais il
était indispensable de l"aborder quand même. Il s"agit de la problématique liée à l"estimation
des paramètres lors d"un test d"ajustement de Kolmogorov-Smirnov. Par souci de clarté, ce point est abordé dans le premier chapitre avec les autres notions liées indirectement auxprocessus de Poisson. Enfin, le dernier problème fut la recherche des données à analyser. Il est
habituellement considéré acquis que les arrivées à la poste sont poissoniennes. C"est un exemple
parmi tant d"autres qu"il serait intéressant d"analyser afin de contredire ou de confirmer ces apriori bien connus. Les données utilisées sont des données réelles (non simulées) qu"il a fallu
récolter "à la main".Tout au long de ce travail, l"utilisation d"un logiciel statistique a été nécessaire. C"est le
logiciel R qui a été choisi pour ses facilités de programmation. Je tiens tout d"abord à remercier toutes celles et ceux qui m"ont aidé dans la réalisation de ce mémoire, que ce soit en me permettant d"utiliser leurs données pour les analyses, en me procurant un endroit calme où travailler ou encore en me donnant de nombreux conseils.Des conseils, j"en ai reçu beaucoup de ma promotrice,Madame Haesbroeck, que je remercie vivement. Ses
nombreuses suggestions et questions m"ont permis de mener à bien ce travail. Je la remercie également pour la découverte de cette théorie ainsi que pour sa disponibilité tout au long de l"année.Enfin, je remercie toute ma famille pour leur soutien au long de mes études, mes camarades pour les bons moments passés ensemble et Olivier pour sa patience et ses encouragements.Table des matières1 Notions de base1
1.1 Fonctions génératrices et caractéristique . . . . . . . . . . . . . . .. . . . . . . 1
1.2 Quelques lois de distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . .6
1.3 Tests d"ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 14
1.4 Introduction aux processus stochastiques . . . . . . . . . . . . . . .. . . . . . . 16
2 Processus de Poisson de base19
2.1 Distribution des marges finies du processus . . . . . . . . . . . . . . . . .. . . 20
2.2 Définition alternative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Temps d"inter-arrivées et temps d"occurrence . . . . . . . . . . . . .. . . . . . 26
2.4 Distributions tronquées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 34
3 Processus de Poisson non homogène35
3.1 Distribution des marges finies du processus . . . . . . . . . . . . . . . . .. . . 36
3.2 Temps d"inter-arrivées et temps d"occurrence . . . . . . . . . . . . .. . . . . . 43
3.3 Lien avec le processus de Poisson de base . . . . . . . . . . . . . . . . . . .. . 48
4 Processus de Poisson composé51
4.1 Distribution des marges finies du processus . . . . . . . . . . . . . . . . .. . . 51
4.2 Temps d"inter-arrivées et temps d"occurrence . . . . . . . . . . . . .. . . . . . 59
5 Autres processus de Poisson61
5.1 Amincissement d"un processus de Poisson . . . . . . . . . . . . . . . . . .. . . 61
5.2 Superposition de processus de Poisson . . . . . . . . . . . . . . . . . . .. . . . 67
6 Processus de Poisson en pratique73
6.1 Processus de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 73
6.1.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.1.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.1.3 Intervalle de confiance pour le paramètre d"intensitéν. . . . . . . . . . 75
6.1.4 Comparaison des intensités de deux processus de Poisson . . . .. . . . . 76
6.2 Processus de Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . .. . . 76
6.2.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.2.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3 Processus de Poisson non homogène . . . . . . . . . . . . . . . . . . . . .. . . 77
6.3.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
ivTABLE DES MATIÈRESv
6.3.3 Estimation de la fonction moyenne . . . . . . . . . . . . . . . . . . . . . 79
7 Applications84
7.1 Données provenant de la littérature . . . . . . . . . . . . . . . . . . . . .. . . . 84
7.2 Données observées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 87
A Logiciel R96
Bibliographie105
Chapitre 1Notions de base
Ce premier chapitre a pour but de présenter brièvement les différents concepts de base relatifs aux probabilités ainsi qu"aux processus stochastiques quiseront nécessaires dans la suite. Malgré que cela ne soit pas en lien direct avec le sujet de ce travail, une section est également consacrée aux tests d"ajustement. Pour les applications abordées dans le chapitre7, il a été très utile d"étudier les tests qui sont le plus souvent employés mais aussi leurs
inconvénients afin d"essayer de les palier. Pour plus de précision ou d"information, il est conseillé
de consulter les ouvrages référenciés. En outre, il sera supposéque les fonctions de densité
abordées sont toujours bien définies et continues.1.1 Fonctions génératrices et caractéristique
Ces fonctions sont très importantes car elles ont la particularité decaractériser complè-
tement la variable aléatoire à laquelle elles se rapportent. En d"autrestermes, connaître la
fonction génératrice ou la fonction caractéristique d"une variable aléatoire est équivalent à
connaître sa distribution. Commençons alors par la plus simple d"entreelles. Définition 1.1.SoitXune variable aléatoire discrète ne prenant que des valeurs entières positives ou nulles. Lafonction génératrice des probabilités de la variableXest la fonction GX(t) =E[tX] =+∞?
n=0t nIP[X=n](1.1)définie pour toutt?Rtel que l"espérance existe (c-à-d tel que la série soit absolument conver-
gente). Pourt?[-1,1], cette série converge absolument; la fonction génératrice des probabilités est donc au moins définie dans l"intervalle[-1,1]. Comme son nom l"indique, cette fonction permet de générer les probabilités de la variableX. Proposition 1.1.SoitXune variable aléatoire discrète ne prenant que des valeurs entières positives ou nulles. Pour toutk?N, on aIP[X=k] =DktGX(t)|t=0
k!.(1.2)La fonction génératrice des probabilités d"une variable aléatoire discrète à valeurs entières
positives ou nullesXcaractérise donc complètement cette dernière. 1CHAPITRE 1. NOTIONS DE BASE2
Démonstration.Cela a un sens de calculer les dérivées en zéro car cette valeur appartient
à l"ensemble des points où la fonction est définie. Comme la série converge absolument sur
[-1,1]et que le terme général de cette série est dérivable sur cet intervalle, on peut1faire
porter la dérivée sur chacun des termes de la série. En évaluant en zéro les dérivées successives
de la fonction génératrice des probabilités, on obtient alors la loi de probabilité de la variable :
GX(0) =IP[X= 0]
D tGX(t)|t=0=+∞? n=1nt n-1IP[X=n]|t=0=IP[X= 1] D ktGX(t)|t=0=+∞? n=kn(n-1)...(n-k+ 1)tn-kIP[X=n]|t=0=k!IP[X=k] pour toutk?N.Or une variable aléatoire discrète est complètement définie par sa loi de probabilité.?
Cette proposition montre l"importance de considérer des variables àvaleurs entières posi- tives ou nulles car les termes pourn <0ne sont pas dérivables en zéro. Si les moments non-centrés d"ordre inférieur ou égal àpde la variableXexistent, il estpossible de les retrouver en évaluant en1les dérivées successives de la fonction génératrice
des probabilités deX. En effet, en passant la dérivée à l"intérieur de la série, il vient
D tGX(t)|t=1=+∞? n=0nIP[X=n] =E[X](1.3) D2tGX(t)|t=1=+∞?
n=1n(n-1)IP[X=n] =+∞? n=0n2IP[X=n]-+∞?
n=0nIP[X=n] =E[X2]-E[X] ce qui donneE[X2] =D2tGX(t)|t=1+DtGX(t)|t=1(1.4)
D ktGX(t)|t=1=+∞? n=kn(n-1)...(n-k+ 1)IP[X=n] =k? i=1C iE[Xi] en isolant lek-ième moment non-centré, cela donneE[Xk] =?ki=1C? iDitGX(t)|t=1,Proposition 1.2.La fonction génératrice des probabilités d"une somme de variables indépen-
dantes à valeurs entières non négatives, définie en tout pointten lequel la fonction génératrice
des probabilités de chacune des variables est définie, est leproduit des fonctions génératrices
des probabilités de ces variables.1cfr F.BASTIN,ANALYSE NON LINEAIRE, Partie 1, Université de Liège, Département de Mathématique,
Année académique 2004-2005.
CHAPITRE 1. NOTIONS DE BASE3
Démonstration.SoientX1,X2,...,Xndes variables indépendantes à valeurs entières non né-
gatives etY=X1+X2+...+Xn. Pourtréel tel queE[tXi]existe,?i= 1,2,...,n, G Y(t) =E[tY] =E[tX1tX2...tXn] =E[tX1]E[tX2]...E[tXn] =GX1(t)GX2(t)...GXn(t), où la troisième égalité est due à l"indépendance des variables.? Cette fonction, bien que très utile et facile d"utilisation, a deux inconvénients, à savoirqu"elle n"est définie que pour des variables discrètes à valeurs positivesou nulles et que, même
pour ces variables, elle n"est pas définie partout. Pour résoudre le premier, on introduit la fonction génératrice des moments.Définition 1.2.Pour toute variable aléatoireX, discrète ou continue, lafonction généra-
trice des momentsest définie par MX(t) =E[etX] =?
xetxIP[X=x]siXest discrète?+∞ -∞etxf(x)dxsiXest continue et de densitéf(1.5) pout toutt?Rtel que l"espérance soit définie.Cette fonction possède des propriétés similaires à la fonction génératrice des probabilités.
Proposition 1.3.Si les moments non-centrés d"ordre inférieur ou égal àpde la variableXexistent, la fonction génératrice des moments deXpermet de les retrouver grâce à la formule
E[Xk] =DktMX(t)|t=0.(1.6)
Démonstration.On va être intéressé par cette fonction au point0, ce qui est légitime puisque
ent= 0, la série est absolument convergente et l"intégrale existe.Cela étant, l"opérateur de dérivation passe à l"intérieur de la série ou de l"intégrale2, ce qui
donne D D D ktMX(t)|t=0=E?Dkt(etX)?
t=0=E?XketX?
t=0=E[Xk] Proposition 1.4.Soient deux variables aléatoiresXetYtelles queMX(t) =MY(t)pour toutten lequel ces expressions existent. Alors ces deux variables ont la même distribution.Cela étant, la fonction génératrice des moments caractérise complétement la distribution.
Démonstration.Traitons les cas discret et continu séparément.Cas discret
quotesdbs_dbs14.pdfusesText_20[PDF] exercices corrigés programmation linéaire méthode du simplexe
[PDF] exercices corrigés programmation matlab pdf
[PDF] exercices corrigés proportionnalité 4ème pdf
[PDF] exercices corrigés propriétés colligatives
[PDF] exercices corrigés propriétés mécaniques des matériaux pdf
[PDF] exercices corrigés rapidité de modulation
[PDF] exercices corrigés rapprochement bancaire pdf
[PDF] exercices corrigés résistance des matériaux
[PDF] exercices corrigés sage comptabilité
[PDF] exercices corrigés sage saari comptabilité 100
[PDF] exercices corrigés saponification
[PDF] exercices corrigés sciences industrielles mpsi pdf
[PDF] exercices corrigés sciences industrielles pcsi pdf
[PDF] exercices corrigés servlets java