[PDF] Localisation et navigation de robots - UPJV



Previous PDF Next PDF







Probabilités et statistiques Travaux pratiques avec Matlab

Matlab correspondantest stocké dansunfichier dont lenom se terminepar m Pour mean, il s’agit de mean m Pour ajouter de nouvelles fonctions à Matlab, il nous suffit d’écrire de nouveaux fichiers de ce type Vous aurez compris qu’un fichier m necontientqu’uneseulefonction,quialemêmenomquelefichier,au suffixe m près



Vecteursgaussiens

On déduit de ces intervalles de con ance les tests de taille fi de „ = „0 conte „ 6= „0 et de ¾2 = ¾2 0 contre¾2 < ¾2 0 Remarquonsquel'onobtientunerégiondecon ancedeniveaudecon ance1¡2fi pourl'estimation deµ = („;¾2) enconsidérantI n;¾ £Jn;¾ 6



Lois de probabilité à densité Loi normale

On contourne cette difficulté en associant à la variable X un intervalle de R et en définissant une densité de probabilité 1 2 Densité de probabilité et espérance mathématique Définition 1 : On appelle densité de probabilité d’une variable aléatoire continue X, toute fonction f continue et positive sur un intervalle I ([a;b



VECTEURS GAUSSIENS - Institut de Mathématiques de Bordeaux

2 Vecteurs aléatoires gaussiens 7 2 Vecteursaléatoiresgaussiens Définition 6 Un vecteur aléatoire de Rd est un vecteur aléatoire gaussien si et seulement si toute



Simulation de variables al´eatoires

Simulation de variables al´eatoires instrumentale est une marche al´eatoire gaussienne Partant de x t, Densité 0 0 0 2 0 4 0 6 0 8 1 0



Localisation et navigation de robots - UPJV

Densité de probabilité conjointe La pdf conjointe de deux variables aléatoires X et Y est donnée par Elle décrit la probabilité que la v a X prend la valeur et que Y prend la valeur Si les v a X et Y sont indépendantes, nous avons que: p(x,y) p(x,y)=p(x)p(y) Densité de probabilité conditionnelle



Localisation et navigation de robots - UPJV

Densité de probabilité conjointe La pdf conjointe de deux variables aléatoires X et Y est donnée par Elle décrit la probabilité que la v a X prend la valeur et que Y prend la valeur Si les v a X et Y sont indépendantes, nous avons: p(x,y) p(x,y)=p(x)p(y) Densité de probabilité conditionnelle



Cours MO102 - Utilisation de fonctions aléatoires

Dire que la variable aléatoire réelle X a une densité de probabilité signifie qu’il existe une de l’aléatoire en Matlab de taille N suivant une loi

[PDF] densité de probabilité loi exponentielle PDF Cours,Exercices ,Examens

[PDF] densité de probabilité loi normale PDF Cours,Exercices ,Examens

[PDF] densité de probabilité loi uniforme PDF Cours,Exercices ,Examens

[PDF] densité définition PDF Cours,Exercices ,Examens

[PDF] densité des matériaux PDF Cours,Exercices ,Examens

[PDF] densité des métaux PDF Cours,Exercices ,Examens

[PDF] densité du cyclohexane par rapport a l'eau PDF Cours,Exercices ,Examens

[PDF] densité du diiode PDF Cours,Exercices ,Examens

[PDF] densité eau kg/m3 PDF Cours,Exercices ,Examens

[PDF] densité et masse volumique seconde PDF Cours,Exercices ,Examens

[PDF] Densité et position 2nde Physique

[PDF] densité lithosphère océanique PDF Cours,Exercices ,Examens

[PDF] densité marginale x y PDF Cours,Exercices ,Examens

[PDF] DENSITE MASSE VOLUMIQUE 2nde Physique

[PDF] densité matérielle ses PDF Cours,Exercices ,Examens

Localisation et navigation

de robots

UPJV, Département EEA

M2 3EA, EC32, parcours RoVA

Fabio MORBIDI

Laboratoire MIS

Équipe Perception Robotique

E-mail: fabio.morbidi@u-picardie.fr Année Universitaire 2019-2020

Mardi 9h00-12h30, salle CURI 305, CM & TD

Mercredi 14h00-17h00, salle TP204, TP

Localisation et navigation

de robots

UPJV, Département EEA

M2 3EA, EC32, parcours RoVA

Fabio MORBIDI

Laboratoire MIS

Équipe Perception Robotique

E-mail: fabio.morbidi@u-picardie.fr Année Universitaire 2019-2020

Mardi 9h00-12h30, salle CURI 305, CM & TD

Mercredi 14h00-17h00, salle TP204, TP

3

Plan du cours

Chapitre

1 : Localisation

Chapitre

2 : Navigation 1.1 Introduction et défis

2.1 Stratégies de navigation

2.2 Architectures de contrôle

2.3 Navigation vers un but 1.3 Localisation par filtre de Kalman

1.2 Odométrie

1.4 Autres techniques de localisation

2.4 Evitement d'obstacles

Plan du chapitre

Introduction et défis

•Odométrie •Localisation par filtre de Kalman •Autres techniques de localisation 4

Partie 2 Partie 3

Partie 1

Partie 4

Partie 3 :

Localisation par filtre de Kalman

5 • Notions de base de théorie des probabilités • Généralités sur le filtre de Kalman • Classification des problèmes de localisation • Filtre de Kalman étendu (EKF)

Notions de base de théorie des probabilités Soit une variable aléatoire (v.a.) et une valeur spécifique (ou réalisation)

qu'elle peut prendre. : probabilité que la variable aléatoire prenne la valeur X x X x

Exemples:

1.Le résultat d'un lancé de dé est caractérisé par (6 valeurs possibles):

6

Pr(X=1)=Pr(X=2)=...= Pr(X=6)=1

6

Pr(X=x)

2.Pièce de monnaie équilibrée lancée en l'air (2 valeurs possibles,

pile

» ou "

face »):

Pr(X="pile")=Pr(X= "face") =1

2 Dans un espace continu, les v.a. peuvent prendre un continuum de valeurs Dans ce cas, on introduit la notion de fonction de densité de probabilité (abréviation "pdf», probability density function). Une v.a. continue a une pdf si: 7 On peut obtenir la pdf d'une v.a. continue en calculant la dérivée de la fonction de répartition de la v.a. (abréviation " cdf

», cumulative

distribution function), à savoir:

Notions de base de théorie des probabilités

b a p(x)dx X p(x) p(x)=p X (x) P X p(x)=d dxP(x) 8 Notions de base de théorie des probabilités Exemple (loi exponentielle): • Support: • Paramètre: (intensité) p(x)=?λe -λx six≥0

0six<0P(x)=?1-e

-λx six≥0

0six<0

λ>0

[0,+∞)

Densité de probabilité

Fonction de répartition

x x =0.5

λ=1

λ=1.5

1.Nous avons que:

p(x)dx=1

à savoir, l'aire sous une pdf est 1

p(x) x 9

Propriétés d'une pdf:

Notions de base de théorie des probabilités 2.Les pdf sont des fonctions non négatives, c'est-à-dire:

p(x)≥0,?x?R • L'espérance de la v.a. : 10

E[X]=μ??

xp(x)dx • La variance de la v.a. XX

E[(X-μ)

2 ]=var[X]?? (x-μ) 2 p(x)dx

Notions de base de théorie des probabilités Étant donnée un v.a. avec une pdf , on peut définir les deux

quantités suivantes: X p(x)

Exemple:

Soit une v.a. qui suit la loi exponentielle. Alors, nous avons que: X

E[X]=1

λ,Var[X]=1

2 (moment centré d'ordre 2) • L'espérance de la v.a. : 11

Variables aléatoires multivariées

Cette pdf est une fonction scalaire d'une variable vectorielle et elle a la propriété: • La pdf d'une v.a. vectorielle

-dimensionnelle est une pdf conjointe des

éléments:

p(x)dx=? p(x 1 ,x 2 ,...,x m )dx 1 dx 2

···dx

m =1 p(x)=p(x 1 ,x 2 ,...,x m X

E[X]=μ??

xp(x)dx=? ???E[X 1 E[X 2 E[X m X=[X 1 ,X 2 ,...,X m T

Notions de base de théorie des probabilités

m m

• La matrice est symétrique ( ) et semi-définie positive 12

• La matrice de covariance de la v.a. X

Remarques:

• La matrice contient les variances de sur la diagonale principale et les covariances croisées de et sur les éléments hors diagonale

Σ?R

m×m X i X i T X j ,i?=j

Notions de base de théorie des probabilités

Σ=E[(X-μ)(X-μ)

T ]=Var[X]?? (x-μ)(x-μ) T p(x)dx

Exemple

?E[(X 1 1 2 ]E[(X 1 1 )(X 2 2 )]E[(X 1 1 )(X 3 3 E[(X 2 2 )(X 1 1 )]E[(X 2 2 2 ]E[(X 3 3 )(X 1 1 E[(X 3 3 )(X 1 1 )]E[(X 3 3 )(X 2 2 )]E[(X 3 3 2

3×3

Notions de base de théorie des probabilités 1) La loi gaussienne (ou normale) est est l'une des lois de probabilité les plus

adaptées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Sa pdf dépend de deux paramètres, son espérance, un nombre réel noté , et son écart type, un nombre réel positif, noté : p(x)=1

2πexp?

-(x-μ) 2 2σ 2

Lorsque une v.a. suit la loi gaussienne,

il est habituel d'utiliser la notation suivante: moyenne variance p(x) la loi gaussienne est appelée standard (ou centrée réduite) Si et ,

μ=0

σ=1

Remarque: 13

X

X≂N(μ, σ

2 x

μ=E[X]

Si la v.a. est -dimensionnelle, la loi gaussienne multivariée est caractérisée par la pdf : où p(x)=1 (2π) m det(Σ)exp? -1

2(x-μ)

T -1 (x-μ)? : moyenne : matrice de covariance

Commande Matlab:

retourne une matrice qui contient des valeurs pseudo-aléatoires tirées d'une loi gaussienne standard p(x) randn(m,n)

Gaussienne

bivariée x 1 x 2 14

Notions de base de théorie des probabilités

μ?R

m

Σ?R

m×m

On écrira alors:

X≂N(μ,Σ)

m×n X m

2) Pdf uniforme

La densité de probabilité est une fonction

porte sur l'intervalle :

Commande Matlab:

rand(m,n) [a, b] p(x)=? ?1 b-apourx?[a, b]

0sinon

Si est une v.a. uniforme, on écrit

3) Delta de Dirac

1 b-a

δ(x)dx=1

avec la contrainte: 0 15

XX≂U(a, b)

δ(x)=?+∞,x=0

0,x?=0

x p(x) x

Notions de base de théorie des probabilités

a b Pdf unimodale: un seul mode ou "un seul maximum» Exemples: loi gaussienne, de Laplace, de Cauchy, de Student, exponentielle, du

Pdf multimodale : "plusieurs maxima »

Exemple: mélange de gaussiennes,

Pdf unimodale Pdf bimodale

16

αN(μ

1 21
)+(1-α)N(μ 2 22
),α?[0,1] 2

Notions de base de théorie des probabilités

Densité de probabilité conjointe

La pdf conjointe de deux variables aléatoires X et Y est donnée par Elle décrit la probabilité que la v.a. X prend la valeur et que Y prend la valeur Si les v.a. X et Y sont indépendantes, nous avons que: p(x, y) p(x, y)=p(x)p(y)

Densité de probabilité conditionnelle

La densité de probabilité conditionnelle décrit la probabilité que la v.a. X prend la valeur sous la condition que sûrement la v.a. Y prend la valeur . La densité de probabilité conditionnelle est indiquée . Si elle est définie comme suit: p(x|y) p(y)>0 p(x|y)=p(x, y) p(y) 17

Notions de base de théorie des probabilités

xy x yquotesdbs_dbs5.pdfusesText_9