[PDF] Cours dAutomatique Master de Mathématiques Université d





Previous PDF Next PDF



Observabilité et systèmes discrets:

29 mars 2018 ir the control constant on [0ô] and equal to u(k6). There exist many notions of observability



Analyse des propriétés structurelles dobservabilité de létat et de l

25 sept. 2008 Définissons la matrice de transfert du système struc- turé comme T?(s) = C?(sI?A?)?1B?+D? et assumons que rang(T?(s)) = q. La définition.



Chapitre III Commandabilité et observabilité des systèmes

Définition 3.1 : Un état xi du système est commandable en t0 s'il existe un signal d'entrée u(t)/t ? [t0



Observabilité et inversibilité de la matrice dinformation de Fisher

la question de l'observabilité de ? se pose en termes d'injectivité de h. D'où une première définition : Definition 1. Le paramètre ? est (simplement) 



Cours dAutomatique Master de Mathématiques Université d

5 Observabilité. 51. 5.1 Définition et critères d'observabilité . . . . . . . . . . . . . . . . . 51. 5.2 Stabilisation par retour d'état statique .



??? ?????????????? ??????????????????????????????????? ? ???? ?? ??

Définition 1.3.2. On appelle observabilité d'un système la possibilité d'évaluer l'ensemble des gran- deurs constitutives du vecteur d'état à partir des 



M A S T E R

Définitions et caractérisations de quelques concepts d'observabilité . Définition 1.1 Le déterminant d'une matrice carrée A=(ai j )1?ij?n d'ordre n ...



Observation et commande des systèmes singuliers non linéaires

7 juin 2012 1.3.5.1 Observabilité. Définition 1.3.8. (Observabilité) Le système (1.3) est dit observable si la condition initiale.



Controllability and Observability

They can be roughly defined as follows. Controllability: In order to be able to do whatever we want with the given dynamic system under control input the 



Cours dAutomatique

28 juin 2017 La définition de l'observabilité ne fait pas d'hypoth`ese particuli`ere sur la nature de l'entrée. Cette propriété peut.

Comment utiliser l’observabilité ?

Pour l’observabilité, vous devez recueillir des données à partir de sources ouvertes et propriétaires et les regrouper en un seul endroit. Vous devez appliquer automatiquement de l’instrumentation là où cela a du sens et en ajouter là où vous avez le plus besoin de visibilité. M.E.L.T. - Description rapide

Quels sont les avantages de l’observabilité ?

Bien plus qu’un simple mot à la mode, l’observabilité est une approche stratégique et utile pour comprendre l’état de l’ensemble de votre infrastructure. Le cloud, les conteneurs, les microservices et autres nouvelles technologies ont rendu les systèmes plus complexes qu’ils ne l’ont jamais été.

Comment accroître l’observabilité du système ?

On effectue une supervision pour accroître l’observabilité du système. En informatique, l’observabilité est une propriété de ce système, comme sa fonctionnalité ou sa testabilité. Plus précisément, la supervision consiste à observer les performances d’un système dans le temps.

Quelle est la différence entre la supervision et l’observabilité ?

La supervision et l’observabilité sont des concepts distincts qui dépendent l’un de l’autre. On effectue une supervision pour accroître l’observabilité du système. En informatique, l’observabilité est une propriété de ce système, comme sa fonctionnalité ou sa testabilité.

  • Past day

Cours dAutomatique Master de Mathématiques Université d

Cours d"Automatique

Master de Mathématiques, Université d"Orléans, premier trimestre

Emmanuel Trélat et Thomas Haberkorn

2

Table des matières1 Rappels5

1.1 Rappels d"algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . 5

1.1.1 Exponentielle de matrice . . . . . . . . . . . . . . . . . . . 5

1.1.2 Réduction des endomorphismes . . . . . . . . . . . . . . . 6

1.2 Théorème de Cauchy-Lipschitz . . . . . . . . . . . . . . . . . . . 8

1.2.1 Un énoncé général . . . . . . . . . . . . . . . . . . . . . . 8

1.2.2 Systèmes différentiels linéaires . . . . . . . . . . . . . . . . 9

1.2.3 Applications en théorie du contrôle . . . . . . . . . . . . . 11

2 Modélisation d"un système de contrôle 13

2.1 Exemples de systèmes de contrôle . . . . . . . . . . . . . . . . . . 13

2.1.1 En mécanique . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.1.2 Electricité . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.1.3 Chimie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.1.4 Biologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.1.5 Equations aux dérivées partielles . . . . . . . . . . . . . . 16

2.2 Représentation interne des systèmes de contrôle linéaires . . . . . 16

2.3 Représentation externe des systèmes de contrôle linéaires . . . . 16

3 Contrôlabilité21

3.1 Ensemble accessible . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2 Contrôlabilité des systèmes linéaires autonomes . . . . .. . . . . 26

3.2.1 Cas sans contrainte sur le contrôle : condition de Kalman 26

3.2.2 Cas avec contrainte sur le contrôle . . . . . . . . . . . . . 28

3.2.3 Equivalence linéaire de systèmes . . . . . . . . . . . . . . 29

3.2.4 Forme de Brunovski . . . . . . . . . . . . . . . . . . . . . 29

3.3 Contrôlabilité des systèmes linéaires instationnaires . . . . . . . . 31

3.4 Contrôlabilité des systèmes non linéaires . . . . . . . . . . .. . . 33

3.4.1 Application entrée-sortie . . . . . . . . . . . . . . . . . . . 34

3.4.2 Contrôlabilité . . . . . . . . . . . . . . . . . . . . . . . . . 36

4 Stabilisation41

4.1 Systèmes linéaires autonomes . . . . . . . . . . . . . . . . . . . . 41

4.1.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3

4TABLE DES MATIÈRES

4.1.2 Critère de Routh, critère de Hurwitz . . . . . . . . . . . . 42

4.1.3 Stabilisation des systèmes de contrôle linéaires autonomes 43

4.2 Interprétation en termes de matrice de transfert . . . . . .. . . . 45

4.3 Stabilisation des systèmes non linéaires . . . . . . . . . . . .. . . 46

4.3.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.3.2 Stabilisation locale d"un système de contrôle non linéaire . 47

4.3.3 Stabilisation asymptotique par la méthode de Jurdjevic-

Quinn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

5 Observabilité51

5.1 Définition et critères d"observabilité . . . . . . . . . . . . . .. . . 51

5.2 Stabilisation par retour d"état statique . . . . . . . . . . . .. . . 55

5.3 Observateur asymptotique de Luenberger . . . . . . . . . . . . .55

5.4 Stabilisation par retour dynamique de sortie . . . . . . . . .. . . 56

Chapitre 1Rappels1.1 Rappels d"algèbre linéaire1.1.1 Exponentielle de matrice Soit IK=IR ouC, et soit? · ?une norme multiplicative surMn(IK)(i.e. ?AB???A??B?pour toutes matricesA,B? Mn(IK); par exemple les normes d"opérateurs sont multiplicatives). Définition 1.1.1.SoitA? Mn(IK). On définit l"exponentielle de la matriceA par : exp(A) =eA=+∞?k=1A k k!. C"est une série normalement convergente dans le BanachMn(IK), vu que ?q k=pA k k!?????? ?q? k=p????

Akk!????

?q? k=p?A?kk!?e?A?. Proposition 1.1.1.- Pour toutA? Mn(IK), on a eA?GLn(IK), et (eA)-1=e-A. - L"application exponentielle est IK-analytique (et donc en particulier est de classeC∞sur le corps IK). - La différentielle de Fréchetdexp(0)de l"application exponentielle en0est

égale à l"identité surMn(IK).

- Pour toutes matricesA,B? Mn(IK)qui commutent, i.e.AB=BA, on a : e

A+B=eAeB.

- SiP?GLn(IK), alorsPeAP-1=ePAP-1. - PourA? Mn(IK), l"applicationf(t) =etAest dérivable, etf?(t) =

AetA=etAA.

5

6CHAPITRE 1. RAPPELS

1.1.2 Réduction des endomorphismes

L"espace vectorielMn(IK)est de dimensionn2sur IK, donc les éléments

I,A,...,A

n2sont linéairement dépendants. Par conséquent il existe despo- lynômesPannulateurs deA, i.e. tels queP(A) = 0. L"anneau IK[X]étant principal, l"idéal des polynômes annulateurs deAadmet un unique générateur normalisé, i.e. un unique polynôme de plus petit degré, dontle coefficient do- minant est égal à1, annulantA; on l"appellepolynôme minimalde la matrice

A, notéπA.

Par ailleurs, lepolynôme caractéristiquedeA, notéχA, est défini par :

A(X) =det(XI-A).

Théorème 1.1.2(Théorème de Hamilton-Cayley).χA(A) = 0. En particulier, le polynôme minimalπAdivise le polynôme caractéristique

A. Notons que degχA=net degπA?n.

Exemple 1.1.1.Pour une matriceN? Mn(IK)nilpotente, i.e. il existe un entierp?1tel queNp= 0, on a nécessairementp?n,πN(X) =Xpet

N(X) =Xn.

Exemple 1.1.2.Pour unematrice compagnon, i.e. une matrice de la forme :

A=((((((((0 1 0···0

.0......... ..........0

0 0···0 1

-an-an-1··· -a2-a1)))))))) on a :

A(X) =χA(X) =Xn+a1Xn-1+···+an-1X+an.

Le scalaireλ?IK est ditvaleur propres"il existe un vecteur non nulv?IKn, appelévecteur propre, tel queAv=λv. L"espace propreassocié à la valeur propreλest défini par :

E(λ) = ker(A-λI) ;

c"est l"ensemble des vecteurs propres deApour la valeur propreλ. Lorsque IK=C, les valeurs propres deAsont exactement les racines du polynôme caractéristiqueχA. En particulier on a :

A(X) =r?i=1(X-λi)mietπA(X) =r?

i=1(X-λi)si, avecsi?mi. L"entiersi(resp.mi) est appeléordre de nilpotence(resp.mul- tiplicité) de la valeur propreλi. L"espace caractéristiquede la valeur propreλi est défini par :

N(λi) = ker(X-λi)si.

1.1. RAPPELS D"ALGÈBRE LINÉAIRE7

Théorème 1.1.3(Théorème de décomposition des noyaux).SoientA? Mn(IK) etP?IK[X]un polynôme tel que :

P(X) =r?

i=1P i(X), où les polynômesPisont premiers entre eux deux à deux. Alors : kerP(A) =r? i=1kerPi(A). De plus, chaque sous-espacekerPi(A)est invariant parA, et la projectionpi surkerPi(A)parallèlement à? j?=ikerPj(A)est un polynôme enA. En appliquant ce théorème au polynôme minimal deA, on obtient, lorsque IK=C: C n=r? i=1N(λi). Notons queN(λi) = ker(X-λi)si= ker(X-λi)mi. La restriction deAàN(λi)est de la formeλiI+Ni, oùNiest une matrice nilpotente d"ordresi. On peut alors montrer que toute matriceA? Mn(IK) admet une unique décompositionA=D+N, oùDest diagonalisable surC,N est nilpotente, et de plusDN=ND(décompositionD+N). On peut préciser ce résultat avec la théorie de Jordan. Théorème 1.1.4(Décomposition de Jordan).SoitA? Mn(IK); on suppose

queπAest scindé sur IK (ce qui est toujours le cas surC) tel queπA(X) =?ri=1(X-λi)si. Alors il existeP?GLn(IK)telle que

P -1AP=(((A 10

0Ar)))

où les matricesAisont diagonales par blocs : A i=(((J i,10

0Ji,ei)))

et où les matricesJi,k,1?i?r,1?k?ei, sont des blocs de Jordan, i.e. des matrices carrées de la forme : J i,k=((((((λ i1 0 0 .......1

0···0λi))))))

n"ayant pas forcément toutes le même ordre|Ji,k|. Pour touti? {1,...,r}, on aei= dimE(λi), etmax1?k?ei|Ji,k|=si.

8CHAPITRE 1. RAPPELS

1.2 Théorème de Cauchy-Lipschitz

Dans cette section nous rappelons une version générale du théorème de Cauchy-Lipschitz, adaptée à la théorie du contrôle, qui établit sous certaines conditions l"existence et l"unicité d"une solution d"une équation différentielle. Une bonne référence à ce sujet est [18, Appendix C].

1.2.1 Un énoncé général

SoitIun intervalle de IR etVun ouvert de IRn. Considérons le problème de

Cauchy :

x(t) =f(t,x(t)), x(t0) =x0,(1.1) oùfest une application deI×Vdans IRn, etx0?V. Le théorème de Cauchy- Lipschitz usuel affirme l"existence et l"unicité d"une solution maximale pourvu quefsoit continue, et localement lipschitzienne par rapport àx. Mais en théorie du contrôle ces hypothèses doivent être affaiblies car on estamené à considérer des contrôles non continus (au mieux, continus par morceaux), et par conséquent la continuité du second membre n"est plus assurée. En particulier la solution, si elle existe, n"est pas en général dérivable partout et il faut donc redéfinir de manière adéquate le concept de solution. Définition 1.2.1.On suppose que pour toutt?Ila fonctionx?→f(t,x)est mesurable, et que pour toutx?Ula fonctionx?→f(t,x)est continue. Une solutionx(.)définie sur un intervalleJ?Idu problème de Cauchy (1.1) est une fonction absolument continue deJdansVtelle que pour toutt?J x(t) =x0+? t t

0f(s,x(s))ds,

ce qui est équivalent à : x(t) =f(t,x(t))p.p. surJ, x(t0) =x0. La solution(J,x(·))est ditemaximalesi, pour toute autre solution(¯J,¯x(·)), on a¯J?Jetx(·) = ¯x(·)sur¯J.

On a alors le théorème suivant.

Théorème 1.2.1(Théorème de Cauchy-Lipschitz).On suppose que la fonction f:I×V→Vvérifie les deux hypothèses suivantes :

1.fest localement lipschitzienne enx, au sens où :

?x?V?r >0?α?L1loc(I,IR+)/ B(x,r)?V,et

2.fest localement intégrable ent, i.e. :

1.2. THÉORÈME DE CAUCHY-LIPSCHITZ9

Alors pour toute donnée initiale(t0,x0)?I×V, il existe une unique solution maximalex(.)du problème de Cauchy (1.1). Remarque1.2.1.On n"a pas forcémentJ=I; par exemple considérons le pro- blème de Cauchyx(t) =x(t)2,x(0) =x0. Alors : - six0= 0, on aJ=IR etx(·)≡0; - six0>0, on aJ=]- ∞,1/x0[etx(t) =x0/(1-x0t); - six0<0, on aJ=]1/x0,+∞[etx(t) =x0/(1-x0t). Remarque1.2.2.Sifest seulement continue on n"a pas unicité en général; par exemple considérons le problème de Cauchyx(t) =? |x(t)|,x(0) = 0. La fonction nulle est solution, ainsi que x(t) =?0sit?0, t

2/4sit >0.

Théorème 1.2.2(Théorème d"explosion).Sous les hypothèses du théorème de Cauchy-Lipschitz, soit(]a,b[,x(·))une solution maximale. Sib 0tel quex(t)/?K, pour toutt?]b-η,b[. Remarque1.2.3.En particulier siV=IRn, alors?x(t)? -→t→btinfJ. Enonçons maintenant une version globale du théorème de Cauchy-Lipschitz. Théorème 1.2.3.Sous les hypothèses du théorème de Cauchy-Lipschitz, on suppose de plus queV=IRnet quefest globalement lipschitzienne par rapport

àx, i.e.

AlorsJ=I.

1.2.2 Systèmes différentiels linéaires

Considérons le problème de Cauchy dans IR

n: x(t) =A(t)x(t) +B(t), x(t0) =x0,(1.2) où les applicationst?→A(t)? Mn(IR)ett?→B(t)?IRnsont localement intégrables sur l"intervalleIconsidéré. Définition 1.2.2.Larésolvantedu problème (1.2) est la solution du problème de Cauchy : ∂R ∂t(t,t0) =A(t)R(t,t0), R(t0,t0) =I, oùR(t,t0)? Mn(IR).

10CHAPITRE 1. RAPPELS

Proposition 1.2.4.La résolvante vérifie les propriétés suivantes : -R(t2,t0) =R(t2,t1)R(t1,t0). - SiΔ(t,t0) =detR(t,t0), on a : ∂t(t,t0) =trA(t).δ(t,t0),Δ(t0,t0) = 1. - La solution du problème de Cauchy (1.2) est : x(t) =R(t,t0)x0+? t t

0R(t,s)B(s)ds.

Remarque1.2.5.Lorsquet0= 0, on note plutôtM(t) =R(t,0). La formule de variation de la constante s"écrit alors : x(t) =M(t)x0+M(t)? t 0

M(s)-1B(s)ds.

Remarque1.2.6 (Expression de la résolvante).La résolvante admet le dévelop- pement en série suivant :

R(b,a) =I+?

a?s1?bA(s1)ds1+? a?s1?s2?bA(s2)A(s1)ds1ds2+···+ De plus cette série est normalement convergente. C"est undéveloppement en série chronologique. Cas des systèmes autonomes.Considérons le problème de Cauchy dans IRn: x(t) =Ax(t), x(0) =x0, oùA? Mn(IR). Alors, dans ce cas, la résolvante estM(t) =etA, et la solution de ce problème est : x(t) =etAx0. La décomposition de Jordan permet de préciser ce résultat. En effet, on a : e tA=P(((e tJ1,e10

0etJ1,er)))

P-1.

On calcule facilement :

e (|Ji,k|-1)! 0 ....etλit

0 0etλi)))))))

On obtient donc le résultat suivant.

1.2. THÉORÈME DE CAUCHY-LIPSCHITZ11

Proposition 1.2.5.Toute solution du systèmex(t) =Ax(t)est de la forme : x(t) =? 1?i?r

0?k?|Ji,k|e

tλitkvi,k, oùvi,k?N(λi).

1.2.3 Applications en théorie du contrôle

Systèmes de contrôle linéaires

Considérons le système de contrôle linéaire : x(t) =A(t)x(t) +B(t)u(t) +r(t), x(t0) =x0. Les hypothèses du théorème 1.2.1 sont clairement vérifiées si les applications t?→A(t),B(t)u(t),r(t), sont localement intégrables sur l"intervalleIconsidéré.

Il faut donc supposer :

-A(.)?L1loc(I,Mn(IR)), -r(.)?L1loc(I,IRn), et par ailleurs les hypothèses assurant la locale intégrabilité deB(.)u(.)dé- pendent de l"ensemble des contrôles considérés. Par exemple : - siu(.)?L∞loc(I,IRm)alors on suppose queB(.)?L1loc(I,Mn,m(IR)). - siu(.)?L2loc(I,IRm)alors on suppose queB(.)?L2loc(I,Mn,m(IR)). - De manière générale siu(.)?Lploc(I,IRm)alors on suppose queB(.)? L q loc(I,Mn,m(IR))où1 p+1q= 1. - si les contrôles sont des fonctions mesurables à valeurs dans un compact

Ω?IRm, on suppose queB(.)?L1loc(I,Mn,m(IR)).

Systèmes de contrôle généraux

Considérons le système de contrôle :

x(t) =f(t,x(t),u(t)), x(t0) =x0, oùfest une fonction deI×V×U,Iest un intervalle de IR,Vun ouvert de IR netUun ouvert de IRm. Pour rester dans un cadre très général, il suffit de supposer que pour chaque contrôleuconsidéré, la fonctionF(t,x) =f(t,x,u(t))vérifie les hypothèses du théorème 1.2.1. Bien entendu en fonction de la classe de contrôles considérée, ces hypothèses peuvent être plus ou moins difficiles à vérifier. On peut donner des hypothèses certes moins générales, mais qui suffisent dans la grande majorité des cas. Ces hypothèses sont les suivantes :

1. L"ensemble des contrôles considérés est contenu dansL∞loc(I,IRm),

2. La fonctionfest de classeC1surI×V×U.

12CHAPITRE 1. RAPPELS

Il est facile de vérifier qu"alors les hypothèses du théorème1.2.1 sont satisfaites et donc, pour chaque contrôle fixé il existe une unique solution maximale sur un intervalleJdu problème de Cauchy : x(t) =f(t,x(t),u(t))p.p. surJ, x(t0) =x0. Exercice 1.2.1.SoitA:]0,+∞[→ Mn(IR)une application continue. On consi- dère le système différentielx?(t) =A(t)x(t)et on noteR(t,t0)sa résolvante.

1. Montrer que la résolvanteS(t,t0)du systèmey(t) =-tA(t)y(t)estS(t,t0) =

tR(t,t0).

2. On pose

A(t) =((

2t+1 t01t-t t-1 t3t t-1t2 t-2t02t+t)) Montrer queA(t)possède une base de vecteurs propres indépendante de t. En déduire la résolvanteR(t,t0).

Chapitre 2Modélisation d"un système decontrôle2.1 Exemples de systèmes de contrôle2.1.1 En mécaniqueExemple 2.1.1(Wagon).D"après le principe fondamental de la mécanique,

l"équation du système est : m¨x(t) =u(t).

Exemple 2.1.2(Oscillateur harmonique).

m¨x(t) +kx(t) =u(t). Exemple 2.1.3(Pendule oscillant (en robotique : bras articulé)).

θ(t) +mglsinθ(t) =u(t).

Exemple 2.1.4(Pendule inversé).Ecrivons les équations du mouvement en utilisant les équations d"Euler-Lagrange. L"énergie cinétique et l"énergie poten- tielle sont : E c=1 est :

L=Ec-Ep=1

D"après les équations d"Euler-Lagrange :

d dt∂L∂x=∂L∂x, 13

14CHAPITRE 2. MODÉLISATION D"UN SYSTÈME DE CONTRÔLE

on obtient : ml

¨ξcosθ+ml2¨θ-mglsinθ= 0,

d"où

ξ=mlθ2sinθ-mgcosθsinθ+u

M+msin2θ,

θ=-mlθ2sinθcosθ+ (M+m)gsinθ-ucosθ

M+msin2θ.

Exemple 2.1.5(Systèmes de ressorts amortis).

?m

1¨x1=-k1(x1-x2)-d1(x1-x2) +u,

m

2¨x2=k1(x1-x2)-k2x2+d1(x1-x2)-d2x2.

Exemple 2.1.6(Amortisseurs d"une voiture).

?¨x1=-k1x1-d1x1+l1u,

¨x2=-k2x2-d2x2+l2u.

Exemple 2.1.7(Voiture commandée en vitesse).

?x(t) =u(t)cosθ(t), y(t) =u(t)sinθ(t),

θ(t) =v(t).

2.1.2 Electricité

Exemple 2.1.8(Vitesse angulaire d"un rotor).

Iω(t) =u(t).

Exemple 2.1.9(Circuit RLC).

L di dt+Ri+qC=u, oùq(t) =?tiest la charge du condensateur. D"où : ?dq dt=i, di dt=-RLi-1LCq+1Lu. Exemple 2.1.10(Servomoteur à courant continu).On note :Rla résistance; Ll"inductance;ela force contre-électromotrice;k1,k2des constantes;Jle

2.1. EXEMPLES DE SYSTÈMES DE CONTRÔLE15

moment d"inertie du moteur;fle coefficient de frottement du moteur;Γ =k2i le couple moteur;Γcle couple antagoniste;θl"angle moteur. On a : ?u=Ri+Ldi dt+e, e=k1θ, J

¨θ=kl2i-fθ-Γc,

d"où d dt(( i -R/L0k1/L 0 0 1 k

2/J0-f/J))

1 0 0)) u+(( 0 0 -Γc))

2.1.3 Chimie

Exemple 2.1.11(Cinétique chimique).Considérons l"équation CO+1 2O2k 1?k -1CO2. Les équations de la cinétique chimique sont : ?d[CO]quotesdbs_dbs30.pdfusesText_36
[PDF] matrice de trace nulle probleme

[PDF] querelle des anciens et des modernes jean de la fontaine

[PDF] anecdote sur anne frank

[PDF] exercice montrer que deux matrices sont semblables

[PDF] fontenelle

[PDF] vidéo anne frank

[PDF] matrice semblable exemple

[PDF] querelle des anciens et des modernes la fontaine

[PDF] anne frank reportage

[PDF] autoportrait anne frank

[PDF] pere d anne frank

[PDF] matrice de transition graphe probabiliste

[PDF] origine de la querelle des anciens et des modernes

[PDF] matrice de transition markov

[PDF] matrice de transition détat