0:00
[MUSIQUE]
Bienvenue.
Dans les séances précédentes, nous avons vu comment
simuler une variable aléatoire réelle en inversant sa fonction de répartition.
Ça, c'était la méthode de base qui était efficace à condition qu'on sache,
0:27
qu'on connaisse l'expression de la fonction de répartition et qu'on sache
en particulier l'inverser.
Nous avons vu après comment aller bien au-delà en utilisant la méthode du rejet
et on utilise une variable aléatoire auxiliaire pour laquelle on sait par
exemple utiliser la méthode d'inversion de la fonction de répartition.
0:43
Dans cette séance, je voudrais vous montrer deux exemples où on peut utiliser
des méthodes spéciales qui sont bien adaptées à, aux variables aléatoires que
je vais considérées, qui vont être d'une part une variable aléatoire normale et
d'autre part une variable aléatoire qui suit une loi de Poisson.
1:00
Le premier exemple que je vous montrerai est celui de la simulation d'une
loi normale centrée réduite.
On l'appelle la méthode polaire et c'est une méthode qui s'appelle aussi
Box-Mueller, du nom des personnes à qui on attribue cette méthode.
Et cette méthode est extrêmement pratique pour simuler une
variable normale centrée réduite et plus efficace et plus simple que la méthode
d'inversion de la fonction de répartition.
N'oubliez pas qu'en plus, la fonction de répartition d'une gaussienne n'est pas
connue explicitement donc il faut utiliser des tables qui,
ou il y a des valeurs approximatives donc ce n'est vraiment pas pratique.
1:40
Si on se donne deux variables aléatoires uniformes U1, U2 sur l'intervalle
0 1 indépendantes, alors si vous prenez la variable aléatoire moins 2 ln de U1,
vous prenez la racine carré, vous multipliez par le cosinus de 2 pi U2,
on va voir que ça suit une loi normale centrée réduite.
C'est-à-dire que cette variable aléatoire a pour loi
ce qu'on note habituellement N 0 1 ou N 0 variance 1.
Et un petit changement de variable en fait vous permet de déduire facilement que
si vous avez deux nombres mu et sigma, si vous prenez mu plus sigma, la même chose,
vous allez simuler une loi normale de moyenne mu et de variance sigma carré.
Donc, démontrons ce théorème.
En fait, il va être la conséquence de,
du théorème suivant que j'appelle proposition qui dit la chose suivante.
2:34
Si vous prenez une variable aléatoire que je vais appeler grand R, vous verrez dans
un instant pourquoi, qui suit une loi exponentielle de paramètre un demi.
Si je prends grand thêta qui est uniforme sur 0 2 pi, indépendante, alors,
ce couple de variables aléatoires X égal racine de R cos thêta et Y égal racine
de R sinus thêta je dis qu'elles sont indépendantes normales centrées réduites.
J'ai mis deux fois indépendantes, ça ne sert à rien évidemment.
Et donc, c'est ça qui va nous permettre de déduire le résultat précédent.
3:07
Alors si la preuve que je vais vous donner utilise le, un changement de variable pour
des fonctions de deux variables donc si vous êtes familiers avec ça, tout va bien.
Sinon, vous pouvez éventuellement sauter cette démonstration.
Donc démonstration de la proposition.
4:22
Donc l'idée c'est que ça va être de de d'écrire ce que c'est cette intégrale et
de passer aux coordonnées x y pour faire apparaître une densité pour le couple xy.
Et on verra que ça fait apparaître le produit de
densités de variables gaussiennes centrées réduites; Donc, si je développe ça,
4:43
puisqu'on sait que R suit une loi géométrique de paramètre un demi et grand
thêta une loi uniforme de, sur 0 2 pi, ça c'est l'intégrale, donc il y a le
un demi qui vient de la loi exponentielle mais on intègre de 0 à l'infini.
Il y a, il y aura le 1 sur 2 pi qui vient de la loi uniforme.
On a intégré sur 0 2 pi donc on a la fonction à intégrer,
g racine de r cos thêta racine de r sinus thêta
5:16
fois donc il y a la densité de la loi exponentielle qui est e moins r2
sur 2 dr et puis il y a d thêta puisque uniforme, il y a,
la densité est 1 sur l'intervalle 0 2 pi.
Donc, je vous, je note dans un petit coin qu'on a utilisé le fait que si j'appelle
fR la densité de la loi exponentielle de paramètre un demi, c'est un demi
e moins r2 sur 2 indicatrice de R+ et grand f thêta,
la densité de la variable grand thêta, c'est 1 sur 2 pi indicatrice de 0 2 pi.
Voilà, j'ai utilisé ça.
Donc maintenant on va faire un changement de variable qui est le suivant,
c'est qu'on veut passer de, on veut changer r thêta en x y.
Donc on a une fonction x
6:49
Donc, tout va bien.
On peut calculer la matrice jacobienne qu'on peut noter comme ça,
c'est une notation standard.
Sinon on appelle ça aussi j.
Ça consiste donc à regarder la matrice où pour la première coordonnée,
la première entrée en haut à gauche, c'est,
on dérive x par rapport à r donc ça nous fait cos thêta divisé par 2 racine de r.
On divise x par rapport à, on dérive x par rapport à thêta,
ça fait moins racine de r sinus thêta.
On fait pareil pour y sur la deuxième ligne,
Ca nous fait sinus thêta sur 2 racine de r racine de r cos thêta.
8:27
Et là, on reconnaît ici, ça, ça s'écrit comme le produit,
en tenant compte bien sûr de 1 sur 2 pi, vous voyez que c'est le produit de 1 sur
racine de 2 pi e moins x2 sur 2 fois 1 sur racine de 2 pi e moins y2 sur 2.
Donc on a obtenu que toute fonction continue bornée de x y elle
s'intègre contre le produit de densité de loi normale centrée réduite, ce qui veut
dire que x et y sont normales centrées réduites et qu'elles sont indépendantes.
9:10
On a vu les fois précédentes que pour simuler une loi exponentielle de paramètre
un demi, il suffisait de prendre moins 2 ln de U1, donc 2 c'est l'inverse d'un
demi, l'inverse du paramètre de la loi exponentielle et 2 pi U2, ça,
ça va simuler thêta.
Donc, si je mets ici ce qui simule racine de R et là ce qui simule thêta,
j'ai bien que cette variable aléatoire va avoir la même loi que X
9:41
Donc, la proposition qu'on vient de démontrer hein, qu'on n'a pas admise,
qu'on vient de démontrer, on en déduit donc que ces deux variables
aléatoires sont des variables normales centrées réduites donc juste une loi N
0 1 indépendante, en particulier si je prends par exemple la première, j'obtiens
bien que cette La variable aléatoire va simuler une normale centrée réduite.
Je peux, bien sûr, prendre l'autre.
Voilà en ce qui concerne la loi normale.
La deuxième loi que je voulais vous montrer,
où on peut utiliser une méthode particulière, concerne la loi de Poisson.
Bien sûr, c'est une loi discrète.
On avait dit qu'on pouvait utiliser un algorithme général pour des lois de
probabilité discrètes.
En fait, c'est beaucoup plus efficace, la méthode que je vais vous montrer,
et elle utilise des variables aléatoires exponentielles.
On va voir pourquoi.
Voilà le résultat.
Je vous rappelle qu'une loi de Poisson de paramètre lambda,
la probabilité que X vaille k, c'est donné par cette expression,
lambda étant le paramètre strictement positif de la loi,
et elle peut prendre toutes les valeurs entières 0, 1, 2, 3 etc.
jusqu'à l'infini.
10:45
Le théorème que je vais vous montrer est le suivant.
Si vous prenez une suite de variables indépendantes qui suivent toutes une
loi uniforme dans l'intervalle 0, 1, alors si vous prenez le produit U 1 etc.
U n plus 1 et vous regardez l'indice n tel que
ce produit est strictement plus petit que e moins lambda,
cette variable aléatoire suit une loi de Poisson de paramètre lambda.
La démonstration est la suivante.
11:22
je note le i, et je définis cette variable aléatoire N,
alors il faut commencer par poser 0, si jamais E 1 est plus grand ou égal à 1,
sinon N, c'est, vous regardez la somme de ces variables exponentielles jusqu'à
i et vous regardez le plus grand i tel que cette somme est plus petite ou égale à 1.
Ҫa, c'est grand N.
Ce lemme vous dit que N suit une loi de Poisson de paramètre lambda positif.
Si on admet ce lemme pendant un instant, on a vu que
si on prend des variables U i uniformes sur l'intervalle 0,
1, E i égal moins 1 sur lambda ln de U i,
c'est des variables exponentielles de paramètre lambda.
Donc vous voyez que la condition que la somme de E j
jusqu'à i soit plus petite ou égale à 1, c'est exactement la même chose que dire
que moins 1 sur lambda ln du produit de U j jusqu'à i soit plus petit ou égal à 1.
On a juste transformé,
on a une somme de log, simplement ça devient le log d'un produit.
et en passant l'exponentielle, vous voyez que ça veut dire ni plus ni moins que
le produit des U j jusqu'à i est plus grand ou égal à e moins lambda.
Vous voyez, en particulier, supposant que la variable aléatoire qu'on
vient de définir vaille exactement k, par définition,
ça veut dire que le produit jusqu'à k est plus grand ou égal à e moins lambda et
si vous mettez k plus 1, e moins lambda domine strictement ce produit.
12:52
Donc ça donne un algorithme qui est,
je prends des variables uniformes les unes après les autres, je forme le produit, et
je regarde au bout de la première fois que le produit va satisfaire cette condition.
Nous allons donc démontrer le lemme qui sert à établir ce résultat.
13:23
Donc allons-y!
La probabilité que N égal k, comme on vient de le voir, la définition même de N,
c'est que c'est la probabilité que la somme de j
entre 1 et k soit plus petite ou égale à 1
et strictement plus petite que la somme de j égal 1 jusqu'à k plus 1 d'E j.
Je vais mettre une étoile pour plus tard.
13:54
que je peux noter V k plus 1, qui est la forme E1 etc.
E k, E k plus 1, et sa densité,
comme on a des variables exponentielles indépendantes, c'est tout simplement le
produit des densités et donc ça fait lambda puissance k plus 1.
Il y a k plus 1 variables aléatoires, exponentielle moins lambda x 1 plus etc.
X k plus 1.
Et il faut multiplier, on a droit qu'aux valeurs positives,
donc il faut multiplier par l'indicatrice de R plus, k plus 1, X 1 etc.
14:38
Ensuite, il faut remarquer qu'on va intégrer
ce vecteur dans une région qui est défini comme ça.
On prend les vecteurs dans R k plus 1, qui sont
dans la somme des composantes jusqu'à k et plus petites que 1, par contre,
si je prends une composante de plus, c'est strictement plus grand que 1.
Donc on peut calculer ce que j'ai appelé étoile là au-dessus.
Ҫa va être l'intégrale sur R sur k plus 1 lambda
15:19
k plus 1 fois e moins lambda X 1 plus etc.
plus X k plus X k plus 1, d x 1 etc.
d x k plus 1.
Alors, pour me faciliter la vie, je vais appeler la somme des quatre premiers S k.
15:38
Je continue mon calcul.
Ҫa fait ça, lambda k plus 1 et là,
je vais tout simplement intégrer sur la variable X k plus 1.
Donc là, vous voyez que ça s'écrit S k plus x k plus 1.
15:58
Alors évidemment, là j'ai oublié l'intersection avec a k plus 1, donc
maintenant je le mets dans l'intégrant, et ça fait S k plus petit ou égal à 1 fois
l'indicatrice que X k plus 1 soit strictement plus grand que 1 moins S k.
Et bien sûr, je rajoute d x 1 etc.
d x k.
Maintenant, je peux utiliser Fubini,
pour pouvoir intégrer par rapport à la k plus unième variable.
J'obtiens ici R plus k lambda k,
parce que je vais prendre un lambda que je vais mettre plus loin, e moins lambda S k,
je garde l'indicatrice que S k est plus petit ou égal à 1 et
16:44
lambda e moins lambda x k plus 1, d x k plus 1.
Et bien sûr, je laisse d x 1 etc.
d x k.
On compte, dessus j'avais oublié un k plus 1.
Voilà, ici.
16:57
Donc ça, évidemment, c'est très facile à calculer,
ça donne tout simplement e moins lambda, e lambda S k.
Vous voyez ce qui se passe,
c'est que ce terme-là est positif, il va compenser cela.
Donc on obtient lambda k, on peut le sortir, 2 moins lambda,
17:15
ça ressemble de plus en plus à la loi de Poisson,
R plus k et on a juste à intégrer cette indicatrice,
que S k est plus petit ou égal à 1 d x 1, d x k.
Voilà. Maintenant, il nous reste à calculer
cette quantité.
Comment s'y prend-on?
On fait un changement de variable, qui est phi.
C'est un changement variable linéaire qui transforme X 1, X k en S 1, S 2 etc.
17:50
S k.
Et vous avez deviné que S j, c'est la somme des X i
de i égal 1 jusqu'à j, donc je somme les j premières coordonnées.
Et j'en comme ça k.
J 1 égal 1 jusqu'à k.
L'intégrale qui nous intéresse, c'est celle-là.
18:16
Là, il faut remarquer la chose suivante.
On va encore utiliser Fubini.
Remarquez que S
k
on peut l'écrire comme une somme télescopique,
S 1 plus S 2 moins S 1 plus etc.
plus S k moins S k moins 1.
Vous voyez que, par construction, on a donc S 1 égal à X 1, S 2 moins S 1,
c'est X 2 et S k moins S k moins 1, c'est X k.
Puisqu'on intègre là-dessus, on sait qu'on veut que ce S
k soit plus petit ou égal à 1 et vous voyez que à chaque fois X 1,
comme on intègre ici, X 1 doit être positif ou nul, X 2 doit être
positif ou nul etc., donc on voit que S 2 moins S 1 doit être positif ou nul, etc.
S k moins S k moins 1 doit être positif ou nul.
19:13
Donc, ça se réécrit tout simplement, alors il faut le lire de la
droite vers la gauche, je vais l'écrire de la gauche vers la droite,
on va l'interpréter dans l'autre sens.
Ҫa fait ça.
Intégrale de 0, S k de S k moins 1 etc.
0, S 2 d S 1.
Et ce que je prétends, c'est que ça donne une intégrale assez facile à calculer,
c'est tout simplement 1 sur k factorielle.
19:38
Vous remarquez, si je commence par la droite,
0 intégrale de 0 à S 2 d S 1 c'est S 2.
Ensuite, vous voyez qu'on se retrouve avec l'intégrale de 0 à S 3 d S
19:55
Et ça fait tout simplement, on vient de calculer S 2,
ça fait 0 à S 3 S 2 d S 2, qui fait S 3 carré sur 2.
Et vous voyez bien le mécanisme qui se présente,
c'est qu'en remontant, en l'intégrant de la droite vers la gauche,
de proche en proche, on arrive à la dernière intégrale qui va être 0 à 1 de ex
S k plus k moins 1 divisé par k moins 1 factorielle,
puisqu'on aura chaque fois multiplié par 1/2 et après on aura 1/3 etc.
On augmente les puissances de S.
20:33
Et on obtient bien 1 sur k factorielle.
Donc on a bien terminé notre démonstration,
puisque il nous reste juste à vérifier que cette intégrale-là
était bien égale à 1 sur k factorielle pour avoir exactement la loi de Poisson.
Voilà donc notre théorème complètement démontré.
Je termine cette séance par une remarque qui nous dit que, si par exemple,
vous voulez simuler 400 variables aléatoires de Poisson paramètre disons 4,
ça consomme un nombre de variables uniformes compris entre 1600 et 2400,
avec une probabilité d'au moins 99 %.
Pour montrer ça, il faudra un peu plus travailler, mais ça repose essentiellement
sur l'inégalité de Chebychev, qui vous donne quantitativement,