Simulation et Algorithmes Stochastiques

Une introduction avec applications, Cépaduès Editions.

Nathalie Bartoli, Pierre Del Moral




Ces notes sont essentiellement basées sur un cours de troisième cycle donné a l'université Paul Sabatier , Toulouse III, depuis 1998 et sur un enseignement de cinquième année présenté à l'Institut National des Sciences Appliquées (INSA ) de Toulouse depuis 1999. Elles ont pour objectif d'introduire les principales méthodes de simulation de variables aléatoires et la modélisation stochastique d'une classe assez générale d'algorithmes stochastiques à temps discret.

Les chapitres sont indépendants les uns des autres. Dans un premier chapitre introductif nous rappelons brièvement les principales notions sur les chaines de Markov et la notion de martingale. Les deux dernières sections de ce premier chapitre sont consacrées à la description de principes généraux probabilistes sur lesquels sont basés les algorithmes markoviens présentés dans la suite du cours. L'un concerne les régimes stationnaires et les mesures invariantes d'une chaine de Markov. On introduit à ce titre l'algorithme universel de Métropolis-Hastings qui donnera lieu plus tard au recuit simulé. On décrit aussi l'échantillonneur de Gibbs, la mesure de Boltzmann-Gibbs et une description universelle d'une mesure invariante due à Bott et Mayberry dans le cadre des espaces finis. Le second et ultime principe concerne les méthodes dites de Monte-Carlo et les systèmes de particules en interactions. Ces techniques récentes d'approximation particulaires de problèmes d'estimation non linéaires tels le filtrage de signaux sont basées sur le même principe de construction que celui des systèmes de particules en interactions utilisés en biologie, en physique et en mécanique statistique. Dans cette ultime section nous ne ferons qu'effleurer ces modèles mais nous dégagerons un principe universel de construction de tels schémas numériques. On précisera certaines propriétés et la convergence de tels algorithmes dans le cadre du filtrage non linéaire et des algorithmes génétiques.

Le second chapitre décrit en détail les méthodes générales et universelles de simulation de lois de probabilités classiques. Ces techniques seront par la suite essentielles à la simulation effective des algorithmes markoviens sur ordinateur. Nous consacrerons aussi une partie de ce chapitre à la simulation de statistiques d'ordre uniformes par des lois exponentielles. Ces techniques de simulation seront très utiles pour simuler les étapes de sélection dans l'évolution des algorithmes génétiques.

Le troisième chapitre est le corps de ce cours. Nous avons choisi de présenter en détail les six algorithmes qui nous ont semblé les plus représentatifs parmi ceux utilisés en pratique: les fonctions itérées stochastiques, les algorithmes à pas décroissants de Robbins-Monro, le filtre de Kalman-Bucy, les algorithmes génétiques et leurs processus historiques ou généalogiques. Chacun de ces algorithmes est un outil d'approximation numérique d'un problème d'estimation spécifique: approximation d'une mesure invariante, description d'images fractales, recherche d'une ligne de niveau, inversion d'une fonction, recherche des extrema globaux, estimation/filtrage de signaux et lissage/estimation de trajectoires.
Les conditions d'application, les modèles markoviens et la simulation de chacun sont décrits dans tous les détails. La plupart des thèmes et sujets de travaux pratiques proposés sont issus de rapports techniques et/ou d'articles récents.

Le chapitre final est consacré à l'analyse de la convergence des algorithmes présentés dans le chapitre précédent. Nous n'aborderons qu'un aspect limité de chaque algorithme et nous renvoyons le lecteur aux ouvrages classiques sur chaque thème. Nous avons choisi de présenter les outils et les preuves complètes de convergence les plus simples et ne nécessitant pas l'introduction d'un cadre mathématique trop spécifique. Chaque section propose ainsi une analyse simple et séparée de chaque algorithme et peut ainsi être lue indépendamment des autres.