Photo






Olivier Rioul

Théorie des probabilités

Probability Theory

Research / Recherche Cours / Teaching Livres / Books CPGE / UPS / LIESSE Divers / More


Hermes Science  - Lavoisier

Collection : Sciences et Technologies

80€ • 364 pages •16 x 24 •  Juin 2008 • ISBN : 978-2-7462-1720-1 • ISSN : 1952-2401 

Click to enlarge:

couverture livre Préface, table des matières et index (PDF)

Présentation et bon de commande (PDF)

Présentation et bon de commande (JPG)

Fiche Web Lavoisier

couverture livre


Ce livre s'adresse aussi bien aux chercheurs, ingénieurs et professeurs qu'aux étudiants de deuxième cycle des universités ou d'écoles d'ingénieurs. On y aborde les notions essentielles de théorie de des probabilités, pour son application dans les différents domaines des sciences physiques ou de l'ingénieur. Le lecteur est supposé connaître les notions fondamentales d'algèbre linéaire et de calcul intégral, y compris les notions de bases sur les distributions de Dirac et la transformation de Fourier. Cet ouvrage est né de cours donnés par l'auteur, à l'Ecole Nationale Supérieure des Télécommunications (ENST) et à l'Université Pierre et Marie Curie (Paris VI).  Sa rédaction a évolué pendant plus de dix ans.

De nombreux ouvrages portant sur les probabilités ont été publiés, y compris en langue française, et je n'aurais pas pris la peine d'écrire celui-ci si je ne ressentais pas un besoin pour une approche un peu nouvelle ou originale. Mon but a été d'écrire un manuel que j'aurais moi-même aimé lire lors de mes études, et grâce auquel le lecteur peut rapidement bénéficier des outils de calcul de probabilités pour des besoins pratiques, sans pour cela abandonner la saveur et l'intérêt d'une étude suffisemment rigoureuse des concepts. Une des originalités de la présentation, donc, est qu'elle est axée de bout en bout sur les variables et vecteurs aléatoires, définis directement par des distributions de probabilité — sans requérir au préalable la notion de fonction mesurable sur un espace probabilisé abstrait. Les cas discret et continu sont traités ensemble. Les bases mathématiques sont développées de la manière la plus naturelle possible, de sorte à pouvoir disposer rapidement des résultats essentiels. Les notions plus avancées — et plus difficiles, comme celles résultant des différentes définitions de convergence (étroite ou presque sûre) ou de la construction de Kolmogorov — sont exposés à la fin et non au début. Cette présentation suggère que l'exposé systématique de la théorie de la mesure et de l'intégration n'est pas un préliminaire indispensable pour commencer à « faire des probabilités » : les résultats utiles liés à la théorie de la mesure sont démontrés au fur et à mesure des besoins, et toujours exprimés en termes de variables, de vecteurs ou de processus aléatoires. De la sorte, on arrive à exposer avec rigueur tous les résultats essentiels de la théorie, depuis la définition axiomatique des probabilités jusqu'à la loi des grands nombres et le théorème ergodique.

On commence par décrire les bases de la théorie des probabilités : définition d'une probabilité sur des ensembles boréliens, et propriété de prolongement unique qui permet de se contenter de définir une probabilité sur un certain type d'intervalle. Vient ensuite une classification des variables et vecteurs aléatoires, caractérisés par des distributions de probabilité; on insiste en particulier sur les différences et les similarités entre les variables aléatoires discrètes et continues. On aborde les règles de calcul indispensables pour les changements de variable, où par exemple deux variables aléatoires sont reliés par une dépendance totale du type Y=f(X). A l'opposé de la notion de dépendance totale, on trouve celle d'indépendance entre variables aléatoires qui est fondamentale. Dans le cas général, la notion de conditionnement et ses règles de calcul permettent d'exprimer la façon dont une (ou plusieurs) variable(s) aléatoire(s) dépendent (plus ou moins) d'autres variables.

Afin de quantifier certaines propriétés des variables aléatoires, on introduit ensuite la notion d'espérance, qui nous permet de définir et de calculer des valeurs moyennes. On expose en particulier les propriétés de certaines quantités importantes comme la moyenne, la variance et autres moments et cumulants, ainsi que la fonction caractéristique sous la forme d'une transformée de Fourier. Les moments entre plusieurs variables aléatoires permettent de définir la notion de corrélation, que l'on compare à celle de dépendance, en particulier pour des variables gaussiennes. On traite aussi en détail des propriétés de l'espérance conditionnelle dans un contexte d'estimation aux « moindres carrés ». Enfin, après avoir établi certaines inégalités utiles sur les probabilités, on aborde les grands théorèmes du calcul des probabilités : la loi (faible) des grands nombres et la convergence vers la loi gaussienne ou théorème central limite. Plusieurs preuves sont données dans différents contextes. Cet ouvrage se termine par une introduction aux processus aléatoires, où l'on expose les notions de stationnarité et d'ergodicité en liaison avec la loi forte des grands nombres.

Des exercices et problèmes complètent le texte. Ils donnent de nombreux résultats mais ne sont pas corrigés; la résolution et la rédaction des solutions constituent une part essentielle du travail personnel nécessaire pour assimiler le contenu de cet ouvrage.






dernière modification 27-06-2008