Olivier Rioul
Théorie des probabilités
|
Probability Theory
|
Hermes Science - Lavoisier
Collection
: Sciences et
Technologies
80€ • 364 pages •16 x 24 • Juin 2008 • ISBN :
978-2-7462-1720-1 • ISSN : 1952-2401
Click to enlarge:
Ce
livre s'adresse aussi bien
aux chercheurs, ingénieurs et professeurs qu'aux étudiants de
deuxième
cycle des universités ou d'écoles d'ingénieurs. On y aborde les
notions
essentielles de théorie de des probabilités, pour son application
dans
les différents domaines des sciences physiques ou de l'ingénieur.
Le
lecteur est supposé connaître les notions fondamentales d'algèbre
linéaire et de calcul intégral, y compris les notions de bases sur
les
distributions de Dirac et la transformation de Fourier. Cet
ouvrage est
né de cours
donnés par l'auteur, à l'Ecole Nationale Supérieure des
Télécommunications (ENST) et à l'Université Pierre et Marie Curie
(Paris VI). Sa rédaction a évolué pendant plus de dix ans.
De
nombreux ouvrages portant sur les probabilités ont été publiés, y
compris en langue française, et je n'aurais pas pris la peine
d'écrire
celui-ci si je ne ressentais pas un besoin pour une approche un
peu
nouvelle ou originale. Mon but a été d'écrire un manuel que
j'aurais
moi-même aimé lire lors de mes études, et grâce auquel le lecteur
peut
rapidement bénéficier des outils de calcul de probabilités pour
des
besoins pratiques, sans pour cela abandonner la saveur et
l'intérêt
d'une étude suffisemment rigoureuse des concepts. Une des
originalités de la présentation, donc, est qu'elle est axée de
bout en
bout sur les variables et vecteurs aléatoires, définis directement
par
des distributions de probabilité — sans requérir au préalable la
notion de fonction mesurable sur un espace probabilisé abstrait.
Les
cas discret et continu sont traités ensemble. Les bases
mathématiques
sont développées de la manière la plus naturelle possible, de
sorte à
pouvoir disposer rapidement des résultats essentiels. Les notions
plus
avancées — et plus difficiles, comme celles résultant des
différentes
définitions de convergence (étroite ou presque sûre) ou de la
construction de Kolmogorov — sont exposés à la fin et non au
début.
Cette
présentation suggère que l'exposé systématique de la théorie de la
mesure et de l'intégration n'est pas un préliminaire indispensable
pour
commencer à « faire des probabilités » : les résultats
utiles liés à la théorie de la mesure sont démontrés au fur et à
mesure
des besoins, et toujours exprimés en termes de variables, de
vecteurs
ou de processus aléatoires. De la sorte, on arrive à exposer avec
rigueur tous les résultats essentiels de la théorie, depuis la
définition axiomatique des probabilités jusqu'à la loi des grands
nombres et le théorème ergodique.
On commence par décrire les bases de la théorie des probabilités :
définition d'une probabilité sur des ensembles boréliens, et
propriété de prolongement
unique
qui permet de se contenter de définir une probabilité sur un
certain
type d'intervalle. Vient ensuite une classification des variables
et
vecteurs aléatoires, caractérisés par des distributions de probabilité;
on insiste en particulier sur les différences et les similarités
entre
les variables aléatoires discrètes
et continues.
On aborde les règles de calcul indispensables pour les changements de variable,
où par exemple deux variables aléatoires sont reliés par une
dépendance
totale du type Y=f(X). A l'opposé de la notion de dépendance
totale, on trouve celle d'indépendance
entre variables aléatoires qui est fondamentale. Dans le cas
général,
la notion de conditionnement
et ses règles de calcul permettent d'exprimer la façon dont une
(ou
plusieurs) variable(s) aléatoire(s) dépendent (plus ou moins)
d'autres
variables.
Afin de quantifier certaines propriétés des variables aléatoires,
on
introduit ensuite la notion d'espérance,
qui nous permet de définir et de calculer des valeurs moyennes. On
expose en particulier les propriétés de certaines quantités
importantes
comme la moyenne,
la variance
et autres moments
et cumulants,
ainsi que la fonction
caractéristique
sous la forme d'une transformée de Fourier. Les moments entre
plusieurs
variables aléatoires permettent de définir la notion de corrélation,
que l'on compare à celle de dépendance, en particulier pour des
variables gaussiennes. On traite aussi en détail des propriétés de
l'espérance conditionnelle
dans un contexte d'estimation aux « moindres carrés ». Enfin,
après
avoir établi certaines inégalités utiles sur les probabilités, on
aborde les grands théorèmes du calcul des probabilités : la loi (faible) des grands nombres
et la convergence vers la loi gaussienne ou théorème central limite.
Plusieurs preuves sont données dans différents contextes. Cet
ouvrage
se termine par une introduction aux processus aléatoires,
où l'on expose les notions de stationnarité et d'ergodicité en
liaison avec la loi forte
des grands nombres.
Des exercices
et problèmes
complètent le texte. Ils donnent de nombreux résultats mais ne
sont pas
corrigés; la résolution et la rédaction des solutions constituent
une
part essentielle du travail personnel nécessaire pour assimiler le
contenu de cet ouvrage.
dernière
modification 27-06-2008