8(3)

Le théorème de Bernoulli

Si, après Pascal, la terminologie probabiliste s’installa rapidement chez les mathématiciens et les « démographes », on constate qu’aucune définition explicite de la probabilité n’apparaît, du moins à notre connaissance, comme introduction aux résultats établis tant théoriquement qu’empiriquement. Lorsqu’ils étudient les jeux de hasard, les mathématiciens usent volontiers des expressions « chance » et/ou « probabilité » pour désigner le nombre fractionnaire obtenu en divisant le nombre de cas favorables par le nombre total de cas possibles pour autant qu’ils soient « équipossibles » [3]. Nous symboliserons cette première définition par :

p= m/n
(T)

Les nombres m et n, dans le cas des jeux de hasard, seront établis par la voie de l’analyse combinatoire. La formulation explicite de cette définition apparaîtra chez Laplace [4]- qui lui donnera son nom - mais, nous l’avons vu, elle guida implicitement les travaux théoriques dès l’époque de Pascal.

L’apriorisme de la définition (T) n’était pas satisfaisant pour les praticiens. Ces derniers, tout en conservant la même terminologie, entendaient la « probabilité » en un sens différent. Ainsi, lorsqu’un Halley considérait la probabilité pour un homme de 30 ans de mourir endéans les 5 ans, il était bien incapable d’établir les cas « équipossibles » relatifs à la vie ou à la mort de l’individu. Pour lui, la probabilité comme résultat expérimental pouvait s’écrire sous la forme du quotient du nombre de réalisations de l’évènement (mort endéans les 5 ans chez les hommes de 30 ans) et du nombre total d’observations faites (hommes de 30 ans considérés). Cette seconde définition sera symbolisée par :

p=u/v (E)

Ici, u et v découlent de résultats expérimentaux. Le concept introduit par (E) correspond à la notion moderne de « fréquence relative ».

A première vue donc la probabilité-chance et la probabilité-fréquence sont chacune à la base d’un type précis de préoccupations dont le seul dénominateur commun serait au niveau terminologique. Mais cette scission ne serait effective qu’à la double condition que d’un côté le théoricien se limite à l’étude de situations « idéales » et de l’autre le praticien se livre exclusivement à des prises de mesures sans extrapolation aucune. Ce qui ne fut pas le cas. Bien au contraire, le caractère implicite des deux définitions aidant, l’amalgame fut de règle. Et l’introduction de raisonnements probabilistes dans d’autres disciplines comme l’astronomie et la sociologie accrut encore l’ampleur du problème.

Dès lors, la nécessité d’une unité des deux concepts de probabilité se fit sentir tant chez les utilisateurs que chez les théoriciens. Le théorème de Bernoulli, appelé aussi « loi des grands nombres »,offrit la possibilité de préciser le lien entre (T) et (E). Ce théorème apparut pour la première fois dans l’œuvre magistrale de Jacques Bernoulli : Ars Conjectandi (Bernoulli, 1713) dont le plan général est le suivant :

  1. Exposé d’un traité de Huygens (consacré aux jeux de hasard) suivi de commentaires.
  2. Analyse combinatoire.
  3. Illustration des résultats précédents par la résolution de 24 problèmes de jeux.
  4. Applications de la théorie en sociologie, morale et économie (inachevé).

Le théorème de Bernoulli figure dans la quatrième partie tandis que les applications annoncées font défaut. La présentation de l’Ars Conjectandi en atteste : Jacques Bernoulli était avant tout un théoricien, suivant, par l’intermédiaire d’Huygens, la voie tracée par Pascal et Fermat. Nul doute alors que la définition utilisée est (T).

L’énoncé du théorème démontré par l’auteur peut être simplement résumé de la façon suivante.

[1Pour un historique plus détaillé, on consultera Todhunter (1949), Maistrov (1974) et les nombreux articles de Sheynin parus, pour la plupart, dans la revue Archive for history of exact sciences.

[2Les jeux de hasard constituent des situations « idéales » dans la mesure où l’on peut établir, par l’analyse combinatoire, les probabilités les concernant sans recours à l’expérience. Cette « idéalité » se retrouve par exemple dans l’hypothèse selon laquelle les dés utilisés sont parfaitement homogènes.

[3D’Alembert, le premier, mettra en cause cette notion dans l’article « Croix ou pile » de l’Encyclopédie (en 1754).

[4 (T) apparaît déjà chez A. de Moivre (en 1718) mais plutôt comme une propriété de la probabilité (non définie).

[5Todhunter (1949, p. 73) signale cependant que Leibniz était réticent à l’adopter.

[6On trouvera chez Kneale (1949, pp. 201-214) une étude des différentes tentatives - de Bernoulli à Keynes (1921) en passant par Laplace - de justifier cet usage inverse.

[7Les jeux de hasard constituent bien plus qu’une simple illustration. Ils sont là, à tout instant, utilisés comme exemples, voire même comme modèle, pour la théorie. Dans les pages 1 à 28 (exposé des principes de l’Essai, le jeu de « croix ou pile » est cité aux pages 12, 16, 18, 19, 23, 25 ; le tirage au sort (loterie ou urne) aux pages 7, 9, 15, 19 et 20 ; le jeu de dés n’apparaît qu’en page 13.

[8P désigne ici la probabilité a priori (T).

[9probabilité (E) ici.

[10Comme dans l’exemple cité relatif aux opinions des juges où ni (T) ni (E) ne fournissent immédiatement la probabilité cherchée.



















info visites 225001

     COCOF
                      Avec le soutien de la Commission
                           communautaire française