8(3)

On considère un évènement qui, en un essai, a une probabilité (T) p de se produire. On effectue v essais successifs. Au plus v est grand, au plus la probabilité (T) que la fréquence relative, c’est-à-dire la probabilité (E), soit proche de p est grande.

Actuellement, on formule ce théorème en termes de « convergence en probabilité de la fréquence relative vers la probabilité » lorsque le nombre v tend vers l’infini, mais ce serait trahir la pensée de l’auteur que d’introduire ici le concept de limite. Bernoulli, pour sa part, se préoccupe de délimiter des intervalles, autour de la probabilité a priori p, dans lesquels la fréquence relative (pour v suffisament grand) sera très probablement située (au sens de (T) ).

Ainsi énoncée, la « loi des grands nombres » établit en quels termes on peut considérer la probabilité (E) comme une approximation de la probabilité (T). Ces termes sont clairs :

  1. Il faut que l’évènement initial possède a priori une probabilité (T) notée ici p.
  2. La proximité de p et de la fréquence relative est exprimée en probabilité (T).

Dès lors, ce théorème fournit une justification théorique du lien existant, pour les jeux de hasard, entre les probabilités (T) théoriques et les observations faites par d’éventuels joueurs.

Les limites de la légitimité de l’utilisation du théorème sont donc précises. Pourtant, l’essor que connut la théorie mathématique après la parution de l’Ars Conjectandi peut, en partie du moins, être attribué à ce qu’on a pris coutume d’appeler l’usage inverse du théorème de Bernoulli et qui n’est rien d’autre qu’une interprétation abusive du théorème initial qui en utilise la thèse - proximité des probabilités (T) et (E) - afin d’en déduire l’hypothèse - valeur de la probabilité (T) - par extrapolation à partir de mesures expérimentales de la fréquence relative (E). Cette inversion eut un grand succès [5]chez les mathématiciens car elle leur ouvrait une porte nouvelle, celle de l’inférence statistique, vers des domaines d’application de leurs théories combinatoires bien plus vastes que la seule étude des jeux de hasard.

Nous tenons à insister ici sur l’importance que revêt cette inversion. Elle constitue en effet une « récupération » du courant empiriste par les théoriciens, puisque, non seulement ces derniers sont en mesure d’interpréter (E) comme une approximation de (T) dans les domaines d’applicabilité stricte de (T) - via le théorème (direct) de Bernoulli - mais de plus ils peuvent « théoriser » - via l’usage inverse - au sujet d’évènements pour lesquels ils sont absolument incapables d’évaluer les nombres m et n en cause dans (T) [6]. A notre avis, la possibilité d’une telle récupération est essentiellement liée à l’ambiguïté du concept de probabilité dont l’absence de définition explicite est symptomatique.

De Bernoulli à Laplace

Le XVIIIème siècle, fort de son nouveau théorème, vit fleurir de nombreuses œuvres théoriques. Les mathématiciens continuèrent à développer les méthodes combinatoires en théorie des jeux tout en les appliquant à divers domaines. La définition (T) fut généralisée au cas où n est infini grâce au calcul différentiel et intégral. Aux perfectionnements d’ordre théorique s’ajoutèrent parfois des conceptions morales ou métaphysiques sur le hasard.

Les grands noms de l’époque sont ceux de Pierre Remond de Montmort, Abraham de Moivre, Nicolas Bernoulli, Daniel Bernoulli, Léon Euler, l’original Jean le Rond d’Alembert, Thomas Bayes, Louis de Lagrange, Georges-Louis Leclerc de Buffon, Antoine de Condorcet... Nous n’essayerons pas ici de tracer, fût-ce sommairement, les grandes lignes des théories de ces savants. Nous nous limiterons à noter que ces hommes, dans leur majorité français, comme l’était Pascal et le sera Laplace, furent, le plus souvent, des mathématiciens. On constate toutefois quelques scrupules de type empiriste, entre autres chez Daniel Bernoulli et chez Buffon, mais on était encore bien loin d’une quelconque théorie statistique visant à structurer l’analyse des données expérimentales.

[1Pour un historique plus détaillé, on consultera Todhunter (1949), Maistrov (1974) et les nombreux articles de Sheynin parus, pour la plupart, dans la revue Archive for history of exact sciences.

[2Les jeux de hasard constituent des situations « idéales » dans la mesure où l’on peut établir, par l’analyse combinatoire, les probabilités les concernant sans recours à l’expérience. Cette « idéalité » se retrouve par exemple dans l’hypothèse selon laquelle les dés utilisés sont parfaitement homogènes.

[3D’Alembert, le premier, mettra en cause cette notion dans l’article « Croix ou pile » de l’Encyclopédie (en 1754).

[4 (T) apparaît déjà chez A. de Moivre (en 1718) mais plutôt comme une propriété de la probabilité (non définie).

[5Todhunter (1949, p. 73) signale cependant que Leibniz était réticent à l’adopter.

[6On trouvera chez Kneale (1949, pp. 201-214) une étude des différentes tentatives - de Bernoulli à Keynes (1921) en passant par Laplace - de justifier cet usage inverse.

[7Les jeux de hasard constituent bien plus qu’une simple illustration. Ils sont là, à tout instant, utilisés comme exemples, voire même comme modèle, pour la théorie. Dans les pages 1 à 28 (exposé des principes de l’Essai, le jeu de « croix ou pile » est cité aux pages 12, 16, 18, 19, 23, 25 ; le tirage au sort (loterie ou urne) aux pages 7, 9, 15, 19 et 20 ; le jeu de dés n’apparaît qu’en page 13.

[8P désigne ici la probabilité a priori (T).

[9probabilité (E) ici.

[10Comme dans l’exemple cité relatif aux opinions des juges où ni (T) ni (E) ne fournissent immédiatement la probabilité cherchée.



















info visites 225002

     COCOF
                      Avec le soutien de la Commission
                           communautaire française