Accéder au contenu principal

Loi binomiale : guide complet avec exemples

Découvrez comment la loi binomiale modélise des issues binaires multiples et s’applique à la finance, à la santé et au machine learning.
Actualisé 22 avr. 2026  · 10 min lire

Les lois binomiales sont au cœur de la théorie des probabilités et de l’analyse statistique. Elles jouent un rôle clé, de l’analyse d’enquêtes au contrôle qualité en passant par la modélisation financière. Ce guide vise à clarifier la loi binomiale, ses propriétés et ses applications en data science et en statistiques.

Pour bien poser les bases, consultez notre tutoriel Bernoulli Distribution: A Complete Guide with Examples comme prérequis. Si vous souhaitez appliquer ces notions directement à des projets de machine learning, Machine Learning in Production in Python propose des conseils pratiques pour intégrer des modèles statistiques dans des applications réelles.

Renforcer les compétences en matière d'apprentissage automatique

Améliorez vos compétences en matière d'apprentissage automatique au niveau de la production.
Commencez à apprendre gratuitement

Qu’est-ce qu’une loi binomiale ?

La loi binomiale est une loi de probabilité discrète qui modélise le nombre de succès au sein d’un nombre donné d’essais indépendants. Chaque essai n’a que deux issues possibles, souvent nommées « succès » et « échec », avec une probabilité de succès constante sur tous les essais.

Ses caractéristiques clés :

  • Un nombre d’essais fixe n
  • Des essais indépendants
  • Une probabilité de succès constante p pour chaque essai
  • Des issues binaires à chaque essai (succès/échec)

L’importance de la loi binomiale tient à sa capacité à modéliser des situations réelles où l’on cherche la fréquence d’un événement donné dans un nombre d’essais défini.

Propriétés des lois binomiales

Comprendre ces propriétés est essentiel pour les utiliser efficacement en analyse statistique. Examinons quelques caractéristiques clés :

Nombre d’essais fixe

Deux paramètres définissent une loi binomiale :

  1. n : le nombre d’essais indépendants
  2. p : la probabilité de succès à chaque essai

Ces paramètres déterminent la forme et les caractéristiques de la distribution. Le caractère « nombre d’essais fixé » distingue la binomiale de concepts proches comme la loi de Poisson, où le nombre d’événements peut fluctuer.

En modélisation statistique, ces paramètres ont des implications importantes. Un n fixé permet des calculs de probabilité précis dans des contextes au nombre d’essais connu, comme les inspections qualité ou les essais cliniques. La constance de p permet de modéliser des processus stables, tout en limitant l’applicabilité lorsque la probabilité de succès varie.

Moyenne et variance

Pour une loi binomiale, la moyenne (μ) et la variance (σ²) se calculent ainsi :

  • Moyenne = np
  • Variance = np(1-p)

La moyenne représente le nombre attendu de succès sur n essais. Par exemple, si vous lancez une pièce équilibrée 100 fois (n = 100, p = 0,5), vous attendez 50 faces en moyenne.

La variance mesure la dispersion autour de la moyenne. Plus la variance est grande, plus le nombre de succès varie d’un ensemble d’essais à l’autre. Cette mesure est utile pour évaluer la fiabilité des estimations et construire des intervalles de confiance.

Symétrie et asymétrie

Les paramètres d’une loi binomiale influencent sa forme :

Diagramme en barres affichant la PMF d’une loi binomiale avec 20 essais et une probabilité de succès de 0,3.PMF de la loi binomiale – n=20, p=0,3. Image de l’auteur.

Diagramme en barres affichant la PMF d’une loi binomiale avec 20 essais et une probabilité de succès de 0,5.PMF de la loi binomiale – n=20, p=0,5. Image de l’auteur.

Diagramme en barres affichant la PMF d’une loi binomiale avec 20 essais et une probabilité de succès de 0,7.PMF de la loi binomiale – n=20, p=0,7. Image de l’auteur.

Ces figures illustrent comment la probabilité de succès p influe sur la forme d’une loi binomiale lorsque le nombre d’essais n est fixé.

  • Lorsque p = 0,5, la distribution est symétrique.
  • Lorsque p < 0,5, elle présente une asymétrie à droite (skew positive).
  • Lorsque p > 0,5, elle présente une asymétrie à gauche (skew negative).

Le nombre d’essais, noté n, influence également la forme de la loi binomiale. À mesure que n augmente, la distribution adopte progressivement une forme en cloche, et ce quelle que soit la valeur de p. Parallèlement, la dispersion relative (coefficient de variation) diminue et l’asymétrie se réduit, rendant la distribution plus symétrique.

Voyez la figure ci-dessous pour une représentation visuelle de l’effet de l’augmentation de n sur la forme de la binomiale pour différents essais :

Comparaison des PMF binomiales pour p=0,5 avec différentes valeurs de nComparaisons de PMF binomiales pour p=0,5 avec différents n. Image de l’auteur.

Cette convergence vers une forme en cloche et une plus grande symétrie s’aligne avec le théorème central limite (TCL). Selon le TCL, lorsque n tend vers l’infini, la loi binomiale s’approche d’une loi normale. Cette approximation est particulièrement valable lorsque les produits np et n(1−p) sont tous deux suffisamment grands.

Applications pratiques de la loi binomiale

La polyvalence de la loi binomiale la rend utile dans de nombreux domaines, en particulier lorsqu’il y a des issues binaires.

Contrôle qualité et tests de fiabilité

En fabrication et assurance qualité, la binomiale aide à modéliser le nombre d’unités défectueuses dans un lot. Connaissant la probabilité de défaut et une taille d’échantillon donnée, on peut calculer la probabilité d’observer un certain nombre d’articles défaillants. Cela éclaire les décisions d’amélioration des processus et des actions de contrôle.

Échantillonnage d’enquêtes

Les chercheurs utilisent la binomiale pour modéliser le nombre de répondants présentant une caractéristique donnée. Elle est particulièrement utile pour des questions oui/non ou des catégorisations en deux groupes et permet d’estimer des proportions de population à partir d’un échantillon.

Modélisation financière

La loi binomiale est au cœur de certains modèles d’évaluation d’options. Le modèle binomial d’options, en temps discret, suppose que l’actif sous-jacent peut monter ou baisser à chaque pas de temps avec des probabilités données. Ce cadre, simple mais efficace, permet d’estimer des prix futurs d’options à partir de scénarios probabilistes. Notre cours Financial Modeling in Excel est une excellente ressource pour explorer des concepts similaires.

Considérations de performance

La loi binomiale est courante en analyse de données, mais elle présente des enjeux de performance, notamment lorsque n (nombre d’essais) est grand ou que p (probabilité) est extrême. Les comprendre aide à l’appliquer et interpréter les résultats correctement.

Défis de calcul avec un grand n

Quand le nombre d’essais n augmente, plusieurs difficultés apparaissent :

  1. Problèmes de précision : le calcul exact des probabilités pour de grands n peut engendrer des erreurs dues aux limites de l’arithmétique en virgule flottante.
  2. Intensité de calcul : le calcul direct via la fonction de masse de probabilité devient coûteux pour de grands n.
  3. Contraintes mémoire : stocker tous les résultats possibles pour de grands n peut dépasser les ressources disponibles, notamment sur des environnements contraints.

Pour y faire face, plusieurs stratégies sont possibles :

  1. Approximation normale : pour de grands n, on peut souvent approcher la binomiale par une normale, surtout si p n’est pas trop proche de 0 ou 1. Cette approximation est raisonnable lorsque np et n(1−p) sont supérieurs à 5, voire 10 par prudence.
  2. Approximation de Poisson : lorsque n est grand et p petit mais avec un np modéré (typiquement jusqu’à 10), la loi de Poisson constitue une bonne approximation, moins coûteuse en calcul, idéale pour des événements rares.
  3. Méthodes récursives : pour des calculs exacts, des algorithmes récursifs peuvent être plus efficaces que le calcul direct des combinaisons, en exploitant les relations entre termes successifs de la PMF binomiale (par exemple, déduire la proba de k+1 succès à partir de celle de k succès). Cela réduit fortement le temps de calcul pour de grands n.
  4. Transformations logarithmiques : travailler avec les logarithmes des probabilités aide à éviter les problèmes de sous-/sur‑flux numériques, surtout pour de très grands n ou des valeurs extrêmes de p. On somme des logarithmes plutôt que de multiplier des probabilités, ce qui préserve la précision — utile pour des rapports de vraisemblance ou des produits de probabilités.

Gérer les petites probabilités

Avec des probabilités de succès très faibles (p), plusieurs effets apparaissent :

  1. Asymétrie : la distribution devient très asymétrique à droite, compliquant l’usage de mesures symétriques usuelles.
  2. Dispersion : la variance devient très faible relativement à la moyenne, ce qui peut créer une instabilité numérique.
  3. Modélisation d’événements rares : les petits p correspondent souvent à des événements rares difficiles à estimer précisément.

Des techniques utiles dans ces cas :

  1. Approximation de Poisson : comme indiqué, adaptée quand p est petit et n grand.
  2. Loi binomiale négative : plutôt que de modéliser le nombre de succès sur un nombre d’essais fixe, on modélise le nombre d’essais nécessaires pour atteindre un certain nombre de succès.
  3. Transformations logarithmiques : l’échelle log aide à gérer les défis numériques liés aux très petites probabilités.
  4. Échantillonnage d’importance : en simulation, des techniques comme l’importance sampling permettent d’estimer plus efficacement des probabilités d’événements rares.

Idées reçues fréquentes

Pour bien utiliser la loi binomiale, il convient de lever quelques confusions récurrentes :

Différence avec la loi de Bernoulli

Proches mais distinctes : la loi de Bernoulli modélise un seul essai à deux issues, alors que la binomiale compte les succès sur plusieurs essais. Une binomiale avec n=1 équivaut à une Bernoulli.

Interpréter le nombre d’essais

Dans une binomiale, le nombre d’essais n doit être fixé et connu à l’avance. S’il varie, des lois alternatives comme la binomiale négative peuvent être plus adaptées.

Alternatives à la loi binomiale

La loi binomiale est très utile, mais d’autres lois peuvent mieux convenir selon les cas. Les connaître élargit la boîte à outils des data scientists et statisticiens.

Loi de Poisson

La loi de Poisson, discrète, exprime la probabilité d’un nombre d’événements sur un intervalle de temps ou d’espace fixé, en supposant un taux moyen constant et des occurrences indépendantes.

Caractéristiques clés :

  • Modélise le nombre d’événements sur un intervalle fixe.
  • Suppose des événements indépendants.
  • Définie par un seul paramètre λ, égal à la moyenne et à la variance.

La loi de Poisson est une alternative efficace à la binomiale quand :

  • Le nombre d’essais n est grand,
  • la probabilité de succès p est petite,
  • et le produit np est modéré (généralement < 10).

Exemples où Poisson peut mieux convenir :

  • Contrôle qualité : suivi des défauts dans une production de grande série, chaque article ayant une faible probabilité de défaut.
  • Trafic client : estimation du nombre de clients par heure en magasin, en supposant des visites indépendantes.
  • Surveillance environnementale : comptage de phénomènes naturels discrets, comme des émissions radioactives sur une période donnée.

Dans ces contextes, Poisson offre un outil puissant, notamment lorsque les calculs binomiaux deviennent lourds ou moins précis.

Loi binomiale négative

La loi binomiale négative est une autre loi discrète qui propose une alternative à la binomiale dans certains cas.

Caractéristiques clés :

  • Modélise le nombre d’échecs avant d’atteindre un nombre de succès donné.
  • Définie par deux paramètres : le nombre de succès requis r et la probabilité de succès à chaque essai p.

Différence fondamentale avec la binomiale :

  • Binomiale : nombre de succès sur un nombre d’essais fixé.
  • Binomiale négative : nombre d’essais nécessaires pour atteindre un nombre de succès donné.

Cette loi est utile lorsque :

  • Le processus se poursuit jusqu’à atteindre un nombre de succès prédéfini.
  • Le nombre d’essais n’est pas fixé à l’avance.
  • Il faut modéliser des données de comptage sur-dispersées (variance observée supérieure à celle attendue sous binomiale).

Exemples où la binomiale négative convient mieux :

  • Modélisation de processus de vente : nombre d’appels nécessaires pour atteindre un objectif de ventes.
  • Évaluation du risque assurantiel : nombre de sinistres avant d’atteindre un seuil de sinistres majeurs, clé pour tarification et gestion du risque.
  • Études écologiques : capture-recapture jusqu’à retrouver un nombre prédéterminé d’animaux marqués.

Dans ces applications, la binomiale négative est particulièrement adaptée lorsque l’objectif est défini par un nombre de succès et non par un nombre d’essais fixe.

Conclusion

La loi binomiale est fondamentale, mais elle n’est qu’un outil parmi d’autres. Explorez aussi les lois de Poisson et binomiale négative pour enrichir vos capacités d’analyse.

Pour approfondir la binomiale et les concepts associés, explorez ces ressources :

En développant en continu vos connaissances et compétences statistiques, vous serez prêt à relever des défis d’analyse complexes dans de nombreux domaines. Pour finir, cliquez ci-dessous pour devenir dès aujourd’hui machine learning scientist.

Devenez un scientifique ML

Améliorez vos connaissances en Python pour devenir un scientifique spécialisé dans l'apprentissage automatique.

Vinod Chugani's photo
Author
Vinod Chugani

En tant que professionnel de la science des données, de l'apprentissage automatique et de l'IA générative, Vinod se consacre au partage des connaissances et à l'autonomisation des scientifiques des données en herbe pour qu'ils réussissent dans ce domaine dynamique.

Foire aux questions

Qu’est-ce qu’une loi binomiale ?

Une loi binomiale modélise le nombre de succès dans un nombre fixe d’essais indépendants, chacun ayant la même probabilité de succès. Elle est largement utilisée pour évaluer des probabilités lorsque chaque essai n’a que deux issues possibles, comme le lancer de pièce ou les tests de contrôle qualité.

Comment calcule-t-on la moyenne et la variance d’une loi binomiale ?

La moyenne (μ) d’une loi binomiale vaut np et la variance (σ²) vaut np(1−p), où n est le nombre d’essais et p la probabilité de succès. Ces mesures aident à comprendre le résultat attendu et sa variabilité.

Peut-on utiliser une loi binomiale pour modéliser des données continues ?

Non. La loi binomiale est discrète et ne peut modéliser que des données de comptage. Pour des données continues, il faut recourir à des lois continues comme la normale, la bêta ou la gamma.

Quel est le rôle du théorème central limite pour la loi binomiale ?

Le théorème central limite stipule que la somme d’un grand nombre de variables indépendantes et identiquement distribuées suit approximativement une loi normale, quelle que soit la loi d’origine. C’est pourquoi l’approximation normale est applicable à la binomiale lorsque le nombre d’essais est grand.

Comment la loi binomiale s’applique-t-elle au machine learning ?

En machine learning, la binomiale intervient souvent dans les tâches de classification binaire. Par exemple, elle peut modéliser la probabilité qu’un client achète ou non un produit, ce qui est utile pour entraîner des classifieurs binaires comme la régression logistique.

Quelles sont les limites de la loi binomiale dans des cas réels ?

Bien que polyvalente, la binomiale suppose une probabilité de succès constante et des essais indépendants, des conditions rarement parfaites en pratique lorsque les probabilités évoluent ou que les issues sont corrélées.

Sujets