Ch.1 Probabilités et Variables Aléatoires

PDF

Vidéo

Calculatrice

Introduction

Probabilités

  1. Événements
  2. Algèbre des Événements
  3. Axiomes de Kolmogorov
  4. Événements Équiprobables
  5. Théorème des Probabilités Totales

Probabilités Conditionnelles

Variables Aléatoires Discrètes

Exercices

QCM d'auto-évaluation

Statistiques >

Probabilités et Variables Aléatoires

L'objectif du chapitre est d'utiliser le concept de probabilité pour construire un certain nombre de modèles pouvant rendre compte de situations concrètes, où l'application de lois déterministes est impossible parce que les phénomènes sont très compliqués, ou les facteurs trop nombreux.

1 - Probabilités

Événements

L'expérimentateur se trouve souvent dans la situation suivante: il peut prévoir quels sont les résultats possibles de son expérience, mais non quel est, parmi ces possibles, celui qui se réalisera. Plus précisément, il peut déterminer l'ensemble des résultats possibles, l'ensemble des possibilités, qui sera désigné par Ω ; mais celle de ces possibilités qui se réalisera effectivement lui est inconnue avant que l'expérience soit faite.

Si, par exemple, l'expérience consiste à lancer un dé à six faces, on peut définir l'ensemble des résultats possibles: Ω = {1, 2, 3, 4, 5, 6} mais on ne sait pas à l'avance celui qui sera effectivement obtenu après le jet du dé. L'ensemble Ω des possibilités étant défini sans ambiguïté, on appelle événement toute partie de cet ensemble. Dans l'exemple précédent, l'événement A: "le résultat du jet est un chiffre impair" est constitué par les possibilités suivantes: A = {1, 3, 5}.

Index 1

Algèbre des Événements

Chaque événement étant une partie de l'ensemble Ω des possibilités, l'ensemble des événements est l'ensemble des parties de Ω. Lorsqu'il y a n possibilités, il y a ainsi 2n événements ( ∑nk=0 Cnk), y compris l'événement impossible et l'événement certain. Ces événements s'organisent les uns par rapport aux autres par la relation d'inclusion: A ⊂ B lorsque tout élément de A appartient à B. On dit que l'événement A implique l'événement B chaque fois que A est réalisé B l'est aussi. Les opérations ensemblistes sur les événements sont d'usage courant. C'est ainsi qu'à chaque événement A on peut faire correspondre l'événement complémentaire A- , constitué par la partie de Ω complémentaire de A.

On peut aussi faire correspondre à deux événements A et B:

Index 3

Lançant par exemple un dé, soient les événements:

On peut définir les événements suivants:

Axiomes de Kolmogorov

Faire correspondre une probabilité à chaque événement X, c'est-à-dire à chaque partie X de l'ensemble Ω des possibilités, c'est définir une application de l'ensemble P(Ω) des parties de Ω, dans l'ensemble des nombres réels, qui satisfasse les trois conditions suivantes (souvent appelées axiomes de Kolmogorov):

Il en résulte immédiatement une relation très utile: la somme des probabilités de deux événements complémentaires est égale à 1:

p(A) + p(A-) = 1

Événements Équiprobables

L'une des conséquences de la condition d'additivité est que la probabilité d'un événement quelconque est égale à la somme des probabilités des événements élémentaires ei qui le constituent, puisque deux parties réduites à un seul élément sont disjointes:

p(A) = ∑ei ϵ A p(ei)

Il en résulte que la connaissance des probabilités des événements élémentaires détermine entièrement les probabilités sur un ensemble Ω de possibilités. Un cas particulier important est celui où les événements élémentaires sont équiprobables:

p(e1) = … = p(ei) = … = p(en)

Comme on a évidemment: ∑ei ϵ Ω p(ei) = 1, la probabilité de chacun des n événements élémentaires ei est égale à 1/n, et la probabilité d'un événement A de Ω est alors le quotient de son cardinal |A| par celui de Ω:

p(A) = |A|/|Ω|

On retrouve là la définition bien connue: la probabilité est égale au nombre de cas favorables divisé par le nombre de cas possibles. Mais il faudrait ajouter, pour qu'elle soit correcte: … sous la condition stricte que les cas soient équiprobables. Et ce ne saurait plus dès lors constituer une définition.

Théorème des Probabilités Totales

Supposons deux événements A et B non disjoints, et calculons la probabilité p(A∪B) de leur réunion. L'axiome d'additivité des probabilités d'événements incompatibles, permet d'écrire que:

p(A∪B) = p(A∩B-) + p(A∩B) + p(A-∩B), avec p(A) = p(A∩B-) + p(A∩B) et p(B) = p(A-∩B) + p(A∩B)
Index 5

D'où la relation souvent appelée théorème des probabilités totales:

p(A∪B) = p(A) + p(B) - p(A∩B)

que l'on peut énoncer ainsi: si un événement peut se produire soit par l'arrivée d'un événement A, soit par l'arrivée d'un événement B, sa probabilité est égale à la somme des probabilités de A et de B moins la probabilité pour que A et B se produisent ensemble.

2 - Probabilités Conditionnelles

Axiome des Probabilités Conditionnelles

Dans ce qui précède, l'ensemble Ω des possibilités était donné une fois pour toutes. En fait, dès que certains des événements possibles se réalisent, l'ensemble des possibilités se trouve modifié.

Si l'événement A se réalise, les événements possibles deviennent en effet l'ensemble des parties de A, et non plus l'ensemble des parties de Ω. Pour tout événement X de l'ensemble Ω, seule la partie X∩A reste un événement possible lorsque A est réalisé.

Index 6

La réalisation d'un événement A modifie donc l'ensemble des possibilités, et chaque événement X devient X∩A. Elle modifie aussi les probabilités. On désignera par p(X|A) la probabilité de l'événement X si A est réalisé. On l'appelle: probabilité conditionnelle de X sachant que A est réalisé, et par définition:

p(X|A) = p(X⋂A)/p(A)

Il n'existe donc pas de probabilité conditionnelle lorsque la probabilité de A est nulle.

Théorème des Probabilités Composées

La définition même des probabilités conditionnelles permet d'écrire que:

p(A∩B) = p(A) × p(B|A)

et aussi que:

p(A∩B) = p(B) × p(A|B)

C'est le théorème des probabilités composées, que l'on peut énoncer ainsi: si un événement résulte du concours de deux événements, sa probabilité est égale à celle de l'un d'eux multipliée par la probabilité conditionnelle de l'autre sachant que le premier est réalisé.

Soit, par exemple, à calculer la probabilité pour que, tirant successivement deux cartes d'un jeu de 32 cartes, ces deux cartes soient des valets. Appelons A et B les deux événements suivants:

La probabilité cherchée est:

p(A∩B) avec p(A∩B) = p(A) × p(B|A)

Lors du premier tirage, il y a 32 cartes et 4 valets dans le jeu, d'où p(A) = 4/32 .

Lors du second tirage, il reste 31 cartes et seulement 3 valets, puisque l'événement A est réalisé, d'où p(B|A) = 3/31 .

Le résultat est donc:

p(A∩B) = 4/32 × 3/31 = 3/248 = 0.012.

Événements Indépendants

Par définition, deux événements sont indépendants, si la probabilité de l'un n'est pas modifiée lorsque l'autre est réalisé. On a donc, par exemple:

p(A|B) = p(A)

Il en résulte que:

p(A∩B) = p(A) × p(B),

et la réciproque est évidente.

On peut donc énoncer que: la condition nécessaire et suffisante pour que deux événements soient indépendants, est que la probabilité de leur intersection soit égale au produit de leur probabilités.

Les deux événements A et B de l'exemple précédent n'étaient pas indépendants. Mais si, par contre, on tire la deuxième carte après remise de la première dans le jeu, les résultats des deux tirages deviennent indépendants et p(A∩B) = p(A) × p(B) = 4/32 × 4/32 = 1/64 = 0.0156

Il est essentiel de bien réaliser la différence entre événements incompatibles : p(A∩B) = 0, et événements indépendants :
p(A∩B) = p(A) × p(B).

Théorème de Bayes

Considérons un événement B dont la réalisation dépend de l'intervention de l'une des causes: A1, …, Ai, …, An .

Soit p(B|Ai) la probabilité conditionnelle de B, si c'est la cause Ai qui intervient.

Et soit p(Ai) la probabilité d'intervention de Ai , appelée probabilité a priori de Ai.

Index 7

Le théorème de Bayes, appelé aussi théorème de la probabilité des causes, calcule la probabilité p(Ai|B) qui est la probabilité pour que ce soit la cause A i qui ait entraîné la réalisation de B. Cette dernière probabilité est appelée la probabilité a posteriori de Ai. Ce théorème, qui date de plus de 2 siècles et qui était tombé en désuétude, a repris de l'intérêt pendant les dernières décennies. Il est utilisé dans de nombreux domaines, notamment en reconnaissance des formes et pour les calculs de sûreté industrielle.

La définition des probabilités conditionnelles permet d'écrire que:

p(Ai∩B) = p(Ai) × p(B|Ai) = p(B) × p(Ai|B)

et le théorème des probabilités totales que:

p(B) = ∑ni=1 p(Ai) × p(B|Ai)

D'où le théorème:

p(Ai|B) = [p(Ai) × p(B|Ai)] / [∑ni=1 p(Ai) × p(B|Ai)]

3 - Variables Aléatoires Discrètes

Définition

A un ensemble Ω d'événements élémentaires: { e1, …, ei, …, en }, faisons correspondre un nombre X prenant l'une des valeurs: x1, …, xi, …, xn, lorsque l'événement élémentaire correspondant se réalise. Le nombre X est appelé variable aléatoire.

Une variable aléatoire est définie si l'on connait les probabilités: p(x1), …, p(xi), …, p(xn) correspondant aux différentes valeurs possibles de X. Ces probabilités sont évidemment telles que:

p(x1) + … + p(xi) + … + p(xn) = 1

La correspondance { xi , p(xi)} est appelée: loi de probabilité (ou distribution de probabilité) de la variable aléatoire X. Si les valeurs de X, en nombre fini ou infini, sont discrètes, la variable aléatoire est dite discrète.

Soit, par exemple, une urne contenant des boules blanches et des boules rouges, ces dernières en proportion ϖ.

Index 8

On tire, au hasard, une boule dans l'urne, et on considère les deux événements élémentaires:

Attachons à e1 et e2 un nombre X qui prend la valeur 0 si e1 est réalisé, et la valeur 1 si c'est e2. Ce nombre est une variable aléatoire discrète qui est appelée variable de Bernouilli, dont la loi de probabilité est donnée par les deux probabilités:

p(X=1) = ϖ   et  p(X=0) = (1-ϖ)

qui ont bien une somme égale à 1.

Loi Binomiale

La loi binomiale découle, elle aussi, de la prise en considération du modèle d'une urne. Considérant une urne contenant des boules rouges et des boules blanches, les premières en proportion ϖ, on convient de prélever n boules et on s'intéresse à la variable aléatoire K: nombre de boules rouges parmi les n boules tirées. On se demande alors quelle est la probabilité p(k) pour que K soit égale à un nombre donné k.

Il convient cependant de préciser qu'il y a deux façons de procéder au tirage de n boules dans l'urne:

  1. tirage non exhaustif: on prélève une boule, puis une autre après remise de la première dans l'urne, puis une troisième après remise de la seconde… et les prélèvements successifs sont donc indépendants puisque la composition de l'urne est la même avant chaque prélèvement,
  2. tirage exhaustif: on prélève chacune des n boules sans remise des précédentes et les prélèvements ne sont plus indépendants, la composition de l'urne étant modifiée par les prélèvements précédents, et cela d'autant plus que la taille n de l'échantillon prélevé est élevée devant celle de la population des boules contenues dans l'urne.

Au premier mode de tirage est attachée la loi binomiale ; au second, la loi hypergéométrique qui sera envisagée au paragraphe suivant.

A chaque boule rouge correspond la probabilité ϖ d'être prélevée, à chaque boule blanche la probabilité (1-ϖ). Soit alors le résultat suivant: B, R, R, B, …., R, B, qui correspond à k boules rouges et (n-k) boules blanches. Les probabilités liées au tirage de chacune des boules sont respectivement égales à: (1-ϖ), ϖ, ϖ, (1-ϖ), … , ϖ, (1-ϖ), du fait de la non-exhaustivité des tirages successifs, et la probabilité de l'ensemble de l'échantillon, par application du théorème des probabilités composées, s'écrit: ϖk (1-ϖ)n-k .

Cela étant posé, il faut noter que le résultat obtenu se réfère arbitrairement à un certain ordre d'arrivée des boules rouges et blanches; or, quand on se propose de calculer la probabilité d'avoir k boules rouges parmi les n boules extraites, l'ordre d'arrivée est indifférent. Autrement dit, on n'est pas intéressé par la probabilité d'une combinaison particulière de k boules rouges parmi les n boules, mais par la probabilité de l'ensemble des Cnk combinaisons possibles. Cette probabilité, par application du théorème des probabilités totales, s'écrit:

p(k) = Cnk ϖk (1-ϖ)n-k

On a évidemment: ∑nk=0 p(k)=1 puisqu'on peut écrire: ∑nk=0 p(k)= (ϖ+(1-ϖ))n , chaque probabilité étant l'un des termes successifs du développement du binôme. C'est d'ailleurs à ce fait qu'est due l'appellation de loi binomiale.

La loi binomiale dépend de deux paramètres n et ϖ. Des tables numériques permettent d'obtenir, pour différentes valeurs de n et ϖ, les probabilités p(k). En fait ces tables fournissent les probabilités cumulées:

Pn(k)= ∑kp=0 Cnp ϖp (1-ϖ)n-p

L'intérêt pratique de la loi binomiale est très grand. Au lieu de parler d'une urne contenant une certaine proportion ϖ de boules rouges, il suffit en effet de parler d'une population contenant une certaine proportion ϖ d'individus présentant une certaine qualité ou ayant un certain avis, pour constater que le modèle théorique décrit permet de définir la probabilité du nombre d'individus ayant cette qualité ou cet avis, et susceptibles de figurer dans un échantillon de n individus tirés au hasard dans la population en question. La loi binomiale joue ainsi un rôle important dans un grand nombre de problèmes de jugement sur échantillon: sondages d'opinion ou contrôle du nombre de pièces défectueuses dans une fabrication.

Loi Hypergéométrique

Au tirage exhaustif correspond la loi hypergéométrique. La composition de l'urne est, dans ce cas, modifiée après chaque tirage. Il convient donc de préciser la composition initiale de l'urne de la façon suivante:

Tirer n boules dont k rouges revient à tirer k boules parmi les R rouges et (n-k) boules parmi les (N-R) blanches. Si nous individualisons chaque boule, le nombre d'échantillons de n boules que l'on peut tirer de l'urne est égal à CNn , le nombre d'échantillons de k boules rouges prélevées parmi les R rouges est égal à CRk et celui des échantillons de (n-k) boules blanches prélevées parmi les (N-R) blanches est égal à CN-Rn-k . Le nombre d'échantillons contenant k boules rouges et (n-k) boules blanches est donc égal à CRk CN-Rn-k . Tous ces échantillons ayant la même probabilité 1/CNn d'être extraits, la probabilité p(k) cherchée est égale à:

p(k) = (CRk CN-Rn-k) / CNn

Loi de Poisson

A chaque couple de valeurs n et ϖ correspond, dans le cas d'un tirage non exhaustif, une loi binomiale. Pour des raisons de commodité de calcul, les statisticiens se sont efforcés de trouver des lois approchées plus facile à utiliser. La loi de Poisson est l'une d'elles. Elle correspond aux hypothèses: n grand, ϖ petit, le produit n ϖ = λ étant fini. On peut écrire dans ces conditions:

n!/[k!(n-k)!] ϖk(1-ϖ)n-k = [n(n-1)…(n-k+1)]/k! × λk/nk × (1-λ/n)n/(1-λ/n)k
= [n(n-1)…(n-k+1)]/nk × λk/k! × (1-λ/n)n/(1-λ/n)k

Si l'on fait tendre n vers l'infini:

[n(n-1)…(n-k+1)]/nk →1, (1-λ/n)k →1 et (1-λ/n)n →e

On obtient à la limite la loi de Poisson définie par les probabilités:

p(k) = e x λk/k!

Elle dépend du seul paramètre λ et il existe des tables qui donnent, pour différentes valeurs de λ, les probabilités cumulées correspondantes:

P(k) = ∑ki=0 e × λi/i!

La loi de Poisson présente donc l'intérêt de simplifier les calculs puisqu'une seule table poissonnienne se substitue à un grand nombre de tables binomiales. Quand peut-on en pratique utiliser l'approximation de Poisson ? En première analyse si n ≥ 50 et ϖ ≤ 0.01. Ceci lui confère un champ d'application très large, dans l'échantillonnage industriel en particulier où les proportions de déchets sont heureusement faibles.

Processus de Poisson

Mais en réalité l'importance de la loi de Poisson dépasse de beaucoup ce seul cadre. Elle peut être obtenue de façon toute différente et très intéressante du point de vue des applications pratiques. Considérons une suite d'événements tels que:

On dit qu'on a affaire à un processus de Poisson dont λ est le taux d'arrivée.

Considérons la situation du processus à l'instant t + Δt et supposons qu'il y a eu k événements enregistrés jusqu'à cet instant. Cela ne peut provenir que des deux situations suivantes:

Nombre d'événements enregistrés jusqu'à l'instant
tt+Δt
k-1k
kk

La probabilité pk(t+Δt) de réalisation de k événements jusqu'à l'instant t + Δt est donc:

pk(t+Δt) = λ.Δt pk-1(t) + (1-λ.Δt) pk(t)

puisque λ.Δt est la probabilité de réalisation d'un évènement pendant un intervalle de temps Δt et que (1-λ.Δt) est la probabilité du contraire. Cette relation n'est vraie que pour les valeurs non nulles de k: si aucun événement ne s'est réalisé avant t+Δt, c'est qu'aucun événement n'était réalisé avant t. On a donc:

p0(t+Δt) = (1-λ.Δt) p0(t)

que l'on peut écrire:

[p0 (t+Δt) - p0(t)]/Δt = -λ.p0(t)

En faisant tendre Δt vers 0, on obtient: p′0(t) = -λ.p0(t) et, par conséquent: p0(t)= e-λt puisque p0(t) est égale à 1 à l'instant t=0. La relation qui correspond aux valeurs non nulles de k s'écrit, de la même façon:

p′k(t) = λ.pk-1(t) - λ.pk(t)

et permet d'obtenir, par récurrence:

pk(t) = (λt)k/k! e-λt

On reconnait la loi de Poisson de paramètre λ t.

Le champ d'application du processus de Poisson est très vaste. L'expérience montre en effet qu'il permet de modéliser de nombreux phénomènes. Il s'agira, par exemple, du nombre de particules émises par du radium, ou du nombre de défaillances d'une certaine machine, ou du nombre de clients qui se présentent à un guichet, ou du nombre d'appels à un standard téléphonique, ou du nombre de ruptures de fil dans une tréfilerie, ou du nombre de secousses sismiques ressenties dans la ville de Mexico …

Espérance Mathématique d'une Variable Aléatoire Discrète

Etant donnée une variable aléatoire susceptible de prendre les valeurs: x1 , …, xi , …, xn avec les probabilités: p(x1), …, p(xi), …, p(xn), on appelle espérance mathématique (ou moyenne) de cette variable, et on la note généralement E(X), la quantité:

E(X)= ∑ni=1 xi p(xi)

L'appellation d'espérance mathématique, due à Blaise Pascal, sera justifiée ultérieurement par la loi des grands nombres, qui énonce que: la moyenne d'une série d'observations d'une variable tend vers l'espérance de cette variable, quand le nombre d'observations augmente indéfiniment.

En appliquant la définition aux variables qui viennent d'être étudiées, on trouve les valeurs suivantes.

  1. Loi de Bernouilli

    E(X) = 1 × ϖ + 0 × (1-ϖ) = ϖ
  2. Loi Binomiale

    E(K) = ∑nk=1k Cnk ϖk (1-ϖ)n-k

    expression que l'on peut encore écrire:

    E(K) = ∑nk=1nϖ × [(n-1) … (n-(k-1))] / (k-1)! . ϖk-1(1-ϖ)(n-1)-(k-1)

    et où l'on reconnait:

    E(K) = nϖ(ϖ+1-ϖ)n-1 = nϖ
  3. Loi de Poisson

    E(K) = λ
  4. Processus de Poisson

    E(K) = λt

    On comprend pourquoi λ qui est le nombre moyen d'événements par unité de temps, s'appelle le taux d'arrivée.

Exercices

Vous pouvez entrer la réponse sous forme décimale (1.33), fractionnaire (4/3), ou encore passer une expression numérique: (5.5+2.5)/3/2
Il y a une tolérance sur la réponse de 0.001.
Entrez la valeur que vous avez obtenue dans la case "Réponse" correspondant à la question et validez en appuyant sur la touche "Entrée"

Exercice 1

 

On tire, de façon exhaustive, deux cartes d'un jeu de 52. Calculer la probabilité pour que l'une au moins soit un valet.

Réponse

Exercice classique. Penser à décomposer les problèmes en événements incompatibles et événements indépendants. Plusieurs raisonnements sont possibles, selon que l'on raisonne directement ou par le complémentaire.

Exercice 2

 

Monsieur et Madame Dupont ont deux enfants.

  1. Ils vous informent que l'un des deux est une fille. Quelle est la probabilité pour que l'autre soit un garçon ?
  2. Ils précisent que l'aîné de leurs deux enfants est une fille. Quelle est la probabilité pour que le plus jeune enfant soit un garçon ?

Réponse A

Réponse B

Attention au piège : la réponse n’est pas identique en a) et b). Pensez à considérer dans chaque cas l'ensemble des événements possibles et ceux qui sont favorables.

Exercice 3

 

Un lot d'articles doit être testé par prélèvement, aux fins de réception par l'acheteur. Au regard de critères purement techniques, un article peut être classé, après essai, en bon ou mauvais.

Le test est réglé de la façon suivante. On prend deux articles au hasard dans le lot. S'ils sont bons, tous les deux, le lot est accepté. Si les deux sont mauvais, le lot est refusé. Si l'un est mauvais, l'autre bon, on tire de nouveau deux articles au hasard. Si ces deux derniers articles sont bons, le lot est accepté. Sinon, le lot est définitivement refusé.

Calculer en fonction de la proportion ϖ d'articles défectueux dans le lot (proportion réelle, mais inconnue de la personne qui fait le test) la probabilité p d'acceptation du lot. On admettra que les tirages sont faits de façon non exhaustive ou, ce qui revient au même, que la taille du lot est suffisamment grande pour que la proportion ϖ reste inchangée quel que soit le résultat d'un tirage. Tracer la courbe p(ϖ), appelée "courbe d'efficacité".

Réponse
Cf. Solution

Cet exercice illustre le procédé de contrôle progressif : si les résultats du tirages sont très bons ou très mauvais, on arrête. S’ils sont mitigés, on procède à un second test pour préciser.

Exercice 4

 

Une urne contient des boules rouges qui sont en proportion ϖ, et des boules blanches en proportion (1-ϖ). On fait n tirages non exhaustifs. Soit pnk la probabilité d'obtenir k boules rouges. Etablir une relation entre pnk , pn-1k-1 , pn-1k    et ϖ. Que devient cette relation dans le cas d'un tirage exhaustif ?

Réponse
Cf. Solution

Exercice pour illustrer la différence entre tirage exhaustif et non exhaustif

Exercice 5

 

On jette 5 dés à 6 faces. Quelle est la probabilité d'avoir au moins 3 faces identiques ?

Réponse

Pour cet exercice, on décomposera la probabilité en somme de probabilités incompatibles. On peut travailler sur une seule face, puis étendre ensuite aux 6 faces.

Exercice 6

 

La probabilité d'atteindre un certain objectif avec un certain canon est égale à 5%. Quel est le nombre minimum de coups à tirer pour avoir une probabilité de 99% d'atteindre au moins une fois l'objectif ?

Réponse

Problème classique pour l’artilleur. Attention à l’idée fausse consistant à se dire qu’il faut à peu près 1/risque coups.

Exercice 7

 

Un entrepreneur de transports possède deux autocars qu'il peut louer chaque jour pour la journée. Le nombre de demandes présentées par jour est distribué approximativement suivant une loi de Poisson de moyenne égale à 1,5.

  1. Calculer:
    1. la proportion des jours pour lesquels aucune demande n'est présentée,
    2. la proportion des jours pour lesquels les demandes ne peuvent pas être entièrement satisfaites.
  2. Si les deux véhicules sont utilisés de façon à satisfaire le même nombre de demandes, quelle est la proportion des jours pour lesquels un autocar donné n'est pas en service ?
  3. Quelle est la proportion du nombre total des demandes qui est refusée ?

Réponse A-a

Réponse A-b

Réponse B

Réponse C

Utilisation classique de la loi de Poisson. Attention à bien savoir utiliser les tableaux donnés à la fin du poly de cours : ils évitent beaucoup de calculs inutiles.

Exercice 8

 

Des candidats n'ayant pas assez soigné la présentation matérielle de leur copie, le correcteur, plutôt que de chercher à lire de tels brouillons, décide de noter au hasard en accordant une égale probabilité à toutes les notes entières possibles de 0 à 20. Quelle est la loi de probabilité que suit la meilleure note du groupe ?

Réponse
Cf. Solution

Exercice difficile. Pour débuter, on pourra se demander "Que faut-il pour que k soit la meilleure note ?"

Exercice 9

 

Un ivrogne se trouve au pied d'un réverbère dans une avenue bordée d'une file de réverbères. Il repère les deux réverbères de chaque côté de lui, et choisit de se diriger vers celui de droite avec la probabilité 1/2, vers celui de gauche avec la probabilité 1/2. Arrivé à un réverbère, il choisit le réverbère suivant avec les mêmes probabilités, etc.

Après n choix, soit X la variable aléatoire: distance entre l'ivrogne et son point de départ, l'unité de longueur étant la distance entre deux réverbères. Quelle est la loi de probabilité de X ?

Réponse
Cf. Solution

Il s’agit de la marche au hasard, ou parcours aléatoire. On distinguera deux cas de figure : le nombre de pas est pair, ou le nombre de pas est impair.

Exercice 10

 

L’assemblage de l’aile d’un avion nécessite 2500 rivets. La probabilité pour que l’un des rivets utilisés soit défectueux est égale à 0,002. Quelles sont les probabilités pour que, sur l’aile:

  1. Il n’y ait aucun rivet défectueux.
  2. Il y en ait au moins N=10.

Réponse A

Réponse B

Exercice de base, où on utilisera la loi de Poisson.

Exercice 11

 

Une épidémie s'est déclarée dans une petite ville. D'après l'ensemble des symptômes, l'origine peut être soit un streptocoque, soit un virus. L'origine par streptocoque est plus dangereuse et nécessite des mesures particulières, mais les statistiques médicales montrent qu'elle est 4 fois moins probable que l'origine par virus.

Les analyses de laboratoire permettent de déceler la présence éventuelle de streptocoque, mais les techniques utilisées présentent des risques d'erreur: le streptocoque a environ 3 chances sur 10 de n'être pas décelé et, lorsqu'il n'est pas présent chez le malade, 1 chance sur 10 d'être décelé dans les préparations, par suite d'erreur ou de contamination.

  1. Les analyses pratiquées sur 5 malades ayant donné pour la présence de streptocoque: {oui, non, oui, non, oui}, quel diagnostic porter sur l'origine de l'épidémie ?
  2. Souligner les points qui, dans ce résultat, semblent en valoir la peine.

Réponse A - P(A|S) :

Réponse A - P(A|V) :

Réponse A - P(S|A) :

Réponse B
Cf. Solution

Application du théorème de Bayes. Il est important de bien écrire au début toutes les données dont on dispose. On notera également que la série de diagnostics proposée n’en est qu’une parmi d’autres...

Exercice 12

 

Pour le stockage d'un produit extrêmement toxique, on a installé en parallèle 3 détecteurs de fuite, de même type, autour de la cuve de stockage. On sait que ce type de détecteur se déclenche intempestivement dans 10% des cas et ne détecte pas la fuite dans 2% des cas. Par ailleurs, des calculs ont montré que la probabilité d’une fuite dans cette unité de stockage était égale à 5%. Quelle est la probabilité d'une fuite si 2 détecteurs ont réagi ?

Réponse

Application du théorème de Bayes. Il est important de bien écrire au début toutes les données dont on dispose. On se demandera ce que l’hypothèse de détecteurs en parallèle sous-tend.