LICENCE DE SOCIOLOGIE -...
Transcript of LICENCE DE SOCIOLOGIE -...
-
LICENCE DE SOCIOLOGIE Sciences sociales
L2, MSCS 12B
Les probabilités & TD
Mohamed Ouardani
Année Universitaire 2008/2009
-
TABLE DE MATIÈRES
Introduction ...................................................................................................................................................5
Les ensembles et Opération de complémentarité.........................................................................................9
Le dénombrement.......................................................................................................................................11
Arrangement ...............................................................................................................................................12
Combinaison...............................................................................................................................................14
La probabilité ..............................................................................................................................................16
Probabilités conditionnelles ........................................................................................................................20
Condition d’Événement indépendant ..........................................................................................................23
Les variables aléatoires ..............................................................................................................................26
Espérance mathématique ...........................................................................................................................27
La variance .................................................................................................................................................31
Loi Bernoulli ................................................................................................................................................34
Loi binomiale...............................................................................................................................................35
-
Références bibliographiques
BLOSS (Thierry) et GROSSETTI (Michel), Introduction aux méthodes statistiques en Sociologie, Paris, éditions PUF, Collection “Le sociologue”, 1999, 224 pages.
CIBOIS (Philippe), L’analyse des données en sociologie, Paris, éditions PUF, 1990, 221 pages.
DROESBEKE (Jean-Jacques), Éléments de statistique, Bruxelles, éditions Ellipses, 1997, 550 pages.
LEBBART (Ludovic), MORINEAU (Alain), PIRON (Marie), Statistique exploratoire multidimensionnelle, Paris, éditions Dunod, 2000.
LIPSCHTZ (Seymour), Probabilité. Cours et problèmes, Paris, éditions McGraw-Hill, série Schaum, 1993, 153 pages.
PY (Bernard), Statistiques descriptives, éditions Economica, 1996, 353 pages.
SAPORTA (Gilbert), Probabilité, analyse des données et statistique, Paris, éditions Technip, 2006, 622 pages.
SPIEGEL (Murray R.), Probabilité et statistique. Cours et problèmes, Paris, éditions McGraw-Hill, série Schaum, 1981, 385 pages.
VOLLE (Michel), Analyse des données, éditions Economica, 1997, 323 pages.
WONNACOTT (Thomas H.), WONNACOTT (Ronald J.), Statistique, éditions Econimica, 1991, 919 pages.
-
INTRODUCTION
Qu’est-ce qu’une probabilité ?
Dans toute expérience aléatoire il y a souvent une incertitude quant à la réalisation ou non d’un événement particulier. Il est alors commode d’affecter un nombre compris entre 0 et 1 (ou 0 et 100%) à la chance ou à la probabilité selon laquelle nous estimons la réalisation de cet événement.
Si nous sommes sûrs ou certains que cet événement sera réalisé, nous dirons que sa probabilité est de 1 ou 100% (en tirant au sort un individu parmi vous, quelle est la probabilité qu’il soit un étudiant ?). Mais si nous sommes sûrs qu’il ne pourra pas se réaliser, nous dirons alors que sa probabilité est zéro (en tirant au sort un individu parmi vous, quelle est la probabilité qu’il soit un étudiant en deuxième année de master de sociologie ?). Si, par exemple, la probabilité est de ¼, nous dirons qu’il y a 25% de chances que l’événement soit réalisé et 75% de chances pour qu’il ne le soit pas.
Qu’est-ce qu’une expérience ?
Une expérience est toute action ou processus qui engendre des résultats ou des observations (lancé de dé ; tirage d’une carte…). Une expérience est qualifiée d’aléatoire si l’on ne peut prévoir par avance son résultat et si, répétée dans des conditions identiques, elle peut donner lieu à des résultats différents.
L’ensemble de tous les résultats possibles d’une expérience est appelé ensemble fondamental ou encore univers des possibles. Et noté Ω (oméga).
Et on représente un résultat de cette expérience comme un élément ω de l’ensemble Ω de tous les résultats possibles.
Ω = { ω1 , ω2 , ω3 , … , ωn } à n éléments.
Ainsi à l’expérience aléatoire, qui consiste à lancer un dé, on peut associer l’ensemble :
Ω = { 1 , 2 , 3 , 4 , 5 , 6 } à 6 éléments.
Il convient de noter ici que l’ensemble Ω ne se déduit pas de manière unique de l’expérience mais dépend de l’usage qui doit être fait des résultats. On peut convenir de ne retenir de l’expérience du lancer du dé que les faces paires ou impaires du dé, et on peut très bien se contenter d’un ensemble :
Ω’ = { paire , impaire } à 2 éléments
Notons que certains auteurs qualifient aussi d’épreuve une expérience aléatoire ou sa réalisation.
Exemple : prélever une carte d’un paquet de 52 cartes :
• la couleur de la carte : Ω = { paire , impaire } • la série de la carte : Ω’ = { cœur , carreau , trèfle , pique } • la valeur de la carte : Ω’’ = { 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , valet , dame, roi , as} • l’ensemble des 52 cartes du paquet.
-
Introduction
8
Qu’est-ce qu’un ensemble fondamental ?
Retenez donc qui si nous supposons pouvoir décrire l’ensemble de tous les résultats possibles d’une expérience aléatoire. Nous noterons cet ensemble Ω et nous l’appellerons ensemble fondamental ou espace échantillon.
Qu’est-ce qu’un événement ?
Un événement est une assertion (proposition – pouvant être positive ou négative – que l’on avance et que l’on soutient comme vraie) ou proposition logique relative au résultat de l’expérience (exemple : lancer un dé : l’événement à décrire peut être “le nombre de points est supérieure ou égale à 4”). On dira qu’un événement est réalisé ou non suivant que la proposition est vraie ou fausse une fois l’expérience accomplie.
Donc, vous comprenez bien que c’est l’expérimentateur lui-même qui va décider de ce que sera le nom du résultat en fonction des préoccupations qui lui sont propres.
À la réalisation d’un événement on peut donc associer tous les résultats de l’épreuve correspondante ; ainsi “le nombre de points est supérieure ou égale à 4” est l’ensemble de résultats suivants :
{ 4 , 5 , 6 }, c’est-à-dire une partie de Ω.
Soit l’expérience lancée de deux dés. Et soit l’événement “la somme des points est supérieure ou égale à 10”. Ainsi la somme supérieure ou égale à 10 est l’ensemble des résultats suivants :
{ (4 , 6) ; (5 , 6) ; (6 , 6) ; (6 , 5) ; (6 , 4) }, c’est-à-dire une partie de Ω.
Désormais nous identifierons un événement à la partie de Ω pour laquelle cet événement est réalisé.
On appelle événement élémentaire une partie (ω) de Ω réduite à un seul élément.
Estimation d’un événement
D’une manière générale, il y a deux manières différentes d’estimer la probabilité d’un événement :
• Méthode dite classique ou approche a priori : Si un événement se produit de h manières différentes sur un nombre total de n manières possibles, toutes équiprobables, la probabilité de l’événement est alors h/n.
• Méthode des fréquences ou fréquentielle ou approche a posteriori : Si après avoir répété une expérience n fois (n grand) nous constatons qu’un événement se réalise h fois, la probabilité de cet événement est h/n. Ce résultat est aussi appelé probabilité empirique de l’événement en question.
-
LES ENSEMBLES ET OPÉRATION DE COMPLÉMENTARITÉ
a ∈ A l’élément a appartient à l’ensemble A
A ⊂ B l’ensemble A est inclus dans élément B
A U B est l’ensemble des éléments appartenant à au moins un des deux ensembles
A ∩ B est l’ensemble des éléments communs à A et à B
Propriétés
A∩A = A
AUA = A
A∩φ = φ
AUφ = A
(A∩B)∩C = A∩(B∩C) = A∩B∩C ⇒ distributivité de l’intersection
(AUB)UC = AU(BUC) = AUBUC ⇒ distributivité de la réunion
Théorème
A∩(BUC) = (A∩B) U (A∩C) ⇒ distributivité de l’intersection sur la réunion
AU(B∩C) = (AUB) ∩ (AUC) ⇒ distributivité de la réunion sur l’intersection
Ω : est l’univers ; l’ensemble fondamental ; l’ensemble de référence
Α : est le complémentaire de A ; l’ensemble des éléments d’ Ω qui ne figure pas dans A
A
Α
Ω
-
Les ensembles et Opération de complémentarité
10
Loi de Morgan
La loi de Morgan sert à convertir un produit en somme et inversement.
La fonction inverse de la somme peut devenir le produit des fonctions inverses de chacun des éléments de la somme : 1° ΒΑ=ΒΑ IU La fonction inverse du produit peut devenir la somme des fonctions inverses de chacun des éléments du produit : 2° ΒΑ=ΒΑ UI
Pour justifier ces formules, on peut par exemple, utiliser la méthode sémantique des tables de vérité. On rappelle que deux formules sont équivalentes si et seulement si elles ont la même table de vérité.
ΒΑ=ΒΑ IU
A B AUB ΒΑ U Α B ΒΑ I 0 0 0 1 1 1 1 0 1 1 0 1 0 0 1 0 1 0 0 1 0 1 1 1 0 0 0 0
ΒΑ=ΒΑ UI
A B A∩B ΒΑI Α B ΒΑU 0 0 0 1 1 1 1 0 1 0 1 1 0 1 1 0 0 1 0 1 1 1 1 1 0 0 0 0
Propriétés
φ=ΑΑI Ω=ΑΑU
Exercices
Soit 3 ensembles A , B , C. Quels sont les éléments qui sont :
1° que dans A : CIIΒΑ
2° dans un seul ensemble : ( ) ( ) ( )CCC IIUIIUII ΒΑΒΑΒΑ 3° dans au moins deux des ensembles A , B , C :
( ) ( ) ( ) ( )CCCC IIUIIUIIUII ΒΑΒΑΒΑΒΑ = ( ) ( ) ( )CC IUIUI ΒΑΒΑ
-
LE DÉNOMBREMENT
A ensemble fini. On note │A│ ou card A, le nombre d’éléments de A.
│φ │= 0
Fini tel que l’on peut dire exhaustivement les éléments qui composent l’ensemble.
Infini tel que l’on peut décliner tous les éléments qui composent l’ensemble : Soit l’expérience lancée d’une pièce. Et l’événement “lancer une pièce autant de fois qu’il est nécessaire pour avoir pile. Ω serait alors :
Ω = { p , (f , p) ; (f , f , p) ; (f , f , f , p) ; … }
Théorème
1° si A∩B =φ , on a │AUB│=│A│+│B│
2° si A et B sont quelconque, on a │AUB│=│A│+│B│–│A∩B│
Car si on admet que le fait que│AUB│=│A│+│B│, les éléments qui appartiennent à la fois à A et à B seront comptés deux fois.
3° principe d’inclusion (+) et d’exclusion (–)
│AUBUC│=│A│+│B│+│C│–│A∩B│–│A∩C│–│B∩C│+│A∩B∩C│
a b z c e y d m
B A
a b z c e y
d m
n p
B A
C
B
A
-
ARRANGEMENT
Dénombrer les différents modes de sélection des éléments.
p éléments parmi n
p tirages successifs sans remise
⇒ Le résultat s’appelle un arrangement sans répétition de p éléments parmi n (p éléments forcément distincts et ordonnés)
Leur nombre est A pn (“A” pour arrangement)
1er tirage : n éléments, j’en prends 1 (n possibilités, choix) ⇒ a1 tiré
2e tirage : a2 , a3 ,…, an n (n–1) possibilités
Arrangement sans répétition (éléments distincts et ordonnés, D.O.)
1er tirage 2e tirage
a2 a1 a3 an a1 a2 a3 an Compter les arrangements c’est compter les branches a1 a3 a2 an an n x (n–1)
donc, A pn = n (n–1) (n–2) (n–3) … [n– (p–1)] = n (n–1) (n–2) (n–3) … (n– p+1)
Produit de P entier, consécutif, décroissants à partir de n
Exemple : A 410= 10 x 9 x 8 x 7
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
13
Exemple : On veut ranger p boules numérotées dans n boites numérotées. Chaque boite ne peut contenir qu’une seule boule.
⇒ nombre de rangements possibles (p ≤ n)
1er tirage : pour la boule n° 1 2e tirage : pour la boule n°2
⇒ réponse : A pn
Cas particulier : p = n → A pn = n (n–1) (n–2) … 1
Le produit des n premiers entiers non nuls. On écrit n ! Lorsque p = n, un tel arrangement est appelé Permutation.
Exemple : 4 ! = 4 x 3 x 2 x 1 = 24
Propriétés
1° n x (n – 1) ! = n !
2° 1! = 1 on convient que 0 ! = 1 (1 seul rangement)
3° A pn = ( )!pn!n
-
Exemple : A 83 = 8 x 7 x 6
= 1 x 2 x 3 x 4 x 5
1 x 2 x 3 x 4 x 5 x 6 x 7 x 8
= !5
!8
Plus généralement : ( )( ) ( )
( )pn . .... 3 . 2 . 1n . ... . 1pn . pn . .... 3 . 2 . 1
!pn!n
---
-+=
Arrangement avec répétition possible (ND.O.)
Obtenu en procédant à p tirages successifs avec remise.
Exemple : En lançant 5 dés (considérés comme discernables), on obtient comme résultat un arrangement avec répétition possible de 5 nombres parmi 6.
Le nombre d’un tel arrangement, avec répétition possible, est n p .
-
COMBINAISON
Combinaison sans répétition (D.Ø.)
Une partie à p éléments d’un ensemble à n (m) éléments s’appelle aussi une combinaison de n éléments de X.
Est obtenu avec un tirage de p éléments simultanément. Leur nombre est C pn
Chaque combinaison crée un p! arrangements.
Exemple : n = 3 , {a , b , c}
Soit la combinaison de {a , b , c} qui forme 6 arrangements :
(a , b , c) ; (a , c , b) ; (b , c , a) ; (b , a , c) ; (c , a , b) ; (c , b , a)
Chaque combinaison de p éléments fournit p! arrangements.
⇒ C pn x p! = Apn
⇒ C pn = p!
A pn
⇒ C pn =( ) ( )
p x ... x2 x 1
1 P -n ... 1-nn +
⇒ C pn = ( )! p -n ! p!n (sachant que A pn = ( )!pn
!n- )
Exemple : C 25 = 2 x 14 x 5= 10 ; C 48 =
4 x 3 x 2 x 1
5 x 6 x 7 x 8 = 70
Propriétés
1° C 1n = n
2° C nn = 1
3° C 0n = 1
4° C pn = Cpn
n− exemple : C 2628= C
228=
2 x 1
27 x 28
Combinaison avec répétition possible (ND.NO.)
Assimilé à un n arrangement de p boules non numérotées dans n boites numérotées. Exemple : 3 boules et 5 boites, soit {1 , 2 , 3 , 4 , 5}
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
15
Exemple d’arrangement :
• {1 , 2 , 1} │• •│ • │ │ │ │ ‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾
• {3 , 3 , 3} │ │ │• • •│ │ │ ‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾
Cas général : n + p – 1 ⇒ C pn x p! = Apn
exemple : Soit 5 types de pralinés. On demande d’en faire des paquets de 40.
n = 5 , p = 40 ⇒ Cn
pn 1−+ ⇒ C40
1540 −+ = C4044
Théorèmes du produit
On a A1 ; A2 ; A3 ; … ; Ap Et on demande de choisir un élément de chaque ensemble.
⇒ il y a |A1| ; |A2| ; |A3| ; … ; |Ap| manière de choisir.
exemple : n nombre entier à 5 chiffres
A1 A2 A3 A4 A5
9 10 10 10 10 ⇒ Il y a 9 x 104 = 90 000 choix possibles
Récapitulation de l’arrangement et de la combinaiso n
Tirage Sans répétition Avec répétition
Sans ordre Cpn = ( )! p -n ! p
!n = p!
A pn Cn
pn 1−+
Avec ordre A pn = ( )!pn!n
- np
-
LA PROBABILITÉ
Nous lançons 3 dés :
Ω ensemble fondamental (ensemble des résultats possibles) |Ω| = 63 A0 événement de n’obtenir aucun 6. Identification de l’événement à l’ensemble qui le réalise. |A0| = 5
3
Soient A et B deux événements, donc A⊂Ω et B⊂Ω :
1. A∩B est l’ensemble qui réalise simultanément les événements A et B 2. AUB est l’événement formé par les résultats qui réalisent au moins A ou B 3. Α est l’événement formé par les résultats qui ne réalise pas A 4. Si A∩B = Ø , alors A et à B sont des événements incompatibles. 5. {Ø} événement impossible 6. Ω lui-même est un événement certain (toujours réalisé) 7. Un événement est élémentaire lorsqu’il ne peut être réalisé que par un seul résultat.
Probabilité d’un événement, la limite des fréquences relatives de réalisation de cet événement, lorsque le nombre d’expériences augmente indéfiniment. Notation : p (A) : probabilité de l’événement A
Propriétés
1. tout événement impossible a une probabilité nul : p (Ø) = 0 (les fréquences = 0)
2. la probabilité d’un événement certain p (Ω) = 1 (les fréquences = 0)
3. si A∩B = Ø , alors p (AUB) = p (A) + p (B) A : “obtenir une somme ≥ 10” → 2 B : “obtenir une somme ≤ 8” → 5 donc 7 ont réalisé au moins un des deux événements.
4. plus généralement : si A1 ; A2 ; A3 ; … ; An n événements 2 à 2 incompatibles, alors p(A1U A2U A3U … U An) = p(A1) + p(A2) + p(A3) + … + p(An)
5. A∩Α= Ø AU Α= Ω ⇒ p(Ω) = 1 = p(AU Α ) = p(A) + p(Α ) ⇒ p(A) + p(Α )= 1 ou p(A) = 1 – p(Α )
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
17
Avec A et B événements quelconques : p(AUB) = p(A) + p(B) – p(A∩B) Démonstration : AUB = (A∩B ) U B réunion de deux événements incompatibles
⇒ p(AUB) = p(A∩B ) + p(B) or, (A∩B ) U (A∩B) = A disjointe donc, p(A∩B ) + p(A∩B) = p(A) autrement dit, p(A∩B ) = p(A) – p(A∩B) on généralise La formule de Poincarré : p(AUBUC) = p(A) + p(B) + p(C) – p(A∩B) – p(A∩C) – p(B∩C) + p(A∩B∩C)
6. Ω = {ω1 ; ω2 ; ω3 ; … ; ωn} = {ω1}U{ω2}U{ ω3}U…U{ωn} 2 à 2 incompatibles ⇒ p(Ω) = 1 = p({ω1}) + p({ω2}) + p({ω3}) + … + p({ωn}) la somme des probabilités de tout les événements élémentaires vaut 1. exemple : Soit un dé truqué (pipé) • les faces paires ont la même chances d’apparaître • les faces impaires ont la même chance d’apparaître et qui est la moitié des paires Ω = {1 ; 2 ; 3 ; 4 ; 5 ; 6} ou écrivons Pi = p({i}) P2 = P4 = P6 ; P1 = P3 = P5 ; P1 = ½ P2 Appliquons le théorème 6 : P1 + P2 + P3 + P4 + P6 + P6 = 1 ⇒ ½ P2 + P2 + ½ P2 + P2 + ½ P2 + P2 = 1 ⇒
29 P2 = 1
⇒ P2 = P4 = P6 = 9
2 et P1 = P3 = P5 = 9
1
7. étude de cas particulier : Nous faisons l’hypothèse d’équiprobabilité des événements élémentaires. Ω = {ω1 ; ω2 ; … ; ωn} L’hypothèse d’équiprobabilité : p({ω1}) = p({ω2}) = … = p({ωn}) = p
-
La probabilité
18
p({ω1}) + p({ω2}) + … + p({ωn}) = 1 = np p p p
donc, p =
n
1 = ||
1
Ω=
possible cas de nombre
1
Soit, alors, l’événement A⊂ Ω après rémunération éventuelle :
A = {ω1 ; ω2 ; ω3 ; … ; ωk} = {ω1}U{ω2}U{ ω3}U…U{ωk} 2 à 2 incompatibles donc, p(A) = p({ω1}) + p({ω2}) + … + p({ωn}) =k .
n
1 =n
k
donc, p(A) = ||
|A|
Ω=
possibles cas de nombre
favorables cas de nombre j
L’hypothèse de l’équiprobabilité ramène le calcul de probabilité au dénombrement d’ensemble fini.
Exemple
Jeu de “Passe dix”. On lance 3 dés : S>10, “somme des trois dés > 10” alors p(S>10) = p(S≤10) = p(S>10) =
21
Il est légitime de faire l’hypothèse de l’équiprobabilité (à moins d’un tirage) S=11 : 6+3+2 → 6 (3!) S=12 : 6+4+2 → 6 6+4+1 → 6 6+5+1 → 6 5+5+1 → 3 6+3+3 → 3 5+3+3 → 3 5+5+2 → 3 5+4+2 → 6 4+4+4 → 1 4+4+3 → 3 5+4+3 → 6 ––– ––– 27 25 S=13 : 6+6+1 → 3 S=14 : 6+6+2 → 3 6+5+2 → 6 6+5+3 → 6 6+4+3 → 6 6+4+4 → 3 5+5+3 → 3 5+5+4 → 3 5+4+4 → 3 ––– ––– 15 21
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
19
S=15 : 6+6+3 → 3 S=16 : 6+6+4 → 3 6+5+4 → 6 6+5+5 → 3 5+5+5 → 1 ––– ––– 6 10 S=17 : 6+6+5 → 3 S=18 : 6+6+6 → 1
⇒ p(S>10) = 36
1361015212527 +++++++ = 216
108=
2
1
-
PROBABILITÉS CONDITIONNELLES
Exemple : Lancée d’un dé, on note A : “événement d’obtenir un 6” B : “événement d’obtenir une face paire”
( )BAp = |B| |BA| ∩ =||
|B|||
|BA|
Ω
Ω∩
=(B) p
B)(A p ∩
“La probabilité de A sachant B (B a été réalisé)”
Définition générale
Soit B événement non impossible (tel que p(B)≠0). est : )BA( p =
(B) p
B)(A p ∩
Exemple : Soit une famille à deux enfants :
A : “famille composée d’au moins un garçon” B : “famille composée de deux garçons” C : “famille dont l’aîné est un garçon”
Il y a quatre manières de dénombrer les enfants : (G , G) ; (G , F) ; (F , G) ; (F , F)
( )ACp = (A) pC)(A p ∩ =
43
42
=32
( )ABp = (A) pB)(A p ∩ =
43
41
=3
1
Autre manière de dire…
)BA( p =
(B) p
B)(A p ∩ ⇒ B)(A p ∩ = )B
A( p . (B) p
Exemple :
│ ○ ○ ○ ○ │ │ ● ● ● │ Soit une boite contenant 4 boules blanches et 7 boules noires │ ● ● ● ● │
‾‾‾‾‾‾‾‾‾‾ Deux tirages successifs sans remise. Quelle est la probabilité de tirer deux boules noires ? Autrement dit, calculer la probabilité de tirer une boule noire au premier tirage et une autre boule noire au deuxième tirage. Soit calculer )N(N p 12 ∩
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
21
)N(N p 12 ∩ = )NN( p
1
2 . )(N p 1 =10
6.11
7=
55
21
“la probabilité de tirer une boule noire au deuxième tirage sachant que l’on a déjà tiré une autre boule noire au premier tirage”
Formule de Bayes
Ω = A1 U A2 U A3 U … U An 2 à 2 disjoints Soit B événement quelconque B = (B∩A1) U (B∩A2) U (B∩A3) U … U (B∩An) 2 à 2 disjoints
⇒ (B) p = )A(B p 1∩ + )A(B p 2∩ +…+ )A(B p n∩
(B) p = )AB( p
1
. )(A p 1 + )AB( p
2
. )(A p 2 +…+ )AB( p
n
. )(A p n
(B) p =∑ )A
B( pi
. )(A p i
Exemple :
│○ ○ ○ ○ ○│ │ ○ ○ ○ ○ ○ ○ ○ │ │ ● ● ● ● │ et │ ● ● ● │
‾‾‾‾‾‾‾‾‾‾ ‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾ b1 b2 Soit b1, une première boite contenant 5 boules blanches (5B) et 4 boules noires (4B) ; et b2, deuxième boite contenant 7 boules blanches (7B) et 3 boules noires (3B)
(B) p = )1b(B p ∩ + )2b(B p ∩ = )1b
B( p . )1(b p + )2bB( p . )2(b p
= 9
5 .
2
1 +
10
7 .
2
1
Ω = A1 U A2 U A3 U … U An les Ai sont 2 à 2 incompatibles ⇒ (B) p = )A(B p 1∩ + )A(B p 2∩ +…+ )A(B p n∩
(B) p = )AB( p
1
. )(A p 1 + )AB( p
2
. )(A p 2 +…+ )AB( p
n
. )(A p n
⇒ D’où la formule de Bayes
)BA( p i =
(B) p
B)(A p i ∩ =)(A p . )A
B( p...)(A p . )AB( p)(A p . )A
B( p
)(A p . )AB( p
nn
22
11
ii
+++
-
Probabilités conditionnelles
22
)BA( p i =
(B) p
B)(A p i ∩ =
∑ )(A p . )AB( p
)(A p . )AB( p
ii
ii
Exemple : Problème du tricheur
Soit un jeu de “pile ou face”. Un joueur parie sur Pile et obtient Pile. Est-ce un tricheur ?
P : “pile” ; T : “tricheur” ; H : “honnête”
( )PTp = ( )( )PpPTp I = ( ) ( )
( ) ( )HPpTPpTp.T
Pp
II + = ( ) ( )( ) ( ) ( ) ( )Hp.HPpTp.TPp
Tp.TPp
+
Si le joueur est un tricheur
( ) 1
2
21
2112
1 +=+=
−+⇒
xx
xx
xxx
● si x =
21 ⇒ ( )PTp = 3
2
● si x =101 ⇒ ( )PTp = 11
2
Exemple : Test HIV
Une population dont 000101 est atteint du sida. On fait subir un test.
Et on suppose que : P : “positif” ; S : “sida”
( )SPp = 0,999 ; SPp = 0,001 ; le problème est ( )PSp ?
( )PSp = ( )( )PpPSp I = ( ) ( )
( ) ( ) ( )Sp.S
PpSp.SPp
Sp.SPp
+
= 999,0x001,0
000101
x999,0
000101
x999,0
+
= 0,09
-
CONDITION D’ÉVÉNEMENT INDÉPENDANT
Soit ( )Ap et ( )BAp . On dira que l’événement A est indépendant de l’événement B lorsque :
( )BAp = ( )Ap avec ( )Bp ≠0
Si A est indépendant de B, alors nous pouvons montrer que B est indépendant de A, avec ( )Ap ≠0. La preuve :
( )BAp = ( )Ap ⇔ ( )( )BpBAp I = ( )Ap
et lorsque l’on sait que ( )BAp I = ( )Ap . ( )Bp
alors ( )( )ApBAp I = ( )Bp et ( )ABp = ( )Bp
et on dira que A et B sont indépendants
Événements incompatibles
A et B sont incompatibles ⇒ ( )BAp U = ( )Ap + ( )Bp A et B sont indépendants ⇒ ( )BAp I = ( )Ap x ( )Bp
Exemple : Soit un dé avec 2 faces n°6 et 4 faces n°1 On lance le dé deux fois de suite S : “obtenir deux fois le numéro 6”
( )21 SSp I = ( )1Sp × ( )2Sp = 31
3
1 × = 91
Avec 3 événements ou plus, l’indépendance est une notion “forte” (difficile à réaliser) : Exemple : On lance deux dés :
A : “1er dé affiche un numéro pair” B : “2e dé affiche un numéro impair” C : “les deux dés affichent deux numéros de même parité”
( )Ap = 63 =
21 ; ( )Bp =
63 =
21 ; ( )Cp = (
63 ×
63)+(
63 ×
63)=3618=
21
-
Condition d’Événement indépendant
24
⇒ ( )BAp I = 369= 41 =
21
x21
⇒ A et B sont indépendants
( )CAp I = 369 =
41 = ( )Ap x ( )Cp ⇒ A et C sont indépendants
( )CBp I = 369= 41 = ( )Bp x ( )Cp ⇒ B et C sont indépendants
⇒ Les trois événements sont indépendants 2 à 2
Par contre { ( )CBAp II = 0} ≠ { ( )Ap x ( )CBp I } pourtant l’événement A dépend de l’événement BI C.
Définition de l’indépendance pour un nombre quelconque d’événements
Des événements A1 , A2 , … , An sont indépendants lorsque : quelque soit le nombre d’événements extrait parmi ces n événements, il faut que leur intersection ait – comme probabilité – le produit des probabilités. Supposons trois événements. On dira que A , B , C sont indépendants lorsque :
( ) ( ) ( )Bp.ApBAp =I ( ) ( ) ( )Cp.BpCBp =I ( ) ( ) ( )Cp.ApCAp =I ( ) ( ) ( ) ( )Cp.Bp.ApCBAp =II
Exemple : Soit une suite de lancers successifs d’un dé : Le premier numéro 6 qui s’affiche survient au 5e lancer. Quelle est la probabilité d’obtenir un 6, pour la 1ère fois, lors qu 5e lancer ? Si : “obtenir le 6 lors du i
émé lancer”
( )54321 SSSSSp IIII = ( )1Sp × ( )2Sp × ( )3Sp × ( )4Sp × ( )5Sp =
65 ×
65 ×
65 ×
65 ×
61 = 5
4
65
Formule du double conditionnement
( )BAp I = ( )BAp . ( )Bp ( )CBAp II = ( )[ ]CBAp II = ( )BACp I . ( )BAp I
⇒dgs ( )CBAp II = ( )BACp I . ( )BAp . ( )Bp
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
25
Plus généralement :
( ) ( )11
2
2n21
1-n
1n21
nn21 Ap.A
Ap.A...AAAp.A...AA
ApA...AAp
=
−− IIIIIIIII
Exemple : Soit le temps à Strasbourg :
S : “il fait beau le lendemain d’un jour ensoleillé”” = 0,6 G : “il fait gris le lendemain d’un jour grisonnant” = 0,8
1. Nous sommes vendredi et il fait beau. Quelle est la probabilité d’avoir un beau temps samedi, dimanche
et lundi ? Nous cherchons ( )LundiDimancheSamedi SSSp II . On notera ( )LDS SSSp II
( )LDS SSSp II =
DS
LSS
SpI
.
S
DS
Sp . ( )SSp
= 0,6 × 0,6 × 0,6
= 0,63
= 0,216
2. Quelle est la probabilité qu’il fasse beau lundi ?
vendredi S 0,6 0,4
samedi S G 0,6 0,4 0,2 0,8
dimanche S G S G 0,6 0,4 0,2 0,8 0,6 0,4 0,2 0,8
lundi S G S G S G S G
p(SL) = (0,6×0,6×0,6) + (0,6×0,4×0,2) + (0,4×0,2×0,6) + (0,4×0,8×0,2)
= 0,216 + 0,048 + 0,048 + 0,064 = 0,376
-
LES VARIABLES ALÉATOIRES
Soit le lancer de trois fois un dé. On mise 1€ sur le numéro 6 :
si le 6 n’apparaît pas → perte de la mise ⇒ gain = -1€
si le 6 apparaît 1 fois → le joueur reçoit 2€ ⇒ gain = 1€
si le 6 apparaît 2 fois → le joueur reçoit 3€ ⇒ gain = 2€
si le 6 apparaît 3 fois → le joueur reçoit 4€ ⇒ gain = 3€
Nous avons une fonction X, X : Ω → IR
résultat gain
⇒ X est une variable aléatoire
“Variable”, parce qu’elle peut prendre différentes valeurs et “aléatoire” parce qu’on ne peut prévoir par avance son résultat et si, l’expérience est répétée dans des conditions identiques, elle peut donner lieu à des résultats différents. Elle est généralement notée : X
Soit une “fonction” et une “image” : (X = -1) : l’événement “perte de la mise”
La loi de probabilité qui décrit entièrement X
Cette loi est donnée sous la forme d’un tableau :
X -1 1 2 3
p(X =…) 65
x65
x65 3x
65
x65
x61
3x65
x61
x61
61
x61
x61
p(X =…) 33
65
3675
3615
361
p(X =…) 216125
21675
21615
2161
⇒ Ω = p(X = -1) + p(X = 1) + p(X = 2) + p(X = 3)
Plus généralement…
Dans le tableau donnant la loi des probabilités d’une variable aléatoire fixe, la somme des probabilités est égale à 1.
-
ESPÉRANCE MATHÉMATIQUE
L’espérance mathématique d’une variable aléatoire X, (appelée également par abus de langage moyenne de X), est la valeur que l’on peut espérer obtenir, en moyenne, en réalisant X. Elle est notée E ( X )
Imaginons que l’on joue 1000 de suite au jeu précédant (soit le lancer d’un dé trois fois).
On obtiendrait : 400 lancers où le X = -1
300 lancers où le X = 1
250 lancers où le X = 2
50 lancers où le X = 3
X = 1000
)320()2180()1300()]1-(500[ ×+×+×+×
=000 1
203
000 1
1802
000 1
3001
000 1
5001- ×+×+×+× = 0,22
µ : E ( X ) : L’espérance mathématique est la limite des gains moyens expérimentaux, lorsque le nombre d’épreuves (d’expériences) augmente indéfiniment, tend vers l’infini (→ ∞)
(Cf. Le tableau de la loi de probabilité, page précédente)
E ( X ) = -1 × p(X = -1) + 1 × p(X = 1) + 2 × p(X = 2) + 3 × p(X = 3)
= -1×216125 + 1×
21675 + 2×
21615 + 3×
2161
= 21617-
= - 0,078
X : variable aléatoire finie (discrète) de loi :
X x1 x2 x3 … xn
p(X =…) p1 p1 p3 … pn
⇒ E (X ) = x1 p1 + x2 p2 + x3 p3 + … + xn pn
⇒ µµµµ = E (X ) = ∑xi pi
-
Espérance mathématique
28
Exemple :
Soit une trousse de n clés, dont une seule ouvre une certaine porte. On essai les clés l’une après l’autre en écartant la clé essayée.
X : “nombre d’essais nécessaires pour trouver la bonne clé”
Le problème est de trouver E(X) ?
X 1 2 3 … n
p(X =…) n1
n1
n1 …
n1
p(X = 2) = ( )21 BMp I p(X = 3) = ( )321 BMMp II
= ( )11
2 MpMBp
= ( )1
1
2
21
3 MpMMpMM
Bp
I
= n
n
n
1-
1-
1 × = n
n
n
n
n
1-
1-
2-
2-
1 ××
= n1 =
n1
⇒ p(X = n) = n1
E(X) = nn
...n3
n2
n1 ++++
= n
n...321 ++++
= n1n + , puisque S = 1+2+3+…+n = ( )
21nn + , démonstration :
S = 1 + 2 + 3 + … + (n–2) + (n–1) + n
+ S = n + (n–1) + (n–2) + … + 3 + 2 + 1
2S = (n+1) + (n+1) + (n+1) + … + (n+1) + (n+1) + (n+1)
= n (n+1)
Propriétés
1. X1 , X2 , X3 , … , Xn n variables aléatoires
alors OE(X1 + X2 + X3 + … + Xn) = E(X1) + E(X2) + … + E(Xn) )
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
29
Exemple : Le problème des rencontres :
Soit R le nombre de rencontre entre des personnes et leurs chapeaux à sortie d’une soirée. On note Xi la variable aléatoire.
Xi 1 0 Si i a eu son chapeau Si non
p(X =…)
n1
n1n −
alors, R = X1 , X2 , X3 , … , Xn
E (R) = E(X1) + E(X2) + … + E(Xn)
= E (X1 + X2 + X3 + … + Xn)
P(X =1) → ( )n1
!n!1-n
=
E(X1) = n1
2. E(aX+b) :
X x1 x2 … xn p(X =…) p1 p1 … pn
p(X =…) ax1+b ax2+b … axn+b
⇒ E(aX+b) = a E(X )+b)
Démonstration :
En effet E(aX+b) = (ax1+b)p1 + (ax2+b)p2 + … + (axn+b)pn
= a (x1p1 + x2p2 + … + xnpn) + b (p1 + p2 + … + pn)
E(X) 1
-
Espérance mathématique
30
Exemple :
X : variable aléatoire : dépense journalière, tel que E( X) : 20€
Y : variable aléatoire : dépense mensuelle (30 jours), Y = 30X + 150
Frais fixe : 150€
E(Y) = E(30X + 150)
= 30 E(X) + 150
= 30 × 20 + 150 = 750€
-
LA VARIANCE
La variance d’une variable aléatoire numérique X, notée V ( X ) ou Var ( X ), est un nombre positif ou nul (nul si X est une constante) et d’autant plus grand que les valeurs de X sont fluctuantes et “imprévisibles”.
V ( X ) = E [ ( X – E ( X ) )² ] (ici E signifie l’espérance)
On a aussi : V ( X ) = E ( X² ) – [ E ( X ) ]², formule qui peut se lire : la variance est égale à l’espérance du carré moins le carré de l’espérance.
La racine carrée de la variance est l’écart-type [(1/n ∑ ni.x²i) – x ²)]
Exemple :
Un placement financier dont le profit est X1
X1 15€ - 15€ X2 15 000€ - 15 000€
½ ½ ½ ½
E(X1) = 0 E(X2) = 0
Fluctuation possible entre X et l’espérance E(X) ?
X – E(X) donc E[X – E(X)] = 0
valeur fixe
E[X – E(X)] = a . E(X) + b
= E(X) – E(X)
aX + b = 0 avec a=1 et b= – E(X)
⇒ E(|X–E(X)|) → pas très commode
⇒ Nous retiendrons E((X–E(X))²) → or, pour notre exemple, €² ne veut pas dire grand-chose, d’où la nécessité de passer par la racine carré (√ ).
E ((X–E(X))²) = variance de X : Var ( X ) et ( )XVar = écart-type de X : σ( X )
-
La variance
32
Exemple : Soit un lancer de dé
X 1 2 3 4 5 6
p(X=…) 61 61 61 61 61 61
E(X)= ?
E(X) = 6
654321 +++++ = 621 = 3,5
(1 –621 )² (2 –
621 )² (3 –
621 )² (4 –
621 )² (5 –
621 )² (6 –
621 )²
(X–E(X))²
36225
3681
369
369
3681
36225
calcul des écarts
p(X =…) 61
61
61
61
61
61
Var(X) = E((X–E(X))²) = 61 × ( )
36225819991225 +++++ =
36x6630 =
36105 = 2,916
σ(X) = 916,2 = 1,707
⇒ Cœfficient de variation : ( )( )XX
Eσ =
5,3707,1 = 0,488 → Le jeu est risqué !
Théorème
En pratique le calcul de la variance se fait en utilisant la formule suivante :
Var X = E(X ²) – E(X )²
(Variance de X est égale à l’espérance du carré de X moins le carré de l’espérance de X)
Démonstration
Var X = E{[X – E(X)]²}
= E[X² – 2E(X)X + E(X )²]
Cf. E(X1 + X2 + X3 + … + Xn) = E(X1) + E(X2) + … + E(Xn)
= E(X²) – E[–2E(X)X + E(X )²] Cf. E( aX + b )
= E(X²) – 2 E(X) E(X) + E(X )²
= E(X²) – 2 E(X)² + E(X )²
= E(X ²) – E(X )²
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
33
Remarque
X x1 x2 … xn p(X=…) p1 p1 … pn E(X ²)=∑xi²pi
X² x1² x2² … xn²
Exemple : X : numéro obtenu en lançant un dé
X 1 2 3 4 5 6
p(X =…) 61 61 61 61 61 61
E(X) = 621 = 3,5
Var (X) = E(X²) – E(X )² = ( )6
²6²5²4²3²2²1 +++++ – 3,5² = 691 – 12,25 = 2,91
Propriétés
1. Var (aX+b) = a² Var X
2. Lorsque les variables aléatoires X1 , X2 , X3 , … , Xn sont indépendantes :
Var (X1 , X2 , X3 , … , Xn) = Var (X1) , Var (X2) , Var (X3) , … , Var (Xn)
Mais si les variables aléatoires ne sont indépendantes, la formule pourrait s’avérer fausse.
Définition
Les variables aléatoires X1 , X2 , X3 , … , Xn sont indépendantes lorsque les événements
(Xi = xk) ; i∀ et k∀ , sont indépendants.
Exemple :
Un placement financier dont le profit est X1
X a b Y a’ b’ c’ pa pb p’a’ p’b’ p’r’
X et Y sont indépendants, si est seulement si les événement (X=a) ; (X=b) ; (Y=a’) ; (Y=b’) ; (Y=c’) sont indépendants. n
-
LOI BERNOULLI
La loi de Bernoulli est la loi d’une variable aléatoire X prenant les valeurs 1 et 0 avec les probabilités :
P(X=1) = p et P(X=0) = 1– p = q
Exemple :
Tirer à “pile ou face” ;
Tester une pièce mécanique produite par une machine (pièce défectueuse ou non)
En mathématiques, la loi de Bernoulli (du nom du mathématicien suisse Jacques Bernoulli) est une distribution discrète de probabilité qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q.
L’espérance mathématique d’une variable aléatoire de Bernoulli vaut p et sa variance vaut pq
-
LOI BINOMIALE
Soit une expérience (épreuve) aléatoire à deux résultats possibles (succès et échec). Le succès et l’échec sont réalisés avec des probabilités connues, respectivement p et q. On imagine qu’on répète l’expérience n fois successives et indépendantes les unes des autres. Et à la fin on totalise les succès.
Un compteur de succès X est la variable aléatoire donnant le nombre de succès obtenus à l’issue des n expérience
⇒ X suit la Loi binomiale caractérisée par les paramètres n et p, et notée B (n ; p)
Fluctuation possible entre X et l’espérance E(X) ?
Exemple :
On lance un dé 50 fois de suite. On comptera le nombre de 6 obtenu à l’issue des 50 essais.
X : nombre de 6 obtenu, suit la loi B (50 ; 61 )
Remarque Ceci n’est valable que pour les événements indépendants. Exemple : tirage de n boule avec remise → indépendance → binomiale. La loi de X est entièrement caractérisée par :
X 0 1 2 … n p(X=…) p(X=0) p(X=1) p(X=1) … p(X=n)
Le problème est de trouver p(X=k) où k entier, compris entre 0 et n. p(X=k) est une des manières d’obtenir k succès : p p p … p q q q … q | | | | | | | | S S S … S E E E … E k n – k ⇒ pk . q n–k , C kn
⇒ p(X=k) = C kn pk . q n–k , C kn avec q = 1– p (possibilité d’échec)
Exemple :
Deux joueurs D et E lancent chacun n fois une pièce de monnaie. Quelle est la probabilité que D et E obtiennent le même nombre de “face” ?
Dk : “D obtient k faces après n lancers” Ek : “E obtient k faces après n lancers” Dk et Ek deux événements indépendants.
-
Loi binomiale
36
p(Dk ∩Ek) = p(Dk) . p(Ek) ⇒ nombre X de face de D = B (n ; ½) et nombre Y de face de E = B (n ; ½)
⇒ p(Dk ∩Ek) = p(Dk) . p(Ek) = C kn (½)
k . (½)n–k . C kn (½)k . (½)n–k
= (C kn )2 . (½)2n
donc, p(X=Y) = p(D0 ∩ E0) + p(D1 ∩ E1) + … + p(Dn ∩ En) = (C 0n )
2 . (½)2n + (C 1n )2 . (½)2n + … + (C nn )
2 . (½)2n
= (½)2n [(C 0n )2 + (C 1n )
2 + … + (C nn )2]
® ?
Calcul de ® : Une boite contenant n boules blanches et n boules noires
2 n boules
On en extrait n boules en même temps C nn = Cnn
n− = C 0n
C 2n = C0n . C
nn + C
1n . C
1nn
− + C 2n . C2n
n− + … + C nn . C
0n
0B nN 1B (n-1)N 2B (n-2)N nB 0N
donc, p(X=Y) = (½)2n. C n2n
Par exemple, n = 5 ⇒ p(X=Y) = (½)10. C 510
Théorème
Soit X une variable aléatoire de loi B ( n ; p ), alors :
E(X) = n.p ; Var(X) = n.p.q ; σ(X) = qpn ..
Démonstration
1 (lors du kième essai, on obtient un succès)
On introduit Xk
(avec k = 0 , 1 , 2 , … , n)
0 (lors du kième essai, on obtient un échec)
Alors, X = X1 , X2 , X3 , … , Xn (X est égale à la somme des nombres de succès)
● E(X) = E(X1) + E(X2) + E(X3) +… + E(Xn) ⇒ E(X) = np p p p p
-
MSCS12B, Les probabilités, M. Ouardani, 2008/2009
37
X 1 0
p(X=…) p q ⇒ E(Xi) = (p×1) + (q×0) = p
● Var(X) = Var(X1) + Var(X2) + Var(X3) +… + Var(Xn) ⇒Var(X)= npq pq pq pq pq
Par exemple : La probabilité que le r ième succès survienne lors de la m ième expérience, est l’événement :
((r – 1) succès lors des (m –1) première expérience) ∩ (succès à la m ième expérience)
rm1r1rm
−−−− q.p.C 1 × p
rmr1r
mrm1r1r
m−−
−−−−
− =⇒ q.p.Cp.q.p.C 11
J’obtiens la 4e face au 15e lancer d’un dé, avec la probabilité ( ) ( ) 1431411314 115 21 .C21.21 .C =−−