3. Probabilités, lois de distribution, estimation et incertitude Flashcards
ℙ[A] = N(A) / N(Ω)
Probabilité d’obtenir A = rapport entre nombre cas favorable A et nombre cas possible Ω (univers cas possible)
Évènement indépendant
Réalisation de A affecte pas probabilité réalisation de B
Nom : indépendant, mutuellement exclusif
A ∪ B
Union d’événements indépendants A et B
Implique réalisation de A ou B ou AB
Calcul ℙ[A ∪ B] = ℙ[A] + ℙ[B]
A ∩ B
Intersection d’événements indépendants
Implique réalisation de A et B
Intersection nulle si A et B imcompatible
Calcul : ℙ[A ∩ B] = ℙ[A] × ℙ[B]
Évènement dépendant
Réalisation A affecte probabilité realisation de B (intersection non nulle)
A et B lié réalisation commune aux 2 univers
Dû dépendance doit soustraire partie commune -> veut que 2 se réalise, juste 1
Calcul : ℙ[A ∪ B] = ℙ[A] + ℙ[B] − ℙ[A ∩ B]
1. Trouver ℙ[A]
2. Trouver ℙ[B]
3. Trouver ℙ[A ∩ B] (probabilité de l’intersection de A et B)
4. Appliquer ℙ[A ∪ B] = ℙ[A] + ℙ[B] − ℙ[A ∩ B]
Probabilité conditionnelle
Probabilité dont calcul dépend information additionnelle
Calcul avec évènement dépendant : ℙ[A|B]=ℙ[A sachant B]
Soit probabilité de A étant donné on connait information événement B
Ex : somme 7 si premier dé 3
Calcul : ℙ[A|B] = ℙ[A∩B] / ℙ[B]
Permutation sans répétition
Classement ordonné de k éléments distincts
Calcul : Pk = k × (k−1) × (k−2) × … × (1) = k! (k factoriel) -> donne nombre tota permutation
Vs arrangement : compte tous groupes taille k = n
RStudio : permn(), avecpackage : combinat
Arrangement sans répétition
Nombre arrangements ordonnées distincts k possible à partir échantillon taille n
Calcul Aᵏn = n! / (n−k)!
Vs permutation : compte tous groupes taille k < n
Ex : k = paire de lettres (2) et n = 5 lettres, k = 4 personnes et n = 5 chaises
Arrangement avec répétition
Nombre arrangements ordonnées distincts k possible à partir échantillon taille n
Calcul : Arangements avec répétition=nᵏ
Combinaison
Classement non ordonné de k éléments, sans remise, choisis parmi n éléments
Calcul : Cᵏn = n! / k! x (n−k)! -> si n ≥ k
Vs permutation/arrangement : considère par ordre (permutation)
RStudio : combn ()
Objectif principal statistique
Estimer dans certain intervalle de confiance propriété population à partir échantillon
Probabilité permet établie modèle théorique : modélise effet hasard population( H0)
Donc, probabilité permet estimer;
- Étendue variabilité naturelle
- Si processus dévie effet attendu dû hasard
Processus valider/infirmer hypoth;se en statistique paramétrique
- Modélise effet hasard sur population avec distribution de probabilité
- Échantillonne population pour obtenir données
- Estime paramètres population à partir données
- Calcul intervalle de confiance pour paramètres estimés
Loi de distribution
Beaucoup propriété biologique suivent distributions fréquence issus lois naturelles dont caractéristiques mathématiques définies
Plus connue : loi de distribution Normale
Autres : loi Log-Normale, binomiale, de Poisson, de Student, …
Distriubtion Normale
Émerge si processus mesuré soumis effet aléatoire additif -> +/- totalement dû hasard
Additif : toujours même à chaque fois
Ex : dsitribution billes
Représente aussi ditribution de fréquence moyenne calculée sur nombreux échantillons indépendants même population
Expérience Michelson/Morley
1881-1887
But : démontrer existence éther luminifère
Résultat : met en doute existence éther, mais pas capable expliquer vitesse constante lumière
Données conforme distribution Normale
Donc, variation mesure juste dû hasard
Forme distribution Normale
Loi Normale comprte 2 paramètres
- Moyenne μ
- Écart-type σ
Fonction de densité variable X suit Normale avec μ ∈ ℝ et σ ∈ (0,∞) (X suit N(μ,σ))
-> N(X) = (1 / (√2π)σ) x e^(1 / 2 x ((X−μ) / σ)^2)
Dépend juste de μ, σ et X
Symétrie - Normale -
N(X) toujour symétrique Donc, moyenne = médiane = mode Peut séparer distribution en 2 à la moyenne Propotion valeurs gauches/droites égale Peu importe μ et σ
Probabilité - Normale -
Pour dustribution Normale 68.27% (2 x 34.13%) valeurs entre X = −σ et X = σ
Soit à ±σ de moyenne
Donc, probabilité avoir X à ±σ avec échanitllonnage hasard = 68.27%
Mathémathique : ℙ[−σ ≤ X ≤ σ] = 0.3413 + 0.3413 = 0.6826
Si à ±2σ, ℙ[X ≤ −2σ] + ℙ[X ≥ 2σ] = 0.0455
Donc, 4.55% avoir échantillon à ±2σ
Valeurs extrêmes
Valeurs à plus de 3σ de la moyenne
Valeurs dans distribution Normale
Un peu plus 2/3 valeurs -> ±σ
Un peu plus 95% valeurs -> ±2σ
Presque 99.9% valeurs -> ±3σ
Distribution Normale standardisée : Z
Autres noms : distribution Normale centrée réduite
Toute distribution X suit Normale de μ et σ peut être standardisée
Soit, être rapportée loi Normale standard où μ = 0 et σ = 1
Calcul : Z = (X − μ) / σ
X devient Z
Z exprimé en termes σ
Permet obtenir probabilités à partie table loi Normale
Propriétés de Z
- Notation
- Complémentation des probabilités
- Symétrie des probabilités
Notation
ℙ[Z≤x] = Φ(x)
x souvent appelé valeur seuil
Valeurs de Φ(x) dans table loi Normale
Pour un Φ(x), lit probabilités en regardant 1ère colonne/1ère rangée
Ex : Φ(1) = 0.8413, valeur au croisement rangée 1,0 et colonne 0,00
Complémentation des probabilités
Valeur maximale probabilité = 1
Donc, pour x quelconque
ℙ[Z ≥ x] = 1 − ℙ[Z ≤ x] = 1−Φ(x)
Symétrie des probabilités
Distribution Normale est symétrique
ℙ[Z ≥ x] = ℙ[Z ≤ −x] = Φ(−x) = 1−Φ(x)
Calcul probabilité avec loi Normale
- Si variable suit Normale μ ≠ 0 et σ ≠ 1 -> standardise
- Utilise propriété Z pour calculer probabilité
RStudio : pnorm()
Estimation
Valeurs estimée jamais égale valeur réelle
Dû inclfuence hasard sur échantillonnage
Distribution d’échantillonnage
Distribution fréquence valeurs estimées à partir nombreux échantillons si échanitllonnage infini possible
Moyenne distrubution échantillonnage devrait être égale moyenne population
Plus échanitllon (n) = moyenne plus précise -> distribution moins étendue
Plus écart-type petit (σ) = moyenne plus précise -> distribution moins étendue
Important : σ 1 échantillon > σ plusieurs échantillons (distribution échantillonnage)
Erreur standard
Écart-type de la distribution d’échantillonnage
Calcul : SE = S / √n
Où -> SE : erreur standard, S : écart-type, n : effectif
SE plus faible que S et proportionnelle racine de N
Donc, grand gain précision 3-20, mais diminue après
Intervalle de confiance
Possède niveau de confiance α
Donc, si répète échantillonnage plusieurs fois avec même effectif, vrai moyenne dans intervalle de confiance x%
Ex : intervalle 95% -> pour 20 échantillons : 19 dans intervalle (95%), 1 hors (5%)
Augmentation taille effectif = diminution intervalle
Diminution écart-type = diminution intervalle
Intervalle de confiance (écart-type connu)
Estime avec : 2SE
X¯ − Z(α/2) x σ/√n ≤ μ ≤ X¯ + Z(α/2) x σ/√n
Où, X¯ : moyenne
n : effectif (nombre observations)
σ : écart-type population
Z(α/2) : valeur seuil
Z(α/2) : valeur seuil
Valeur Z définie intervalle de confiance
Soit intervalle où variation dû hasard
α : seuil de confiance
Calcul : α = 1 - intervalle de confiance
Z = X¯ − μ / σ(X¯)
Standardisation de la moyenne d’une population
Où, X¯ : moyenne échantillons (distribution d’échantillons)
μ : moyenne population
σ(X¯) : écart-type population
Valeur t de Student
Calcul : t = X¯ − μ / SE
Notation : t(dl,α/2)
Retrouve en fonction de dl et α/2 dans table de Student
Distribution de Student
Permet estimer intervalle confiance lorsque écart-type population pas connu
Issu remplacement de σ(X¯) par SE
Propriété principale : plus n grand = plus incertitude interval petit
Ressemble beaucoup Normale, mais kurtosis plus fort
Vs Normale : degré de liberté (df ou dl)
Calcul : dl = n - 1
Soit, égale nombre observation moins nombre de paramètre à estimer
Puisque dl change selon effectif -> 1 distribution de Student/dl
Intervalle de confiance (écart-type population inconnu)
Utilise t(dl,α/2) comme valeur seuil au lieu de Z(α/2)
Calcul : X¯ − t(dl,α/2) x S/√n ≤ μ ≤ X¯ + t(dl,α/2) x S/√n
Où : X¯ : moyenne échantillon
n : effectif (nombre observations)
S : écart-type échantillon
t(dl,α/2) : valeur seuil Student
Obtient intervalle de confiance plus grand
Théroème contrale limite
Moyenne plusieurs échantillons suite toujours distribution Normale