3. Probabilités, lois de distribution, estimation et incertitude Flashcards
ℙ[A] = N(A) / N(Ω)
Probabilité d’obtenir A = rapport entre nombre cas favorable A et nombre cas possible Ω (univers cas possible)
Évènement indépendant
Réalisation de A affecte pas probabilité réalisation de B
Nom : indépendant, mutuellement exclusif
A ∪ B
Union d’événements indépendants A et B
Implique réalisation de A ou B ou AB
Calcul ℙ[A ∪ B] = ℙ[A] + ℙ[B]
A ∩ B
Intersection d’événements indépendants
Implique réalisation de A et B
Intersection nulle si A et B imcompatible
Calcul : ℙ[A ∩ B] = ℙ[A] × ℙ[B]
Évènement dépendant
Réalisation A affecte probabilité realisation de B (intersection non nulle)
A et B lié réalisation commune aux 2 univers
Dû dépendance doit soustraire partie commune -> veut que 2 se réalise, juste 1
Calcul : ℙ[A ∪ B] = ℙ[A] + ℙ[B] − ℙ[A ∩ B]
1. Trouver ℙ[A]
2. Trouver ℙ[B]
3. Trouver ℙ[A ∩ B] (probabilité de l’intersection de A et B)
4. Appliquer ℙ[A ∪ B] = ℙ[A] + ℙ[B] − ℙ[A ∩ B]
Probabilité conditionnelle
Probabilité dont calcul dépend information additionnelle
Calcul avec évènement dépendant : ℙ[A|B]=ℙ[A sachant B]
Soit probabilité de A étant donné on connait information événement B
Ex : somme 7 si premier dé 3
Calcul : ℙ[A|B] = ℙ[A∩B] / ℙ[B]
Permutation sans répétition
Classement ordonné de k éléments distincts
Calcul : Pk = k × (k−1) × (k−2) × … × (1) = k! (k factoriel) -> donne nombre tota permutation
Vs arrangement : compte tous groupes taille k = n
RStudio : permn(), avecpackage : combinat
Arrangement sans répétition
Nombre arrangements ordonnées distincts k possible à partir échantillon taille n
Calcul Aᵏn = n! / (n−k)!
Vs permutation : compte tous groupes taille k < n
Ex : k = paire de lettres (2) et n = 5 lettres, k = 4 personnes et n = 5 chaises
Arrangement avec répétition
Nombre arrangements ordonnées distincts k possible à partir échantillon taille n
Calcul : Arangements avec répétition=nᵏ
Combinaison
Classement non ordonné de k éléments, sans remise, choisis parmi n éléments
Calcul : Cᵏn = n! / k! x (n−k)! -> si n ≥ k
Vs permutation/arrangement : considère par ordre (permutation)
RStudio : combn ()
Objectif principal statistique
Estimer dans certain intervalle de confiance propriété population à partir échantillon
Probabilité permet établie modèle théorique : modélise effet hasard population( H0)
Donc, probabilité permet estimer;
- Étendue variabilité naturelle
- Si processus dévie effet attendu dû hasard
Processus valider/infirmer hypoth;se en statistique paramétrique
- Modélise effet hasard sur population avec distribution de probabilité
- Échantillonne population pour obtenir données
- Estime paramètres population à partir données
- Calcul intervalle de confiance pour paramètres estimés
Loi de distribution
Beaucoup propriété biologique suivent distributions fréquence issus lois naturelles dont caractéristiques mathématiques définies
Plus connue : loi de distribution Normale
Autres : loi Log-Normale, binomiale, de Poisson, de Student, …
Distriubtion Normale
Émerge si processus mesuré soumis effet aléatoire additif -> +/- totalement dû hasard
Additif : toujours même à chaque fois
Ex : dsitribution billes
Représente aussi ditribution de fréquence moyenne calculée sur nombreux échantillons indépendants même population
Expérience Michelson/Morley
1881-1887
But : démontrer existence éther luminifère
Résultat : met en doute existence éther, mais pas capable expliquer vitesse constante lumière
Données conforme distribution Normale
Donc, variation mesure juste dû hasard
Forme distribution Normale
Loi Normale comprte 2 paramètres
- Moyenne μ
- Écart-type σ
Fonction de densité variable X suit Normale avec μ ∈ ℝ et σ ∈ (0,∞) (X suit N(μ,σ))
-> N(X) = (1 / (√2π)σ) x e^(1 / 2 x ((X−μ) / σ)^2)
Dépend juste de μ, σ et X
Symétrie - Normale -
N(X) toujour symétrique Donc, moyenne = médiane = mode Peut séparer distribution en 2 à la moyenne Propotion valeurs gauches/droites égale Peu importe μ et σ
Probabilité - Normale -
Pour dustribution Normale 68.27% (2 x 34.13%) valeurs entre X = −σ et X = σ
Soit à ±σ de moyenne
Donc, probabilité avoir X à ±σ avec échanitllonnage hasard = 68.27%
Mathémathique : ℙ[−σ ≤ X ≤ σ] = 0.3413 + 0.3413 = 0.6826
Si à ±2σ, ℙ[X ≤ −2σ] + ℙ[X ≥ 2σ] = 0.0455
Donc, 4.55% avoir échantillon à ±2σ
Valeurs extrêmes
Valeurs à plus de 3σ de la moyenne
Valeurs dans distribution Normale
Un peu plus 2/3 valeurs -> ±σ
Un peu plus 95% valeurs -> ±2σ
Presque 99.9% valeurs -> ±3σ
Distribution Normale standardisée : Z
Autres noms : distribution Normale centrée réduite
Toute distribution X suit Normale de μ et σ peut être standardisée
Soit, être rapportée loi Normale standard où μ = 0 et σ = 1
Calcul : Z = (X − μ) / σ
X devient Z
Z exprimé en termes σ
Permet obtenir probabilités à partie table loi Normale
Propriétés de Z
- Notation
- Complémentation des probabilités
- Symétrie des probabilités
Notation
ℙ[Z≤x] = Φ(x)
x souvent appelé valeur seuil
Valeurs de Φ(x) dans table loi Normale
Pour un Φ(x), lit probabilités en regardant 1ère colonne/1ère rangée
Ex : Φ(1) = 0.8413, valeur au croisement rangée 1,0 et colonne 0,00
Complémentation des probabilités
Valeur maximale probabilité = 1
Donc, pour x quelconque
ℙ[Z ≥ x] = 1 − ℙ[Z ≤ x] = 1−Φ(x)