cognition bayésienne Flashcards
4 saveurs de l’IA
construire système qui raisonnent/agissent rationnellement/comme humains
prolog?
langage de programmation logique
2 parties: donner connaissances spécifiques à machine (base de faits) + connaissances générales (base de règles) puis qu° et inférence logique (teste preuves)
≠ entre échec et foot?
monde des échecs => descrip° totale du système possible ≠ foot => besoin d’1 quantité infinie d’info° pr décrire monde symbolique vs monde réel
modèle bayésien : def
=> transforme le modèle d’incomplétude en incertitude quantifiée et traité mathématiquement – pt ê vu comme extension de la logique
2 types de raisonnement
raisonnement humain (modus ponens/tollens) ≠ raisonnement plausible (s’il pleut Jean a son parapluie…)
2 manières de présenter proba
- fréquentistes (stat classique ac pop parente
* subjectives (proba conditionnelle; décrit état de connaissance d’1 S)
règles de calcul
en lien avec théorème de Cocks
- règle de somme (somme des proba = 1 )
- règle de produit P (A B) = P(A) P (B|A) = P(B) P (A|B)
principe de l’inférence probabiliste
si on connaît la distrib° conjointe alors on peut «calculer» n’importe quelle question
différents types de distribution
uniforme = incertitude max dirac = modèle parfait, masse des proba en 1 seul pt intermédiaire = probabilitse, ac un peu d’incertitude
programme bayésien
- description =>
- spécification = apporte connaissances préliminaires sur la forme d’une distrib° probabiliste conjointe ac des paramètres libres
=> 1/ lister variables
2/ décompostion de la distrib° conjointe en produit de distrib° simple
3/ formes paramétriques (choisir f° math pr chacune des distrib°) - identifica° = apporte des données d’apprentissage et un processus d’apprentissage pr établir les valeurs des paramètres
- questions
Exemple avec 2 variables à 2 modlaités
=> distribu° conjointe a 4 cases (et somme à 1 sur les 4 cases)
P(B|A) => conjonction de 2 distrib° (somme à 1 en colonne) ≠ P (A|B) (somme à 1 en ligne)
distribu° conjointe et marginalisa° => je recalcule mon prior en additionnant les lignes ou colonnes (si on marginalise sur B, on obtient P (A) )
si support c’est nbre réel => on pt mettre gaussienne ( gaussienne => intégrale doit sommer à 1) (si tps peu élevé et gde variance → comme si TR négatif => impossible => log) distrib° béta → ressemble à Gaussienne entre 0 et 1
on fait de la perception un modèle d’inversion => ce que fait le th de Bayes
app bayesien chez enfant?
Tversky et Kahneman?
apprentissage bayésien chez enfant => à 8 mois, surprise sur evt inattendu => hyp: lié à méca stat de bas nivx sur couleur moyenne des boules
sagesse des foules
Tversky et Kahneman => ac système cogn et langagier, ss-estima° des proba fortes et sur estimation des proba faibles
inférence bayésienne
H1/ mauvaise représenta° des extrêmes
H2/ cogn° consciente (inf bayésienne approximée) ≠ cogn périph (inf bay exacte)
H3/ internalisa° des données
description ernst et banks
Cas de fusion visuo-haptique => cas multimodal => hyp d’indépendance
modèle qui combine info° de manière statistiquement optimale
protocole:
présentation d’une image en relief (nuage de points) ac lunettes 3D (projetée ac miroir) .
Si on secoue points en profondeur, on dégrade le visuel
+ objet en dessous ac bras robot à retour d’effort => colocalisation des 2 objets
1 nivx de bruit haptique 4 nivx de bruit visu 1 s de présentation tâche de choix forcé (barre la plus grande)
cas mono-modal ernst et banks
S voit ou touche barre. Stim standard = 55 cm stim de comparaison = entre 47 et 63 cm n= 4 1000 essais
PSE = je réponds comme si les 2 objets avaient la m taille JND = différence juste remarquable = entre 50% et 82% => si petit = bon capteur (car pente élevée)
de 0 à 67% de nivx de bruit => pas affecté à 133% => visu= haptique à 200% => pente faible, presque droite, dc m qd objet très ≠, difficile de voir ≠