cognition bayésienne Flashcards

1
Q

4 saveurs de l’IA

A

construire système qui raisonnent/agissent rationnellement/comme humains

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

prolog?

A

langage de programmation logique
2 parties: donner connaissances spécifiques à machine (base de faits) + connaissances générales (base de règles) puis qu° et inférence logique (teste preuves)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

≠ entre échec et foot?

A

monde des échecs => descrip° totale du système possible ≠ foot => besoin d’1 quantité infinie d’info° pr décrire monde symbolique vs monde réel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

modèle bayésien : def

A

=> transforme le modèle d’incomplétude en incertitude quantifiée et traité mathématiquement – pt ê vu comme extension de la logique

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

2 types de raisonnement

A
raisonnement humain (modus ponens/tollens) ≠ 
raisonnement plausible (s’il pleut Jean a son parapluie…)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

2 manières de présenter proba

A
  • fréquentistes (stat classique ac pop parente

* subjectives (proba conditionnelle; décrit état de connaissance d’1 S)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

règles de calcul

A

en lien avec théorème de Cocks

  • règle de somme (somme des proba = 1 )
  • règle de produit P (A B) = P(A) P (B|A) = P(B) P (A|B)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

principe de l’inférence probabiliste

A

si on connaît la distrib° conjointe alors on peut «calculer» n’importe quelle question

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

différents types de distribution

A
uniforme = incertitude max     
dirac = modèle parfait, masse des proba en 1 seul pt    
intermédiaire = probabilitse, ac un peu d’incertitude
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

programme bayésien

A
  • description =>
  • spécification = apporte connaissances préliminaires sur la forme d’une distrib° probabiliste conjointe ac des paramètres libres
    => 1/ lister variables
    2/ décompostion de la distrib° conjointe en produit de distrib° simple
    3/ formes paramétriques (choisir f° math pr chacune des distrib°)
  • identifica° = apporte des données d’apprentissage et un processus d’apprentissage pr établir les valeurs des paramètres
  • questions
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Exemple avec 2 variables à 2 modlaités

A

=> distribu° conjointe a 4 cases (et somme à 1 sur les 4 cases)
P(B|A) => conjonction de 2 distrib° (somme à 1 en colonne) ≠ P (A|B) (somme à 1 en ligne)
distribu° conjointe et marginalisa° => je recalcule mon prior en additionnant les lignes ou colonnes (si on marginalise sur B, on obtient P (A) )
si support c’est nbre réel => on pt mettre gaussienne ( gaussienne => intégrale doit sommer à 1) (si tps peu élevé et gde variance → comme si TR négatif => impossible => log) distrib° béta → ressemble à Gaussienne entre 0 et 1

on fait de la perception un modèle d’inversion => ce que fait le th de Bayes

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

app bayesien chez enfant?

Tversky et Kahneman?

A

apprentissage bayésien chez enfant => à 8 mois, surprise sur evt inattendu => hyp: lié à méca stat de bas nivx sur couleur moyenne des boules

sagesse des foules

Tversky et Kahneman => ac système cogn et langagier, ss-estima° des proba fortes et sur estimation des proba faibles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

inférence bayésienne

A

H1/ mauvaise représenta° des extrêmes
H2/ cogn° consciente (inf bayésienne approximée) ≠ cogn périph (inf bay exacte)
H3/ internalisa° des données

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

description ernst et banks

A

Cas de fusion visuo-haptique => cas multimodal => hyp d’indépendance
modèle qui combine info° de manière statistiquement optimale

protocole:
présentation d’une image en relief (nuage de points) ac lunettes 3D (projetée ac miroir) .
Si on secoue points en profondeur, on dégrade le visuel
+ objet en dessous ac bras robot à retour d’effort => colocalisation des 2 objets
1 nivx de bruit haptique 4 nivx de bruit visu 1 s de présentation tâche de choix forcé (barre la plus grande)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

cas mono-modal ernst et banks

A

S voit ou touche barre. Stim standard = 55 cm stim de comparaison = entre 47 et 63 cm n= 4 1000 essais
PSE = je réponds comme si les 2 objets avaient la m taille JND = différence juste remarquable = entre 50% et 82% => si petit = bon capteur (car pente élevée)
de 0 à 67% de nivx de bruit => pas affecté à 133% => visu= haptique à 200% => pente faible, presque droite, dc m qd objet très ≠, difficile de voir ≠

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

cas multimodal

A

2 barres composées chacune d’1 taille visu et d’une taille haptique
stim standard = 2 barres, 1 ac taille visu Sv et 1 ac taille haptique Sh ISh-SvI = 0, 3 ou 6 et (Sh+Sv)/2 = 55 => barre chimérique (ensuite on normalise les données pr faire comme si barre était fixe ac Sv tjrs + grand)
stim de comparaison = 2 barres ac taille =, variable entre 47 et 63 cm
en cond° standard => PSE qd stim de comparaison est à 58 mm => la combinée se rapproche du visuel à 67% de bruit => PSE quasi idem

17
Q

modèle bayésien de fusion capteur pour expliquer données

A

1 prior uniforme puis 2 modèles prédictifs gaussiens. Modèle de fusion capteur où on mélange 2 Gaussiennes pr estimer taille de l’objet

ac ce modèle, on peut estimer X (hauteur de la barre) en sachant Sh et Sv => produit de 2 gaussiennes ( = 1 gaussienne)

  • estimé est de variance + petite que celles des capteurs (capteur visuo-haptique + précis => effet surpa-additif)
  • l’info° combinée est un intermédiaire/compromis entre les 2 ms le capteur le + précis attire le mélange => équation indique qu’il faut pondérer capteurs en f° précision apportée
18
Q

comparaison du modèle aux données

A

comparaison de 2 gaussiennes => courbes de catégorisation => inversion = courbe sigmoide
donc le JND est lié à la variance des 2 Gaussiennes qu’on compare.
Qd on mesure JND ds conditions mono-modales, on pt remonter aux paramètres (variance) des Gaussiennes qui ont généré cette comparaison => jeu de données permet de calibrer le modèle => muni des paramètres des variances en cond° monomodales, on pt faire tourner le modèle de fusion capteur pour prédire comment la variance va se combienr dans les condition mutimodale

EN résumé: modèle prédit… on inverse (comparaison de 2 gaussiennes), on multiplie et si on fait hyp que 2 gaussiennes se mélangent, le facteur de pondération découle des 2 variances des capteurs.