Cours 12 mémoire sémantique Flashcards

1
Q

Concepts
v Goldstone & Kersten (2003):

A

v Humains ont une tendance forte à voir toute “chose” comme “quelque chose”
v Mettre des objets ensemble dans des groupes organisés est un processus nommé “catégorisation”
v Créer une représentation mentale pour une catégorie spécifique est un processus nommé “apprentissage de concepts”

Définitions :
v Solomon, Medin & Lynch (1989): “…une représentation mentale utilisée pour une variété de fonctions cognitives…”
v Murphy (2002): “…la colle qui tient ensemble le monde mental d’un individu.”
v Smith (1989): “Un concept est une représentation mentale d’une classe (un ensemble) ou d’un exemplaire et est concerné par ce qui est représenté et comment cette information est typiquement utilisée durant la catégorisation.”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Fonctions des concepts
(Goldstone & Kersten, 2003)

A

v Filtrage
v Fournit des façons informatives/diagnostiques (donc prédictive) de structurer le monde naturel
v On a accès au monde externe tel que filtré par nos concepts et ça c’est du traitement descendant
v Une excellente façon de comprendre le monde mental d’un individu d’un groupe, d’une communauté scientifique ou encore d’une culture c’est de déterminer comment ils organisent leur monde en concept
v Économie cognitive
v Économie dramatique pour l’espace de stockage requis
v Temps de réaction plus rapides en identification d’objets
v Le fait de représenter un ensemble d’objets par une seule représentation mentale plus sommaire ça provoque une économie quand même assez grande au point de vue de l’espace stockage requis dans l’esprit et dans le cerveau.
v Ce que ça permet c’est qu’on est capable d’identifier plus rapidement les objets dans le vrai monde donc de se souvenir de chaque rencontre avec chaque chien pour vous souvenir de ce qu’est un chien si c’était le cas Ça prendrait beaucoup d’espace en mémoire et mémoriser des concepts au lieu de chaque entrée brute c’est beaucoup plus économe au niveau du stockage
v L’information catégorielle reste mais les informations spécifiques (ex. le chien de tel race qui avait les oreilles coupé… = on ne s’en rappel pas, mais on va se souvenir de la catégorie chien)
v La raison pourquoi on fait de l’économie cognitive = on est cognitivement paresseux = donc on prend le raccourcie. (ex. don d’organe : Qc il faut signer sur notre carte VS pays scandinave don d’organe automatique)
v Plus facile de reconnaitre le danger aussi
v Prédiction
v Nous permet de généraliser nos expériences avec certains objets à d’autres objets de la même catég.
v Généraliser des trucs de la catégorie « chien » à un autre chien. Permet de prédire ce qu’on va percevoir
v Communication
v Lorsque les gens partagent des concepts commun = plus facile à propos du monde naturel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Classer des objets jamais vu avant
Pourquoi est-ce difficile?

A

v On pourrait avoir besoin d’une représentation mentale descriptive de l’ensemble des propriétés catégorielles requises (pour faire partie de la catégorie), pour savoir si ce nouvel objet peut être pairé avec une catégorie donnée
v Connu comme “approche classique” ou “approche définitionnelle” des concepts

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Approche classique des concepts (Bruner, Goodnow, & Austin, 1956)
3 postulats principaux :

A

v Représentations sommaires
v Représentation d’un concept est une description sommaire d’une classe entière (s’applique à tous les exemplaires spécifiques également)
v Ex. si mon concept est oiseau. Je dois avoir une description pour oiseaux en général (pas juste moineau, rouge-gorge…)

v Caractéristiques nécessaires et suffisantes (basé sur règle)
v Caractéristiques qui représentent un concept sont individuellement nécessaires (chaque caractéristique dois absolument se retrouver sur l’objet pour faire partie de la catégorie) et conjointement suffisantes (ET) (si un objet à l’ensemble des caractéristiques qui font partie du concept = suffisant pour faire partie de la catégorie)
v Concepts ne sont jamais disjonctifs (OU) (le mot OU n’apparait pas dans les descriptions, il faut tout avoir (ET) et non pas juste un OU l’autre. Doit contenir l’ensemble des caractéristiques)

Notre concept doit être inclusif mais aussi exclusif car il ne peut pas s’appliquer à aucun autre concept

v Inclusion des caractéristiques dans les relations de sous-ensemble
v Si concept X est un sous-ensemble de concept Y, alors les caractéristiques définitoires de Y sont incluses dans X
v Ex. un carré = sous ensemble de resctangle (figure fermée + 4 angles égaux) et on rajoute les 4 côtés égaux)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Appr. par réseau sémantique hiérarch.
(Collins & Quillian, 1969)
v Approche classique sans des postulats restrictifs: théorie très puissante et prédictive

A
  • Nœuds = catégories
  • Liens = relations (inclusion du bas vers le haut) « est une/est un » un saumon est un poisson…
  • En vert = caractéristiques
    Ex : animal (concept) divisé en deux sous-concept (poisson et oiseau) qui sont eux aussi divisé en sous-concept (requin et saumon)
    Pour chaque nœud, on retrouve des caractéristiques : pour chaque sous-catégorie après, on retrouve ses mêmes caractéristiques
    Plus tes haut = moins spécifique, et plus tu baisse = encore plus spécifique

Il peut y avoir des exceptions : ex. une autruche ne peut pas voler
On doit annuler la caractérisitque
On peut la désendre mais un peu difficile
On peut annuler une caractéristique parfois

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Approche par réseau sémantique hiérarchique
(Collins & Quillian, 1969)

A

v Propriétés inspirées de l’approche classique
v Inclusion
v Si concept X est sous-ens. de concept Y, alors caractéristiques définitoires de Y sont dans X
v Carac. nécessaires et suffisantes et concepts conjonctifs
v Différence: on peut « annuler » des carac.
v Ajouts par rapport à approche classique
v Représentation hiérarchique des sous-ens.
v Avantage: Économie cognitive car les Carac. Qui sont stockées une seule fois sont héritées automatiquement
v Propagation de l’activation
v Si un nœud est activé, activation se propage vers les nœuds associés
v Explique amorçage sémantique (vu que si on lit un mot et que le 2e mot était sémantiquement relié, ce 2e mot-là était prêt à être traité et ça c’est à cause de la propagation de l’activation)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Approche par réseau sémantique hiérarchique
v Collins & Quillian (1969): Retrieval time from semantic memory

A

v But: Montrer la validité de l’approche par réseau sémantiques
v Hiérarchie & principe d’inclusion
v Héritage
v Tâche: Technique de vérification de phrases
v “X est un Y”/”X montre propriété P” (Oui/Non) (ex. un canari est un oiseau et un oiseau à des ailles)
v Variable: Temps de réaction
v Postulat de base: Opérations (bouger) dans le réseau sémantique prennent du temps
v Récupérer une propriété pour un nœud (prend du temps)
v Monter/descendre d’un niveau dans la hiérarchie pour déterminer l’appartenance (prend du temps)

Collins & Quillian (1969)
v Essais: 2 types de phrases
v Phrases Super-ensemble (S)
v Déterminer que X est un Y
v S0: « Un requin est un requin » (on ne bouge pas dans le réseau)
v S1: « Un requin est un poisson » (on doit monter d’un niveau)
v S2: « Un requin est un animal » (on doit monter de 2 niveaux)
v Phrases Propriété (P)
v Déterminer si X montre propriété P
v P0: « Un requin peut mordre »
v P1: « Un requin peut nager »
v P2: « Un requin mange »

Prédiction:
Temps de réaction sont additifs
v S0: « Un requin est un requin » = Niveau base S
v S1: « Un requin est un poisson » = Niveau base S + « Un requin est un poisson »
v Monter d’un niveau
v S2: « Un requin est un animal » = Niveau base S + « Un requin est un poisson » + « Un poisson est un animal »
v Niveau base + Monter deux niveaux

Prédiction:
Temps de réaction sont additifs
v P0: « Un requin peut mordre » = Niveau base S + « Un requin peut mordre »
v Vérification propriété
v P1: « Un requin peut nager » = Niveau base S + « Requin est poisson » + « Poisson peut nager »
v Monter un niveau + Vérification propriété
v P2: « Un requin mange » = Niveau base S + « Un requin est un poisson » + « Un poisson est un animal » + « Animal mange »
v Monter deux niveaux + Vérification propriété

Résultats/Interprétation
v Nombre de niveaux entre X et Y: affect le TR
v Vérifier une propriété est toujours plus long que de déterminer l’appartenance
v Processus additif
v Car lignes presque“parallèles”
v Soutien pour approche hiérarchique en réseau

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Propagation de l’activation
v Meyer & Schvaneveldt (1971): Facilitation in recognizing pairs of words…

A

v But: Tester pour une dépendance pour l’accès à la mémoire entre deux décisions sémantiques
v Tâche: Décision lexicale
v Est-ce que paire d’items contient deux mots? (2 non-mots : fundt et glurb VS 2 vrais mots : chair et money)
v Tu peux aussi, lorsque c’est des vrais mots avoir des mots associés et d’autres non-associés = COMPARAISON CRITIQUE
v Mesure: Temps de réaction

Prédiction/Résultats
v Prédiction: Si les mots font partie d’une organisation sémantique qui:
v Associe mots ensemble selon le sens
v Active les mots associés lorsqu’un mot est récupéré
v (Propagation de l’activation)
Alors plus rapide/facile de juger si deux items sont des mots lorsqu’ils sont sémantiquement associés
v Résultats
v Prédiction confirmée
v Soutien pour principe de propagation de l’activation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Problèmes théoriques pour l’approche classique

A

v Représentations sommaires (qui doivent être plainement inclusive et exclusive) sont trop restrictives (Smith & Medin, 1981)
v Car ils existent trop d’exceptions pour la plupart des catégories
v Certains sous-ensembles d’objets peuvent montrer des caractéristiques distinctives
v Rouge-gorge vs. Autruche
v Définitions (parfaitement inclusive et exclusive) avec carac. conjointement suffisantes et individuellement nécessaires (Wittgenstein, 1953)
v = Difficile à trouver
v Exemple: qu’est-ce qu’un jeu? (ex. activité plaisante… (pas toujours plaisant), une activité avec des règles (les bébé jouent..) anyway tout ça pour dire que c’est difficile de trouver une définition = bcp de concept sont comme ça.
v Concepts disjonctifs existent (où il y a caratère OU) (Rosch et al., 1976)
v Exemple: Cuillères (grande en plastique VS petite en métale = les deux existes)
v Exemple: Prise (baseball)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Problèmes empiriques pour l’approche classique
v Rosch (1973): On the internal structure of perceptual and semantic categories

A

v But: Montrer que le postulat “tous les exemplaires sont égaux” est erroné (approche classique)
v Montrer le caractère plus flou des catégories de façon égale/équivalente
v Tâche: Jugements de “typicité” (à quel point un exemplaire est typique d’une catégorie ou d’un concept)
v Présente une liste de mots d’une catégorie spécifique
v On doit indiquer à quel point chaque item est typique de la catégorie sur une échelle de 1 à 7
v (1 = très typique, 7 = peu typique)
v Rationnel
v Selon l’approche classique, tous les exemplaires d’une catégorie devraient être également typiques…le sont-ils? Il ne devrait pas avoir de « meilleur » représentant

Résultats/Interprétation
Pomme est un exemple beaucoup plus typique qu’une olive ou d’une figue
v Tous exemplaires ne représentent pas également
v Structure catégorielle: Floue au lieu de “tout-ou-rien” (pas tout à fait parfaitement exclusif/inclusif)
v Appartenance catégorielle serait basée sur ressemblance globale ou typicité au concept, et non définitions strictes (ressemblance familiale)
v Ne peut être expliqué par approche classique

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Effets de typicité et approche par réseau sémant. hiérarch
v Rips, Shoben & Smith (1973): Semantic distance and the verification of semantic relations

A

v But
v Voir si les effets de typicité invalident la structure du modèle hiérarchique par réseau sémantique
v Déterminer si la structure mnésique est analogue à la structure logique
v Tâche: Technique de vérification de phrases (vérifier si l’exemplaire fait partie de la catégorie)
v “X est un Y”
v Catégories
v Oiseaux/Animaux/Mammifères/Autos/Véhicules (plus globale)
v Oiseaux: Rouge-gorge/Geai bleu/Canard…
v Mammifère: Ours/Chien/Cochon…

Prédictions
Appartenance à la catégorie oiseau VS animal :
- Un rouge-gorge est un oiseau et un oiseau est un animal déterminé qu’un rouge-gorge est un oiseau sa demande de monter seulement d’un niveau dans le réseau donc ça devrait être plus rapide que de déterminer qu’un rouge-gorge est un animal parce que dans ce cas-là il faut qu’on détermine qu’un rouge-gorge est un oiseau et qu’un oiseau est un animal donc il faut monter 2 niveaux dans le réseau
- Donc, ça va être plus rapide de déterminer qu’un rouge-gorge est un oiseau que de déterminer qu’un rouge-gorge est un animal

Appartenance à la catégorie mammifère VS animal :
- Donc ici encore une fois une baleine est un mammifère, ça devrait être plus rapide à vérifier qu’une baleine est un animal à cause du nombre de niveaux à traverser et de la structure hiérarchique

Résultats :

Confirme les prédictions pour les oiseaux et animaux

Mais résultats inverse pour mammifère et animaux (plus rapide de dire que X est un animal qu’un mammifère, malgré qu’il est plus proche dans la structure hiérarchique)

Explication : effets de typicité

Interprétation
v On voit les chiens et les cochons comme plus typiques des animaux que des mammifères
v Démontrer lors des résultats de jugement de typicité
v Effets de typicité ont une influence sur temps de réaction pour catégorisation
v Plus l’objet est typique = catégorisation plus rapide
v Approche par réseau sémantique hiérarchique de 1ère génération est donc invalide
N’invalide pas les réseaux, mais c’est plus les postulats qui sont trop restricitif et la facon dont les caractéristiques sont représenter dans le modèle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Le problème du niveau de base
v Rosch et al. (1976): Basic objects in natural categories

A

v But: Montrer la supériorité des catégories de base dans des taxonomies (classifications sémantiques) organisées hiérarchiquement
v Trois niveaux de catégorie
v Superordonné (plus grosse catégorie générale = meuble)
v Base (on voit un objet = classe de base: ex. je vois une chaise) (équivalent au niveau biologique ??)
v Subordonné (le niveau le plus spécifique = chaise de salon)

Rosch et al. (1976)
v Exp. 1: Nommer des caractéristiques
v À l’aide des noms de catégories, on doit lister un maximum de caractéristiques en 90 secondes
v Rationnel: Si l’approche par réseau sémantique a raison, participants devraient lister de plus en plus de carac. en descendant dans le réseau
v Postulat d’héritage/Processus additif

Au niveau superordonné, il y avait juste des caractéristiques les plus générales donc par exemple celle qui s’applique aux animaux et en descendant dans le réseau les sous concepts héritaient des caractéristiques des concepts supérieurs ce que ça veut dire c’est que plus on descend dans le réseau plus les participants devraient décider des caractéristiques pour un concept donné donc si on teste animal qui serait le niveau supérieur donné on va lister un certain nombre de propriétés si on descend au niveau de base et qu’on teste oiseaux à ce moment-là on devrait rapporter toutes les caractéristiques du niveau animal plus les nouvelles propriétés qui s’appliquent seulement aux oiseaux ici on descend plus bas pour Canaris au niveau subordonné mais à ce moment-là on devrait avoir toutes les caractéristiques des niveaux supérieurs animal et oiseaux en plus des caractéristiques qui s’appliquent strictement aux Canaries.
Plus tu descends, plus tu liste des propriétés (si l’approche par réseau sémantique hiérarchique est valide)

Résultats
v Superordonné: nombre plus bas de propriétés, suivi du niveau de base (comme prédit)
v Pas d’ajout d’information significatif entre niveau de base et subordonné

Niveau de base est donc privilégié pour la catégorisation

Rosch et al. (1976)
v Exp. 7: Classification d’objets
v Participants voient photos d’images, et doivent décider si l’objet fait partie d’une catég. Spécifique (comme la tache de vérification de phrase mais on utilise des images à la place de mot)
v Tous niveaux de catégorie testés pour chaque objet
v S0 : est-ce que c’est une truite
v S1 : poisson ?
v S2 : animal ?
v Rationnel: Si l’approche par réseau a raison, participants prendront moins de temps à déterminer l’appartenance au niveau subordonné
v Postulat Nombre de niveaux (TRS0 (plus rapide) <S1<S2)

Résultats
v Avantage pour niveau de base (plus rapide)
v Le plus long: Décider si un objet fait partie d’une catégorie subordonnée!

Donc effectivement classé au niveau superordonnée comme animal c’est plus long que de classer au niveau de base comme poisson
Mais classé au niveau de base c’est moins long que de classer au niveau subordonnées
Donc en gros c’est plus rapide de classer l’image qu’on a vue comme une truite, ce qui est plus long dans la tâche c’est de classer l’image qu’on a présentée comme une truite
Donc encore une fois il y a vraiment un avantage pour le niveau de base on a tendance à classer les objets à ce niveau-là en premier
y semble avoir un avantage psychologique ou encore un privilège pour les catégories du niveau de base telles que poisson,…

Interprétation
v Avantage psychologique ou privilège pour les catégories du niveau de base
v Ne peut être expliqué par approche logique
v Approche classique: Représentations mentales “tout ou rien” (pas de niveaux)
v Approche par réseau sémantique: Niveau le plus élevé devrait être le plus inclusif
v Rosch: Niveau de base = niveau optimal au point de vu de l’info
v Base à superordonné: beaucoup d’info perdue
v Base à subordonné: pas beaucoup d’info perdue (on n’en gagne pas beaucoup non plus)
v Niveau de base = niveau où les items sont les plus similaires (à l’intérieur de la catégorie) les uns aux autres tout en étant distinctifs (différents des autres catégories)
v On ne gagne/perd pas grand-chose en précisant après le niveau de base, c’est déjà assez précis

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Les experts vont-ils automatiquement au niveau de base?
v Tanaka & Taylor (1991):
Object categories and expertise: is the basic level in the eye of the beholder?

A

v But
v Vérifier si l’avantage du niveau de base se retrouve chez les experts dans les listes de propriétés (chiens et oiseaux)
v Tâche (Exp. 1): Lister des propriétés pour des concepts et exemplaires
v Résultat de Rosch: plus de nouvelles caractéristiques entre superordonné et base qu’entre base et subordonné (Mais le fait de passer du niveau de base au niveau subordonné ça ne veut pas rajouter d’information ou de nouvelles caractéristiques)
v ***Caractéristiques comptent seulement si elles sont nouvelles pour un niveau
La différence dans la présentation des résultats c’est tout à l’heure dans l’expérience de rush le graphique que j’ai montré c’était toutes les caractéristiques peu importe si vous avez été nommées à plusieurs niveaux différents tandis que là dans les graphiques que je vais vous montrer les caractéristiques sont seulement comptées si elles sont nouvelles pour un nouveau donc si elles ajoutent de l’information pour un niveau spécifique

Résultats
v Novices: Base > Subordonné (Prédit par Rosch)
v Experts: Base = Subordonné!!!
v Preuve que les experts organisent les concepts au niveau subordonné (connaissent plus) = organise les concept differement (ex. un ornithologues va classe l’oiseau qu’il voit automatiquement comme un jai bleue = niveau de base, lorsqu’on est un expert il n’y a pas d’avantage du niveau de base, le niveau qui est privilégié c’est notre niveau d’expertise et dans ce cas-là c’est le niveau subordonné
Les experts ont tendance à effectivement nommer plus de caractéristiques lorsqu’ils descendent au niveau de base et il rajoute beaucoup d’informations lorsqu’il pense au niveau subordonné ça fonctionne lorsqu’il liste des caractéristiques pour leur domaine d’expertise
Ex. les ornithologues montre ce graphique là lorsqu’ils liste des caractéristiques pour les oiseaux mais lorsqu’ils sont en train de lister des caractéristiques pour les chiens ils sont équivalents aux novices et c’est

Selon le modèle exemplariste, le nouveau frère sera comparé à tous les frères mémorisés. Il sera classé dans la même catégorie que le frère auquel il est le plus similaire.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Tanaka & Taylor (1991)
Exp. 3

A

v But
v Vérifier si l’avantage du niveau de base se retrouve chez les experts lorsqu’ils catégorisent des items (chiens et oiseaux) dans leur champ d’expertises
v Tâche (Exp. 3): Classification d’objets (X est un Y)
v Mesure: Temps de réaction
v Hypothèse
v Les novices montreront un avantage du niveau de base par rapport au niveau subordonné mais pas les experts (car eux leur niveau privilégier est le niveau subordonné)

Résultats :
v Novices: Base < Subordonné (Prédit par Rosch)
v Experts: Base = Subordonné !!! (Pas de différence)
v Preuve que les experts organisent les concepts au niveau subordonné (connaissent plus) (de niveau priviligier)

Conclusions :
v Plusieurs arguments et résultats empiriques vont à l’encontre de l’approche classique et de l’approche par réseau sémantique hiearchique, qui sont toutes deux des approches basées sur la logique:
v Postulats trop stricts
v Pas de définitions claires
v Il existe des concepts disjonctifs
v Effets de typicité
v Supériorité du niveau de base (ce qui n’est pas prédit par l’approche)
v Mais alors, si on ne se base pas sur des règles logiques et des définitions pour catégoriser, sur quoi se base-t-on?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Approche classique

A

v Problème principal: manque de propriétés nécessaires et suffisantes
v Une définition doit prendre en compte tout les info impo/tous les items d’une catégorie doivent partager propr.
v Toutefois… ne partagent pas toujours les mêmes propriétés (cuillère de bois/métal, grosse/petite…) = difficile de trouver une définition qui recouvre toutes, mais ça l’existe (même si ne respecte pas les critères stricts de l’approche classique)
bref : approche basé sur définition très strict = pas pratique (démontrer par les cuillières)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Ressemblance familiale (Wittgenstein, 1953)

A

v Tous les “frères” se ressemblent beaucoup
v Pas de propriété unique commune
v Pas de propriétés nécessaires
v Pourtant, on les classerait dans la même famille (catégorie)
v Ressemblance familiale est basée sur le nombre de propriétés partagées par les membres d’une catégorie (et non définitions stricts)

17
Q

v Rosch & Mervis (1975): Family resemblances: studies in the internal structure of categories

A

v But: Montrer la validité de l’approche des ressemblances familiales
v Rationnel: Items les plus typiques d’une catégorie sont ceux qui partagent le plus grand nombre de caractéristiques (qui ont le plus grand degré de ressemblance familiale) avec les autres membres de la catégorie
v Tâches
v Phase 1: Jugements de typicité (1 = Bas; 7 = Haut)
v Phase 2: Lister propriétés (avec les résultats : Scores de ressemblance familiale)

Phase 2: Liste de propriétés
v Tâche: Lister toutes les propriétés connues pour différents exemplaires
v Propriétés nécessaires ou non-nécessaires (caractéristiques)
v Chien : fourrure, 4 pattes, jappe, donne du lait
v Chat : fourrire, 4 pattes, miaule, donne lait
v Baleine : vit dans l’eau, gros, donne lait

v Score de ressemblance familiale pour un item (ex. chien/chat…)
v Calculer en regardant le nombre d’autres items pour lesquels une propriété spécifique est partagée
v Somme pour toutes propriétés de l’item étudié
Pour l’item chat, on a lister 4 propriétés qu’on va appeler les propriétés 123 et 4, et le chiffre entre parenthèses à côté de chaque propriété c’est le nombre de membres de la catégorie animale qui possède aussi cette propriété là donc vous voyez la propriété un qui est chez le chat on la retrouve aussi chez le chien chez le cheval chez le lapin et là j’ai pas listé tous les animaux de la catégorie mais ce que ça nous dit c’est qu’il y a 4 autres animaux dans la catégorie pour lesquels on a visité la propriété un même chose pour la propriété 2 pour la propriété 4 il y a 2 autres animaux dans la catégorie qui ont cette propriété là.

Sur la baleine à la propriété 3 qui est partagée par 4 autres membres de la catégorie une propriété qu’on va appeler la propriété 16 qui est partagée seulement par un autre membre de la catégorie la 17 et la 19 et là
Pour calculer un score de ressemblance familiale tout ce qu’on va faire c’est qu’on va prendre les chiffres entre parenthèses c’est-à-dire le nombre d’autres membres de la catégorie qui partagent la même caractéristique et on va faire la somme et ça va nous donner un score donc vous voyez pour le chat la propriété un est partagée par 4 autres animaux la 2 et la 3 aussi et la propriété 4 est partagée par 2 autres animaux donc si on fait de la somme 444 et 2 ça donne un score de ressemblance familiale de 14 la même chose pour le chien et pour la baleine vous voyez que le score est à 7.

Item en rouge : plus typique dans une catégorie : il y a-t-il un lien entre le fait d’être typique et le score de ressemblance familiale?

Résultats :
- Haute corrélation entre jugements de typicité et mesure de ressemblance fam. pour toutes catég.
- Item plus typique partage plus de propriétés avec autre membres de catégorie (et moins avec membres d’autres catégories)

Interpretation
- Ressemblances familiales utilisées dans le processus de catégorisation
- On utilise propriétés “non-nécessaires” ou propriété caractéristiques (on est habituer de les voirs, mais que si n’est pas là, ca ne veut pas dire que ca ne fait pas partie de la catégorie)
- Lorsqu’un item montre le plus grand score RF, on dit que c’est le prototype de la catégorie

18
Q

Ressemblance familiale

A

v Similarité détermine catégorisation
v Si l’objet à classer possède assez de propriétés en commun avec une représentation mentale donnée (i.e., il est assez similaire), alors il est classé comme un membre de cette catégorie
v Deux modèles basés sur la similarité
v Approche prototypiste
v Approche exemplariste

19
Q

Approche prototypiste

A

v Les concepts sont des prototypes (et non des definitions)
v Représentation abstraite et sommaire dérivée en “moyennant” tous les exemplaires rencontrés d’une catégorie donnée
v “Moyennage”
v Choisir la valeur la plus commune pour chacune propriété (ex. chien : la sorte de museau la plus fréquente, le type de poil le plus frequent)
v Lorsque propriétés peuvent être identifiées
v Moyenne mathématique
v Lorsque propriétés ne peuvent être identifiées
v Un prototype peut ne pas être identifiable! (si je ne peux pas identifier un chien, ça se peut que se soit une moyenne de tous les chiens que j’ai vu dans ma vie. = c’est une représentation qui n’existe pas dans le vrai monde) prototype sert à classer les nouveaux items qu’on a rencontrer dans notre vie donc ce n’est pas grave si j’ai jamais vu ce chien la et qu’il est une construction de ma tête)
v Règle de classification: Si objet possède assez de propriétés en commun avec (ou est “assez similaire au) prototype, alors il est classé comme un membre de cette catégorie

= prototype

Comparer avec le prototype les nouveau membres : le prototype permet la classification de membres de la famille jamais vu auparavant (et exclure les non-membres)

20
Q

Le besoin de catégories artificielles

A

v Jusqu’à maintenant, nous avons étudié des catégories naturelles ou concepts “langagiers”, où les propriétés et étiquettes sont verbalisables
v Rosch & Mervis (1975): “Les catégories désignées par les mots des langues naturelles présentent l’avantage (pour les étudier) qu’ils ont évolué et apparaissent dans un véritable usage par l’humain; toutefois, ils ont le désavantage de montrer des variables d’intérêt non-contrôlées et non-analysables en conjonction avec d’autres variables et d’autres facteurs externes.”

Le problème principal c’est que les concepts qu’on étudie jusqu’à maintenant existe déjà dans l’esprit des gens donc on était capable d’étudier l’utilisation des concepts mais pas la formation de nouveaux concepts c’est impossible parce que tous les concepts existaient déjà = besoins de catégories artificielles

v Beaucoup de variables des catégories naturelles ne peuvent être contrôlées
v Comment les catégories sont apprises
v Fréquence d’usage des exemplaires et catégories
v Familiarité
v Facteurs culturels, etc.
v Pour comprendre comment on crée/apprend des concepts, il faut créer des stimuli jamais vus/classifiés (et des catégories jamais formé)
v En construisant les catégories selon certaines variables, on peut contrôler tous les facteurs, isoler des effets spécifiques et faire des prédictions (qui vont nous permettent de voir la validité d’une approche ou d’une autre)

21
Q

Testons l’approche prototypiste
v Posner & Keele (1968): On the genesis of abstract ideas

A

v But: Montrer comment les « idées abstraites » (prototypes) pourraient être acquises et utilisées
v Tâche: Induction catégorielle (induction : apprentissage par exposition au différents exemplaire)
v On vous montre un exemplaire à la fois et il va falloir le classer dans la bonne catégorie et en voyant les différents exemplaires et en obtenant de la rétroaction à propos de votre décision catégorielle vous allez finir par apprendre quel exemplaire va dans quelle catégorie
v Matériel: Patrons de points aléatoires (Catégories artificielles)
v 3 catégories (A, B, C) générées selon 3 prototypes
v Chaque catégorie composée de 4 distorsions
v Classer 12 exemplaires au total dans 3 catégories
v Mesures
v Taux d’exactitude par rapport aux différents items/Temps de réponse pour les classer

Donc on crée des prototypes ce qui nous permet d’avoir beaucoup de contrôles et ensuite à partir de chacun des prototypes on va créer des exemplaires pour chacune des catégories et comment on va faire ça je vous ai dit qu’en fait les stimuli c’étaient des nuages de points donc pour créer des distorsions on va prendre chaque point et le point va avoir une probabilité d’être déplacé près de son emplacement original ou un peu plus loin ou encore un peu plus loin ou très loin de son emplacement original et enfin si on veut créer une distorsion faible de l’image originale on va déplacer le point juste un peu autour de son emplacement original ici on veut des distorsions fortes il va falloir déplacer le point beaucoup plus loin donc par exemple ici on a un prototype à 9 points qu’on a généré au hasard ce qu’on fait c’est qu’on prend chacun des points dans le prototype et on le déplace salon la technique que je viens de vous montrer et ce que ça va donner c’est des distorsions qu’on voit en bas qui appartiennent à la catégorie et qui sont reliées au prototype

en fait c’est l’équivalent des items qui en haut le prototype qui serait sur une feuille de papier et froissez la feuille de papier et là ensuite ça va vous donner les items qui en bas

un exemple de distorsion faible ça serait si vous avez le prototype qui est à gauche et vous voyez-vous déplacez un petit peu chacun des points et ça nous donne une distorsion faible donc c’est comme si on dessinait sur la feuille et qu’on la froissait un petit peu

les point ont beaucoup bouger de l’emplacement original = distorsion forte

Dans les procédures il va y avoir une phase d’induction (ou d’apprentissage) et une phase test. dans la phase d’induction, les gens doivent apprendre à classer les exemplaires dans leurs catégories respectives avec de la rétroaction. Donc au début de l’essai on voit un point de fixation au centre ensuite on va voir une distorsion qui est un nuage de points qui a été généré à partir d’un prototype on doit appuyer sur la touche ABC pour dire dans quelle catégorie on peut classer l’item et ensuite on reçoit une rétroaction pour savoir si on a une réponse correcte
Ce qu’il faut savoir c’est qu’au début de la page on a absolument aucune idée de ce qu’on fait et au niveau au hasard jusqu’à temps qu’on tombe sur une bonne réponse et là tranquillement on va acquérir l’information qui va éventuellement nous permettre de classer les bons exemplaires dans les bonnes catégories.
Un bloc d’apprentissage c’est l’ensemble des distorsions, comme il y a 3 catégories avec 4 distorsions fortes qui sont présentes à l’apprentissage il y a donc 12 items au total.
Important de mentionner que les prototypes qui ont servi à générer des distorsions fortes ne seront jamais présentés à l’apprentissage. Donc tout ce qu’on voit c’est des distorsions fortes mais pas des prototypes.
Et pour compléter la phase d’induction il faut faire 2 blocs consécutifs de 12 items sans faire d’erreur en classant dans les catégories, et en moyenne ça prend 36 blocs pour se rendre à ce critère là.

Une fois qu’on a fini d’apprendre des catégories on va nous tester en nous demandant de classer avec exactitude des distorsions qu’on a eu dans la phase d’induction mais aussi des nouvelles distorsions et on doit les classer dans la bonne catégorie sans aucune rétroaction.
Il va y avoir 4 types de stimuli lors de la phase test
Premièrement on va nous demander de classer des stimuli qu’on a vu à l’apprentissage
on va nous présenter le prototype de chaque catégorie qui a servi à générer les distorsions pour la phase d’apprentissage je vous rappelle que ce prototype là bien qu’il ait servi à générer des distorsions on ne l’a jamais vu durant la phase d’apprentissage.
On va aussi nous présenter des nouvelles distorsions fortes et les nouvelles distorsions faibles générées à partir des prototypes.

Hypothèses/Prédictions
v Anciennes distorsions (exemplaires)
v Classées 36 fois chacune durant apprentissage
v Temps de réponse bas
v Taux d’exactitude élevé
v Effet de pratique (36x)
v Et les nouveaux items?
v Résultats critiques

v Possibilité 1: on pourrait juste trouver un effet de pratique
v Seuls les anciens items ont été appris
v Nouveaux items: jamais vus
v Tous les nouveaux items classés de façon moins exacte (au hasard) et plus lentement que les anciens items
v Pas de raison de croire qu’on trouvera une différence entre les différents types de nouveaux items

v Possibilité 2: Prototypes
v Représentations mentales prototypiques ont été développées
v Même si prototypes jamais présentés
v Prototypes jamais vus seront classés avec exactitude et rapidement (autant que ceux 36x) (Ce que ça voudrait dire c’est qu’on a créé un prototype durant l’apprentissage donc lorsqu’on présente le vrai prototype on le compare au prototype que nous on a créé et comme c’est pratiquement identique on a de la facilité à classer item dans la bonne catégorie)
v Pairage avec la bonne représentation mentale pour chaque catégorie
v Autres nouveaux items (pas prototype): performance dépendra de la similarité aux prototypes acquis

Au niveau des nouvelles distortions, si vraiment créer un prototype durant l’apprentissage ce qui va se passer c’est qu’on va comparer les nouvelles distorsions avec ce prototype là et plus la distorsion ressemble au prototype plus elle va être facile à catégoriser et plus on va pouvoir la classer rapidement.
C’est pour ça que les nouvelles distorsions faibles qui sont très similaires au prototype vont être classés avec beaucoup de succès et quand même assez rapidement et si les distorsions sont fortes c’est-à-dire qu’elles sont moins similaires au prototype originaux on va avoir un taux d’exactitude plus bas que pour les distorsions faibles et les temps de réaction plus élevés

Pour les nouveaux items qui ne sont pas le prototype, la performance va dépendre de la similarité du nouvel item à l’ensemble de prototypes qu’on a acquis
Ce qu’on voit dans les résultats c’est que si vous Regardez les barres vertes effectivement les anciens exemplaires (les anciennes distorsions fortes) sont classées avec beaucoup d’exactitude et une grande rapidité telle que les 2 hypothèses le prédisent.

Résultats :
Mais si vous Regardez les barres bleues on voit que les prototypes lorsqu’on les présente durant la phase test le taux d’exactitude est très élevé et le temps de réaction est pratiquement le même que pour les items qu’on a vu 36 fois à l’apprentissage et ce malgré le fait que les prototypes (qui ont servi à générer des distorsions pour la tâche) n’ont jamais été présentés eux-mêmes durant la phase d’apprentissage.
Aussi, tel que le prédit l’effet de prototype, la performance pour les nouvelles distorsions c’est une fonction de leur similarité au prototype de la catégorie donc on a des distorsions faibles qui sont plus similaires au prototype que les distorsions fortes et c’est pour ça qu’elles sont classées avec plus d’exactitude et plus de rapidité.

v Anciens exemplaires classés avec exactitude et rapidité tel que prédit
v MAIS les prototypes catégoriels aussi, même si jamais vus à l’apprentissage
v Performance pour autres nouvelles distorsions est une fonction de leur similarité au prototype catégoriel
v Plus similaire = plus grande exactitude/TR plus bas

22
Q

Testons l’approche prototypiste (encore)
v Posner & Keele (1970): Retention of abstract ideas

A

v But: Est-ce que la mémoire des prototypes est durable?
v Tâche: Induction catégorielle
v Matériel: Patrons de points aléatoires
v 4 catégories (A, B, C, D) générées selon 4 prototypes
v Chaque catégorie composée de 4 distorsions (on génère des distortions)
v 16 exemplaires au total
v Mesures
v Taux d’exactitude/Temps de réponse
v Conditions (ajout)
v Phase test immédiate ou avec délai (1 semaine)
v Procédure: Identique à l’étude précédente

Résultats
v Avantage pour anciens items disparait avec temps (différence de 10% au niveau de l’exactitude)
v Performance pour prototypes élevée et stable même après une semaine (pas beaucoup d’oubli)
v Performance pour nouveaux exemplaires prédite par similarité aux prototypes après une semaine

Donc les distorsions faibles qui ressemblent beaucoup aux prototypes vont être mieux classés que les distorsions fortes qui ressemblent le moins aux prototypes et ça c’est un effet de prototype

Interpretation:
v Selon Posner et Keele, les prototypes, i.e. des moyennes des exemplaires vus pendant l’apprentissage, sont développés comme représentations catégorielles (ou concepts)
v Ces représentations sont durables (même après 1 semaine, on a toujours effet de prototype)
v Parce qu’on a utilisé des stimuli et catégories artificielles, pas de variables externes qui peuvent expliquer les résultats (ex. la culture, la fréquence d’utilisation ne peuvent pas expliquer)
v Les deux expériences sont du soutien pour l’approche prototypiste

23
Q

Approche exemplariste

A

v Les concepts sont l’ensemble ou le sous-ensemble de tous les exemplaires rencontrés précédemment pour une catégorie (l’ensemble des chiens qu’on a rencontrés auparavant)
v Pas de représentations sommaires (règles/proto)
v Règle : Si un objet à classer est assez similaire à des exemplaires mémorisés, alors il est classé comme membre de la catégorie de ces exemplaires

Selon le modèle exemplariste, le nouveau frère sera comparé à tous les frères mémorisés. Il sera classé dans la même catégorie que le frère auquel il est le plus similaire.

24
Q

Testons l’approche exemplariste
v Medin & Schaffer (1978):
Context Theory of Classification Learning

A

v But: Montrer que la classification se fait exclusivement sur la base des exemplaires mémorisés
v Tâche: Induction catégorielle (apprentissage a force de voir et d’avoir de la retroaction)
v Matériel: Formes géométriques
v Construits avec quatre propriétés binaires (chaque propriété vont avoir 2 valeurs possibles)
v Procédure
v On montre 9 exemplaires à classer dans l’une de deux catégories pour jusqu’à 16 blocs (ou jusqu’à deux blocs sans erreur) (exemplaire mélanger avant la présentation)
v Apprendre à classer les stimuli dans l’une de deux catégories à l’aide de rétroaction

Dans les expériences de catégorisation comment on représente les structures qui définissent les différentes catégories :
Donc ici à l’écran on a un stimulus un qui est composé d’un cercle de grande taille bleue qui est situé à gauche de la figure et on a une autre stimulus à côté qui est l’inverse c’est-à-dire un petit carré rouge à droite. Le stimulus 1 peut être défini par 4 propriétés : la forme qui est le cercle la taille qui est gros la couleur qui est bleue et la position qui est à gauche. En comparaison, le stimulus 8 qui est présenté à droite a une forme carrée la taille c’est petit la couleur c’est rouge et la position c’est droite.
Donc vous voyez que pour chacune des propriétés que les stimuli peuvent avoir il y a 2 possibilités c’est pour ça qu’on dit que c’est les propriétés binaires.
Maintenant ce qui est intéressant quand on fait des expériences de catégorisation c’est de pouvoir reproduire les expériences mais en changeant les stimuli spécifiques qu’on utilise.
Au lieu de définir nos stimuli avec des mots comme vous le voyez à l’écran on va les définir avec des chiffres, on va remplacer chacune des valeurs binaire par 0 ou 1.
Donc ici si on a un cercle qui est gros qui est bleu et qui est à gauche Ben on va donner la valeur un au cercle et la valeur 0 au carré la valeur un lorsque la taille est grosse et 0 lorsqu’elle est petite la valeur un lorsque la couleur est bleue est 0 lorsqu’elle est rouge et la valeur 0 lorsque la forme est à gauche et un lorsqu’elle est à droite
Ce qui fait qu’au lieu de définir les stimuli comme cercle gros bleu gauche et carré petit rouge droite on va les définir de façon numérique en disant le stimulus 1 en fait il y a la valeur 1 pour la forme, la valeur 1 pour la taille, la valeur 1 pour la couleur et la valeur 0 pour la position donc c’est l’item 1110, le stimulus 8 a plutôt la valeur 0001
On peut maintenant refaire l’expérience avec des stimuli complètement différents, tout en gardant les mêmes structures qui composent des catégories. Si on change une valeur sur chacun des items, ça va changer le stimulus. Par exemple, si on change la valeur de la taille sur le stimulus 1 et qu’on a l’item 1010, ça devient un petit cercle bleu à gauche et pour le stimulus 9 au lieu de 0001 comme on avait pour le stimulus 8, on a 0000 = la position a changé et c’est un petit carré rouge à gauche.

Une fois qu’on a défini tous nos items par des uns et des zéros, on doit déterminer dans quelle catégorie ils vont. Voici la liste des items qui font partie de la catégorie A à gauche et la liste des items qui font partie de la catégorie B à droite. Les propriétés = vous avez F pour la forme, taille, couleur, position. On va donner des numéros aux exemplaires, il va y avoir 5 items dans la catégorie A et 4 dans la catégorie B = on appelle cette structure catégorielle la 5/4. Donc dans la catégorie A, vous avez l’item 1110, qui est l’item numéro 1. vous avez l’item 1010 qui est l’item numéro 2 et ainsi de suite jusqu’à l’item numéro 5 qui est défini comme étant 0111. Et du côté de la catégorie B vous avez le thème 1100 qui va être le numéro 6 et l’item 0000 qui va être le dernier item sur l’item numéro 9.
Maintenant une chose qu’on peut faire c’est d’essayer de déterminer à quoi pourrait ressembler le prototype de chacune des catégories.
Quand on est capable d’identifier les différentes propriétés on va partir de la règle selon laquelle le prototype devrait être composé de la valeur la plus fréquente pour chacune des propriétés. Donc ici pour la catégorie 1 vous voyez que sur la première caractéristique qui est la forme, la valeur qui revient le plus souvent c’est 1. Donc notre prototype devrait avoir 1 pour la forme.
Prototype pour la catégorie A : 1111
Pour la catégorie B = un peu plus compliqué.
Prendre la couleur et la position clairement la valeur la plus fréquente c’est 0 mais pour la taille on a 2 fois la valeur un et 2 fois la valeur 0 donc on n’est pas capable de déterminer si c’est la valeur 1 ou la valeur 0 qui ferait partie du prototype.

Hypothèses/Prédictions
v Si prototypes sont acquis, alors exemplaires hautement similaires au prototype devraient être appris plus facilement (taux d’erreur plus bas) plus rapidement
v Si seulement les exemplaires sont mémorisés, alors exemplaires hautement similaires à d’autres exemplaires dans la même catégorie, et dissimilaires aux exemplaires de l’autre catégorie, devraient être appris plus facilement
Quand on va voir un nouvel exemplaire on devrait le classer dans la catégorie où il y a beaucoup d’anciens exemplaires qui sont très similaires au nouvel exemplaire
Donc si seulement les exemplaires sont mémorisés mais on ne forme pas de prototype, alors les exemplaires qu’on essaie de classer qui sont très semblables à d’autres exemplaires dans la même catégorie mais peu semblable aux exemplaires de l’autre catégorie devrait être appris plus facilement.

Dans la structure, les exemplaires importants pour tester nos 2 hypothèses c’est les 2 items qui sont dans la catégorie A l’item numéro un et l’item numéro 2. L’item numéro 1 est défini comme 1110 et l’item numéro 2 est défini comme 1010. Si l’approche prototype est valide, l’exemplaire 1 va être plus facile à apprendre que l’exemplaire 2 parce que on ne définit le prototype de la catégorie A comme étant 1111 et vous voyez que l’item numéro 1 partage 3 caractéristiques sur 4 avec le prototype alors que l’item numéro 2 partage seulement 2 caractéristiques (les 2 un avec le prototype).
Donc l’exemplaire un est plus similaire au prototype que l’exemplaire 2 ce qui veut dire que ça va être plus facile d’apprendre l’exemplaire un, c’est un meilleur exemple de la catégorie A et on va l’apprendre en faisant moins d’erreurs.
Maintenant pour déterminer la prédiction de la proche exemple aristé c’est un petit peu plus compliqué ce qu’il faut qu’on fasse c’est qu’on compare les items numéro un et numéro 2 de la catégorie A avec tous les items des 2 catégories et là qu’on détermine combien de propriétés les items numéro un et 2 ont en commun avec chaque exemplaire des 2 catégories.

Donc si on commence par l’exemplaire numéro 2. L’exemplaire numéro 2 est défini comme étant 1010 ce que ça veut dire c’est qu’ils partagent 3 caractéristiques les 3 chiffres apparaissent en bleu avec l’item numéro un qui est dans la même catégorie que l’item numéro 2 et il partage aussi 3 caractéristiques avec l’item numéro 3 et seulement une caractéristique avec les 2 autres items lorsqu’un item partage toutes les caractéristiques sauf une avec d’autres items de sa catégorie on va dire qu’il est hautement similaire et pour être hautement similaire à un autre exemplaire dans ce cas-ci faut partager 3 des 4 caractéristiques sur l’item.
Donc ici l’exemplaire 2 est hautement similaire à 2 exemplaires de sa propre catégorie maintenant si on compare l’item 2 aux exemplaires de l’autre catégorie ce qu’on se rend compte c’est qu’il y a aucun item dans la catégorie B qui est hautement similaire à l’item numéro 2 de la catégorie A parce que y a aucun item avec lequel le numéro 2 partage 3 caractéristiques c’est maximum 2.
Donc cette étape là devrait être facile à classer parce qu’il est très similaire aux items de sa propre catégorie et très peu similaire aux items de l’autre catégorie ce qui veut dire que quand on va le voir ça va clairement être un A.
En comparaison l’item numéro un qui est 1110 et hautement similaire à un seul membre de la catégorie A et non avec les 3 autres mais si on le compare à la catégorie B il est hautement similaire à 2 items de la catégorie B.
Donc quand on va essayer d’apprendre des exemplaires, si vous vous fiez sur la ressemblance globale aux exemplaires des catégories, vous allez vous dire la plupart du temps que l’item 1 cadre très bien dans la catégorie B. Donc vous allez être porté à répondre B. sauf que la vraie réponse c’est que l’item 1 fait partie de la catégorie A. donc on va vous donner une rétroaction comme quoi c’est une mauvaise réponse.
Ça va prendre du temps, très difficile à apprendre, parce que la similarité aux exemplaires vous dit B mais la réponse actuelle c’est A. Dans ce cas-ci si, l’approche exemplariste a raison, l’item numéro 2 qui est hautement similaire à A et peut similaire à B va être plus facile à apprendre que l’item numéro 1, qui est très peu similaire à la bonne catégorie mais qui est hautement similaire à la catégorie opposée. Tandis qu’avec l’approche prototypique, on trouvait le résultat inverse.
Résultats/Conclusion
v Exemplaire 2 plus facile à appr. qu’Exemplaire 1
v Plus haut taux d’exactitude tout au long de l’apprentissage (soutenant un modèle exemplariste)
v Medin et Schaffer furent les premiers à montrer des preuves soutenant un modèle exemplariste au détriment d’un modèle prototypiste
v Depuis, beaucoup de recherche/modélisation faite pour montrer que les représentations prototypistes et exemplaristes peuvent toutes deux expliquer certains résultats
v Qui a raison? Très compliqué…

25
Q

Quelle est la capacité de la MLT visuelle?
v Brady et al. (2008): Visual long-term memory has a massive storage capacity for object details

A

v But: Démontrer une capacité minimale pour la mémoire des exemplaires distincts
v Tâches
v Phase étude: Regarder des images, noter les doublons (si image présenter 2x)
v 10 blocs de 20 minutes pour l’étude
v 2896 images, présentées durant 3 secondes chacune
v Phase test: Reconnaissance (2 images côte à côte : laquel à été vue à la phase d’étude)
v Durée de l’expérience: 5 heures et demie!!!

Brady et al. (2008)
Résultats
v Étude: Tâche de détection de doublons
v Si présenter 2x de suite = détecter 100% du temps
v Si 64 images entre les deux = 96% du temps détecté
v Lorsque les items répétés sont séparés par plus de 1000 items, on détecte les doublons 79% du temps!
Prouve que notre mémoire peut retenir beaucoup de chose

Brady et al. (2008)
Matériel - Reconnaissance
3 conditions
- Catégorie : deux objets de catégories complètement différente
- Exemplaire : deux exemplaires de la même catégorie
- État : représente exactement le même objet mais pas même état (détail précis)

Résultats:
v Test: Reconnaissance
v 3 conditions: Catégorie (Novel), Exemplaire, État
v Résultat: Performance près de 90% peu importe la condition, après 2896 images!!!

Conclusion
v Notre cerveau enregistre tout ce qu’on voit!
v Le niveau de détail de nos souvenirs d’exemplaires est excessivement précis
v Capacité minimale du cerveau calculée:
v 228 000 représentations distinctes
v Soutien solide pour modèles exemplaristes

26
Q

Arguments théoriques contre les modèles exemplaristes
v Murphy (2016): Is there an exemplar theory of concepts?

A

v Modèles exemplaristes font du sens dans le cadre d’expériences contrôlées avec des petites catégories mal définies (ex. 5/4), mais dans la vraie vie?
v Certains exemplaires sont plus importants que d’autres
v Ex: Votre propre chien est plus impo que tous les autres chiens rencontrés
v On ne peut pas représenter une structure hiérarchique (Rosch) avec un modèle exemplariste (mais on peut avec un modèle prototypiste)
v N’explique pas l’avantage du niveau de base
v Ne tient pas compte des effets de contexte, ou des croyances à propos d’un domaine
v On ne peut pas généraliser à partir d’un exemplaire dans le modèle exemplariste (et c’est une fonction importante de généraliser)
v N’explique pas le développement conceptuel, etc. (car c’est un modèle d’utilisation des concepts)

Toujours pas de vision claire des concepts