cours 11 Flashcards
c’est quoi l’intelligence artificielle
Développement de systèmes et de machines intelligents capables d’effectuer des tâches qui nécessiteraient autrement l’intelligence humaine.
Apprentissage machine (ML)
c’est quoi
-Sous-catégorie de l’AI.
-Création d’algorithmes capables d’apprendre à partir des données fournies et de prendre des décisions en fonction des modèles observés dans ces données.
–>changement de comportement à partir d’apprentissage
Apprentissage profond (DL)
c’est quoi
-Sous-catégorie supplémentaire du ML.
-Il utilise un réseau neuronal artificiel pour traiter les données à travers différentes couches d’algorithmes et parvenir à une décision précise sans intervention humaine.
applications générales de l’apprentissage machine
1.language translation
2.diagnostique medical
3.stock market trading
4.detection de fraude
5.personal assistant
6.spam filtering
7.auto qui se conduisent tt seule
8.recommendation de produits
8. prédiction de trafique
10. speech recognition
11.image recognition
l’apprentissage machine définition et importance
Définition: branche de l’intelligence artificielle qui permet aux ordinateurs d’apprendre à partir de données sans être explicitement programmés.
Importance: outils puissants pour analyser et comprendre les comportements humains.
–>identifier des schémas comportementaux complexes
–>prédire les comportements futurs en fonction de variables psychologiques pertinentes
–>d’automatiser des tâches telles que l’analyse de textes pour extraire des informations sur les sentiments ou les émotions des individus.
–. pk utiliser machine et pas humain
→ pour compenser à nos lacunes
–. permet de prédire comportements fuurs comme pex prédire cpt selon score dans test de personnalité
→ permet d’analyser textes pour extraire infos sur sentiments → patrons d’écriture dans lettres de suicide pour identifier langage utilisé dnas ces moments afin de pt prévenir et identifier
fondements de l’apprentissage machine le processus
1.design experimental
2.collecte et prep de donnees
3.entrainement model
4.évaluation de performance
5.optimisation de perfo
types d’apprentissage machine
1.L’apprentissage supervisé: utilisation de données étiquetées pour entraîner un modèle à prédire des résultats futurs
–> scores de tests cognitifs et des diagnostics cliniques, tandis que le modèle pourrait être formé pour prédire le diagnostic d’un individu en fonction de ses performances aux tests
2.L’apprentissage non supervisé: trouver des schémas ou des structures cachées dans les données sans utiliser d’étiquettes préexistantes.
–>regrouper des individus en fonction de caractéristiques similaires, ou découvrir des relations entre différentes variables comportementales sans aucune orientation préalable
3.L’apprentissage par renforcement: un agent apprend à prendre des décisions en interagissant avec un environnement.
–>L’agent effectue des actions, et en fonction de ces actions, l’environnement fournit des retours sous forme de récompenses ou de pénalités.
–>L’objectif de l’agent est d’apprendre une politique qui maximise la récompense cumulative au fil du temps.
ex d’apprentissage supervisé et nn supervisé
voir slide 13
Apprentissage Machine: Collecte et préparation des données
Sources des données: des études de laboratoire, des enquêtes en ligne, des données biométriques et des enregistrements comportementaux
Nettoyage et préparation des données:
–>valeurs aberrantes ou manquantes
–>la normalisation des données pour les mettre à la même échelle (e.g.likert 5 vs 7)
–>la conversion des variables catégorielles en formats appropriés pour l’analyse
–>divisées en ensembles d’entraînement et de test pour évaluer la performance des modèles
——>éviter le surajustement, où un modèle s’adapte trop bien aux données d’entraînement mais ne généralise pas bien aux nouvelles données
La régression linéaire
modèle prédictif
La régression linéaire: plus simples et plus utilisés en psychologie pour prédire une variable continue en fonction de variables indépendantes.
Relation entre la variable cible (ou dépendante) et les variables prédictives (ou indépendantes) est modélisée comme une fonction linéaire.
e.g. prédire les notes d’un élève en fonction de facteurs tels que le temps passé à étudier, le nombre d’heures de sommeil, etc.
Obtenir une équation qui minimise l’erreur entre les valeurs prédites et les valeurs observées, ce qui permet de faire des prédictions sur de nouvelles données.
y = β0 + β1x + ε
–>similairement au cond class et opérant les modeles en app machine nous permettent de faire des prediction
créer model/équation pour prédire résultat par rapport au nb dheures d’étude
par contre… y’a une grande intervalle genre si t’a étudié 50 heures (milieu) ty peux avoir entre 80 et 60 %… donc le but c’est trouver l’équation qui minimise cet écart
→ but de la régression c’est de trouver le coefficient de chacun de ces beta pour minimiser l’erreur entre prédiction et donnée réelle
La descente du gradient
modèle prédictif
représentation 3d des valeurs possibles de l’erreur de prédiction
→ descente du gradient –. algorithme d’optimisation
–>L’objectif est de trouver les bêtas qui minimisent l’erreur de prédiction.
La descente du gradient effectue cette opération.
→ la représentation montre ou on s’approche le plus de la donnée optimale qui est en bas
La classification
modèle prédictif
-largement utilisé en psychologie, mais qui s’applique lorsque la variable cible est catégorique
-L’objectif de la classification est d’assigner des étiquettes ou des catégories à des données basées sur leurs caractéristiques.
–>E.g. étude sur les troubles de l’humeur, un individu est atteint de dépression ou non en fonction de variables telles que les scores de tests psychologiques, les antécédents familiaux, etc.
—->les arbres de décision, les machines à vecteurs de support (SVM), et les réseaux de neurones artificiels.
-Ces méthodes sont entraînées sur des ensembles de données étiquetées afin de construire des frontières de décision pour séparer les différentes classes
ex: alice a bcp fait d’étude et a bcp dodo
bob pas bcp work bcp sleep
carole full work pas bcp sleep
la on veut prédire daniel il va se trouver où
→ rouge ils ont pas passé et vert ils ont passé exam
→ quelles sont les chnaces quil passe exam
types de classification
- classification binaire
(2 classes)
2.classification multi-classe
(plus de deux classes)
Clustering
modèle prédictif
Clustering
-former des groupes de points de données homogènes à partir d’un ensemble de données hétérogènes.
-Il évalue la similarité en fonction d’une métrique (distance euclidienne, similarité cosinus, distance de Manhattan, etc.)
et regroupe ensuite les points ayant le score de similarité le plus élevé ensemble.
–. apprentissage non supervisé –. non étiqueté
pas de variable cible, le modèle créé des regroupements
types de clusters
- clusters circulaires (legit un cercle de données rapprochées)
- clusters non-circulaire
Matrice de confusion
modèle prédictif
voir slide 24
ne des mesures le plus intuitives et faciles a utiliser pour determiner la correction et exactitude du model
→ pas une mesure de performance en tant que tel
→ à gauche a deux classe
ex 1: prédiction du cancer
→ 10 fois sur 70 le model a dit que la personne avait cancer quand lele avait pas
→ 60 fois sur 70 la personne avait pas le cancer et le model a dit quelle avait pas le cancer (donc bonne prédiction)
–. 23 fois sur 30 qqun qui avait réellement cancer a été diagnostiqué (bonne prédiction)
–. 7 fois sur 30 personne a pas été diagnostiquée mais l’avait
ex2: plusieurs classes
→ en montrant au model image de lion combine de fois did he get it right → 71 fois sur 74
poisson: 24 fois sur 29
nous montre a quel point on a bien prédit par rapport aux données réelles
Matrice de confusion: Spécificité et Sensibilité
critères de sensibilité: ex: à quel point c’est important de déceler le cancer quand s’en est un
–. à quel point model détecte le cancer quand il est la → trouver le plus possible
vs
critère de spécificité: a quel point ça dérange pas trop de dire que qqun a le cancer quand en réalité elle en a pas
→ faux positifs, a quel point il détecte ce quil devrait pas détecter, donc a quel point il généralise trop
apprentissage machine:Évaluations des performances
une fois que le model prédictif a été entrainé faut évaluer sa performance
But: déterminer à quel point il est efficace pour faire des prédictions sur de nouvelles données.
Mesures utilisées pour évaluer la performance des modèles:
–>précision, le rappel, le F1-score, les courbes ROC, etc.
–>En combinant ces différentes métriques, peuvent évaluer la robustesse et l’efficacité des modèles prédictifs pour différentes applications et contextes.
Analyser des données complexes et faire des prédictions utiles sur le comportement humain, ouvrant ainsi de nouvelles avenues de recherche et d’intervention dans ce domaine.
Évaluations des performances
Sur-ajustement vs
Sous-ajustement
Sur-ajustement (Overfitting)
Le modèle est trop complexe par rapport à la quantité de données disponibles, ou lorsqu’il est entraîné pendant trop longtemps.
sur-ajustement: capture trp précisément les détail alors moins performant lorsque confronté a de nouvelles données donc pas capable de généraliser, donc est trop performant avec les données d’entrainement et ensuite pas vrm bon avec les données de test ou d’évaluation
→ model entrainé pendant trop longtemps
→ ex: photos d’arbres il est cpabale de les identifier chaque fois mais ensuite quand on montre photos similaires a celles qui ont été utilisés pour entraînement il est pas capable
–. deficience dans généralisation
–. model trop complexe
Sous-ajustement (Underfitting)
Le modèle est trop basique ou lorsqu’il n’est pas entraîné suffisamment longtemps pour capturer les tendances dans les données.
sous-ajustement: perfo médiocre dans entrainement et avec les nouvelles données
–. modele parvient pas à saisir relation importantes entre variables et à généraliser a nouvelles données
–. model soit trop de base ou pas assez entraîné
–. série d’arbres et il a pas extrait assez de caractéristique genre il prend juste que arbre c’est un et vert alors toute image avec brun et vert c’est un arbre
→ robuste peut bien discriminer et généraliser
→ équilibre de complexitÉ
Évaluations des performances: Séparation des données
en pratique, détecter le sur apprentissage c’est difficile
–. c’est seulement en confrontant le model a de nouvelles données quon peut s’assurer que tout fonctionne bien
→ diviser ensemble de données en trois grande parties
–. ensemble d’entrainement, ensemble de validation, ensemble de testage
–. plus on a un grand ensemble de données, plus on peut entrainer correctement ou donner instances ou model peut apprendre carct.
Évaluations des performances: Validation croisés
validation croisée
–. diviser en trois
entrainement, validation et test final
–. on va créer copies de données et on va faire en sorte que dans premier test on utilise seulement les premier 20% de données comme validation donc on test avec 2345 et on valide avec 1
ensuite 1345 et on valide avec 2
voir image
avec toutes ces données on essaye de créer model le plus optimal sinusite on va faire un test final avec des données que le model a jamais vu
apprentissage machine pour Analyse de sentiment et classification de textes:
d’identifier et de classer les opinions, les émotions et les attitudes exprimées dans un texte.
analyser les réponses des participants à des questionnaires ou à des entretiens, ainsi que pour examiner les interactions sur les réseaux sociaux ou les forums en ligne.
E.g., les chercheurs peuvent utiliser l’analyse de sentiment pour évaluer les réactions émotionnelles des participants à un programme de thérapie ou pour surveiller les tendances et les attitudes dans la population concernant des questions de santé mentale.
apprentissage machine pour Prédiction de comportements basés sur des données observationnelles
prédire les comportements futurs en se basant sur des données observationnelles sur le comportement passé.
E.g., les chercheurs peuvent utiliser des modèles prédictifs pour anticiper les rechutes chez les personnes souffrant de troubles mentaux ou pour prédire les risques de comportements addictifs basés sur des données de suivi longitudinales.
→ peut etre utilisé pour mettre en place interventions préventives ciblées ou pour fournir un soutien supplémentaire aux individus à risque
apprentissage machine pour Modèles de recommandation pour l’apprentissage personnalisé
utilisés pour fournir un contenu éducatif ou thérapeutique personnalisé en fonction des besoins individuels des apprenants ou des patients.
–>E.g., suggérer des exercices ou des activités spécifiques pour renforcer les compétences cognitives chez les personnes atteintes de troubles neurodéveloppementaux, ou recommander des ressources pédagogiques adaptées au style d’apprentissage d’un étudiant spécifique.
–>optimiser l’efficacité des interventions en fournissant un soutien individualisé et en répondant aux besoins uniques de chaque individu.
Réseaux de neurones ça fait quoi
Apprentissage profond:
Réseau de neurones profonds
Multiples couches de neurones interconnectés.
–>Effectuant chacune des opérations de transformation.
–>Pour la transmettre à l’autre.
Capacité d’apprendre des représentations
–>hiérarchiques des données caractéristiques complexes et abstraites à différents niveaux d’abstraction.
→ apprentissage particulierement efficace pour donnees complexes et non structurees comme images, son texte et videos
→ chaque couche traite les infos pour transmettre a l’autre
ex: ici on voit genre un neurone qui fait fonction de regression sur variable temps sommeil et etude et donc ça a fait une certaine transformation et va transm,ettre à la couche suivante
réseaux de neurones structure
1.La couche d’entrée:
-Première couche du réseau et elle reçoit les données brutes en entrée.
–>Pixel de l’image peut être considéré comme une unité d’entrée.
2.Les couches cachées:
-Intermédiaires entre la couche d’entrée et la couche de sortie.
-Extraction des caractéristiques des données en effectuant des transformations non linéaires.
ex: esque y’a du brun, du vert, des lignes verticale (dont esque c’est un arbre ou mm plus loins esque c’est un conifère)
→ plus de couche = plus nuancé et plus complexe
La couche de sortie:
-Dernière couche du réseau et elle produit les prédictions ou les résultats du modèle.
–>Classification: la couche de sortie peut avoir des neurones correspondant à chaque classe possible.
ex: dans tache de classification la couche de sortie peut avoir neurones qui correspondent a chaque classe comme pas un arbre, connifère. feuillu etc
Rétropragation
dans apprentissage profond
Propagation avant:
Les données d’entrée sont propagées à travers le réseau, couche par couche, en effectuant des calculs de pondération et de biais. Les prédictions du modèle sont obtenues à partir de la sortie de la couche de sortie.
Calcul de l’erreur:
L’erreur du modèle est calculée en comparant les prédictions du modèle avec les valeurs réelles des données d’entraînement à l’aide d’une fonction de perte.
Rétropropagation de l’erreur:
L’erreur est propagée en arrière à travers le réseau, de la couche de sortie à la couche d’entrée, afin de calculer les gradients de perte par rapport aux poids et aux biais de chaque neurone.
→ en utilisant algorithmes d’optimisation genre descente de gradient
→ ex: si apres avoir analysé toutes les données on réalise que les h de sommeil sont plus importantes que les heures d’étude ça peut venir changer le poids donc 10h de sommeil est equivalent a 20 h d’étude → donc on va venir ajuster les données
Mise à jour des poids:
Les poids et les biais du réseau sont ajustés dans la direction qui minimise la fonction de perte, en utilisant des algorithmes d’optimisation tels que la descente de gradient stochastique.
Apprentissage profond: Architecture de réseau
1.Réseaux de neurones convolutifs (CNN) :
-Utilisés pour la vision par ordinateur, les CNN sont composés de couches de convolution et de sous-échantillonnage qui permettent d’extraire des caractéristiques spatiales des images.
–>traitement d’image
2.Réseaux de neurones récurrents (RNN):
-Utilisés pour le traitement de séquences, les RNN sont capables de traiter des données séquentielles en conservant une mémoire à court terme grâce à des boucles récurrentes.
–>traitement de séquence comme le langage naturel et les séries temporelles
3.Transformers:
-Une architecture de réseau plus récente, utilisée principalement pour le traitement du langage naturel, les transformers sont basés sur des mécanismes d’attention qui permettent au modèle de focaliser son attention sur différentes parties de la séquence d’entrée.
–>traitement du langage naturel un peu comme chat gpt
Grands modèles de langage (LLM)
apprentissage profond –> transformer
Entraînés à prédire le mot suivant un texte fourni en entrée.
Permet de développer une riche interaction avec l’utilisateur et de synthétiser de l’information à partir d’un grand corpus de texte.
genre chat gpt
Ces modèles ont encore de la difficulté avec les tâches de théorie de l’esprit demandant une prise de perspective.
–>il manque la touche humaine
Mais ils présentent des performances très supérieures aux tests de QI, peuvent passer les examens du barreau et des examens très avancés en médecine.
Biofeedback
apprentissage profond
-Méthode thérapeutique qui permet à une personne de recevoir en temps réel des informations sur des paramètres physiologiques
–>la fréquence cardiaque, la tension artérielle, la température corporelle, l’activité cérébrale, etc.
-Ces informations peuvent être utilisées pour apprendre à contrôler ces paramètres de manière consciente, souvent dans le but d’améliorer la santé ou les performances
–. qqun ex qui a phobie des chiens et qui veut avoir traitement basé sur coping des émotions, on pourrait le plugger pour lui montrer la sudation, les parties du cerveau solicité et a travers la thérapie voir comment ces paramètres changent, donc donne un feedback
→ ex: qqun qui médite peut voir cest quoi qui se passe
étude sur l’application du biofeedback
application du biofeedback
–. demande a une serie de personnes leur niveau de peur par rapport a ces photos la (chat vs coquerelle) et il les a ensuite associé à des données obtenues avec le bio feedback
–. plus on a peur, plus de sudation,
–. donc model apprend ok quand peur y’a sudation et model peut aussi apprendre a voir c’est quand que y’a peur en voyant le data genre heart rate, régions du cerveau activées etc