PrA_sentationHDR - Hal-SHS

Download Report

Transcript PrA_sentationHDR - Hal-SHS

Université de Provence
Aix-Marseille I
Marseille -2011
Quelques Modèles et Méthodes pour l’Etude de la Cognition
Dossier présenté pour l’obtention d’une
Habilitation à Diriger des Recherches
par
Pierre Courrieu
Chargé de Recherche au CNRS
Laboratoire de Psychologie Cognitive - UMR 6146
Centre National de la Recherche Scientifique
1
Jury
 Professeur Hervé Glotin (rapporteur)
 Docteur Jonathan Grainger (président)
 Docteur Ronald Peereman (rapporteur)
 Professeur Laurent Pezard (examinateur)
 Docteur Arnaud Rey (rapporteur)
 Docteur Simon Thorpe (examinateur)
2
Travaux présentés
. Perception des lettres
Courrieu & De Falco (1989);
Courrieu, Farioli, & Grainger (2004)
. Modèles de codage de données
Courrieu (2001, 2002)
. Modèles de codage d’images
Courrieu (2006, 2007)
. Réseaux de neurones et apprentissage supervisé
Courrieu (2005)
. Méthodes de calcul des paramètres de modèles
Courrieu (1994, 1997, 2009)
. Méthodes de validation de modèles et bases de données
Rey et al. (2009); Rey & Courrieu (2010)
* Courrieu, Brand-D’Abrescia, Peereman, Spieler, & Rey (2011)
3
Publications récentes
. Dans la catégorie « modèles »:
* Courrieu, P. (2011). Quick approximation of bivariate
functions. British Journal of Mathematical and
Statistical Psychology, in press.
. Dans la catégorie « méthodes »:
Courrieu, P., & Rey, A. (2011). Missing data imputation
and corrected statistics for large-scale behavioral
databases. Behavior Research Methods, 43, 310-330.
4
Courrieu, Brand-d’Abrescia, Peereman, Spieler, & Rey (2011)
Validated intraclass correlation statistics to test item performance models
Behavior Research Methods, 43(1), 37-55
. Critères usuels de sélection de modèles (AIC, BIC, Bayes Factor)
= Sélectionner un ‘gagnant’ parmi des modèles concurrents
Mais cela ne dit pas si un modèle rend convenablement compte
des observations.
. Variance des données = part systématique + part aléatoire
Part systématique = part de variance dont les modèles peuvent
rendre compte
5
6
Quelle est la part de variance reproductible dans le vecteur M
des moyennes par item ?
Sujet 1
Sujet 2
…
Sujet n
Moyennes
par item
Item 1
X(1,1)
X(1, 2)
…
X(1, n)
M(1)
Item 2
X(2, 1)
X(2, 2)
…
X(2, n)
M(2)
…
…
…
…
…
X(m, 1)
X(m, 2)
…
X(m, n)
M(m)
…
Item m
. Si la mesure expérimentale X peut se décomposer en:
X(i,j) =   (j)  (i)  (i,j), 1≤i≤m, 1≤j≤n,
 = moyenne générale
 = effet sujet
 = effet item
 = effet aléatoire
le vecteur M (moyennes par item) contient une part de variance
reproductible égale au coefficient de corrélation intraclasse (ICC):
 = nq / (nq + 1),
avec:
q = Var()/Var().
. Estimation de l’ICC, avec i.c., par analyse de la variance.
. Le test
ECVT (Courrieu et al., 2011) permet de savoir si une
base de données quelconque est conforme à ce modèle.
7
8
La conformité au modèle a été vérifiée pour plusieurs bases de données
(Rey et al., 2009; Rey & Courrieu, 2010; Courrieu et al., 2011)
9
Soit B une variable prédictive exacte, à une transformation
linéaire près, c’est-à-dire telle que:
B = a + b, avec a ≠ 0,
Alors on peut montrer que:
r2(M,B)   , où  est l’ICC des données.
Par ailleurs:
si r2 <  (significativement): sous-ajustement = modèle insuffisant
si r2 >  (significativement): sur-ajustement = le modèle ajuste du
bruit des données (car il utilise trop de paramètres libres).
10
Intersection du carré de corrélation avec l’intervalle de
confiance (99%) de l’ICC au voisinage du modèle exact (comp. 20)
11
Fréquence de détection des sous-ajustements et sur-ajustements
en fonction de l’écart au modèle exact (complexité 20).
12
Courrieu (2011) - Quick approximation of bivariate functions.
British J. Mathematical & Statistical Psychology, in press
. Apprentissage de fonctions booléennes ou continues
= acquisition d’une expertise
. Mais nous savons aussi estimer des fonctions rapidement et sans
aucun apprentissage spécifique
= « degré zéro » de l’expertise
Comment procédons-nous?
13
Exemple: quelle sera la température à Montélimar ?
14
Présentation d’un problème (Expérience 1)
15
Problèmes et réponses moyennes (± 2.2) de 16 sujets
16
Performances prédictives de 11 modèles
(pour l’ensemble des 16 problèmes)
Bayes Factor
r2
AIC
BIC
Nearest Neighbor
0.705
28.86
28.86
>1000
Lipschitz Interpolator
0.705
22.50
22.50
652
Gaussian RBFN
0.725
25.09
25.09
>1000
Phi NN (Courrieu, 2005)
0.838
12.28
12.28
3.94
Hardy Multiquadric
0.775
23.08
23.08
871
Radial Spline
0.383
793.95
793.95
>1000
Multilayer Perceptron
0.819
14.43
14.43
11.53
Cascade Correlation NN
0.737
53.88
53.88
>1000
Shepard (1968)
0.828
19.86
19.86
174.16
Quadratic Polynomial
0.576
147.91
148.69
>1000
ABI (Courrieu, 2011)
0.950
8.00
9.54
1
Model
Human responses’ ICC
.999 confidence interval
0.985
[0.959, 0.997]
(≥3.2: substantial)
17
Surfaces de généralisation de 4 modèles (données Extrapolation 1)
18
Expression du modèle inconnu par des fonctions de pondération
des données
X
f (X)   wi (X)  f i
5
i1

Un choix optimal des valeurs
des fonctions poids donne:
r2 = 0.976  [0.959, 0.997]
19
Valeurs des fonctions poids sur un problème d’extrapolation
20
Valeurs des fonctions poids sur un problème d’interpolation
21
Comment estimer la fonction en un point (X) étant données ses
valeurs (f1 et f2) en deux autres points (X1 et X2) ?
.
Approximation linéaire:
f1,2
f2
f1,2 (X)  f1  ( f 2  f1 )
f1

x1
x2
x
(X  X1 ).(X 2  X1)
2
X 2  X1
22
Comment choisir des bipoints appropriés ?
L’extériorité ℰ(X,Xi,Xj) est la distance
du point X au point le plus proche du
segment joignant Xi et Xj (Courrieu,
1994)
Un pavage de Voronoi est construit par
le système visuel (Dry, 2008). Il est
induit par la distance de X à son plus
proche voisin connu:
d0(X) = mink d(X,Xk)
La pertinence d’un bipoint (Xi,Xj) dont
les extrémités sont voisines dans le
pavage de Voronoi est donnée par:
ij(X)=exp(-(ℰ(X,Xi,Xj)/d0(X)))
Sa probabilité d’échantillonnage est
donnée par la règle de Luce (1977):
pij(X) = ij(X) / k,lkl(X).
23
Production des réponses de généralisation
Etant donné un point de généralisation X,
échantillonner (avec remise) N bipoints suivant leurs
probabilités, et faire la moyenne des approximations
linéaires obtenues au point X.
L’espérance et la variance de la réponse sont:
E(f(X)) = ij pij(X) fij(X)
Var(f(X)) = ij pij(X) (fij(X) - E(f(X)))2 / N
où N est en fait une variable aléatoire entière non
modélisée pour le moment.
24
Surfaces de généralisation du modèle ABI
25
Performances prédictives du modèle ABI
Réponses moyennes
r = 0.975,
r2 = 0.950  [0.959,0.997]
Conclusion: Sous-ajustement significatif, mais proche
d’une solution acceptable.
Dispersions (S.D.)
r = 0.653, p<.01 (N=1 fixé)
r = 0.978, p<.001 (2≤N≤10, mode=4, estimé)
26
Notations financières de dettes souveraines 2010
« The Big Three »
Country
Dagong
Moody’s
Standard &
Poor’s
Fitch Ratings
China
Saudi Arab
Russia
Brazil
India
Indonesia
Venezuela
Argentina
Canada
Netherlands
Germany
U.S.
U.K.
France
Belgium
Spain
Israel
Italy
Thailand
Mexico
Romania
Iceland
Greece
Philippine
1
2
5
6
8
9
10
14
1
1
1
2
3
3
4
5
6
6
8
8
10
11
11
13
4
3
7
9
9
10
14
15
0
0
0
0
0
0
1
0
4
2
7
7
9
9
10
12
4
3
7
7
9
10
12
15
0
0
0
0
0
0
1
1
3
4
6
5
9
8
10
10
3
3
8
9
9
10
13
15
0
0
0
0
0
0
1
0
4
3
6
7
9
7
9
10
27
Dagong and « The Big Three »
Notations souveraines de 24 pays par
Moody’s, Standard & Poor’s, et Fitch Ratings
ICC= 0.995 (i.c. 99.9%: [0.983, 0.999])
Comparaison des notations par Dagong (agence chinoise)
r2 = 0.789 (r2/ICC = 0.793)
Pour qui sont les boulets des Trois Grâces?
… Et pour qui celui du Dragon?