IDEES-FORCES

1. Première idée-force : formelle -  les piliers de la formalisation - Note complémentaire  sur la formalisation
2. Deuxième idée-force : géométrique 
3. Troisième idée-force : descriptive-inductive 
4. Quatrième idée-force : spécifique
5. Statistique et Probabilités - Fondements des probabilités- Trois cadres d'inférence statistique

Far better an approximate answer to the right question ...
than an exact answer to the wrong one.
J. Tukey

TROISIEME IDEE-FORCE :  DESCRIPTIVE-INDUCTIVE

Visée inductive et inférence statistique

Beaucoup de recherches comportent une visée inductive, en ce sens que les conclusions souhaitées  vont au delà des conclusions descriptives.  Avec des données de petite taille, les inductions hâtives  peuvent être précaires; d'où l'intérêt des procédures formelles de l'inférence statistique: depuis l'élémentaire test du khi-deux jusqu'aux procédures sophistiquées aujourd'hui fournies par l'ordinateur. Les chercheurs attendent de la statistique qu'elle les éclaire non seulement sur la teneur, mais sur la portée des conclusions qui se dégagent de leurs données.
La démarche  inductive, ou plus précisément descriptive-inductive,
est notre troisième idée-force, résumée par  la maxime: La description d'abord, l'inférence ensuite! 

Dans les publications scientifiques, l'usage des procédures d'inférence est devenu quasiment  la norme.  Il est bon toutefois de rappeler que les sciences physiques et naturelles, pour lesquelles la visée inductive est vitale,  n'ont pas attendu l'inférence statistique (dont la diffusion  date de moins d'un siècle) pour valider leurs hypothèses.  Il faut s'élever contre le dogmatisme d'une  norme qui  exige l'inférence statistique pour la validation des hypothèses;  ainsi qu'on  a pu  le voir imprimé sérieusement dans un quotidien: voir l'affaire Morneille". Tout comme il faut s'élever  contre le laxisme de cette  même  norme, qui en guise de preuve  se contente souvent  des procédures d'inférence  les plus frustes. Le star system (* significant, ** highly significant), qui n'est ni nécessaire ni suffisant pour l'administration de la "preuve par la statistique",  est un scandale, comme l'ont répété  à l'envi les meilleurs méthodologistes, comme Guttman, qui fustigeait  les "star worshippers":   Voir l'affaire Burt, et les aberrations   de la recherche médicale.

Hypothèses d'intérêt et hypothèses techniques ("assumptions")

Au commencement d'une analyse statistique, le chercheur dispose en général d'hypothèses d'intérêt ("Il y a un effet de tel ou tel facteur") ou au moins de questions d'intérêt ("Y a-t-il un effet de ce facteur?")
Les  hypothèses d'intérêt peuvent être des hypothèses de recherche, ayant servi à instituer l'expérience (selon la formule de Claude Bernard);  ou des hypothèses  concurrentes faisant l'objet de débat; ou encore des hypothèses suggérées par les conclusions descriptives. L'analyse inductive devra soit apporter une réponse, soit a contrario  montrer que les données dont on dispose ne sont pas suffisantes pour y répondre.
Les hypothèses techniques ("assumptions" )  sont des conditions qui doivent être remplies pour que la procédure soit valide; contrairement aux hypothèses de recherche, elles  ne sont pas remises en cause au cours d'une analyse statistique.   L'idée  inductive conduit  à privilégier les procédures statistiques qui minimisent les "assumptions". Voir  inférence combinatoire  et aussi   inférence spécifique .

Analyse Inductive des Données

L'Analyse Inductive des Données s'inspire de la philosophie d' Analyse des Données:  "Dégager ce que les données ont à dire": voilà  la première tâche de la statistique.  Les  conclusions descriptives   énoncées, l'objectif de l'Analyse Inductive des Données est de chercher à corroborer ces conclusions. A l'évidence, seules les hypothèses  d'intérêt qui ne vont pas à l'encontre des conclusions descriptives peuvent prétendre à être corroborées par les procédures d'inférence. Par exemple, si un effet est descriptivement négligeable, aucune procédure d'inférence  ne saurait prouver que cet effet est "en réalité" important.

Inférence statistique  traditionnelle

L'inférence statistique traditionnelle des chercheurs, autour du test de signification d'absence d'effet, apporte une première réponse aux perspectives de l'analyse inductive des données. Lorsque le test d'absence d'effet d'un facteur  est pratiqué suite à la conclusion descriptive d'existence d'un effet, il constitue un utile garde-fou, en ce  sens qu'un résultat statistiquement significatif confirme l'existence de l'effet, et  - pour un effet unidimensionnel - le sens  de l'effet; alors qu'un résultat non-significatif laisse incertain sur le sens de l'effet.
Mais l'inférence traditionnelle a  ses insuffisances.
Résultat  significatif ne veut pas dire effet notable; et résultat non-significatif effet négligeable; ce que rappellent les deux Warnings qui figurent dans tous les bons traités de statistique:
Warning 1: Statistical significance is not substantive significance; 
Warning 2: No evidence of effect is not proof of no effect.

Malheureusement, les traités ne s'étendent guère sur les solutions qu'il convient d'adopter quand le problème est précisément de se prononcer sur le caractère notable de l'effet étudié, ou à l'opposé sur son caractère négligeable. D'où pour les chercheurs la tentation permanente de la significance fallacy consistant à prendre significatif  pour  notable, et non-significatif pour  négligeable. 
Les développements de l''analyse inductive des données auxquels nous avons contribué visent  à pallier les insuffisances de l'inférence traditionnelle, en les adaptant aux besoins diversifiés de la visée inductive; tout en gardant à l'esprit qu'il n'y a pas de solution royale au problème de l'induction (conclure du particulier au général) et qu'une attitude pragmatique est toujours de mise (cf.  l'aphorisme de Tukey  mis en épigraphe). Voir Inférence combinatoire et Inférence bayésienne.

Pour une discussion du  fréquentisme  radical de la statistique académique, voir Statistique et Probabilités.  Voir aussi  R.A. Fisher.


 Note personnelle

De la doxa fréquentiste à l'Analyse Inductive des Données
La troisième idée-force, conduisant à l'Analyse Inductive des Données,  ne s'est dégagée que progressivement dans mes recherches. Elle a nécessité  les travaux éclaircissant   les rapports entre statistique descriptive et inférence statistique: voir Piliers de la formalisation,   Statistique et Probabilités,
Fondements des probabilités.  En  1973, j'avais fait le tour de toutes les ressources du fréquentisme radical pour  trouver des solutions pratiques palliant les insuffisances des méthodes traditionnelles. Dès lors je suis arrivé à la conviction que le fréquentisme radical  était une impasse, en ce sens que les prétendues "erreurs des utilisateurs" n'étaient pas  seulement  des applications maladroites de la théorie, mais tenaient bel et bien à  une idéologie déconnectée de la démarche du chercheur, qui bloquait toute stratégie inductive.
Je savais par ailleurs que des approches de rechange au fréquentisme radical existaient
: l'approche fiduciaire, l'approche bayésienne...  Dans cette étape éprouvante de reconversion,  où il s'agissait de me défaire d'une idéologie nuisible,  j''ai été objectivement  aidé par la fréquentation de G-Th Guilbaud, grand'maître de la combinatoire, et   dont les vues sur les probabilités, de Pascal à de Finetti, étaient d'une tout autre ampleur que la doxa statistique régnante - Je ne dirai jamais assez ma dette  à l'égard de Guilbaud (cf. Urbino). J'ai rencontré Michel Mouchart et son groupe bayésien du CORE à Louvain-la-Neuve. Grâce à mon ami Johnkheere, j'ai entamé des contacts réguliers avec le département de Statistique d'University College de Londres (un haut lieu de la statistique bayésienne), autour de  Lindley, Philip Dawid et Mervin Stone, qui m'ont maintes fois invité à présenter mes travaux  à leur séminaire...
Dès lors j'ai travaillé au double élargissement des méthodes d'inférence  traditionnelles,  d'une part  sur le versant 
combinatoire, d'autre part  sur le versant  bayésien.  Les développements de la statistique  intervenus depuis lors, d'une part le développement prodigieux des techniques combinatoires, d'autre part la révolution bayésienne actuellement  en cours,  sont venus conforter cette réorientation décisive, et assurer  un environnement  reconnu à mes recherches.  
Je  tombe sur le  passage suivant dans un texte récent de
Reuchlin  (2003, Vol 4) "Après avoir étudié et pratiqué un fréquentisme modéré (notamment avec J.M. Faverge), H. Rouanet s'était familiarisé avec le fréquentisme radical à Stanford University. Dans le courant des années 70, il prend conscience de l'inadaptation de ces méthodes aux besoins des chercheurs, et il évolue (notamment sous l'influence de G.Th. Guilbaud) vers un bayésianisme modéré, appliqué à la statistique pour les chercheurs." On ne saurait mieux résumer mon évolution de 1957 à 1973.
  
Début de page


Retour à la PAGE D'ACCUEIL