Fondements et méthodes en gestion appliquée 9782343039619

Ce livre est une initiation à la méthodologie, c’est-à-dire aux choix et aux procédures qu’implique la recherche scienti

2,087 182 2MB

French Pages 252 Year 2014

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Fondements et méthodes en gestion appliquée
 9782343039619

Table of contents :
Avant-propos......Page 9
Introduction......Page 19
1 La notion de recherche scientifique......Page 27
2 La place et les fondements de la recherche en gestion appliquée......Page 43
3 La logique de la recherche empirique......Page 63
4 Les recherches pilotées par la théorie......Page 85
5 Les recherches visant à créer une théorie......Page 117
6 Les recherches basées sur l’approche de design......Page 131
7 L’acquisition des données quantitatives et qualitatives en gestion appliquée......Page 157
8 Introduction à l’analyse quantitative......Page 189
9 L’analyse des données qualitatives......Page 207
10 Présentation d’une recherche et considérations sur la gestion d’un projet de recherche......Page 225
Conclusion générale......Page 235
Bibliographie......Page 241
Table des matières......Page 245

Citation preview

OUR COMPRENDR

POUR COMPRENDRE

Walter Amedzro St-Hilaire

Fondements et Méthodes en Gestion Appliquée

Fondements et Méthodes en Gestion Appliquée

Pour Comprendre Collection dirigée par Jean-Paul Chagnollaud L’objectif de cette collection Pour Comprendre est de présenter en un nombre restreint de pages (176 à 192 pages) une question contemporaine qui relève des différents domaines de la vie sociale. L’idée étant de donner une synthèse du sujet tout en offrant au lecteur les moyens d’aller plus loin, notamment par une bibliographie sélectionnée. Cette collection est dirigée par un comité éditorial composé de professeurs d’université de différentes disciplines. Ils ont pour tâche de choisir les thèmes qui feront l’objet de ces publications et de solliciter les spécialistes susceptibles, dans un langage simple et clair, de faire des synthèses. Le comité éditorial est composé de : Maguy Albet, Jean-Paul Chagnollaud, Dominique Château, Jacques Fontanel, Gérard Marcou, Pierre Muller, Bruno Péquignot, Denis Rolland.

Dernières parutions Jean-Marie GILLIG, Histoire de l’école laïque en France, 2014. Jean-Baptiste ESAÜ, Les élections présidentielles Aux EtatsUnis, 2014. Gérard PETITPRÉ, Les trente Glorieuses de la Ve République (1958-1988), 2014. Xavier BOLOT, Les Trois Réalités. Physique, perçue, représentée ici, maintenant, évolutions, 2014. Alain DULOT, Ce que penser veut dire. Essai, 2013. Claude-Michel VIRY, Guide historique des classifications de savoirs, 2013. Maixent LOUBASSOU-NGANGA, L’immigré et la gestion du patrimoine, 2013. André MESIN, De Smith à Marx : deux approches du capitalisme, 2013. Xavier BOLOT, Comment représenter l’action. Le bonheur d’appliquer les sciences de la vie aux arts du vivants, 2012. Thomas SEGUIN, Le postmodernisme. Une utopie moderne, 2012.

Waalter AME EDZRO ST T-HILAIR RE

Fon ndemeents et Métho M des en Gesttion Ap ppliquéée

© L'HARMATTAN, 2014 5-7, rue de l'École-Polytechnique, 75005 Paris http://www.harmattan.fr [email protected] [email protected] ISBN : 978-2-343-03961-9 EAN : 9782343039619

À ma Fille, à Maedge Karya !

Du haut de mes deux post-doctorats et doctorats, l’idée d’écrire ce livre n’a d’enjeux, au-delà de la satisfaction personnelle d’une curiosité intellectuelle renouvelée, qu’un témoignage de ma profonde affection pour toi ! Avec tout mon Amour, Papa

Avant-propos Une façon de cerner le champ d’une discipline et de contribuer à l’avancement de la science est d’en connaître les considérations méthodologiques et théoriques. Depuis leur création et leur implantation dans les systèmes académiques, la gestion appliquée montre une énorme dépendance vis-à-vis des autres disciplines, que ce soit dans son enseignement, dans sa méthodologie, dans ses champs d’étude ou dans l’élaboration de ses théories. Influencés, les chercheurs en gestion appliquée empruntent les outils méthodologiques des autres disciplines et sciences pour les appliquer à leur domaine. Cette multidisciplinarité se traduit par une pluralité méthodologique : il en résulta, une surabondance d’approches leur permettant de construire et de développer une théorie ou d’analyser un fait social, surabondance qui caractérise la gestion appliquée. Dès lors, la gestion appliquée se s’est diversifiée, aussi bien en termes d’approches, de modèles proposés que d’objets d’étude. Et malgré tout, il lui est impossible de prédire ou d’anticiper les fluctuations entre diverses variables propres au champ d’étude. À cet égard, cet ouvrage de méthodologie, très ambitieux par sa spécificité, s’adresse avant tout à ceux qui seront appelés à œuvrer comme chercheurs dans les domaines de gestion appliquée. Il leur permet de développer des considérations méthodologiques propres : les composantes du contenu de recherche dans leur association avec les stratégies de recherche empirique constituant la charnière de l’ouvrage. Prendre note qu’il s’agit fondamentalement de se familiariser avec les principales étapes de la construction d’une recherche en gestion appliquée de façon synthétique. Ensuite, le lecteur pourra intégrer ces connaissances dans le cadre de différentes stratégies et traditions de recherche inspirées des méthodologies en gestion appliquée. L’arrimage des deux composantes permet de saisir la richesse et la diversité des pratiques de recherche dans cette discipline. Aussi, cet assemblage est plus propice à la compréhension de l’importance de la justification des choix méthodologiques dans la construction d’une recherche :    

Connaître de façon précise la portée et les limites de la recherche en gestion appliquée ; Être en mesure de faire un choix approprié de la méthodologie en gestion appliquée en fonction des particularités d'un sujet de recherche et de la réalité étudiée ; 9

 

       

Développer chez les lecteurs des connaissances et les habiletés requises à la conception et à la critique d’une problématique, d’une méthodologie de recherche ainsi que d’une proposition de recherche en gestion appliquée ; Posséder une vision claire du continuum quantitatif-qualitatif dans les méthodes de recherche en gestion appliquée ; Établir la différence entre méthodologie et méthodes qualitatives ou quantitatives ; Connaître les règles de l'art et les dimensions non écrites du métier de chercheur et savoir les appliquer dans une démarche de recherche ; Dégager une vision pluraliste et rigoureuse du processus de recherche. Mais comment atteindre ces objectifs si les fondements de recherche dans ce domaine du savoir ne sont pas isolés et clairement positionnés d’entrée ? Les concepts convoqués dans le cadre d’une recherche en gestion appliquée sontils relativement déterminants, tout en n'épuisant pas pour autant, la réflexion concernant les rapports entre la réalité et la connaissance scientifique ? Le processus de recherche et les caractéristiques mêmes des résultats de recherche en gestion appliquée peuvent-ils être comparés à ceux des théories scientifiques ? Pour répondre à ce casse-tête, tout chercheur devra poser comme prérequis, l’une des plus célèbres théories ayant révolutionné le monde de la physique moderne et donné une nouvelle conception à l’univers : la théorie de la relativité d’Albert Einstein. Cette théorie décrit les phénomènes physiques dans un système et stipule que tous les phénomènes physiques peuvent être expliqués en termes de gravitation. Toute masse en mouvement est attirée par un champ de gravitation, de façon proportionnelle à sa masse d’inertie. L’une des conclusions importantes tirées de ces propositions est la courbure de toutes les lignes d’univers à quatre dimensions et de l’espace. L’élaboration de la théorie de la relativité d’Einstein s’est effectuée en plusieurs étapes. Partant d’une théorie restreinte de la relativité ne s’appliquant qu’à des systèmes d’inertie, Einstein tenta de généraliser cette théorie afin qu’elle puisse également s’appliquer à des systèmes accélérés. Se basant sur des travaux antérieurs qu’il chercha à approfondir et à débarrasser de leurs absolus métaphysiques, notamment les principes de relativité de Galilée et de Newton, et sur des observations personnelles, il conçut puis renforça sa théorie, qui se trouva confirmée plus tard par l’expédition du célèbre astronome et physicien anglais Sir Arthur Eddington. Einstein mit un point d’honneur à doter sa théorie d’une « perfection interne », c'est-à-dire d’une simplicité logique, d’une élégance (qui selon lui est un reflet de l’accord de la théorie avec le monde réel) qui en font une conception valable du monde. Mais malgré le succès de la relativité générale, les principes de cette théorie furent contestés. 10

Ce long parcours de recherche et d’approfondissement caractérisant l’élaboration de la théorie de la relativité par Einstein se traduit par la simplicité conceptuelle de ses résultats (dont la célèbre formule E = mc²) et illustre les critères définissant une démarche scientifique exacte qui se conçoit à partir d’un questionnement, sur des observations du monde environnant ainsi que sur des travaux antérieurs, en réponse à un problème observé. Par ailleurs le résultat de la recherche doit être en accord avec la raison, suffisamment simple pour être comprise et/ou réfutée (l’une des critiques faites à la théorie d’Einstein était que sa compréhension nécessitait des connaissances physiques et mathématiques, et une largeur d’esprit de la pensée scientifique), et offrir une conception valable du monde. Le résultat d’une recherche scientifique ne devant jamais être définitive mais progresser infiniment pour se rapprocher de plus en plus de la vérité objective. Comme le précise Kouznetsov dans son ouvrage Einstein, sa vie, sa pensée, ses théories, « le premier mérite d’Einstein est en tout cas d’avoir su formuler clairement ce problème original …». Toute recherche scientifique commence par une expérience concrète, experimentation nécessitant un objet matériel: « It is the sensible object, as has been seen, which is first experienced in metaphysics and which must serve as the initial ground for analysis. ». Cependant, en gestion appliquée, la présence d’un objet expérimental matériel est aléatoire. Pourtant, « material being is the starting point of scientific investigation in its most fundamental and radical cause.», et c’est à travers les objets sensibles que l’on peut acquérir une certaine connaissance des choses immatérielles. Dans ce cas, peut-on dire que l’élaboration d’une recherche en gestion appliquée soit scientifiquement valable ? Il est important de préciser que malgré l’importance de l’expérimentation, cette dernière ne saurait dicter les concepts primaires qui serviront de base aux résultats d’une recherche scientifique. « Einstein has repeatedly said that sensible experience cannot dictate the primary concepts and postulates which are to serve as the foundation for the deductive system howevermuch it is the beginnings of scientific knowledge are in the world of sensible beings. Rather, he says, experience can suggest them. » Le chercheur ne déduit donc pas les concepts primaires de sa recherche de l’expérience, mais les inventent plutôt à partir de ce que la force de ladite expérience peut lui suggérer. Les autres principes découlent d’un jugement objectif et de la raison. Dans son ouvrage What is Theory? Sociological Theory Since World War II, Jeffrey Alexander précise « Theory cannot be built without facts, but it cannot be built only with them either ». À contrario, on peut ainsi catégoriser les grandes approches méthodologiques en gestion appliquée en deux grandes classes : les approches objective et subjective. Toute approche repose sur un certain 11

nombre de postulats et vise à élaborer et tester expérimentalement une théorie valable aux yeux de tous, utile pour les décideurs politiques et pour la gestion et le travail des organisations. Les méthodes dont on a recours pour recueillir les données et les techniques mises en œuvre pour les interpréter en gestion appliquée, permettent d'opérationnaliser et de mettre en pratique les énoncés relativement généraux. À cet égard, même si en mobilisant des méthodes dites mixtes en majorité à l’inverse des sciences exactes, ils s'orientent nécessairement dans les mêmes courants, cette convergence au niveau des outils peut être trompeuse du moment où les méthodes en gestion appliquée regroupent un ensemble d'alternatives relevant de paradigmes fort différents. Le sens et la pertinence des outils ne sont pas donnés. Les méthodes de recueil des données et l'interprétation constituent dès lors, deux vecteurs qui, peu à peu, façonnent le modèle d'analyse et allant dans le même sens : les méthodes recueillent des données qui sont, dans un second temps, interprétées. Elles saisissent des fragments de la réalité questionnée, mais c'est l'interprétation qui les met effectivement en lien avec les concepts de la recherche. Dès lors, deux approches s’offrent souvent au chercheur en gestion appliquée: l’approche hypothético-déductive et celle empiricoinductive. Toutes deux permettent de relever un grand nombre de fragments de réalité. Mais dans le cadre de l'approche hypothético-déductive, il devra savoir précisément ce qu’il doit observer. Il devra établir des indicateurs précis qui permettent de considérer exactement les mêmes faits d'une situation à l'autre. En contraste dans le cadre de l'approche empiricoinductive, la démarche consiste à rapporter le plus de détails possibles concernant la situation étudiée sans égard à une catégorisation préétablie. Aucune censure, la sélection se faisant lors de l'interprétation. Cette démarche nous permet de récolter les données empiriques nécessaires pour la confrontation opérée. L'interprétation constitue, dans le cadre de l'approche qualitative à l’opposé de l’approche quantitative, le fondement de l'activité de recherche et son pilier central. Elle constitue l'interface entre les données de terrain, autrement dit, la réalité et les modèles théoriques. Nous retenons, de l'ouvrage de Miles et Huberman, l'invitation à la rigueur en matière de gestion des données. Ainsi, l'explicitation des différentes étapes évite les traitements implicites. Par contre, la normalisation de ce processus ne semble pas souhaitable : elle permettrait, certes, de comparer plus facilement les recherches, entre elles, mais comme le souligne le « Handbook of Qualitative Research », les méthodes qualitatives sont plurielles. La diversité des paradigmes et des techniques aboutit à des modes d'interprétation sensiblement différents. Les normes que réclament Miles et Huberman devraient, se limiter à la recherche qualitative post-positiviste dans laquelle ils s'inscrivent. 12

Aussi, les critères de validité d’une recherche en gestion appliquée étant en lien avec le paradigme, une recherche en gestion appliquée en contexte réel, ne peut prétendre répondre aux critères positivistes de réplicabilité et de généralisation des résultats. Selon Lincoln et al. (1985),… les critères de qualité sont plutôt de l’ordre de la crédibilité et de l’authenticité. Miles et Huberman (2003) indiquent que de façon générale, la qualité de ces recherches devrait être évaluée dans des termes qui soient propres à ce champ méthodique. Bien que le produit soit constitué d’interprétations subjectives entre autres, il n’en demeure pas moins que « les études en gestion appliquée se déroulent dans un monde social réel, qu’elles peuvent influencer la vie des personnes et qu’il existe dans toute situation particulière un point de vue fondé de ce qui s’est passé (y compris de ce qui a été cru, interprété, etc.) » (Miles et Huberman, 2003). Soulignant elle aussi que « le monde empirique ne tolère pas également toutes les interprétations qu’on en donne » Laperrière (1997) montre que les questions de validité interne ou externe sont importantes en gestion appliquée quel que soit le paradigme dans lequel le chercheur se trouve, et que ce sont les critères qui doivent être différents. La validité interne « qui réside dans la justesse et la pertinence du lien établi entre les observations empiriques et leur interprétation » (Laperrière, 1997) s’évaluera à partir d’un critère de correspondance dans un cadre positiviste, tandis qu’une position constructiviste conduira à une recherche de concordance. De même, la validité externe qui renvoie au degré auquel les résultats d’une recherche peuvent être appliqués à d’autres populations et situations présentant les mêmes caractéristiques (Laperrière, 1997) sera évaluée selon la capacité de généralisation des résultats dans un cadre positiviste et de la transférabilité dans un cadre constructiviste. En s’intéressant à l’évolution des critères de validité en recherche, Whittemore, Chase et Mandle (2001) ont constaté que les tensions sont encore nombreuses au sein de la communauté scientifique où des pôles tels que rigueur et subjectivité, créativité et scientificité s’opposent. Puisque la reconnaissance de la validité d’une recherche est étroitement liée au partage et à l’adhésion à des critères reconnus par une communauté, doit-être choisi le cadre de réflexion proposé par Miles et al. (2003) pour présenter les éléments liés à la validité d’une recherche. Il faut dire que de la diversité des paradigmes existants, le choix en gestion appliquée repose souvent sur deux différentes considérations : 9 considérer que n'étant, par nature, pas démontrables, le mieux est de s’orienter vers celui qui se prête le plus efficacement à l'étude de la réalité en espèce. 9 ou retenir celui qui correspond le mieux à ses convictions, autrement dit celui qui paraît le plus vraisemblable ; 13

La qualité du paradigme est dès lors envisagée soit en termes de correspondance exclusive avec la réalité, soit de la façon dont il aide le chercheur à penser celle-ci. Le paradigme retenu mêlant des énoncés d'inspiration constructiviste et d'autres de nature plus substantialiste reconnaissant des réalités objectives : une perspective de construction de sens se situe résolument dans un paradigme constructiviste au sens de Guba et Lincoln (1994). Dans cet ordre d’idées, la réalité est une construction qui se présente sous des formes multiples, souvent intangibles et qui résulte des expériences sociales qui, bien que partagées, demeurent essentiellement locales et spécifiques. Cette position est proche du subjectivisme sans pour autant considérer que toute la réalité n’est qu’une projection des acteurs (Morgan et Smircich, 1980)1. Il s’agit plutôt d’une conception du monde comme un processus continu de création à partir des actions et interactions significatives des acteurs (Berger et Luckman, 1996). La connaissance, d’un point de vue constructiviste, demeure dès lors contextuelle et relative, l’objet de recherche étant appelé à se redéfinir dans l’interaction qu’il entretient avec la réalité (Allard - Poesi et Maréchal, 1999). Nous distinguons, au moins, deux formes de constructivisme distinctes en partant de l'idée suivant laquelle les acteurs construisent le monde : -

Certains pensent pouvoir rendre compte de façon objective des phénomènes à l'œuvre ; d'autres se résignent à les interpréter de façon vraisemblable2 et cohérente. Les premiers envisagent une épistémologie d'inspiration plutôt positiviste, en partant du principe que la recherche scientifique pourrait, en quelque sorte, « transcender » l’analyse humaine. Par des méthodes spécifiques, elle pourrait accéder aux réalités substantielles ou construites sans avoir à passer par des représentations subjectives, étant ainsi en mesure de produire des connaissances objectives. La seconde approche considère l'existence d'une réalité substantielle tout en intégrant des réalités construites en admettant le caractère représentationnel de la connaissance scientifique. Dans cet ordre d’idée, le chercheur devra être en interaction avec son milieu d’étude contrairement à la position positiviste qui suppose un chercheur neutre et externe à son objet de

1

La position extrême du subjectivisme. La « vraisemblance » désigne habituellement la validité globale du modèle produit dans le cadre d'une démarche dite « qualitative », à la différence de la « crédibilité » qui n'en est qu'un aspect. Si certains préfèrent utiliser la notion de crédibilité. Ce glissement terminologique s'appuie sur l'idée que l'interprétation ne peut être appréhendée comme un acte isolé : elle implique l'ensemble des composantes de la recherche : problématique, théorisation, paradigme, etc.

2

14

recherche. Le constructiviste reconnaît faire partie de celui-ci dès qu’il entre en contact avec lui et ses découvertes sont elles-mêmes considérées comme des constructions (Morgan et al, 1980; Guba et al, 1994). Ainsi, le chercheur ne tente pas d’établir des relations de causalité ni de prédire les comportements des acteurs mais simplement d’accroître le degré de compréhension à travers des explications multiples (Lincoln et al. 1985). Le chercheur en gestion appliquée reconnait et intègre ainsi simultanément dans le cadre de sa recherche, des réalités « objectives » et des réalités d'ordre symbolique. Les faits peuvent être analysés en ces termes, mais en pratique, les données interprétées mêlent souvent différents niveaux d'analyse dont les frontières restent incertaines. De même, en gestion appliquée, ces critères se mêlant au niveau du modèle explicatif découlant, la validité s’apprécie autour d'au moins trois critères : 1. La réfutabilité3 : le modèle doit tout d'abord être capable de rendre compte de l'intégralité des faits sur la base des interprétations dans le cadre d'une logique homogène et cohérente ; 2. L’évidence : le sens de l'explication produite, devra être évident. Les parties prenantes doivent pouvoir reconnaître dans le discours les faits vécus4 ;

3

Le principe de réfutabilité est illustré par « l'exemple des cygnes ». La proposition « Tous les cygnes sont blancs » ne peut être vérifiée dans la mesure où il est impossible de recenser l'intégralité de cette population. Il est, en revanche, possible de la réfuter, dès l'instant où l'on découvre un cygne noir (Popper ; 1934). La vérification d'un énoncé sur un échantillon ne garantit pas sa « vérité », par contre, la découverte d'une preuve, d'une occurrence contraire à celui-ci, suffit à le réfuter de façon définitive. Pragmatiques, les post-positivistes admettent les énoncés vérifiés sur un échantillon représentatif comme « vrais » jusqu'à preuve du contraire. 4 L'évidence désigne le caractère de ce qui est manifestement vrai, ou qui s'impose à l'intelligence. Chez Descartes en particulier, l'évidence désigne ce qui se présente si clairement et distinctement à la raison qu'il est impossible de le mettre en doute. Un des cas les plus célèbres d'évidence est ce qu'on appelle le cogito : « je pense donc je suis » (en latin: « cogito ergo sum ») ; il suffit à n'importe quel sujet doué de raison de penser pour savoir nécessairement qu'il existe ; il s'agit pour Descartes de la première vérité indubitable. Définition de l'évidence par Descartes (« Règles pour la direction de l'esprit », III) : « C'est la conception ferme qui naît dans un esprit sain et attentif des seules lumières de la raison (...). Ainsi chacun peut voir par intuition qu'il existe, qu'il pense, qu'un triangle est déterminé par trois lignes, qu'un globe n'a qu'une surface et d'autres vérités semblables. » Par suite, on peut distinguer deux types d'évidence : • l'évidence rationnelle ou intellectuelle (sens développé par Descartes, qui est un rationaliste), qui concerne les principes de la raison (exemple : le

15

principe de non contradiction), les axiomes (ex: le tout est plus grand que la partie), etc. • l'évidence sensible ou empirique, qui se fonde directement sur l'expérience et le témoignage de nos sens (ex: une sensation visuelle, auditive, etc.). Le problème philosophique posé par l'évidence peut être énoncé ainsi: peut-on être sûr que la vérité, au moins dans certains cas, se manifeste d'elle-même, au point qu'il soit impossible de prendre le faux pour le vrai? A l'encontre de cette thèse, on pourrait se demander s'il n'y a pas des cas où ce que l'on croyait absolument vrai (évident) s'est révélé faux. ¾ En ce qui concerne l'évidence sensible: les illusions des sens nous montrent que bien souvent ce qu'on croyait évident ne l'est pas. ¾ Cela va moins de soi pour ce qui est de l'évidence rationnelle, mais il semble pourtant que la même conclusion s'impose: en effet, le modèle que prend Descartes pour bâtir sa théorie de l'évidence est le modèle mathématique : pour lui, les vérités mathématiques sont telles qu'il suffit de les considérer attentivement pour savoir avec certitude qu'elles sont vraies. Le problème, c'est que l'histoire des mathématiques a montré que ce que l'on prenait pour des vérités évidentes, incontestables, n'en étaient pas; par exemple, le ème postulat d'Euclide: « Par un point pris hors d'une droite il passe une parallèle et une seule » ; ou encore l'axiome « le tout est plus grand que la partie » ; ces prétendues vérités évidentes sont fausses dans les géométries non euclidiennes (Riemann, Lobatchevski) et dans la théorie des ensembles, ce qui montre que les vérités mathématiques ne sont pas absolues mais hypothético-déductives (c'est-à-dire qu'elles ne sont vraies qu'à l'intérieur d'un système défini). À partir de là, il semble que la notion d'évidence ne permette pas de faire la différence entre ce qui est de l'ordre de la croyance (le fait d'être convaincu qu'une chose est vraie, d'en avoir une assurance seulement subjective) et ce qui est de l'ordre du savoir (le fait de posséder les raisons objectives (ou les preuves) qu'une chose est vraie). D'où deux solutions possibles: → soit adopter une position sceptique: on ne peut pas se fier à l'évidence, ce qui signifie qu'on ne peut jamais savoir si, quand une chose nous semble vraie, elle l'est véritablement (il n'y a pas de critère net permettant de faire la différence entre le vrai et le faux); → soit, comme le font des épistémologues contemporains (comme Karl Popper par exemple), proposer une nouvelle définition de la vérité, notamment de la vérité scientifique comme n'étant pas absolue, mais relative : une vérité scientifique n'est vraie qu'à un moment, ou encore une théorie scientifique n'est vraie que tant qu'elle n'a pas été réfutée; une théorie scientifique vraie n'est que la meilleure explication disponible, rendant compte du maximum de phénomènes (exemple : la théorie newtonienne a été dépassée par la théorie einsteinienne, qui

16

2.1. L’utilité : La représentation de la réalité introduite par les modèles doit également être utile. Le modèle doit permettre de situer les enjeux et d’envisager des possibilités de les affronter (l'utilité ainsi définie n'induit pas pour autant un modèle instrumental). L'évaluation du modèle devra mêler ainsi des capacités explicatives, compréhensives et dans une très moindre mesure, opérationnelles prenant chacune plus ou moins d'importance en fonction des instances évaluatrices auprès desquelles sont faites les différentes restitutions (Bournois, 1993). Ceci dit, place à la découverte de l’unicité de ce livre synthétique sur les fondements et autres méthodes en gestion appliquée. Bonne lecture!

explique non seulement tous les phénomènes dont rend compte la théorie newtonienne, mais encore un grand nombre d'autres). Ce qui fait reconnaître une théorie scientifique comme vraie, ce n'est pas un critère interne, comme l'évidence (c'est-à-dire la seule considération des équations qu'elle comporte) mais un critère externe, à savoir son pouvoir explicatif. La notion d'évidence est une notion dont peut se passer actuellement la théorie de la connaissance. Cependant, ne pas se fier à l'évidence dans le domaine théorique ne nous oblige pas à adopter une position sceptique; l'épistémologie développée au 21ème siècle montre comment on peut élaborer une conception de la vérité cohérente sans la fonder sur l'évidence.

17

Introduction Les différents aspects liés à la vie organisationnelle et à son environnement (physique, social ou politique) suscitent depuis toujours une multitude d’interrogations. Pour y formuler des réponses, il a constamment existé des formes de réflexion théorique et des tentatives raisonnées d’expérimentation. Toutefois les hommes ont le plus souvent bâti leurs explications sur la base des préjugés, de la foi religieuse, des conjectures, des traditions culturelles, des superstitions, des intuitions ou du sens commun. Si ces explications ne sont certes pas dénuées de pertinence, rien ne permet d’estimer si les affirmations qui en découlent sont fondées ou non. Aussi, des méthodes ‘scientifiques’ de recherche permettant de rassembler des faits vérifiables, d’expliquer ou de mettre à jour de façon objective des concepts ont graduellement été mises en place. Ces méthodes ont donné lieu à un remarquable essor des connaissances dans différentes sphères du savoir. À partir du XVIe siècle (en particulier avec Francis Bacon) elles ont été organisées et encadrées par un ensemble de normes et de règles. Depuis, la recherche scientifique est devenue la voie privilégiée du développement du savoir. La recherche est un puissant outil d’étude scientifique et ses retombées sur la qualité de vie des populations sont immenses (avancées technologiques, augmentation de l’espérance de vie dans les sociétés industrialisées, amélioration de la lutte contre le cancer, progrès dans la prise en charge des individus affectés par le SIDA, etc.). De plus, elle a aussi bouleversé les comportements individuels et les données sociologiques dans tous les secteurs, que ce soit dans les arts, le domaine militaire, les énergies, les communications, l’alimentation, l’urbanisme, les loisirs, la pédagogie, ou l’économie. Elle s’est également imposée en référence dans la société comme moteur de l’opinion publique. À titre illustratif, depuis 2008, la publication d’études et de rapports de recherche ciblant les sables bitumineux comme une source d’énergie hautement polluante ont poussé l’opinion publique canadienne à s’interroger sur le bien-fondé de l’exploitation croissante des sables bitumineux et sont à l’origine d’une fracture d’opinions au sein de la population canadienne. De même, avec les études de plus en plus nombreuses révélant les bienfaits des acides gras oméga-3 sur le bon fonctionnement de l’organisme (notamment sur les systèmes cardiovasculaire, hormonal, neuronal et immunitaire), on assiste à une multiplication des produits enrichis aux oméga-3 (yaourt, lait, œufs, huile végétale, etc.) sur les tablettes des rayons d’épicerie. Cette effervescence autour des oméga-3 traduit l’engouement d’une partie de la 19

population pour les produits et régimes alimentaires favorisant la consommation de ces acides gras. Mais au-delà de l’opinion et des comportements individuels, la recherche est également susceptible d’influencer les décisions des gouvernements ou des entreprises. En exemple, suite à une série d’études démontrant les multiples effets néfastes pour la santé humaine et pour le développement des jeunes enfants, qui résultent d’une exposition au plomb, d’importants efforts ont été entrepris par les pouvoirs publics (contrôle des émissions atmosphériques et normes de rejets) et par les industriels pour réduire les émissions et caractériser la pollution résiduelle. En outre de nombreux pays ont interdit l’utilisation du plomb comme antidétonant dans l’essence. Au Canada, selon le Règlement sur l'essence entré en vigueur le 1er décembre 1990 en vertu de la Loi canadienne sur la protection de l'environnement, la production, l'importation et la vente d'essence au plomb pour les voitures sont complètement interdites (Ministère de la Justice, 2012). L’impact de la recherche sur la vie en société est tel qu’elle est utilisée par toutes les sphères organisationnelles. Ainsi, en période électorale les candidats se basent sur les résultats de recherches disponibles (évolution sur une période donnée de la criminalité, du nombre de décès dus aux accidents de la route, du taux de chômage, de la dette publique, du pouvoir d’achat, de l’immigration, etc.) pour appuyer leurs propos et/ou justifier (ou au contraire critiquer) une action politique mise en place. De leur côté, les entreprises font appel à la recherche pour assurer puis mesurer la capacité d’innovation de leur organisation, pour évaluer leurs pratiques organisationnelles, pour étudier les liens caractérisant les variables de phénomènes donnés de gestion ou encore pour une analyse de marché dans le cadre du lancement d’un nouveau produit ou service. Leurs messages publicitaires font référence à des tests ou des études scientifiques pour inciter à la consommation d’un produit spécifique. Face aux multiples usages de la recherche et à l’impact qu’elle a sur la population en général, la recherche doit être menée de façon rigoureuse, objective et transparente. En gestion appliquée, elle vise à procurer une meilleure compréhension du comportement humain et social, tout en améliorant les connaissances dans un éventail de domaines sociaux, économiques, politiques et culturels. Mais, du fait de la complexité du comportement humain, des limites éthiques que pose la recherche sur les humains, de la variété des intérêts mis en jeu et de la nature subjective des pensées de chacun, il peut s’avérer malaisé de concilier les exigences de rigueur, d’objectivité et de conformité à la réalité avec le décryptage du comportement humain. Tout chercheur doit donc faire preuve de vigilance tout au long du processus de recherche, s’affranchir de ses préjugés personnels et appliquer une démarche scientifique. Il lui est donc essentiel 20

d’avoir une connaissance approfondie des règles de la méthode scientifique, et de chercher à les appliquer avec le plus de rigueur possible. Appliquer une démarche scientifique implique une rupture par rapport aux croyances, aux fausses évidences et aux partis pris. Elle implique également une construction de l’objet de recherche, autrement dit la construction d’une problématique et d’un cadre analytique (à savoir un cadre théorique et les connaissances nécessaires à son application) approprié à l’observation des faits et à leur interprétation (Chalmers, 1999). « Before an observer can formulate and assent to an observation statement, he or she must be in possession of the appropriate conceptual framework and a knowledge of how to appropriately apply it. » (Chalmers, 1999, p.11) Enfin, la démarche scientifique nécessite une confirmation par les faits. Pour résumer, comme l’énonce Gaston Bachelard (1965) : « Le fait scientifique est conquis, construit et constaté : conquis sur les préjugés, construit par la raison et constaté dans les faits. » (Bachelard, 1965, p. 61) La démarche scientifique exige donc un choix méthodologique approprié, une définition adéquate des ‘instruments’ de recherche et l’application précise et rigoureuse d’un nombre limité de procédés, spécifiquement mis au point pour rassembler l’information pertinente. Cet aspect est primordial pour la recherche; le positionnement méthodologique va influencer les choix faits au cours de la conception et par conséquent, au cours de la réalisation de la recherche. Il définit la manière scientifique d’étudier un phénomène. En effet, selon l’objectif poursuivi, les connaissances acquises, l’objet d’étude, les instruments d’investigation, la nature des données recueillies, la recherche en gestion appliquée adoptera une typologie donnée. Par exemple, fondamentale ou appliquée, conceptuelle ou empirique, quantitative ou qualitative, en laboratoire ou sur le terrain. La recherche peut être catégorisée de différentes façons. En voici quelquesunes (Tremblay et Perrier, 2006). La recherche fondamentale : Elle a pour objet l’exploration de phénomènes donnés afin de faire progresser le savoir, d’établir de nouvelles connaissances dans une discipline donnée, de générer de nouvelles hypothèses et ce, indépendamment de toute retombée pratique. La recherche appliquée : Elle a pour objet l’élaboration d’applications pratiques à partir des connaissances scientifiques disponibles. La recherche technologique orientée vers la prise de décisions et qui construit des outils pour le praticien en est un exemple. 21

La recherche conceptuelle : Ce type de recherche consiste en l’étude de différentes théories afin de définir ou clarifier un concept donné, d’en proposer de nouveaux ou d’en corriger un à partir de données de recherche préexistantes. Plus précisément il s’agit d’une activité de théorisation où l’on tente essentiellement de répondre aux problématiques de recherche par une réflexion sur des faits observés par d’autres chercheurs et sur les idées ou conclusions de ceux-ci. Les faits ne sont pas nécessairement définis ou présentés explicitement. La recherche empirique : Contrairement à la recherche conceptuelle, la recherche empirique réunit de nouvelles données, recueille de nouveaux faits qu’elle analyse dans le but de répondre à une problématique précise. Toute inférence est donc faite sur la base d’un ensemble de données bien définies et explicitement présentées. La recherche quantitative : Elle aborde les phénomènes investigués à l’aide d’instruments de quantification et recueille des données chiffrées qu’elle traite au moyen de modèles statistiques. La recherche qualitative : Dans ce cas, les données recueillies ne sont pas nécessairement chiffrées (ex. des faits historiques, des réalités psychologiques, des avis subjectifs). Elle utilise des techniques spécifiques de collecte et de traitement de données (ex. entrevue, observation participative, analyse de cas). La recherche descriptive : Elle observe, répertorie et décrit de façon systématique les objets à l’étude, afin d’en déterminer la nature et les caractéristiques. Elle permet de regrouper les données ainsi que d’établir des comparaisons, des classifications ou des associations. La recherche explicative : Celle-ci a, quant à elle, pour objet de rechercher des causes, de liens, des principes ou lois permettant de rendre compte d’un phénomène. Ainsi elle clarifie et vérifie les relations entre concepts, ou entre variables. La recherche sur le terrain : Elle se déroule dans un milieu social normal (ex. dans une institution, dans un groupe social) où les chercheurs n’ont aucun contrôle sur les variables impliquées. La recherche en laboratoire : Elle est associée à l’expérimentation. La recherche se déroule dans un milieu artificiel où les chercheurs contrôlent un certain nombre de variables. Les chercheurs introduisent et font varier une condition expérimentale afin d’évaluer un résultat ou de déterminer (à des fins de prédiction) la probabilité qu’un résultat précis survienne dans les conditions provoquées. Bien souvent, les projets de recherche combinent plusieurs des formes présentées ci-dessus. Ainsi en fonction de la réalité étudiée et des finalités du 22

chercheur, une recherche peut être fondamentale et quantitative, ou encore descriptive, qualitative et menée sur le terrain. Avant de se lancer dans un projet de recherche, il est essentiel de déterminer et de comprendre en profondeur la forme de recherche à adopter, sa logique, ses règles, ses avantages et ses limites. Il est tout aussi important de pouvoir en faire une évaluation critique. C’est dans ce cadre que s’inscrit le présent livre. Il s’intéressera principalement à la recherche empirique et s’attardera sur les approches méthodologiques généralement associées à ce type de recherche. Afin de fournir un outil de référence destiné aux personnes désireuses de comprendre la méthodologie de recherche empirique appliquée en gestion appliquée, le présent livre examine le processus de la démarche empirique, en mettant l’accent sur les méthodes quantitatives et qualitatives permettant de créer, tester ou mesurer un objet (un concept, une théorie ou un outil). Il est principalement destiné aux néophytes cherchant à comprendre et exploiter les résultats d’une recherche scientifique, ou à ceux cherchant à évaluer de façon critique l’importance, la rigueur et la portée d’une recherche empirique. Le but principal de ce livre est de présenter les fondements de la recherche scientifique afin de permettre leur mise en application dans le cadre de la gestion d’un projet original de recherche, ou dans le cadre de l’évaluation critique d’une recherche empirique. Il s’agira donc de se familiariser avec les principales étapes de la construction d’un projet de recherche, de la formulation à la résolution d’une problématique de recherche. Il s’agira également de mettre en lumière l’importance de la cohérence du choix méthodologique lors de cette construction. Aussi les objectifs seront de : ƒ

Dégager une vision pluraliste et rigoureuse du processus de recherche;

ƒ

Connaître les règles de l’art et les dimensions non écrites du métier de chercheur et savoir les appliquer dans une démarche de recherche;

ƒ

Développer les connaissances et habiletés requises à la conception et à la critique d’une problématique, d’une méthodologie ainsi que d’une proposition de recherche;

ƒ

Établir la différence entre méthodologies et méthodes quantitatives ou qualitatives;

ƒ

Connaître de façon précise la portée et les limites de la recherche qualitative;

ƒ

Posséder une vision claire du continuum quantitatif-qualitatif dans les méthodes de recherche; 23

ƒ

Être en mesure de faire un choix approprié de la méthodologie en fonction des particularités d'un sujet de recherche et de la réalité étudiée. Ce livre étant destiné à récapituler la démarche scientifique et les règles régissant une recherche empirique, il sera établi sur la base de guides de la démarche scientifique en gestion appliquée (ouvrages et articles permettant la construction et la réalisation d’une recherche scientifique spécifique), sur des exemples pratiques et sur une revue de la littérature pertinente.

Le livre s’articule autour de trois parties principales : Partie I : La recherche en gestion appliquée – fondements, élémentsclés et exigences de la démarche scientifique

ƒ

Partie II : Les approches qualitatives et quantitatives en gestion appliquée et l’articulation méthodologique des recherches

ƒ

Partie III : L’utilisation et le traitement des données quantitatives et des données qualitatives

ƒ

En présentant les fondements épistémologiques de la recherche en gestion appliquée, la partie I permettra de spécifier les conditions sous lesquelles une recherche peut être considérée scientifique. Elle comporte trois chapitres. Le chapitre 1 nous donnera l’occasion de comprendre ce qu’implique la notion de science et introduira la recherche scientifique, son rôle ainsi que ses grandes étapes. La place qu’occupe l’activité de recherche dans les sciences fera l’objet du chapitre 2. Nous y examinerons aussi les éléments majeurs, autour desquels se constitue un projet de recherche, et qui orientent le chercheur dans la mise en œuvre des différentes étapes de sa recherche. Puis nous nous familiariserons avec les diverses formes que peuvent prendre un projet de recherche. Enfin, le chapitre 3 explorera la logique d’un type particulier de recherche largement utilisé en gestion appliquée, la recherche empirique. Dans ce chapitre, nous approfondirons notre compréhension des notions de validité et de fiabilité, ainsi que celle de concepts-clés comme la question de recherche, le cadre analytique, les grilles d’analyses, les hypothèses, la mesure, l’opérationnalisation et la mesure. En vue de comprendre ce qui peut motiver le choix d’une approche de recherche, la deuxième partie approfondira notre connaissance des approches qui orientent la recherche empirique en gestion appliquée et nous permettra de comprendre le plan de recherche et l’articulation méthodologique qui découlent du choix de chacune des approches. Le chapitre 4 s’intéresse aux recherches pilotées par la théorie, c’est-à-dire les recherches visant à tester ou mesurer une théorie ou un concept. Il présentera quelques designs de recherches pilotées par la théorie et introduira les approches quantitatives. Le 24

chapitre 5 nous introduit aux designs exploratoires et à ceux visant à construire une théorie. Ce chapitre nous fournit également une introduction aux approches qualitatives et à leurs particularités dans le cadre des recherches menées en gestion appliquée. Pour finir, le chapitre 6 présente la méthodologie et la logique de recherche adoptée dans le cadre de recherches utilitaires engagées dans le développement et l’évaluation de designs innovateurs (outils, interfaces utilitaires, méthodes, procédures, etc.) employés par une pratique disciplinaire. La troisième et dernière partie de ce livre se penche un peu plus sur les outils méthodologiques utilisés pour traiter les données quantitatives et celles qualitatives lors de leur collecte, puis de leur analyse. Le chapitre 7 présente la mesure et l’acquisition de données quantitatives. Il situe les étapes de la recherche au cours desquelles le chercheur doit acquérir des informations et approfondit notre compréhension des techniques et instruments de mesures appliqués alors pour obtenir les données pertinentes. De plus il préconise différentes opérations pour réaliser l’acquisition des données de manière adéquate. Le chapitre 8 introduit l’analyse des données quantitatives et nous familiarise avec les fondements de l’analyse statistique, tandis que le 9 traite de l’analyse structurée de données qualitatives. Enfin le 10ème et dernier chapitre survole les moyens de présenter ou de rendre compte du travail de recherche. Il contient également quelques conseils sur la gestion générale d’un projet de recherche.

25

Chapitre 1 La notion de recherche scientifique

1. La notion de « science » Avant de nous pencher sur la notion de recherche scientifique, il est important d’appréhender celle de science. Selon le Nouveau Petit Robert de la langue française (édition 2012), le terme science peut être associé au mot connaissance. Il peut également être assimilé au « savoir-faire que donnent les connaissances ». Cependant le concept de ‘science’ est une abstraction générale qui recouvre une réalité multidimensionnelle plus complexe. En effet, comme le rappelle le philosophe des sciences Ernest Nagel dans son ouvrage, The structure of science: Problems in the logic of scientific explanation: « The words ”science” and “scientific” […] are labels either for an identifiable, continuing enterprise of inquiry or for its intellectual products, and they are often employed to signify traits that distinguish those products from other things. » (Nagel, 1979: p. 2) Avec les multiples facettes qu’englobe le terme, il n’existe pas de définition unique de la science. Le Nouveau Petit Robert explique LA science comme l’« Ensemble des travaux des sciences; connaissance exacte, universelle et vérifiable exprimée par des lois.» La science, ainsi présentée, désigne un corpus particulier de connaissances concrètes des phénomènes humains et naturels, acquises au moyen de l’expérimentation, de l’analyse ou de l’introspection. Cette définition n’est toutefois pas consensuelle. Ainsi selon l’astrophysicien américain Carl Sagan, la science fait plutôt référence au moyen de production de ce type de connaissances : « Science is a method rather than a body of knowledge » (Sagan, 1979: p. 82) Cette vision de la science rejoint quelque peu celle formulée par le célèbre physicien Albert Einstein. Pour ce dernier, la science est un examen raisonné et objectif des faits observés, basé sur l’expérimentation et permettant de structurer logiquement la pensée : « Science is the attempt to make the chaotic diversity of our sense experience, correspond to a logically uniform system of thought. In this system single experiences must be correlated with the theoretic structure in such a way that the resulting coordination is unique and convincing. » (Einstein, 1940: p. 487) L’anthropologue américain Joseph Campbell, de son côté, voit surtout en la science un système de suppositions temporaires et d’anticipations 27

provisoires qui, tant qu’elles résistent aux tests de réfutabilité, permettent d’expliquer au mieux la réalité (au vu de l’état des connaissances sur le sujet et de l’efficacité plus ou moins grande des instruments disponibles à un moment précis) : « Science does not and cannot pretend to be true in any absolute sense. It does not and cannot pretend to be final. It is a tentative organization of mere working hypotheses. » (Campbell, 1972: p.15) Pour sa part, Loren C. Eiseley, un autre anthropologue américain, conçoit avant tout la science comme un phénomène purement socio-culturel, une institution qui travaille à l’amélioration du savoir humain ou des technologies. Cette institution repose, avant tout, sur l’observation systématique du monde naturel, l’expérimentation et le raisonnement. Il la définit en ces termes: « Science among us is an invented cultural institution, an institution not present in all societies, and not one that may be counted upon to arise from human instinct. Science exists only within a tradition of constant experimental investigation of the natural world. » (Eiseley, 1973: pp.18-19) Selon le sociologue et anthropologue québécois Marc-Adélard Tremblay, la science doit être appréhendée dans sa mesure multidimensionnelle. Il voit en la science un système intégré de connaissances empiriques sur un objet particulier, système régi par un ensemble de normes spécifiques, et indissociable de la pratique professionnelle (i.e. des disciplines) qu’elle engendre. Il écrit : « La science est essentiellement un effort visant à obtenir des connaissances du réel qui soient rigoureuses et qui puissent être systématisées et interprétées. Par voie de conséquence, ces connaissances peuvent être jugées objectives puisqu'elles proviennent d'une méthodologie qui obéit aux exigences (canons et procédés) de la science. Finalement, la science s'extériorise dans des activités professionnelles particulières. » (Tremblay, 1968 : p. 17) Loin d’être exhaustives, ces quelques définitions illustrent la pluralité et la complexité des conceptions associées à la notion de science. Celle-ci ne peut être conçue (et donc définie) par une catégorie unique. Selon l’épistémologiste Alan Chalmers, concevoir ‘la science’ comme une catégorie présuppose que les différents domaines du savoir doivent se situer soit à l’intérieur, soit à l’extérieur de cette catégorie, ce qui n’est pas le cas :

28

« There is no general account of science and scientific method to be had that applies to all sciences at all historical stages in their development. » (Chalmers, 1999: p. 247) D’après l’auteur, plutôt que d’analyser le statut scientifique d’un domaine donné du savoir, il convient plutôt de l’analyser selon ses buts, les moyens utilisés pour les atteindre, et le degré de succès que ces moyens atteignent. Car, comme il le souligne: « At any stage in its development, a science will consist of some specific aims to arrive at knowledge of some specific kind, methods for arriving at those aims together with standards for judging the extent to which they have been met, and specific facts and theories that represent the current state of play as far as the realisation of the aim is concerned. Each individual item in the web of entities will be subject to revision in the light of research. » (Chalmers, 1999: p. 168) Ainsi, UNE science désignera une discipline (ou un domaine d’étude) définie par trois critères concomitants, à savoir : Un objet d’étude réel et explicité (phénomènes, personnes, groupes, systèmes, etc.) ƒ des concepts propres et organisés en réseau ƒ une méthodologie de recherche explicite. ƒ

2. Les caractéristiques des sciences Pour reprendre la définition DES sciences telle qu’énoncée par le Nouveau Petit Robert, les sciences sont des : « Ensemble(s) de connaissances, d'études d'une valeur universelle, caractérisées par un objet (domaine) et une méthode déterminés, et fondées sur des relations objectives vérifiables. » (Le Nouveau Petit Robert de la langue française, édition 2012)

2.1. Un objet d’étude Les sciences se définissent avant tout par un objet, qui est à la base de leurs énoncés. L’objet dont traite une science est un élément de la réalité (ex. l’homme, la nature, la société, la pensée, un système linguistique, les tendances économiques, etc.), dont l’existence est déterminée et qui est clairement identifié5.

5

Ainsi de manière simpliste, l’informatique a pour objet d’étude le calcul et la manipulation de tout type d’information formelle; la physique traite de façon quantitative et conceptuelle les lois régissant la nature et son évolution dans l’espace

29

Selon leur objet d’étude, il est possible de catégoriser les sciences. Bien qu’il existe plusieurs manières de les regrouper6, nous pouvons distinguer les sciences formelles des sciences empiriques. Les sciences formelles ont pour objet, l’étude déductive et rigoureuse des systèmes axiomatiques et des entités abstraites. Leur objet d’étude est donc conceptuel. Elles regroupent les mathématiques, la logique et l’informatique. Pour leur part, les sciences empiriques portent sur l’étude d’objets concrets liés à une réalité empiriquement accessible par l’expérience sensorielle. Elles regroupent deux grandes familles : les sciences naturelles et les sciences sociales. Les sciences naturelles ont pour objet d’étude, les différentes facettes de la nature, les phénomènes naturels, les objets inanimés et les êtres vivants. Elles comprennent entre autres la physique, la chimie, la géologie, la biologie, l’astronomie, l’écologie. Quant aux sciences du sociale, elles appliquent le raisonnement scientifique à l’étude des structures sociales et de divers aspects de la vie organisationnelle, individuelle ou collective, passée ou présente. Elles regroupent les disciplines comme l’anthropologie, l’histoire, la géographie, la sociologie, la psychologie, la science politique, l’économique, la linguistique, les sciences de l’éducation, etc. Il est toutefois important de noter que si l’objet d’étude d’une science est relativement simple à définir et si les diverses sciences se distinguent les unes des autres par leur objet, la définition des frontières du domaine couvert par une discipline n’est pas toujours exacte et précise. De ce fait plusieurs disciplines admettent des chevauchements avec d’autres disciplines. Ce phénomène est parfaitement illustré par l’émergence des branches multidisciplinaires comme la chimie quantique, la biochimie (où la chimie recoupe respectivement la physique et la biologie), l’astrophysique (branche de l’astronomie s’intéressant à la physique et aux propriétés des objets

et le temps; la chimie a pour objet d’étude la composition et les réactions de la matière; la microbiologie étudie les microorganismes et les êtres unicellulaires; l’astronomie a pour objet l’étude des corps célestes; la psychologie se consacre à l’étude des comportements et des processus de la pensée; la politique s’intéresse à l’étude du pouvoir, à l’organisation des institutions gouvernementales et aux groupes participant à la vie politique nationale et internationale; l’objet de l’anthropologie est l’étude de l’origine et de la diversité des êtres humains et de leurs sociétés; etc. 6 Pour une revue des différentes classifications des sciences, voir Sagaud (2009); Introduction à la pensée scientifique moderne ; Université Pierre et Marie Curie, Paris

30

célestes), ou la bio-informatique (qui se situe à la frontière entre la biologie et l’informatique).

2.2. Un contenu universel et structuré autour de l’objet d’étude Une science doit apporter des connaissances produites par des moyens d’investigations systématiques7 et clairement explicités. Ces connaissances s’intègrent dans un ensemble cohérent, autour de l’objet d’étude. Elles doivent pouvoir être justifiées et validées, indépendamment de la personne procédant à la validation. Autrement dit, les connaissances apportées doivent être objectives, définies de manière rigoureuse et (dans la mesure du possible) sans équivoque. Une autre propriété du contenu scientifique est son caractère universel. Du point de vue scientifique, tous les lieux de l’espace et du temps sont équivalents, aussi les connaissances apportées par la science contribuent à énoncer des théories et à produire des lois générales, applicables n’importe où.

2.3. Un but Les sciences sont engendrées par le désir de trouver une explication aux faits. Aussi leur but général est l’organisation et la classification des connaissances sur la base de principes explicatifs (Nagel, 1979). Pour la science, tout phénomène est la conséquence nécessaire de conditions simultanées. Elle est donc fondée sur le déterminisme. L’explication des faits passe par la caractérisation de leurs conditions génératrices ou des mécanismes permettant leurs survenues. « The sciences seek to discover and to formulate in general terms, the conditions under which events of various sorts occur, the statements of such determining conditions being the explanations of the corresponding happening. » (Nagel, 1979: p. 4) Toutefois une distinction communément faite oppose, en fonction de leurs buts respectifs, les sciences fondamentales et les sciences appliquées. Les sciences fondamentales visent en priorité l’acquisition de connaissances nouvelles sur le monde et la progression du savoir théorique (ex. l’astronomie). Les sciences appliquées produisent, avant tout, des connaissances permettant l’application pratique du savoir à la résolution de problèmes concrets (ex. la médecine).

7

Le terme « systématique » fait référence au fait d’utiliser, de manière précise et rigoureuse, des procédés spécifiquement mis au point pour rassembler l’information pertinente.

31

Malgré cette distinction, il n’existe pas un clivage réel entre ces catégories. Selon le contexte, plusieurs disciplines peuvent aussi bien être fondamentales qu’appliquées (ex. la biologie, la psychologie ou l’anthropologie). En outre, les sciences fondamentales et appliquées forment un système continu et interactif. Ainsi, les sciences appliquées tirent des enseignements des sciences fondamentales. De même les obstacles rencontrés par les sciences appliquées, lors de la mise en application du savoir, ouvrent souvent la voie à de nouvelles découvertes en sciences fondamentales.

2.4. Une méthode appropriée et explicite Afin de forger son contenu et de le faire évoluer, chaque science utilise une méthode de recherche précise, explicite, systématique et adaptée au but de la science, ainsi qu’à l’analyse des phénomènes d’intérêt. Cette méthode se définit autour d’un aspect spécifié de l’objet d’étude, et se distingue de toute autre sorte de quête de connaissance par les objectifs et par les moyens qu’elle met en œuvre, selon les règles et exigences de la science, pour atteindre ces objectifs : c’est la recherche scientifique. Elle est destinée à mettre à jour des explications systématiques et vérifiables, c’est-à-dire démontrables par des faits observables et/ou mesurables. Puisqu’ils visent l’acquisition d’un savoir objectif, les protocoles de recherche mis en place tentent de s’affranchir, autant que possible, de tout biais d’ordre pratique ou personnel. Les protocoles de recherche sont très variés. Dans leur quête du savoir, plusieurs disciplines ont recours à l’expérimentation (ex. la physique, la biologie, la chimie). Elles construisent alors et contrôlent un dispositif expérimental reproduisant certaines conditions de la réalité et certains aspects des phénomènes à l’étude. Ce faisant, elles distinguent ou isolent certaines propriétés des sujets étudiés et découvrent les schémas répétitifs de dépendance entre ces propriétés. En conséquence, la vérification des explications passe par la reproductibilité des résultats. Toutefois, pour d’autres disciplines, la nature des objets d’étude ne permet pas de satisfaire l’exigence de reproductibilité, ni de créer un environnement expérimental de substitution (ex. l’économie, l’histoire, la géographie, l’astronomie). Ces disciplines possèdent leurs propres critères de vérification et mettent alors en pratique des protocoles de recherche basé sur l’observation, la modélisation ou encore la simulation numérique. Quel que soit le type de protocole de recherche adopté, les sciences obéissent aux principes de base suivants de la démarche scientifique moderne (voir Tremblay, 1968; Tremblay et Perrier, 2006; Del Balso et Lewis, 2007) : L’objectivité : l’objectivité est fondée sur le doute et remet continuellement en question les connaissances acquises. Quels que soient

ƒ

32

leurs opinions personnelles, leurs préjugés, leurs convictions ou autre biais de même nature, les chercheurs sont tenus de demeurer objectifs dans chacune des phases de leurs travaux, c’est-à-dire de maintenir une neutralité devant les faits, qui ne seront ni rejetés ni acceptés sans avoir été soumis à un examen critique systématique et rigoureux. ƒ La vérification empirique : les connaissances scientifiques proviennent de l’étude du monde réel. Une théorie scientifique doit être validée par des observations démontrant la correspondance ou l’équivalence entre la théorie et les faits établis. La transparence : Les outils conceptuels et méthodologiques, les conditions expérimentales, les observations, la logique du raisonnement, ainsi que les résultats de la recherche, sont décrits de manière claire, rigoureuse et suffisamment détaillée pour permettre à des observateurs indépendants de répéter les observations, de vérifier ou d’évaluer de façon critique le produit de la recherche.

ƒ

La cohérence : Dans une même discipline, les théories doivent être articulées de façon logique et rationnelle en un système explicatif cohérent, sans se contredire l’une l’autre.

ƒ

L’éthique : Le processus de recherche doit adhérer à des normes éthiques assurant éventuellement le respect des droits et de la dignité des personnes impliquées.

ƒ

La faillibilité des théories : Les théories qui expliquent les phénomènes en faisant intervenir des facteurs ou des causes particulières doivent être faillibles ou réfutables. Autrement dit, elles doivent avoir des conséquences concrètes, observables le cas échéant, qui permettront de confirmer ou d’infirmer lesdites théories. Ainsi un énoncé impossible à démentir comme « demain il y aura des sauterelles dans le champ ou il n’y en aura pas » n’est pas scientifique.

ƒ

Le caractère provisoire des conclusions de recherche: Il n’existe pas de vérité définitive ou absolue en science. Toute conclusion scientifique est considérée comme vraie jusqu’à ce qu’elle ait été invalidée ou qu’une explication plus exacte ou plus complète ait été fournie. En outre, toute recherche s’inscrit dans une démarche collective et coopérative : elle s’inscrit dans la continuité des recherches antérieures et prépare le terrain pour les recherches à venir.

ƒ

La recherche de généralisations : La science s’efforce de formuler en termes généraux les explications qu’elle apporte sur des faits existants. Toutefois, la globalité de ces faits ne pouvant être soumise à une étude exhaustive, les propositions scientifiques sont faites à partir d’un nombre relativement faible d’observations. Il importe donc de déterminer le caractère universel ou particulier de chaque conclusion. Aussi la

ƒ

33

généralisation des résultats se fait en prenant en compte le degré d’homogénéité de l’univers, la représentativité du contexte d’étude (unités sous observations, conditions ou situations expérimentales, etc.), la nature et la variabilité des résultats.

3. Une introduction à la recherche scientifique Comme nous l’avons vu, l’activité de recherche est au cœur des sciences. Elle permet de faire évoluer le savoir, d’évaluer et de réviser les observations, lois ou théories servant d’assises à la science. Elle constitue le moyen privilégié par lequel les sciences mettent à jour un ensemble de propositions logiquement unifiées en un système explicatif, ainsi que les liens qui existent entre elles. « To explain, to establish some relation of dependence between propositions superficially unrelated, to exhibit systematically connections between apparently miscellaneous items of information are distinctive marks of scientific inquiry. » (Nagel, 1979: p.5) En rassemblant des faits selon des règles précises, la recherche permet à chaque discipline de développer un corps de connaissances qui lui est propre. Elle lui permet entre autres : ƒ ƒ ƒ ƒ ƒ ƒ ƒ

De produire de nouvelles connaissances utiles directement ou non à la pratique; De valider ou de raffiner des connaissances existantes; D’organiser et de classifier différentes formes d’informations; De développer une pensée critique; D’apporter une solution à un problème donné; D’évaluer un enjeu spécifique; D’établir un pont entre la théorie et la pratique dans un cadre disciplinaire précis.

Chaque science étant caractérisée par une méthodologie de recherche qui lui est propre, il existe plusieurs façons de définir la recherche. Mais de façon générale, il est admis qu’elle constitue un processus dynamique, caractérisé par une démarche systématique et rigoureuse, et dont le but général est d’étudier et de comprendre objectivement une situation problématique ou un phénomène donné, afin d’apporter une réponse cohérente à une question précise. Cette réponse sera intégrée dans le système de connaissance propre à la science qui l’a suscitée. Pour reprendre la description de Benoît Gauthier, spécialiste en recherche sociale et stratégique : « La recherche est une activité de quête objective de connaissances sur des questions factuelles. » (Gauthier, 2009: p. 5) 34

De façon simplifiée, on peut donc considérer que la recherche consiste à poser une question claire et précise, à la traiter adéquatement (en synthétisant les éléments de réponses qui lui ont déjà été apportés, et en utilisant un cadre conceptuel ainsi qu’un outillage appropriés et explicites pour mettre à jour de nouveaux éléments) afin d’y répondre avec un texte clair et une structuration logique. Gauthier souligne le caractère centré sur la réalité de la recherche (Gauthier, 2009). Elle part du principe que la connaissance est imparfaite et relative, et s’interroge sur une situation réelle bien définie, avec un outillage précis et adapté.

4. Les étapes majeures d’une recherche scientifique Comme tout processus, la recherche s’effectue en plusieurs étapes, structurées autour des trois actes de la démarche scientifique : la rupture, la construction et la constatation. Il existe plusieurs façons de présenter ces étapes (voir : Quivy et van Campenhoudt, 1995; Fortin, 1996; Veal, 1997; Mayer et coll., 2000; Del Balso et Lewis, 2007; Gauthier, 2009). Elles représentent toutes le même processus composé des mêmes étapes. Pour les besoins du livre, nous proposons ici un modèle en 13 étapes, regroupées en quatre grandes phases inter-reliées.

4.1. La phase conceptuelle Elle sert à poser le problème, à le documenter, à le contextualiser, à en établir les bases théoriques. Elle sert également à formuler le but, les objectifs, la question et les hypothèses de recherche. La phase conceptuelle donne à la recherche ses assises, son sens, sa perspective et par conséquent sa portée. Elle est extrêmement importante puisque les autres phases et leurs étapes s’inscrivent dans le prolongement de la problématique et des objectifs définis au cours de cette phase. Les étapes de la phase conceptuelle sont : Le choix d’un problème de recherche et la définition d’une question préliminaire : En s’appuyant sur des observations, des expériences professionnelles ou personnelles, des écrits de recherche, des théories, le chercheur formule un problème de recherche pour lequel il n’existe aucune solution satisfaisante disponible, ou face auquel il demeure un défaut total ou partiel de connaissances, une incertitude, des rapports contradictoires ou encore une absence de vérification. Le chercheur soulève donc une question traduisant une préoccupation majeure en rapport avec son domaine d’intérêt et qui, au vu de sa pertinence pour l’avancement des connaissances et/ou la pratique associées à son champ disciplinaire, mérite d’être étudiée ou élucidée. Le choix du sujet dépend également des buts sociaux du travail de recherche (apprentissage, commande d’une organisation ou d’un employeur, contrainte d’une institution, plaisir, etc.) et de la faisabilité de la recherche (capacités du chercheur, réalisme de la recherche, autorisations nécessaires, temps requis, accessibilité à ƒ

35

l’information, etc.). La recherche ne peut cependant pas porter sur un problème global, aussi l’objet de l’étude doit être circonscrit à un segment précis, à une problématique. Cette dernière contextualise l’objet d’étude, lui donne sa profondeur conceptuelle et démontre l’importance ou la pertinence de la recherche proposée. Elle se compose d’un ensemble de questions connexes, dont se dégagera une question préliminaire qui donnera à la recherche sa perspective générale d’approche. La recension des écrits et des faits pertinents : Une fois la question préliminaire choisie, le chercheur fait l’inventaire et l’examen critique de l’ensemble des faits empiriques et des publications ayant déjà abordé les préoccupations majeures de sa question. Ainsi, il explore et analyse des thèses et mémoires académiques, des travaux de séminaires, des articles de revues spécialisées, des publications officielles ou historiques, etc. Il peut également s’entretenir avec des spécialistes (scientifiques ou praticiens) du domaine ou du thème d’intérêt. Plus précisément, la recension est une étape analytique qui consiste à soumettre les idées et travaux antérieurs à la critique, afin d’identifier des tendances ou des orientations, et de discuter des conséquences des choix qui fondent ces orientations. Le chercheur regroupe ainsi les travaux effectués précédemment sur le même thème que le sien, en mettant en lumière les éléments communs, les divergences majeures et les contradictions ressortant de ces travaux. Il met en relief leurs forces et leurs faiblesses. La recension des écrits permet ainsi de faire le point sur le problème et sur les connaissances s'y rapportant, d'identifier des théories et des concepts pertinents à sa compréhension et de générer des idées utiles à la recherche. Elle permet également de voir et d’évaluer les approches ainsi que les décisions méthodologiques et empiriques des autres chercheurs.

ƒ

Le développement d’un cadre de référence : Le cadre de référence situe la recherche dans un contexte de signification particulier et précise l’approche ou le courant théorique qui orientera l’analyse. Il permet au chercheur d’organiser ses idées et de se positionner par rapport aux connaissances disponibles, d’identifier les paradigmes qui correspondent à sa question de recherche et de clarifier sa vision des notions-clés se rapportant à son sujet. Cette étape consiste donc à déterminer les concepts sur lesquels se fonderont l’explication et la compréhension du (des) phénomène(s) à l’étude, à définir ces concepts, à en préciser les limites et à énoncer les liens qui relient les différents concepts les uns aux autres.

ƒ

Formulation du problème de recherche à travers une question spécifique : C’est sur elle que portera directement la recherche, mais elle s’inscrit dans des préoccupations plus larges (celles de la question préliminaire ou de la problématique) qui lui donnent sa profondeur et sa pertinence. Elle permet de réduire l’éventail possible des options de

ƒ

36

recherche à la dimension du réalisable, en tenant compte de la durée de l'enquête et des ressources (humaines et matérielles) dont le chercheur va effectivement disposer pour la réalisation du projet. L’énoncé de la question spécifique adresse donc le problème de départ dans un cadre ou un contexte clairement délimité. Elle identifie les concepts ou variables à l’étude et le cadre spatio-temporel dans lequel se situe la recherche. But(s), objectif(s) spécifique(s) et/ou hypothèse(s) de recherche : L’aboutissement de la phase conceptuelle consiste à indiquer la raison d’être de la recherche, à en préciser le type (ex. exploratoire, descriptif, explicatif, évaluatif, prédictif) au regard du savoir existant et à expliciter ce que la recherche se propose d’apporter de nouveau. Ainsi, la formulation du (ou des) but(s) de la recherche découle de la question spécifique et précise l'orientation de la recherche (ex. identifier, décrire, vérifier, tester, expérimenter, évaluer, prédire). Il est généralement formulé en une phrase et comprend les variables-clés de l’étude et la population visée. Les objectifs sont des énoncés précis, simples et directionnels. Ils incluent une ou deux variables ainsi que les relations entre elles, et s’inscrivent dans l’orientation précisée par le but. Autrement dit, ils précisent les opérations concrètes de recherche qui mèneront à la réalisation du but de la recherche. Des hypothèses de recherche non validées empiriquement, sont éventuellement proposées en réponse temporaire à la question de recherche. Elles anticipent les résultats attendus de la recherche ou proposent des pistes cohérentes de solutions au problème de recherche. Ces réponses prédites seront soumises à une vérification au cours de la recherche afin d’être confirmées ou infirmées. La forme que prend une hypothèse dépend du type de recherche menée. Ainsi par exemple, dans une recherche conceptuelle, l’hypothèse prendra généralement la forme d’une définition ou d’un élément de définition; dans le cas d’une recherche appliquée, elle prendra la forme d’une solution à un problème particulier.

ƒ

4.2. La phase méthodologique C’est une phase de planification qui permet de préciser les méthodes et procédures à utiliser pour obtenir des réponses aux questions et pour valider ou rejeter les hypothèses de recherche. La phase méthodologique répond à la question suivante : comment s’y prendre pour répondre empiriquement à la question de recherche ? Le chercheur explique et justifie ses choix méthodologiques, décrit le déroulement de sa recherche, puis indique les stratégies de collecte, de traitement et d’analyse des données. La phase méthodologique comprend les étapes suivantes : Le choix du devis de recherche : Ce choix découle du problème de recherche, des objectifs ou des hypothèses formulées. Le chercheur présente donc ou expose les méthodes et les paradigmes choisis auxquels il recourt dans le cadre de sa recherche, puis décrit les instruments ou

ƒ

37

techniques qui seront utilisés. Il existe plusieurs méthodes de recherche (ex. l’étude cas, l’expérimentation, l’ethnographie), et divers instruments permettant de collecter des informations de type qualitatif (ex. entretiens, observations) ou quantitative (ex. échelle de mesure, questionnaire). Le choix de la forme que la recherche adoptera (et des moyens utilisés pour la mener) doit donc s’ajuster à l’objet de la recherche, à sa finalité, aux objectifs soulevés, au type d’informations recherchées, à l’accessibilité des données et aux ressources du chercheur (connaissances, temps, ressources financières, etc.). Définition de la population et/ou de l’échantillon à l’étude : Le chercheur caractérise la population cible (ensemble des éléments qui intéressent l'étude, et à partir duquel seront éventuellement faites des généralisations), l'échantillon (un sous-ensemble de la population, sélectionné par le chercheur pour l’étude) et sa taille. Plusieurs procédures s’appliquent à l’échantillonnage selon les besoins du chercheur.

ƒ

Établissement des principes de mesure : Ces principes sont un ensemble de critères définis par le chercheur, et qui serviront à la sélection (ou l’exclusion) des données collectées. Ils renforcent la stabilité des conclusions de la recherche et assurent la qualité objective des données. Ils comprennent, entre autres, les dispositions prises pour assurer l’exactitude, la fiabilité et la validité des données. Ils permettent aussi de s’assurer que toutes les données ont été recueillies dans des conditions identiques, afin d’éviter l’introduction de biais dus à des variations accidentelles ou systématiques liées aux circonstances de temporalité, au cadre expérimental, aux instruments ou aux conditions de recueil des données. Ils permettent en outre d’obtenir un ensemble de données cohérentes, non disparates et aisément comparables le cas échéant.

ƒ

Planification des stratégies de collecte, de traitement et d’analyse de données : Cette étape correspond au choix des stratégies (entrevues, sondage, observations, etc.) et à la préparation des instruments (questionnaire, grille d’observation, guide d’entretien, etc.) qui seront utilisés pour recueillir les données de recherche. Le plan de recherche décrit le déroulement de la phase empirique, précise les dispositions prises (ex. obtention d’une approbation d’un comité d’éthique, autorisation auprès des responsables du milieu d’étude choisi, consentement des participants à l’étude), présente les estimations budgétaires, ainsi que les échéances prévues pour chaque opération en fonction des ressources (humaines et matérielles) à la disposition du chercheur dans le cadre de la recherche. Le chercheur prévoit et décrit autant que possible les problèmes que pourrait soulever la collecte de données. C’est également à cette étape que le chercheur précise les modes d'analyse qui seront utilisés, les méthodes statistiques (pour les données quantitatives), ainsi que les outils

ƒ

38

de traitement des données qualitatives (ex. analyse thématique, analyse de contenu de données textuelles tirées de documents divers, d’entretiens, de compte rendus, de documents stratégiques ou opérationnels).

4.3. La phase empirique Elle consiste en l’application du choix méthodologique et permet de concrétiser le plan établi lors de la phase précédente. Au cours de cette phase le chercheur procède à la collecte et à l’analyse des données au moyen des instruments choisis. Elle est constituée de deux grandes étapes : La collecte des données : À cette étape, le chercheur recueille systématiquement les données essentielles (faits, informations, observations, etc.), selon le plan et les principes de mesure établis lors de la planification.

ƒ

L’analyse des données : Les données brutes recueillies ne constituent pas en elles-mêmes la finalité de la recherche. Il importe de s’assurer qu’elles respectent les principes de mesure établis, de les traiter ou les regrouper, et d’y exercer un travail d’analyse afin d’en dégager les unités signifiantes. L’analyse des données est fonction du type d’étude et de son but. Ainsi, selon la forme des données recueillies, le chercheur procède à des analyses quantitatives ou qualitatives. L’analyse des données permet de produire des résultats qui seront interprétés et discutés.

ƒ

4.4. La phase d’interprétation et de diffusion Cette dernière phase consiste à dégager la signification des données recueillies, à fournir une explication des résultats obtenus et à les communiquer de façon adéquate. L’interprétation des résultats : À cette étape, le chercheur vérifie l’authenticité de son travail, explique et discute des résultats obtenus en fonction du contexte de l’étude, du cadre de référence élaboré lors de la phase conceptuelle et à la lumière des travaux antérieurs. Il revient donc sur les hypothèses de recherche, invoque les théories et les conclusions de recherches antérieures en rapport avec le sujet étudié. Il fait alors des inférences à partir de ses résultats, tire des conclusions, élabore une théorie ou fait des recommandations pour les recherches ultérieures et/ou pour la pratique.

ƒ

Présentation des données collectées et diffusion des résultats : C’est l’étape finale du processus de recherche qui consiste d’une part à présenter les données recueillies au moyen de textes narratifs, de tableaux, de graphiques, de figures et d’autre part à diffuser les résultats et conclusions de la recherche (rapport, article ou communication) auprès des publics cibles et utilisateurs potentiels des résultats.

ƒ

39

4.5.Un processus non linéaire Le schéma général présenté dans cette section permet d’avoir un aperçu des principales étapes d’une recherche. Il s’applique à toutes les recherches scientifiques, peu importe leur type ou la méthode qu’elles utilisent. Il s’agit cependant d’une représentation simplifiée. En effet, le processus de recherche met en action une multitude de tâches et d’exigences scientifiques qui n’apparaissent pas dans cette présentation générale. De plus, le cheminement présenté n’est pas toujours linéaire. En effet, les quatre phases de la recherche ne sont pas forcément distinctes; elles dépendent l’une de l’autre et s’inscrivent dans une dynamique interactive où certaines phases évoluent simultanément, se corrigent l’une l’autre. Ainsi par exemple, il est parfois impossible de déterminer tous les objectifs de la recherche dès la phase initiale. Aussi le chercheur en ajoute, en modifie ou en supprime durant la recherche. De même, bien qu’elle fasse partie de la phase conceptuelle, la revue de la littérature se déroule généralement tout le long de la recherche. Elle enrichit ainsi constamment les assises théoriques, le cadre de référence ou les options instrumentales, et peut éventuellement réorienter la collecte et l’interprétation des données. Par ailleurs dans la mise en pratique du processus, il existe de nombreux retours en arrière (figure 1.1). Par exemple, si les investigations s’avèrent trop complexes, il faudra limiter les ambitions de départ. Si après une analyse de données, l’interprétation soulève une insuffisance d’évidences empiriques, ou un résultat nécessitant une confirmation par de nouvelles données, ou encore si certaines hypothèses ne s’avèrent pas vérifiées, il faudra peut-être effectuer une nouvelle opération de collecte de données, faire une nouvelle revue de la littérature ou même revoir le cadre de référence. Ces va-et-vient sont inévitables et même nécessaires pour ajuster correctement les étapes entre elles et pour mener une recherche originale bien structurée. En effet, il convient d’ajuster régulièrement au besoin les frontières du sujet, la problématique et le cadre d’analyse. Du reste, le déroulement d’une recherche scientifique n’est pas exempt d’obstacles, d’imprévus ou de sources de confusion. Ces événements fortuits (ex. désistement de participants, milieu de recherche rendu inaccessible, etc.) peuvent pousser le chercheur à redéfinir la planification de sa recherche. Il arrive que certaines étapes du processus soient escamotées pour différentes raisons (manque de temps, de ressources, d’habiletés, etc.). Dans ce cas, il est important de retenir que la recherche réussit tout de même à produire des résultats, bien que leur utilisation soit plus délicate. L’ordre des phases présenté dans cette section est donc surtout didactique et il permet au chercheur de savoir à tout moment où il se situe dans sa démarche. 40

5. Le contexte de la recherche scientifique La recherche constitue le lieu de production du savoir scientifique. Elle offre aux chercheurs la liberté d’exprimer leur créativité, leurs intérêts et/ou leurs inquiétudes. Néanmoins cette marge de manœuvre se situe dans les limites de certains aspects pratiques. En premier lieu, une recherche doit être légitimée par la science qu’elle sert. Cette science détermine les caractéristiques que doivent posséder les connaissances que lui apportera la recherche. Elle détermine également les moyens qu’elle juge valable dans la production de ces connaissances. Ensuite, une recherche se construit autour d’un objet d’intérêt bien déterminé, dans un but bien explicité. Enfin elle doit utiliser une méthode adaptée à la nature de cet objet et au but de recherche fixé. De surcroît, la structuration de la recherche n’échappe pas à certaines contraintes d’ordre social et économique. La recherche implique différents acteurs sociaux (chercheurs, agences de subventions, participants, universités, entreprises, etc.) dont les intérêts peuvent diverger. « The production of scientific knowledge always takes place in a social context in which that aim is interrelated with others practices with different aims, such as those involving the personal or professional aims of the scientists, the economic aims of funding agencies, the ideological interests of religious or political groups of various kind and so on. » (Chalmers, 1999: p. 249) Les buts de la recherche seront donc établis en fonction de la conciliation des différents intérêts en jeu. Et les ressources (humaines et matérielles) mises en œuvre au cours de la recherche dépendront d’une part des moyens financiers et du temps à la disposition des chercheurs, d’autres part de ses connaissances et capacités. Le graphique 1.2 illustre les différentes limites et contraintes issues du contexte dans lequel se place la recherche et qui structurent celle-ci.

6. Conclusion Compte tenu de la variété qu’il existe au sein des sciences, les méthodes de recherche qu’elles mettent en œuvre sont toutes aussi variées et couvrent une réalité, des finalités et des besoins très hétérogènes. La recherche peut donc prendre des formes variées, mais il existe des étapes et des critères de la démarche en science qui constituent des repères pour le chercheur, lui fournissant des outils de réflexion et lui permettant de baliser le champ de sa pensée. Ainsi, les différentes formes de recherche obéissent aux critères de scientificité reconnus et acceptés par la communauté scientifique (objectivité, transparence, cohérence, etc.). Elles respectent également un certain nombre de règles précises édictées par chacune des sciences qu’elles servent. 41

Outre les étapes et critères qui guident sa conduite, la structuration d’une recherche est fortement liée au contexte socio-économique dans lequel elle prend place. Aussi, loin de constituer un exercice uniforme, chaque activité de recherche est construite selon un design qui lui est particulier. Même s’il est nécessaire que chaque chercheur obéisse aux mêmes démarches opératoires pour répondre à la question qu'il a posée à la réalité, chaque étape de cette démarche s’exprime selon une modalité propre. Aussi afin de spécifier sous quelles conditions une recherche devient scientifiquement rigoureuse et décisive, il importe de développer les fondements théoriques de la recherche en sciences, ainsi que les éléments communs autour desquels se bâtît toute recherche scientifique. Il est également nécessaire de comprendre les liens de continuité qui doivent prévaloir entre la théorie et la méthodologie.

42

Chapitre 2 La place et les fondements de la recherche en gestion appliquée

1. L’interdépendance théorie-recherche Une science comprend plusieurs éléments théoriques et méthodologiques. Les premiers sont généralement constitués de principes explicatifs décrivant l’objet de la science ainsi que les lois et relations de cause à effet qui le caractérisent. Les seconds définissent les procédés et instruments permettant à la science de mettre à jour ces principes. Ensemble, les éléments théoriques et méthodologiques de la science permettent de juger sa maturité. En effet, la maturité d’une science est estimée simultanément au niveau conceptuel et au niveau instrumental (Tremblay, 1968). La maturité conceptuelle d’une science est évaluée, à un moment précis, en fonction de l’état des connaissances qu’elle a accumulées et de sa capacité à fournir des explications (provisoires) valables sur un aspect de la réalité. Quant à sa maturité instrumentale, elle est reflétée par l’état des techniques d’observation et/ou d’expérimentation dont la science dispose, et par leurs aptitudes à capter la réalité (Tremblay, 1968).

1.1. Les éléments méthodologiques de la science Les éléments méthodologiques définissent les exigences théoriques et opératoires de l’observation et/ou de l’expérimentation contribuant à la mise à jour des éléments théoriques de la science. Ils sont mis en œuvre au cours des activités de recherche.

1.1.1 . La théorie de la science Les théories de la science analysent d’un point de vue philosophique les conditions sous lesquelles un savoir peut être considéré comme scientifique, les conditions d’acquisition et d’utilisation de ce savoir, de même que ses limites. Pour chaque science, les théories de la science étudient donc et définissent la formation et la structure des connaissances scientifiques, dans le but d’établir d’une part les critères de validité, de pertinence et de cohérence que doivent remplir les concepts ou propositions pour être considérés comme scientifiques. D’autre part, elles déterminent la portée ou le champ d’application auquel peuvent prétendre ces concepts ou propositions. Les théories de la science se penchent également sur les procédures et méthodes retenues par les hommes de science pour produire des connaissances. Elles définissent les éléments qui en déterminent le caractère scientifique. Ainsi, elles jugent de la valeur, de l’adéquation et de la logique de raisonnement des entreprises scientifiques. De plus, elles formulent des recommandations dans la mise en œuvre de ces différentes 43

entreprises, assurant ainsi l’établissement d’un contexte l’émergence d’un savoir scientifique valable.

favorable à

1.1.2 . La méthodologie Mise en œuvre dans le cadre d’une activité de recherche, la méthodologie s’appuie sur les réflexions d’une (ou plusieurs) théorie(s) de la science. Elle propose l’utilisation d’un ensemble de méthodes pour répondre à un problème précis. Elle énonce les principes à respecter dans la préparation de la recherche et dans la collecte des faits. Elle est une véritable logique opératoire en ce sens qu'elle précise les différentes étapes à franchir lors du processus de recherche, les procédés à utiliser pour obtenir les connaissances, les propriétés instrumentales des outils employés et leurs modalités (Tremblay, 1968). La méthodologie doit être appropriée au but de la recherche et à la nature de l’objet d’étude.

1.1.3 . Les méthodes Définies par la méthodologie, les méthodes sont des recettes générales appliquées rationnellement pour étudier une classe de phénomènes donnés en vue de l’obtention d’un type déterminé de résultat. La méthode est un principe organisateur basé sur des techniques et des méthodes de réflexion. Elle constitue une façon de faire, un ordre et une succession d’étapes dans l'utilisation d'un ensemble de techniques et outils. Il existe différentes méthodes, différents modes de mise en forme de la démarche, adaptées aux phénomènes ou domaines étudiés.

1.1.4 . Les méthodes de réflexion Légitimées par les théories de la science, les méthodes de réflexion sont des outils permettant de passer, de façon harmonieuse, des données empiriques à la théorie ou vice-versa. D’une part, les faits (ou données) étant sujets à diverses interprétations, les méthodes de réflexion permettent leur articulation logique en un schéma théorique. D’autre part, elles permettent de trouver les lois, principes, modèles ou théories à appliquer aux données dans un contexte de recherche particulier, autour d’un phénomène précis.

1.1.5 . Les techniques Les techniques font référence aux procédés mis en pratique pour recueillir des informations particulières selon une certaine modalité (ex. la technique de l’entrevue libre, la technique de l’observation participante). Elles constituent donc des outils pratiques employés pour acquérir, manipuler et analyser des données, ou encore pour manipuler des concepts. Dictées et organisées par la méthode adoptée, les techniques sont mises en œuvre dans un contexte particulier et font appel à un ensemble d’instruments concrets adaptés à la nature des données, aux objectifs de la recherche et aux exigences de rigueur scientifique. 44

1.2. Les éléments théoriques de la science L’ambition des sciences étant d’expliquer la réalité, elles utilisent les différents éléments méthodologiques à leur disposition pour construire des théories et des modèles logiquement articulés, destinés à rendre compte des phénomènes étudiés. Les explications découlant de ces modèles et théories se distinguent entre eux par leur degré d’abstraction – allant d’une formulation générale totalement abstraite à une pure description, locale et systématique – et la portée de leur champ d’application (large ou restreinte à un ou quelques cas particuliers).

1.2.1 . Les « grandes théories » La grande théorie est un terme proposé par le sociologue américain Charles Wright Mills en 1959, pour désigner une catégorie de théories des sciences sociales interprétant les phénomènes étudiés à travers un schéma explicatif global, universel, abstrait et basé sur l’association et la dissociation de concepts tout aussi abstraits (Mills, 1959). Les grandes théories s’intéressent à des thèmes complexes (tels que l’évolution de la société ou le système politique) et cherchent à fournir une perspective globale des phénomènes sociaux. Aussi, elles visent à formuler des propositions (essentiellement des relations de causes à effets) susceptibles de s’appliquer de façon générale aux phénomènes étudiés quel qu’en soit le cas de figure ou le contexte particulier. Elles s’opposent à la vision de l’« empirisme désincarné » illustré par des techniciens travaillant comme des bureaucrates (Mills, 1959); vision selon laquelle la compréhension du monde est accessible uniquement par l’étude empirique de cas, de sociétés ou de phénomènes particuliers. L’élaboration des grandes théories repose sur des présupposés philosophiques selon lesquels le monde est régulier, homogène et non-variable dans les influences qu’il subit, dans les relations résultant de ces influences et dans les comportements qui en découlent (Boudon, 1991). Puisqu’elles tentent de comprendre, expliquer ou prédire les phénomènes sans considérer les circonstances spécifiques ou les contextes particuliers, les grandes théories sont structurées et formulées au moyen de concepts articulés à un niveau élevé d’abstraction. De ce fait, la portée de leur champ d’application est large, toutefois elles s’écartent des enjeux concrets posés par la variabilité spatio-temporelle de la vie sociale (Mills, 1959). Par conséquent, les propositions conceptuelles qui les composent sont généralement spéculatives et ne peuvent être directement testées.

1.2.2 . Les théories de portée intermédiaire (Middle range theories- MRT) Les théories de portée intermédiaire font référence à une approche de construction théorique développée par le sociologue américain Robert Merton en 1957. Elles se situent entre les larges théorisations hautement 45

spéculatives et les descriptions locales où la théorie est absente. Jugeant peu pertinentes les tentatives de construction d’une théorie générale, Merton propose l’élaboration de théories dont le niveau d’abstraction, et par conséquent la portée, est plus faible que celui des grandes théories (Merton, 1957). Reconnaissant l’hétérogénéité du monde, l’élaboration des MRT repose sur le présupposé que lorsque les phénomènes sociaux étudiés surviennent dans des configurations distinctes, ils peuvent prendre différentes formes. En d’autres termes, dans des contextes différents, différentes combinaisons de variables et d’influences conduiront à des résultats différents. Les MRT assurent donc le développement de formulations théoriques ou d’idées relatives à des contextes spécifiques (ex. la mise en œuvre des lois dans le système démocratique québécois). L’objectif n’étant pas de produire une description détaillée d’une situation particulière, mais plutôt de formuler, à partir d’un ensemble de recherches empiriques, une théorie pouvant être transférée à d’autres configurations contextuelles, les MRT tiennent une position intermédiaire entre l’abstrait et le réel empirique. Elles ne doivent pas perdre de vue la réalité empirique, cependant elles sont tenues de conserver un certain niveau d’abstraction pour se distancer de la simple analyse du singulier. Pour ce faire, elles intègrent des variables spécifiques à un contexte, mais également des concepts et variables importés de grandes théories (Sanchez et Heene, 2010). Loin de prétendre fournir une explication à tous les phénomènes, les MRT sont des représentations schématiques de la réalité, clairement dessinées, qui s’appliquent à de nombreux cas singuliers en mettant en évidence un trait qui leur est commun. Contrairement aux grandes théories où une ou quelques propositions sont supposées rendre compte de l’ensemble des phénomènes sociaux, les MRT modélisent analytiquement des phénomènes étroitement circonscrits en retenant et en intégrant des propositions pertinentes (dont certaines empiriquement validées) plus nombreuses et portant sur davantage de cas. Pour les théoriciens les MRT peuvent être considérées comme des théories partielles, qui seront éventuellement subsumées dans des théories plus larges au cours du processus de la construction d’une théorie générale (Bouvier, 2008; Sanchez et Heene, 2010).

1.2.3 . Les modèles formalisés Compte tenu du niveau d’abstraction utilisé pour formuler les grandes théories (et par extension les MRT), le processus consistant à tester empiriquement les propositions d’une grande théorie (ou d’une MRT), ou à s’en servir pour prédire un résultat dans un contexte précis, requiert l’élaboration de modèles permettant de rapprocher les concepts abstraits de la forme réelle qu’ils adopteront dans un contexte particulier. Ces modèles sont des modèles formalisés qui clarifient ce à quoi les formulations abstraites d’une théorie donnée correspondent dans un contexte d’analyse 46

particulier. Parfois appuyés par des études empiriques précises et poussées, les modèles formalisés sont des modèles dérivés qui adaptent la théorie à des contextes précis et qui permettent le développement futur de propositions contextuellement dépendantes. Ils utilisent les concepts fondamentaux abstraits énoncés par la théorie et les interprètent dans le cadre d’un système formel spécifié. Ils listent puis définissent rigoureusement les concepts et variables liés au phénomène d’intérêt qui interviennent dans le système formel considéré. De plus, ils énoncent les relations impliquant les concepts et/ou variables dans le cadre considéré, ainsi que la nature de ces relations. Ils permettent ainsi de caractériser sans ambiguïté les expressions de la formulation théorique, ainsi que les règles de démonstrations acceptables dans le cadre d’une recherche portant sur ce système formel. Ce faisant, ces modèles assurent une interprétation sans équivoque des concepts de la théorie et facilitent la communication ainsi que l’identification des principaux indicateurs à surveiller dans le contexte spécifié.

1.2.4 . Les modèles conceptuels Ces modèles sont également des modèles dérivés de la théorie. Ils peuvent constituer une passerelle entre les abstractions de la théorie et la création d’hypothèses pouvant être empiriquement testées au cours d’une recherche. Les modèles conceptuels sont des représentations schématiques d’une situation ou d’un phénomène, permettant de substituer un système plus simple au système réel. Dans ce système plus simple, seuls les éléments et relations importantes du point de vue du modélisateur sont représentés. Selon la philosophe et physicienne Lena Soler, un modèle peut être défini comme un cadre représentatif, idéalisé et ouvert, reconnu approximatif et schématique mais jugé fécond par rapport à un but donné (ex. prévoir un résultat, agir sur la nature, mieux la connaître, etc.) (Soler, 2000). Ainsi, au sein d’un modèle conceptuel, les variables, influences et relations d’intérêt, en jeu dans le contexte particulier, sont expliquées et représentées graphiquement par un ensemble de concepts interconnectés. Le modèle est construit et structuré à partir de données expérimentales et élabore des propositions destinées à véhiculer une vision particulière de la réalité. Ils constituent ainsi un outil pour observer un phénomène sous une perspective particulière. Les modèles conceptuels peuvent aider les chercheurs à organiser une étude. Dans un contexte précis, ils permettent de caractériser et classer les facteurs d’intérêt qui ont, directement ou non, un impact sur le phénomène étudié. Ils permettent également de représenter la façon dont ces facteurs agissent pour influencer le phénomène considéré. En interrogeant les résultats prédits par le modèle, la recherche détermine la validité du modèle.

47

1.2.5 . Les hypothhèses Les hyppothèses sontt des énoncéss formels cohérents (baséés sur une thhéorie ou un élém ment théoriqu ue) mais non validés enco ore dans le co ontexte spéciifique de la recheerche. Elles permettent de ‘traduire’ les propossitions conceeptuelles des théoories et modèles en énonncés pouvantt être empiriq quement testtés. Pour ce fairee, elles intro oduisent des construits mesurables qui représenntent les conceptts utilisés dan ns les propossitions.

1.3. La L dynamiq que du sav oir Le foncctionnement de d la sciencee s’appuie su ur l’interactio on qui unit laa théorie à la reecherche. Les L différennts constituaants théoriq ques de la science s’imbriqquent dans une dynamiique de com mplémentarité et d’inter eractions. Allant du d général au u particulier (ou inversem ment), leur éllaboration reepose sur les dimensions méth hodologiquees de la scien nce (figure 2.1). 2 En effeet, par la mise en œuvre des d constituaants méthod dologiques lors de reccherches scientifiiques, la sciience teste lles prédictio ons dérivées de ses connstituants théoriquues. Elle fou urnit à ces deerniers de no ouveaux élém ments et perrmet leur avancem ment de même m que lleur agenceement. Du reste, les résultats empiriqques apportés par la reccherche préccisent ou co orrigent les théories existanttes, ou enco ore ouvrentt la voie au u développeement de nnouvelles théoriess.

Les élééments consstitutifs du ssavoir scien ntifique. 48

D’un autre côté, toute recherche scientifique (et donc les éléments méthodologiques qu’elle comprend) se réfère, explicitement ou non, à une ou des positions théoriques. Au niveau de la conception et de l’opération d’un projet de recherche, l’arrière-plan théorique conféré par la science oriente le chercheur dans un champ spécifique vers une réalité particulière. Les chercheurs utilisent souvent les grandes théories comme une base pour l’exploration. Les modèles dérivés, appliquant ces théories à un cadre plus restreint, permettent de délimiter (ou de circonscrire) la recherche à un contexte particulier. Enfin les hypothèses introduisent des construits mesurables, pouvant être empiriquement testés dans le cadre de la recherche. Les éléments de théories de la science permettent donc au chercheur de définir ses objectifs, l’inspirent dans l’établissement d’un modèle opératoire (i.e. dans le choix d’un ensemble d’options pratiques – ex. choix des phénomènes à investiguer, approche de recherche, population-cible, etc.) et dans l’exécution de la recherche. L’exactitude du modèle opératoire et la richesse des explications qui découleront de la recherche, dépendent alors de la précision des théories de départ.

2. Le paradigme et l’approche Le développement d’un programme de recherche est inextricablement lié à une vision de la réalité et à une approche de recherche, adoptées dès le départ pour répondre à un problème posé. L’articulation des divers éléments (théoriques et méthodologiques) autour d’une approche de recherche (voir figure 2.1), doit posséder un degré de cohérence permettant au chercheur de passer des concepts théoriques aux concepts opératoires et aux concepts expérimentés. La logique opératoire (ou la méthodologie) doit découler de la position et des exigences théoriques liées à la nature du problème investigué. Aussi, le développement du programme se fera à la fois en ajoutant des théories et modèles, opérationnels dans la réalité, mais également en élaborant des techniques instrumentales, expérimentales et analytiques, qui s’adaptent à l’approche de départ, aux théories et modèles ajoutés au fil de la recherche et qui correspondent à une vision donnée du réel. Pour cela, l’élaboration et le déroulement de la recherche doivent s’inscrire dans un paradigme donné.

2.1. La notion de paradigme (la science normale de Kuhn) 2.1.1 . Présentation de la notion Chaque discipline aborde son domaine d’une façon qui lui est propre : elle construit ses paradigmes et ses programmes de recherche. Le concept de paradigme a été introduit par l’épistémologue Thomas S. Kuhn en 1962 dans La structure des révolutions scientifiques. Kuhn y argumente que la science n’a rien à voir avec la recherche d’une vérité objective, mais plutôt qu’elle constitue une démarche de solution de problèmes et qu’elle s’inscrit dans un 49

système contemporain de croyances et de valeurs dominantes (Kuhn, 1962). Ce système, appelé paradigme, fait l’objet d’un consensus au sein d’une communauté scientifique8 et est utilisé comme référence. Il se concrétise dans une série de procédures expérimentales dont les résultats renforcent les croyances et valeurs de départ. Bien que la notion de paradigme soit parfois encore assez vague, un paradigme peut être considéré comme une structure multiple comprenant un contenu théorique, des normes de la recherche scientifique et un savoir-faire théorique et pratique. Selon Kuhn, on peut identifier dans un paradigme, des généralisations symboliques, un contenu métaphysique, des valeurs et des exemples (Kuhn, 1972). Les généralisations symboliques sont des éléments acceptés par la communauté scientifique sans être remis en question. Elles sont exprimées par le biais d’équations de base (ex. E= m.c2), ou par des propositions générales (ex. à toute action correspond une réaction opposée de force égale). Le contenu métaphysique est associé aux modèles et symboles utilisés par la communauté scientifique. Il désigne un ensemble de représentations intuitives de la réalité, ontologiques ou heuristiques, et de convictions partagées par la communauté qui fournissent à celle-ci des métaphores ou analogies favorisant une certaine interprétation des lois de la nature. Les valeurs sont des éléments, comme la reproductibilité des résultats, la fiabilité instrumentale, ou la transparence auxquels adhèrent tous les spécialistes d’un type de science et qui leur donne un sentiment d’appartenance. Enfin les exemples sont un ensemble de solutions classiques et communes fonctionnant comme des modèles de travail auxquels se réfèrent les membres d’une même discipline, lors de leur formation ou au cours d’une recherche. Fort de ces éléments, un paradigme correspond à un ensemble cohérent de principes de raisonnement véhiculant une certaine vision du réel. Il s’agit d’une modalité particulière d’organisation de la pensée et de l’activité scientifiques. Ses particularités le rendent incommensurable avec les paradigmes concurrents9 (Kuhn, 1962). Bien qu’elles ne soient pas toujours

8

Par exemple, pour la médecine occidentale moderne, le paradigme dominant explique tous les troubles physiques par des causes physiologiques et préconise des soins organiques (ex. médicaments, opérations) pour leur traitement. 9 Ainsi, les explications des concepts de « méridiens » et de « qi» (l’énergie) offertes par le paradigme directeur de la médecine traditionnelle chinoise sont incompatibles avec la vision portée par le paradigme de la médecine occidentale moderne. Et de surcroît, puisque le paradigme guidant la médecine traditionnelle chinoise utilise des concepts tels que le Shen (l’esprit) ou le Po (l’âme) qui sont ignorés par le paradigme de la médecine moderne, les deux paradigmes et les théories qu’ils véhiculent ne peuvent être comparés.

50

précises et explicites, les lois universelles, les prescriptions méthodologiques et pragmatiques du paradigme guident les scientifiques. Elles leur permettent de progresser, de rendre compte de faits nouveaux et d’élaborer de nouvelles théories. Toutefois Kuhn souligne qu’un paradigme n’est jamais parfait. Il admet des problèmes (ou énigmes) non résolus appelés des anomalies (Kuhn, 1972). Ces anomalies sont à la base de l’évolution des sciences selon Kuhn. Loin d’être linéaire, graduelle et cumulative, l’évolution des sciences est discontinue et fait apparaître deux dynamiques : la science normale et les révolutions scientifiques. Lorsque le nombre et la gravité des anomalies sont suffisamment faibles pour que les scientifiques puissent travailler sans difficultés majeures, de manière féconde et sans remettre en cause les fondements du paradigme, ce dernier mène au développement d’une période de science normale. Au cours de celle-ci, la science est dominée par un paradigme. Les lois universelles du paradigme permettent la résolution des anomalies et conduisent à son enrichissement continu et cumulatif. Mais au fur et à mesure que les évidences empiriques s’accroissent, des contradictions menaçant la cohérence et l’unité du paradigme apparaissent. Au cours de cette période de conjecture, certaines observations échappent aux enseignements du paradigme ou entrent en contradiction avec ceux-ci. Les fondements du paradigme sont alors remis en question, et il se produit une révolution scientifique marquée dans un premier temps par une coupure épistémologique, période de contestation du paradigme au cours de laquelle la contradiction avec le paradigme est jugée incontrôlable. Dans un deuxième temps survient une rupture épistémologique. Cette dernière marque l’invalidation irréversible et la réfutation du paradigme en crise. S’ensuit une modification du cadre de réflexion qui aboutit à une refonte des constituants du paradigme, puis à l’apparition d’un nouveau paradigme capable d’opérer une reconstruction du champ du savoir et d’offrir de nouvelles interprétations de la réalité.

2.1.2 . Utilité et importance des paradigmes Malgré son caractère imparfait, l’adhésion à un paradigme dans le cadre d’une recherche scientifique est nécessaire à la conversation scientifique. En premier lieu, il permet d’indiquer la raison d’être générale de la recherche ou son centre d’intérêt. Il permet également l’ancrage des réflexions dans une base d’interprétation partagée au sein de la communauté scientifique. Dans une discipline donnée, les travaux hors paradigmes sont parfois appuyés sur des méthodologies très différentes de celles reconnues et acceptées par la communauté. De ce fait, ils risquent d’un côté d’être incompris ou ignorés. D’un autre côté, puisqu’ils ne présentent aucune base méthodologique commune avec la plupart des travaux, les résultats issus de recherches hors 51

paradigmes n’admettent pas de comparaisons avec d’autres résultats. Par conséquent ils sont isolés. En outre, l’emploi d’un paradigme présente plusieurs avantages. Il suggère un modèle de référence au chercheur pour traiter ou construire différents concepts théoriques retenus dans le cadre de la recherche. Il indique les modes d’investigation à la portée du chercheur (compte tenu de ses objectifs de recherche) et lui permet de s’appuyer sur des méthodologies de recherche confirmées. Il suggère ainsi à la recherche une direction à suivre. Il offre également la possibilité de rassembler sur une base commune, différents chercheurs autour d’un thème de recherche. Ces derniers peuvent ainsi contribuer ensemble à l’avancement des connaissances.

2.1.3 . Exemples de paradigmes guidant l’activité scientifique Le positivisme (ou la réalité objective) : Ce paradigme s’identifie généralement à la vision attribuée aux sciences de la nature. Selon cette position, les caractéristiques de l’environnement social tiennent de la réalité, c’est-à-dire qu’elles existent indépendamment de ceux qui les ont créées et ceux qui les observent. Les caractéristiques environnementales conservent donc un important degré d’invariabilité à travers le temps et l’espace. Les tenants du positivisme considèrent que la réalité est tangible et peut être étudiée sous une forme plus ou moins statique. Aussi la recherche passe par l’isolation de caractéristiques environnementales spécifiques et par leur conceptualisation en variables pouvant prendre différentes valeurs sur une échelle donnée. Elle définit une population cible et sélectionne un échantillon représentatif de cette population pour l’étudier, en vue d’obtenir des résultats généralisables à la population entière. Le constructionnisme (ou la réalité construite) : Basé sur la supposition que la réalité sociale est créée par ceux qui y participent, le constructionnisme s’oppose au positivisme. Les caractéristiques de l’environnement ne sont pas vues comme ayant une existence propre. Elles dépendent de l’interprétation qui leur a été attribuée par les acteurs sociaux. Ainsi la réalité sociale est non seulement construite, mais construite différemment selon les acteurs sociaux impliqués. Les tenants du constructionnisme soutiennent que la recherche scientifique doit étudier différentes réalités sociales créées par différentes personnes alors qu’elles interagissent dans un environnement social particulier. La systémique : Le système est au cœur de ce paradigme. La réalité y est conçue comme un ensemble de systèmes en évolution, plus ou moins ouverts. Dans chaque système, le tout est plus que la somme des parties. Autrement dit, il existe des effets cumulatifs complexes liés à l’interaction des éléments d’un même système, effets non réductibles à la somme de ces éléments. Aussi, tout changement au niveau d’un élément du système 52

entraîne des changements au niveau de tout le système. Les tenants de ce paradigme considèrent que tout changement se situe dans un cadre social donné et qu’aucun élément de la réalité ne peut être considéré en dehors du système dans lequel il s’intègre. La recherche s’intéresse donc aux interactions entre les éléments constitutifs d’un système en évolution, aux propriétés inhérentes au système qui émergent de ces interactions, et aux mécanismes régissant l’équilibre du système. Le paradigme interprétatif : Il suppose que la compréhension de la réalité est accessible par l’étude des interprétations individuelles. Dans la logique de ce paradigme, la recherche concentre son attention sur des cas spécifiques. Elle recueille des expériences subjectives, approche les participants de façon naturelle ou empathique, et analyse principalement les données de façon plus verbale que statistique. Ses résultats ne peuvent pas être généralisés à une population entière, puisque le sens des mots et le type de langage utilisés pour décrire une expérience subjective peuvent varier d’un participant à l’autre.

2.2. L’approche En recherche, l’approche peut prendre deux significations différentes. En premier lieu elle peut désigner la démarche générale adoptée pour mener la recherche. Elle correspond à une façon de faire, une attitude prudente pour aborder la question de recherche. Plus souple que la méthodologie, elle n’implique pas d’étapes systématisées ou visibles. Elle identifie un ensemble de modèles et de méthodes utiles pour étudier d’une certaine manière, une classe spécifiée de phénomènes. Une même approche peut être appliquée à différentes questions de recherche portant sur des objets d’étude similaires. Il existe une multitude d’approches (ex. l’approche quasi-expérimentale, l’approche comparative, l’approche fonctionnelle-systémique, etc.) et plusieurs sont employées par différentes disciplines (ex. l’approche quasiexpérimentale a été développée par les sciences de l’éducation, mais est populaire en analyse de politiques publiques). L’approche peut également faire référence à un paradigme. Elle est alors employée pour identifier le centre d’intérêt de la recherche et la méthodologie dominante dans l’analyse de ce centre d’intérêt (ex. approche des politiques publiques, qui s’intéresse à l’analyse des politiques publiques; la théorie des jeux qui place au centre de l’analyse les stratégies optimales des agents et l’équilibre résultant des interactions; la théorie de l’activité qui met l’accent sur l’importance des artefacts issus de l’évolution socio-culturelle et historique dans la compréhension des activités des sujets).

2.3. L’interdisciplinarité en recherche L’interdisciplinarité plusieurs approches la collaboration L’interdisciplinarité

en recherche se manifeste par la combinaison de ou paradigmes dans le cadre d’une étude. Elle favorise de chercheurs issus de différents domaines. consiste en l’intégration de différentes disciplines, 53

visions du problème et connaissances, en vue de traiter une question précise. On peut en distinguer trois variantes: La recherche multidisciplinaire (ou pluridisciplinaire): Ce type de recherche vise l’étude de l’objet d’une discipline par plusieurs disciplines à la fois. Elle associe, sur un même objet, les informations provenant de deux ou plusieurs disciplines (parfois sans rapport apparent); chacune conservant son point de vue, sa spécificité ainsi que ses méthodes. Bien qu’offrant une vision plus globale, plus riche et plus complète de l’objet à l’étude, la recherche multidisciplinaire requiert des connaissances très larges et peut se heurter à des difficultés de communication, dues au cloisonnement des disciplines dans leurs terminologies (ou langages) respectives.

ƒ

La recherche interdisciplinaire : La recherche interdisciplinaire concerne le transfert des méthodes d’une discipline à une autre, et leur enrichissement respectif. Elle met à contribution un nombre plus ou moins grand de disciplines dont elle confronte et échange les méthodes. Son but est d’élaborer, à partir de l’interaction des différents champs disciplinaires intégrés, un formalisme suffisamment général et précis qui s’adapte à l’objet et au but de la recherche. Ce formalisme devrait permettre d’exprimer et de communiquer au moyen d’un langage unique les concepts, les préoccupations et les contributions de chacune des disciplines impliquées, qui autrement resteraient isolées. Il permet ainsi une meilleure intégration des savoirs et un développement plus efficace et plus réaliste de la recherche. La recherche interdisciplinaire est généralement plus simple à mener qu’une recherche multidisciplinaire, néanmoins l’élaboration et l’adoption d’un langage unique requiert du temps. En outre, il peut s’avérer difficile de faire accepter ce langage par toutes les communautés scientifiques concernées.

ƒ

ƒ La recherche transdisciplinaire : La recherche transdisciplinaire cherche avant tout à comprendre la complexité d’un objet présent en entrecroisant plusieurs disciplines différentes. En d’autres termes, pour analyser un objet, ce type de recherche utilise les théories et concepts communs à toutes les disciplines auxquelles elle se réfère. En conséquence, elle crée une discipline qui englobe et dépasse les disciplines qui lui donnent naissance et se situe généralement à un niveau d’abstraction élevé.

3. Les types de recherche Ayant exploré les principaux éléments autour desquels se bâtît une activité de recherche, nous pouvons définir les différents types de recherches au service des sciences, et indiquer comment ils se distinguent les uns des autres. Un type donné résulte du genre d’informations que le chercheur 54

désire obtenir, des questions auxquelles il cherche des réponses et des paradigmes qu’il utilise. Il existe plusieurs typologies des recherches, chacune employant un critère de base particulier pour classer et regrouper les recherches.

3.1. Selon le niveau de théorisation En fonction de leurs visées, les recherches font appel à différents niveaux de constructions théoriques. Compte tenu de ces niveaux on peut classer les recherches en trois catégories : 1- Les recherches où la théorie est absente : elles colligent et utilisent les données empiriques en vue de fournir une description pure et simple des phénomènes à l’étude ou des relations qui les unissent. Leur principale utilité scientifique est la préparation d’autres recherches. 2- Les recherches à niveau intermédiaire de construction théorique : ces recherches visent à mettre de l’ordre dans les données et concepts, à les catégoriser ou à les classer. Les construits théoriques qu’elles élaborent, leur permettent de générer des systèmes cohérents, des classes (ou catégories) rassemblant des cas dont les caractéristiques comportent une certaine unité distincte de celle d’autres classes. Ces construits leur permettent aussi de définir une classe idéale de cas théoriques aux traits significatifs, servant de base à l’analyse des cas réels. Ces recherches peuvent également concevoir des modèles ou simulations montrant les interactions propres aux éléments d’une classe particulière. Ce type de recherches comprend les recherches exploratoires, descriptives, comparatives ou évaluatives visant à étudier un cas afin d’en identifier le type, de le classer par rapport à d’autres cas ou de déterminer le modèle qui s’y applique. Elles sont nécessaires pour organiser le savoir et pour former l’esprit scientifique. 3- Les recherches où la théorie joue un rôle important : Il s’agit de recherches étudiant un nombre défini de cas (ou de phénomènes) plus ou moins représentatifs d’un ensemble, à partir desquels elles formulent des propositions transférables à d’autres cas (ou phénomènes). Dans ces recherches la théorie met en lumière des caractères communs aux phénomènes et permet de faire des généralisations. Ces recherches visent la compréhension d’un phénomène, l’explication de ses causes, ou encore la prédiction.

3.2. Selon la finalité scientifique Un autre critère utilisé pour regrouper les recherches est leur finalité scientifique. Cette finalité permet au chercheur de choisir le design de sa recherche, en sélectionnant les questions, la stratégie d’investigations et les techniques de collecte de données (Marshall et Rossman, 1995). On peut 55

identifier plusieurs finalités scientifiques : l’exploration, l’explication, la description ou la compréhension, la prédiction et l’intervention (Marshall et Rossman, 1995). Chacune soulève un genre particulier de questions et permet d’identifier les approches et méthodes les plus appropriées pour répondre à ces questions. La recherche de type exploratoire vise à développer les connaissances portant sur des phénomènes peu étudiés, pour lesquels les données disponibles sont trop peu nombreuses ou incomplètes. Ces recherches mettent à jour des informations sur un phénomène pendant son déroulement en milieu naturel et dressent un portrait général de la situation. Elles génèrent ainsi des idées pour des recherches ultérieures. Elles peuvent également mener à l’identification et/ou la détermination de classes de phénomènes, ou de relations potentielles régissant ces phénomènes.

56

FINALITÉ SCIENTIFIQUE

exploratoire • étude de nouveaux phénomènes • préparation d’une nouvelle recherche

explicative • explication des forces qui causent un phénomène

descriptive/compréhensive • documentation d’un phénomène • compréhension

Questions typiques Qu’est ce qui se passe dans ce programme ? Comment fonctionne cette organisation ? Quels événements, comportements, croyances, etc., sont à l’origine de ce phénomène ? Quels sont les événements, structures et processus constituant le phénomène

Approches

• • •

Quel est le résultat d’un phénomène ?

ingénierie/intervention • faire un produit • établir des guidelines • tester des guidelines

Quel est le problème ? Comment créer un outil ? Est-ce qu’il marche ?

étude de cas «field study »

• •



• • •

• • •



prédictive • prédictions globales • prédictions d’événements ou de comportements

Méthodes

• • •

étude comparative de cas étude historique «field study» ethnographie «field study» étude de cas ethnographie expérience quasiexpérience modèles statistiques simulation

Informatique, droit, management, pédagogie

• • •

• •

• •



observation participante entretiens en profondeur entretiens d’élite comme cidessus questionnaires analyse de documents

comme cidessus mesures non intrusives

questionnaire analyses de contenu (quantitatives)

plutôt qualitatives

La recherche explicative se penche principalement sur les causes à l’origine d’un phénomène. L’attention est mise ici sur la recherche, l’identification et l’évaluation des influences que deux ou plusieurs phénomènes ont les uns sur les autres. Elle cherche donc à expliquer les relations fondamentales significatives pour l’issue d’un phénomène. La recherche explicative repose généralement sur une démarche très précise, sur l’emploi de techniques spécifiques pour le choix des sources d’information. Alors que la finalité des recherches descriptives est de documenter et décrire la complexité d’un phénomène ainsi que les facteurs qui l’influencent, la 57

recherche compréhensive enquête sur le sens d’un phénomène, ou le sens qui lui est attribué par différents acteurs. Ainsi, les recherches descriptives et/ou compréhensives procèdent à un examen détaillé du phénomène d’intérêt afin d’en fournir une description claire des variantes. Elles font l’inventaire des variables et concepts en jeu, puis déterminent comment ces éléments interagissent et peuvent être associés. Elles vérifient également la nature et la conséquence des relations impliquées. Pour finir, elles cherchent à comprendre comment certains facteurs deviennent déterminants pour le phénomène considéré. Le type prédictif englobe les recherches ayant pour but la vérification d’hypothèses causales. Elles tentent d’anticiper le résultat d’une conjonction spécifique de facteurs connus. Elles ont également pour but d’évaluer la probabilité qu’un résultat déterminé survienne dans des conditions provoquées. Enfin, les recherches d’intervention sont des recherches appliquées au service de la pratique. Elles visent l’élaboration de connaissances ou d’outils directement utiles pour la pratique disciplinaire. Elles élaborent des prescriptions explicites pour orienter ou encadrer la pratique.

58

3.3. La typologie de Järvinen Une autre classification a été proposée par Pertti Järvinen, un spécialiste finlandais en méthodes de recherches en sciences de l’information (Järvinen, 2004a). Elle repose sur les approches mises en œuvre par les recherches et sur le type de produits obtenus au terme de la recherche par la mise en application de ces approches (figure 2.3). Selon Pertti Järvinen, les produits issus des recherches peuvent prendre différentes formes. Ils comprennent des faits spécifiques ou des preuves, des construits théoriques (ou des concepts), des modèles descriptifs ou prescriptifs (lois ou relations), des descriptions évaluatives, des méthodes ou lignes de conduites et enfin, la création ou l’évaluation d’artéfacts10 (Järvinen, 2004a). La classification de Järvinen différencie en premier lieu les approches de recherche mathématiques – qui mettent le focus sur les langages formels, les unités algébriques et les systèmes symboliques, sans faire directement référence aux objets de la réalité - de toutes les autres approches de recherche. Pour ces dernières, plus centrées sur la réalité, Järvinen distinguent deux grandes classes : les recherches s’intéressant à comprendre la réalité et celles qui mettent l’accent sur l’intervention et l’utilité pratique des produits de recherche. Les approches mises en œuvre par ces dernières visent l’évaluation et la création d’artéfacts. Parmi les recherches s’intéressant à l’étude de la réalité, on peut distinguer celles visant le développement théorique (basées sur des approches conceptuelles et analytiques) et les recherches empiriques testant ou créant des théories en rassemblant des faits bruts, passés ou présents (Järvinen, 2004a).

10

Selon Järvinen, un artefact correspond à une construction faite par l’homme contenant éventuellement des ressources physiques, humaines et des données formelles (Järvinen, 2004a).

59

Approches de recherche

Approches étudiant

Approches mathématiques

la réalité

Approches utilitaires (designs et expertises)

Approches instant sur la compréhension du réel

Études conceptuelles et analytiques

S’engager dans des innovations

Études empiriques

Approches visant à tester des théories

Évaluer des innovati ons

Approches visant à créer des théories

Typologie des méthodes de recherche proposée par Järvinen En fonction de l’approche et du type de produits recherchés, il est possible de déterminer les questions pertinentes de recherche et les méthodes les plus appropriées. Ainsi pour chacune des approches présentées, Järvinen présente des exemples de questions et de méthodes qui s’y rapportent (voir Järvinen, 2004a).

3.4. Une typologie simple des recherches À partir de la typologie de Järvinen, il est possible de dériver une typologie simple des recherches reposant sur trois types des approches : les recherches pilotées par les théories existantes; les recherches visant à créer une théorie et les recherches design (Schneider, 2006).

60

-

En premier lieu, on retrouve les recherches explicatives et basées sur des approches visant à tester une théorie. Il s’agit de recherches élaborant et testant des hypothèses liées à des théories existantes. De même, elles expliquent ou prédisent les phénomènes en utilisant des lois et théories existantes.

-

Ce premier type de recherche se distingue des recherches qui tentent de comprendre le réel. Elles reposent sur des approches visant à créer une théorie. Elles regroupent les recherches dont le but est de produire une théorie, par la mise en évidence des mécanismes sousjacents d’un phénomène, par la description ou l’exploration d’un phénomène.

-

Enfin les recherches de type design concernent l’intervention et se concentrent sur l’utilité des produits de recherche pour la pratique. Elles sont orientées vers un but et des objectifs pratiques. Elles utilisent des approches visant à analyser un problème et y apporter une solution. Elles comprennent des activités de développement liées à l’ingénierie et produisent aussi des outils visant à créer ou tester des règles de design (Schneider, 2006).

4. Conclusion Malgré la diversité et la pluralité des activités de recherche scientifique, ces dernières se fondent sur des éléments de base, tels un paradigme ou une approche, et comportent des composantes générales (méthodologie, techniques, etc.) qui permettent de les situer les unes par rapport aux autres. Ces différents éléments déterminent la façon dont la recherche traitera la question sur laquelle elle se penche. En effet, une recherche scientifique ne consiste pas uniquement à recueillir des données. Les résultats qu’elle produit dépendent de la manière dont elle traite ces données. Par exemple, si elles sont fondées sur deux paradigmes différents, deux recherches examinant les mêmes faits élaboreront des interprétations différentes puis aboutiront à des conclusions différentes. La connaissance des différents éléments qui orientent la recherche nous permet de mieux saisir la distinction qui existe entre les différents types de recherche, et la façon dont ces types s’agencent pour faire progresser les disciplines qui les mettent en œuvre. Ils permettent également d’identifier les facteurs utiles dans le choix de la forme de recherche, et dans celui des objectifs à atteindre. Pour comprendre et exploiter les résultats des recherches scientifiques, la connaissance de ces éléments et des différents types de recherches qui en découlent, est primordiale. « Hence, to exploit the results of the recent studies researchers and practitioners must master more than one research approach to 61

a certain extent, at least know and differentiate their possible research output types. » (Järvinen, 2004a: p.1) Une typologie est forcément réductrice. Néanmoins elle permet de s’orienter et de situer une activité de recherche. Nous étant familiarisés avec les fondements et les caractéristiques universelles de la recherche scientifique, nous allons maintenant nous concentrer sur des règles spécifiques de recherche prônées par les sciences sociales. Les différentes disciplines des sciences humaines partagent la perspective de même que la démarche des sciences de la nature. Ainsi pour étudier la réalité, les gestions appliquées ont recours, comme les sciences de la nature, à une démarche de recherche empirique. Celle-ci est entièrement fondée sur l’observation du réel ainsi que sur la collecte de données accessibles, et elle se poursuit selon des règles opératoires bien précises. Néanmoins les recherches empiriques au service des gestions appliquées possèdent certains traits qui leur sont propres. Une grande partie de ces recherches repose sur l’étude directe d’êtres humains avec lesquels les chercheurs peuvent communiquer. De ce fait, les chercheurs ont accès à un plus large éventail de procédés de recherche et peuvent mettre en œuvre plus de technique de collecte de données que les chercheurs des sciences de la nature. En effet, ils ont la possibilité de mener des entrevues ou des expériences, de participer à la vie d’un peuple ou d’une organisation, de consulter des documents produits par des personnes décédées, d’avoir des récits de vie, etc. (Del Balso et Lewis, 2007). Toutefois cette particularité implique également que la recherche doit constamment composer avec des émotions, des motivations politiques et diverses sources de partis pris. Un autre trait propre aux gestion appliquée est que leurs recherches se caractérisent par l’adoption de nombreux modèles théoriques plus ou moins concurrents, allant du modèle scientifique expérimental ou du modèle statistique au modèle humaniste des traditions orales, et parmi lesquels s’impose un choix judicieux.

62

Chapitre 3 La logique de la recherche empirique

1. Le cycle de recherche empirique en gestion appliquée Comme toute recherche, une recherche empirique est un cycle s’insérant dans une séquence de recherches successives. Elle se base sur les apports et interrogations soulevées par les recherches antérieures, et ses conclusions entraînent de nouvelles questions qui servent de point de départ à de nouvelles recherches. Le but d’une recherche empirique est d’explorer, décrire, expliquer ou prédire un phénomène observable en vue, soit d’améliorer la compréhension globale de la réalité, soit d’apporter une solution pratique à un problème concret. Dans cette optique, la recherche se penche sur un aspect précis de la réalité et formule des questions de recherche spécifiques en lien avec cet aspect. Elle élabore des hypothèses répondant à ces questions, puis procède à la vérification de ces hypothèses. Ainsi, partant d’un constat, d’une préoccupation ou d’un questionnement sur un aspect de la réalité, une recherche empirique s’articule autour de cinq éléments-clés, typiques d’un cycle de recherche (Schneider, 2006) : ƒ ƒ ƒ ƒ ƒ

Les objectifs de recherche les conceptualisations les artéfacts ou interventions les mesures les analyses et conclusions.

L’agencement entre ces différents éléments est propre à chaque recherche. Il dépend des objectifs de recherche et de l’approche retenue. La figure 3.1 en présente des exemples parmi d’autres.

2. Le questionnement de départ En sciences sociales, une recherche empirique part d’un constat sur un phénomène factuel, d’une observation empirique, d’une intuition, d’un intérêt personnel pour un thème, ou même d’un préjugé. Face à ce constat le chercheur se trouve confronté à une difficulté et un manque de connaissances. Ainsi se manifeste une attention pour un problème précis dont l’exploration est à la portée du chercheur, au vu de ses ressources et de l’état actuel du savoir. Toutefois, le questionnement implicite que sous-tend ce manque de connaissances est généralement imbriqué dans une multitude de questions qui lui sont reliées et parmi lesquelles un tri s’impose. En effet une recherche bien construite 63

nn’aborde dirrectement qu’une seu ule question n à la fo fois. Le q questionneme ent de déppart doit donc d être précisé p et formulé exxplicitementt. Par cette foormulation explicite, e le chercheur c exxprime le plus précisém ment possiblle ce qu’il cherche à savoir, s à éluucider, à d développer ou o encore à clarifier. Le questionnement dee départ constitue norm malement unn premier mo oyen de misee en œuvre dd’une des d dimensions esssentielles dee la démarch he: la rupturee avec les prééjugés et lees prénotionss. Préciser la question P q à laaquelle la reecherche s’aattachera à rrépondre consiste à bieen délimiter de façon co ohérente l’objet de la reecherche d part le thème et le sujet de l’éttude, l’amplleur et la (ii.e. définir d’une d difficulté du problème p liéé à ce sujet; d’autre d part définir d claireement ce q fait partiee ou non du ssujet) et à en délimiter, s’’il y a lieu, soon cadre qui d d’application (ex. périodee de temps, population p précise, grouppe social d donné). Le ciblage c de lla question de départ s’effectue s seelon une d démarche en entonnoir. L La figure préssente un exemple de déliimitation d questionn du nement de départ. Less limites éttablies doivvent être cohérentes. Elles partent dd’un intérêt pour p un thèm me ou champp d’étude (pplutôt largee), puis cirrconscrivent graduellem ment l’objett de la reecherche auttour d’un suujet précis et e d’un prob blème lié à cce sujet. E Elles replaceent ensuite cce problèmee dans un contexte c déffini pour abboutir à une question spéécifique, porttant sur une situation conncrète.

L délimitaation du queestionnemeent de déparrt – illustraation La 64

La question de départ indique au chercheur une ligne directrice à suivre. Aussi, elle doit être claire (i.e. précise, concise et sans équivoque), faisable (i.e. travaillable, réaliste du point de vue du temps, de l’argent et des moyens logistiques requis) et pertinente (i.e. utile à la connaissance ou à la pratique disciplinaire, sans connotation morale, ouverte et portant sur un problème factuel). Ainsi, elle évitera au chercheur de se disperser. En effet, en ciblant un objet de recherche précis, la question de départ oriente et limite les lectures et entretiens nécessaires à la détermination des objectifs et aux dimensions suivantes de la démarche scientifique : la construction et la constatation.

3. Les objectifs de recherche Ils situent la recherche dans un thème particulier, dans un champ d’analyse (exploratoire, explicatif, descriptif, design, etc.) et autour d’un objet d’étude. À ce stade, le chercheur présente le contexte de l’étude. Il expose ainsi le choix du sujet et précise la problématique générale (les enjeux théoriques et pratiques soulevés par le problème étudié). Il explique également les motivations et les finalités générales de sa recherche. Les objectifs énoncent ce que la recherche se propose de faire concrètement et présentent les éléments sur lesquels se concentrera le chercheur.

Exemple 3.1 Dans le cadre de la question de départ soulevée dans l’exemple de la figure 3.2, un objectif de recherche pourrait être énoncé comme suit : ƒ

Analyser l’impact de la planification stratégique sur la performance financière et sur la vitesse du cycle d’innovation dans les PME manufacturières de la province du Québec.

La détermination des objectifs de recherche dépend d’une première revue de la littérature autour du questionnement de départ. Cette revue souligne une absence ou une insuffisance de connaissances autour d’un aspect donné de l’objet d’étude, lacune que la recherche se propose de combler. Cependant les objectifs émergent parfois d’un problème ou d’une interrogation soulevée par la pratique disciplinaire, par le commanditaire de la recherche ou par une recherche antérieure. Ils traduisent alors les différents intérêts et contraintes en jeux dans le contexte socio-économique de la recherche (voir chapitre 1section 5). Une fois fixés et formulés, les objectifs de recherche sont explicités point par point à travers les questions de recherche. C’est en fonction de celles-ci que se détermineront la nature et l’articulation des éléments suivants (conceptualisation, artéfacts, mesures, analyses et conclusions).

65

Exemple 3.2 L’objectif énoncé dans l’exemple 3.1 est explicité par les questions de recherche suivantes : Q1 : Les PME manufacturières québécoises utilisant un système de planification stratégique atteignent-elles des niveaux plus élevés de performance financière que celles n’ayant pas recours à la planification stratégique ? Q2 : Les produits de la planification stratégique induisent-ils une meilleure allocation des ressources nécessaires à l’accélération du cycle d’innovation dans les PME manufacturières québécoises ?

4. La conceptualisation La conceptualisation a pour but de rendre opérationnelle la recherche. Elle consiste en un ensemble d’opérations visant à établir comment mesurer et intégrer chacun des concepts impliqués par les questions de recherche. Autrement dit, la conceptualisation vise à élaborer un modèle d’analyse permettant de traiter de façon appropriée les questions de recherche. «Le modèle d’analyse constitue le prolongement naturel de la problématique en articulant sous une forme opérationnelle les repères et les pistes qui seront finalement retenus pour présider au travail d’observation et d’analyse. Il est composé de concepts et d’hypothèses qui sont étroitement articulés entre eux pour former ensemble un cadre d’analyse cohérent. » (Quivy et Campenhoudt, 1988: p.149) La conceptualisation se concrétise donc par une série de construits abstraits qui rendent compte du réel et qui orienteront la recherche. Selon Quivy et Campenhoudt, dans l’élaboration de ces construits, la conceptualisation ne retient pas tous les aspects de la réalité concernée mais seulement les éléments qui en exprime l’essentiel, du point de vue du chercheur (Quivy et Campenhoudt, 1988). Elle permet de ce fait, de désigner les dimensions du phénomène à l’étude qui sont importantes pour la recherche, les indicateurs permettant de mesurer concrètement ces dimensions et la façon d’utiliser les données fournies par ces indicateurs. Les construits de la conceptualisation consistent donc en un cadre d’analyse, des hypothèses et des grilles d’analyse.

4.1. L’utilité d’un cadre d’analyse conceptuel Selon Miles et Huberman (1994) : « A conceptual framework explains, either graphically or in a narrative form, the main things to be studied – the key factors, constructs or variables – and the presumed relationships among 66

them. Frameworks can be rudimentary or elaborate, theory-driven or commonsensical, descriptive or causal. » (Miles et Hberman, 1994: p. 18) Le cadre conceptuel permet en outre de relier la recherche à la problématique plus large dans laquelle elle s’inscrit. En premier lieu, il expose brièvement l’état des connaissances et des recherches antérieures autour de l’objet d’intérêt. Puis en vue d’ancrer la recherche dans un point de vue précis, il identifie les paradigmes qui guideront le déroulement de la recherche. Autrement dit, il identifie et de clarifie la vision du problème, les concepts, modèles ou théories utiles à la résolution de chaque question de recherche. Un concept est généralement un appareil conceptuel, c’est-à-dire un ensemble de concepts articulés permettant une modélisation aisée de la réalité, et sa définition nécessite l’utilisation d’autres concepts. Mais même concept est souvent utilisé différemment selon les auteurs, voire parfois par un même auteur. Aussi, la définition rigoureuse des concepts retenus dans le cadre d’analyse est toujours nécessaire (surtout s’il n’existe pas de définition universelle pour ceux-ci). Il en va de même pour les théories et modèles éventuels choisis pour guider la réflexion. Selon la façon d’appréhender le problème, ils peuvent être compris différemment. Il importe donc de spécifier les composantes de chaque modèle et théorie, leur champ d’application et leurs limites dans le cadre de la recherche. Ce faisant, le cadre d’analyse permet également de délimiter le champ d’investigation et guide le chercheur vers le type d’informations dont il a besoin pour atteindre ses objectifs.

Exemple 3.3 La figure 3.3 exemplifie un cadre (fictif) d’analyse conçu pour répondre à la question Q2 de l’exemple précédent. Il replace et structure l’impact de l’implantation de la planification stratégique au sein d’une organisation et donne une vue d’ensemble des liens unissant la planification stratégique et le cycle d’innovation. Il oriente ainsi l’analyse et identifie les éléments pertinents à la réflexion pour déterminer l’impact des produits de la planification sur le rythme d’innovation dans les PME manufacturières québécoises.

67

Exemple 3.4 Cet exemple est un extrait d’une thèse11 portant sur la supériorité informationnelle12 des forces militaires. Dans le cadre de la thèse, la recherche adresse la question suivante : Quelles activités sont essentielles pour obtenir la supériorité informationnelle, et comment l’application des technologies de l’information peut-elle supporter ces activités ? (Clements, 1997). Le graphique présente le cadre d’analyse conçu pour faciliter la collecte des données et pour délimiter le champ d’investigation. Ce cadre d’analyse inclut le concept de la supériorité informationnelle, les concepts liés au champ d’investigation et les relations théoriques qui lient ces différents concepts. Ce faisant, il permet d’identifier les relations et concepts principaux à étudier, et limite ainsi le champ d’investigation.

Exemple 3.5 13 L’illustration du cadre simple d’analyse et son utilité pour une étude cherchant à évaluer le rapport entre le coût et les bénéfices de l’introduction d’une plateforme de partage des postes (job-sharing) au niveau management dans le secteur public suisse. Ce cadre d’analyse identifie et situe clairement les composantes d’un modèle coût-analyse retenu pour l’analyse. Il postule (explicitement ou non) les relations et les influences qui unissent ces différentes composantes et identifie les informations nécessaires à l’atteinte des objectifs. Bien qu’elles n’apparaissent pas dans la représentation, une présentation du paradigme adopté (ou de la façon dont le chercheur conçoit les différents éléments en jeu) et la définition sans équivoque des concepts utilisés qui en découle (coûts, bénéfices, job-sharing, etc.) complèteront le cadre d’analyse et permettront d’identifier les dimensions spécifiques qui feront l’objet de mesures.

4.2. Les hypothèses de recherche Les hypothèses énoncées lors de la conceptualisation constituent des pistes de réflexion en réponses aux questions de recherche, pistes que la recherche

11

Clements S.M., 1997. The one with the most information wins? The quest for information superiority; Thesis Submitted for the Degree of Master of Science in Information Resource Management, Graduate school of logistic and acquisition management, Wright Patterson Air Force Institute of Technology, Ohio 12 La supériorité informationnelle est un avantage opérationnel obtenu dans le domaine de l’information. Il améliore le processus de prise de décision et permet la conduite des opérations sans rencontrer de résistance effective. 13 Exemple standard.

68

suivra. Elles forment un pont entre le cadre conceptuel et le cadre opérationnel de la recherche. Les hypothèses de recherche anticipent le comportement d’un phénomène. Elles peuvent également escompter une éventuelle relation entre deux concepts (ou deux phénomènes) ou entre un phénomène et un concept. Elles peuvent alors prédire une relation nulle, c’est-à-dire l’absence de relation entre les termes, ou encore une relation directionnelle (positive ou négative) entre ces termes. Les réponses provisoires que constituent les hypothèses feront l’objet d’une vérification empirique. Aussi le comportement d’un objet ou les relations anticipées entre deux termes par les hypothèses doivent pouvoir être observés dans la réalité. «Pour pouvoir faire l’objet de cette vérification empirique, une hypothèse doit être falsifiable. Cela signifie d’abord qu’elle doit pouvoir être testée indéfiniment et donc revêtir un caractère de généralité, et ensuite, qu’elle doit accepter des énoncés contraires qui sont théoriquement susceptibles d’être vérifiés. » (Quivy et Campenhoudt, 1988, p.149) Les hypothèses ne sont formulées au hasard. Elles constituent le fruit d’un examen consciencieux de la théorie et apportent des réponses pertinentes au problème de recherche. Aussi elles sont énoncées au terme d’une revue précise et détaillée de la littérature et/ou de discussions avec des experts. La forme des hypothèses dépend du type de recherche menée. Une recherche formule généralement deux types d’hypothèses : une hypothèse principale que la recherche tente de confirmer (ou d’infirmer) et des hypothèses secondaires dérivées jalonnant la vérification de l’hypothèse principale. Les différentes hypothèses introduisent des construits mesurables qui correspondent aux concepts du cadre d’analyse. Elles présentent ainsi les variables et/ou les relations en jeu sur lesquelles portera l’attention.

Exemple 3.6 : En réponse à une question de recherche interrogeant le lien entre les inspections du travail et la sécurité au travail dans différents cantons belges, une hypothèse de recherche suggère : (Hypothèse principale) : Un renforcement des effectifs des inspections du travail engendre une amélioration sensible de la sécurité de travail. Cette hypothèse identifie deux variables à observer - une variable indépendante explicative (l’effectif des inspections) et une variable dépendante à expliquer (la sécurité du travail) – et suggère une corrélation positive entre les deux. L’observation et l’analyse du comportement de la seconde variable au fur et à mesure que la première croît (ou décroit) permettra donc de confirmer ou d’infirmer l’hypothèse. 69

Exemple 3.7 (Cas fictif) Une étude cherche à évaluer la réactivité d’un service particulier par rapport aux doléances des clients. Une hypothèse de recherche propose : Hypothèse principale : La pression exercée par les moyens de doléance détermine la nature de la stratégie implémentée par le service concerné en réponse à la doléance. Deux variables sont également mises en jeu dans cette hypothèse : le niveau de pression mis en œuvre par les doléances (variable explicative) et la stratégie d’action du service (variable à expliquer). L’hypothèse suggère que la nature de la première variable influence significativement le comportement de la seconde variable. La recherche se penchera donc sur la nature des stratégies adoptées par le service en réponse à différentes formes de doléances et tentera d’établir s’il existe un rapport entre le comportement des deux variables. Pour y parvenir la recherche peut procéder au test des hypothèses secondaires suivantes : H 1 : L’accroissement de la pression exercée par le moyen de doléances résulte en une accélération de la vitesse de traitement de la doléance. H 2 : Les doléances avec un faible niveau de pression font état de problèmes minimes. H 3 : Le service traite en priorité les problèmes majeurs. H 4 : Indépendamment de la gravité du problème, les niveaux élevés de pression sont nuisibles à la performance du service concerné.

4.3. Les grilles d’analyse Les grilles d’analyse concrétisent l’opérationnalisation de la recherche, c’està-dire qu’elles montrent comment répondre à chaque question de recherche. Elles constituent des outils permettant de faire le rapport entre les construits des hypothèses et les données empiriques. Les grilles sont élaborées en fonction des objectifs de recherche et conçues de façon à retirer l’information pertinente de la masse de données collectées. Elles aident à définir le plan de recherche, à organiser la récolte et l’analyse des données, et à élaborer le cadre opératoire de la recherche. Les grilles présentent donc les niveaux d’analyses (ex. fédéral, provincial, communes, groupes, individus), la nature des analyses qui seront effectuées (ex. analyse comparative, diachronique, de contenu), de même que les critères qui orienteront la collecte, le traitement et l’analyse des données recueillies. La construction de ce cadre opératoire exige non seulement la définition de l'unité géographique, de la période d'étude et des cas qui feront l'objet 70

d'observations, mais elle nécessite également l'analyse des concepts à expérimenter pour permettre la construction d'instruments appropriés. Lors de leur formulation, les hypothèses introduisent parfois des variables génériques possédant plusieurs dimensions observables. Afin de rendre ces hypothèses opérationnelles, les grilles d’analyse définissent les variables de façon à pouvoir les mesurer et les analyser. Elles expliquent comment chacune se traduit sur le terrain, les décomposent et en font apparaitre les différentes dimensions observables.

Exemple 3.8 Le concept de « coût » dans l’étude « job-sharing » de l’exemple 3.5 peut être décomposé en plusieurs dimensions : les salaires, les contributions de l’employeur, les frais de formation, les frais administratifs (gestion du personnel), frais d’introduction (développement de la plateforme), coût de la coordination.

Exemple 3.9 La « sécurité de travail » dans l’exemple 3.6 peut faire référence au nombre d’accidents annuels de travail, à la nature des équipements de sécurité disponibles, au nombre de formations préventives données au personnel. En déterminant les dimensions de chaque variable, les grilles identifieront les indicateurs d’intérêt et fabriqueront des indices directement mesurables qui permettront de rendre compte des variables, puis de mettre en relation les concepts impliqués. Ainsi, les grilles d’analyse déterminent comment chacune des variables (explicative ou à expliquer) est mesurée concrètement et la nature des comportements à observer.

Exemple 3.10 Le graphique 3.6 illustre une grille d’analyse simple permettant de mesurer le développement économique d’un pays pour l’année 2000. Elle identifie les éléments retenus pour l’examen et indique comment passer d’une variable théorique globale aux indices empiriques isolés mesurés sur le terrain. Ces derniers rendent chacun compte d’une dimension d’intérêt du développement économique global.

71

Concept à mesurer

Développement économique

Industrialisation

PNB

PNB 2000

Routes

Réseau routier en 2000 (Km/m2)

Urbanisation

Énergie

Production d’énergie en 2000 (TWh)

Démograp hie

Dimensions d’intérêt Indicateurs

Population urbaine / population totale en 2000

Indices mesurés

Exemple schématique d’une grille d’analyse permettant de mesurer le développement économique d’un pays. Il est important de mentionner que le choix d’un indicateur doit être approprié à l’analyse des caractéristiques sur lesquelles se penche la recherche. Il est accessible, cohérent, précis, sensible (i.e. il doit pouvoir mesurer uniquement et spécifiquement la dimension à laquelle il correspond) et reproductible. L’indicateur prend en compte la nature, les particularités et le contexte du phénomène étudié. Il s’adapte donc aux différentes échelles de mesures ou d’appréciation et aux caractéristiques locales inhérentes au contexte dans lequel il est utilisé. Un indicateur doit permettre d’obtenir (autant que possible) des données complètes, fiables et comparables d’un contexte à un autre. Aussi, il doit être durablement pertinent (i.e. utilisables à des époques et contextes différents).

4.4. Les dangers liés l’opérationnalisation de la recherche Les outils élaborés lors de la conceptualisation sont primordiaux pour que la recherche soit concrètement réalisable. Lors de leur élaboration, quelques difficultés et/ou erreurs de conception peuvent fausser la pertinence de la recherche : ƒ

Un écart entre un concept (domaine de l’abstrait) et son indicateur 72

(domaine du concret): Cet écart peut être dû à une définition inappropriée du concept ou encore au choix d’un indicateur non valide. Il se traduit par l’inadéquation de l’indicateur à rendre compte de réalité décrite par le concept et introduit un biais considérable dans la mesure et l’interprétation des données. À titre illustratif, pour comparer le niveau de vie des habitants d’un pays, le choix d’un indicateur tel que le PNB/habitant peut être inapproprié. En effet, puisqu’ils ne rendent pas compte du niveau des prestations sociales, ni de la distribution des revenus, deux PNB/habitant identiques ne traduisent pas deux niveaux de vie équivalents. Un concept surchargé : Plus le nombre de dimensions inclues dans une variable est grand, plus le nombre d’indices à mesurer est important. La recherche requiert donc plus de participants et plus de mesures. La mise en relation des différentes dimensions devient par conséquent plus complexe. Il importe donc de ne retenir que les dimensions importantes pour la recherche.

ƒ

Les fausses mesures (et conflits entre mesures) : Dans le contexte souligné par la recherche, certaines dimensions retenues par la grille d’analyse peuvent tout aussi bien s’appliquer à la variable explicative qu’à la variable à expliquer (ex. le niveau d’éducation peut être considéré comme une caractéristique du développement économique mais il peut également être inclus dans les facteurs du développement. Un indice mesurant ce niveau pourrait donc ne pas être approprié dans le cadre d’une recherche se penchant sur les facteurs du développement d’un pays). L’utilisation d’un tel indice peut donc induire une incohérence dans les mesures.

ƒ

L’oubli d’une (ou plusieurs) dimension(s) dans l’élaboration des grilles d’analyse. Ainsi par exemple, une grille analysant la communication dans une entreprise qui ne tiendrait compte que du nombre d’appels téléphoniques internes et du nombre de missives électroniques, conduira à la planification d’une recherche biaisée (faute d’estimer l’importance des courriers écrits et des échanges verbaux informels).

ƒ

5. Les artéfacts et interventions Il s’agit de procédés ou d’instruments adaptés, spécifiquement élaborés dans le cadre de la recherche. Ils incluent, entre autres, le développement et l’implémentation de procédures pour l’observation ou l’expérience, de matériaux d’expérimentation, d’instruments de collecte de données (ex. questionnaire, grille d’entretiens). Tout comme les outils conceptuels, les artéfacts doivent être appropriés à l’étude de l’objet d’intérêt. Ils s’adaptent aux objectifs de recherche, à l’approche de recherche choisie, ainsi qu’à la 73

nature des données ou des interventions à mener. En général, chaque recherche a besoin d’artéfacts. Parfois l’artéfact est au cœur même du projet (c’est par exemple le cas des recherches de type design ayant pour but l’élaboration d’un intranet, d’un système de gestion de connaissances, d’un système d’aide à la décision, d’une méthode de gestion financière ou d’une pédagogie).

6. Les mesures Les mesures permettent d’observer les attributs ou les comportements des variables opératives (variables explicatives/indépendantes et variables dépendantes) indiquées par les hypothèses. Elles s’effectuent sur des cas précis et emploient des techniques appropriées.

6.1. L’échantillonnage L’échantillonnage consiste à choisir un sous-ensemble caractéristique de l’ensemble étudié pour effectuer les mesures. Il permet d’avoir accès à un nombre défini de cas d’intérêt sur lesquels seront faites les différentes observations nécessaires à l’approfondissement de la question de recherche. Un échantillonnage se fait en fonction de critères de sélection. Ces derniers déterminent les caractéristiques pertinentes à l’étude et éventuellement les caractéristiques qui pourraient constituer une source de confusion dans l’analyse et qui, par conséquent, ne doivent pas figurer au sein des cas choisis. En règle générale l’échantillon est constitué de façon à ce qu’il existe une bonne variance des variables. En effet sans variance il n’y a pas de relations à établir, donc pas d’explications. Les techniques d’échantillonnage varient en fonction de la forme de la recherche, de son but et du type d’informations recherchées (voir Miles et Huberman, 1994). Ainsi pour étudier une large population, un échantillonnage en sélectionnera un ensemble représentatif – c’est-à-dire un ensemble dans lequel on retrouve la distribution et l’éventail des caractéristiques d’intérêt présentes dans la population cible. Pour tester la limite d’une explication et/ou chercher un nouveau départ, le choix de l’échantillon rassemblera des cas aux caractéristiques extrêmes ou déviants (au sens de la théorie ou de l’explication). De même pour montrer les traits considérés normaux ou moyens, l’échantillonnage se concentrera sur des cas typiques (au sens de la théorie). Dans le cadre d’une étude comparée, l’échantillonnage permettra de constituer des groupes homogènes qui ne divergeront que pour la caractéristique faisant l’objet d’une comparaison. La méthode « boule de neige » offrira, quant à elle, la possibilité de suivre une piste en sélectionnant des cas au fil de l’analyse et en fonction des informations obtenues des cas déjà observés, et ainsi de suite. Le tableau illustre différentes stratégies d’échantillonnage utilisées à des fins variées. 74

Tableau: Stratégies et finalités de l’échantillonnage Type d’échantillonnage

Exemples de finalités

À variation maximale

Documenter diverses variations du phénomène et en identifier les caractéristiques communes majeures.

Homogène Critique

Choisir des cas tels que définis lors du contrôle des variables. Concentrer, réduire, simplifier ou faciliter les comparaisons de groupes. Permettre une généralisation logique et l’application maximale de l’information à d’autres cas.

Basé sur la théorie

Trouver des exemples pour illustrer un construit théorique afin de permettre son élaboration ou son analyse.

Cas confirmant ou infirmant

Élaborer une analyse initiale, identifier des exceptions ou des variations.

Boule de neige (ou en chaine)

Identifier des cas d’intérêt à partir des informations obtenues d’autres cas, ou d’experts.

Extrême ou déviant Typique Intense Politiquement important Aléatoire Stratifié À critère

Étudier les manifestations hautement inhabituelles du phénomène d’intérêt. Souligner les caractéristiques normales ou moyennes du phénomène Approfondir l’étude d’un phénomène par l’observation des cas riches en informations qui manifestent le phénomène de façon intense mais pas extrême. Attirer une attention désirée (ou éviter d’attirer l’attention) sur des phénomènes. Exclusion/inclusion de cas en fonction d’impératifs externes Ajouter de la crédibilité à l’échantillon lorsque la population cible est trop large. Illustrer des sous-groupes, faciliter les comparaisons. Observer tous les cas qui rencontrent un certain critère, (utile pour le contrôle de la qualité).

Suivre de nouvelles pistes, prendre avantage d’une situation inattendue. Permettre la triangulation des intérêts et des besoins, obtenir Combiné ou mixte une bonne flexibilité. Observer les cas auxquels on a facilement accès. Épargner De convenance du temps, de l’argent et des efforts au détriment des informations et de la crédibilité. Tableau reproduit à partir de Miles M. B. et Huberman M. A., 1994. Qualitative data analysis: an expended sourcebook, 2nd Ed; Sage publication, Thousand Oaks Opportuniste

Il existe deux grandes méthodes d’échantillonnage : les méthodes probabilistes et celles non probabilistes. Les méthodes probabilistes 75

d’échantillonnage sont des procédés selon lesquels chacun des éléments ou sujets de la population a la même chance d’être choisi pour former l’échantillon (ex. échantillonnage aléatoire en grappes, échantillonnage aléatoire systématique). L’échantillon est donc déterminé par les lois du hasard. L’échantillonnage non probabiliste suit des procédés de sélection selon lesquels chaque élément ou sujet de la population a une probabilité différente ou certaine d’être choisi pour former l’échantillon (ex. échantillonnage par quotas, par choix raisonnés, de convenance, par réseaux). Ces procédés-ci permettent d’obtenir un échantillon structuré (stratifié ou spécialisé), construit en fonction d’objectifs particuliers par le chercheur dans le but de refléter de façon certaine une partie ou l'ensemble des caractéristiques d’intérêt. Ces deux grandes méthodes peuvent s’appliquer à un échantillonnage intracas ou à un échantillonnage inter-cas (ou multi-cas). L’échantillonnage intracas se concentre sur une ou quelques unités d’observation et sélectionne pour chacun plusieurs caractéristiques ou configurations différentes à observer. Par exemple, un échantillonnage intra-cas choisira un individu (en fonction des conditions et de la portée du cadre d’analyse) et penchera pour observer, parmi différentes catégories, un comportement donné à différentes occasions (au travail, à la maison, durant les loisirs) ou à différentes périodes (saisons, journées, soirées). L’échantillonnage intra-cas permet ainsi d’explorer en profondeur une configuration locale pour un phénomène donné (Miles et Huberman, 1994). Quant à l’échantillonnage inter-cas, il consiste à sélectionner une variété de cas similaires et/ou contrastants pour observer un phénomène. Le chercheur tente alors d’identifier les schémas communs du phénomène ou d’en décrire les variantes. L’échantillonnage inter-cas permet généralement de renforcer la précision, la validité et la stabilité des résultats (Miles et Huberman, 1994). Il nécessite toutefois un cadre d’échantillonnage bien explicite.

6.2. Les techniques de mesures Le tableau présente quelques techniques de collection des données mises en œuvre en gestion appliquée.

76

Tableau: Principales formes des techniques de collecte de données utilisées en gestion appliquée en fonction de la nature du phénomène étudié Articulation de la technique de collecte de données Nature du phénomène étudié informelle

basée sur la communication

non-verbale et verbale observation participante

orale entretien d’information entretien ouvert

formelle et non structurée

formelle et structurée

observation systématique

expérience, simulation, modélisation, etc.

entretien semistructuré protocole de pensée à haute voix a

entretien standardisé

écrite analyse de texte questionnaire ouvert revue de la littérature vignettes questionnaire standardisé évaluation des journaux de bord

a.

La méthode de pensée à haute voix est une méthode permettant d’expliciter les aspects cognitifs liés aux actions des participants. Elle consiste pour le participant à énoncer les pensées qui lui viennent au fur et à mesure qu’il entre en contact avec le matériel qu’on souhaite expérimenter Puisque les gestions appliquées traitent souvent de faits impossibles à quantifier, les techniques de mesures qu’elles mettent en œuvre dépendent largement de la nature des données à recueillir : quantitatives ou qualitatives. Elles dépendent également de la nature du phénomène étudié et des caractéristiques de l’environnement dans lequel il prend place. Selon Del Baso et Lewis (2007), il convient de distinguer les techniques de mesure, selon que la méthode de mesure adoptée est directe ou indirecte. La méthode directe fait appel à des techniques de mesure qui impliquent une interaction directe avec les individus étudiés (ex. questionnaire, entretien, expérimentation) ou une observation directe de leur comportement. La méthode indirecte renvoie à des techniques qui se penchent sur le recueil de 77

données constituées par le résultat d’activités organisationnelles (ex. analyse de textes, d’œuvres d’art, de traces, de vestiges ou de débris). Les techniques indirectes requièrent une grande expérience et des connaissances pour déterminer la valeur et la signification des données collectées (Del Baso et Lewis, 2007).

6.3. La fiabilité de la mesure Tous les moyens employés au cours d’une recherche sont susceptibles d’engendrer des erreurs. Pour éviter toute source de biais, tout élément lié à l’outil de mesure ou aux circonstances de son application et qui perturbe la stabilité des données doit être identifié. À cette fin, le principe de fiabilité en mesure vise à contrôler la stabilité des données fournies par l’instrument de mesure et à assurer l’indépendance (ou l’objectivité) des analyses et des interprétations du chercheur. La fiabilité définit le niveau de cohérence ou de convergence qui peut exister entre deux séries d'observations sur un objet d’étude identique. « Reliability refers to the ability to obtain consistent results in successive measurements of the same phenomenon. » (Herbert, 1984, p. 33) On peut distinguer trois niveaux de fiabilité : la fiabilité chimérique, la fiabilité diachronique et celle synchronique (Kirk et Miller, 1986). La fiabilité chimérique ou circonstancielle renvoie aux circonstances dans lesquelles une observation débouche invariablement sur le même résultat. Bien qu’il soit simple, ce niveau de fiabilité peut prêter à confusion (Kirk et Miller, 1986). En effet ce type de fiabilité n’indique pas que les mesures sont exactes. À titre illustratif (voir Kirk et Miller, 1986), un thermomètre brisé qui indique à répétition la température d’ébullition de l’eau à 74° Celsius est fiable mais n’est d’aucune utilité. La fiabilité diachronique fait référence à la stabilité d’une observation à travers le temps (Kirk et Miller, 1986). Elle est démontrée lorsque des mesures similaires (utilisant les mêmes protocoles et techniques) effectuées à différentes périodes de temps fournissent des résultats similaires. Néanmoins ce type de fiabilité implique que les phénomènes observés demeurent inchangés à travers le temps (ce qui n’est généralement pas le cas pour les phénomènes sociaux). Enfin pour la fiabilité synchronique une mesure peut être considérée comme fiable, si au cours de la même période des observateurs différents parviennent à des observations similaires pour un même phénomène étudié en appliquant la même technique de mesure ou des techniques alternatives. Contrairement à la fiabilité circonstancielle, les mesures obtenues ne sont pas toujours identiques, cependant elles sont consistantes entre elles et cohérentes par rapport aux caractéristiques du phénomène observé (Kirk et Miller, 1986). 78

7. Les analyses et conclusions Elles marquent la fin de la recherche. Elles organisent et fournissent une interprétation aux données recueillies, puis mettent en rapport les mesures avec les questions de recherche et la théorie. Ainsi elles permettent de rédiger une argumentation claire, pertinente et élaborée en fonction du cadre théorique retenu; argumentation au terme de laquelle le chercheur formule des conclusions confirmant ou infirmant les hypothèses de recherche. Les analyses et conclusions offrent également la possibilité au chercheur de démontrer qu’il apporte une contribution originale à la discipline et à l’avancement des connaissances.

7.1. L’analyse et l’interprétation des données Les données sont interprétées à la lumière du cadre d’analyse et emploient des techniques d’analyses adaptées à la nature des données rassemblées. Le chercheur décrypte les informations recueillies et interprète les résultats du traitement des données à l’aide du paradigme, des théories et modèles du cadre d’analyse. Ces éléments permettent au chercheur de procéder à l’analyse des données c’est-à-dire de révéler puis d’évaluer une structure intelligible à partir des données qu’il a recueillies. En effet, selon le chercheur en politiques sociales Ian Dey, l’analyse permet de bénéficier de procédures logiques et rigoureuses pour transformer les données afin de voir comment elles sont interconnectées : « “Analysis” too involves breaking data down into bits, and then “beating” the bits together. […] It is a process of resolving data into its constituent components, to reveal its characteristic elements and structure. Without analysis, we would have to rely entirely on impressions and intuitions about data as a whole. » (Dey, 1993: p.31) Ce faisant, l’analyse offre une nouvelle façon d’appréhender les données. Elle permet alors de décrire les objets et événements auxquels les données réfèrent, de les comprendre, de les interpréter, de les expliquer et parfois de les prédire (Dey, 1993). L’analyse des données et l’interprétation qui en découle permettent au chercheur de confronter ses observations à ses hypothèses de départ et de répondre à la question de recherche. Ainsi en relation avec chaque hypothèse énoncée, le chercheur répertorie, tri, organise et agrège les données qu’il a recueillies pour chaque variable. Il analyse les relations entre variables, puis il compare les résultats attendus à ceux observés. Il effectue également une comparaison avec les résultats obtenus au terme d’études similaires sur l’objet de la recherche. Pour chaque écart constaté (avec les hypothèses ou avec les résultats de recherches antérieures) il fournit une explication valable. Au terme de cette démarche, il énonce ces conclusions. 79

7.2. Les dangers liés à l’analyse et l’interprétation des données À ce stade de la recherche, une mauvaise organisation des données ou l’apparition de données échappant aux regroupements logiques exprimés par le cadre d’analyse peuvent susciter des impressions trompeuses et pousser le chercheur à s’éloigner de son modèle d’analyse et du cadre de vérification défini par ses hypothèses de départ. En conséquence, les conclusions de la recherche peuvent s’avérer erronées, ou encore ne pas concorder avec les questions ou objectifs de départ. De surcroît, l’interprétation peut se heurter à plusieurs problèmes, sources d’erreurs. Ainsi, il peut y avoir des problèmes de cohérence dans les données, des problèmes de perception chez le chercheur (ex. une mauvaise compréhension des données, une surestimation ou une sous-estimation d’un élément ou effet traduit par les observations), des erreurs de substitution ou encore des erreurs de transposition (où le chercheur transpose ses préjugés ou son expérience personnelle au phénomène qu’il étudie). Face à ces multiples sources d’erreurs, le chercheur doit donc constamment accorder une importance particulière à la validité de sa démarche.

7.3. La place de la validité La pertinence des analyses et conclusions reposent sur la validité logique et empirique de la démarche générale de la recherche. La validité logique de la démarche s’intéresse à l’articulation de la recherche. Elle examine la cohérence entre les différents éléments du cycle de recherche ainsi que leur utilité dans la poursuite des objectifs. Ainsi, « Si l’étude a une valeur logique, le lecteur devrait pouvoir suivre l’argument et voir si l’hypothèse se développe logiquement à partir du problème, si les méthodes découlent logiquement et de façon consistante des hypothèses, les résultats des méthodes et les conclusions des résultats. » (Smith et Glass, 1987: p.2). Quant à la validité empirique, elle évalue la possibilité de prendre une décision valable, d’émettre une conclusion ou un pronostic crédible sur la base des faits empiriques rassemblés par la recherche. Elle s’assure que les observations sont présentes en quantité et en qualité suffisante, que les outils utilisés sont en adéquation avec la nature des faits empiriques, et que les conclusions de la recherche ne découlent pas de facteurs intervenant à l’insu du chercheur. Pour ce faire, elle s’intéresse d’abord à la validité des construits et outils de la recherche (concepts, procédures, instruments, indicateurs, etc.). De façon générale, un construit est valide s’il permet de mesurer effectivement ce qu’il est censé représenter en théorie. « Validity is the degree to which the procedure really measures what it proposes to measure. » (Krueger, 1994: p. 31) 80

Toutefois plusieurs types de validité se sont développés pour rendre compte de l’adéquation des outils de recherche. Ainsi les différents construits de la recherche peuvent être jugés en fonction des validités convergente, discriminante et nomologique (Zaltman et coll., 1973). « Convergent validity is represented by the correlation between two attempts to measure the same concept through maximally different methods. Discriminant validity measures the extent to which a concept differs from other similar concepts. […] Nomological validity, finally, validates an instrument by interpreting the obtain scores in terms of a theoretical concept and consequently generates predictions that, if confirmed, have a validating effect. » (Zaltman et coll., 1973: p. 42) D’autres critères de validité, tels que la validité de contenu (qui assure qu’un concept couvre tous les aspects importants du phénomène étudié) ou la validité conceptuelle (justifiant les diverses théories qui orientent la construction d’un instrument ou d’un indicateur) sont également utilisées pour assurer la validité des construits de la recherche. Au-delà des construits, la validité empirique se penche sur les observations effectuées, sur les regroupements proposés par le chercheur pour les analyser, et sur le bien-fondé des relations établies par le chercheur entre ces observations, ou entre les observations et les concepts. Elle examine également l’originalité et l’utilité générale de la recherche (connaissances apportées) et détermine les possibilités et limites de l’application des résultats de la recherche à d’autres contextes (populations, temps ou lieux).

8. La triangulation Compte tenu de la richesse et de la diversité des comportements des êtres humains, la gestion appliquée adopte souvent une démarche relativiste reposant sur la conviction qu’une multiplicité des points de vue est plus à même de cerner la dimension plurielle du comportement humain, pluralité face à laquelle une approche unique constituerait une voie peu efficace. Aussi, la gestion appliquée a recours à la triangulation des approches et/ou des méthodes. La triangulation multiplie et conjugue les modalités de recherche, afin de mieux rendre compte de la complexité et de la relativité des points de vue inhérents aux comportements humains. La triangulation permet de consolider les résultats d’une recherche et peut s’effectuer à différents niveaux. Ainsi une triangulation peut concerner les instruments de mesure. Elle consiste alors soit à utiliser le même instrument à différents moments, soit à appliquer différents instruments pour mesurer le même phénomène. Cette démarche permet d’examiner la convergence et/ou la diversité des résultats obtenus par différents modes d’investigation. De même lorsqu’elle est théorique, la triangulation permet d’interpréter les 81

données au moyen de théories complémentaires ou concurrentes. Cette procédure permet au chercheur de varier les points de vue lors de la lecture et de l’interprétation des données empiriques, et par conséquent d’avoir une vision plus complète du phénomène étudié. La triangulation spatiotemporelle, en ce qui la concerne, met à l’épreuve une théorie ou un instrument dans des contextes différents de lieu et/ou de temps. Elle tient alors compte de la stabilité ou de l’évolution des résultats à travers le temps et l’espace, puis permet de déterminer les éventuels facteurs de changement. Il peut également y avoir une triangulation au niveau des sources d’information (ou des observateurs). Celle-ci se manifeste par la multiplication des informateurs (ou des observateurs) dans le processus de recherche. Elle permet de confronter les informations recueillies et permet de contrôler, lors de la production de résultats, les sources de biais liés à une source d’informations (ou à un observateur). Pour sa part, une triangulation interne confronte l’information (ou les interprétations dans la recherche) avec les caractéristiques de l’informateur (ou du chercheur) afin de déceler un rapport éventuel et de comprendre les motivations des individus à donner telle information ou telle interprétation.

9. Conclusion En gestion appliquée, la logique générale de la recherche empirique consiste à confirmer ou infirmer une hypothèse principale et à expliquer de plus près les raisons, mécanismes ou causes en référence aux hypothèses secondaires formulées, qui constituent les pistes que la démarche emprunte. Cette logique se résume cinq temps. En premier lieu, la recherche se penche sur un aspect précis de la réalité, positionne le problème sur lequel elle se penche et formule des questions de recherche spécifiques en lien avec ce problème. Elle conceptualise ensuite un modèle d’analyse (cadre d’analyse, hypothèses et grilles d’analyse) dont elle présente les caractéristiques. Ce modèle d’analyse donne une structure globale aux réflexions sur l’objet de la recherche et permet de se concentrer sur les éléments essentiels à l’atteinte des objectifs de recherche. En effet, la conceptualisation permet au chercheur de réfléchir au type d’informations dont il a besoin pour répondre à chaque question soulevée, à la façon dont il peut obtenir ces informations et à la façon de les utiliser avec le type d’analyse retenu. Ainsi il définit son champ d’observation, les méthodes qu’il mettra en œuvre et les observations à faire. Dans la lignée des pistes de recherche élaborées lors de la conceptualisation, le chercheur met alors en place son modèle opératoire. Il procède à l’élaboration des procédures et instruments adaptés qui serviront à mener les observations, à les traiter et à les interpréter. Ensuite au moyen de ces outils, il rassemble et analyse de manière systématique des faits valides et fiables sur le phénomène investigué. Enfin, il interprète ses observations à la lumière de son cadre d’analyse, confronte ses résultats avec ses 82

hypothèses de départ, avec ceux obtenus par d’autres chercheurs s’étant intéressés au même phénomène, puis élabore des conclusions en accord avec le paradigme dans lequel s’inscrit sa recherche. Une bonne réflexion théorique est nécessaire à tous les stades du cycle de recherche. En effet, une bonne connaissance du domaine étudié (et des mécanismes sous-jacents) aide à choisir les outils les plus appropriés et à éviter les fausses conclusions. En outre, puisque la démarche n’est pas exempte de sources diverses de biais et d’erreurs, il est également important pour le chercheur d’être attentif aux problèmes de validité et de fiabilité qu’il peut rencontrer au cours du processus de recherche. Ces éléments déterminent la cohérence, la crédibilité et l’utilité des résultats. De plus, afin d’assurer l’objectivité de la recherche, tout biais de confirmation doit être évité. En effet, la tendance humaine pousse à ne chercher ou voir que les faits qui nous donne raison et à ignorer les autres. Aussi le chercheur doit constamment avoir à l’esprit les hypothèses rivales aux siennes. Enfin, pour que la recherche devienne décisive ou déterminante, le chercheur démontre dans quelle mesure ses résultats peuvent être généralisés. Les différents éléments du cycle de la recherche empirique se conditionnent mutuellement et dépendent tous de l’approche de départ choisie pour traiter l’objet d’étude. Le choix de l’approche est donc crucial pour une recherche. Une approche doit permettre de traiter le problème particulier qui nous intéresse et doit être appliquée de façon appropriée. Elle permet de définir le plan ou le devis de la recherche, c’est-à-dire la forme que l’enquête prendra. Le choix d’une approche s’inspire de recherches similaires. Il est fondé sur la finalité du travail de recherche, sur les questions examinées, sur la faisabilité de l’étude, ainsi que sur les compétences et préférences du chercheur. De façon générale, pour explorer et comprendre un phénomène, les sciences de gestion appliquée font appel aux approches qualitatives. Pour confirmer et généraliser une explication, elles emploient des approches quantitatives. Plusieurs recherches combinent les approches qualitatives et quantitatives. Nous allons maintenant voir comment ces approches s’appliquent aux recherches empiriques en gestion appliquée pour en déterminer le schéma. Pour ce faire, nous nous pencherons sur les types de recherches distinguées dans la typologie simple (voir chapitre 2- section 3.4) – à savoir les recherches pilotées par la théorie; les recherches visant à créer une théorie et les recherches de type design – et nous examinerons les approches qu’elles mettent en œuvre. Ceci sera le sujet de la partie II de ce livre.

83

Chapitre 4 Les recherches pilotées par la théorie

1. Présentation et exemples Les recherches pilotées par la théorie sont le type classique de recherches empiriques. Elles reposent sur les théories et/ou lois existantes pour traduire et expliquer les différents aspects de la réalité. Elles sont donc ancrées dans un point de vue du réel dicté par une théorie préétablie. Les buts poursuivis par les recherches pilotées par la théorie sont multiples. Ainsi, une de leur ambition est de tester ou d’évaluer l’application d’une théorie, d’une loi ou d’un modèle à un contexte particulier.

Exemple 4.1 Déterminer si l’épanouissement (financier, social et psychologique) promis par les nouvelles formes d’organisation du travail basées sur la flexibilité des horaires et sur l’implication des travailleurs à différents niveaux décisionnels, est effectif parmi les ouvriers de l’industrie automobile française. De même, ce type de recherches aspire quelquefois à apporter des données empiriques pour renforcer une théorie (ou un modèle) existante.

Exemple 4.2 Prouver que le modèle de décision stratégique axé sur les vecteurs de croissance d’Igor Ansoff facilite l’atteinte des objectifs de l’entreprise G. Prouver qu’une thérapie comportementale X atténue la douleur émotionnelle plus efficacement que tout autre traitement. Elles peuvent également chercher à expliquer un phénomène au moyen d’éléments théoriques disponibles (concepts, lois, modèles), ou encore à prédire l’issue d’un processus ou d’une conjonction de facteurs avec ces éléments théoriques.

85

Exemple 4.3 Expliquer la violence juvénile dans les écoles secondaires du Québec par la théorie de l’amorçage cognitif14 et prévoir les répercussions à long terme de cette violence. Quels que soient les objectifs visés, les hypothèses formulées par les recherches pilotées par la théorie sont précises et anticipent des relations et des faits sous une forme directement vérifiable par des observations ou des expérimentations. Les théories, modèles et lois existants fournissent tous les éléments des hypothèses. Pour tester ces dernières, les recherches adoptent généralement (mais pas obligatoirement) une approche quantitative.

2. L’approche quantitative L’approche quantitative est la voie privilégiée pour décrire de façon détaillée un phénomène ou pour l’expliquer en établissant des liens de causalité entre différents éléments (Barker et coll., 2002; Del Baso et Lewis, 2007). Elle regroupe des méthodes mettant l’accent sur des mesures chiffrées précises (i.e. sur la comptabilisation d’unités telles que des individus, des comportements, des objets, des opinions, des mots, etc.) et elle se distingue surtout par la mise en place de plans ou de devis de recherche axés sur des enquêtes, des expériences ou des quasi-expériences, et des analyses statistiques. L’approche quantitative prône le recours à la collecte, à l’analyse causale et aux comparaisons de données numériques. Autant que possible, elle emploie des techniques d’échantillonnage favorisant des généralisations fiables. La vérification des hypothèses repose alors sur une analyse statistique inférentielle15. En conséquence, l’approche quantitative permet au chercheur de formuler une description mathématique des relations investiguées, à l’aide de tableaux, de graphiques et de statistiques descriptives ou inférentielles.

14

Théorie selon laquelle observer la violence ou y être exposé via la télévision, la musique ou les jeux, déclenche des représentations cognitives du comportement agressif stocké en mémoire dans nos propres schémas cognitifs. 15 La statistique inférentielle utilise les lois de la probabilité afin de tirer des conclusions fiables et d’induire les caractéristiques inconnues d'une population à partir d'un échantillon représentatif issu de cette population. Elle fournit des éléments permettant de spécifier du mieux possible les propriétés ou caractéristiques significatives manifestées dans l'échantillon, qui reflètent avec une certaine marge d'erreur possible celles de la population parente.

86

3. Les méthodes expérimentales 3.1. Les expériences classiques 3.1.1 . Utilité et principe L’essor de l’expérimentation telle que nous la connaissons aujourd’hui, les progrès scientifiques incommensurables qu’elle a permis dans tous les domaines et l’engouement qui en a résulté ont marqué les débuts de la recherche scientifique moderne. L’expérimentation classique a été hissée au rang de standard en science et est devenue un idéal scientifique que les chercheurs essaient souvent de reproduire. Elle implique la manipulation systématique de certains aspects d’une situation pour vérifier une hypothèse au sujet d’un comportement observable dans des conditions spécifiques. L’expérimentation est notamment utilisée pour établir des liens de causalités ou des relations fonctionnelles entre les termes d’une hypothèse. Elle sert aussi à démontrer que certains types d’événements sont prévisibles dans des situations spécifiques. De même, elle est utile pour déterminer les conditions dans lesquelles apparait régulièrement un phénomène d’intérêt (Myers et Hansen, 2007). L’expérimentation classique consiste à créer un dispositif artificiel se substituant à la réalité et/ou reproduisant les caractéristiques majeures de l’environnement des phénomènes étudiés. Ce dispositif artificiel impose des frontières à l’aspect de la réalité que le chercheur veut expliquer, créant ainsi une situation simplifiée au sein de laquelle l’observation et la collecte des données sont facilitées (Barker et coll., 2002). En effet, dans un tel dispositif, le chercheur peut introduire les variables opératives de ses hypothèses, pour examiner les relations qui les lient, tout en prenant soin d’éliminer la présence de toute variable confondante qui pourrait interférer sur les résultats. Ainsi, il est à même d’isoler, manipuler et contrôler expérimentalement un phénomène et observer l’influence de son comportement sur un autre phénomène. Une fois cette influence connue, elle est intégrée à l'explication. Dans les devis expérimentaux classiques, le chercheur contrôle tout à fait l’environnement des phénomènes étudiés ainsi que les variables en jeu. Ce contrôle expérimental se traduit par la prise de moyens physiques, concrets et mécaniques pour stabiliser un phénomène (une variable) en fonction de critères jugés pertinents dans le cadre de la recherche. Dans cet environnement contrôlé, le principe de l’expérience est le suivant : les sujets de l’expérience sont soumis ou non à un stimulus précis (un traitement ou une intervention), puis sont appelés à accomplir certaines tâches ou à réaliser diverses performances qui sont observées systématiquement et mesurées avec minutie. Le contrôle strict des variables permet de quantifier les stimuli et éventuellement de les faire varier avec précision. Il permet également de 87

mesurer précisément l’impact de chaque type de stimulation ou d’interactions de variables sur le phénomène d’intérêt. Afin de valider les observations, les expériences sont répétées plusieurs fois dans les mêmes conditions (avec les mêmes sujets ou des sujets similaires). Ainsi, l’expérimentation permet d’obtenir des résultats sûrs.

3.1.2 . Formes des devis classiques Formule générale De façon générale, pour observer l’impact d’une intervention (ou d’une situation) I sur un comportement O précis, des sujets aussi similaires que possible sont soumis à des interventions (ou situations) identiques dans des circonstances strictement comparables. Dans le protocole expérimental adopté, l’expérience consiste ainsi à isoler dans le dispositif artificiel des sujets expérimentaux et des sujets témoins (similaires aux premiers), et à les maintenir dans les mêmes conditions. Alors que les sujets n’ont subi aucune intervention, le chercheur procède dans un premier temps à la mesure du comportement O chez les deux groupes. Il obtient les mesures O1 et O1’ respectivement pour les témoins et pour les sujets expérimentaux. Dans un deuxième temps, il soumet les sujets expérimentaux à l’intervention I, mais pas les témoins. Enfin dans un troisième temps, il procède à nouveau à la mesure du comportement O chez les deux groupes, et obtient les mesures O2 et O2’ respectivement pour les témoins et les sujets ayant subi l’intervention I. Enfin, le chercheur évalue chez les sujets expérimentaux la différence entre O2’ (comportement après intervention) et O1’ (comportement avant intervention). En comparant cette différence avec celle entre O2 et O1 chez les témoins, le chercheur peut déterminer si l’intervention I a eu un effet significatif sur le comportement O : si O2’ - O1’ = O2 - O1 le chercheur peut rejeter l’hypothèse que I influence O.

Exemple 4.4 (Cas fictif) Un chercheur veut prouver que la théorie de l’apprentissage social peut expliquer le comportement agressif chez les jeunes enfants de 4 à 8 ans. Selon la théorie de l’apprentissage, les individus apprennent à imiter le comportement agressif d’autrui. Le chercheur souhaite appliquer le devis expérimental présenté à la figure 4.1. Aussi il sélectionne 36 enfants de 4 à 8 ans (18 garçons et 18 filles) et les place chacun dans une pièce remplie de poupées, avec lesquelles il incite les enfants à jouer pendant 30 minutes. Il observe les enfants et quantifie les comportements agressifs remarqués (nombre d’enfants avec des comportements agressifs et nombre de comportements agressifs par enfants violents). Dans un deuxième temps, il présente à 9 garçons et 9 filles, un court métrage dans lequel un adulte donne momentanément une fessée à un enfant désobéissant. Aux 18 garçons et filles restants, il présente un court 88

métrage dans lequel l’adulte réprimande l’enfant sans lui donner de fessée. Il replace ensuite les enfants avec les poupées et observe à nouveau les comportements agressifs chez chacun. Dans l’exemple 4.4, les 18 enfants exposés au film avec la fessée constituent les sujets expérimentaux et les 18 autres, les témoins; l’exposition au film avec un comportement agressif constitue l’intervention. Supposons qu’après le film, le chercheur observe 3 fois plus de comportements et d’enfants agressifs lors des jeux, chez le groupe exposé au film avec la fessée, alors que chez les témoins, le nombre de comportements et d’enfants agressifs reste similaire à celui de départ. Puisque seule la nature du film diffère entre les deux groupes, le chercheur peut conclure que la différence observée entre le comportement agressif de départ et celui après intervention chez les sujets expérimentaux est provoquée par l’intervention et donc qu’il existe une relation de cause à effet entre l’exposition à la violence et le comportement agressif des enfants. Comparaisons à une variable En fonction des objectifs du chercheur, la forme générale du devis expérimental est adaptée pour fournir les informations appropriées. Ainsi, si l’objectif du chercheur est de comparer les caractéristiques manifestées par deux groupes différents dans des circonstances similaires spécifiques, son devis s’attachera à créer un dispositif recréant les circonstances d’intérêt puis à mesurer les caractéristiques des deux groupes dans ce dispositif, sans les soumettre à un stimulus.

Exemple 4.5 (Cas fictif) Un chercheur se penche sur une théorie selon laquelle les individus roux supportent moins la douleur que les individus ayant une autre couleur de cheveux. Son expérience consiste alors à sélectionner 10 individus roux et 15 arborant une chevelure d’une autre couleur. Il place les individus dans une salle et leur demande de plonger la main dans un seau rempli d’eau et de glaçons et de résister à la douleur le plus longtemps qu’ils le peuvent (l’expérience durant au maximum 5 minutes). Il mesure alors le temps que chaque individu met avant de retirer son bras du seau et compare les temps observés parmi les roux avec ceux relevés chez les témoins. Analyse comparative avec plusieurs variables Une comparaison peut porter sur plusieurs variables. Le chercheur élabore alors un schéma de contrôle des variables, qui orientera son devis. Le contrôle des variables implique généralement que le chercheur ne fait varier qu’une variable à un moment donné, toutes les autres étant strictement tenues constantes. Ensuite, au moyen des formules de recherche présentées 89

plus haut, il observe les modifications produites sur le phénomène d’intérêt par les variations de la variable changeante.

Exemple 4.6 (Cas fictif) Un chercheur veut déterminer l’impact de la durée (d) d’une thérapie comportementale sur le niveau (N) d’anxiété ressentie par 10 sujets souffrant de graves troubles obsessionnels compulsifs. En dehors de ces deux variables, il prend en compte la médication des sujets (variable A), les autres psychothérapies suivies par les sujets (variable B) puis il s’assure que chacune de ces variables conserve la même valeur au fil du temps et qu’elle est identique d’un sujet à l’autre. Ses observations et analyses pour chaque sujet s’effectuent selon le schéma suivant : Tableau: Schéma de contrôle de la variable d Temps

Variables stabilisées dans le temps

Variable à l’étude

Phénomène à expliquer

T0

A.B

-

N0 = ?

T1

A.B

d1

N1 = ?

T2

A.B

d2

N2 = ?

T3

A.B

d3

N3 = ?

Soient d1, d2 et d3 des durées strictement différentes les unes des autres et n1, n2 et n3 des niveaux d’anxiété strictement différents entre eux. En tenant A et B constantes dans le temps, le chercheur fait varier d pour lui faire prendre la valeur d1 au moment T1, puis d2 au moment T2 et enfin d3 au moment T3. S’il observe alors que le phénomène à expliquer, le niveau d’anxiété N, initialement à n0 au moment T0 (sans thérapie comportementale), passe de façon concomitante avec les valeurs de d de n1 au moment T1, à n2 au moment T2 puis à n3 au moment T3, il pourra conclure que les changements dans le niveau d’anxiété ressentie par le sujet sont dus aux variations dans la durée de la thérapie comportementale. Il aura ainsi mis en évidence un lien de causalité entre les deux variables.

Exemple 4.7 (Cas fictif) Un chercheur veut déterminer quel facteur influence le plus le choix par les jeunes de 4 à 7 ans, d’un type casse-tête pour enfants. Il s’intéresse à 3 variables : 90

ƒ

X : la forme (rectangulaire, ronde ou triangulaire) du casse-tête,

ƒ

Y : la couleur (jaune, rouge ou bleue) des pièces du casse-tête

ƒ

Z : le nombre (10, 20 ou 30) des pièces du casse-tête.

Pour mener son expérience, il choisit 50 enfants (25 garçons et 25 filles) et leur présente chacun 3 jeux différents de casse-tête, dans des circonstances strictement comparables. Il reprend le processus à trois reprises (T1, T2 et T3), en modifiant chaque fois, la nature de la différence des casse-têtes, selon le schéma de contrôle de variables présenté au tableau. Il observe à chaque fois le choix de l’enfant. Tableau : Schéma de contrôle des variables X, Y et Z Temps

Variables stabilisées

Variables à l’étude

Choix des enfants rectangle = ?

T1

Y. Z (standard)

X

rond = ? triangle = ? jaune = ?

T2

X. Z (standard)

Y

rouge = ? bleu = ? 10 = ?

T3

X. Y (standard)

Z

20 = ? 30 = ?

En ne faisant varier qu’une variable à la fois, ex. X à T1, le chercheur peut observer avec quelle régularité le choix des enfants se portent sur l’un ou l’autre des casse-têtes. L’analyse de tous les choix à T1 lui permettra alors de déterminer si la nature de la forme fait pencher le choix des enfants plus vers une forme particulière, ou si le choix du jeu est indépendant de sa forme.

3.1.3 . Exigences de l’expérience classique Une expérimentation doit être objective. Idéalement, aucun biais ne doit faire pencher les résultats d’un côté ou d’un autre. Aussi, la manipulation expérimentale nécessite des procédures appropriées et rationnellement 91

élaboréees. En général, celles-ci ccomportent des d étapes riigides qui asssurent la rigueur des observaations à meener. La figu ure 4.3 préssente les priincipales erreurs lors de la miise en place d’un protoco ole expérimeental, qui nuiisent aux comparaaisons et quii peuvent fauusser l’interprrétation des résultats. r

Figure 0.1 : Principales erreurrs des desig gns expérimentaux clas siques (A) scchéma classique d’uun protoco ole expérim mental, (B B) choix inapprooprié du grroupe contrrôle, (C) au ucun group pe de contrrôle pour effectuer les co omparaisonss, (D) pas de messures préallables à l’intervvention con ntrôlant l’éévolution dans d le tem mps du phéénomène observéé et (E) grroupes conntrôle et ex xpérimental observés ddans des circonsstances expéérimentales différentes. x1=observ vation de l’oobjet non De façoon générale, une expériience compo orte un grou upe-contrôle (ou des sujets témoins) trraité dans les mêmees condition ns que less sujets expérim mentaux maiss qui n’est paas soumis à l’intervention n étudiée. Lee groupecontrôlee doit être approprié. a Il est choisi en e vue de reeprésenter cce qui se passeraiit dans le groupe exxpérimental si celui-cii ne subisssait pas 92

d’intervention. En effet, le design de la recherche expérimentale est élaboré de telle sorte que les différences entre les groupes contrôle et traité soient dues uniquement à l’intervention. Pour faciliter les comparaisons, le groupe contrôle doit donc posséder des caractéristiques équivalentes et similaires en tout point à celles du groupe expérimental. Lorsque l’expérience porte sur l’impact d’un stimulus sur un comportement, il est important de procéder (autant chez le groupe contrôle que celui expérimental), à la mesure du comportement étudié avant que les sujets ne soient soumis au stimulus. Ceci permet de suivre l’évolution du comportement dans le temps (avec et sans intervention) et facilite l’interprétation des résultats. Afin d’éviter tout biais lié aux circonstances expérimentales, les observations (avant et après intervention) sont menées parallèlement sur le groupe-contrôle et sur le groupe expérimental. Ainsi, le groupe-contrôle permet d’une part au chercheur de s’assurer que les conditions expérimentales n’induisent pas de variations significatives sur le phénomène sous observation (i.e. qu’il n’y a pas de variations importantes du comportement, sans intervention). D’autre part, il sert de base de comparaison pour quantifier l’impact réel du stimulus. En effet, sans observer l’évolution normale du phénomène (en l’absence de l’intervention), le chercheur ne peut statuer sur la contribution réelle de son intervention aux éventuelles variations du phénomène d’intérêt.

3.1.4 . Les limites de l’expérimentation classique L’expérimentation classique est un moyen d’investigation très efficace. Elle permet d’établir clairement les liens de causes à effets entre deux (ou plus de deux) variables données. L’expérimentation se tient dans un contexte de contrôle de variables, où la plupart des variables externes susceptibles d’entraîner une variation de l’effet étudié sont maintenues constantes (donc contrôlées) tandis que la « cause » investiguée (la variable indépendante) est laissée libre de varier dans des limites fixées. Ainsi les variations enregistrées dans l’effet sont attribuables uniquement à cette variable indépendante car le contrôle effectué permet de réduire l’influence d’autres facteurs et réduit par conséquent la plausibilité d’autres explications. Néanmoins, les dispositifs de contrôle mis en place par les protocoles expérimentaux nécessitent de grands moyens pour assurer l’efficacité et la rigueur du contrôle. En dehors de la psychologie qui y recourt particulièrement (Barker et coll. 2002; Del Baso et Lewis, 2007; Myers et Hansen, 2007), peu de disciplines en gestion appliquée mettent en place un dispositif expérimental classique. Il ne leur est pas toujours possible de procéder à la création d’un environnement artificiel et à la manipulation des sujets. Plusieurs situations naturelles étudiées par les gestions appliquées ne peuvent être reproduites artificiellement sans être significativement dénaturées. Parfois, l’expérimentation pourrait être possible, mais elle ne 93

sera pas réalisée pour des raisons éthiques. En effet, un projet expérimental n’est possible que lorsque les sujets de recherche ne s’exposent pas à un risque inacceptable et lorsqu’ils sont parfaitement informés des dangers potentiels qu’ils pourraient encourir. D’autre part, dans les sciences de l'homme, le contrôle des variables est particulièrement difficile. Bien que leurs fonctions soit analogues, plusieurs structures sociales (familles, gouvernements, etc.) étudiées par ces disciplines présentent de nombreuses différences structurelles selon leur contexte socio-culturel et historique. Et puisqu’elle isole ses objets d’étude, la méthodologie expérimentaliste ne permet pas de saisir l’importance sociale, culturelle et historique qui fait la singularité de l’être humain. Isolés de leur environnement, les sujets sont susceptibles de manifester (ou au contraire masquer) des caractéristiques qui ne sont pas présentes normalement du fait de leur interaction constante avec leur milieu naturel. De surcroît, l’influence de certains facteurs nécessite de longues périodes de temps pour être observée (les chercheurs ne peuvent isoler un individu ou un groupe pendant des années pour observer cette influence). Enfin, compte tenu de la nature changeante de certains phénomènes, il est difficile de reprendre les mêmes observations sur les mêmes groupes à des moments différents à des fins de validation.

3.2. Les quasi-expériences 3.2.1 . Utilité et principe des quasi-expériences Afin de palier quelque peu aux limites posées par l’expérimentation classique, certaines disciplines, comme la psychosociologie, les sciences de la gestion ou les sciences de l’éducation, pratiquent une forme d’expérimentation sur le terrain : la quasi-expérience. Cette dernière est notamment utilisée pour savoir si un événement X a été la cause d’un changement observé en milieu naturel. Elle trouve des applications entre autres pour la recherche évaluative et pour l’étude des organisations. La quasi-expérience s’inspire des devis expérimentaux classiques. Elle s’en distingue toutefois par l’absence de dispositif artificiel d’observation et par un contrôle des variables beaucoup moins prononcé. En effet, la quasiexpérience transpose le schéma expérimental classique au milieu naturel des sujets à l’étude. Ainsi, pour étudier l’influence d’un événement X, la quasiexpérience procède à des mesures dans le temps : avant X et après X. Le principal avantage des quasi-expériences est qu’elles offrent la possibilité d’étudier les sujets dans leur environnement naturel, et ainsi de prendre en compte le contexte socio-culturel et historique dans lequel ils évoluent. Mais étant donné que les sujets demeurent dans leur environnement naturel, le chercheur doit justement trouver dans ce même environnement des sujets expérimentaux ainsi que des sujets témoins qui leur sont similaires. Cela 94

restreint le choix des groupes équivalents ainsi que le nombre de sujets à observer, et rend l’échantillonnage pour les devis quasi-expérimentaux, plus délicat. L’absence d’un véritable contrôle des variables limite la sûreté des résultats et leur généralisation. En effet, bien que les quasi-expériences permettent d’obtenir des résultats fiables, toutes les variables impliquées dans l’étude ne sont pas toujours faciles à maitriser. Le chercheur ne peut éliminer toutes les sources de variations et les effets externes susceptibles d’influer sur sa variable dépendante. Lorsqu’une relation significative est constatée entre deux variables, il se peut que ce lien ne puisse être expliqué par l’impact de la variable indépendante sur la variable dépendante, mais plutôt par l’intervention d’une variable cachée: une telle variable confondante est appelée variable parasite (parce qu’elle ‘parasite’ la variable indépendante) (Tremblay et Perrier, 2006). Puisque le chercheur ne peut les contrôler et que plusieurs peuvent intervenir à son insu, les variables parasites sont la principale difficulté des études expérimentales de terrain. Avant de lancer sa recherche, le chercheur doit donc bien réfléchir au choix des cas à analyser et aux facteurs qui pourraient les influencer.

3.2.2 . Formes des devis quasi-expérimentaux Les séries temporelles interrompues Une série temporelle interrompue permet d’évaluer l’impact à moyen et long terme d’un événement, d’une politique ou d’une mesure d’intervention X sur un phénomène d’intérêt O observé dans son environnement naturel. Elle consiste à prendre à intervalles réguliers une série de mesures du phénomène avant la survenue de l’événement X, puis à procéder, toujours à intervalles réguliers, à une nouvelle série de mesures du même phénomène une fois l’événement X intervenu. Le principal avantage des séries temporelles interrompues est qu’elles permettent de mesurer les tendances à long terme de l’impact d’un évènement X sur un phénomène O. Néanmoins ces devis quasiexpérimentaux se heurtent à plusieurs difficultés. Compte tenu des restrictions engendrées par le contexte environnemental sur le choix des groupes de sujets, il est souvent impossible d’obtenir un groupe témoin. En effet, lorsqu’une mesure d’intervention ou une politique est mise en place dans un contexte (ex. une loi), elle ne s’applique pas juste à une partie de la population. Il n’y a donc pas de sujets présents dans ce contexte qui ne soient pas touchés par l’événement d’intérêt et qui pourraient alors servir de témoins. D’autre part, puisque les mesures ne s’effectuent pas dans un environnement contrôlé, des effets externes ou un événement Y peuvent très bien survenir en même temps que l’évènement X et interférer sur les mesures temporelles. 95

Exe mple 4.8 (Cass fictif) Une série tempoorelle s’intéresse à l’imp pact du durciissement des sanctions en ncourues auu Québec par p les jeunees de 18 à 25 ans condduisant en état d’ébriété, sur le nomb bre d’acciden nts de la rouute liés à l’alcool. On ob bserve aprèss l’entrée en e vigueur de la nouvvelle loi (événnement X) une baisse significativee du nombree d’accidentts liés à l’alcool et impliiquant un jeeune (phéno omène O). Toutefois T il y a une native à cettee baisse : peu u après l’entrrée en vigueuur de loi, expliication altern le laancement d’’une nouvellle campagne publicitairre choc, cibblant les jeunees de 18 à 25 ans et m montrant les effets ravag geurs de l’aalcool au volannt (événemen nt Y). Sans tém moins, l’inteerprétation ddes données nécessite donc de la pr prudence. Même s’il s existe dees différencees entre les données d avaant l’événem ment X et celles obtenues o aprrès, plusieurrs cas de figures fi peuvent se préseenter au chercheeur et expliq quer les diff fférences obsservées. La figure 4.5 présente quelquees-uns de ces cas de figurres.

Figuree 0.2 : Obserrvation des ééventuels d’un effets ement X événem sur l’éévolution de ddifférents phénoomènes dans lle temps. (A) Effet statiquue, (B) effet feu de paille,, (C) tendannce natureelle, (D) évoluttion natureellement cycliqque, (E) L’obserrvation des teendances évoolutives de chaque c phéno omène avantt et après X, perm met de classerr l’influence de X sur cess phénomènees dans 3 catéégories : 96

-

Une influence très probable de X sur les phénomènes : cas A et B. Sur le phénomène A, l’effet de X est bien évident. L’évolution de A avant et après X est linéaire, toutefois, suite à l’événement X, le phénomène A se stabilise à un autre niveau. Bien que la relation de cause à effet entre X et l’évolution de A soit très probable, il demeure possible que cet effet soit dû à une cause externe intervenant à l’insu du chercheur. L’évolution linéaire du phénomène B subit également une transformation suite à X, cependant après une période il se stabilise à nouveau à son niveau initial. Il s’agit d’un effet feu de paille. Ce cas de figure peut être illustré par l’introduction d’amendes plus élevées pour contrer le nombre d’excès de vitesse. Juste après cette introduction, les excès de vitesse diminuent mais après un temps, les automobilistes reprennent leurs habitudes de départ.

-

Une influence probable de X sur les phénomènes : cas E et F. Le cas E présente une situation où l’impact de l’événement X ne se fait sentir qu’après une période de latence (il peut également être expliqué par l’intervention d’une variable parasite). Par exemple l’introduction d’une mesure pour réduire le trafic en ville, telle que l’amélioration du service de transport en commun, n’entraine pas une réduction immédiate du trafic. Ses effets ne se font sentir que plus tard alors qu’une partie des habitants modifient leurs habitudes de déplacement. L’analyse de l’évolution du phénomène F montre que F tend à baisser graduellement avec le temps avant X. Juste après X, cette tendance est plus prononcée. L’événement X semble contribuer à accélérer la tendance initiale.

-

Aucun effet de X sur les phénomènes : cas C, D et G. L’analyse de l’évolution du phénomène C montre que ce dernier tend à baisser graduellement avec le temps. L’intervention de X ne modifie en rien ni la nature, ni l’ampleur de cette tendance. De même, X n’a aucune incidence sur la nature ou l’ampleur de l’évolution cyclique du phénomène D, ou sur celles de l’évolution exponentielle du G.

Plusieurs des situations évolutives illustrées à la figure 4.5 démontrent l’importance de considérer les tendances générales dans l’analyse des séries temporelles, plutôt que l’écart entre une ou quelques données après X et unes ou quelques-unes avant X. Ainsi, un observateur, qui ne tiendrait compte que des données obtenues aux temps 4 et 5 pour le phénomène E (effet avec un délai de latence) ou celles obtenues au temps 3 et 6 pour le phénomène B (effet feu de paille), n’observerait aucun écart entre la mesure après X et celle avant X. Il viendrait à la conclusion qu’il n’y a aucun impact de X sur E ou sur B. De même, la comparaison des données obtenues aux temps 4 et 5 pour les phénomènes C, D et G (sur lesquels X n’a aucune incidence) 97

montrerait un écart entre les mesures après X et avant X, suggérant ainsi un effet de X sur ces phénomènes. Une dernière difficulté liée aux séries temporelles concerne l’obtention des données. La série pouvant s’étendre sur plusieurs années, sa réalisation requiert généralement du temps et de la patience. En outre, il peut n’y avoir aucun relevé d’informations concernant les années précédant l’occurrence de l’événement sur lequel se penche le chercheur, ce qui conduirait à un manque de données dans la série. Devis avec un groupe de contrôle non-apparié Quoique ce soit la situation idéale, les séries temporelles interrompues permettent rarement de former dans l’environnement des sujets expérimentaux, un groupe de sujets témoins non affectés par l’événement ou l’intervention d’intérêt. Aussi, les quasi-expériences se forment parfois avec un groupe-contrôle non apparié au groupe expérimental. Dans ce genre de devis, le chercheur choisit hors de l’environnement spécifique aux sujets expérimentaux, des sujets témoins qui leur sont comparables mais qui évoluent dans un environnement quelque peu différent, dans lequel l’événement ou l’intervention d’intérêt n’a pas eu lieu. Le devis s’apparente alors à la forme générale de l’expérience classique (figure 4.1) ou encore à celui de la série temporelle interrompue (figure 4.4) et compare l’évolution d’un phénomène dans deux contextes différents.

Exemple 4.9 Afin d’améliorer la gestion des forêts publiques de son territoire, le gouvernement du Québec invite des acteurs régionaux comme les municipalités régionales de comté à s’impliquer activement dans la gestion des forêts publiques situées à l’intérieur des limites municipales. Alors que plusieurs acceptent, quelques-unes préfèrent ne pas ajouter cette responsabilité à leur mandat habituel. (Cas fictif) Un chercheur veut savoir si cette mesure a un impact sur la possibilité forestière16 des territoires d’une région X précise, ainsi que sur l’aménagement et sur la protection des forêts contre les incendies. Pour les besoins de sa recherche, il construit son groupe expérimental en sélectionnant différents territoires forestiers gérés par les municipalités de

16

La possibilité forestière ou possibilité ligneuse se fonde sur le calcul de la croissance annuelle du bois des unités de territoires exploitées. Elle examine le niveau de production annuelle des forêts afin de déterminer si les activités et le niveau de coupe s’effectue sans nuire à la productivité du territoire. Au Québec, le Ministre des Ressources Naturelles et de la Faune a l’obligation de ne pas autoriser davantage de coupe que la possibilité forestière ne permette.

98

la région X. Toutefois il n’y a dans cette région, aucune forêt non touchée. Afin d’obtenir un groupe témoin, il se tourne alors vers une autre région Y dont les forêts sont sensiblement pareilles à celles de la région X et y sélectionne quelques territoires situés dans des municipalités non impliquées dans la gestion. Par rapport aux séries temporelles interrompues, les devis utilisant un groupe de contrôle non apparié présentent l’avantage de tester les éventuelles causes externes (les variables parasites) pouvant interférer sur le phénomène mesuré. Ils permettent également de comparer l’influence relative de différents événements, ou de comparer plusieurs situations (ex. ce genre de devis peut être utilisé pour mesurer l’efficacité relative de diverses formules pédagogiques). Cependant, le chercheur ne peut contrôler les tendances naturelles inhérentes à chaque environnement, qui marquent l’évolution des phénomènes mesurés et qui peuvent varier d’un milieu à l’autre. Le groupe contrôle peut donc être sous l’influence d’autres variables. Enfin, en changeant d’environnement le chercheur peut avoir des difficultés à trouver des sujets aux caractéristiques similaires à celles des sujets expérimentaux. Ces difficultés peuvent rendre mal aisées les comparaisons et biaiser l’interprétation des résultats. La validité dans les devis quasi-expérimentaux Dans les devis expérimentaux classiques, la validité des observations est assurée par la reproductibilité des résultats lorsque les expériences sont répétées, par le contrôle des variables et par l’observation du groupe-contrôle (Barker et coll., 2002; Myers et Hansen, 2007). Afin d’assurer la sûreté des résultats et leur éventuelle généralisation, les devis quasi-expérimentaux s’appuient sur quatre type de validité (Schneider, 2006) : La validité interne qui découle du devis de recherche. Elle examine la qualité du devis et son adéquation pour cerner l’objet qu’il doit mesurer. Elle analyse les points-charnières du protocole, les hypothèses de départ, les sujets observés, l’obtention et la discussion des résultats et s’assure qu’ils sont logiquement articulés. Elle permet également de tester si les causes postulées dans le modèle explicatif sont les véritables causes des effets observés, et s’il n’existe pas d’autres influences sur les variables à expliquer.

ƒ

La validité externe rend compte de la capacité des résultats à refléter des critères externes à ceux de la recherche. Autrement dit elle permet de savoir dans quelle mesure les résultats sont généralisables et peuvent s’appliquer à d’autres contextes. Elle est toutefois difficile à contrôler, puisqu’elle implique de connaitre toutes les caractéristiques des contextes étrangers à la recherche.

ƒ

99

La validité statistique permet de connaitre le niveau de confiance que l’on peut accorder à un résultat observé. Elle repose sur des analyses statistiques qui ajustent une partie des données en fonction d’une ou plusieurs variables en vue de corriger un biais quelconque (ex. sousreprésentation d’un sous-groupe de la population au sein de l’échantillon observé). Ainsi elle indique les relations significatives au vu des probabilités.

ƒ

La validité de construction concerne le raisonnement théorique sur la mesure et l’interprétation. Elle vérifie si les différents instruments de mesure (indicateurs, indices, etc.) ou d’interprétation des résultats, fournissent réellement l’évaluation des caractéristiques indiquées par le cadre théorique.

ƒ

3.3. Conclusions sur les méthodes expérimentales Compte tenu de sa rigueur, le design d’une vraie expérience nécessite une certaine expertise. Typiquement, un débutant n’a tendance à différencier que deux conditions expérimentales par plus qu’une seule variable. Aussi, lui est-il plus avantageux de s’inspirer de la littérature et d’y reprendre un design qui a fait ses preuves (Schneider, 2006). Mais il importe avant de procéder à toutes mesures de commencer par lister toutes les variables. Les variables dépendantes (à expliquer) sont en règle générale mesurées avec des tests, tandis que les variables indépendantes (explicatives) sont définies par les conditions expérimentales. Dans un design quasi-expérimental il y a également les variables de contrôle à prendre en compte.

4. Les méthodes statistiques 4.1. Présentation et utilité des designs statistiques Les recherches concernées par ce genre de devis s'appliquent à faire connaître une réalité jusque-là méconnue, par la manipulation des données statistiques. Les devis statistiques sont mis en œuvre par les sciences économiques et par la majorité des sciences sociales. Contrairement aux devis expérimentaux, les études statistiques ne s’intéressent ni à des cas individuels ou groupes déterminés (individus, entreprises, villes, etc.) pris isolément dans un environnement, ni aux relations spécifiques unissant ces cas isolés. Elles aspirent plutôt à mettre en évidence les tendances générales, les lois ou principes qui s’appliquent à l’environnement ou à une population-mère dans sa globalité. L’importance des enjeux et de la problématique soulevés suppose l’accès à des informations difficiles à collecter et demandant énormément de temps. Aussi l’utilisation de base de données déjà publiées apparaît comme une option très accommodante, permettant l’accès à une multitude de données en un temps limité. Les études statistiques procèdent donc au traitement quantitatif de 100

donnéess déjà produ uites (des « statistiquess » souvent fournies auu moyen d’autress études) : relevés de populationss, bilans dee sociétés, eenquêtes socialess, etc. L’anaalyse de poliitique publiq ques et maiss aussi l’anaalyse des organisaations y on nt souvent rrecours à ceette forme d’investigatiion. Les donnéess utilisées sont publiées ssous une form me ou une au utre dans les banques de donnnées de diverrs organismess ou associattions. Comm me par exempple : ƒ ƒ ƒ ƒ ƒ ƒ

Baanque de données ddes Canton ns et villees suisses ; url: htttp://www.bad dac.ch/ Offfice fédéral de d la statistiqque; url: http p://www.bfs.admin.ch/ Staatistique Can nada; url : htttp://www.staatcan.gc.ca/sttart-debut-fra ra.html Orrganisation Mondiale M de lla Santé; url : http://www w.who.int/fr// Arrchives du Fo ond Monétairre International; url : htttp://www.imf.org/externaal/np/arc/fre//archivef.htm m Arrchives des ministères m (coomme le Min nistère des Ressources R N Naturelles et de la Faune du d Québec; uurl : htttp://www.mrrnf.gouv.qc.cca/energie/staatistiques/ind dex.jsp)

Parfois elles existen nt sous form me non-publiéée, et le cherrcheur doit ccontacter les entreeprises qui lees conservennt. Puisqu’ellles ne procèd dent pas elless-mêmes à la mesure m des données, d less études staatistiques so ont très acccessibles, extrêmeement écono omiques et offrent la possibilité de tester pplusieurs hypothèèses alternatiives. Elles ffournissent une u analyse très rigoureeuse des donnéess sur lesqueelles elles sse penchent, et priorisent un raisonnnement théoriquue en raison de la difficuulté à mesureer précisémeent un compoortement social ou o une variab ble théoriquue possédant plusieurs diimensions, een raison de la masse de donn nées à traiterr (pouvant co oncerner toute une popullation ou toute unne époque – ex. les donnnées obtenu ues lors d’un n recensemeent de la populatiion), en raison de la muultitude de co orrélations ett d’interrelattions qui caractérrisent les phénomènes soociaux étudiiés, et enfin en raison de la non disponibbilité de certaines donnéees.

4.2. Principe général g dess études sta atistiques Les étuddes statistiqu ues s’inspireent largemen nt du point de vue du phhilosophe autrichien Karl Popp per sur la proogression du u savoir (figure 4.6).

Figure : Schéma simp mplifié de la progression p du u savoir selonn Karl Popper EE = T = tentativve theory (h hypothèse); E P = prroblème; TT éliminattion des erreeurs. Source: Graphique tiré de Poppper K,

101

Karl Popper P conteeste le poiint de vue inductiviste selon leqquel un raisonneement de réécurrence à partir de l’o observation de faits parrticuliers permet dans un prem mier temps dd’inférer unee loi généralle ou une thééorie audelà des objets exp périmentés, ppuis dans un u second teemps de prééciser ou corrigerr cette loi pour aboutir à une théorie plus affinée.. Il argumentte que la connaissance comm mence avec uun problèmee P1 pour leq quel on form mule une hypothèèse (une ten ntative theorry) censée résoudre le problème (Popper, 1979). Cette hypoth hèse est souumise à unee analyse criitique, une ttentative d’éliminnation des erreurs, qui eessaie de la réfuter. Cettte analyse chherche à trouver une incoh hérence interrne dans l’’hypothèse ou à apporrter des l prédiction ns de l’hypot othèse. Si observaations qui enttrent en désaaccord avec les cette dernière d réssiste à la réfutation, elle est considérée comme temporaairement vallide. Elle ooffre une no ouvelle faço on d’appréheender le problèm me. Mais cee faisant, eelle suscite alors à son n tour un nouveau questionnnement surr le problèm me de déparrt et transfo orme celui-cci en un nouveauu problème P2 généralem ment plus pro ofond et pluss fertile que celui de départ (Popper, ( 1979). En accoord avec cee schéma, lles études statistiques s formulent f doonc une hypothèèse (introdu uisant des variables statistiques) s pour réponndre au problèm me sur lequeel elles se ppenchent. Ellles construissent alors dees outils statistiqques appropriés pour rrendre com mpte et anaalyser les vvariables introduiites et leurs relations. E Ensuite elless procèdent à l’éliminaation des erreurs (les hypoth hèses inadéquuates) au moyen m de ces outils stattistiques. Plusieurrs hypothèses alternative s pouvant êtrre formuléess simultaném ment pour résoudree un problèm me donné, lee schéma pro oposé par Karl K Popper ppeut être élaboré de différentes façonss pour répo ondre aux besoins dess études statistiqques (figure 4.7). 4

Figuure : Adap ptation du schéma poppérien p au test dee plusieurss hyppothèses alteernatives. P = problème; TT = tentattive theory (hypothèse)); EE = élim mination dess hique reprodduit à partiir de Popper K, 19799. Objectivee erreeurs. Graph knoowledge, 5th h ed.; Oxforrd Universitty Press, Ox xford 102

Exemple 4.10 (Cas fictif) Une étude statistique s’intéresse aux facteurs déterminant l’importance du transfert linguistique17 dans les différentes provinces canadiennes et sur le devenir du groupe linguistique francophone dans les provinces anglophones (P1). L’étude postule que, plus les gouvernements provinciaux instaurent des mesures assurant la protection du français (ex. par des ententes relatives à la prestation de services en français, des obligations pour les immigrants d’avoir un niveau minimum de français), moins le transfert linguistique est important chez les familles d’origine francophone (TT a). Elle postule également qu’il existe un lien entre le transfert linguistique chez les familles d’origine francophone et : la structure familiale (biparentale ou monoparentale), les parents des familles monoparentales ayant moins de temps pour apprendre le français à leurs enfants (TT b); le revenu des ménages, les ménages à faible revenu consacrant moins d’énergie et de moyens à l’apprentissage du français (TT c); enfin le niveau d’éducation des parents, les parents ayant complété des études poussés aidant plus volontiers leurs enfants à parler le français (TT d). Afin de tester ces hypothèses, l’étude se penche sur les relevés du recensement obtenus par Statistiques Canada pour l’année 2010 pour les différentes provinces anglophones, puis procède à des analyses statistiques pour dégager les tendances générales concernant les variables à l’étude (EE). Elle analyse les éventuelles corrélations et leur degré de précisions afin de réfuter ou non les hypothèses. Celles résistant à la réfutation permettent de fournir une explication temporaire sur le devenir des groupes linguistiques francophones mais elles soulèvent également de nouvelles questions (ex. comment faire pour aider les familles monoparentales à s’impliquer plus dans l’apprentissage du français à leurs enfants ?).

17

Les transferts linguistiques, aussi appelés substitutions linguistiques, désignent le phénomène suivant lequel la principale langue d’usage au foyer est différente de la langue maternelle des individus. Puisque la langue d’usage au foyer est habituellement celle qui est transmise aux enfants, elle influe à long terme sur le devenir des groupes linguistiques.

103

4.3. Les méta-analyses Les méta-analyses sont une forme de recherche comparant la force des résultats de plusieurs recherches et l’effet de la taille des échantillons sur les résultats obtenus (Barker et coll., 2002). Dans les dernières années, les métaanalyses sont devenues la méthode standard pour revoir un large ensemble de la littérature (Rosenthal et DiMatteo, 2001). Elles utilisent les techniques quantitatives pour agréger les résultats de différentes études et pour déterminer quelles caractéristiques de ces études sont associées à des résultats spécifiques. Par exemple, une méta-analyse se penchant sur les études empiriques relatives à la relation entre la planification stratégique et la performance globale des compagnies manufacturières (Greenley, 1986) peut examiner si les études dont l’approche de recherche vise à comparer les performances d’entreprises utilisant la planification stratégique à celles ne l’utilisant pas de façon formelle, obtiennent un schéma de résultats différents de celui obtenu par les études dont l’approche consiste à comparer les performances d’une même compagnie avant et après l’adoption d’un modèle de planification stratégique. Elle peut également examiner le type de résultats obtenus en fonction des variables utilisées pour estimer la performance des compagnies (Greenley, 1986). Bien que les principes généraux des méta-analyses ne soient pas difficiles à comprendre, conduire une méta-analyse requiert des aptitudes analytiques poussées, la mise en application de mécanismes et d’étapes rigoureux (Hunter et Schmidt, 1990; Rosenthal et DiMatteo; 2001). Les méta-analyses présentent l’avantage de fournir une méthode efficace d’agréger la littérature et de détecter les tendances qui ressortent des différentes études sur un même sujet. Elles ont toutefois l’inconvénient d’accorder trop de poids aux études méthodologiquement infondées.

4.4. Les sondages Plusieurs études statistiques se basent sur des données recueillies par d’autres recherches. Mais certaines procèdent elles-mêmes à des enquêtes par sondage. Elles visent à obtenir des informations sur la façon dont des variables non manipulables mais quantifiables peuvent influencer une relation entre des variables opératives. Elles construisent alors un questionnaire destiné à prélever de façon systématique les informations essentielles. Le questionnaire est soumis à un large échantillon via un entretien directif et structuré au cours duquel il est complété par un intervieweur en situation face à face ou au téléphone. Il peut également être complété directement par les participants, auquel cas il leur est soumis par la poste, par messagerie électronique ou remis en mains propres dans un lieu ouvert (ex. arrêt de bus, place commerciale, sur un campus). L’utilisation du questionnaire permet de 104

rejoindre un large éventail de la population et témoigne d’un intérêt plus grand pour les données de groupe que pour celles de chaque individu pris isolément. Pour les besoins du sondage, le chercheur choisit donc un échantillon significatif au sein de la population qu’il entend étudier. En général il constitue un échantillon au hasard et vérifie ensuite si cet échantillon est représentatif des caractéristiques déjà connues de la population étudiée — distribution par tranches d’âge, par sexe, par revenus, etc. En appliquant des méthodes statistiques standard, il peut alors conclure que les opinions recueillies auprès de l’échantillon représentent correctement les opinions de la population étudiée. Le questionnaire est une technique populaire, peu coûteuse et qui s’administre rapidement. Mais sa construction n’est pas aussi simple. Une grande attention doit être portée à sa confection de manière à ce qu’il ne soit pas biaisé et qu’il permette bien de recueillir les informations recherchées. Les questions présentes dans un questionnaire ne sont pas formulées au hasard. En effet, elles s’inscrivent toutes dans les définitions opérationnelles des concepts de la recherche (Long, 2007) et sont conçues au terme d’entrevues pertinentes (avec des experts) et d’une revue rigoureuse de la littérature. Chaque question implique une variable et est formulée avec clarté, simplicité et en termes neutres pour éviter toute confusion et pour ne pas orienter le choix des répondants. L’objectif dans les enquêtes par sondage étant de mesurer quantitativement des aspects reliés à une problématique quelconque, les questions font appel à différentes échelles de mesure et à la codification des informations en données chiffrées (Barker et coll., 2002).

105

Tableau : Échelles de mesures couramment utilisées en gestion appliquée Échelle

Description

Nominale

Chaque observation fait référence à une classe ou une catégorie indépendante définie par un nom plutôt que par un chiffre. Ces classes n’ont aucun ordre spécifique.

Ordinale

Puisqu’il n’est pas toujours possible de prendre en compte toutes les variations d’une variable, l’échelle ordinale ordonne les observations selon des rangs, mais qui ne correspondent pas à une valeur numérique spécifique et unique. Avec cette échelle, les distances entre les observations de rangs différents sont souvent inégales.

À intervalles

Elle classe les observations dans des intervalles reflétant le rang et les différences réelles entre les caractéristiques mesurées. Le point 0 est toutefois arbitraire

De proportion

Elle mesure exactement la caractéristique d’intérêt et lui attribue une valeur chiffrée

Exemple Q. Quelle est votre situation matrimoniale ? 1. Célibataire (jamais marié(e)) 2. Marié(e) 3. Conjoint(e) de fait 4. Divorcé(e) 5. Veuf (veuve) Q. Combien de temps passezvous chaque semaine sur Facebook ? 1. moins de 1 heure 2. de 1 à 5 heures 3. plus de 5 heures Q. Quel est votre niveau de satisfaction par rapport au service que vous venez de recevoir ? 1. Très satisfait 2. Satisfait 3. Passablement satisfait 4. Peu satisfait 5. Pas du tout satisfait Q. Combien de voitures possédez-vous ?

La codification des variables consiste à attribuer un code distinct pour chaque réponse possible à une question.

Exemple 4.11 Question : Dans quel type de logement vivez-vous ? Les réponses possibles sont: maison unifamiliale, duplex, condominium, appartement loué, chambre louée ou autre. Un système de codification consisterait à attribuer à chaque type de réponse possible un code chiffré qui sera utilisé pour l’analyse. Tableau : Exemple de codification des modalités d’une variable Réponse Code Maison unifamiliale

1

Duplex

2

Condominium

3

Appartement loué

4

106

Chambre louée

5

Autre

6

En codifiant ainsi chaque variable, on obtient pour chacun des individus un ensemble de données chiffrées permettant d’analyser statistiquement les corrélations existant entre les modalités adoptées par deux ou plusieurs variables. Dans le cadre d’une enquête par sondage, le questionnaire comprend deux types de questions : une majorité de questions fermées destinées à établir le profil des répondants et le profil des préférences de l’échantillon; des questions ouvertes permettant de faire connaitre toutes les réponses possibles que peut énumérer l’échantillon. Les questions fermées se présentent sous la forme d’un questionnaire à choix multiple, soit des questions dichotomiques (offrant deux choix de réponses), des questions à possibilités multiples (mais demandant de n’en choisir qu’une), des questions à réponses multiples (permettant au répondant de choisir autant de réponses que désirées dans la liste fournie), des questions avec classement (demandant de classer les réponses selon un certain ordre d’importance ou de préférence) ou des questions avec une échelle d’évaluation (demandant de répondre au moyen d’une côte établie selon une échelle de mesure donnée). Les questions fermées offrent un nombre limité de réponses toutes prêtes, soigneusement énumérées par le chercheur en fonction d’une approche conceptuelle ou d’une théorie bien précise. Elles se basent sur l’état des connaissances et sur les objectifs du chercheur. Les réponses énumérées constituent autant que possible une liste exhaustive des possibilités les plus représentatives ou les plus pertinentes (Long, 2007). Elles sont composées d’énoncés plausibles et explicites. Bien qu’elles soient moins souvent utilisées dans les sondages, les questions ouvertes sont utiles pour compléter une liste de réponses, pour connaitre le motif du choix des répondants ou parce que les possibilités de réponses sont trop nombreuses pour être énumérées systématiquement (Long, 2007). Elles présentent l’avantage d’offrir une plus grande liberté d’expression aux répondants. De surcroît, il n’y a aucun biais engendré par la limite des réponses possibles; les répondants peuvent nuancer leurs réponses. Pour être analysées, elles sont soumises à une analyse quantitative de contenu, c’est-àdire une analyse extensive de la fréquence d’apparition de certains termes, de certaines caractéristiques de contenu ou des corrélations entre elles (Quivy et van Campenhoudt, 1988). L’analyse statistique du contenu requiert la création de catégories mutuellement exclusives et un travail ardu de codification.

107

4.5. Les limites des études statistiques Les études statistiques utilisant des chiffres compilés, par d’autres personnes, dans but autre que celui des études statistiques qui y ont recours, ont en conséquence le degré de fiabilité des sources sur lesquelles elles s’appuient. Les chercheurs n’ont aucun contrôle sur la prise de données sur laquelle se basent leurs études. De surcroit, en réunissant ces chiffres, les études statistiques peuvent s’appuyer sur des données rassemblées de diverses manières (surtout si elles portent sur des sociétés et époques différentes) par leurs chercheurs respectifs, de sorte que les comparaisons sont plus épineuses. Il leur faut donc sélectionner soigneusement ces sources. En outre avec les données déjà compilées, les études statistiques se heurtent souvent aux différences de catégorisation : les catégories retenues dans les étudessupports ne correspondent pas exactement aux catégories définies pour les besoins de l’étude statistique. Par exemple, une étude qui se penche sur les individus avec un revenu se situant entre 25 000 $ et 35 000 $ dollars, et qui utilise une source employant des intervalles de 20 000 $ à 30 000 $ et de 30 000 $ à 40 000 $, devra tenir compte de ces différences. Une autre limite des designs statistiques est formée par le fait que pour être significatifs, les résultats doivent avoir été obtenus sur un vaste échantillon. Dans certains cas cependant, il est très difficile d’obtenir un vaste échantillon (ex. composer un échantillon au sein des membres d’une secte). De même, l’étude doit parfois se contenter de données fragmentaires. Les chiffres obtenus lors d’études expérimentales ne peuvent pas saisir toutes les réalités. Par exemple, les chiffres officiels sur l’économie canadienne ne tiennent généralement pas compte de l’économie souterraine ou du bénévolat. Si l’étude statistique veut connaître la valeur totale du travail effectué au Canada, il manquera donc deux données essentielles dans les statistiques officielles. On peut trouver un autre exemple illustrant les données fragmentaires avec une étude qui se penche sur l’exode rural au cours des 100 dernières années dans un pays en voie de développement de l’Afrique subsaharienne. Dans les pays en voie de développement de l’Afrique subsaharienne, les registres démographiques ne sont pas tenus avec la même rigueur dans toutes les régions du pays. Aussi, pour rendre compte des phénomènes démographiques, l’étude devra composer avec des données partielles couvrant une partie du pays ou avec des données orales incertaines transmises par les plus anciens habitants des régions rurales étudiées. Lorsqu’elles font appel à des sondages, la fiabilité des études repose largement sur le questionnaire. Son adéquation est primordiale. Des questions mal formulées ou l’emploi de concepts équivoques introduisent un biais dans les réponses fournies par les participants. Il en va de même des catégories de réponses fournies dans le cadre de questions fermées. Une liste de réponses non exhaustive, des catégories mal définies, non mutuellement 108

exclusives ou non équilibrées orientent le choix des répondants vers un type de réponses. De plus, bien qu’il soit administré à un large échantillon, seul une partie accepte de répondre au questionnaire. Et cette portion n’est pas toujours représentative de la population dans sa globalité. L’étude doit donc en tenir compte pour ne pas introduire de biais dans l’analyse. Lors de l’interprétation des données le chercheur replace les observations dans le contexte des hypothèses de départ et élabore des explications pour comprendre les dynamiques qui interviennent dans le phénomène étudié. Il faut toutefois demeurer très prudent dans ce processus. Toutes les observations doivent être intégrées pour déterminer le niveau de précision du modèle explicatif. Le chercheur peut être tenté de généraliser de façon abusive des observations qui avaient une portée limitée (ex. une corrélation entre quartiers plus pauvres (revenus moyens) et vote socialiste ne prouve pas encore que les ouvriers ont forte tendance à voter écologique). Si le modèle explicatif ou les hypothèses s’appliquent à la majorité des observations mais sont incapables de rendre compte de quelques-unes seulement, le chercheur peut être poussé à ignorer ces observations et à valider son hypothèse ou son modèle explicatif (voir exemple 4.12). Enfin, la prudence est également de mise dans l’établissement d’une relation de cause à effet Le chercheur doit s’assurer qu’il existe une chronologie d’apparition entre la variation de la cause et celle de l’effet (que la cause précède l’effet), que la co-variation observée est réelle et qu’il n’y a pas d’autre explication possible que la causalité. Sans cela, il peut être amené à établir une relation de cause à effet entre deux facteurs qui ne font qu’évoluer côte à côte (ex. « là où on voit plus de cigognes, il y a plus de naissances ». Le nombre de cigognes vues et le nombre de naissance évoluent côte à côte en raison de l’urbanisation, il n’y a pas de relation de cause à effet entre les deux) ou à surestimer la corrélation. Une étude s’intéresse aux liens entre le niveau d’éducation et la richesse d’un pays. L’hypothèse dirigeant les observations est la suivante : le niveau de formation d’un pays est fonction de sa richesse. Les concepts sont mesurés de la façon suivante : •

La richesse : par le PNB/habitant



Le niveau de formation : par le taux d’alphabétisation.

En réunissant les données compilées pour chaque pays par différents travaux antérieurs, l’étude établit entre les variables la relation illustrée au graphique.

109

Figure : Niveau d’alpphabétisatio on des pay ys en foncction du PNB/habitaant Danss l’ensemblee le modèle explique les observation ns, toutefois les pays prodducteurs de pétrole, p indiiqués par un ne flèche nee s’intègrentt pas au moddèle. Il seraitt erroné de ddire que le modèle m est valide v sauf ppour ces payss. Le chercheur devra rééviser son modèle m et ch hercher une nnouvelle variaable qui inteerfère avec laa relation en ntre le niveau de formatiion et la richeesse (Schneider, 2006). IIl analysera donc plus attentivement a t ces cas pourr pouvoir form muler une noouvelle théorrie.

5. Les études coomparativees de cas Les designs comparatifs sont généralemeent employéés par les sciences politiquues, lorsque les devis expéérimentaux et e statistiques ne peuventt pas être mis en place (Penniings et coll.,, 1999; Land dman, 2008; Hantrais, 20009). Ils ve des politiques ou sstratégies servent notamment à l’analysee comparativ gouvernnementales. Les designss comparatiffs comprenneent deux pri rincipaux types de d devis, fon ndés sur les méthodes inductives i de déterminaation des causes formulées par p le philossophe britann nique John Stuart Mill en 1843 (Faure, 1994): le design d des systèmes les plus simillaires (Mostt similar systemss design – MSSD) M qui ccorrespond à la méthodee de la différrence de Mill; lee design dess systèmes lles plus diffférents (Most different systems 110

design – MDSD) qui correspond à la méthode des concordances ou du commun accord de Mill.

5.1. La stratégie des cas comparables 5.1.1 . Principe La stratégie des cas comparables, encore appelée «design des systèmes les plus similaires », consiste à comparer des cas très similaires qui se distinguent notamment au niveau de la variable dépendante. Elle est basée sur le canon de la méthode de la différence de John Stuart Mill (Faure; 1994) et suppose que la comparaison de ces cas permettrait d’identifier les variables indépendantes responsables de la différence observée au niveau de la variable dépendante. « If an instance in which the phenomenon under investigation occurs, and an instance in which it does not occur, have every circumstance in common save one, that one occurring only in the former; the circumstance in which alone the two instances differ, is the effect, or the cause, or an indispensable part of the cause, of the phenomenon.» (Mill, 1882: p. 483) Plus les cas sont similaires, plus il devrait être possible d’isoler les facteurs responsables des différences observées entre eux au niveau de la variable dépendante. Le MSSD sélectionne donc des contextes avec le plus de chevauchement possible en termes de variables susceptibles d’influencer la variable dépendante (voir exemple 4.13). Ces variables ainsi maintenues constantes (idéalement) peuvent donc être ignorées dans les hypothèses (donc éliminées des analyses) et servir à titre de contrôle. En effet, si elles sont identiques pour chaque contexte, ces variables ne peuvent expliquer les différences observées au niveau de la variable dépendante. Au moyen d’une telle sélection chevauchante, le MSSD simule donc l’opération de contrôle expérimental des variables exercée lors des devis expérimentaux (contrôle impossible à exercer dans les situations naturelles) et fournit ainsi un bon contrôle des variables parasites. Il se concentre alors sur les variables indépendantes présentant le maximum de variation entre les cas sélectionnés et qui pourraient expliquer la différence au niveau de la variable dépendante. Si avec chaque variation d’une de ces variables indépendantes, le chercheur observe une différence au niveau de la variable dépendante, il peut déduire que cette variable indépendante est la cause, une partie indispensable de la cause explicative du phénomène observé ou encore un effet de ce phénomène.

Exemple 4.12 (Cas fictif) Une étude se penche sur la capacité d’adaptation des systèmes administratifs des pays qui subissent des conditions extrêmes 111

de pénurie en eau. Elle veut déterminer si le niveau de tension politique présent dans un pays influence la capacité de ce pays à mettre en place des stratégies permettant de répondre adéquatement aux demandes de ses citoyens, alors que le pays est confronté à une condition extrême de pénurie en eau potable. Pour cela, elle applique le MSSD et sélectionne 4 pays très similaires mais présentant des niveaux d’adaptation différents (variable dépendante). Réfléchissant aux variables susceptibles d’influer sur la capacité d’adaptation, elle s’assure d’obtenir le plus de chevauchement possible entre ces variables. Dans la sélection effectuée ainsi que le chevauchement entre les variables, la comparaison des caractéristiques des pays permet d’éliminer de l’explication la plupart des variables indépendantes. Si elles ne varient pas d’un pays à l’autre, elles ne peuvent pas expliquer les différences observées au niveau de la variable dépendante. La comparaison met toutefois en lumière un facteur qui varie selon les pays : le niveau de tension politique. Elle permet également d’observer que la présence d’une tension politique quelconque est systématiquement associée à une incapacité des pays à s’adapter aux pénuries en eau (pays B et D), tandis qu’en l’absence de tension, les pays s’adaptent à la condition extrême (pays A et C). L’étude peut donc conclure que, toutes choses étant égales par ailleurs, il existe une relation probable entre le niveau de tension politique à l’intérieur d’un pays, et la capacité de ses structures administratives à s’adapter adéquatement à la demande des citoyens lorsqu’il y a une pénurie en eau potable. Elle ne peut toutefois statuer sur la direction de cette relation, c’est-à-dire qu’elle ne peut affirmer que la tension politique est la cause ou un effet de l’adaptation.

5.1.2 . Avantages et inconvénients Le principal avantage de la stratégie des cas comparables est qu’elle réduit les possibilités d’interférences des variables parasites sur la variable dépendante. Elle permet également d’étudier les interactions entre variables au niveau systémique, ce qui offre une analyse plus fidèle de la réalité. Enfin, puisqu’elle est fondée sur l’analyse comparative de cas très similaires, elle présente de façon générale moins de problèmes de validité de construction et de fiabilité des mesures (Schneider, 2006). En effet, pour les besoins de l’analyse comparative, elle n’a recourt qu’à des construits qui peuvent s’appliquer à tous les systèmes sélectionnés pour l’analyse. L’inconvénient majeur du MSSD est que toutes les variables contextuelles pouvant potentiellement agir sur la variable dépendante ne peuvent pas toutes être tenues constantes en même temps. Plus il existe de variables à tenir constantes, plus le choix des cas auxquels ces variables contrôles peuvent s’appliquer est limité. En outre la mise en œuvre du MSSD nécessite une grande variance des variables opératives. Le MSSD ne peut donc se 112

livrer qu’à la comparaison d’un nombre restreint de cas ou au contrôle d’un nombre limité de variables, ce qui réduit considérablement les possibilités de généralisation des résultats (Landman, 2008). Enfin, comme souligné dans l’exemple 4.13, le MSSD permet uniquement d’établir l’existence d’une relation de cause à effet entre les variables d’intérêt, il ne permet généralement pas d’indiquer la direction dans laquelle opère cette relation.

5.2. La stratégie des cas dissimilaires 5.2.1 . Principe Également appelée « design des systèmes les plus différents », cette stratégie se fonde sur le canon de la méthode du commun accord de John Stuart Mill (Faure; 1994). « If two or more instances of the phenomenon under investigation have only one circumstance in common, the circumstance in which alone all the instances agree, is the cause (or effect) of the given phenomenon. » (Mill, 1882: p. 482) Elle est souvent utilisée conjointement avec la stratégie des cas comparables pour pallier aux complications engendrées par le nombre important de variables contextuelles et le faible nombre de cas pour lesquels elles peuvent être maintenues constantes lors du MSSD. Elle adopte toutefois une approche contraire. Le MDSD procède à une large sélection de systèmes divers, qui présentent des valeurs très différentes pour plusieurs variables indépendantes, mais qui présentent tous la même valeur pour la variable dépendante (voir exemple 4.14). Le chevauchement entre les contextes en termes de variables indépendantes est donc minimal. Le MDSD s’attache alors à trouver une similarité entre les différents cas, similarité qui pourrait expliquer l’équivalence au niveau de la variable dépendante. Il suppose donc que si des facteurs explicatifs sont différents d’un système à l’autre, ils ne peuvent expliquer l’homogénéité observée au niveau de la variable dépendante. Le MDSD compare des cas aussi contrastants que possible en vue de prouver la robustesse d’une relation entre une variable indépendante et une variable dépendante. Il observe l’association entre ces deux variables à travers tous les cas sélectionnés. Un tel devis assume qu’en démontrant que la relation tient, malgré des situations contextuelles dramatiquement opposées, l’argument selon lequel il existe une relation de cause à effet entre cette variable indépendante 113

équivalente dans tous les cas et la variable dépendante, est renforcé.

Exemple 4.13 (Cas fictif) Ayant conclu qu’il existe une relation de cause à effet entre le niveau de tension politique observé dans un pays, et la capacité de ses structures administratives à répondre à la demande en situation de pénurie en eau potable, l’étude de l’exemple 4.13 veut confirmer cette relation. Elle adopte donc un MDSD et sélectionne un large éventail de cas différents les uns des autres. Puisque l’adaptation (variable dépendante) est présente dans tous les contextes malgré les différences observées pour la plupart des facteurs (variables indépendantes), l’analyse suggère qu’il y a bien une relation entre la capacité d’adaptation des structures administratives et le seul facteur que tous les contextes ont en commun : l’absence de tension.

5.2.2 . Avantages et inconvénients Puisqu’il n’est limité que par la stabilité de la variable dépendante, le MDSD offre l’avantage de pouvoir comparer plus de cas que le MSSD et de prendre en compte plus de variables indépendantes. Ainsi ses résultats sont plus facilement généralisables. De façon général, il présente les mêmes avantages que le MSSD, mais comme le MSSD il ne peut éclairer sur la direction de la relation de cause à effet observée. Le principal inconvénient du MSSD est qu’il nécessite un grand nombre de comparaisons entre systèmes d’intérêt pour éliminer toutes les variables indépendantes potentielles. De plus, il ne sert généralement qu’à confirmer ou infirmer l’existence d’une relation entre une variable indépendante donnée et une variable dépendante donnée. Il suit donc généralement l’application du MSSD et lorsque la relation n’est pas avérée, les chercheurs doivent se tourner à nouveau vers le MSSD pour identifier un autre facteur explicatif.

6. Conclusion Les recherches pilotées par la théorie sont dominées par les designs quantitatifs. Ces derniers leur permettent de tester ou d’appliquer une théorie avec rigueur et exactitude. Le principe de causalité est généralement au cœur de ces designs. De fait, ils sont bâtis pour mettre en lumière une relation de cause à effet entre deux phénomènes (deux variables), relation qui peut expliquer ou prédire les variations ou le comportement précis adopté par une variable dépendante. Chacun de ces designs est adapté pour traiter un type précis de problème ou pour obtenir un type particulier d’informations, dans des circonstances établies. Il importe de comprendre et de prendre en compte les avantages et les limites de chacun afin d’en permettre une application 114

optimale. Le tableau résume l’utilité des différents devis utilisés par les recherches pilotées par la théorie. Tableau : Récapitulatif des niveaux d’analyses et de l’utilité des designs mis en œuvre par les recherches pilotées par la théorie Devis

Niveau d’analyse

Caractéristiques

Expérimental

Quelque cas individuels isolés de leur milieu naturel

Isolation, contrôle total et manipulation systématique des variables



Investigations en psychologie

Quasi expérimental

Quelques ou plusieurs cas individuels étudiés lors de leur déroulement naturel en milieu réel

Méthode assortie d’un minimum de contrôle et de manipulation des variables



Évaluation de politiques publiques Évaluation de réformes pédagogiques Évaluation de stratégies organisationnelles

Population, sousgroupes, tendances ou lois générales, régularités sociales

Étude corrélationnelle, aucune manipulation des variables, réflexion théorique privilégiée

Statistiques

Quelques usages





• •



Comparatifs

Comparaison de quelques ou plusieurs systèmes à plusieurs variables

Contrôle des variables simulé par la sélection des cas d’analyse

• •

Sociologie politique Évaluation de besoins ou de niveau de satisfaction Habitudes d’utilisation Analyse de politiques publiques Comparaison de systèmes éducationnels

Pour atteindre un niveau plus grand de précision, plusieurs recherches combinent ou adaptent les différents devis examinés dans ce chapitre. Toutefois, l’exactitude des devis quantitatifs, comme les devis de recherche expérimentale, le sondage ou l’étude statistique, ne va pas sans le caractère réducteur de toute quantification. Ils donnent en effet l’impression de ramener la richesse du réel à quelques colonnes de chiffres, ce qui est difficile à accepter quand on traite de l’être humain et qui reflète mal la complexité ou l’ambiguïté du comportement et des motivations humaines. De plus, de nombreuses variables reconnues pour avoir un effet non négligeable sur de nombreux phénomènes sociaux (tels que les traits de caractère, l’ouverture d’esprit, les croyances religieuses, la culture, etc.) ne sont pas assimilables à des chiffres. 115

Les devis quantitatifs donnent également l’impression que les différents phénomènes étudiés sont perçus de la même façon par les différents acteurs touchés par ces phénomènes. Autrement dit, ils laissent penser que les relations ou les phénomènes étudiés revêtent la même signification ou la même importance pour toutes les entités (individus, classes sociales, groupes ethniques, groupes religieux, organisations, entreprises, gouvernements, etc.) auxquelles ils s’appliquent. C’est pourquoi malgré leur rigueur et leur efficacité, plusieurs chercheurs adoptent une approche qualitative ou la combine à l’approche quantitative choisie.

116

Chapitre 5 Les recherches visant à créer une théorie

1. Présentation et exemples Les recherches qui visent à créer une théorie se penchent sur des domaines mal connus. Elles font appel à un niveau élevé de construction théorique, puisque d’une part les considérations théoriques ont un rôle important dans la direction de la recherche (formulation des questions de recherche, élaboration du cadre analytique, interprétation des observations), et d’autre part le produit de la recherche est une théorie ou un élément théorique. Typiquement, ce genre de recherche ne s’intéresse pas aux mesures et à la quantification d’un phénomène ou des relations entre différents phénomènes. Elles s’intéressent plutôt à la découverte de schémas explicatifs et aux significations attribuées à différents aspects du réel par les personnes ou groupes concernés par ces aspects (voir les exemples ci-dessous). C’est pourquoi, elles emploient généralement une approche qualitative. Toutefois, pour mettre en lumière les schémas les plus significatifs, elles utilisent fréquemment des statistiques qu’elles traitent avec des méthodes exploratoires (ex. statistiques descriptives, analyse typologique, analyse factorielle, etc.) (Schneider, 2006) Exemples d’objectifs des recherches visant à créer une théorie Découvrir les régularités et l’importance de la communication informelle au sein d’une organisation X Étudier la culture d’entreprise (l’historique, les rites et symboles, la structure du pouvoir, les valeurs et croyances collectives, les codes vestimentaires, les habitudes socio-culturelles) propre à un laboratoire biotechnologique Y et son rôle dans la gestion de l’entreprise. Comprendre les caractéristiques et les nuances du langage dans une tribu traditionnelle d’Amérique latine.

2. L’approche qualitative Contrairement à l’approche quantitative qui vise surtout à tester avec précision la force et l’adéquation d’une théorie, l’approche qualitative se prête plus au développement de la connaissance d’un phénomène et à son exploration. Elle admet que plusieurs perspectives peuvent rendre compte d’un même phénomène et privilégie donc des données non numériques recueillies dans le milieu naturel des personnes, pour en faire surgir les significations. Aussi, à la place des chiffres elle utilise le langage ordinaire comme données brutes (Barker et coll., 2002). Ces données linguistiques permettent de saisir en profondeur le sens attribué à un phénomène ainsi que les nuances présentes dans les pensées, les émotions et les expériences 117

propres à chaque individu (Dey, 1993). Elles fournissent au chercheur des informations riches, complexes et profondes. Elles lui donnent l’occasion de comprendre les sentiments des individus vis-à-vis d’un phénomène particulier, leurs réflexions, leurs motivations, leur façon d’appréhender la réalité ou le phénomène d’intérêt, ainsi que leur façon de communiquer ou d’interagir avec les autres (Barker et coll., 2002). Elles offrent ainsi la possibilité de générer un modèle, une hypothèse ou une théorie, expliquant un phénomène à partir du sens qui lui est attribué et des réflexions ou comportements qu’il suscite. Les données linguistiques peuvent prendre différentes formes. En effet, l’éventail de sources d’information et de méthodes employées par l’approche qualitative est très grand (voir Quivy et van Campenhoudt, 1988; Miles et Huberman, 1994; Barker et coll., 2002). Il peut s’agir de descriptions faites du phénomène d’intérêt par chaque participant, descriptions enregistrées lors d’une entrevue qualitative. Il peut également s’agir des mots retranscrits lors d’une conversation de groupe, d’une conférence, d’un reportage, d’un débat, d’une session parlementaire, d’une session au tribunal, etc. Les données linguistiques peuvent en outre être obtenues par l’analyse de documents écrits (journaux, récits, publications, archives, rapports, édits, mémos, etc.) et oraux (discours), ou encore par l’analyse de milieux de vie, d’artéfacts, de reliques, de biens ou d’œuvres humaines (objets décoratifs ou culturels, tableaux, sculptures, photos, fresques, dessins, etc.). Elles peuvent aussi prendre la forme de notes prises par un chercheur lors d’une session d’observation au sujet des activités des participants, de leurs interactions et de leurs comportements. Le tableau suivant présente un aperçu (non exhaustif) de l’éventail des approches et de méthodes de recherches mises en œuvre par les études visant à créer une théorie pour obtenir leurs données. Tableau : Exemples d’approches et de méthodes utilisées par les recherches qualitatives Approche méthodologique

Journalisme d’investigation

Recherche interactive

Méthodes de recherche Description de cas Recherche biographique

Contes explicatifs, récits détaillés Présentation détaillée de la vie et des points de vue d’un individu

Recherche action

Expérimentation pratique

Observation participante

Immersion analytique

118

Description

Recherche collaborative ou critique

Analyse de discours Approche constructionniste (analyse du langage et de la façon dont il est utilisé dans les interactions sociales, pour gérer et structurer l’environnement)

Analyse de dialogues Analyse des représentations sociales Étude ethnographique

Observation en contexte Recherche sur le terrain

La phénoménologie empirique Analyse phénoménologique (analyse des expériences, perceptions et points de vue individuels)

La méthode de la théorie ancrée

L’herméneutique L’interactionnisme symbolique

Design participatif, le chercheur tente de minimiser les différences entre les sujets étudiés et lui-même. Les sujets et le chercheur sont sur un pied d’égalité et interagissent comme cochercheurs ou consultants (Wilshaw, 1996) Examen des relations entre éléments, et analyse des positions et du répertoire de l’auteur (van Dijk, 1997) Analyse de l’organisation d’un dialogue, étude des perceptions des interlocuteurs et des stratégies adoptées par chacun pour parvenir à ses fins (Sacks, 1995) Analyse de la façon dont de nouvelles idées sont perçues, assimilées ou intégrées au sein d’une culture (Joffe, 1996) Observations structurées et nonstructurées dans le milieu naturel du phénomène étudié Design de recherche formel, mis en œuvre dans le milieu naturel du phénomène étudié Analyse en profondeur de cas isolés, destinée à décrire les caractéristiques majeures d’une expérience personnelle et ses variantes au sein d’un groupe (voir Barker et coll., 2002). Analyse visant à articuler les données qualitatives en vue de générer des théories ou des concepts théoriques (Charmaz, 1991) Examen du sens implicite ou même inconscient, caché dans un texte, dans une activité (Walsh et coll., 1999). Examen du symbolisme et du rôle des interactions entre individus

Avantages de l’approche qualitative L’approche qualitative présente de nombreux avantages. En premier lieu, elle permet d’éviter la simplification ou le caractère réducteur imposé par la quantification. Elle donne ainsi l’occasion d’étudier sans restriction, des aspects plus complexes des phénomènes auxquels elle s’intéresse (Barker et coll., 2002). Dans le même ordre d’idées, elle permet de se pencher en détail et en profondeur sur des problèmes de recherche qui se prêtent mal à la 119

quantification (ex. la personnalité d’un sujet ou la nature des troubles psychologiques vécus par la victime d’une agression). En second lieu, l’approche qualitative permet toujours de situer le contexte des actions sur lesquelles elle se penche. Elle offre ainsi l’avantage de prendre en compte la composante socio-économique, culturelle et historique indissociable des phénomènes qu’elle étudie. Par ailleurs, les données linguistiques sont généralement précises, fertiles et simple à collecter (Barker et coll. 2002). Elles admettent un protocole de recherche moins structuré et plus flexible que ceux mis en œuvre pour recueillir les données quantitatives. La collecte des données n’est pas limitée par des hypothèses préexistantes, ce qui laisse une plus grande latitude aux chercheurs. Elle leur permet ainsi de mettre à jour des aspects insoupçonnés (Miles et Huberman, 1994; Barker et coll. 2002). De même les réponses des participants ne sont pas restreintes à des choix multiples prédéterminés. Les participants ont donc l’opportunité de s’exprimer dans leurs propres termes, de fournir leurs points de vue. Limites de l’approche qualitative L’approche qualitative a le potentiel de fournir des données riches et complexes, toutefois celles-ci peuvent être difficiles à traiter et à analyser. En effet, l’analyse des données qualitatives nécessite une série d’opérations complexes et de longue durée. De surcroît, puisqu’elle utilise le langage et les termes de chaque participant, et que ceux-ci peuvent varier d’un participant à l’autre, les regroupements et les comparaisons des données linguistiques ne sont pas toujours aisés. Les données linguistiques sont souvent fondées sur la subjectivité des participants et sur la façon dont le chercheur les retranscrit et les comprend (Miles et Huberman, 1994). En conséquence, la généralisation des résultats est plus complexe qu’avec l’approche quantitative. D’autre part, le chercheur a un rôle plus délicat. Dans la plupart des approches de recherche il est bien visible et joue parfois un rôle actif dans la production des données. Autrement dit, il est fort susceptible d’influencer les données qu’il recueille (Miles et Huberman, 1994). Aussi une attention particulière doit être apportée à la validité des données.

3. Les particularités de la recherche qualitative 3.1. La place de la théorie Comme mentionné précédemment, la recherche qualitative vise à découvrir un phénomène ou explorer un domaine peu connu afin de générer des théories. On s’attend alors à ce que le cadre conceptuel ou les théories du

120

chercheur émergent empiriquement des données recueillies18, et à ce que les théories initiales (connaissances initiales du chercheur sur le sujet, concepts et théories formellement préétablis, etc.) n’aient que peu de place dans le processus. Toutefois, la recherche qualitative a connu des développements idéologiques, théoriques et méthodologiques importants qui révisent la position des théories initiales en recherche qualitative et qui distinguent ou proposent différentes perspectives constituant autant de possibilités d’aborder l’objet d’étude et d’encadrer le travail d’analyse (Miles et Huberman, 1994; Mukamurera et coll., 2006). Ainsi, dans les recherches qualitatives contemporaines, plusieurs logiques existent sur l’importance à accorder aux théories préalables. Nous en retiendrons deux principales : la position voulant qu’on aborde la recherche avec le moins d’influences théoriques possibles, puis celle admettant un certain nombre de théories existantes comme point de départ pour situer le sujet d’étude et/ou comme repères lors de l’étape de conceptualisation et d’opérationnalisation de la recherche et/ou comme guide pour le processus d’analyse (Mukamurera et coll., 2006). Le tableau présente les avantages et inconvénients de chacune de ses positions (Schneider, 2006).

Nombre restreint de théories préalables Ouverture d’esprit à des points de vue sur le réel (ou positions) très variés

Nombre important de théories préalables Ouverture vers d’autres recherches (inspiration et comparaison) Relative fermeture d’esprit envers diverses façons de concevoir le réel

Possibilité d’attaquer un sujet tout nouveau par un angle inédit

Angles d’approche limités pour étudier un sujet nouveau

Tendance à collectionner trop de données

Tendance à ignorer certains phénomènes

Comparaisons difficiles entre études

Insertion plus aisée des résultats dans la discipline

18

Contrairement à l’approche quantitative où l’élaboration du cadre conceptuel doit précéder les données empiriques afin de situer le genre de données à recueillir.

121

Généralisations plus faciles Référents théoriques a priori nonexplicites

Référents théorique a priori explicites (donc contrôlables)

Tableau : Forces et faiblesses associées au nombre de théories préalables employées par les recherches visant à créer une théorie Quel que soit le nombre de théories sur lesquelles elle se fonde, la recherche qualitative est un processus ouvert : elle n’impose de limites directionnelles ni au chercheur, ni aux participants. Toutefois, toute recherche doit être ancrée dans des descriptions riches et chaque proposition théorique qui en découle, supportée par des ‘observations’. L’émergence d’une théorie repose principalement sur l’analyse qualitative des données collectées. Selon Ian Dey: « The core of qualitative analysis lies in these related processes of describing phenomena, classifying it, and seeing how our concepts interconnect. » (Dey, 1993: p.31)

3.2. L’essence de l’analyse qualitative : le triangle descriptionclassification-connexion L’analyse qualitative est un processus circulaire. Elle se fonde sur des descriptions riches de la réalité, et aboutit à une vision d’ensemble offrant à son tour les bases pour de nouvelles descriptions.

122

Figure : La vision n circulairee de l’analy yse qualitattive selon IIan Dey Source: Dey I., 1993. Data analysis: a user frien ndly guide ffor social scientists; s Routledge, R L London La prem mière étape de d l’analyse qqualitative consiste c à obtenir une desscription minutieuse et comp plète du phénnomène étud dié (Dey, 1993), c’est-à--dire une descripttion ‘dense’ du phénomèène. Une tellle descriptio on inclut l’eensemble des infoormations su ur le contextte de l’actio on (qui perm met de situer l’action dans l’espace et lee temps, ainnsi que les influences socio-culturrelles et historiqques en jeu), les motivatioons à l’origine de l’actio on, le sens quui lui est attribué et son évolu ution subséqquente (Denzzin, 1978 citéé par Dey, 19993). La descripttion prépare le terrain pouur l’analyse effective. L’interpprétation et l’explicationn de la massse de donn nées fournie s par la descripttion requièreent le dévelloppement d’un d cadre conceptuel c à travers lequel lee sens des acctions ou évéénements socciaux est ren ndu intelligibble à tous et pas seulement s au ux acteurs im mpliqués dan ns leur surveenue (Dey, 11993). À son touur, ce cadre nécessite laa réduction et e la classifiication des ddonnées, c’est-à-ddire leur déconstructtion puis restructuratiion en caatégories correspoondant aux différentes ffacettes de la réalité socciale investigguée. En conséquuence, la classification c n implique d’établir les caractééristiques pertinenntes des difféérentes facetttes d’intérêt et de les attriibuer à une ccatégorie ou une autre. Ces dernières d sonnt conceptuaalisées par lee chercheur. Grace à elles, les données so ont triées, sim mplifiées et assignées a à différentes d cllasses en fonctionn de leurs caaractéristiquees. Les catég gories constittuent donc ddes outils concepttuels permetttant d’orgaaniser les données d surr la base dde leurs similarités et différrences ou enncore sur la base de critères d’incluusion ou 123

d’exclusion énoncées par le chercheur (Dey, 1993). Aussi, elles doivent être distinctes les unes des autres afin de permettre de discriminer sans ambiguïté les données, et être assez sensibles pour capturer les subtilités entre données. La classification dépend des objectifs du chercheur. Elle fournit une base de comparaison au chercheur et présente les relations formelles qui existent entre les données. Elle permet de développer une conceptualisation adéquate à l’élaboration d’une théorie sur le monde social (Dey, 1993). La dernière phase de l’analyse consiste à établir des connexions entre les catégories. Les connexions impliquent la mise en rapport des différentes catégories (ou concepts). Elles vérifient donc la façon dont les catégories interagissent pour produire ou maintenir des effets particuliers, des structures ou des relations données. Les connexions vont au-delà des relations formelles mises en lumière lors de la classification; elles transcendent le sens commun ou la vision commune attribuée au phénomène étudié, pour lui fournir une perspective ‘scientifique’. Elles associent donc les catégories, étudient les corrélations entre elles et s’intéressent à la signification des combinaisons ou interactions entre concepts-clés. Ce faisant les connexions examinent les divers schémas ressortant de la re-conceptualisation des données. Elles conservent en tout point une vision d’ensemble des données. Ainsi, elles permettent de construire graduellement une image intelligible et globale des données c’est-à-dire d’inférer un modèle valide, cohérent, théoriquement articulé et rendant compte des principales caractéristiques des observations et de leurs associations. Ce modèle présente les données sous un jour nouveau afin de rendre compte du phénomène social étudié et de son sens (Dey, 1993).

3.3. Un processus dynamique Les différents aspects de l’analyse présentés séquentiellement dans la section précédente forment un processus itératif et dynamique (figure 5.2) (Dey, 1993).

124

Fiigure : La sp pirale itérattive de l’anaalyse qualitaative selon IIan Dey Source: Deey I., 1993. D Data analyssis: a user friendly f guid ide for social scieentists; Rou utledge, Lon ndon La figuure 5.2 illustre le cotéé tortueux et non-séqu uentiel des chemins qu’emprunte la reccherche quallitative. Le processus analytique enn est un créatif, marqué par de nouvellees perspectiv ves, des reto ours en arrièères, des accéléraations, etc. Au A fur et à mesure qu’il évolue dans le proceessus, le chercheeur se concen ntre sur une étape à la fois. f Toutefo ois, chaque éétape lui offre unne meilleure perspective d’ensemble de sa démarrche, une perrspective qui est plus p que la so omme des éttapes qu’il a réalisées jusque-là (Dey,, 1993). « We may s ee the path we have tak ken so far inn a new as detail iss lost and neew patterns emerge. perspective, p Or O looking aahead, we may m plan, given a closeer view, to t take a diffferent routte from that first intendded. We may m find soome bits off the climb easy and sstraightforward, f othhers difficu ult and requ uiring consiiderable care. c We maay have to take t devious paths, nott always we may going g straigght or alway ys going up p; at times w even e retracee our steps. » (Dey, 1993 3: p. 55) 125

À la lumière de ces différents points de vue, le chercheur décide de suivre le chemin initial qu’il s’était tracé, ou alors d’en dévier. Ainsi, chaque classification ou connexion réalisée donne l’occasion au chercheur de relire et/ou si nécessaire de produire de nouvelles données. De même, les connexions effectuées sont perpétuellement ré-analysées à la lumière des corrélations observées entre d’autres variables. En outre chaque connexion établie est mise à l’épreuve par les données, les classifications sont affinées au fil des descriptions, et ainsi de suite. L’analyse qualitative avance ainsi par itérations successives.

3.4. La forme de la recherche qualitative La recherche qualitative peut prendre plusieurs formes. Mais une caractéristique de la recherche qualitative est un design émergent dans lequel l’analyse des données se produit simultanément et en interaction avec la collecte de données, l’interprétation des données et la formulation des conclusions de recherches. Un tel design permet d’agrandir ou de rétrécir le champ d’investigation au fil de la recherche, afin d’inclure une information plus détaillée si nécessaire ou alors de se concentrer sur un champ d’intérêt spécifique (Miles et Huberman, 1994). Selon cette perspective développée par Miles et Huberman (1994), l’analyse des données intervient tôt, dès le début de la collecte de données et se poursuit bien après. Dans ce design, l’analyse est constituée par trois activités : la réduction des données, la visualisation des données et les conclusions/vérifications. La première activité consiste à réduire (ou condenser), à codifier puis organiser la masse de données collectées afin de les rendre intelligibles. « Data reduction refers to the process of simplifying, abstracting and transforming the data that appear in written-up field notes or transcriptions. » (Miles et Huberman, 1994, p.10) La réduction est un processus itératif qui se poursuit tout au long de la recherche qualitative (figure 5.3, panneau A). Une réduction anticipatoire prend place avant même le début de la collecte des données. Cette étape préliminaire est nécessaire pour définir un point d’intérêt et les limites provisoires du sujet étudié. Au fur et à mesure que les activités interactives et itératives de collecte des données et d’analyse des données ont lieu, ces éléments initiaux sont sujets à des changements (Miles et Huberman, 1994). L’activité suivante, la visualisation des données, complète la réduction des données. L’information organisée lors de la réduction est assemblée en un format qui facilite l’accomplissement de la troisième activité analytique. La visualisation permet à l’analyste d’extrapoler à partir des données, des schémas systématiques et des relations non visibles durant la réduction des données (Miles et Huberman, 1994). Enfin la formulation des conclusions 126

implique pour le chercheur de se détacher des données afin de considérer le sens des schémas de données et de déterminer l’implication de ce sens pour la question de recherche (Miles et Huberman, 1994). Quant aux vérifications, liées aux conclusions, elles impliquent de réviser les données autant de fois que nécessaires afin de confirmer les conclusions ayant émergé du processus. Les vérifications assurent ainsi la cohérence, la crédibilité et la capacité des conclusions à résister à des explications alternatives. Autrement dit, elles visent à déterminer la validité des conclusions. « The meanings emerging from data have to be tested for their plausibility, their sturdiness, their “confirmability” – that is, their validity. » (Miles et Huberman, 1994: p.11)

3.5. Les outils au service du design émergent de la recherche qualitatif De nos jours, les problèmes étudiés par les recherches qualitatives s’intensifient en complexité et requièrent de plus en plus de données obtenues de sources incroyablement diversifiées (journaux intimes, récits d’aventures, contes oraux, traces et vestiges, etc.). Pour faciliter la visualisation et le traitement de ces données, plusieurs recherches emploient les méthodes de codage utilisées par les recherches quantitatives pour mettre ces données variées sur un même pied d’égalité et permettre les comparaisons (Erwin, 2011). Ces recherches font donc appel aux techniques de visualisation mises au point par les recherches quantitatives et les adaptent au contexte de la recherche qualitative pour une meilleure gestion des données complexes (Erwin, 2011). Ces techniques leur permettent de transformer au moyen de codes des segments significatifs de données en unités de sens. C’est donc l’examen des codes et des blocs de données codées qui permettra à l’analyste de dégager le sens de la masse de données et son implication pour le sujet de recherche. La grande difficulté de l’analyse qualitative est la masse de données à gérer. Comme l’ont exposé Miles et Huberman (1994), les humains ne sont pas capables de traiter efficacement de larges quantités de données. Sans support, les chercheurs se fatiguent et créent des stratégies analytiques provisoires les poussant soit à ne rassembler que ce qui est évident, soit à réduire la complexité des informations en une vision simplifiée et sélective, soit encore à surestimer drastiquement des observations frappantes (Miles et Huberman, 1994). Compte tenu de ses limitations, les auteurs proposent l’utilisation de matrices, de graphiques et diagrammes en réseaux pour visualiser les données. Les représentations graphiques sont un outil spécialement approprié pour les analyses qualitatives (Miles et Huberman, 1994). Elles fournissent un moyen efficace de suivre les interactions complexes ou connexions émergeant de l’analyse des données, et d’indiquer 127

les concepts-clés employés. De même les matrices et réseaux facilitent l’organisation des données. Ils permettent de présenter et de manipuler les données dans un environnement visuel dynamique qui intègre la totalité des données et leurs subtilités (Miles et Huberman, 1994). L’annexe 2 de ce livre présente des exemples illustrant comment le devis et les particularités de la recherche qualitative peuvent être mis en application dans le cadre d’une étude visant à créer une théorie.

4. Conclusion Les recherches qualitatives se démarquent aisément de celles quantitatives, que ce soit au niveau de leurs ambitions (respectivement créer une théorie et tester une théorie), dans le rôle qu’elles accordent aux théories (les théories viennent avant les données dans l’approche quantitative alors qu’elles émergent des données avec l’approche qualitative), au niveau des objets étudiés (des structures sociales, des faits observables, des comportements ou situations abstraits pour l’approche quantitative; des constructions sociales indissociables de leur contexte, des règles, actions et langages perçus et créés différemment par les sujets, des unités de sens, des motivations ou interprétations subjectives attribuées par chaque individu pour l’approche qualitative), ou encore au niveau de la nature des observations qu’elles privilégient (des macro-observations concernant une population ou un groupe pour l’analyse quantitative; des micro-observations denses impliquant des unités individuelles pour l’analyse qualitative). De surcroit, comme le clarifie Bernard Berelson, spécialiste en sciences du comportement : « In ‘qualitative’ analysis, the interpretations (i.e. inferences about intent or effect) are more often made as part of the analytical process whereas in quantitative analysis, the interpretations are more often likely to follow the analytic procedure. […] The tendency of the qualitative analyst is to make his interpretations as he goes through the material – whenever a piece of material cues him in some way. The tendency of the ‘quantitative’ analyst is to base his interpretations upon the total completed analysis in order to see particular pieces of content in perspective. » (Berelson, 1952: pp. 122-123) Malgré tout, et bien que certains jugent inacceptable de combiner les deux approches et les considèrent dans une perspective duelle et irréconciliable (Erickson, 1986), on ne peut aborder le processus de recherche dans une opposition du quantitatif et du qualitatif. Plusieurs auteurs croient en effet qu’il est possible et profitable de les concilier (Becker, 1998 ; Miles et Huberman, 1994). Ils soutiennent qu’il est quasiment impossible, en fait, de les séparer définitivement, les situant alors le long d’un continuum allant du « qualitatif absolu » au « quantitatif absolu ». D’ailleurs, aucune des deux 128

approches ne peut prétendre être complète et inébranlable. En gestion appliquée et sociales, il y a peu de chances de retrouver l’une des deux à l’état pur. Comme nous avons pu le constater, l’approche quantitative recueille peut être parachevée par une approche qualitative pour diminuer le caractère réducteur de sa démarche. De même, l’approche qualitative peut faire appel à des techniques de l’approche quantitative pour faciliter la gestion des données. Par ailleurs, les deux approches se complètent souvent. La recherche qualitative jette généralement les bases des recherches quantitatives. Si le chercheur n’a aucune idée des options possibles, en réponse à un ensemble particulier de conditions énoncées par une question de recherche, il aura probablement recours à la recherche qualitative. De même, l’approche de recherche qualitative est excellente pour mettre à l'essai la formulation particulière et le positionnement de questions dans des sondages éventuels de recherche quantitative. Par exemple, une étude peut tester de nouvelles questions pour mieux comprendre comment la population interprète leur formulation et quelles réponses sont fournies, selon la façon dont les questions sont posées et selon leur position dans le questionnaire. À l'aide de ces informations, l’étude met les questions au point avant de les employer dans le sondage. Enfin, la recherche qualitative peut également constituer le suivi d'une étude quantitative en vue d'obtenir un aperçu d'un résultat inattendu ou pour étudier davantage des constatations particulières d'un sondage.

129

Chapitre 6 Les recherches basées sur l’approche de design

1. Les sciences de l’artificiel et l’approche de design Contrairement aux deux types de recherches précédentes, qui se placent plutôt dans un univers théorique où les chercheurs valident ou réfutent des théories anciennes ou alors en créent de nouvelles afin de comprendre, de décrire ou d’expliquer le comportement et les interactions d’un ensemble d’objets ou de phénomènes du monde naturel ou social, les recherches de type design sont axées sur l’utilité pratique et se concentrent sur les artifices conçus par l’homme. En effet, le monde dans lequel nous évoluons est plus artificiel que naturel. Nous sommes constamment entourés d’artéfacts (objets, règles et contenus de langages, interface d’utilisateurs, sites ou portail électroniques, etc.) issus de l’ingéniosité humaine. Les recherches de types design s’intéressent principalement à la conception, la construction et la gestion de ces artéfacts. Elles sont au service des sciences de l’artificiel (Simon, 1996) également appelées parfois sciences du design ou sciences de la conception; et en gestion appliquée elles s’appliquent à des domaines aussi variés que les sciences de l’information et de la communication, les sciences de l’éducation, la gestion ou le droit. Les sciences de l’artificiel (formule popularisée par l’économiste et sociologue américain Herbert Simon) sont concernées par des objets, phénomènes ou projets conceptuels qui ne surviennent pas de façon naturelle mais qui sont créés en tout ou en partie par l’homme pour servir un but précis (Simon, 1996). Elles partent du principe que tout problème est lié au statut ou à l’état de l’environnement dans lequel il survient. Aussi les sciences de l’artificiel s’intéressent-elles à la façon dont les choses devraient être si l’on souhaite qu’elles atteignent des objectifs déterminés (Simon, 1996). L’activité de recherche au cœur de ces sciences en est une, inventive, créative et axée sur la résolution pratique d’un problème par la production de nouveaux artéfacts fonctionnels et/ou par l’amélioration des performances d’un artéfact existant. Elle s’établit dans l’optique de changer l’état d’un environnement donné (ou de transformer un milieu précis) par l’introduction d’un nouveau produit conceptuel. En effet, afin de résoudre le problème qui lui est posé, l’activité de recherche dans les sciences de l’artificiel se développe en considérant l’état de l’environnement dans lequel le problème survient, puis en envisageant des états alternatifs qui permettraient de résoudre ce problème, et enfin en implantant un produit conceptuel, un artifice qui modifierait l’état de départ du milieu considéré. Afin de décrire les sciences de l’artificiel et de situer les recherches de type design qui y sont associées, Herbert Simon met en rapport la production d’un artéfact avec les notions d’environnement externe, d’environnement interne 131

et d’interface (Simon, 1996). L’environnement externe est celui où opère l’artéfact. Il est constitué de l’ensemble des forces et effets susceptibles d’agir sur l’artéfact. En effet, bien que ce dernier soit artificiel, il n’échappe pas aux lois naturelles de l’environnement où il opère. L’environnement interne fait référence à l’ensemble des composants qui constituent l’artéfact et à leur organisation (Simon, 1996). Le comportement d’un artéfact est conditionné à la fois par son environnement interne et par son environnement externe. Alors que le premier détermine les caractéristiques de l’artéfact, le second détermine les conditions de l’atteinte des objectifs ayant orienté sa production. Pour que l’artéfact soit en adéquation avec les objectifs déterminés, ses constituants et leur organisation doivent rencontrer l’environnement externe de façon appropriée; autrement dit l’environnement interne doit former une interface avec l’environnement externe (Simon, 1996). Ainsi mise en contexte, l’activité de design consiste alors d’une part à acquérir les connaissances nécessaires pour déterminer, en fonction d’un objectif déterminé, l’interface appropriée entre les environnements externe et interne, c’est-à-dire l’interface qui permet à l’environnement interne d’adapter son comportement à celui de l’environnement externe afin d’atteindre l’objectif fixé. D’autre part elle consiste à acquérir et mettre en pratique le savoir-faire requis pour implémenter l’artéfact évolutif issu de cette interface et ayant les propriétés requises.

2. Les éléments de l’approche de design Le ‘design’ consiste à inventer puis donner forme à une idée, à la rendre opérationnelle. Les recherches basées sur l’approche de design se distinguent de la simple activité de design par la production de nouvelles connaissances scientifiques présentant un intérêt pour une communauté d’utilisateurs (Vaishnavi et Kuechler, 2004; March et Smith, 2005). Il n’existe toutefois pas de consensus au sein de la communauté scientifique quant à l’objectif précis de ces recherches (Simon, 1996; Vaishnavi et Kuechler, 2004). Néanmoins, il est admis que leur but est à la fois de développer des connaissances pertinentes pour la conception puis la mise en œuvre d’artefacts appropriés permettant de se rapprocher d’un statut désiré, et de faire progresser la compréhension du fonctionnement et de l’évolution des artéfacts dans leur environnement. Aussi, elles s’inscrivent dans une perspective pragmatique cherchant à créer des produits novateurs qui reflètent les idées, les pratiques et les capacités techniques à travers lesquelles un ensemble de connaissances peuvent être appliquées à l’analyse d’un problème concret rencontré sur le terrain, ainsi qu’à la conception, la construction et l’implémentation d’un artéfact permettant la résolution effective et efficiente de ce problème. 132

2.1. La notion de règles de design Une règle de design (ou une règle technologique selon la terminologie de Bunge, 1967) est une théorie sur la façon appropriée de construire un artéfact, de réaliser un design, d’atteindre un but. Elle fournit des instructions pour performer un ensemble d’actions selon un ordre précis et dans un objectif prédéterminé (Bunge, 1967). De façon plus générale, une règle de design peut être définie comme : « A chunk of general knowledge linking an intervention or artefact with an expected outcome or performance in a certain field of application » (van Aken, 2004a: p. 228) De ce point de vue, elle ne constitue pas une solution spécifique pour une situation spécifique, mais plutôt une solution générale applicable à un type donné de problèmes (van Aken, 2004b). On peut distinguer deux catégories de règles technologiques : les règles algorithmiques et les règles heuristiques (van Aken, 2004b). Les premières, qui peuvent être employées plus ou moins comme de pures instructions, ont un format typiquement quantitatif, une nature et des effets bien déterminés, attestables via l’observation et/ou des analyses statistiques. Elles adoptent une forme principalement prescriptive: « If you want to achieve Y in the situation Z, then perform action X. » (van Aken, 2004b: p. 6) Les règles algorithmiques introduisent un concept-solution (l’action X ici) pour un type de problème rencontré sur le terrain, et fournissent des instructions pour relier cette solution au problème en fonction du contexte. Elles indiquent donc quand appliquer la solution et quand ne pas l’appliquer (van Aken, 2004). Les règles technologiques heuristiques prennent une forme plus abstraite et fonctionnent plutôt comme des exemples à adapter. De façon générale, les règles heuristiques sont qualitatives et prennent la forme suivante : « If you want to achieve A (outcome) in situation B (problem) and C (context), then something like action/intervention D can help because E (reason). » (Carlsson, 2005: p. 98) Dans ce cas, le concept solution est une solution générale, bien testée, bien comprise et bien documentée, qui est suggérée comme une base pour en développer une variante spécifique adaptée au problème spécifique qui est présenté et à son contexte (van Aken, 2004b).

133

Exemples de règles de design On retrouve plusieurs types de règles de design définissant la façon la plus appropriée de rencontrer un objectif. Ainsi, parmi les règles de design on peut avoir : ƒ Une formule pédagogique ƒ ƒ ƒ ƒ ƒ ƒ ƒ

Une méthode comptable Une théorie légistique Un modèle de pilotage politique Un modèle de gestion des ressources humaines Une méthode de développement de logiciel Une approche méthodologique pour mesurer un phénomène Etc.

La logique des règles de design Les règles de design apportent des solutions pratiques à divers problèmes rencontrés dans différents contextes par différents champs disciplinaires. Chacune est une théorie de portée intermédiaire dont la validité est restreinte à un certain domaine d’application (van Aken, 2004b) et qui repose sur un ensemble de théories et de croyances particulières. Aussi la logique que chaque règle adopte dépend du genre de problèmes sur lequel elle se penche, du champ d’application et des théories sur lesquelles elle repose. En conséquence, chaque type de règle de design suit sa propre logique, sa propre méthode et adopte les critères qu’elle juge pertinents compte tenu du contexte dans lequel elle intervient.

Exemple 6.1 Le tableau illustre la différence de logique adoptée par des règles de design appliquées en droit et en légistique.

134

Tableau : Comparaison des règles de design appliquées en droit et en légistique Droit

Légistique

Rationalité

rationalité basée sur la logique

rationalité managériale (objectifs-moyens)

Critère

conformité

efficacité

Contrôle

juridictionnel de conformité

évaluation par organe politicoadministratif

Fonctionnement linéaire

systémique

Accent

application

création et application de normes

Mécanisme logique

déduction

induction-déduction

Réalité sociale

isolement

interaction

Type de normes

déontiques

pragmatiques

La règle de design dans l’activité de recherche Dans un projet de recherche, une règle de design permet de déterminer le genre d’artéfacts nécessaires à la résolution d’un problème concret, le genre d’activité de design (la méthodologie) et le type d’implémentation appropriés pour construire cet artéfact (voir figure 6.1). Elle peut en outre indiquer les critères à remplir ainsi que la manière de procéder à l’évaluation d’un artéfact. À ce titre elle est un input dans le projet de recherche. Néanmoins un projet de recherche de type design peut avoir pour ambition de produire une règle de design inédite ou d’évaluer la capacité d’une règle existante à fournir des indications appropriées à la résolution d’un problème dans un contexte donné. Elle peut donc devenir l’output de la recherche, ou encore en être à la fois un input et un output.

135

2.2. Le développement théorique et les recherches basées sur l’approche de design La littérature sur les sciences de design est marquée par une pluralité d’avis différents sur l’inclusion, la forme et le rôle des théories et des activités de construction de théories dans les recherches de type design (Simon, 1996; Venable, 2004). Alors que certains auteurs excluent de ces recherches le développement et le test de théories, laissant ces activités aux autres types de recherches, d’autres reconnaissent ces activités comme partie intégrante des recherches de type design, et quelques-uns encore distinguent et caractérisent une forme de théories spécifiques aux recherches basées sur l’approche de design (pour revue, voir Venable, 2004). Mais de façon générale, une recherche de type design adopte une posture utilitariste de conception/synthèse, qui sans exclure l’analyse, ne se réduit pas à elle. En effet, en dehors de l’analyse des problèmes, ces recherches proposent un design, en évaluent le résultat et contribuent à produire une savoir théorique. Et bien que la recherche de type design met l’emphase sur la résolution pragmatique d’un problème concret, l’univers théorique y joue un rôle important (Venable, 2006). La construction de théories est une activité centrale qui rassemble les différentes activités de la recherche. Si certaines de ces activités peuvent être menées indépendamment au cours d’une recherche empirique « classique », l’activité de théorisation ou de construction de théories est le lien nécessaire pour les agencer toutes ensemble (Venable, 2006). C’est également une activité incessante qui englobe la totalité du processus de recherche. « Theorising and theory building occur before, during, throughout, and at the end and as a result of Design Science Research. » (Venable, 2006: p. 15) Elle aboutit à la formulation de théories utilitaires, des théories qui d’une part identifient le problème qui se pose puis en fournissent une certaine vision (diagnostic du problème) et qui, d’autre part, définissent les améliorations auxquelles on peut s’attendre, ou l’utilité que l’on peut retirer, en appliquant un certain (ou plusieurs) type(s) de solutions technologiques au problème posé (Venable, 2006). Les solutions retenues feront ensuite l’objet d’une activité de design qui permettra de leur donner forme, et seront évaluées quant à leur capacité réelle à solutionner différents aspects du problème. Dans la représentation visuelle de la façon dont les théories utilitaires permettent de relier certains concepts ou groupes de technologies à la résolution de différents aspects du problème adressé, il est important de définir l’impact que ces concepts-solutions auront sur le problème.

136

Dans cette représentation, l’espace problème fait référence à la compréhension que le chercheur a du problème adressé, ainsi que de la relation entre les différents aspects de ce problème et/ou de la relation entre le problème et des problèmes connexes (Venable, 2006). L’espace solution, quant à lui, décrit les différents concepts qui représentent les différents types de solutions technologiques disponibles, de même que les relations pertinentes entre les concepts (Venable, 2006). La théorie utilitaire associe les éléments des deux espaces en termes d’adéquation, de pertinence et d’efficacité à atteindre un objectif fixé.

3. Les catégories de recherche design Les recherches de type design sont des recherches utilitaires engagées dans la création et l’évaluation d’outils concrets, de procédures d’intervention ou de règles de design qui ont un impact direct sur une pratique disciplinaire. Mais il existe plusieurs façons d’aborder une recherche de type design. Comme l’illustre la figure 6.1, il n‘y a pas que le design qui soit intéressant en soi, mais également les concepts, méthodes et modèles derrière sa production, l’usage qui en sera fait, ou encore son évolution dans l’environnement pour lequel il a été produit. Järvinen distingue deux grandes catégories de recherches design: ƒ

Les recherches axées sur la construction: une fois qu’elles ont analysé l’environnement et diagnostiqué le problème, elles mettent au point un design dont la réalisation solutionnerait le problème. Ces recherches visent également à montrer la faisabilité d’un artéfact, d’une intervention ou d’une règle. Elles appliquent un modèle de développement particulier axé sur les besoins des utilisateurs potentiels de son produit ou sur les caractéristiques du milieu où sera implanté l’artéfact.

ƒ

Les recherches axées sur l’évaluation: elles développent des critères basés sur des règles de design et procèdent à des mesures, en vue de juger de la construction d’un artéfact, de son usage et/ou de son évolution dans le milieu où il opère. Afin de juger de l’adéquation d’un produit, ces recherches peuvent également se baser sur un ensemble de critères établis par la pratique (Järvinen, 2004a).

4. Les produits issus des recherches design Une recherche basée sur l’approche de design produit plus que des artéfacts (Purao, 2002). Elles peuvent être employées à plusieurs fins : pour ouvrir un nouveau champ d’investigation par exemple; pour fournir un cadre unifié et standardisé pour effectuer une opération; pour résoudre un problème en instance rencontré lors de la pratique; pour contredire un savoir existant; pour produire un système novateur; pour développer un nouvel outil ou une nouvelle méthodologie; pour dériver de nouveaux algorithmes, etc. En raison 137

de l’absence de consensus sur l’objectif précis des recherches design, il existe plusieurs perspectives quant aux types de produits et aux niveaux de connaissances qui peuvent être retirés de ces recherches (pour revue voir Vaishnavi et Kuechler, 2004). De façon générale, une telle recherche aboutit à un design et/ou à l’établissement d’une règle de design (Järvinen, 2004a et b). Le tableau résume une perspective des produits de recherches design. Résultats 1 Concepts (ou constructions théoriques) 2

Descriptions le vocabulaire conceptuel ou le « langage » d’un domaine

Modèle

ensemble de propositions ou d’énoncés explicitant les relations entre les concepts

Méthode

ensemble d’étapes (un algorithme ou une ligne directrice) utilisées pour réaliser une tâche; un savoir faire

Instanciations

réalisation d’un artéfact dans son environnement au moyen de l’opérationnalisation des concepts, des modèles et des méthodes

Meilleurs théories

artéfact analogue au résultat des sciences expérimentales naturelles, dont la construction est couplée à des activités de réflexion et d’abstraction

3

4

5

Tableau reproduit à partir de Vaishnavi V., Kuechler W., 2004. Design Science Research in Information Systems; URL: http://desrist.org/desrist Cette perspective identifie 5 produits pouvant découler des recherches de type design. En premier lieu, une recherche design peut aboutir à l’élaboration d’un concept qui s’intègrera au vocabulaire propre à un espace problème ou solution (voir figure 6.3). En effet, les construits produits lors de la phase de conceptualisation de la recherche sont affinés au fil du processus de recherche, aboutissant ainsi en un concept impliquant une large quantité d’entités et leur relations (Vaishnavi et Kuechler, 2004). Les modèles présentent une vision des liens qui existent ou qui devraient exister entre les concepts (March et Smith, 1995). Ils se distinguent des modèles appliqués dans les autres types de recherche par le fait qu’ils ne sont pas 138

forcément axés sur la compréhension du réel, mais plutôt sur leur utilité contextuelle en rapport avec la résolution d’un problème rencontré sur le terrain ou avec l’atteinte d’un objectif fixé (Vaishnavi et Kuechler, 2004). Les méthodes sont des pratiques ou des plans conçus pour un but précis et qui indiquent comment manipuler les concepts afin que les solutions proposées par les modèles soit réalisées (March et Smith, 1995). Les instanciations font référence à l’implémentation d’un artéfact dans un environnement ou à la réalisation d’un prototype. Bien qu’elles consistent en l’opérationnalisation des concepts, modèles et méthodes et en leur application à un contexte particulier, elles peuvent précéder l’articulation complète des modèles et concepts sur lesquels elles reposent (March et Smith, 1995; Vaishnavi et Kuechler, 2004). Enfin, les recherches de type design peuvent contribuer à l’élaboration ou l’articulation de meilleures théories en améliorant la compréhension d’un problème, du fonctionnement d’un artéfact ou encore de l’interaction entre un artéfact et son environnement (Vaishnavi et Kuechler, 2004). Une perspective différente des résultats de recherches de type design considère plutôt les produits des recherches en fonction du niveau d’abstraction auquel les réflexions et l’analyse peuvent être généralisées (Purao, 2002). Celle-ci distingue trois sortes de produits situés à des niveaux d’abstractions différents, qui peuvent toutefois être reliés aux produits de la perspective précédente (Vaishnavi et Kuechler, 2004). Le premier niveau, l’implémentation contextuelle d’un artéfact, sert à assurer que le design est réalisable et qu’il permet la mise en place l’artéfact. Il constitue le produit le plus visible des recherches design et le moins important (Purao, 2002). Le deuxième niveau représente les principes opérationnels illustrés par l’artéfact. Il fournit une représentation symbolique de la manipulation et de l’articulation abstraite de concepts en principes opératoires. Il assure que le comportement prévu de l’artéfact est explicité dans une forme communément admise (Purao, 2002). Les principes issus de ce niveau éclairent sur l’articulation de l’environnement interne de l’artéfact (Simon, 1996). Enfin, le troisième produit situé au niveau d’abstraction le plus élevé fournit une compréhension de la façon dont l’artéfact supporte ou contrôle le phénomène pour lequel il a été construit. Les théories émergentes produites à ce niveau apportent une connaissance sur le comportement prévu du phénomène en conjonction avec l’artéfact implanté (Purao, 2002). Elles expliquent donc l’articulation des environnements interne et externe de l’artéfact (Simon, 1996), et élaborent des propositions quant à leur interaction, quant aux propriétés émergentes de l’artéfact dans le milieu où il opère et quant à l’évolution conséquente de l’artéfact dans ce milieu.

139

5. Le processuss de design Les rechherches baséées sur l’appproche de dessign tournent autour de ll’activité de desiggn. Cette derrnière est apppliquée pou ur construire quelque choose, pour lui donnner forme.

5.1. Le raisonn nement du design Le princcipe de base du design esst relativemeent simple (fiigure 6.5). Il consiste à percevvoir un prob blème lié à uun état initiall, état que l’o on estime néécessaire de transsformer pourr atteindre un état cible déterminé. Cet C état est llié soit à l’absencce d’un desig gn, soit à la mauvaise qu ualité des réssultats obtenuus par la mise enn œuvre d’u un ancien deesign (Järvin nen, 2004b)). Le raisonnnement consistee alors à év valuer l’état initial et à réaliser un n design adaapté qui permettra de constrruire un arté fact censé trransformer l’état initial en l’état cible (JJärvinen, 200 04b). Enfin, le cycle s’aachève par l’évaluation de l’état final obbtenu par l’im mplantation dde produit, ett par l’estimaation de la diifférence entre ceet état final ett l’état cible recherché.

Figure : Logique et e finalité ddu processu us de design n dans un pprojet de rechercche 5.2. Alternativves du proccessus de coonstruction n Diversees méthodes s’appliquent s au raisonnem ment de basee du design aafin d’en concrétiiser les difféérents élémeents. Afin dee passer de l’état initiall à celui visé, pllusieurs alterrnatives se pprésentent aux a chercheu urs/designerss (figure 6.6). Lees premièress se posent lors de l’id dentification des objectiffs visés. L’état visé v peut êttre connu ouu inconnu (Järvinen, ( 20 004b). Lorsqqu’il est connu, le chercheurr/designer see réfère à un objectif préédéterminé éétabli par la pratiqque ou par des recherchhes antérieurres. Lorsqu’il est inconnnu, pour déterminer quel étatt est le plus à même de résoudre r le problème p souulevé, le chercheeur procède soit s à une sppécification des d objectifs visés à la suuite d’un diagnosstic de l’état initial, spéccification au terme de laq quelle il impplémente un desiggn conçu en fonction dess objectifs cib blés, soit il réalise r en parrallèle la spécificcation de l’éétat cible et l’implémenttation d’un prototype seelon une démarchhe d’essais--erreurs (Järrvinen, 200 04b). L’idéee de cette dernière alternatiive est de dééfinir l’espacce solution au a fil de la transition t enttre l’état initial et e celui fin nal. Une foiis les objecctifs visés établis, é deuxx autres alternatiives se préseentent. D’unne part l’implémentation de l’artéfactt peut se faire lorrs d’une recherche baséee sur l’appro oche de desiign. D’autre part, au 140

lieu de procéder à la conceptionn et la constrruction d’un ne version tottalement nouvellee de l’artéfaact, le cherccheur/designeer peut proccéder à l’acqquisition d’un arttéfact déjà co onçu (Järvineen, 2004b).

6. La L méthodologie générrale des recherches axées sur l’appproche design onnement du design pourr générer Le proccessus de reccherche appliique le raiso et accum muler des connaissancess au fil de l’action. Ce processus ppeut être perçu comme c un cycle c au coours duquel le savoir émergent é auu fil des différenntes étapes de d la rechercche offre un ne base itéraative pour m mener la recherchhe à son term me. Le graphhique présen nte la méthodologie généérale qui s’appliqque à toutes les l recherchees de type deesign.

Figure : La méthod dologie génnérale des reecherches de type desiggn Source : Vaishnav vi V., Kuecchler W., 2004. 2 Desig gn Science Research in i Informaation System m Tout coommence aveec la prise dee consciencee d’un problèème intéresssant pour un cham mp disciplin naire ou unee communau uté d’utilisateurs. Cette prise de consciennce peut pro ovenir de réccents dévelo oppements dans l’industrrie de la disciplinne concernée ou d’une discipline connexe (Vaiishnavi et K Kuechler, 2004), d’une revuee littéraire oou encore d’une d comm mande expliccite d’un 141

organisme sponsor. Elle met en lumière la pertinence du problème ainsi que les objectifs de la recherche. Le produit de cette phase est un projet de recherche proposé de manière formelle ou non. La phase de suggestion survient immédiatement après et est intimement connectée à la première (comme le traduit le carré entourant les produits de ces deux phases). Il s’agit d’une phase essentiellement créative où de nouvelles fonctionnalités sont envisagées sur la base des connaissances et/ou théories existant autour du problème. Elle aboutit à la conception d’un design hypothétique (analogue aux hypothèses dans les recherches empiriques axées sur la théorie) qui constitue une solution suggérée au problème. Sans ce design, le projet de recherche sera abandonné (Vaishnavi et Kuechler, 2004). Le développement consiste en l’implémentation du design théorique. Les différentes méthodes d’implémentation varient en fonction de la nature de l’artéfact à concevoir. Les implémentations partielles ou totales du design sont ensuite évaluées en fonction de critères implicitement ou explicitement énoncés lors de la proposition de projet et/ou des suggestions. Cette phase d’évaluation procède donc à des mesures de la performance de l’artéfact développé et comporte une composante analytique au cours de laquelle les observations sur le comportement de l’artéfact sont confrontées aux hypothèses de performances impliquées par les suggestions. Chaque écart, quantitatif ou qualitatif, entre les observations et les hypothèses est relevé et un effort d’explication y est apporté. Les étapes de développement et d’évaluation sont généralement performées de façon itérative. En recherches design, il est rare que les hypothèses initiales s’avèrent immédiatement vraies (Vaishnavi et Kuechler, 2004), et les écarts observés entre le comportement de l’artéfact et la performance théorique attendue suggèrent de nouvelles avenues de revues de la littérature. Aussi, les résultats de l’évaluation, les observations et l’information additionnelle obtenue lors du développement de l’artéfact sont pris en considération et utilisés pour circonscrire le problème de départ et pour raffiner les suggestions (Vaishnavi et Kuechler, 2004). Les suggestions raffinées aboutissent à un design amélioré qui donne lieu à une nouvelle ronde de développement et d’évaluation. Une fois que l’évaluation juge l’artéfact satisfaisant au regard des hypothèses, et les écarts acceptables, le chercheur/designer termine son projet de recherches par la formulation des conclusions. Les produits des phases précédentes sont consolidés à cette étape et les connaissances tirées du processus peuvent être appliquées à un autre contexte pour définir ou résoudre un nouveau problème de recherche.

142

7. Les variantes métthodologiqu ues appliqu uées en reccherche d design Plusieurrs modèles de d recherchee design adaaptent la mééthodologie générale présentéée ci-dessus en fonction dde contextes particuliers et d’objectiffs précis.

7.11. Les rech herches parrticipativess axées sur l’utilisateuur 7.11.1 Le modèèle de recheerche desiggn centrée sur l’utilisatteur En scieences de l’iinformation et de la communicati c on, en scieences de l’éducattion ou en sciences dee gestion, pllusieurs rech herches desiign sont centréess sur les uttilisateurs pootentiels de leurs produ uits. Elles oont pour objectiff principal laa conceptionn, le dévelo oppement et l’implantatiion d’un artéfact (ou d’une règle de ddesign) qui satisfasse lees utilisateurrs. Elles impliquuent donc cess utilisateurs autant que possible, p afin n qu’ils influeencent la recherchhe et déterm minent les caaractéristiques et fonctio onnalités duu produit fini. Ces recherches intègrent less connaissan nces et l’expeertise inhérennte à une (ou plussieurs) discip pline(s). Leurr mise en œu uvre suit un modèle m compportant 5 opératioons (figure 6.8) 6 : (1) l’annalyse des uttilisateurs, des tâches à eeffectuer et du coontexte d’utillisation, (2) ll’identification des besoins et la spéccification des atteentes vis-à-v vis du produuit désiré, (3) le design n du produitit, (4) le prototyppage et (5) lee test et l’évaaluation du produit p avec les l utilisateur urs.

Figure : Modèle de reecherche deesign particcipative cenntrée sur l’utilisateurr (1) L L’analyse des d d’utilisation n

utilissateurs,

dees

tâches

et

du

ccontexte

Pour iddentifier les problèmes qui pourraieent faire l’o objet d’un pprojet de recherchhe, ce modèlle se concent ntre sur les uttilisateurs et leurs percepptions de la situattion problém matique. Le chercheur commence do onc par anallyser les 143

utilisateurs potentiels, afin d’établir le profil de l’utilisateur typique du produit (artéfact ou règle de design) de la recherche. Il analyse les caractéristiques particulières des utilisateurs (âge, expertise, curriculum, etc.), les motifs derrière leurs besoins (importance du produit pour l’utilisateur, produit requis le travail, destiné pour les loisirs, etc.) et la fréquence probable d’utilisation (Håkansson, 2003). De même, il décrit et analyse les tâches ou fonctions que le produit sera appelé à remplir, les éléments qui composent ces tâches ainsi que la façon dont elles sont remplies sans l’artéfact. Le chercheur analyse également les caractéristiques de l’environnement ou du contexte d’utilisation. Cette première étape permet au chercheur, en premier lieu de comprendre le point de vue des utilisateurs, les limites et contraintes susceptibles d’influer sur l’artéfact, et en second lieu d’identifier les besoins qui orienteront son design (2) Identification des besoins Les besoins spécifient ce que le produit désiré doit faire et comment il doit le faire (Håkansson, 2003). Ils concernent donc la fonctionnalité du produit, sa facilité d’utilisation, son adaptation aux attentes des utilisateurs, et son adaptation aux contraintes (physiques, sociales, organisationnelles et techniques) de l’environnement d’utilisation (Håkansson, 2003). Leur identification permet au chercheur d’établir les objectifs à atteindre. (3) Le design Aussitôt les besoins identifiés, le design du produit commence. Il est développé en fonction des objectifs retenus. Le design doit être évalué par les utilisateurs afin d’assurer qu’il correspond à leurs attentes. Pour ce faire, le chercheur implémente une version interactive de son design qui matérialise les principales idées et spécifications du design : le prototype (4) Le prototypage Le prototype est testé avec les utilisateurs et permet au chercheur de discuter avec eux des idées derrière le design et de clarifier les éventuelles zones d’ombres entourant les besoins et les fonctionnalités du produit désiré (Håkansson, 2003). La nature et la structure du prototype dépendent de la progression du processus d’implémentation du design ainsi que des aspects du produit que le chercheur souhaite tester. Aussi les opérations (3) et (4) se réalisent généralement de façon parallèle. Les prototypes peuvent donc prendre différentes formes que l’on peut regrouper en deux catégories : les prototypes de basse-fidélité et ceux de haute-fidélité (Håkansson, 2003). Le tableau présente ces deux catégories et leurs caractéristiques.

144

Tableau : Nature et caractéristiques des prototypes mis en œuvre par les recherches axées sur l’utilisateur Prototype de basse-fidélité

Prototype de haute-fidélité

Progression du processus d’implémentation

Utilisé au commencement du processus

Utilisé à la fin du processus

Construction

Simple, rapide et peu coûteux à construire

Une construction coûteuse et qui requiert beaucoup de temps Emploie les matériaux que l’on s’attend à retrouver dans le produit fini

Utilité

Produit non fonctionnel mais qui encourage l’exploration et les modifications

Produit pleinement fonctionnel ou qui présente les fonctionnalités complètes du produit fini

Exemples

maquette dessinée d’un scénario (story-board) décrivant l’interaction d’un utilisateur avec le produit

versions de démonstration d’un logiciel

maquette en carton

versions préliminaires en métal ou en plastique d’un produit fini

simulation d’une tâche capture d’écran d’une interface d’utilisation Tableau produit sur la base des informations tirées de Håkansson M., 2003. Intelligent System Design; Design Methodology slides, IT-university, Goteburg,

(5) Tests et évaluations Chaque prototype est soumis à différents tests avec les utilisateurs. Mais une fois le processus d’implémentation achevé, le produit final fait l’objet d’une évaluation. Bien qu’il soit centré sur les utilisateurs, le design ne garantit pas l’adéquation du produit fini, ni sa facilité d’utilisation. Pour assurer ces aspects, il est donc évalué selon des critères établis par la règle de design ayant orienté le processus et/ou selon des lignes directrices heuristiques spécifiques établies par des experts (exemple 6.2), notamment lorsqu’il s’agit de l’évaluation d’une règle de design. L’évaluation donne ainsi l’occasion de régler les éventuels soucis pratiques avant l’implantation finale du produit. Elle s’effectue avec et sans les utilisateurs (Håkansson, 2003). Elle peut se faire en laboratoire ou dans l’environnement normal dans lequel sera utilisé le produit. 145

Exemple 6.2 En 2001, M. David Merrill, consultant en efficacité de l’enseignement, présente une échelle en 5 étoiles pour évaluer les designs produits pour l’enseignement. Cette échelle comprend 5 critères, auxquels Merrill fait référence en tant que « principes premiers de l’enseignement » (Merrill, 2002). Les critères consistent en : un problème concret; l’activation, la démonstration, l’application et l’intégration (Merrill, 2001). L’apprentissage est favorisé lorsque ces critères sont remplis (Merrill, 2002), c’est-à-dire lorsque : - Les apprenants sont engagés dans la résolution de problèmes du monde réel - Les connaissances existantes sont activées comme bases soutenant la production de nouvelles connaissances - Les nouvelles connaissances sont démontrées à l’apprenant - Les nouvelles connaissances sont appliquées par l’apprenant - Les nouvelles connaissances sont intégrées dans le monde (ou le quotidien) de l’apprenant Chacun des 5 critères a 3 sous-critères spécifiques. Selon le système d’évaluation de Merrill, pour chaque critère, une étoile d’or est attribuée lorsque ses 3 sous-critères sont remplis, une étoile d’argent lorsque 2 sont remplis et une de bronze lorsque seulement 1 sous-critère est rempli (Merrill, 2001). Cette échelle est appliquée pour évaluer des produits conçus pour l’enseignement tels que les didacticiels (logiciels interactifs destinés à l'apprentissage de savoirs diversifiés) ou des modules d’enseignement. Le Tableau en présente une illustration.

146

Tablleau : Exemple d’évaluaation de l’iimplémentatiion d’un diidacticiel danss un processu us d’enseignnement au moyen m du système de 5 éttoiles de Merrrill Critères et sous-critères évaluatifss 1. Le L didacticiel est-il présenté dan ans le contexte de d problèmes rééels ? a. Le didacticciel montre-t-ill aux apprenan nts les tâches qu’ils pourront réaliser ou le prooblème qu’ils seront capablles de résoudre en abo outissement du module ou du cours ? b. Les étudiantts sont-ils engaagés dans le problème ou les tâches au-delà du niveeau opérationneel ou des actions ? c. Le didacticieel implique-t-il une succession n de problèmes plutôt qu’un simple problème ? 2. Le L didacticiel teente-t-il d’activeer des connaisssances ou expérriences antéécédentes pertin nentes ? a. Le didacticieel pousse-t-il lees apprenants à se souvenir, racconter, décrire ou app pliquer des conn nnaissances provenant d’expérriences antérieures et pouvant p être uttilisées comme bases de déparrt pour de nouvelles co onnaissances ? b. Le didacticieel fournit-il des expériences peertinentes qui peeuvent être utilisées comme basess de départ pour les nou uvelles connaissances ? c. Si les appren nants connaisseent déjà une paartie du contenu u, leur donne-t-on l’o opportunité de démontrer lees connaissancces ou habiletés déjà acquises a ? 3. Le didacticieel démontre-t--il (montre des exempless) les connnaissances à accquérir ou fournnit-il simplement des informattions à proppos de celles-ci ? a. Les démonsttrations (ou exeemples) suivants sont-ils consistants avec le contenu u enseigné ? (1) Les ex xemples et non--exemples pourr les concepts ? (2) Les déémonstrations ppour les procédu ures ? (3) Les viisualisations poour les processu us ? (4) Les modèles m de compportement ? b. Certaines dees techniques ssuivantes sont-eelles employées pour orienter ou con nseiller les appreenants ? (1) Les apprenants a sonnt-ils orientés vers v les inform mations pertinentees ? (2) De mu ultiples représenntations sont-ellles utilisées lorrs des démonstrations ? m démoonstrations son nt-elles explicittement (3) Les multiples comparéees ? c. Le media est-il pertinent enn rapport au co ontenu, et utilisé pour favoriser l’apprrentissage ?

147

Évaaluation

4. Les L apprenants ont-ils l’oppoortunité de prattiquer et d’app pliquer leurrs connaissancess ou habiletés nnouvellement accquises ? a. Les applicatiions (exercices pratiques) et leeurs évaluations sontelles consistanttes avec les objeectifs explicitess ou implicites ? (1) Les informations i à propos de la pratique nécesssitentelles que les apprenantts se remémoreent ou reconnaaissent l’information pertinente ? (2) Les éléments de pratique req quièrent-ils qu ue les apprenantts situent, nomm mment et/ou déccrivent chacun de ces éléments ? (3) Le geenre de pratiquue requièrent-ills que les apprrenants identifien nt de nouveaux eexemples pour chaque genre ? (4) La mise m en pratiquue requiert-ellee que les apprrenants effectuentt la procédure ? (5) Le déroulement d dde la pratique requiert-il qu ue les apprenantts prédisent unee conséquence d’un ensemble donné de cond ditions, ou ttrouvent les conditions causant éventuelleement une consséquence inatten ndue ? b. Le didacticciel requiert-il que les appreenants utilisentt leurs nouvelles conn naissances ou haabiletés pour réésoudre une séq quence variées de prob blèmes et reçoivvent-ils des corrrections en feeedback de leurs perform mances ? c. Dans la plu upart des appliccations ou activ vités de pratiqu ue, les apprenants son nt-ils capables dd’obtenir une aide spécifique ou des conseils individ dualisés lorsquu’ils rencontren nt des difficultés avec le matériel d’enseignemennt ? Ce support s dimin nue-t-il nseignement ? graduellement au fil de la proggression de l’en 5. Le didacticiel fournit-il dees techniques qui encourag ge les apprrenants à intég grer (transférerr) les nouvellees connaissancces ou habiiletés dans leurss vies de tous lees jours ? a. Le didacticciel fournit-il l’opportunité aux apprenan nts de démontrer pu ubliquement leeurs connaissaances ou habiletés nouvellement acquises a ? b. Le didacticiel fournit-il l’opportunité aux apprenan nts de considérer ou u réfléchir ssur, discuter et défendre leurs connaissances ou habiletés noouvellement acq quises ? c. Le didacticieel fournit-il l’oopportunité aux x apprenants de créer, inventer ou ex xplorer de nouvveaux moyens personnels d’u utiliser leurs connaissaances ou habilettés nouvellemen nt acquises ?

7.1. 2 . Un modèèle hautemeent itératif Les diffférentes op pérations préésentées à la figure 6.8 6 sont haautement itérativees, dans la mesure m où dee nombreusess rétrospectio ons sont effeectuées à différenntes étapes du u processus pour assurerr que le desiign créé corrresponde réellemeent aux besoins de la ppratique, au ux attentes des d utilisateuurs : une perspective différen nte du processsus, perspective mettan nt en lumièree le coté interactiif et parfois rétrospectif r ddu processuss.

148

7.1.3 . Le niveau d’implication des utilisateurs dans le processus : prototypage traditionnel vs prototypage coopératif Les chercheurs appliquant les idées et l’approche de recherche design centrée sur les utilisateurs impliquent ces derniers à différents niveaux. De façon typique, lorsque le chercheur met l’emphase sur le prototypage, sur les enjeux techniques et sur le développement itératif du produit, la contribution des utilisateurs au processus est restreinte à l’analyse initiale et à quelques évaluations des prototypes (Grønbæk, 1991), laissant la majorité du processus de recherche essentiellement sous le contrôle du chercheur/designer. Une approche plus coopérative consiste à réunir les qualifications des chercheurs et des utilisateurs tout au long du processus, l’implication de chacun s’établissant à des degrés divers selon le genre d’activités menées (figure 6.11). Les utilisateurs n’y sont pas perçus uniquement comme des sources d’information, mais comme des forces directrices du processus (Grønbæk, 1991).

7.1.4 . Techniques et méthodes employées par le processus de recherche Pour rassembler les données dont elle a besoin aux différentes phases du processus, la recherche design s’inspire de toutes sortes de méthodes et techniques quantitatives et qualitatives employées par les recherches axées sur la théorie (chapitres 4 et 5). Les tableaux récapitulent celles employées par les opérations de la recherche design centrée sur les utilisateurs, pour collecter les informations requises. Tableau: Techniques employées pour collecter les données essentielles à l’analyse des utilisateurs, des tâches et du contexte, et à la spécification des attentes vis-à-vis du produit désiré Techniques Questionnaires Entretiens structurés Entretiens semiou nonstructurés Groupes focus Observation/ ethnographie Mises en situation

Emplois lorsque les utilisateurs son nombreux lorsque le chercheur connait les caractéristiques que doit comporter le design approfondir des enjeux connus avec un nombre restreint d’utilisateurs explorer de nouveaux enjeux déterminer les motivations subjectives à chaque utilisateur entretiens de groupe collecter et confronter des points de vue multiples observer le travail en milieu naturel (observations des interactions, du flux de travail, de la fréquence des tâches, de la facilité de réalisation des tâches, etc.) comprendre le contexte et les contraintes d’utilisation (conditions physiques, sociales, organisationnelles, techniques, etc.) obtenir un scénario, une description narrative informelle, du déroulement d’une tâche et des interactions avec un outil connu ou avec des

149

Sondes culturelles

Méthode/ Techniques

personnages fictifs aux traits de caractère exagérés séries d'objets de communication (caméras, bloc-notes, images, cartes) ou de prototypes qui sont introduits dans l’environnement vécu des utilisateurs. Ces derniers sont invités à intégrer ces objets (ou prototypes) dans leur routine. Le chercheur récolte par ce moyen les attitudes et mentalités des utilisateurs et utilise ces informations comme support d’inspiration dans le design (Gaver et coll., 1999).

Progression du processus d’implémentation

Évaluation heuristique

Début du design, Départ d’une ronde itérative de design

Mesure de la performance

Analyse compétitive du prototype, Test final

Méthode de pensée à voix haute

Évaluation formative des prototypes

Observation

Analyse des tâches Enquêtes de suivi

Questionnaires

Analyse des tâches, Enquêtes de suivi

Utilisateurs requis

Principaux avantages

Principaux inconvénients

aucun

Permet de cibler des soucis d’utilisation pratique, Prend en compte les enjeux adressés par les experts

N’implique pas de réels utilisateurs et n’adresse pas les enjeux plus terreà-terre de ceux-ci

au moins 10

Mesures quantitatives. Résultats faciles à comparer

3-5

3 ou plus

au moins 30

150

Met en lumière les idées préconçues de l’utilisateur. Test peu coûteux Validité écologique; Révèle les tâches réelles des utilisateurs; Suggère les fonctionnalités et caractéristiques du design Décèle les préférences subjectifs des utilisateurs; Facile à répéter

Ne prend pas en compte les soucis d’utilisation rencontrés individuellement par les utilisateurs Processus non naturel pour les utilisateurs; Verbalisation difficile pour les experts

Horaire difficile à établir; Aucun contrôle du chercheur/designer

Requiert une étude-pilote pour éviter toute confusion en rapport aux questions

Entretiens

Analyse des tâches

5

Groupes focus

Analyse des tâches; Implication des utilisateurs au prototypage

6 – 9 par groupe

Enregistrement de l’utilisation réelle

Feedbacks des utilisateurs

Test final; Enquêtes de suivi

au moins 20

Enquêtes de suivi

des centaines

Flexible; Favorise le sondage en profondeur des attitudes et expériences personnelles Permet d’observer les réactions spontanées et les dynamiques de groupes Détermine les caractéristiques du produit, les plus (ou les moins) mises à contribution lors de son utilisation réelle; Peut être mis en œuvre de façon prolongée et continuelle Permet de suivre les changements dans la perception ou les besoins des utilisateurs

Requiert du temps; Difficulté d’analyse de comparaisons

Difficulté d’analyse. Faible validité

Logiciel d’analyse requis pour traiter une masse importante de données; Violation de l’usage privé auquel ont droit les utilisateurs

Organisation spéciale requise pour effectuer le suivi et traiter les réponses

Puisqu’elles adressent différentes phases de développement du cycle, les différentes méthodes présentées au tableau se complètent les unes les autres (Nielsen, 1993). De plus, chaque phase du processus admet une pluralité de méthodes. Puisque les avantages de l’une permettent de pallier les inconvénients d’une autre, il est recommandé pour chaque opération de ne pas se reposer uniquement sur une technique au détriment de toutes les autres (Nielsen, 1993). Aussi chacune combinent plusieurs des méthodes qui s’y appliquent, les unes étant qualitatives, les autres quantitatives. En conséquence le processus de recherche design centrée sur les utilisateurs repose en général sur une combinaison, à des degrés divers, des approches qualitative et quantitative.

151

7.2. La recherche-action Compte tenu des similarités entre les finalités des recherches design et des recherches-action, le modèle de recherche-action peut être considéré comme une recherche basée sur l’approche de design (Järvinen, 2005). La recherche-action prend place dans une situation jugée inappropriée par les acteurs impliqués dans cette situation et cherche à créer un futur plus désirable pour ceux-ci. Pour ce faire, elle s’emploie à transformer une organisation et/ou une pratique par des interventions (ou une série d’actions) et à évaluer cette transformation. Tout comme le modèle participatif de recherche design, la recherche action met l’accent sur l’aspect utilitaire que revêtent les systèmes à implanter, du point de vue des parties prenantes (Järvinen, 2005). Elle s’en distingue par son produit qui n’est pas un artéfact physique ou une technique spécifique, mais plutôt un ensemble de connaissances scientifiques nécessaires à la mise en œuvre des actions menant à la transformation désirée. La recherche action s’applique surtout pour améliorer la compréhension du changement organisationnel au sein d’un système social (Järvinen, 2005). Elle permet simultanément d’assister la résolution d’un problème pratique et d’accroitre le niveau de connaissances entourant ce problème. Elle suit une démarche cyclique (figure 6.12) au cours de laquelle le chercheur s’implique activement dans le système qu’il cherche à modifier, et collabore dans le cadre de sa recherche avec le système-client, les acteurs du système ou ses différentes parties prenantes. Une telle collaboration permet aux acteurs de prendre part au changement et d’améliorer leurs compétences respectives. Une telle démarche comprend cinq opérations-clés (figure 6.12) : (1) le diagnostic du problème; (2) la planification des actions à entreprendre; (3) la mise en œuvre de ces actions; (4) l’évaluation de leurs conséquences et leur mise en rapport avec les attentes des acteurs; (5) l’identification des connaissances scientifiques découlant du processus et la spécification des théories ancrées dans l’action, pertinentes à la compréhension de la situation ou du système social et à la conduite du changement souhaité. Les projets de recherche-action se distinguent cependant les uns des autres par le nombre d’opérations impliquant une collaboration effective entre le chercheur et les acteurs du système considéré (Järvinen, 2005). Aussi l’amélioration des compétences des acteurs dépend non seulement de leurs compétences de départ, mais également du degré d’implication de ces acteurs aux différentes phases du processus et de l’équilibre dans l’implication relative de chacun des acteurs. Le processus cyclique à 5 opérations de la recherche-action est répété autant de fois que nécessaire pour apporter une solution satisfaisante au problème, c’est-à-dire pour parvenir à une transformation acceptable. Aussi, le chercheur tire parti, sur une base rétroactive, des données obtenues au cours d’une ronde précédente. Les connaissances générées au fil de la 152

recherche sont donc utilisées, testées et modifiées au cours du processus (Järvinen, 2005).

7.3. Le modèle de la démarche légistique La légistique est une science appliquée de la législation, qui cherche à déterminer les meilleures modalités d’élaboration, de rédaction, d’édiction et d’application des normes. Elle propose une démarche méthodique susceptible de rationaliser la production normative et d’optimiser les interventions publiques (Jochum et Ledermann, 2009). Ce modèle théorique préconise une prise de distance pour évaluer le degré de gravité et d’urgence de la situation. Le chercheur récolte les données disponibles de manière méthodique afin de parvenir à une définition fondée du problème. Il en fournit une analyse systématique des dimensions, de la nature, des causes, de la durée, de la dynamique et des effets, ainsi que l’impact d’une nonintervention (Jochum et Ledermann, 2009). Puis le chercheur confronte son analyse à la définition politique qui lui a été fournie. Une fois sa définition réalisée, le chercheur doit se faire une idée des buts et objectifs visés par les autorités politiques lors de l’octroi du mandat de recherche. Il analyse donc les buts à atteindre, mentionnés, implicitement ou non, dans le mandat qui lui a été confié. Sur la base de la définition du problème qu’il a réalisée, il élargit le spectre de ces buts et les traduit en objectifs de recherche opérationnels, rattachés à des finalités plus générales établies dans le système de valeur de la société (Jochum et Ledermann, 2009). Ceci lui permet de détecter d’éventuelles incompatibilités et, le cas échéant, de pondérer les différents buts et objectifs. Pour résoudre le problème identifié et atteindre les buts visés, il existe toute une panoplie d’instruments susceptibles d’influencer le comportement des acteurs sociaux (Jochum et Ledermann, 2009). Aussi, le modèle préconise de ne pas se limiter rapidement à un scénario d’action, mais de retenir plusieurs possibilités d’intervention (l’adéquation et la pertinence des possibilités envisagées dépendent en grande partie de la qualité de l’analyse du problème ainsi que de l’identification et l’explicitation des objectifs à atteindre). Le chercheur examine donc les mesures susceptibles de remédier à la situation, et fait l’inventaire des arrangements institutionnels nécessaires à leurs mises en œuvre respectives. Il analyse les avantages et les inconvénients de chaque mesure, ainsi que ceux de chaque arrangement requis (Jochum et Ledermann, 2009). Après une première sélection des stratégies d’action potentielles reposant sur les avantages et inconvénients, le chercheur procède à une évaluation prospective des impacts des stratégies retenues. Cette évaluation lui permet de privilégier une des solutions retenues. Il propose donc cette solution, veille à sa mise en œuvre adéquate selon les arrangements qu’il a anticipés, puis évalue l’impact réel de cette solution et identifie les connaissances générées au cours du processus. Comme pour 153

toute recherche design, le processus est hautement itératif et les informations générées à chaque étape permettent d’affiner les étapes précédentes sur une base rétroactive.

8. Conclusion Alors que les recherches pilotées par la théorie et celles visant à créer une théorie sont généralement des recherches fondamentales, les recherches basées sur l’approche de design sont principalement des recherches appliquées visant la résolution d’un problème concret rencontré par la pratique disciplinaire. Elles produisent un ensemble d’outils directement utiles pour des utilisateurs, des acteurs ou des parties prenantes concernées par le problème étudié. En effet, les recherches design s’intéressent moins à la compréhension, l’explication ou la prévision des phénomènes naturels, qu’à la transformation de ces phénomènes par l’introduction de produits issus de la main de l’homme, des artéfacts. Ces produits sont très variés, allant d’un artéfact physique désiré par des utilisateurs, à des connaissances scientifiques ou des théories abstraites visant à orienter un changement, en passant par des règles ou des normes encadrant une pratique. Bien que les normes académiques perçoivent l’enseignement des sciences de l’artificiel comme moins intéressantes ou utiles (Simon, 1996), les recherches au service de celles-ci ont une valeur scientifique indéniable. En outre, la théorie et l’activité de construction théorique n’en est pas absente. Pour collecter les données essentielles à leur design, les recherches axées sur cette approche adoptent des méthodes très variées dont certaines s’inspirent des méthodes ou techniques quantitatives et qualitatives (employées par les recherches pilotées par la théorie ou par celles visant à créer une théorie) et les combinent. Une fois le sujet de la recherche choisi, le problème défini et les hypothèses de recherche formulées, le chercheur doit décider de la forme que son investigation prendra. Cette décision découle de l’approche ou de la perspective de recherche qu’il adopte dès le départ. Ces perspectives reposent sur des croyances et des logiques différentes dont la connaissance peut orienter le chercheur dans le choix de l’approche de recherche et du processus de recherche à adopter dans la lignée de cette approche. Le tableau résume les croyances et la logique derrière chacune des approches générales approfondies dans cette deuxième partie de notre travail. Celle-ci nous a également présenté les processus généraux de recherche qui s’inspirent de l’adoption des méthodologies quantitatives, qualitatives et/ou de leurs combinaisons. Ces processus permettent au chercheur de déterminer quoi étudier (donc d’identifier la nature des données utiles à rassembler), où et sur qui mener les investigations (ils circonscrivent le champ d’investigation), et enfin comment mener l’investigation à son terme et obtenir les informations pertinentes en rapport avec la question de recherche. Dans la prochaine et dernière partie, nous reviendrons sur le traitement des données quantitatives et celles qualitatives obtenues dans le cadre des différents processus de 154

recherche. Une attention particulière est apportée à l’acquisition et à l’analyse de ces données. Les recherches pilotées par la théorie

Les recherches visant à créer une théorie

Paradigmes caractéristiques Points de vue sur la réalité

Positiviste

Caractéristiques épistémologiques

Savoir objectif privilégié; étudie des faits observables prise de distance avec les émotions; chercheur détaché ou non-impliqué dans la réalité étudiée

Constructionniste, interprétative Il existe plusieurs réalités socialement construites par ceux qui y participent. Leurs caractéristiques dépendent de l’interprétation qui leur a été attribuée par les acteurs sociaux impliqués dans ces réalités Savoir subjectif; étudie des conceptions, des perceptions privilégie les valeurs et le savoir émergeant de l’interaction entre le chercheur et les participants faible distance avec la réalité étudiée

Intérêt

La vérité universelle; évaluer (tester), prédire

Explorer et comprendre diverses réalités sociales ancrées dans un contexte; décrire

Méthodologie

Observation de la réalité; quantitative, statistique

Participation à la réalité; qualitative, herméneutique, dialectique

Il existe une seule réalité, étudiable et probabiliste dont les caractéristiques existent indépendamment de ceux qui les ont créées et de ceux qui les observent

Les recherches design Design, utilitariste Il existe de multiples alternatives contextuelles à l’état naturel de la réalité et qui peuvent être avantageusement mises en place au moyen d’artifices sociotechnologiques Apprendre à travers l’action; la connaissance est ancrée dans la construction d’un artéfact dans un contexte donné les circonscriptions itératives du processus de recherche révèlent les significations ancrées dans l’action Contrôler la réalité; créer, résoudre un problème pratique, améliorer la performance; comprendre Développement de la réalité; mesures quantitatives et qualitatives de l’impact des produits conceptuels sur le système composite

Tableau: Récapitulatif des points de vue et logiques des trois types de recherches présentées.

155

Chapitre 7 L’acquisition des données quantitatives et qualitatives en gestion appliquée Dans une recherche, le recours aux données ne se limite pas au relevé des observations liées aux concepts impliqués par la question de recherche. En effet, une fois la question de recherche formulée, le chercheur, à différentes étapes de progression de sa recherche, se tourne vers diverses sources de données pour obtenir l’inspiration dont il a besoin pour poursuivre le processus (revue de littérature, entretiens avec des experts, etc.), ou pour collecter les informations sur lesquelles se fondera son analyse (observations de participants, interviews, mesures de phénomène, mesures de performance, etc.). Ces données se présentent sous une forme quantitative ou qualitative. Les données quantitatives sont des données chiffrées dont la précision est primordiale pour les recherches qui les emploient. En effet, le recours à ces données témoigne de l’intérêt pour la caractérisation objective, ainsi que pour la quantification rigoureuse et systématique ou pour les comparaisons des dimensions d’une variable. La mise en rapport des concepts traduits en variables opératives (variables indépendantes explicatives et variables dépendantes à explique) et l’identification des éventuels liens de causalité entre eux, dépendent la qualité et de la rigueur des informations véhiculées par ces données. Pour leur part, les données qualitatives facilitent l’exploration et le recueil d’avis subjectifs. Elles permettent de décrire en détail un phénomène et d’appréhender les subtilités que les données quantitatives ne peuvent saisir. Qu’elles soient quantitatives ou qualitatives, la qualité des données collectées dans le cadre d’une recherche est déterminante pour l’utilité et la pertinence scientifique de l’étude réalisée. Elles doivent donc être appropriées et permettre de rendre compte, fidèlement et de façon aussi complète que possible, des concepts impliqués par les hypothèses de recherche. Aussi le chercheur doit d’une part identifier les moments-clés de la recherche où il doit obtenir des informations, le genre d’informations dont il a besoin et les moyens qui se prêtent le mieux à l’obtention de données de cette nature. D’autre part, il doit être en mesure d’appliquer ces moyens de manière adéquate, c’est-à-dire de manière à ce que leur application ne nuise pas à la qualité et à la pertinence des informations. Pour cela, il respecte un ensemble de principes, s’assure de bien maitriser les exigences et particularités des techniques qu’il met en œuvre et sélectionne soigneusement ses sources d’informations.

157

1. Les principes de base Avant de procéder à l’établissement des instruments de mesures et à la collecte des informations dont il a besoin, le chercheur s’assure de garder à l’esprit l’importance des préconisations suivantes (Schneider, 2006): 1. Faire une liste des concepts (variables théoriques) pour lesquels il faut des données. 2. Identifier les dimensions éventuelles de chaque variable, afin de lister l’ensemble des variables effectives à mesurer (correspondant à des concepts simples et/ou des dimensions de concepts plus complexes). Ici il peut faire appel à plusieurs sources de données : a. Une revue de la littérature, permettant d’établir s’il existe des grilles d’analyse documentées qui pourraient servir à décomposer les dimensions des variables théoriques (consulter l’annexe 3) b. Des entretiens avec des experts dans le domaine (consulter l’annexe 4) 3. Pour chaque variable effective (ou chaque dimension), définir l’indicateur le plus approprié et la façon de le mesurer. À ce niveau les sources de données précédentes peuvent encore être mises à contribution. Il est préférable d’employer un indicateur documenté : celui-ci facilite la comparaison des résultats et l’intégration des travaux dans le champ du savoir. 4. La triangulation des techniques ou des instruments de mesure et la redondance des données assurent la fiabilité de la mesure. Lors de l’établissement des instruments de mesure, penser à compléter la technique choisie par des techniques alternatives (par exemple, un sondage peut être complété par des observations ou par des données statistiques). De même, s’assurer que les instruments choisis permettent éventuellement de répéter les mesures (protocoles expérimentaux), ou qu’ils permettent d’obtenir des données redondantes, si les mesures ne peuvent être répétées (par exemple un questionnaire évaluera la même variable conceptuelle au moyen de plusieurs questions, ou adressera la même question en la reformulant). 5. Éviter les données vagues ne fournissant que des appréciations globales des phénomènes ou comportements. 6. Éviter tout biais de confirmation. Il est important de ne pas recueillir ou considérer uniquement les données qui confirment l’hypothèse de 158

recherche, mais de rassembler toutes celles utiles à sa vérification objective. Une fois qu’il a défini les données pertinentes à recueillir et les indicateurs les plus appropriés à leurs mesures, le chercheur doit choisir la technique d’acquisition des données la plus appropriée dans le contexte spécifique de sa recherche.

2. Les méthodes d’acquisition des données quantitatives et qualitatives L’acquisition des données selon les approches quantitative et qualitative repose généralement sur les mêmes activités et méthodes de base. Aussi la frontière entre les deux approches parait quelques fois floue. Néanmoins, chaque approche aborde ces activités et met en œuvre les méthodes qui y sont associées en adoptant une perspective particulière (objectiviste, subjectiviste). Aussi, le choix de la technique de recueil de données dépend des questions de recherche, des hypothèses, du positionnement épistémologique (positivisme, constructionnisme ou design) de la définition des données pertinentes à recueillir (ensemble plutôt quantitatif, plutôt qualitatif) et des exigences inhérentes à leur mise en œuvre correcte.

159

Tableau : Survol des méthodes et techniques à la base de l’acquisition de données quantitatives et qualitatives Méthodes de base

Exemples de techniques pour les mesures empiriques des données Quantitatives Qualitatives

Observer

Observation

Observation désengagée - Observation systématique du comportement, - Test de capacité, - Mesure de performance

Examiner le langage ou les actions

Enregistrement/ transcriptions

- Analyse quantitative du contenu - Analyse de l’historique de téléchargement

Recenser les écrits ou les traces

Revue de la littérature Analyse des journaux de bords Analyse des vestiges ou des œuvres

- Analyse quantitative du contenu, - Analyse heuristique

Activités sousjacente

Évaluation autoadministration Questionner les participants Entretiens

- Questionnaires fermés (sondages), - Liste de vérification (checklists) - Entretiens structurés (directifs), - Entretiens standardisés avec des questions fermées ou semi-fermées (sondages)

Observation participante - Ethnographie / observation phénoménologique, - Test projectif - Analyse de dialogues, - Analyse des représentations sociales, - Analyse de l’interactionnisme symbolique, - Analyse biographique, - Sondes culturelles - Analyse herméneutique, - Analyse interprétative, - Analyse de discours

- Questionnaires ouverts, - Journaux intimes - Entretiens ouverts ou semi-structurés, - Groupes focus, - Technique de pensée à voix haute

L’acquisition proprement dite se décompose en trois opérations. i.

La première consiste à concevoir l'instrument capable de fournir les informations adéquates et nécessaires pour tester les hypothèses (ex. un questionnaire d’enquête, un guide d’entrevue, une grille d’observation, etc.). a. L'important n'est pas seulement de recueillir les informations qui rendent compte du concept (via les dimensions et indicateurs), mais aussi d'obtenir ces informations sous une forme qui permet de leur appliquer ultérieurement le traitement nécessaire à la vérification des hypothèses (Jeannin, 2003). Dès la conception, il est donc primordial de prendre en compte le type d'informations qu'il 160

fournira et d’anticiper le type de traitement et d'analyse qui leur sera appliqué; b. L’instrument établi ne devrait pas fournir d’informations floues livrant des appréciations globales d’un comportement ou d’un phénomène. Il doit permettre d’obtenir des informations précises sur la nature, la fréquence et les caractéristiques du comportement (ou du phénomène); c. L’instrument ne doit ni recueillir uniquement les données permettant de confirmer une hypothèse de recherche, ni orienter la nature des données qu’il recueille. Il est établi de façon à prendre en compte les hypothèses alternatives ou rivales à celle du chercheur, et mesure les faits sans refléter les idées préconçues du chercheur. ii.

L’instrument conçu est ensuite testé avant son utilisation systématique, de manière à s'assurer que son degré d'adéquation et de précision est suffisant

iii.

Si ce degré est jugé satisfaisant, l’instrument est mis en œuvre de manière systématique et le chercheur procède ainsi à la collecte des données pertinentes

La conception des instruments, qui permettront d’obtenir les informations désirées, découle du choix de la technique de recueil des données. Il importe donc pour le chercheur de comprendre les exigences des méthodes qui soustendent les techniques d’acquisition.

2.1. L’observation Selon Marc-Adélard Tremblay, « Observer veut dire que le chercheur effectue un effort systématique pour enregistrer aussi fidèlement et complètement que possible les faits qu'il voit et entend dans des situations concrètes déterminées d'avance et reliées à la question centrale. » (Tremblay, 1968 : p. 284) Ainsi, l’observation implique que le chercheur observe les individus ou les groupes dans un contexte défini (milieu artificiel, naturel, ou mise en situation) et constate par lui-même les faits. Il recueille ses informations de manière systématique et méthodique (Tremblay et Perrier, 2006). L’observation peut s’effectuer de deux façons : ƒ

L’observation neutre où le chercheur demeure le plus neutre possible par rapport à la vie des sujets sous observation et assiste en spectateur aux interactions et comportements se déroulant sous ses yeux. Elle est utile pour déterminer et comptabiliser les comportements. 161

Toutefois elle manque de profondeur dans la mesure où elle n’établit pas de lien entre le phénomène observé et sa signification ƒ

L’observation participante où le chercher s’intègre à la vie des sujets tout en avouant ses intentions de chercheur. « Participant observation is conscious and systematic sharing, in so far as circumstances permit, in the lifeactivities, and, on occasion, in the interests and affects of a group of persons. Its purpose is to obtain data about behavior through direct contact and in terms of specific situations in which the distortion that results from the investigator’s being an outside agent is reduced to a minimum. » (Kluckhohn, 1940: p. 331) Elle est utile lorsque le chercheur veut obtenir une compréhension systémique des phénomènes observés, et veut en dresser un portrait d’ensemble en réduisant les préjugés que pourraient avoir les sujets d’être observés. Elle se caractérise par l’établissement de relations entre le chercheur et les sujets, de rôles respectifs au sein du groupe et de lien entre ces rôles et leurs comportements dans la communauté. L’inconvénient de cette technique est qu’elle favorise la subjectivité, l’engagement émotionnel du chercheur, son interférence dans la production des données qu’il collecte et un certain aveuglement (Tremblay, 1968).

2.1.1 . Exigences de la méthode L’observation est essentielle pour étudier en profondeur, un phénomène, une culture ou une organisation. Quelle que soit la façon dont elle est appliquée, les rapports d’observation doivent être complets et systématiques (selon les objectifs de la recherche), et témoigner de la perspicacité de l’observateur à déceler les éléments d’intérêt. L’observation en elle-même, mais également son analyse, requiert beaucoup de temps et sa mise en œuvre nécessite des réflexions poussées. Le chercheur doit être attentif à son rôle éventuel dans l’organisation, le groupe ou la culture étudiée (observation participante), ainsi qu’à l’interférence qu’il peut causer sur les manifestations des phénomènes qu’ils observent du fait de sa présence. Les observations effectuées doivent pouvoir rendre de tout ce dont l’observateur a été témoin au sujet du problème à l'étude. Idéalement, elles se rapprochent le plus possible de ce que serait une photographie de l'événement et se libèrent des éléments apportés par l'observateur sur le lieu d'observation (Tremblay, 1968). Aussi ce dernier doit également réfléchir à la façon dont les instruments qu’il utilise reflètent ses observations.

162

2.1.2 . Instruments de mesure dans le cadre de données quantitatives Lorsque l’observation vise à recueillir des données quantitatives, elle se déroule selon un plan d’ensemble habituellement préétabli (Tremblay, 1968). Le chercheur a en tête une idée précise sur la nature du phénomène qu'il a à observer et il s’interroge sur différentes manifestations spécifiques de ce phénomène (voir exemple 7.1). Le nombre et le genre d'observations à récolter sont connus. C’est notamment le cas du contexte expérimental, où l’expérience définit le contenu de l'observation ainsi que les manières de l'entreprendre. L'observation est donc structurée et se veut objective. L’observateur ne fait pas directement partie de la situation observée et/ou s’y implique le moins possible. Son observation se concentre uniquement sur les variables à l'étude et s’attarde pas outre mesure sur celles non contrôlées. Le chercheur se penche sur les manifestations de ses variables et les comptabilise en employant une grille d’observation. Celle-ci oriente le déroulement de l’opération. Elle en indique les étapes, introduit les concepts à mesurer, cible et caractérise le (ou les) indicateur(s) à observer en vue de leur quantification.

Exemple 7.1 Une étude veut déterminer le degré d'adaptation et de performance des enfants d'âge préscolaire (Tremblay, 1968) dans leurs relations avec les autres enfants (gêne, crainte, isolement, agressivité, participation aux jeux collectifs, etc.). Elle observe la coopération des enfants dans un groupe lors la réalisation de certaines activités ou de jeux. Les observations sont relevées et quantifiées selon la grille d’observation suivante. Elle développe une typologie de participation et identifie le genre de comportement à relever. Tableau : Exemple de grille d’observation guidant la détermination de la coopération et du degré d’adaptation d’enfants d’âge préscolaire en relations avec d’autres enfants Attitudes des enfants selon la situation

Concept à mesurer

positive (ex. jouant, riant, courant, marchant, coloriant)

Indicateur

163

indifférente (ex. debout ou assis mais inactifs)

négative (ex. pleurant, triste, craintif, gêné, agressif, se battant)

Isolation spatiale Isolation et absence de communication Activité parallèle Paire isolée Groupes simples Groupes de jeu (coopératif)

Enfant seul Enfant à proximité des autres, mais ne leur parle pas ou ne joue pas avec eux Enfant qui participe à une activité collective mais pas d’interaction avec les autres Deux enfants jouent ensemble séparés des autres Enfants qui conversent mais poursuivent des activités différentes Plusieurs enfants se tiennent ensemble et coopèrent à une activité ou un jeu

L’observateur peut également avoir recours à une liste de vérification ou checklists établissant les critères permettant de classer les observations effectuées sur un sujet. Ces listes sont utiles lorsque l’observateur désire relever plusieurs informations sur un même sujet d’observation ou observer sur lui les manifestations d’un ensemble de phénomènes, puis répéter de manière systématique cette procédure sur d’autres sujets. Les checklists listent l’ensemble des observations possibles pour chaque concept (chaque phénomène ou chaque critère) et permettent d’en dresser un état global qui facilite les comparaisons et les classifications. Les critères fournis par les checklists ne renvoient pas toujours à des données chiffrées, aussi un code (ou une pondération) est associé à chacun.

Exemple 7.2 Dans le cadre d’une étude portant sur la prospérité économique, le chercheur désire classer les villages d’un comté en cinq types, selon leur niveau de prospérité économique (voir Tremblay, 1968). Il se base, entre autres, sur l'observation systématique des maisons pour parvenir à une évaluation. Il recourt à des critères d'estimation valides et facilement utilisables (Tremblay, 1968) pour différencier la valeur des propriétés dans un village (et donc le degré de prospérité ou de pauvreté de son propriétaire). Les critères choisis sont les suivants : a) la grandeur de la maison ; b) l'état de réparation de la toiture et de la cheminée ; c) l'état de réparation et d'entretien des murs et de la fondation ; d) l'état de la cour et 164

du parterre ; e) la valeur des terres ; f) l'état des autres constructions (Tremblay, 1968). Pour déterminer le degré de prospérité de chaque propriété et pour obtenir une base pour la comparaison et les classifications des propriétés, chacune est évaluée au moyen de la liste de vérification ci-après : Tableau: Exemple de liste de vérification orientant les observations et leurs relevés Critères d’évaluation Poids 1° GRANDEUR DE LA MAISON - Grande (plus d’un étage et plus d’une unité) 3 - Moyenne (plusieurs étages mais une seule unité; ou un seul 2 étage mais plusieurs unités - Petite (un seul étage, une seule unité) 1 2° ÉTAT DE LA TOITURE ET DE LA CHEMINÉE - Excellent (récente et de qualité supérieure) 3 - Bon (d’un certain âge mais en bon état) 2 - Pauvre (vieille et ayant besoin de réparations) 1 3° ÉTAT DES MURS ET DE LA FONDATION - Excellent (bardeaux de qualité et peints) 3 - Bon (non peints mais en bon état) 2 - Pauvre (peinture vieillie, besoin de réparations) 1 4° ÉTAT DE LA COUR ET DU PARTERRE - Parterre cultivé et gazonne 3 - Parterre dénotant un manque de soin 2 - Parterre et cour en désordre, malpropres, etc. 1 5° VALEUR DE LA TERRE - Fertile et riche 3 - Sablonneuse, moyenne 2 - Pauvre et rocailleuse 1 6° ÉTAT DES AUTRES CONSTRUCTIONS - Excellent 3 - Bon 2 - Pauvres 1 (mêmes définitions que pour la maison) État global (total des pondérations) Tableau reproduit à partir de Tremblay M-A., 1968. Initiation à la recherche dans les sciences humaines; McGraw-Hill Éditeurs, Montréal

Plusieurs techniques d’observation structurée emploient ce type d’instruments : les tests de performance en laboratoire où un sujet subit un test, durant lequel il est appelé à manipuler des objets ou réaliser diverses tâches. L’observation du sujet permet de mettre en parallèle sa performance avec les diverses réactions qui surviennent au fur et à mesure que l'expérience se déroule ou avec des variables indépendantes contrôlées ; l’observation systématique d’un comportement en milieu naturel ou en laboratoire. En outre les protocoles expérimentaux, quasi-expérimentaux ou 165

comparatifs ont fréquemment recours aux checklists. Puisqu’elles doivent fournir des données complètes, le chercheur doit s’assurer que les grilles d’observation ou les listes de vérification englobent toutes les dimensions du phénomène à observer. Leur construction requiert donc une connaissance pointue du phénomène observé (et du domaine) ainsi qu’une définition rigoureuse et complète des variables et de leur dimensions (section 1 du présent chapitre).

2.1.3 . Dans le cadre de données qualitatives Lorsqu’elle tente d’obtenir des données qualitatives, l’observation s’attache à déceler le sens de ce qu’elle observe. Aussi, l’observateur fait en général directement partie de la situation. Dans les études ethnographiques, entre autres, il s'insère dans la structure sociale du milieu et participe aux situations qui font l'objet de son étude (Tremblay, 1968). Les observations à réaliser ne sont pas précisées d’avance. Aussi l’observation n’est pas rigoureusement structurée et une plus grande liberté est laissée à l’observateur. Il dresse un portrait d’ensemble de la situation, recueille en accord avec ses objectifs de recherche, des données sur les événements dont il est témoin (les actions des sujets, leurs fonctions, leurs réactions, leurs interactions, etc.) et en rapporte toutes les composantes en prenant des notes, en tenant un journal de bord ou en utilisant une technique d’enregistrement visuelle, audio ou audiovisuelle (appareil photo, caméra, magnétophone) pour accroitre la précision de ces observations (Tremblay et Perrier, 2006). Le recueil et l’accumulation de données denses nécessitent un effort de mémorisation et une bonne gestion de l’information, essentielle pour la trier et la récupérer facilement. La rigueur et la constance dans les habitudes de collecte sont indispensables. Mais être rigoureux à chaque instant est autrement plus difficile. Cela paraît toujours fastidieux sur le moment, mais c’est pourtant un gain de temps considérable à terme. Les éléments suivants peuvent faciliter la gestion de l’information en assurant une certaine rigueur et une certaine constance dans le relevé des informations : - Une bonne méthode de prises de notes : le chercheur relève soigneusement et complètement les détails entourant la situation observée lors d’une annotation systématique, en employant : •

une organisation chronologique des situations d’observation (ex. jour 1, jour 2, jour 3 ; activité i, activité ii ; séance a, séance b ; etc.)



un rangement thématique des informations dispersées recueillies pour chaque situation (ex. des sous-titres ou des rubriques indiquant diverses caractéristiques de chaque situation d’observation). 166



un résumé des informations mineures, confuses ou répétées

- L’établissement de conventions de notation pour situer les données et en distinguer les nuances. Il peut y avoir des conventions pour les séances d’observation proprement dites, et des conventions rapportant des informations ajoutées après ces séances. Exemple d’une convention de notation 19 Tableau : Exemple d’une convention de notation Signe

Usage

« … » Citations verbatim '…'

Paraphrases

(…)

Données contextuelles ou interprétations de l’observateur

Analyses (catégories) dérivées du cadre conceptuel des sujets

/…

Analyses (catégories) dérivées du cadre conceptuel de l’observateur



Observation nulle

ĵ…

Observation incertaine (en raison de difficultés de perception ou de difficultés de mémorisation)



Moments des partitions ou circonstances de l’observation

2.1.4 . Conclusions sur la méthode de l’observation La qualité (sûreté, validité, ampleur et profondeur) des observations effectuées par le chercheur lui-même dépendra d'un facteur important : la position de l'observateur vis-à-vis de l'objet de son observation (Tremblay, 1968). Pour connaître la qualité des observations, il faudra mettre en parallèle le degré de rapprochement et/ou d’implication émotionnelle de l’observateur par rapport à la situation et éventuellement confronter sa perspective avec celles d’autres observateurs (Tremblay, 1968).

19

Exemple standard.

167

Les principales difficultés que soulève l'observation sont liées à sa structure imparfaite et à son utilisation inadéquate par le chercheur. Ces imperfections structurelles nécessiteront la collaboration soutenue de plusieurs observateurs, et si possible la répétition des observations dans les mêmes circonstances (Tremblay, 1968). Par ailleurs, quelles que soient ses aptitudes professionnelles, l’observateur sera incapable de concevoir et d'observer tous les éléments de la situation (notamment dans le cas de données qualitatives). Son rapport d'observation sera nécessairement incomplet et présenté dans une perspective particulière. Par ailleurs, la présence du chercheur peut biaiser le comportement des sujets qui se savent observés. L’observation nécessite alors d’être complétée par l’utilisation conjointe d’autres méthodes de collecte de données (entretiens, sondages, recensements des écrits). Mais en dépit de ses imperfections, l'observation est l'une des sources primaires de connaissance les plus importantes et un des éléments indispensables de la science (Tremblay, 1968).

2.2. Les enregistrements et l’analyse de textes 2.2.1 . Les analyses des enregistrements Cette méthode proche de l’observation consiste à enregistrer sur un support audio ou audiovisuel le comportement des sujets ou leurs performances lors de l’accomplissement d’une certaine tâche (ex.: sujet réalisant une tâche en laboratoire, élèves dans une classe, ouvriers devant une machine, utilisateurs employant un artéfact, gestionnaires en discussion lors d’une réunion, etc.). Le chercheur capte donc au moyen d’un magnétophone ou d’une caméra la situation de laquelle il tirera ses données, ou encore au moyen d’un historique généré automatiquement au fil des actions du sujet. Afin de permettre l’analyse de ces données, il procède à la transcription des enregistrements dans un format adéquat. Même si l’enregistrement des aspects qualitatifs est plutôt faible lors de l’emploi d’un magnétophone, l’enregistrement sur bande magnétique et l’emploi de la caméra comportent un certain nombre d'avantages techniques. Entre autres, ils permettent une transcription quasi-parfaite des situations et des échanges et réduisent au minimum les oublis et les biais. Toutefois les enregistrements couvrent généralement de longue période et plusieurs détails pertinents et non pour la question de recherche, en conséquence la transcription, et son analyse subséquente, prennent beaucoup de temps. Pour en obtenir des données quantitatives, le chercheur a recours à une grille d’analyse quantitative du contenu ou s’intéresse aux aspects purement quantitatifs de la situation (ex. durée requise pour accomplir une tâche, nombre de sujets parvenus à atteindre un objectif déterminé ou à réaliser une performance souhaitée, etc.). Il peut employer les mêmes instruments que ceux servant à l’observation. Dans le cas de données qualitatives, la transcription liste tous les détails essentiels à la recherche (du point de vue 168

du chercheur). Chacune des techniques de mesure qualitative, présentées au tableau oriente le chercheur vers la transcription attentive des éléments les plus pertinents pour la recherche20. Le chercheur effectue une transcription littérale respectant tous ces détails. Comme dans le cas précédent, le chercheur recours aux techniques de prises de notes employées par la méthode de l’observation. Outre la longueur de la transcription, le principal inconvénient des techniques de l’enregistrement est qu’elles exigent de la délicatesse et peuvent fausser le comportement de(s) sujet(s). En effet, l’introduction d’un outil d’enregistrement dans l’environnement des sujets peut occasionner chez ceux-ci de la gêne, des hésitations, des réticences ou les pousser à adopter un comportement non spontané ou inhabituel. Le chercheur a donc la responsabilité de mettre en confiance ses participants.

2.2.2 . La recension des écrits (ou la recherche documentaire) et des traces De nos jours, l’information écrite est surabondante. La principale difficulté consiste à à s’orienter dans l’ensemble des documents, à opérer un tri judicieux dans la masse découverte et à trouver finalement l'information pertinente. Pour y parvenir, il importe de savoir de quoi on a besoin (section 1 du présent chapitre). Tout comme pour l’acquisition de données à partir d’enregistrements, la technique de mesure adoptée lors de la recherche documentaire oriente le chercheur vers le relevé des éléments les plus pertinents pour la recherche. La recension des écrits comme méthode d’acquisition des données se distingue quelque peu de la revue de la littérature (qui englobe généralement tout le processus de recherche). En effet, sa principale fonction ici est de permettre de collecter les données sur lesquelles se baseront l’analyse, l’élaboration des produits de la recherche et la formulation des conclusions. Les sources primaires Une source importante de données est constituée par la littérature (institutionnelle ou industrielle) entourant le phénomène à l’étude ou par les documents manuscrits disponibles dans l’environnement où se déroule la recherche (ex. dans une organisation documents officiels : un bilan de société, rapports de réunions de travail, charte constitutive, rapports annuels, planification budgétaire, mémos, décisions écrites, sites web, etc. – pour un individu : lettres manuscrites, discours, contraventions, décisions judiciaires,

20

Se référer également au chapitre 5- section 2 pour la description de ces techniques et l’identification des éléments d’intérêts sur lesquels se penche le chercheur

169

etc.). L’éventail de textes à considérer varie en fonction du sujet de recherche21. Les sources secondaires et la revue de la littérature Les sources secondaires de données reprennent, commentent, vulgarisent, résument les documents précédents. Elles sont surtout diffusées par des revues grand public. Les sources secondaires déforment inévitablement (parfois de façon considérable) les informations primaires puisqu’elles les abordent d’une perspective particulière. Ce qui n’implique pas que l'information secondaire est à rejeter : elle doit simplement être lue pour ce qu’elle est, une information toujours plus ou moins déformée, à prendre avec prudence. Les sources secondaires sont souvent associées à une revue de la littérature, autrement dit des travaux qui se sont fait antérieurement à la recherche du moment. Les instruments de mesure Tout comme pour les méthodes précédentes, les instruments mis en œuvre par l’approche quantitative sont élaborés en vue d’obtenir la fréquence d’un comportement ou d’un phénomène reflétée par les répétitions de contenu, ou encore à en quantifier les éléments. Il peut s’agir de logiciels informatiques, d’index établis manuellement (voir annexe 3), de grille d’analyse quantitative de contenu, de matrices, etc. L’approche qualitative cherche plutôt le sens implicite ou explicite contenu dans les documents qu’elle rassemble, aussi ses instruments permettent de restituer la richesse d’un comportement (ou d’un phénomène). Elle emploie des fiches de lecture ou analyse les documents dans leur globalité.

2.2.3 . L’analyse de contenu L’analyse de contenu, qui par une analyse du contenu des communications (textes, messages audio ou audiovisuels) en fait ressortir les données essentielles à la recherche, est une technique d’acquisition de données souvent mise en œuvre par l’approche quantitative. Il existe plusieurs définitions de l’analyse de contenu. Holsti (1968) affirme que l’analyse de contenu fait référence à toute technique employée pour effectuer des inférences (dénudées de toutes connotations personnelles ou subjectives au chercheur) à partir de l’identification systématique et objective de caractéristiques déterminées dans un message. Selon Krippendorff (1980), c’est une technique de recherche permettant de faire, à partir de données des

21

Encore une fois, il est important de noter que ces documents ne font pas partie de la revue de la littérature, ce sont des sources primaires faisant partie du corps de la recherche

170

inférences valides et reproductibles sur leur contexte. Cette définition rejoint celle de Weber (1985) qui voit en l’analyse de contenu une méthodologie de recherche utilisant un ensemble de procédures pour faire des inférences valides à partir d’un texte. Ces inférences concernent l’auteur du message, le message lui-même ou ses destinataires. Kerlinger (1986) la définit comme un moyen systématique, objectif et quantitatif d’étude et d’analyse de communications visant à mesurer des variables. Et pour Stone et coll. (1996) elle fait référence à toute procédure permettant d’évaluer la mesure dans laquelle des références spécifiques, des attitudes ou des thèmes donnés transparaissent dans un message ou dans un document. Ces conceptions de l’analyse de contenu sont résumées par la définition classique communément admise de l’analyse de contenu, qui a été proposée par Bernard Berelson, spécialiste en sciences du comportement et pionnier en analyse de contenu : « It is a research technique for the objective, systematic, and quantitative description of the manifest content of communication. » (Berelson, 1952: p.18) Cette définition met l’emphase sur l’objectivité, sur le caractère systématique et quantitatif de la technique, et sur le contenu manifeste de la communication. L’objectivité suppose la technique est appliquée sur la base de règles explicites, définies si précisément que différents chercheurs peuvent obtenir les mêmes données à partir des mêmes documents ou messages. Le caractère systématique implique que la même procédure est appliquée à l’ensemble du contenu analysé, de manière à ce que tout le contenu pertinent soit analysé uniformément et que les possibilités d’inclure uniquement les données qui confortent l’hypothèse du chercheur soient éliminées. Le caractère quantitatif dénote d’un intérêt pour le relevé de valeurs numériques ou de fréquences d’apparition de diverses catégories d’éléments de contenu. Enfin le contenu manifeste indique que la technique s’intéresse principalement au contenu apparent et non à l’interprétation qu’en fait le chercheur (Berelson, 1952) ou les auditeurs de la communication. Procédure d’une analyse de contenu Des définitions précédentes, il ressort que l’analyse de contenu consiste à obtenir des données valides, reproductibles et objectives de messages ou de documents sur la base de règles explicitées en une procédure précise. Celleci s’applique à des communications de nature très diversifiée. Le matériel utilisé pour effectuer une analyse de contenu peut être des lettres, des journaux intimes, des œuvres littéraires, des articles de journaux, des rapports d’entretiens, des discours, des chansons, des contes oraux, des messages et/ou émissions et/ou des horaires radiophoniques ou télévisés, des 171

symboles, des ensembles décoratifs, des œuvres d’art, des vestiges, etc. (Quivy et Campenhoudt, 1988). L’analyse de contenu s’effectue alors en respectant les opérations ci-après (Berelson, 1952) : 1. Expliciter les objectifs de recherche 2. Déterminer l’univers du contenu à analyser (Journaux, livres, magasines, lettres, enregistrements audio ou vidéo, transcriptions, bande dessinée, chansons ou comptines, etc.), 3. Obtenir un échantillon à analyser, 4. Coder les données en catégories et spécifier les unités d’analyse (ex. mot ou symbole; thème; caractéristique de langage; caractéristique de forme; phrase; un personnage, élément spécifique) qui seront relevées pour chaque catégorie. 5. Décider du système d’énumération (ou de quantification) des unités d’analyse spécifiées (ex. le nombre de fois que l’unité apparait; la durée d’apparition dans un matériel audio ou vidéo; l’espace occupé par une unité dans le matériel; la présence ou l’absence de l’unité dans le matériel; etc.) L’acquisition des données par cette procédure requiert l’établissement des grilles d’analyse quantitative du contenu. Celle-ci permet au chercheur de développer un format qui lui propre pour le relevé et l’accumulation des données. Elle identifie les catégories et unités d’analyses spécifiées en fonction des objectifs de recherche, ainsi que le système d’énumération choisis.

Exemple 7.3 Une analyse de contenu se penche sur les dessins et caricatures de l’actualité parus dans un hebdomadaire X au cours de la dernière année, et veut déterminer les sujets qui bénéficient d’une plus grande visibilité dans le journal. Le chercheur s’intéresse à la récurrence de certains thèmes et à l’espace qui leur est alloué dans chaque édition. Il recourt à la grille d’analyse quantitative de contenu suivante : Tableau : Exemple d’une grille d’analyse quantitative de contenu Contenu

Espace alloué (en cm.)

Pourcentage

Politique Économie/finance Politique Étrangère Santé/ sciences Environnement

172

Nombre de dessins

Pourcentage

Paix et ordre Sport Autres Total

L’utilité de l’analyse quantitative de contenu L’analyse quantitative de contenu s’applique à l’acquisition d’informations de différentes natures. Les inférences qu’elle permet sont toutefois limitées au contexte de la communication uniquement. Tableau : Les finalités de l’analyse de contenu But Décrire caractéristiques contenu

Questions les du

Usages/Applications •

Quoi ?

• •

Comment ?

À qui ?

• • • •

Faire des inférences sur les causes du contenu



Pourquoi ?

• • • •

Qui ?

Décrire les tendances dans le contenu de la communication Relier les caractéristiques connues des auteurs à leurs messages Évaluer le contenu de la communication par rapport à des standards Analyser les moyens de persuasion ou de propagande Analyser le style Relier les caractéristiques connues de l’audience au message qui leur est adressé Décrire les schémas de communication Appréhender la logique politique et militaire Analyser les traits psychologiques des individus Appréhender les aspects culturels et le changement culturel Fournir des preuves légales de propagande Identifier les intentions et autres caractéristiques des communicateurs, déterminer la paternité de la communication

173

Faire des inférences sur les effets du contenu



Quel impact ?

• •

Établir la lisibilité de la communication et le flux d’informations qui y sont contenues Évaluer les attitudes et la réactivité face à la communication Refléter les attitudes, intérêts et valeurs des auditeurs

Tableau adapté à partir de Berelson B., 1952. Content analysis in communication research; The Free Press, New York

L’analyse qualitative du contenu Bien qu’elle s’applique principalement à un relevé quantitatif des données imbriquées dans le contenu, de plus en plus d’auteurs recourent à une analyse qualitative du contenu (Quivy et Campenhoudt, 1988; Grawitz, 1996). Pour Quivy et Campenhoudt (1988), l'analyse de contenu peut être quantitative ou qualitative, mais les caractéristiques propres des deux types de démarche ne sont pas nettement distinguables et plusieurs méthodes font aussi bien appel à l'un qu'à l'autre. Généralement, alors que la forme quantitative est globale et se base sur la fréquence d'apparition de certaines caractéristiques de contenu ou les corrélations entre elles, la forme qualitative se concentre sur la profondeur d’un élément et a pour information de base la présence ou l'absence d'une caractéristique ou la manière dont les éléments de la communication sont articulés les uns aux autres (Quivy et Campenhoudt, 1988). Elle s’attache au sens et à la valeur attribuée à ces éléments, allant au-delà du contenu manifeste de la communication. Selon Quivy et Campenhoudt (1988) elle sert au relevé: - des idéologies, des systèmes de valeurs, des représentations et des aspirations ainsi que leur évolution; - des logiques de fonctionnement d'organisation grâce aux documents qu'elles produisent; - des processus de diffusion et de socialisation (manuels scolaires, journaux, publicités, etc.); - des stratégies, des enjeux d'un conflit, des composantes d'une situation problématique, des interprétations d'un événement, des réactions latentes à une décision, de l'impact d'une mesure; - de réalités construites; - Etc.

2.3. Les questionnaires Les questionnaires sont largement utilisés en gestion appliquée et sociales pour recueillir des données. Ils sont employés tant par les méthodes quantitatives (ex. sondages) que par celles qualitatives. Mais alors que les

174

questionnaires mis en place par les méthodes quantitatives contiennent une majorité de questions fermées22, ceux construits par les méthodes qualitatives utilisent une majorité de questions ouvertes. Comme nous l’avons mentionné précédemment23, les questions présentes dans un questionnaire ne sont pas formulées au hasard et découlent d’un travail préliminaire rigoureux. Quelques précautions supplémentaires sont à prendre lors de la construction d’un questionnaire.

2.3.1 Lors du design d’un sondage - Il est primordial que les interrogés comprennent les questions. Chacune est donc formulée avec clarté, simplicité et en termes neutres pour éviter toute confusion et pour ne pas orienter le choix des répondants. Pour les mêmes raisons, elle est concise (les longues questions ont tendance à perdre l’interrogé). Au besoin, il peut s’avérer judicieux de recourir à une brève enquête qualitative permettant de recueillir les interprétations spontanées qui sont faites des questions. - Il est également nécessaire de ne pas formuler deux questions en une (ainsi les questions telles que : « Est-ce que X diminue le coût et augmente l’efficacité ? » sont à éviter). Chaque question ne porte que sur une variable et/ou une relation. - Chaque concept est mesuré avec plusieurs questions (pour assurer la triangulation des mesures et la redondance des données). - Quoique très utiles parfois, les questions ouvertes sont à éviter dans la mesure du possible. Elles nécessitent un énorme travail de codage et le taux de réponses est généralement faible. - Lors de l’emploi d’échelles de mesure, utiliser des échelles avec au moins cinq options de réponses pour obtenir une bonne variance. Par exemple une échelle à intervalles à trois d’accord ( ) neutre ( ) pas d’accord ( ) niveaux telle que : est incapable de saisir les nuances dans les réponses des interrogés qui auront alors majoritairement tendance à reporter leur choix sur un seul et même intervalle. En outre, si l’on tient à forcer les répondants à se positionner par rapport à la question posée, utiliser une échelle sans point central par exemple :

22 23

Voir chapitre 4 – section 4.3 Voir chapitre 4- section 4.3

175

1 = totalement désaccord 1

2

3

en 4

10 = totalement d’accord 5

6

7

8

9

10

- Utiliser si possible les mêmes échelles pour chaque batterie de question. Ceci facilite la construction du questionnaire ainsi que la tâche du répondant (qui n’a pas à vérifier les spécificités de chaque échelle avant chaque question et qui risque moins de s’emmêler). Concrètement, cela implique : • • •

De conserver le même nombre d’options de réponses D’utiliser si possible les mêmes légendes De conserver la même logique de gradation (i.e. par exemple si 1= totalement en désaccord et 10 = totalement en accord, ne pas utiliser ensuite une échelle avec 1 = totalement satisfait et 10 = totalement insatisfait)

Exemple 7.4 La grille ci-après présente un extrait d’un questionnaire conçu pour identifier des éléments de design « socioconstructivistes » dans un enseignement à distance. Afin de procéder à l’élaboration d’un questionnaire, l’auteur décompose le concept de design socioconstructiviste, en fonction d’une grille d’analyse documentée, selon les dimensions suivantes (Schneider, 2006): •

L’apprentissage actif/constructif



L’apprentissage autodirigé



L’apprentissage contextuel



L’apprentissage collaboratif



Le comportement interpersonnel du professeur

Chaque dimension est évaluée par plusieurs questions comme en témoigne la grille suivante Tableau : Grille illustrant les caractéristiques d’un questionnaire Statements : stimulate us…

Teacher

Totally disagree disagree 1 2 (Évaluation de l’apprentissage actif/constructif) 4 … to search for ż ż explanation during discussion 5 … to summarize what we ż ż

176

somewhat agree 3

agree 4

totally agree 5

ż

ż

ż

ż

ż

ż

had learnt in our own words 6 …to search for links ż between issues discussed in the tutorial group 7 … to understand ż underlying mechanisms/theories 8 … to pay attention to ż contradictory explanations (Évaluation de l’apprentissage autodirigé) 9 … to generate clear ż learning issues by ourselves unclear 10 …to evaluate our ż understanding of the subject matter by ourselves (Évaluation de l’apprentissage contextuel) 11 … to apply knowledge to ż the problem discussed 12 … to apply knowledge to ż other situations/problems 13 … to ask sophisticated ż questions 14 … to reconsider earlier ż explanations (Évaluation de l’apprentissage collaboratif) 15 … to think about our ż strengths and weaknesses concerning our functioning in the tutorial group 16 … to give constructive ż feedback about our group work 17 … to evaluate our group ż cooperation regularly 18 … to arrange meetings ż with him/her to discuss how to improve our functioning as a group

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

2.3.2 . Dans le cadre d’un design qualitatif Dans les études qualitatives, les questionnaires comprennent une grande majorité de questions ouvertes. Outre les principes concernant l’emploi des échelles de mesures, les principes précédents s’appliquent tout aussi bien à la conception des questionnaires dans les études qualitatives. Mais puisqu’elles ne sont pas supportées par des réponses déjà toutes prêtes, leur conception et 177

leur articulation doivent permettre de retenir l’intérêt des répondant à y consacrer du temps et les motiver à y répondre jusqu’au bout. Il est donc important de porter une attention particulière aux questions sensibles (il importe notamment d’éviter de les placer en début du questionnaire). Il est parfois judicieux d’utiliser des questions indirectes qui projettent le répondant dans une situation bien précise avec un scénario concret à l’appui.

2.3.3 . La forme du questionnaire Afin qu’il puisse fournir les informations recherchées, un questionnaire doit pouvoir informer le répondant du sujet de l’enquête. Il comporte donc une introduction indiquant le titre et le responsable de l’étude, la raison ainsi que les objectifs de l’étude, et informe les répondants à propos des dispositions en matière de confidentialité et d’ententes éventuelles de partage des données avec d’autres organisations. L’introduction présente également les éventuels avantages et inconvénients qui pourraient découler de leur participation à l’étude. Elle indique le temps nécessaire pour remplir le questionnaire. Puis, elle s’achève généralement par l’énoncé du droit des participants de se retirer en tout temps s’ils le désirent, fournit les contacts leur permettant d’obtenir des renseignements supplémentaires et demande leur consentement d’utiliser les données fournies dans le questionnaire (hormis les éventuels renseignements personnels). En dehors de l’introduction le questionnaire fournit également des consignes claires indiquant au répondant la façon de procéder et définit si nécessaire tous les concepts (ou termes) pouvant porter à confusion. Il assure ainsi que toutes les questions sont comprises de la même façon par les participants.

Exemple 7.5 (Introduction du questionnaire de l’exemple 7.4 et consignes) The purpose of this questionnaire is to help us understand how well you liked the online delivery of the first blended edition of the Certificate for Interpreter Trainers. Each one of the 117 statements below asks about your experience in the on-line part of the Certificate. Data will be processed and published only statistically. The following questions will be dealt with: personal information, teachers' behavior, learning environment, tutoring support structure, tools and skills. Filling in this questionnaire will take you about 20 minutes. Please be assured that your responses will be treated confidentially, and that they will not affect your assessment. Thank you very much for your cooperation. Below you will find general statements about teachers' behavior. Please indicate to what extent you agree or disagree with them. Please tick the appropriate circle on the scale (totally disagree - totally agree) for each statement. 178

Une fois le questionnaire structuré, il est nécessaire d’assigner un code à chaque question (variable) et s’il y a lieu à chaque type de réponse. Cela servira à l’analyse et à une éventuelle transcription des informations fournies par le répondant. À part l’introduction et les consignes, un questionnaire ne contient rien de superflu par souci d’ergonomie. Avant d’être administré aux répondants il est soumis à un pré-test permettant de valider son adéquation à la collecte des données et éventuellement de le corriger. Lorsqu’il est administré en ligne, il est nécessaire de s’assurer que le logiciel encode et exporte les données de façon appropriée.

2.4. Les entretiens Les entretiens impliquent un échange verbal entre le chercheur et les répondants, au cours duquel le chercheur pose directement des questions aux répondants, et leur demande d’exposer leurs pensées ou leurs réflexions. Il existe plusieurs formes d’entretiens, chacun possédant leurs particularités et permettant d’obtenir un type spécifique d’informations.

179

Tableau : Les différentes catégories d’entretiens Type d’entretiens Entretien d’information

Instruments utilisés Liste de vérification

Entretien structuré (ou directif)

Guide d’entretien avec liste de questions ouvertes

Entretien semistructuré

Guide d’entretien avec liste de question ouvertes et de sondes

La technique de pensée à haute voix

Mise en situation, confrontation avec un problème ou un outil

Entretiens brefs avec des questions fermées ou semi-fermées

Questionnaire avec liste de questions fermées et choix de réponses

Utilités et caractéristiques Études initiales, exploration préliminaire du sujet Recherches semi-quantitatives ou en vue de : - faciliter l’analyse d’ensemble - accélérer l’entretien - baliser l’échange et modère les éventuels débordements dans les réponses du répondant Explorer et comprendre un phénomène en profondeur Plus difficile à analyser mais laisse les interlocuteurs s’exprimer librement Évaluation d’une situation, d’un outil ou des conditions de résolution d’un cas Recherches quantitatives, sondages Entretien rapide, fiable et facile à analyser mais présuppose une connaissance profonde du sujet étudié

Les entretiens sont une source d’informations irremplaçables pour explorer un sujet et plus souvent pour appréhender les réalités du terrain, découvrir la diversité des représentations et ainsi enrichir, nuancer ou infirmer ses hypothèses de recherche. Ce sont des techniques bien documentées. Mis à part la richesse des informations verbales qu’elles fournissent, elles présentent l’énorme avantage de pouvoir relever le langage corporel des interlocuteurs (réactions spontanées, émotions, tics, silences, etc.) et de les associer avec leurs réponses. Il est important de se rappeler que certains des interlocuteurs à rencontrer n’ont pas de temps à perdre. Il faut donc se concentrer sur l’essentiel. Pour ce faire, il est utile de se documenter au préalable afin de déterminer si certaines informations ne sont pas disponibles autrement (règlements, organigrammes, rapports, compte rendus, etc.), d’étudier toute documentation que l’on peut obtenir facilement, d’apprendre le vocabulaire des répondants envisagés et de préparer soigneusement l’entretien (voir annexe 4).

180

2.4.1 . L’entretien d’information Fort utile au début d’un processus de recherche, l’entretien d’information complète la revue préliminaire de la littérature et l’exploration du sujet de recherche. Il permet au chercheur d’en savoir plus sur le thème qui l’intéresse et de trouver l’inspiration sur les différentes façons de l’aborder. Il peut lui fournir les informations nécessaires à la construction de sa problématique et lui permettre d’affiner ses objectifs de recherche, ses hypothèses et la définition de son cadre de référence. L’entretien d’information est également utile au chercheur pour ‘tâter’ un terrain où il envisage mener des entretiens plus approfondis. Ces entretiens d’informations lui fournissent alors les idées ou données de base lui permettant de mieux préparer ses entretiens ultérieurs avec ses informateursclés. Avant de mener un entretien d’information, il est judicieux de : - Se fixer des objectifs à atteindre au terme cet entretien. - Choisir la (ou les) bonne(s) personne(s) (par ex. un spécialiste du domaine ou un professionnel de recherche si l’on désire obtenir des informations préliminaires ou l’inspiration nécessaire pour préciser les objectifs et hypothèses de départ; si l’on désire obtenir des données de base pour préparer le terrain à un entretien ultérieur dans une organisation, on choisira un préposé à l’information ou toute autre personne compétente qui a le temps de nous répondre) - Garder en réserve les principaux informateurs-clés dans l’organisation pour un entretien plus approfondi.

2.4.2 . L’entretien structuré Un entretien structuré pose des questions précises (les mêmes pour tous les répondants) et engendre des réponses relativement courtes. Il emploie une grille d’entretien bien préparée (chaque concept théorique - ou variable - doit être mesuré) qui indique l’ensemble des questions à poser aux interlocuteurs ainsi que leur ordre (le chercheur a toutefois la liberté de suivre cet ordre ou non lorsqu’il le juge opportun, d’ajouter des questions si les réponses apportées sont incomplètes).

2.4.3 . L’entretien semi-structuré Ce type d’entretien pose des questions plus générales. À la place d’une grille d’entretien avec un ordre prédéfini de thèmes et d’enchainements de concepts à mesurer, la grille utilisée par l’entretien semi-structuré indique surtout les idées générales à débattre durant l’entretien, les points importants à couvrir. Elle offre l’opportunité au chercheur de réorienter l’entretien au fil des réponses de son interlocuteur ou en fonction de son attitude et ses 181

réactions. Bien qu’il semble moins contraignant que l’entretien structuré, l’entretien semi-structuré n’en requiert pas moins de préparation. Celle-ci s’effectue en fonction des intérêts de la recherche. Durant l’entretien, une grande liberté d’expression est laissée aux interlocuteurs. Il ne faut donc pas que le chercheur impose son point de vue. Il doit laisser réfléchir et parler l’interlocuteur afin de pouvoir dégager les structures profondes de sa réponse. Toutefois si en bout de ligne cet interlocuteur s’exprime sans aborder les points importants que désire couvrir le chercheur, celui-ci relance la discussion sur ces points en tendant des perches à son interlocuteur (ou des sondes).

2.4.4 . La technique de pensée à haute voix La technique de pensée à haute voix est une technique permettant d’expliciter les aspects cognitifs liés aux actions des interlocuteurs. Elle consiste pour ce dernier à énoncer les pensées qui lui viennent au fur et à mesure qu’il entre en contact avec le matériel au sujet duquel le chercheur désire obtenir des informations. Ainsi, le chercheur présente un cas ou un objet à son interlocuteur (un dossier, un cas médical, un problème de décision, un artéfact, etc.) et lui demande de résoudre un problème lié à ce cas ou d’utiliser cet objet. En se prêtant au jeu, l’interlocuteur dit à haute voix ce qu’il fait, pourquoi il le fait et ce qu’il en pense. En fonction du type de données qu’il souhaite obtenir, le chercheur peut interrompre l’interlocuteur et lui poser des questions variées. Cette technique s’applique à plusieurs contextes d’étude : -

Analyse du raisonnement ou des processus de réflexion d’un individu, Analyse du flux de travail, Analyse des politiques publiques ou d’une organisation, Évaluation d’un prototype, Etc.

Elle peut s’avérer très utile pour mieux comprendre comment les sujets réagissent et comment ils raisonnent. Toutefois, ils ont tendance à rationaliser leurs gestes, c’est-à-dire à fournir des explications en termes de règles alors qu’ils utilisent en pratique plutôt un raisonnement stéréotypé par cas, par prototype, par valeurs, etc.

2.4.5 . Les entretiens brefs avec des questions fermées et choix de réponses Généralement utilisés dans le cadre de sondages, ces entretiens ont pour but de soumettre un questionnaire à un échantillon de répondants au cours de brefs échanges au cours desquels le chercheur complète les questionnaires qu’il administre en situations de face à face ou au téléphone. La construction 182

du questionnaire est sensiblement la même que vue précédemment (section 2.3).

2.4.6 . Les instruments des entretiens : les guides d’entretien Plusieurs types d’entretiens ont recours à un guide d’entretien ou à un questionnaire pour diriger l’échange. Le guide d’entretien regroupe en quelques grands thèmes une série de concepts (ou de dimensions) à mesurer où seuls les mots-clefs apparaissent (voir exemple ci-dessous). À la différence du questionnaire il ne formule pas dans le détail toutes les questions que le chercheur posera à ses interlocuteurs. Exemple d’une grille d’entretien Tableau : Exemple d’une grille d’entretien Thèmes à aborder / concepts à mesurer 1- Présentation de l’entreprise Mission/Mandat Services offerts Chiffre d’affaire Effectif … 2- Organisation du travail Temps partiel, temps plein Travail en 2x8 ? 3x8 ? Taille des équipes, structure et responsabilités … 3- La collaboration horizontale Contacts fréquents de X avec A ? B ? C ? Organisation et nature de la coordination avec A Objet de la coordination avec A Coût de la coordination avec A Avantages de la coordination avec A … 4- … …

Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ Ƒ

Le choix des thèmes inclus dans une grille d’entretien dépend des objectifs de la recherche et des données dont le chercheur a besoin. Il y a cependant quelques thèmes récurrents : • • • •

les activités et les missions de l’organisme, l’histoire de l’organisme, les fonctions précises et la place de l’interlocuteur dans l’organigramme, le parcours personnel de l’interlocuteur pour mieux apprécier ses réponses

• 183

3. Le choix des sources d’informations 3.1. L’échantillonnage dans une approche quantitative De façon générale, le nombre d’unités composant l’échantillon est un nombre absolu sans rapport avec la taille de la population-mère. Il est plutôt déterminer par le processus d’enquête privilégié, par les limites d’accessibilités à ces unités et par les contraintes de la recherche. Le meilleur échantillonnage pour appliquer une technique de recherche quantitative est l’échantillonnage aléatoire. Il offre de meilleures chances d’obtenir un échantillon représentatif de l’ensemble étudié (facilitant donc les inférences à une population-mère et les généralisations). En outre il évite les autosélections et les biais de confirmation. Pourtant, dans certains cas un échantillonnage par quota peut se justifier. Celui-ci s'effectue de façon à ce qu'un nombre précis d'unités (de quotas) pour diverses sous-populations ait été sélectionné. L’échantillonnage par quotas considère alors que les unités non sélectionnés de chaque sous-population sont similaires à ceux sélectionnés. Il est utile de recourir à un tel échantillonnage lorsque l’échantillon à constituer est très petit (par exemple, pour un test de maniabilité avec un échantillon de 5 personnes, il faut s’assurer d’avoir au moins un représentant de chaque type d’utilisateur) ou encore lorsqu’on désire étudier des populations bien précises

Exemple 7.6 On désire comparer les écoles appliquant la formule pédagogique X et celles appliquant la formule pédagogique Y. La population-mère comprend 50 écoles appliquant X, 50 appliquant Y et 50 n’appliquant aucune formule particulière. Afin de constituer un échantillon de 30 écoles, il peut s’avérer judicieux de procéder à un échantillonnage par quotas permettant d’avoir 15 écoles avec la formule X et 15 écoles avec celle Y.

3.1.2 . L’importance de l’échantillonnage pour la signification des résultats La nature de l’échantillonnage est utilisée pour estimer à quel point les résultats obtenus peuvent sont fiables et peuvent être généralisés à des contextes autres que ceux qui constituent l’échantillon. En effet, la signification des résultats dépend à la fois de la force des corrélations et de la taille de l’échantillon. Plus il y a d’unités, plus les résultats ont de sens et sont valides.

Exemple 7.7 On veut voir si le nombre d’inspecteurs du travail a une influence sur le nombre d’accidents de travail annuel dans les secteurs d’une région 184

donnée. En choisissant 7 secteurs (données imaginaires), on a du mal à établir l’existence d’un lien entre les deux variables. Toutefois lorsque l’échantillon est élargi à 24 secteurs, les données suggèrent l’existence d’un lien. Les résultats ont un sens.

Exemple 7.8 On veut voir si le volume de journées de formations suivies par des enseignants a une influence sur les notes de leurs élèves. Pour commencer on sélectionne 6 enseignants et on observe la moyenne obtenue par leur classe à un examen donné. Les données suggèrent une corrélation négative (plus de formation et baisse de moyennes). En ajoutant seulement 2 enseignants la relation s’inverse. Les données indiquent désormais une corrélation positive. Cet exemple illustre le fait que réaliser une analyse statistique sur un faible échantillon entraine des résultats incertains, qui n’ont ni validité, ni signification statistique.

3.1.3 . Échantillonnage typique pour une expérience La taille de l’échantillon est déterminée par les variables opératives et par les conditions expérimentales dans lesquelles ces variables sont testées. Pour chaque condition, il est souhaitable d’avoir environ 20 unités (on peut toutefois en sélectionner moins avec le risque que les résultats ne soient pas interprétables).

Exemple 7.9 On veut étudier de l’utilisation d’une animation multimédia sur la mémorisation du contenu présenté par des élèves du primaire. Les variables opératives sont : -

-

Variables indépendantes : la forme de la présentation. Dans le cadre de l’expérience elle peut adopter 3 variantes : •

Des graphiques statiques (condition contrôle)



Une animation simple (situation expérimentale 1)



Une animation interactive (situation expérimentale 2)

Variables dépendantes : la mémorisation, qui est mesurée à deux périodes de temps après les expériences pour déterminer : •

La mémorisation à court terme



La mémorisation à long terme

Puisqu’il y a 3 conditions expérimentales, il faudra 3*20 sujets = 60 sujets 185

3.1.4 . Échantillonnage pour une étude statistique L’échantillonnage inclut autant de cas que l’on peut rassembler pour analyser la question. Puisqu’elles se penchent sur des échantillons hétérogènes que ceux sélectionnés pour les fins d’une expérience, il est souhaitable de former un échantillon d’au moins 40 unités dans le cadre d’un sondage (des échantillons de plusieurs centaines d’unités sont très utiles pour analyser les grandes tendances, faire des statistiques inférentielles et réaliser des analyses impliquant plus de 2 variables).

3.2. L’échantillonnage dans une approche qualitative L’approche qualitative vise une étude plus approfondie des détails propres à quelques cas et est généralement plus coûteuse qu’une approche quantitative (en termes de temps notamment), aussi l’échantillonnage se limite généralement à la sélection de quelques cas d’intérêt. Toutefois, une attention particulière est accordée au choix de ces cas, qui doivent être pertinents par rapport au sujet de la recherche. Plusieurs stratégies d’échantillonnage s’appliquent ici et dépendent des objectifs du chercheur. Pour choisir la stratégie (ou la combinaison) la plus appropriée, il importe de réfléchir aux besoins et ambitions de la recherche, de déterminer le rôle des échantillons dans la résolution de la question de recherche, de s’assurer que les choix effectués permettront de mesurer réellement les concepts impliqués par le cadre d’analyse et d’atteindre les objectifs fixés. Une fois la stratégie arrêtée, il importe avant de se lancer dans la constitution de l’échantillon de déterminer et de prendre en compte les différentes caractéristiques des unités qui composeront l’échantillon ainsi que leurs éléments constitutifs. Ainsi les unités seront par exemple des : -

Communes, quartiers, villes, pays, territoires, ... • Riches, défavorisés, vaste, avec une politique X, etc. Organisations, institutions, associations, … • Sans but lucratif, apolitique, culturelle, employant une pratique Y, etc. Groupes sociaux, religieux, ethniques, ... • Touchés par une politique Z, marginaux, etc Individus, couples • Hétérosexuels, mariés, sans enfants, Programmes, processus, etc. Cultures Fonctions Etc.

Lors de la constitution de l’échantillon, il est judicieux de choisir des cas similaires, mais ayant une bonne variance pour les variables opératives de la recherche. Toutefois, l’ajout de cas contrastés (ne couvrant pas forcément le 186

cadre théorique) peut présenter un grand intérêt, puisqu’il permet de permet de tester la validité externe (ou la portée) des analyses. Dans le cadre d’études qualitatives, les chercheurs recourent également souvent à un échantillonnage intra-cas. Exemples Étude du comportement O d’un individu : •

Au travail



À la maison



Durant les loisirs

Études la culture d’entreprise d’une organisation telle que perçue par •

les dirigeants



les employés



les clients



les organismes partenaires



dans les textes et procédures de l’organisation

Afin de procéder à un échantillonnage intra-cas il est utile : - d’identifier le type d’informations à obtenir (les phénomènes à étudier doivent être présents dans le choix) - d’échantillonner toutes les catégories (activités, processus, événements, dates, locations, agents, etc.) où se manifeste le phénomène et/ou susceptibles d’influencer significativement le comportement du phénomène étudié, - choisir les cas qui composeront l’échantillon en fonction des conditions sous lesquelles une théorie est valable - prévoir l’effet boule-de-neige. En effet, dans la plupart des études qualitatives, l’échantillonnage est dynamique. Au fur et à mesure que la recherche progresse, de nouveaux enjeux sont découverts et nécessitent un nouvel échantillonnage.

4. Conclusion La liste des techniques d’acquisition de données et de leurs instruments de mesure, telle que présentée dans ce chapitre est loin d’être exhaustive. La gestion appliquée ont recours à toute une panoplie de techniques de obtenir les données qui permettront la conduite de la recherche à son terme. De plus elles développent sans cesse des techniques et instruments de plus en plus adaptés aux particularités de leurs objets d’étude. Cependant, la plupart de 187

ces techniques novatrices se basent sur les fondements des techniques et instruments de base envisagés dans le cadre de ce chapitre. Lors de la conduite d’une étude, tout chercheur doit décider des techniques qu’il adoptera et concevoir les instruments les plus appropriés à l’approche de son objet d’étude, à ses objectifs de recherche et à la nature des données qu’il désire recueillir. Il importe donc qu’il connaisse et comprenne ce qui fait la particularité et la richesse des différentes techniques de bases au service de la gestion appliquée. Ceci lui permettra également de combiner avantageusement différentes techniques ou différents instruments afin d’obtenir des données plus précises et plus fiables. Une fois ses données obtenues, le chercheur doit procéder à leur analyse. À ce niveau il existe différentes manières de procéder, selon qu’on a des données quantitatives ou des données qualitatives.

188

Chapitre 8 Introduction à l’analyse quantitative Il existe des procédures bien définies et bien documentées pour l’analyse de données quantitatives (Barker et coll., 2002), chacune s’appliquant au traitement d’un type particulier de données ou à une combinaison particulière de type de données quantitatives. Dans le chapitre 4 nous avons vu les différents échelles de mesures employées par les recherches quantitatives : nominales (ou catégoriques, ou qualitatives24), ordinales, à intervalles ou de proportion. Chacune donne lieu à des données de type différent auxquelles sera appliqué un traitement quantitatif.

1. Postulat sur les données collectées L’analyse des données quantitatives vise à mettre en lumière les caractéristiques et relations significatives, manifestées dans l’échantillon et qui reflètent (avec un certain degré de fiabilité) les caractéristiques et relations présentes dans la population-mère. Pour ce faire, il importe de déterminer le modèle probabiliste qui s’applique aux données, c’est-à-dire la loi de probabilité décrivant la variabilité du phénomène ou de la relation mesurés, au sein de la population-mère. On considère donc que cette loi de probabilité pourrait définir la distribution de l’ensemble des données sur ce phénomène (ou sur la relation) dans la population-mère (si on pouvait relever toutes ces données) et que les données produites dans l’échantillon sont issues de tirages indépendants ou de simulations indépendantes de cette loi. Lorsqu’on s’assure de constituer un échantillon représentatif de la population (ou de sous-groupes de la population), le type de données et leurs distributions déterminent le type de modèles statistiques que l’on peut utiliser pour fonder, à partir des mesures faites sur l’échantillon, des décisions ou des prévisions concernant l’ensemble de la population.

1.1. Le modèle linéaire Lorsqu’ils étudient les relations entre une variable dépendante Y et une variable indépendante X, plusieurs chercheurs postulent l’existence d’une

24

À ne pas confondre avec les données collectées dans le cadre de l’approche qualitative. Ici, le terme qualitatif désigne un type de données recueillies par l’approche quantitative et qui, contrairement aux mesures de l’approche qualitative, sont totalement dénuées de subjectivité ou d’interprétations personnelles. Elles rendent comptent de réalités objectives que l’on ne peut exprimer autrement que par un mot. Exemple l’état civil : marié, célibataire, veuf, etc. ou le genre : homme, femme.

189

relation linéaire entre les deux concepts traduits par les variables. La linéarité est particulièrement intéressante pour prédire une variable en fonction d’une autre. La force de cette relation linéaire est évaluée au moyen des coefficients de corrélation (ex. le coefficient de corrélation de Pearson, le coefficient de corrélation des rangs de Spearman). Ces coefficients, basés sur la covariance des deux variables, prennent des valeurs comprises entre -1 et 1 (-1 impliquant une dépendance négative parfaite, les valeurs élevées de la variable dépendante X correspondant aux valeurs faibles de la variable indépendante Y, et inversement pour les valeurs faibles de X; 1 impliquant une dépendance positive parfaite, les valeurs élevées de la variable X correspondant aux valeurs élevées de la variable Y, et inversement pour les valeurs faibles de X). Comme l’illustre la figure 8.1, plus la relation linéaire entre les deux variables est forte, et plus le coefficient de corrélation a une valeur proche de -1 ou de 1 (figure 8.2 b, d et f). Et plus cette relation est faible, plus la valeur du coefficient est proche de 0 (0 indiquant l’absence de relation linéaire entre les deux variables) (figure 8.2 a, c et e). Un coefficient de corrélation proche de 0 n’implique pas immédiatement qu’il n’y a aucune relation entre les variables, mais plutôt qu’il n’y a pas de relation totalement linéaire entrent-elles. En effet, appliqués à des relations non-linéaires ou partiellement linéaires, les coefficients de corrélation peuvent indiquer une valeur nulle ou proche de 0.

1.2. La distribution binomiale et la distribution de Poisson La distribution binomiale s’applique lorsqu’on ne considère que deux issues possibles et mutuellement exclusives, annotées succès et échec, pour un phénomène. Dans la population cible, le phénomène considéré peut donc prendre la forme succès ou celle échec (ex. le genre : homme, femme). La distribution binomiale résume donc la probabilité que, dans la population cible, le phénomène adoptera l’une ou l’autre des valeurs ‘succès’ ou ‘échec’ lors de différents essais dans des conditions déterminées. Pour ce faire, la distribution binomiale assume que le phénomène a la même probabilité d’adopter la valeur succès chaque fois qu’il doit adopter l’une ou l’autre des valeurs, et que la valeur adoptée lors d’un essai n’influence pas le comportement du phénomène lors de l’essai suivant. La distribution de Poisson est un modèle classique décrivant la distribution de rares événements. Elle permet de déterminer la probabilité qu’un nombre donné de ces événements survient dans un période de temps donnée au sein de la population cible

190

1.3. La distribuution normaale La pluppart des modèèles traitant lles données obtenues o au moyen m d’unee échelle à intervalles ou de proportion p uti tilisent une distribution no ormale.

Fig gure: Formees générale s des distributions males norm app pliquées aux vaaleurs pou uvant être adoptées paar un phéénomène

La distrribution norm male est l’unne des distrib butions les plus p utiliséess par les analysess statistiquess visant à esstimer ou tesster une hyp pothèse, parcce que la distribuution des valleurs de pluusieurs phénomènes aléaatoires a tenndance à pouvant suivre approximativ a vement ce moodèle, en parrticulier les phénomènes p être expprimés comm me étant la ssomme de plusieurs p varriables aléatooires. La distribuution normalle est relativvement sim mple à utiliser et les taables de probabilités pour ceette distributtion sont plu us largementt disponibless que les tables pour p les autrres distributiions. En con nséquence, elle est fréquuemment utilisée pour appro oximer d’auutres distrib butions (com mme la disttribution binomiaale ou celle de d Poisson). Une foiis la distribu ution normalle assumée pour p les don nnées mesuréées dans l’échanttillon, plusieeurs paramèètres de la population-mère (ou dde sousgroupess de celle-ci) peuvent êtree estimés ou u comparés au a moyen de familles de distrributions ind dexées par ddes degrés de d liberté: lees distributioons t de Studentt avec d degrés de liberté , les distribu utions chi-carrré (Ȥ2) avec n degrés de libertté et les distrributions F dde Fisher avec d1 et d2 deegrés de liberrtés.

2. Le principe de d l’analysee statistiquee Le but d’une analysse statistiquee est relativeement simplee. Il s’agit dd’estimer ou de teester une hyp pothèse en réévélant avec un certain deegré de préciision (ou de confiance) la structure s resssortant dess données, en expliquaant cette structurre et/ou en prouvant p l’exxistence d’un ne relation. L’analyse L sttatistique fait rarrement resssortir un m modèle exp plicatif engllobant parfa faitement l’ensem mble des don nnées. En efffet, elle exp plique généraalement les données avec unne marge d’errreur, un deggré d’incertitu ude. 191

Exe mple 8.1 Une analyse statiistique perm met d’établir l’existence l d’une relationn linéaire entree un concep pt Y (variabble dépendan nte) et un concept c X ((variable indéppendante). X explique Y mais touteefois pour chacune des données refléétant le comp portement dee Y, il peut y avoir une marge m d’erreuur que le moddèle n’arrive pas p à expliquuer.

Figure : Illustratiion de l’erreurr inhérentte aux analysees statistiquees

Le but b de l’anaalyse est doonc de déterrminer le modèle m expliccatif qui maxiimise le com mportement eexpliqué et minimise m les erreurs. e Il existee deux grandes familles dd’analyse stattistiques : - Les statistiq ques descripptives : Elless ont pour but de préssenter la struccture des données d de façon conccise, au mo oyen de par aramètres descriptifs. Ceux x-ci consisteent en des paramètres p de d localisatioon de la distrribution dess données (la moyen nne arithméttique, la m moyenne géom métrique, la médiane, m le m mode) et en des paramèttres de dispeersion ou de variabilité v dees données (ll’étendue, lees quantiles, la variance,, l’écarttype, le coefficieent de variatiion). Les staatistiques desscriptives peermettent d’exxplorer des do onnées et de comparer pllusieurs sériees de donnéess. - Les statistiq ques inférenttielles : Ellees permetten nt de tester la force d’unne hypothèsee et de génnéraliser à laa population n-mère, les résultats obtennus avec un u échantilloon. Les stattistiques infférentielles vvisent à déterrminer dans quelle messure la struccture ou les relations reetrouvées danss l’échantillo on est encorre valable au u niveau de la populatioon-mère, avecc quel niveaau de certituude on peu ut les interpréter et estiimer les param mètres incon nnus de la poopulation-mèère.

192

3. Les étapes d’une analyse statistique L’analyse statistique des données implique des méthodes spécialisée dont la maitrise, le choix des tests statistiques et la mise en pratique rigoureuse sortent du cadre de ce livre. Cette section et les suivantes ne feront donc que survoler les outils permettant de comprendre le traitement des données quantitatives. La réalisation d’une analyse statistique nécessite une préparation et un traitement adéquats des données. De façon générale elle se déroule selon les étapes ci-après : 1. La préparation de données; 2. La réduction des données par la définition des scores ou indices composites (rassemblant pour chaque unité de l’échantillon les mesures obtenues pour chaque élément se rapportant au même concept ou à la même dimension- ex. dans un questionnaire, les différentes réponses obtenues aux questions mesurant le même concept) et par l’analyse en facteurs; 3. La préparation de graphiques ou de tableaux illustrant des relations entre variables; 4. La formulation des hypothèses nulles; 5. Calcul des coefficients estimant la nature d’une relation et mesurant sa force; 6. Calcul des coefficients indiquant le pourcentage de la variance expliquée par le modèle; 7. Calcul du niveau de signification des résultats.

4. La préparation des données Afin d’être analysées, les données doivent être présentées dans un format qui facilite leur visualisation et leur traitement. Pour que l’analyse soit pertinente, elles doivent être complètes et sans erreurs. Il convient donc avant tout de vérifier les données (ex. vérifier la transcription, vérifier l’encodage des données non numériques). Ensuite, il importe d’attribuer un label à chaque donnée (ex. label « A » pour les données se rapportant à la variable A, label « a3 » pour les données obtenues à la troisième question mesurant le concept a, etc.), d’en identifier le type (de proportion, intervalle, ordinal, nominal) et d’identifier également les données manquantes (ex. non réponses à un questionnaire). Les données pourront ainsi être listées et visualisées. À ce niveau, quelques statistiques simples peuvent s’avérer utiles (ex. nombre de données pour chaque liste, nombres de données manquantes, valeur minimum, valeur maximum, etc.) et des graphiques (ex : histogrammes, box plots, nuages de points) en simplifient la visualisation de la distribution. Une fois les données vérifiées et documentées, elles doivent 193

toutes être importées avec leur label (y compris les données manquantes le cas échéant), et saisies dans un format approprié (un nombre ou un code numérique pour les données nominales) dans une base de données, une matrice ou un tableur facilitant l’analyse statistique et/ou les mises en relation des variables. Plusieurs programmes de statistiques permettent de préparer et d’importer les données, puis de réaliser une analyse statistique. Par exemple -

SAS, SPSS, Statistica, STATA, Epi Info, S-PLUS, Statxact, BMDP, Statview Des logiciels tels que : WinIDAMS, R ou XLSSTAT

5. La réduction des données 5.1. Les indices composites Une fois les données compilées, il convient de réduire la masse de données disponibles, afin qu’elles soient plus simples à analyser. La détermination des indices composites est une des méthodes permettant cette réduction. Elle permet de se concentrer sur l’analyse des variables importantes plutôt que d’analyser les données comme elles viennent. Un indice élémentaire est le score que l’on peut attribuer à la réponse à une question, à un élément de test, ou à une mesure. Mais lorsqu’on applique une échelle composite à une variable, autrement dit lorsqu’une même variable (ou une dimension) est mesurée par plusieurs questions (ou par plusieurs éléments de test), on a recours à un indice composite, c’est-à-dire un indice composé des différents indices élémentaires obtenu par une unité de l’échantillon aux différentes questions (ou aux différents éléments de test) mesurant la même variable. Généralement, cet indice composite est attribué en faisant la somme ou la moyenne des scores élémentaires.

Exemple 8.2 Le questionnaire COLLES (The Constructivist On-Line Learning Environment Survey) est destiné à déterminer dans quelle mesure les professeurs sont capables d’exploiter les capacités interactives du World Wide Web pour favoriser l’apprentissage chez leurs étudiants. Le questionnaire mesure la qualité de l’environnement d’apprentissage virtuel en évaluant la perception qu’ont les étudiants à la fois de leur classe virtuelle actuelle et de leur classe virtuelle idéale. La grille cidessous présente un extrait du questionnaire mesurant deux dimensions (indiquées entre parenthèses avant les questions) de la qualité de l’environnement virtuel au moyen d’échelles composites comprenant chacune 4 questions. Ces deux dimensions sont la pertinence (visant à établir dans quelle mesure l’apprentissage en ligne est pertinent à la pratique professionnelle de l’étudiant) et la réflexion (visant à déterminer 194

si l’apprentissage en ligne stimule le sens de réflexion critique chez l’étudiant). Tableau : Grille présentant un extrait du questionnaire COLLES Statements Scores Relevance In this online unit : a My learning focuses on issues that interest me b What I learn is important for my professional practice as a trainer c I learn how to improve my professional practice as a trainer d What I learn connects well with my professional practice as a trainer Reflection In this online unit : e I think critically about how I learn f I think critically about my own ideas g I think critically about other students' ideas h I think critically about ideas in the readings

Almost never 1

Seldom

Often

2

Some times 3

4

Almost Always 5

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

ż

Afin de déterminer les indices composites qui rendent compte de chaque dimension, on peut additionner les scores de réponse de chaque question qui fait partie de l’échelle mesurant le concept, et ensuite diviser la somme par le nombre de questions. Supposons qu’un individu A ait répondu : -

a = sometimes; b = often; c = almost always; d = often

Les scores élémentaires sont respectivement : a = 3 ; b = 4; c= 5 ; d = 4. Aussi l’indice composite rendant compte pour cet individu de la ‘pertinence’ est : (3+4+5+4) / 4 = 4 Lors du calcul des indices composites, il convient de ne pas comptabiliser les données manquantes.

Exemple 8.3 Supposons que pour le concept de la ‘réflexion’ dans l’exemple ci-dessus, l’individu A ait répondu : 195

-

a= Often (4) ; b = Sometimes (3) ; c = missing; d = Seldom (2)

On ne peut pas attribuer un score à la donnée manquante (ex. score 0), aussi l’indice composite rendant compte de la ‘réflexion’ sera : (4+3+2) / 3=3 Lorsqu’il y a trop de données manquantes pour une question donnée, il est préférable d’éliminer cette question de l’échelle composite. En outre, lorsque les différentes questions d’une échelle composite emploient chacune des échelles de taille différente, il est nécessaire de standardiser chacun des scores élémentaires avant de calculer l’indice composite. La qualité de l’échelle composite est primordiale pour rendre compte du concept ou de la dimension qu’elle se propose de mesurer. Elle doit être sensible (autrement dit les scores que l’on peut obtenir par son moyen doivent permettre de discriminer différents niveaux du concept), fiable (à moins de mesurer des concepts totalement indépendants mais rendant compte d’une variable théorique donnée, les éléments composant l’échelle composite doivent posséder un niveau de corrélation élevé entre eux) et valide (il est important de valider les scores obtenues avec d’autres instruments ou d’autres observations). Il est généralement préférable lors de l’acquisition des données d’employer des échelles documentées dans la littérature. Cependant, si le chercheur décide d’employer une nouvelle échelle, il devra s’assurer de réaliser une analyse statistique des éléments de l’échelle (ex. au moyen de la procédure de fiabilité d’un programme tel que SPSS). Celle-ci permettra d’identifier les mauvais éléments, c’est-à-dire ceux qui ne concordent pas avec le reste de l’échelle. Elle permettra également de montrer si l’échelle possède un degré de consistance interne suffisant pour garantir l’homogénéité de ses mesures.

5.2. L’analyse en facteurs Une autre méthode permettant de réduire les données quantitatives est l’analyse en facteur (Tabachnik et Fidell, 2001). L’analyse en facteur est une technique statistique multi-variée conçue pour déterminer la structure d’un ensemble de variables. Elle est utilisée lorsque le chercheur désire représenter la plupart des informations obtenues pour une large gamme de variables, par un petit nombre de facteurs indépendants. Ainsi, l’analyse en facteur permet d’écrire chaque variable aléatoire du problème en fonction de facteurs sous-jacents communs à toutes les variables et de facteurs spécifiques à la variable aléatoire considérée. Elle repose sur différents postulats dont le principal est l’indépendance ou la non-corrélation des facteurs communs (Tabachnik et Fidell, 2001). Il existe différentes méthodes d’estimation du modèle dont : l’analyse des composantes principales, le maximum de vraisemblance, la méthode du facteur principal, l’analyse discriminante. 196

Une fois les facteurs identifiés (les facteurs communs et spécifiques), il est possible de regrouper les unités d’observations (ou les variables) au cours d’une analyse typologique ou au cours d’une analyse de classification en arbre hiérarchique (dendrogramme). Ces analyses de classification permettent de réunir des unités (ou les variables) dans des types donnés selon leur niveau de proximité ou selon la distance qui les sépare. Il est ainsi possible d’identifier les composantes qui expliquent certaines corrélations au sein d’un type, ou celles qui méritent une attention particulière en raison de la particularité qu’ils confèrent à un autre type donné.

6. Survol des types d’analyses et des types de paramètres statistiques

6.1. L’exploration des données et les analyses descriptives simples Dans le cadre d’une étude statistique ce genre d’analyse est rarement une fin en soi. Elles sont toutefois appropriées dans le cadre d’études comparatives, où les données sont relativement peu nombreuses. Les analyses descriptives ont pour but de connaitre les variables mesurées et de résumer les données se rapportant à chacune d’elles aussi succinctement que possible afin d’en avoir une image globale. Elles consistent donc à calculer les paramètres de localisation et de dispersion caractérisant la distribution des valeurs d’un phénomène ou d’une relation entre concepts. Elles permettent également de présenter la distribution des variables-clés au moyen de graphiques appropriés (ex. histogrammes, secteurs, box plots, diagrammes tiges et feuilles). Les paramètres les plus employés sont : ƒ

Les paramètres de localisation : -

La moyenne arithmétique : C’est une mesure de localisation visant à indiquer la valeur ‘typique’ adoptée une variable donnée dans l’échantillon. Elle est obtenue en divisant la somme de toutes les observations se rapportant à la variable par le nombre d’observations. La moyenne arithmétique est très sensible aux valeurs extrêmes adoptées par la variable. Aussi lorsqu’il existe des valeurs extrêmes ou lorsque la distribution est fortement biaisée (ou asymétrique), elle peut ne pas être représentative de la grande majorité des données de l’échantillon. Dans ce cas, il est parfois préférable de calculer la moyenne géométrique qui correspond à la moyenne arithmétique des données rapportées à une échelle logarithmique.

-

La médiane : La médiane est également une mesure de localisation du centre de la distribution. Elle correspond à la valeur telle que 50% des observations obtenues avec l’échantillon lui sont inférieures 197

ou égales, et 50% des observations lui sont supérieures. Elle est moins sensible que la moyenne aux valeurs extrêmes. ƒ

Le mode : Il s’agit de la valeur revenant le plus fréquemment parmi les observations dans l’échantillon

Les paramètres de dispersion : -

Les quantiles (ou percentiles) : Le pème quantile est la valeur Vp telle que p % des observations lui sont inférieures ou égales. Par exemple, le 25ème quantile (également appelé le 1er quartile) est la valeur telle que 25% des observations lui sont inférieures ou égales; le 90ème quantile est la valeur telle que 90% des observations lui sont inférieures. La médiane est le 50ème quantile.

-

L’étendue : L’étendue est la différence entre la plus grande et la plus petite des observations dans l’échantillon. On peut également calculer un écart inter-percentile pour évaluer la dispersion des données. Il s‘agit de la différence entre deux percentiles données (ex. entre le 90ème et le 10ème percentile; entre le 75ème et le 25ème percentile). Les écarts inter-percentile présentent l’avantage d’être moins sensibles à la présence de valeurs extrêmes et à la taille de l’échantillon que l’étendue.

-

L’écart-type : L’écart type est l’écart moyen par rapport à la moyenne, c’est-à-dire la distance d’une donnée typique de l’échantillon par rapport à la moyenne. Un autre critère de dispersion est la variance, qui est définie comme la moyenne des carrés des distances des observations par rapport à la moyenne de l’échantillon.

-

Le coefficient de variation : Fort utile pour les comparaisons, le coefficient de variation est une mesure de l’écart relatif des données par rapport à la moyenne. Il s’obtient par le rapport entre l’écart-type et la moyenne.

Un autre volet de l’exploration des données consiste à mettre en relation les données se rapportant aux variables indépendantes avec celles se rapportant aux variables dépendantes. Ceci permet habituellement de révéler les liens éventuels existants entre les variables opératives, d’identifier des cofacteurs, d’observer l’interrelation de différentes mesures d’un même construit théorique, etc. Il est toutefois important à ce niveau de ne pas céder à la tendance de sur-analyser les données en essayant de mettre en rapport différentes combinaisons de données, mais plutôt de se concentrer sur les variables importantes.

6.2. La formulation des hypothèses nulles Les différentes relations mises en évidence lors de l’exploration des données, 198

ainsi que les relations ou différences anticipées par les hypothèses de recherche feront l’objet d’analyses inférentielles. Toute analyse statistique inférentielle requiert l’établissement d’un cadre de travail traduisant l’intérêt de l’analyse. Ce dernier est donc formulé à travers deux hypothèses : une hypothèse nulle et une hypothèse alternative. L’hypothèse nulle est l’hypothèse qui sera testée au cours de l’analyse. Elle implique généralement l’absence de relation, d’association, de dépendance ou de différence entre les variables opératives. L’hypothèse alternative contredit l’hypothèse nulle. Autrement dit, si l’hypothèse nulle est rejetée, on peut assumer que l’hypothèse alternative est vraie. Le rôle de l’analyse est donc de déterminer et comparer les probabilités relatives d’obtenir l’échantillon de données sous chacune de ces hypothèses. Il est important de noter que ces hypothèses sont des hypothèses de travail qu’il ne faut pas confondre avec les hypothèses de recherche. En effet, elles visent à encadrer le travail d’analyse et l’hypothèse nulle est considérée comme vraie tant que l’analyse ne permet pas de la rejeter. Les hypothèses nulles fournissent ainsi un cadre de travail objectif pour utiliser les méthodes probabilistes. Les chercheurs pourraient formuler différentes opinions en considérant les données sur la base du sens commun ou sur des impressions subjectives, mais le test des hypothèses nulles leur fournit un critère uniforme de prise de décisions.

6.3. Les analyses inférentielles Il existe une très large gamme de tests et de types d’analyses inférentielles. De façon générale, les analyses d’inférence utilisent les lois de la probabilité pour fonder des décisions ou des prévisions sur la population-mère à partir des données observées dans l’échantillon. Elles permettent ainsi de tester une hypothèse de recherche au niveau de la population-mère en estimant et en établissant, au niveau de cette population, des paramètres relatifs à (au) : -

La nature d’une relation entre les variables opératives La force de la relation Pourcentage de variance expliqué par le modèle établi (ou l’exactitude de l’explication) La signification (ou validité statistique) des résultats (qui indique la probabilité que le résultat ne soit dû qu’au hasard si en réalité le modèle explicatif ne compte pas)

Pour obtenir ces paramètres, le type d’analyse dépend de la nature des données obtenues, du nombre de variables impliquées, des objectifs de recherche, de la taille de l’échantillon, de sa nature et des postulats sur la distribution des données. De plus, la complexité du protocole de recherche détermine la complexité des analyses qui seront menées. Plusieurs critères 199

doivent donc être pris en considération avant de décider du test statistique à appliquer. Ces critères sont entre bien d’autres : ƒ Le caractère uni-varié versus le caractère multi-varié de l’analyse : l’analyse uni-variée s’applique lorsqu’il n’y a qu’une variable indépendante (X) et une variable dépendante (Y) à prendre en compte (ex. le recours aux ressources électroniques (X) favorise-t-il les performances scolaires des étudiants (Y) ?). L’analyse multi-variée s’applique lorsqu’il y a plus d’une variable indépendante (x1, x2, x3…) et/ou plus d’une variable dépendante (y1, y2, y3 …) à prendre en compte simultanément lors de l’analyse (ex. Après ajustement pour l’âge (x1) et le sexe (x2), le recours aux ressources électroniques (x3), favorise-t-il les performances scolaires des étudiants (Y) ?) ƒ Analyse des différences versus des associations : Certains tests sont désignés pour évaluer s’il existe une différence statistiquement significative dans le comportement d’une variable X entre plusieurs groupes (ex. Existe-t-il une différence entre les performances scolaires (X) des étudiants utilisant des ressources électroniques (groupe 1) et ceux n’utilisant pas ces ressources (groupe 2) ?). D’autres tests sont utilisés pour établir l’existence d’une association statistiquement significative entre deux variables (ex. l’âge (variable 1) d’un patient est-il lié au nombre de jours (variable 2) passé à l’hôpital ?) et/ou la tendance de cette association. ƒ Comparaison de groupes appariés ou non-appariés : Deux échantillons sont dits appariés lorsque chaque donnée dans le premier échantillon est apparié et relié à une donnée unique dans le second échantillon (ex. dans les protocoles expérimentaux, les mesures avant intervention et après intervention pratiquée sur les mêmes sujets). À la différence, on dit qu’ils sont indépendants lorsque les données de l’un des échantillons ne sont aucunement reliées aux données de l’autre échantillon (ex. les mesures avant intervention pratiquée sur les sujets expérimentaux et sur les sujets témoins). ƒ Distribution normale versus distribution biaisée : Des tests paramétriques sont employés pour évaluer les paramètres de variables dont les données suivent une distribution normale et symétrique, tandis que des tests non-paramétriques peuvent être utilisés lorsque la distribution des données est fortement asymétrique et biaisée. ƒ La nature des données : Le type de test appliqué varie selon que l’une, l’autre ou toutes les variables opératives sont nominales, ordinales ou continues (à intervalle ou de proportion).

Il existe des centaines de tests (et leurs variantes) d’inférence statistique. 200

Tableau : Tests et méthodes d’inférence statistique les plus communément utilisés Tests et méthodes Test Chi carré pour l’hétérogénéité

Description L’un des tests statistiques les plus communément utilisé Utilisé pour tester si deux ou plus de deux pourcentages sont différents

Test exact de Fisher

Utilisé pour les tables de contingence 2 x 2 quand la taille de l’échantillon est trop faible pour satisfaire les prérequis pour le test chi-carré Utilisé pour tester la différence entre deux pourcentages Utilisé pour les tables de contingence 2 x 2 pour tester la différence entre deux pourcentages

Test de McNemar

Test Chi carré pour la tendance Test de MantelHaenszel

Utilisé pour évaluer la relation entre une variable nominale et une variable ordinale Test appliqué pour évaluer l’importance d’un facteur à travers plusieurs strates de tables de contingence 2 x 2. Utilisé pour évaluer l’association entre deux variables dichotomiques après avoir contrôlé pour une ou plusieurs variables confondantes

201

Conditions d’applications Analyse uni-variée de la différence entre groupes non appariés Données nominales/ordinales (table de contingence) À n’utiliser que si aucune cellule de la table de contingence n’a une valeur attendue < 1; pas plus de 1/5 des cellules n’a des valeurs attendues < 5; la taille de l’échantillon total est • 20 Analyse uni-variée de la différence entre groupes non appariés Données nominales/ordinales

Analyse uni-variée de la différence entre groupes appariés Données nominales/ordinales À n’utiliser que si le nombre de paires discordantes est • 20 Analyse uni-variée, test d’association entre variables nominale et ordinale Analyse multi-variée, Données nominales/ordinales À n’utiliser que si la variance des unités observées dans les cellules (1,1) strates est • 5

Test t de Student

Utilisé pour comparer la moyenne d’un groupe avec la moyenne d’un autre groupe

Test U de MannWhitney

Test non-paramétrique utilisant les rangs plutôt que les valeurs des données. Il est utilisé à la place du test t de Student lorsque la distribution des données est fortement biaisée ou asymétrique Test utilisé pour comparer les variances de deux groupes

Test F de Fisher

Test t apparié

Test des rangs signés de Wilcoxon

ANOVA (analyse de la variance)

Utilisé pour comparer la moyenne de mesures effectuées deux fois sur la même unité d’observation – avant vs après intervention Utilisé pour comparer un groupe de sujet expérimentaux et un groupe de sujet témoins qui leur sont appariés Test non-paramétrique équivalent au test t apparié. Il est employé lorsque la distribution des variables est non-normale L’ANOVA à un facteur est utilisée pour comparer les moyennes de 3 ou plus de 3 groupes indépendants L’ANOVA à deux facteurs est employée pour évaluer l’impact combiné de deux variables sur les moyennes de deux ou plus de deux groupes

202

Analyse uni-variée de la différence entre 2 groupes nonappariés Données intervalles ou de proportion Distribution normale Analyse uni-variée de la différence entre 2 groupes nonappariés Données intervalles ou de proportion Distribution non-normale Analyse uni-variée de la différence entre 2 groupes nonappariés Distribution normale Analyse uni-variée de la différence entre 2 groupes appariés Données intervalles ou de proportion Distribution normale

Analyse uni-variée de la différence entre 2 groupes appariés Données intervalles ou de proportion Distribution non-normale Analyse uni-variée (ANOVA à un facteur) et multi-variée (ANOVA multifactorielle) de la différence entre 3 groupes (ou plus) non appariés Données intervalles ou de proportion Distribution normale

Test de KruskalWallis

ANOVA pour les mesures répétées

Test non-paramétrique équivalent à l’ANOVA à un facteur. Il est employé lorsque les données se rapportant aux variables ne sont pas normalement distribuées Utilisé pour évaluer le changement dans 2 (ou plus) mesures répétitives faites sur la même unité d’observation

Test de corrélation de Pearson

Utilisé pour estimer une relation linéaire entre deux variables continues

Test de corrélation des rangs de Spearman

Utilisé pour estimer une relation linéaire entre deux variables ordinales ou de distributions fortement asymétriques

Régression linéaire

Utilisé pour estimer comment une ou plusieurs variables indépendantes peuvent prédire le comportement d’une variable dépendante continue Utilisé pour évaluer l’impact de la valeur d’une ou plusieurs variables sur le comportement d’une variable binomiale Utilisée pour établir les courbes cumulatives de ‘survie’ liée à un phénomène dans le temps et dans un groupe donné Permet de comparer deux courbes de survies produites par la méthode de Kaplan-Meier

Régression logistique

Analyse de survie : La méthode de Kaplan-Meier Test du log-rank

203

Analyse uni-variée de la différence entre 3 groupes (ou plus) non appariés Données intervalles ou de proportion Distribution normale Analyse uni-variée de la différence entre 2 groupes (ou plus) appariés Données intervalles ou de proportion Distribution normale Analyse uni-variée de l’association entre deux variables données intervalles ou de proportion Distribution normale des données Analyse uni-variée de l’association entre deux variables données ordinale Distribution non-normale des données Analyse multi-variée de l’association Données intervalles ou ordinales pour la variable dépendante Analyse multi-variée de la différence entre 2 groupes Données nominales pour la variable dépendante, non dépendantes du temps. Analyse longitudinale

Analyse uni-variée de la différence entre 2 groupes

Le modèle des risquesproportionnels de Cox

Utilisé pour évaluer l’influence de plusieurs facteurs de risques sur la survie de deux groupes

Analyse multi-variée de la différence entre deux groupes

Dans le choix de la méthode ou du test approprié, il convient de consulter des ouvrages de référence sur le traitement détaillé des statistiques (ex. Tabachnik et Fidell, 2001; Howell, 2002; Rosner, 2006) et de se référer à des diagrammes de flux de méthodes d’inférence statistique (voir un exemple de diagramme de flux à l’annexe 5). Il est également judicieux chercher conseil auprès des collègues de travail ou de consulter des statisticiens. En effet, même les chercheurs les plus expérimentés peuvent avoir besoin d’aide pour les analyses complexes.

7. Analyse de la validité et interprétation des conclusions statistiques La dernière étape de l’analyse des données quantitatives consiste à évaluer les conclusions des tests statistiques et déterminer l’implication pour la question de recherche, des effets quantitatifs qu’elles mettent en évidence. Lors de l’application d’une méthode d’inférence statistique à du test des hypothèses nulles, quatre situations peuvent se présenter une fois la décision prise sur la base des résultats statistiques. Tableau : Les quatre résultats possibles du test des hypothèses nulles

Décision

Vérité Hypothèse nulle (H0)

Hypothèse alternative (H1)

Accepter H0

H0 est vraie et H0 est acceptée

H1 est vraie et H0 est acceptée (erreur de type II)

Rejeter H0

H0 est vraie et H0 est rejetée (erreur de type I)

H1 est vraie est H0 est rejetée

La probabilité de l’erreur de type I est habituellement notée Į. On y réfère comme le seuil de signification d’un test. Il définit la signification d’un résultat, c’est-à-dire qu’il montre à quel point il est improbable que le résultat soit dû uniquement au hasard. De façon conventionnelle, il est admis qu’un résultat est significatif pour Į ” 0.05. La probabilité d’une erreur de type II est notée ȕ. Elle permet de calculer la puissance d’un test. Celle-ci est définie comme la probabilité de rejeter H0 alors que H1 est vraie est : Puissance = 1 – ȕ 204

Compte tenu de ces erreurs, avant de faire toute inférence il importe de déterminer si les résultats obtenus sont fondés. Le chercheur doit établir la validité statistique de ses résultats. À ce niveau trois questions se posent : -

L’étude est-elle assez sensible pour permettre une interprétation raisonnable ? La sensibilité fait référence à la capacité d’arriver à la bonne conclusion statistique selon la situation (i.e. de conclure qu’il y a une corrélation ou une association lorsqu’en réalité une telle corrélation ou association existe entre les variables, ou qu’il n’y a pas de relation lorsqu’en réalité cette relation n’existe pas entre les variables). Une plus grande sensibilité peut être obtenue en augmentant la taille de l’échantillon et/ou en augmentant la fiabilité de la mesure (contrôle des variables parasites, triangulation des mesures, échantillonnage homogène, etc.).

-

Si l’étude est assez sensible, est ce que les différences (ou les relations) observées son réelles ? Autrement adressée, cette question renvoie à l’adéquation du test statistique appliqué, à la validité des postulats assumés (sur la distribution des données), sur le choix du seuil de signification, etc.

-

Si les différences sont réelles, à quel point sont-elles pertinentes pour la recherche et à quel point sont-elles généralisables ? À ce niveau le chercheur s’intéresse non seulement à la signification statistique de ses résultats, mais également à la taille de son échantillon et à la représentativité de cet échantillon.

Une fois la validité statistique établie, le chercheur interprète les résultats de son analyse. Il doit comprendre le sens de ces résultats. Cette tâche implique la mise en relation de ces résultats avec le cadre d’analyse de la recherche. Les données répondent-elles à la question de recherche ? Supportent-elles ou non les modèles théoriques ayant orienté la recherche ? Existe-t-il des divergences avec les hypothèses de recherche ? Si oui, comment cela pourrait être expliqué ? Elle implique également leur comparaison, avec les résultats de travaux antérieurs. L’interprétation des résultats donne également l’opportunité au chercheur de soupeser et de révéler les forces et faiblesses de sa recherche. Toute recherche comporte ses forces et ses failles. Il importe pour le chercheur de comprendre si les faiblesses de sa recherche peuvent avoir influencé significativement les résultats qu’il a obtenus et le crédit qu’on peut accorder à ses trouvailles. Celui permet d’évaluer la validité externe de sa recherche et 205

de déterminer les implications scientifiques et professionnelles que son travail peut avoir pour la discipline.

8. Conclusion Une fois les données acquises, il importe pour le chercheur de les analyser attentivement afin de dégager les éléments de réponses qui lui permettront de résoudre sa question de recherche, de valider ou d’infirmer ses hypothèses. L’une des caractéristiques les plus notables de l’analyse quantitative est l’emploi important de l’outil statistique pour tenter de faire ressortir les relations éventuelles entre construits, catégories ou concepts théoriques. Il existe toute une pléiade d’outils et de tests statistiques permettant de faire ressortir les principaux éléments de réponses de la masse de données quantitatives recueillies. La plupart de ces méthodes sont bien connues et bien documentées dans la littérature. Toutefois le chercheur doit s’assurer de choisir et d’appliquer les bons tests s’il veut obtenir des résultats significatifs et valides. Pour cela il doit bien connaitre et comprendre ses données. Il lui faut également comprendre les différentes implications des résultats qu’il obtient, afin de saisir leur portée, de pouvoir les interpréter et les présenter au mieux de ses connaissances. Un danger de l’analyse statistique tient en l’utilisation quelque peu abusive des tests statistiques. L’utilisation redondante des statistiques peut parfois conduire à des interprétations erronées. « One might even be led to believe that by the use of statistics one can somehow transform meaningless numbers into something meaningful and that the more complex and sophisticated the analysis, the more meaningful that something is bound to be. » (Pedhazur et Pedhazur, 1991 : p. 25) Il ne faut également pas perdre de vue que l’emploi de méthodes quantitatives conduit à la réduction des données, des mots ou comportements à des équations statistiques. « When we reduce people’s words and acts to statistical equations, we lose sight of the human side of the social life. » (Taylor et Bogdan, 1984; p. 7) Aussi les mesures de validité et de fidélité prennent toute leur importance pour s’assurer que l’essence des réalités observées n’est pas perdue à travers la modélisation statistique. Les mesures de validité offrent un certain recul par rapport aux analyses statistiques. Elles permettent de garder en mémoire que les données recueillies sont plus ou moins complètes, plus ou moins exactes, plus ou moins générales, plus ou moins particulières à un contexte donné. Elles permettent donc de conserver une attitude critique et d’ouverture vis-à-vis des résultats statistiques. 206

Chapitre 9 L’analyse des données qualitatives Lorsque nous avons introduit la recherche qualitative au chapitre 5, nous avons constaté que l’analyse des données est un processus dynamique et itératif prenant place tout au long de la recherche et composé de trois activités majeures inter-reliées selon la perspective développée par Miles et Huberman (1994) : la réduction des données, la visualisation des données et les conclusions/vérifications. Bien que ces activités soient généralement mises en œuvre par la plupart des recherches qualitatives, les analyses effectuées par ces dernières se distinguent en fonction des objectifs de la recherche, des capacités cognitives du chercheur et de l’orientation de l’analyse (Barker et coll., 2002). Les différentes orientations possibles d’une analyse qualitative adoptent différents niveaux de profondeurs ou d’inférence (certaines se cantonnant à une description détaillée du phénomène étudié, d’autres allant au-delà et cherchant à interpréter le sens, les causes et la structure du phénomène; les unes s’intéressant au sens apparent, les autres au sens caché dans les actions, les valeurs ou les interactions), s’intéressent à différents aspects d’un phénomène (la symbolique entourant le phénomène pour certaines, les représentations sociales pour d’autres, les stratégies pour telles, et ainsi de suite). Ces diverses orientations emploient différentes méthodes d’analyse et ont tendance à utiliser un vocabulaire différent pour décrire les mêmes procédures (Barker et coll., 2002). Tout comme pour l’analyse quantitative des données, elles font appel à des méthodes spécialisées dont l’ampleur va bien au-delà du cadre de notre livre (Sacks, 1995; van Dijk, 1997). Aussi, nous ne présenterons, encore une fois, que les outils permettant de comprendre le traitement des données qualitatives. De même, pour des besoins de simplifications, nous considérerons les étapes de l’analyse de façon séquentielle.

1. Les préliminaires à l’analyse qualitative : classer, identifier et retrouver l’information La collecte des données qualitatives fournit un ensemble de données de formes et de sources variées (textes, notes, transcriptions d’entrevues, enregistrements de dialogues, etc.), obtenues dans un volume considérable et généralement peu structuré. La première tâche du chercheur est de fournir une structure exploitable à ces données. Mais avant, il convient de transcrire les informations provenant d’un enregistrement ou d’un entretien; puis d’ordonner, d’identifier et d’indexer les données collectées. Il existe plusieurs méthodes de transcription. Par exemple le système Jefferson qui permet une transcription en temps réel des interactions survenues lors d’une 207

conversation (mesure des pauses, relevé exact du début et de la fin des interruptions) ou la transcription en poème (voir Richardson ; 1992). Le choix de la méthode de transcription dépend de la finalité du travail de recherche et des objectifs à atteindre. La transcription est en quelque sorte une analyse en soi (Barker et coll., 2002) puisqu’elle est orientée vers le compte rendu des éléments les plus pertinents dans la masse des informations rassemblées. Elle réécrit les données de façon à faciliter la détermination de leur signification. Pour leur part, l’identification et l’indexage des données sont utiles pour réaliser des analyses systématiques. Préalablement à l’analyse formelle, il importe donc de vérifier la qualité de la transcription pour garantir la validité des données et pour assurer que la confidentialité des informations personnelles et l’anonymat des participants sont respectés. Le chercheur doit s’immerger dans les données afin d’en saisir l’ampleur et la portée générales (Barker et coll., 2002). Il organise ensuite ses données selon la nature de leur provenance et en prenant soin d’identifier pour chacune: -

La provenance (ex. données d’entretiens téléphonique, d’entrevue, d’observation, de lecture, etc.): — Date et lieu de l’acquisition — Nombre et fonctions des participants impliqués

-

Le(s) thème(s) principaux en relation avec l’information

-

Variables de recherche mesurées ou adressées

-

Mémos sur les hypothèses, interprétations et/ou impressions personnelles du chercheur, nouvelles spéculations, etc.

Il existe plusieurs logiciels et programmes informatiques permettant de préparer les données et d’assister ensuite le chercheur dans la conduite de son analyse qualitative. Parmi ces logiciels on peut citer : -

Atlas-TI (un puissant logiciel avec des outils sophistiqués pour l’analyse qualitative de larges ensembles de données graphiques, textuelles, audio ou vidéo).

-

CDC EZ-Text (un logiciel développé pour assister les chercheurs dans l’analyse semi-structurée des bases de données qualitatives)

-

QSR-Nud*ist (un programme robuste et fiable exclusivement approprié à l’analyse dans le cadre de recherches qualitatives)

-

MAXQDA (logiciel destiné au support de l’analyse qualitative, de l’analyse de contenu de texte et à l’évaluation et l’interprétation systématique des résultats) 208

2. Déstructuration et catégorisation des données Une fois les données indexées, le chercheur doit identifier les unités de sens qui se dégage de l’ensemble des informations disponibles. De façon générale, il est peu recommandé d’analyser en bloc l’ensemble des données transcrites (Barker et coll., 2002). L’analyse en bloc favorise l’omission de données qui s’intègrent mal dans l’ensemble ou dans le schéma explicatif émergent, ou de particularités qui ressortent moins bien lorsqu’on considère l’ensemble. Aussi la recherche qualitative se déroule par micro-analyses successives des données divisées en segments significatifs ou en unités d’analyse (Berker et coll., 2002; Andreani et Conchon, 2005). Cette division des données s’inscrit dans une démarche de déstructuration et de décontextualisation du corpus des données. Une telle déstructuration consiste à sortir de son contexte, un extrait des données afin de le rendre sémantiquement indépendant. Les segments significatifs issus de cette démarche peuvent être des unités syntaxiques (des mots, des syntagmes, des phrases ou des paragraphes), des unités sémantiques (des idées-clés ou des thèmes), ou encore des unités psychologiques (des images mentales, des émotions, des sensations, des souvenirs, etc.) (Andreani et Conchon, 2005). Le chercheur commence donc par déstructurer ses données, puis il s’attache à identifier les idées qui sont exprimées par les informations contenues dans les segments significatifs. Il existe plusieurs façons de constituer les données en segments significatifs et de déterminer les idées qu’ils véhiculent (Dey, 1993; Barker et coll., 2002), chacune dépendant de l’approche analytique adoptée. Cette phase permet de générer des labels (ou des étiquettes) correspondant aux idées identifiées, aux différents aspects du phénomène étudié, aux concepts (ou variables) ou aux relations impliquées par les données. Ces labels permettent à leur tour de construire un cadre conceptuel au travers duquel les données sont rendues intelligibles pour les besoins de la recherche (Dey, 1993). Celui-ci consiste en un ensemble de catégories, organisées et hiérarchisées, correspondant à des critères ou à des indicateurs, et dans lesquelles le chercheur réorganisera les données à sa disposition sur la base de leurs caractéristiques. Le choix des catégories composant le cadre conceptuel peut être établi au fil du dépouillement des segments significatifs : on parle alors de cadre d’analyse ouvert et inductif pour la généralisation et l’abstraction des données. Le cadre conceptuel émerge progressivement des observations selon une démarche inductive, par l’identification de sous-ensemble, puis par la comparaison et le regroupement de ces sous-ensembles en des dimensions plus larges : les catégories (Andreani et Conchon, 2005). Cependant, le choix des catégories peut également être défini à l’avance en fonction des objectifs de recherche : il s’agit d’un cadre d’analyse fermé pour l’évaluation et la traduction des indicateurs d’étude (Andreani et Conchon, 2005). Dans 209

ce cas, le cadre conceptuel indique les catégories observables et manifestes, ainsi que les catégories intermédiaires. Le dépouillement des segments significatifs permet alors de valider les catégories prédéterminées et/ou de les raffiner.

3. Le codage des données Au fur et à mesure que l’analyse des segments significatifs avance, de moins en moins de catégories nouvelles sont constituées et celles existantes sont affinées (Barker et coll., 2002). Les données organisées dans les différentes catégories sont codées. Le codage explore les données un détail à la fois. Il décrit, classe et transforme les données qualitatives brutes en fonction du cadre conceptuel construit. Cette codification s’effectue dans chacune des catégories établies en fonction des besoins de l’analyse. Elle facilite la navigation à travers les données, leur gestion et leur manipulation (Miles et Huberman, 1994). De surcroit, la codification des données permet de fournir à celles-ci une structure uniforme les plaçant sur un même pied d’égalité et rendant possible leurs mises en relations, leurs hiérarchisations ou leurs comparaisons. Les codes traduisent donc les données dans un langage commun permettant au chercheur de savoir si telle ou telle données s’intègre bien dans une catégorie précisée. Qu’elle se base sur un cadre d’analyse ouvert ou fermé, les principes de base suivants s’appliquent à la codification des données : 1. Attribuer un code à chaque catégorie d’intérêt 2. Pour chaque catégorie, identifier les différentes dimensions (ou sous-catégories) puis les coder 3. Pour chacune des sous-catégories, établir une liste exhaustive des valeurs mutuellement exclusives que les données peuvent adopter (ex. positive, neutre, négative). Il attribue un également un code pour ces valeurs 4. Établir la liste des codes disponibles (appelée le livre des codes) correspondant aux catégories, aux sous-catégories et aux valeurs (Cette liste peut être appelée à évoluer au fil de la progression de l’analyse) 5. Coder toutes les données de façon systématique au moyen du livre des codes Il est généralement plus efficace de recourir à un logiciel informatique pour le codage des données. De même, pour des questions pratiques il est préférable d’éviter les codes employant une longue terminologie. Les codes doivent plutôt être courts, mnémoniques, bien définis, et leurs labels aussi 210

proches que possible des concepts ou idées qu’ils décrivent. Ainsi l’analyste (ou un lecteur) est capable de retourner rapidement au concept.

3.1. Création et gestion des livres des codes L’établissement du livre des codes est important pour le codage systématique des données. Il peut s’effectuer de différentes façons.

3.1.1 Selon les considérations théoriques Une des méthodes les plus simples consiste à établir une liste de départ en fonction du cadre conceptuel, des questions de recherche, des hypothèses et des variables que le chercheur introduit dans l’étude (Miles et Huberman, 1994). Elle suppose l’existence d’un cadre conceptuel fermé avec des catégories (et sous-catégories) définies avant le début de l’analyse des données.

Exemple 9.1 Dans l’étude présentée dans l’exemple 2 de l’annexe 3, l’auteure se base sur un cadre conceptuel pour orienter la collecte et l’analyse des données (Clements, 1997). Ce cadre implique les concepts de base suivants : la supériorité informationnelle, la guerre de l’information, les opérations d’informations, la prise de décision et la technologie de l’information. L’auteure a choisi de regrouper les données selon qu’elles permettent d’expliquer les concepts ou qu’elles montrent les liens entre l’un et l’autre des concepts (Clements, 1997). Le tableau ci-après illustre brièvement une liste fictive de départ pouvant être utilisé pour coder les données sur la base du cadre conceptuel et de l’approche choisie. Tableau : Exemple d’une liste préliminaire des codes Catégories Définitions : Concepts de l’information Supériorité informationnelle Guerre de l’information Opérations de l’information Prise de décision (individuelle au niveau opérationnel) Technologie de l’information Relations entre : les concepts de l’information les concepts de l’information et la prise de décision les technologies de l’information et la prise de décision les concepts de l’information et les technologies de l’information

211

Codes D D - IF D - IW D - IO D - DM D - IT R R - CI/CI R CI/DM R IT/DM R - CI/IT

Exemple 9.2 Dans une étude sur la rénovation de l’enseignement, les auteurs ont en partie conceptualisé le processus d’innovation comme une ‘transformation réciproque’ de l’innovation, de ses utilisateurs, de l’organisation du travail dans la salle de classe ou l’école d’accueil (Miles et Huberman, 1994). Pour coder les données, ils se sont basés sur le cadre conceptuel et ont établi des maitres codes pour les variables générales de leur cadre d’analyse (ex. TR pour ‘transformation réciproque’; PI pour ‘propriétés de l’innovation’) à partir desquels sont formés des sous-codes à attribuer aux segments de données dans chaque classe de variables (ex. TR-CLASS pour ‘effets sur l’organisation du travail dans la salle de classe’; TR-ORG pour ‘changements dans l’organisation’) Bien que cette méthode soit simple et facilite la tâche des analystes, les codes prédéterminés ne correspondent pas toujours parfaitement aux données. Aussi la liste de départ est à considérer comme une liste préliminaire des codes, qui sera minutieusement examinée puis affinée au fil de l’exploration des segments significatifs de manière à être plus pertinente et plus complète. La codification et l’analyse des données commencent avec les catégories préétablies, puis des codes sont ajoutés ou modifiés au fur et à mesure que les données révèlent de nouveaux aspects.

3.1.2 . Par induction L’élaboration du livre des codes peut également s’effectuer en suivant une démarche inductive, notamment lorsque le cadre d’analyse est ouvert (Strauss, 1987; Strauss et Corbin, 1998). La génération des codes s’effectue à partir des données, au fil du dépouillement des segments significatifs et parallèlement à la création des catégories. Elle se déroule en trois étapes : -

Un codage ouvert : En passant en revue une à une les données initiales ou retranscrites, le chercheur établit des liens et identifient les différences entre les idées véhiculées par les segments significatifs, sur la base de leurs caractéristiques et/ou de leurs similarités sémantiques. Il crée ainsi des sous-ensembles qu’il étiquette (Miles et Huberman, 1994; Andreani et Conchon, 2005). Ces sous-ensembles correspondent à différents aspects spécifiques de thèmes plus larges. Comme point de départ au codage ouvert, il est suggéré 212

de rechercher quatre ensembles de données (Strauss, 1987; Miles et Huberman, 1994; Strauss et Corbin, 1998) : — celui relatif aux « conditions » (ou les causes

d’un phénomène tel que perçu par les acteurs), — celui relatif aux « interactions entre les acteurs

», — celui relatif aux « stratégies et tactiques »

utilisées par les acteurs — et celui relatif aux « conséquences des actions »

-

Un codage axial : Les sous-ensembles identifiés sont comparés, reliés puis regroupés en catégories plus abstraites. Une liste de catégories et de sous-catégories s’établit progressivement. En fonction du schéma qui se dessine, le chercheur élargit sa revue à un plus large ensemble de données et effectue des regroupements de plus en plus précis.

-

Un codage sélectif : Les idées qui apparaissent fréquemment font l’objet d’un codage spécifique provisoire et servent à mettre en lumière les idées centrales qui seront analysées. Une grille de codification intermédiaire est élaborée, puis contrôlée au fur et à mesure que l’ensemble de données est codé.

Cette méthode est largement utilisée par les analyses se basant sur l’approche de la théorie ancrée (Miles et Huberman, 1994). Elle présente l’avantage de faire mieux coïncider les données avec leurs codes. En conséquence, ces derniers reflètent plus le contexte des données.

3.1.3 . Par catégories ontologiques Il existe une autre possibilité à mi-chemin entre les deux méthodes précédentes. Cette méthode intégrative applique les principes du raisonnement inductif au développement des codes, tout en se basant sur un cadre déductif composé de types prédéterminés de codes. L’idée est donc de créer un plan de codage qui ne soit pas en rapport avec le contenu mais qui indique les grands domaines dans lesquels les codes seront inductivement conçus et répartis (Miles et Huberman, 1994; Bradley et coll., 2007). Les codes peuvent être rattachés à différents aspects comme l’illustrent les plans de codages présentés aux tableaux. Tableau : Plan de codage suggéré par Lofland (1971) 213

Types de codes 1 2 3 4 5 6

Détails

actions dans une situation de courte durée (secondes, minutes ou heures) actions dans une situation de plus longue durée (jours, Activités semaines, mois) représentant des éléments plus significatifs de l’engagement des individus procédures verbales des participants, qui définissent et Significations orientent l’action implication holistique ou adaptation des individus à une Participation situation ou un milieu de l’étude interrelations entre plusieurs personnes considérées Relations simultanément Milieux ensemble du milieu à l’étude, conçu comme unité d’analyse Tableau produit à partir de Lofland J., 1971. Analyzing Social Settings: A Guide to Qualitative Observation and Analysis; Wadsworth Publishing Company, Belmont, CA Actes

Tableau: Plan de codage proposé par Bogdan et Biklen (1982) 1

Types de codes Milieu/contexte

2

Définition de la situation

3

Perspectives

4

Manières de percevoir les personnes, les objets

5

Processus

6

Activités

7 8

Événements Stratégies Relations et structures sociales Méthodes

9 10

Détails informations générales sur l’environnement interprétations des acteurs de la situation analysée manières de penser, orientations globales sur la situation perspectives détaillées de certains aspects de la situation séquences d’événements, flux d’activités, changements dans le temps types de comportements revenant régulièrement activités spécifiques façon de parvenir à un objectif réseaux informels réflexions liées à la recherche

214

Tableau : Plan de codage et applications proposés par Bradley et coll. (2007) Types de codes

Détails

1

Codes/sous-codes conceptuels

domaines-clés conceptuels et dimensions conceptuelles essentielles de ces domaines

2

Codes de relations

3

Perspectives des participants

4

Caractéristiques des participants

5

Codes contextuels

liens entre les codes/sous-codes conceptuels points de vue directionnels (positifs, négatifs, ou indifférents) des participants caractéristiques identifiant les participants (ex. âge, genre, modèle d’assurance, statut socioéconomique, etc.) caractéristiques identifiant le contexte (ex. groupe expérimental vs groupe de témoins; frais de services vs assurance prépayée, etc.)

215

Applications/ buts développer une taxonomie; utiles pour les thèmes et les théories générer des thèmes et des théories générer des thèmes et des théories comparer les concepts-clés entre les types de participants comparer les concepts-clés entre les types de contextes

On retrouve différents plans de codage dans la littérature (Miles et Huberman; 1994; Bradley et coll., 2007). Ils offrent un cadre de réflexion au chercheur qui peut alors adopter tous ou partie des types de codes présentés. Ils aident ainsi le chercheur à établir sa propre typologie de catégories dans lesquelles les codes et sous–codes seront conçus.

3.2. La structure du système de codes Pour permettre leur analyse subséquente, les codes, une fois créés, doivent posséder un certain ordre structurel. Ils doivent pouvoir être reliés de manière cohérente les uns aux autres et de manière directe et adaptée au sujet de l’étude. Aussi ils s’insèrent dans une structure dominante comprenant des nœuds et de liens. Pour établir cette structure, le codage des données prend deux formes : -

Le codage simple des catégories et sous-catégories : il vise principalement à séparer les données en groupes

-

Le codage de patrons relationnels : il vise à détecter les relations ou associations de base entre catégories, à travers la coprésence régulière entre deux valeurs de deux variables, et à travers les variations et les singularités dans leurs associations.

-

3.3. Organisation et révision des codes Le nombre et l’organisation structurelle des codes dans un livre de code dépendent du type d’analyse privilégié ainsi que du niveau de détails et de critères à prendre en compte pour les besoins de la recherche. En règle générale, le système de codes est hiérarchique et le nombre de codes qu’il comprend doit permettre leur bonne gestion et les mises en relation. Une fois le livre des codes établi, il est appelé à évoluer, peu importe la méthode employée pour sa conception. Au fil de l’analyse, les codes sont hiérarchisés ou réorganisés d’une quelconque façon (supprimés, fusionnés, fractionnés, etc.). En effet, il arrive que certains codes de détériorent, c’est-à-dire qu’ils sont moins appropriés au découpage empirique des données. D’autres s’avèrent moins sélectifs que prévus; en conséquence trop de segments significatifs se voient attribuer le même code. Et par ailleurs, de nouveaux codes émergent graduellement au cours du recueil et de l’analyse des données. Ces différents événements donnent lieu à des opérations de révision et de recodification, survenant plus tard lors du cycle d’analyse. On peut regrouper ces opérations sous quatre sortes (Lincoln et Guba; 1985) : -

Insertion : opération consistant à rajouter des codes tout en maintenant la cohérence de la structure, alors que de nouvelles façons d’appréhender les données émergent 216

-

Extension : opération consistant à réviser le matériel codé existant, au moyen d’une nouvelle perspective (nouveaux thèmes, construits, mises en relation, etc.)

-

Liaison : identification de nouvelles relations ou de relations précédemment incomprises qui nécessitent une reconfiguration des catégories et/ou un nouveau type de code

-

Émergence : identification de nouvelles catégories.

Ainsi, la codification et le processus de révision se déroulent tout au long de l’analyse et sont indissociables d’une part de la compréhension que le chercheur a (ou obtient) des phénomènes investigués, et d’autre part de la subjectivité des données et de leurs contextes.

4. La visualisation des données La visualisation des données est une activité complémentaire à la réduction des données. Elle organise les données codées en un format qui facilite l’extrapolation de schémas systématiques et de relations implicites entre les variables. Cette organisation permet d’avoir une meilleure vision des données. Les techniques de bases pour la visualisation des données sont les graphiques et les matrices (Miles et Huberman, 1994) : -

Les graphiques sont des représentations en réseaux permettant de visualiser les liens ou la hiérarchie entre événements, entre variables, entre fonctions, entre rôles, etc.

-

Les matrices sont des arrangements sous forme de tableaux engageant une ou plusieurs variables, et reflétant le comportement d’une (ou plusieurs) variables dans différents contextes ou les interactions entre deux (ou plus de deux) variables. Elles favorisent l’analyse par tri croisé de ces comportements.

Ces techniques servent avant tout à donner une vue d’ensemble sur plusieurs aspects combinés. Toutefois la construction des tableaux ou des matrices nécessite un compromis entre la préservation des détails caractérisant les données et une vision synthétique de l’ensemble de l’information (Miles et Huberman, 1994). Aussi les chercheurs ont recours à deux types de tableaux et/ou matrices selon les besoins analytiques; ceux : — Axés uniquement sur une ou quelques variables-clés. Dans ce cas

ils dégagent et présentent les informations brutes relatives à différents aspects, cas ou contextes entourant ces variables. — Synthétiques. Ils résument alors plusieurs cas (et/ou variables) ou

qui montrent des relations générales

217

Les matrices et graphiques n’ont pas de format unique. Lors de leur conception, chaque analyste invente le format qui convient le mieux à ses besoins et ses intentions. Ainsi les graphiques et matrices peuvent être descriptifs ou explicatifs, chronologiques ou non, ordonnés ou partiellement ordonnés; ils peuvent concerner des données uni-site ou multi-sites (Miles et Huberman, 1994). De surcroit, les matrices peuvent être à deux, trois ou n dimensions, et les données entrées dans des formats très variés (des citations directes ou des extraits de transcriptions, des résumés, des paraphrases, des explications ou des estimations du chercheur).

4.1. Les diagrammes conceptuels Les diagrammes contextuels organisent les données de façon à représenter ce qui se passe lors de la production d’un comportement individuel. Ils retracent sous forme graphique les relations entre les rôles, entre les groupes, et éventuellement entre les organisations qui constituent le contexte d’un comportement individuel (Miles et Huberman, 1994). Ils représentent les caractéristiques omniprésentes des relations qu’ils retracent et, par extension, la qualité de ces relations. Ils mettent également en relief, les aspects significatifs et les spécificités de la situation dans laquelle prend place le comportement considéré. Ils offrent ainsi l’opportunité de replacer un comportement dans son contexte, de façon raisonnablement précise mais sans se noyer dans les détails. Ce faisant, ils permettent d’interpréter ce comportement en prenant compte du contexte social dans lequel il est imbriqué, et de mieux en saisir la signification. La figure ci-après présente un exemple de diagramme contextuel.

4.2. Les matrices listes de contrôle Les matrices listes de contrôle consistent en des tableaux organisant plusieurs composantes ou aspects d’une variable (ou d’un domaine) unique et cohérente (Miles et Huberman, 1994). Elles sont utilisées lorsque le chercheur recueille des données prédéterminées qu’il entre dans un format préétabli en vue de l’analyse détaillée d’une variable majeure ou d’un domaine d’intérêt. Elles dégagent et trient les différentes dimensions ou aspects de la variable que le chercheur désire approfondir dans différentes circonstances (ou avec différentes unités d’observation), puis associent à chacune des dimensions, des segments significatifs de données et des estimations émises par le chercheur de la cohérence d’ensemble de ces segments. Le tableau présente un exemple de matrice liste de contrôle. Tableau : Matrice de contrôle – présence de conditions favorables à l’implantation d’une plateforme d’apprentissage virtuel CONDITIONS

PROFESSEURS groupe A groupe B

218

ÉTUDIANTS Groupe A Groupe B

Engagement/motivation Adaptation/compréhension du fonctionnement de la plateforme Matériels Formation / support à l’utilisation de la plateforme Interactivité et dynamique de groupe

Il existe plusieurs variantes de matrices de contrôle (voir Miles et Huberman, 1994). Elles sont indiquées lorsque le chercheur désire explorer un nouveau domaine, et qu’il possède une idée de certains indicateurs à étudier (il pourra compléter la matrice au fil de ses découvertes).

4.3. Les matrices et graphiques chronologiques Ces formats présentent les données tout en les ordonnant par périodes et par séquences. Ils tiennent compte et préservent le flux chronologique des événements et l’historique de leurs productions. Les matrices chronologiques sont utiles pour résumer ou reconstituer l’évolution dans le temps de différents aspects d’un phénomène concret, selon des catégories ou des contextes donnés (Miles et Huberman, 1994). Ils permettent également de restituer la chronologie des événements marquants ou critiques d’une expérience de vie Quant aux graphiques, ils sont particulièrement utiles pour établir le déroulement d’un processus ou d’un cycle, pour montrer l’agencement de différents événements ou pour relier divers éléments à des états stables ou de transition. Ainsi, les graphiques et matrices chronologiques permettent l’analyse des flux de séquences et éventuellement des relations de causes à effet.

4.4. Les matrices ordonnées Outre l’ordre chronologique, les matrices peuvent être ordonnées en suivant l’amplitude ou l’intensité d’un phénomène, ou en suivant des sites présentant des niveaux d’intensité différents d’une variable-clé, ou encore en suivant le rôle des participants (Miles et Huberman, 1994). En ordonnant divers éléments, les matrices ordonnées permettent d’analyser comparativement les données relatives à différentes rôles, ou d’étudier le comportement de plusieurs variables-clés selon différents sites ou selon les rôles et fonctions des acteurs impliqués. Les matrices ordonnées selon le degré d’intensité d’une variable résultat permettent de présenter toutes les variables qui semblent jouer un rôle dans la fluctuation de l’intensité de la variable d’intérêt. 219

Tableau : Matrice par rôle pour l’évaluation d’une plateforme d’apprentissage virtuel ACTEURS/RÔL ES

Traits saillant s

Connaissan ce du projet

Implicatio n dans le projet

Point de vue et attente s

Effets bénéfiqu es du projet

Effets négatif s du projet

Responsable du projet Les professeurs Les apprenants encore aux études Les apprenants travailleurs L’équipe de support technique

Tableau : Matrice ordonnée selon le degré d’intensité d’une variable-résultat découlant de l’utilisation d’une plateforme d’apprentissage virtuel

IMPACT DE LA FORMATION SUR LES APPRENANT S

Engageme nt des apprenants

Facilité d’utilisatio n de la plateforme

Soutien techniqu e

Pertinence de la formation avec les activités professionnell es des apprenants

Concordanc e de la formation avec les intérêts personnels des apprenants

Inexistant Faible Modéré Élevé

5. La connection des données L’étape suivante de l’analyse consiste à dégager un schéma interprétable à partir des données. Au fur et à mesure que les catégories émergent et qu’elles sont visualisées, le chercheur tente donc d’établir des connections entre elles, de les intégrer dans un modèle explicatif cohérent et de dégager 220

les significations que revêtent ces différentes connections pour la question de recherche. L’analyse dépasse la simple sommation des données. Elle révèle tout ce qui n’est pas apparent. Aussi, le chercheur confronte les données, associe les catégories et observe les interactions entre elles. Il examine ainsi les schémas qui ressortent de ces activités et construit graduellement une image intelligible, cohérente et articulée de l’ensemble de données. Pour ce faire, l’analyse peut prendre une forme quelque peu arithmétique ou une forme structurale; mais il existe différentes façons d’établir des connections entre les catégories émergeant au fil de l’analyse, chacune dépendant de l’approche analytique adoptée (Miles et Huberman, 1994; Barker et coll., 2002). L’analyse arithmétique se rapproche de l’analyse quantitative. Elle se penche sur l’agrégation des données et se base sur des opérations de décompte et de comparaison de fréquences, d’intensités, de cooccurrence, de co-variations. Par exemple, noter que certains éléments apparaissent toujours ensemble, que d’autres apparaissent souvent ensemble dans des circonstances similaires, qu’un élément précède toujours un autre, qu’un élément B change lorsque un élément D change, qu’un élément A est plus souvent associé avec un élément B qu’avec un élément C, etc. L’analyse structurale est plus inductive. Elle se penche sur la structure générale des données et s’attache à reconnaitre des schémas significatifs et cohérents. Elle dégage ainsi des thèmes, des typologies, des stratégies, des significations interprétées, des analogies de structure ou infère des relations structurelles entre les catégories de variables.

6. L’interprétation des résultats Une fois l’analyse effectuée, il importe de donner un sens aux résultats de l’analyse. L’interprétation reprend les schémas significatifs mis en évidence lors de l’analyse, puis en évalue la plausibilité. Elle résume ensuite ces résultats de manière intégrative et (encore une fois) en fonction de l’approche analytique privilégiée. Cette intégration de résultats peut prendre la forme de : -

résumés condensés,

-

tables de contingence montrant la cooccurrence des valeurs de deux variables,

-

graphiques typologiques mettant en valeur des types d’acteurs (ou de résultats, de cas, de phénomènes, etc.) en fonction de quelques variables,

-

matrices prédicteurs-résultats indiquant les résultats probables (ou possibles) découlant de combinaisons déterminées de circonstances,

221

-

matrices des antécédents résumant pour de nombreux sites d’observation, les variables intervenant dans la fluctuation d’une variable-résultat,

-

modèles de causalité représentant, sous forme de réseaux, les structures causales impliquant un phénomène,

-

diagrammes de flux recoupant le plus de variables communes à de multiples sites d’observation. (Miles et Huberman, 1994; Barker et coll., 2002)

-

etc.

Les résultats sont ensuite mis en rapport avec les questions de recherche et avec les concepts théoriques impliqués par celles-ci. Tout manque de congruence est relevé, une explication proposée et/ou des variables intervenantes recherchées. Le chercheur assemble alors ses résultats au niveau théorique. Il formule ainsi des explications abstraites plus ou moins générales intégrant ces résultats particuliers. Ces explications sont articulées en un système cohérent afin de répondre aux questions de recherche et généralisées dans la mesure du possible. La limite de chaque inférence (ou interprétation abstraite) faite à partir des données doit être testée en cherchant activement des cas déviants ou extrêmes et en effectuant des comparaisons. En outre, si un cas ne colle pas avec les explications élaborées, il importe d’examiner soigneusement le cas en question afin d’affiner l’explication et éventuellement de réviser le modèle explicatif. De façon générale, l’analyse qualitative ne permet pas d’exprimer des probabilités, mais plutôt les potentialités d’un système, c’est-à-dire ce qu’un système peut faire (les actions possibles ou probables), le type de produit auquel on peut s’attendre, ce qui est possible au vu des circonstances (conditions nécessaires, conditions suffisantes, etc.) (Schneider, 2006).

7. La place de la fiabilité et de la validité dans l’analyse qualitative Les principaux dangers de l’analyse qualitative sont le biais de confirmation, autrement dit la tendance à ignorer les données et/ou les résultats qui ne cadrent pas avec le modèle explicatif élaboré, l’aveuglement du chercheur en raison d’une trop grande implication dans le contexte de l’étude et une sursimplification des données collectées. Les chercheurs peuvent ainsi être amenés à favoriser des données atypiques en perdant de vue la perspective globale des données, ou encore à oublier certains aspects. Par ailleurs, la masse de données générées lors de la collecte peut facilement devenir une source de confusion et bloquer le chercheur dans son argumentation. Aussi, plusieurs critères ont été mis en place pour évaluer la crédibilité de l’analyse et pour assurer que les différentes opérations analytiques ne soient pas entachées de biais dus à la subjectivité du chercheur et/ou des données. Il a 222

ainsi été largement recommandé que les chercheurs adoptent des procédures de triangulation des chercheurs lors du codage des données (Miles et Huberman, 1994). La fiabilité du codage est alors évaluée par le rapport entre le nombre de concordances de codes attribués aux données par les différents codeurs et le nombre total de codes attribués. Fiabilité du codage =

nombre de concordances total concordances et discordances

D’autres techniques de triangulation permettent également d’accroitre la crédibilité des résultats, notamment la triangulation des techniques de collectes de données et la triangulation des sources d’information. Tout au long de l’analyse, il importe que le chercheur veille à la cohérence et à l’articulation des différentes opérations analytiques. Il s’assure que son analyse soit aussi systématique que possible au moyen (par exemple) : — de l’adoption d’une approche théorique guidant l’ensemble du

processus, — du recours systématique au livre des codes pour toute opération de

codage, du test des explications alternatives, de l’examen méticuleux des cas déviants, de réplications ou un contrôle de l’analyse d’une corroboration des résultats par les intervenants, ou par une validation avec des techniques d’analyse quantitative, — etc.

— — — —

Le chercheur s’assure également que son analyse mette réellement en lumière le phénomène d’intérêt, et qu’elle apporte une réponse scientifique et minutieuse à la question de recherche. Il doit également évaluer l’impact qu’il a pu avoir sur la subjectivité des résultats. Ces différents aspects lui permettront d’estimer la validité interne de son analyse. Celle-ci doit donc être : -

Plausible au vu de l’état des connaissances actuelles sur le domaine étudié Crédible du point de vue des méthodes utilisées Logiquement articulée, le lien entre les données étant soigneusement démontré Fiable c’est-à-dire non transformée significativement par la subjectivité du chercheur (ou par son interactivité avec le contexte à l’étude) et basée sur des sources d’information crédibles 223

-

Éventuellement corroborée par d’autres techniques d’analyse ou par les intervenants.

À la fin de son analyse, il convient que le chercheur indique les zones d’ombres ou les ambiguïtés qui subsistent et qu’il s’interroge sur la représentativité de son étude. À ce niveau, la comparaison des résultats avec ceux d’études similaires ou plus large peut s’avérer fort utile.

8. Conclusion La recherche qualitative prend de l’importance et se taille une place de choix dans l’étude des phénomènes sociologiques. En effet, alors que certains aspects de ces phénomènes sont aisément quantifiables, de nombreux aspects des phénomènes sociologiques sont conçus autour d’un monde interne de comportements, d’émotions, de sentiments, de pensées, de valeurs morales et culturelles, de préjugés ou d’idées impossibles à caractériser par des chiffres. Ces variables difficilement contrôlables et ces réalités abstraites ou subjectives non analysables par les méthodes quantitatives nécessite donc l’établissement d’un cadre analytique qualitatif. Compte tenu de la densité des descriptions auxquelles elles font appel lors de la collecte des données, les recherches qualitatives, même celles ne portant que sur un échantillon de petite taille, génèrent de vastes quantités non structurées de données à traiter. Cette abondance requiert une analyse structurée et systématique permettant de rendre l’information accessible aux lecteurs. Les données des enquêtes qualitatives ne peuvent se contenter de méthodologies traditionnelles d’analyse globale des données. C’est grâce à des méthodes novatrices et adaptées pour la réduction des données, ainsi que pour l’association, l’intégration, l’interprétation et la réinterprétation de segments significatifs de données que les résultats prennent tout leur sens. Il n’existe toutefois pas de procédure analytique standardisée pour l’analyse des données qualitatives. Différentes techniques analytiques sont produites par chaque chercheur en fonction de la nature de sa recherche et des finalités qu’il s’est posées. Bien que les orientations qualitatives emploient différentes approches analytiques, quelques principes généraux peuvent être soulignés. L’analyse nécessite une préparation et une organisation des données impliquant généralement une transcription. L’analyse en elle-même implique des processus inter-reliés : déstructurer les données en segments significatifs et en identifier le sens; grouper les données dans des catégories; les intégrer dans un ensemble de thèmes ou les assembler en un modèle explicatif cohérent. Une fois ce modèle conçu, le chercheur interprète les résultats de son analyse en évaluant le sens de ces résultats et leurs implications tant scientifiques que professionnelles. En l’absence d’un standard de recherche communément accepté, chaque chercheur doit être attentif à la fiabilité de son analyse et en évaluer les forces et faiblesses. Il doit également inclure dans sa recherche les mesures de validité de sa démarche, afin de rendre crédible son cheminement de recherche ainsi que les résultats auxquels il est parvenu. 224

Chapitre 10 Présentation d’une recherche et considérations sur la gestion d’un projet de recherche

1. Le compte rendu de la recherche Une fois la recherche terminée, le chercheur rédige un compte rendu qui décrit son travail de recherche. Il ne s’agit pas d’un récit de l’évolution de la recherche, des hésitations rencontrées dans le choix du sujet ou de la question principale, des hypothèses qui se sont révélées fausses, des difficultés à les vérifier, etc. Le compte rendu est plutôt un exposé de la démarche et des résultats obtenus, suivi d’une argumentation détaillée sur leur portée et apportant une réponse scientifique cohérente à la question de recherche. En fonction de l’audience envisagée, le compte rendu de la recherche peut prendre la forme d’un mémoire, d’une thèse, d’un rapport professionnel, d’une communication ou d’un d’article scientifique. De façon très simpliste, le compte rendu comporte une introduction retraçant les objectifs et le plan du compte rendu et indiquant les motivations, l’idée centrale et le contexte de l’étude. Elle est suivie d’un corps de développement qui présente la démarche de recherche et qui formule, en une argumentation cohérente ancrée sur des exemples empiriques, les idées importantes ressortant de la recherche. Enfin le compte rendu s’achève sur une conclusion qui résume et délimite la portée des résultats de la recherche et qui ouvre de nouvelles perspectives pour des recherches futures ou pour la pratique disciplinaire. En pratique cependant, la structure du compte rendu est fonction du type de document conçu. Elle s’établit selon différents critères méthodologiques et didactiques.

1.1. Le mémoire ou la thèse de fin d’études Lorsque la recherche est menée par un étudiant dans le cadre de ses études, elle s’achève par la rédaction d’un mémoire ou d’une thèse de fin d’études. Plusieurs critères s’appliquent à la rédaction et à la mise en forme du mémoire (ou de la thèse). Ils dépendent du programme de recherche de l’étudiant. Les éléments principaux compris dans un mémoire sont présentés dans le tableau ci-après : Tableau : Éléments principaux d’un mémoire ou d’une thèse de fin d’étude Titre

FONCTION PRINCIPALE Informer le lecteur sur le contenu du texte

225

DESCRIPTION Il doit exprimer à la fois le sujet du mémoire et la question défendue. Une solution simple consiste à donner un titre pour le sujet et un sous-titre pour la question principale ou la thèse.

Préface

Présentation des dispositions personnelles en rapport avec la recherche

Table des matières

Présenter le plan du compte rendu et indiquer le flux de l’argumentation

Résumé

Présente succinctement l’ensemble du contenu de l’ouvrage

Introduction

Présenter : • le sujet du mémoire et ses limites, • les raisons qui expliquent le choix du sujet : actualités, enjeux, etc., • un premier et bref état de la réflexion sur le sujet, • les hypothèses qui seront testées • le plan du mémoire

226

La préface ne fait pas partie du travail de recherche On peut l’utiliser pour remercier des gens, expliquer les raisons de l’intérêt pour la thématique, explique le contexte de la recherche, etc. Obligatoire pour un tout travail d’une certaine longueur. Pour qu'un plan soit cohérent, chaque niveau de titre doit pouvoir se lire de façon logique, par exemple, en lisant successivement les titres des parties, on doit comprendre le raisonnement d'ensemble suivi Dans certains ouvrages on retrouve parfois plusieurs tables, (ex. un court sommaire indiquant la structure et une table plus détaillée des sections et sous-sections). En outre on peut également retrouver une table des illustrations et une table des tableaux Souvent obligatoire pour les articles qui paraissent dans une revue Pour un travail de séminaire ou un mémoire de licence/diplôme on peut l’inclure dans l’introduction (et la conclusion) L’introduction est (avec la conclusion) la partie la plus importante du travail sur le plan rhétorique. En règle générale, l’introduction contient une présentation de la problématique de recherche, des questions de recherche qui en découlent et des hypothèses de recherche qui y sont apportées. Elle présente également les limites de la recherche (ce qu’elle fait et ne fait pas). Elle comprend aussi une discussion sur la pertinence et sur la portée du travail Elle présente les définitions les plus importantes (notamment celles des concepts compris dans le titre du mémoire) et le langage qui sera

Partie principale

Conclusion

Indexe

Discuter de la littérature et faire état des connaissances actuelles sur le sujet; se confronter au savoir existant dans le domaine et aux études empiriques antérieures Détailler la démarche de recherche (instrumentation, méthode d’échantillonnage, de collecte des données, d’analyse) et argumenter Discuter et analyser les données Mettre en rapport résultats et questions/hypothèses de recherche Mettre en rapport les résultats à ceux d’autres études empiriques ou avec les connaissances théoriques Rappeler et résumer les principaux résultats obtenus et indiquer dans quelle mesure l’hypothèse a été validée ou infirmée Ouvrir des perspectives nouvelles : – recherches complémentaires nécessaires ou possibles, – interrogations sur le devenir de la question traitée, – généralisations probables Permettent à un lecteur pressé de mieux naviguer

227

utilisé tout au long de l’ouvrage. Elle présente un aperçu de l’objet d’étude L’introduction peut également comprendre une discussion de la méthodologie employée (notamment des paradigmes adoptés), et un guide de lecture aidant le lecteur à comprendre l’articulation de la partie principale Il existe énormément de façon d’organiser la partie principale. Cela dépend fortement de l’approche méthodologique. Plusieurs mémoires modernes comprennent une revue de la littérature suivie d’une insertion d’articles publiés au cours du processus de recherche (ou à paraitre), et d’une discussion générale. D’autres organisent leur partie principale en une section théorique consistant en une revue de la littérature, suivie d’une section méthodologique détaillant la démarche adoptée, d’une section résultats présentant les données, d’une section interprétation et enfin d’une discussion. Elle achève le compte rendu en discutant de la portée des résultats à plusieurs niveaux : • leur validité, • les questions non résolues (et pourquoi), • les ambiguïtés persistantes • la généralisation des résultats, • le besoin de travaux empiriques supplémentaires pour confirmer les résultats Elle discute de l’utilité pratique du travail et formule de nouvelles questions. Indexes d’auteurs et de concepts Utile (mais pas obligatoire) surtout

Bibliographie

Annexes

rapidement dans l’ouvrage pour trouver un passage traitant d’un concept donné Liste les sources documentaires utilisées lors de la rédaction

Présenter des informations trop longues pour être citées dans la partie principale sans la déséquilibrer mais qui méritent une lecture intégrale

lorsqu’il s’agit d’un travail important sur le plan théorique. Elle contient l’ensemble des textes scientifiques ou autres auxquels il a été fait référence. Elle respecte une certaine norme de présentation (à la discrétion du chercheur mais il importe de rester cohérent) Il convient d’éviter de les surcharger et de n’y insérer que des documents exemplaires, qui ne sont pas vitaux pour la compréhension mais dont la lecture peut être enrichissante.

1.2. Le rapport professionnel Un rapport est un texte de nature professionnelle commandé, par une entreprise ou un organisme, pour la vie professionnelle mais aussi requis pour la formation préparatoire à l’accomplissement des tâches de plusieurs métiers et professions. Dans presque tous les secteurs d’activité, on peut être amené à analyser une situation afin de favoriser une prise de décision. Le rapport constitue alors un texte essentiellement informatif, sollicité pour prendre une décision rapide sur un sujet précis. Il concerne donc une question précise; il présente des faits et des réflexions pour qu’une décision éclairée puisse être prise sur la question soulevée (Tremblay et Perrier, 2006). Les principales qualités d’un bon rapport sont l’objectivité et la concision. Généralement, un rapport est adressé à des décideurs, il a pour objet de les informer de certains faits ou de certaines situations requérant leur attention. Il leur donne les éléments requis pour porter un jugement ou prendre une décision dans ce contexte ou formule une recommandation, un avis professionnel. L’information de base doit être exposée clairement et complètement, sans digression ni considérations inutiles. La longueur d’un rapport professionnel varie selon la nature du problème étudié.

228

Tableau : Canevas d’un rapport professionnel Page de titre Titre du rapport Objet du rapport Auteur du rapport Destinataire du rapport Organisme (numéro de dossier s’il y a lieu) Date Table des matières (Cet élément est important, car les lecteurs doivent pouvoir se référer aisément à n’importe quel élément du rapport et retrouver facilement toute information pertinente.) Présentation détaillée du contenu du rapport Liste des tableaux Liste des annexes Introduction (L’introduction doit présenter les raisons pour lesquelles le rapport a été commandé et la problématique dont il traite) Exposé de l’objet du rapport Méthodes utilisées pour établir le rapport Division du sujet Développement (Le développement présente d’abord les circonstances et les faits concernés. Vient ensuite leur analyse. Tout rapport doit être divisé en autant de parties que nécessaire. Chaque partie doit être clairement numérotée et avoir un titre, de manière à ce qu’on puisse dresser une table des matières complète et détaillée) Première partie : exposé des faits et de la situation Deuxième partie : analyse de la situation Conclusion (C’est en conclusion qu’interviennent les recommandations et les raisons qui les justifient) Éléments requis pour prendre une décision Recommandations et justifications des recommandations Signature Annexes numérotées (Si la compréhension du rapport nécessite qu’on fournisse certains documents, ils seront placés en annexe) Tout document nécessaire à la compréhension du rapport

1.3. Les articles scientifiques Il convient d’envisager la publication de la recherche sous forme d’articles scientifiques accessibles à une large communauté de chercheur. Pour soumettre un article, il importe d’identifier la(les) revue(s) professionnelle(s) appropriées à la diffusion du sujet abordé. Il est également nécessaire d’en savoir plus sur les exigences ou critères (en termes de forme et de fond) émis par la revue envisagée. Ces exigences déterminent le matériel qui sera inclut 229

dans l’article. Il s’agit ensuite de rédiger celui-ci. De façon générale, les articles scientifiques adoptent le modèle présenté au tableau. Tableau : Canevas d’un article scientifique Titre de l’article Auteur(s) de l’article Résumé Introduction (Le chercheur y formule un problème de recherche ou une question de recherche après en avoir justifié la pertinence scientifique). Cadre théorique/recension des écrits Définition des concepts utilisés dans la question de recherche Recension des écrits apportant des réponses ou des éléments de réponses à la question de recherche Synthèse de ces réponses, permettant d’en voir les limites Objectif spécifique, pouvant prendre la forme d’une hypothèse de recherche Méthodologie Caractéristiques des observations et de l’échantillon retenus Critères de sélection Instrumentation Déroulement de la collecte des données Méthode d’analyse des données Considérations éthiques Résultats (Le chercheur expose les résultats qu’il a obtenus et porte un jugement quant à l’atteinte de l’objectif spécifique de la recherche) Discussion (Le chercheur comparer les résultats obtenus à ceux des recherches antérieures déjà présentés dans le cadre théorique, dans la section consacrée à la recension des écrits) Conclusion

Une fois l’article rédigé, il est soumis à la revue pour évaluation. S’il rencontre les exigences de la revue, il est expédié à un comité de réviseurs (inconnus du chercheur). Sur la base de leurs évaluations, l’éditeur de la revue peut immédiatement accepter l’article, l’accepter sous réserve de modifications spécifiques, demander une révision et une soumission ultérieure ou le rejeter.

1.4. La vulgarisation supplémentaire des résultats de recherche Idéalement, un travail de recherche doit servir à quelque chose. Aussi, en dehors de la publication et du compte rendu de ses travaux à qui de droit, le chercheur peut faire la promotion des résultats de ses recherches dans le cadre de congrès ou de séminaires (s’il n’est lié par aucune clause de confidentialité l’en empêchant), auprès de décideurs politiques ou de 230

manageurs. Il peut également faire la vulgarisation de ces travaux dans des magazines ou médias plus accessibles à un large public

2. L’évaluation d’un compte rendu de recherche Plusieurs critères s’appliquent à l’évaluation (ou l’appréciation) du compte rendu d’une recherche. Certains sont spécifiques aux approches et aux formes de recherches adoptées, d’autres s’appliquent à toutes les formes de recherche. Ces derniers concernent (Barker et coll. 2002): •

Le travail préparatoire : — La première question considère la pertinence du sujet de la

recherche, son originalité et son utilité potentielle pour le développement de la connaissance scientifique ou pour la pratique. — Il importe aussi de considérer si la revue de la littérature est

pertinente et d’actualité. Elle doit couvrir les enjeux empiriques, méthodologiques et théoriques qui s’appliquent au contexte de l’étude. — •

Enfin, il convient de s’assurer de l’articulation logique du plan de recherche.

Les mesures : — Les principaux construits de la recherche doivent être mesurés de

façon appropriée. — Les méthodes de mesures choisies doivent pouvoir capturer les

variables d’intérêt et s’appliquer à l’approfondissement des questions de recherche. — Il importe également que les différentes méthodes employées

s’inscrivent dans la lignée de l’orientation théorique adoptée par le chercheur. De surcroit elles doivent posséder une fiabilité et une validité acceptable. •

Le design de la recherche — Dans son compte rendu, le chercheur s’assure de fournir

suffisamment de détails sur la procédure qu’il a appliqué, afin que le lecteur soit capable de comprendre la démarche et si nécessaire de la reproduire. — Lors de l’évaluation du design, il convient de s’assurer que la

démarche est appropriée aux questions de recherche, et que ses différents éléments (procédure d’échantillonnage, taille et composition de l’échantillon, etc.) cadrent bien avec les questions 231

de recherche, avec les standards déontologiques et éthiques, et permettent une analyse pertinente des données. — Il faut également une juste évaluation de l'aptitude des techniques

et instruments employée, à effectuer les lectures nécessaires pour apporter la réponse la plus compréhensive possible à la question de recherche. •

L’analyse — À ce niveau, il convient de s’assurer que l’analyse adresse chacune

des questions de recherche. — Les données doivent être présentées clairement et de façon

cohérente. — Dans les études quantitatives, il importe que les techniques de

réduction de données et les tests statistiques soient appliqués correctement. Dans celles qualitatives, toute inférence doit être ancrée dans des exemples et supportée par des données fiables, et la crédibilité de l’analyse certifiée par des mesures de fiabilité et de validité. •

L’interprétation — L’interprétation est effectuée dans le contexte des questions de

recherche et dans la lignée de l’orientation théorique ayant guidé la recherche. — Toute interprétation doit être supportée par les données et les

explications alternatives, considérées. — Il importe également d’être attentif à la possible généralisation des

résultats, aux forces et aux faiblesses de l’étude, et aux implications scientifiques et professionnelles des résultats. •

La présentation — Le compte rendu doit être lisible, compréhensible et le langage

utilisé, approprié. Sa longueur doit convenir au contenu présenté. Il est important de noter que tous ces critères ne s’appliquent pas forcément tous à une recherche donnée, et que chacun de ces critères ne revêt pas toujours la même importance (Barker et coll., 2002). En effet dans certains cas, le caractère innovateur de la recherche peut excuser certains écarts. Par ailleurs, les faiblesses de quelques aspects peuvent être compensées par la rigueur retrouvée dans d’autres aspects. Il convient donc de garder une perspective globale du travail.

232

3. Un aperçu sur la gestion d’un projet de recherche Établir un plan de gestion du projet de recherche n’est pas obligatoire, mais peut s’avérer fort utile lorsque le chercheur dispose d’un budget et d’un temps limités. La gestion des projets de recherche implique la planification de la recherche. Celle-ci nécessite un découpage du projet en tâches à réaliser (ex. design, collecte des données, analyse, etc.) et une estimation de la logistique requise pour chacune de ces tâches. Le chercheur agence ensuite les tâches, identifie les tâches critiques, celles à réaliser en parallèle, et le produit attendu de chacune d’elles. Il établit alors un échéancier pour sa recherche. Deux types de diagrammes peuvent l’aider dans cette activité (Schneider, 2006) : -

Les diagrammes d’activités : ils permettent de mieux estimer le temps et de planifier les activités, mais ils servent également au suivi régulier du statut du projet. Le graphique 10.1 en présente un exemple

-

Les diagrammes en barres illustrant le déroulement du projet. Un bon échéancier accorde une place aux imprévus et aux ratés. L’échéancier est réévalué régulièrement au fil de la progression de la recherche. Il sert à comparer le plan à la réalité de la mise en œuvre de la recherche, à identifier les causes perturbant le déroulement de la recherche et à contrôler l’avancée du projet.

4. Conclusion Le compte rendu peut sembler être une tâche titanesque. Cette phase ardue de la réalisation d’un document scientifique, consiste à orchestrer un matériel toujours trop abondant et foisonnant. Alors que la recherche documentaire et la réflexion visaient à élargir les horizons, il faut maintenant faire des choix et converger vers un texte cohérent. Pour simplifier l’élaboration du compte rendu, il est accommodant de débuter la rédaction tôt dans le processus de la recherche, parallèlement à la revue de la littérature et la collecte des données, avec l’introduction et la section méthodologique. Ces sections seront révisées ou précisées au fil du processus. Tout au long de la rédaction, il est important de garder à l’esprit les critiques éventuelles qui pourraient être apportées à la lecture du compte rendu. Aussi, il fait attention à fournir tous les éléments théoriques et pratiques, ainsi que les perspectives et les règles qu’il a suivi et qui permettrait aux analystes d’affirmer qu’on est en droit de tirer les conclusions ou théories tirées de la recherche, si l’on se trouvait dans le même contexte que le chercheur. Il certifie ainsi la reproductibilité de ses analyses.

233

« Another way of explaining reproducibility is as follows: Given the theoretical perspective of the original researcher and following the same general rules for data collection and analysis, plus similar conditions, another investigator should be able to arrive at the same general scheme. The discrepancies that arise should be resolvable through re- examining the data and identifying special conditions operating in each case. » (Corbin et Strauss, 1990: p. 15) En outre, afin de profiter des remarques avisées de professionnels de la recherche et/ou d’experts dans le domaine investigué, il est judicieux d’obtenir les critiques de collègues sur une première version ou un extrait du compte rendu. Le style d’écriture varie d’un individu à l’autre. Il convient cependant de demeurer simple, clair et lisible. Le lecteur doit comprendre avant tout, les objectifs, les frontières de l’étude, les résultats, la démarche (y compris l’analyse), la portée des résultats, les forces et faiblesses de l’étude. Le compte rendu reflète de façon concise l’ensemble de la recherche et son évolution. Afin de la mener à son terme et d’évaluer régulièrement ses progrès, le chercheur peut recourir à un plan de gestion de la recherche. Celui-ci lui permet à intervalle régulier de poser un regard critique sur l’avancée de son travail et lui permet d’envisager l’ensemble des dispositions et des ressources dont il a besoin pour poursuivre son travail d’investigation.

234

Conclusion générale

Ce livre consiste en fait en une présentation synthétique des méthodologies de recherche en gestion appliquée adaptables aux objets spécifiques de chaque projet de recherche. Il a été établi en vue de faciliter le positionnement d’un chercheur ou d’un évaluateur vis-à-vis de la démarche méthodologique. La recherche est au service de la science. Mais que cette dernière soit conçue comme une institution; comme une idéologie; comme une activité systématique centrée sur la réalité et permettant d’une part de produire un ensemble cohérent de connaissances sur des événements ou des conditions spécifiques, d’autre part de formuler des lois basées sur ces connaissances; ou encore comme la connaissance (ou l’ensemble des informations) démonstrative acquise au moyen de cette activité il n’existe pas de définitions qui englobent toutes ses dimensions et qui rendent comptent du la complexité de la science. On reconnait plutôt l’existence des sciences, c’est-à-dire des disciplines ou des branches spécifiques du savoir, structurées autour de l’étude d’un objet précis, soutenue par une pratique de recherche déterminée. Les différentes pratiques de recherche sont nées d’un besoin inné de l’humain de comprendre et maitriser son environnement. Leur expansion a favorisé l’émergence de différentes disciplines en gestion appliquée (ex. l’anthropologie, la géographie, la démographie, la psychologie ou la linguistique) et a des répercussions sur l’ensemble des aspects sociaux : l’éducation, la famille et la santé, l’immigration, l’environnement, l’éthique, la prospérité économique ainsi que l’étude de l’histoire et des civilisations. Face à la multitude de pratiques de recherche existant aujourd’hui et face aux exigences des sciences qu’elles servent, un enjeu central pour les chercheurs est de choisir la pratique approprié, autrement dit le plan de recherche ou la forme d’investigation qui se prête le mieux à l’étude des questions qu’il se propose de résoudre et au champ d’investigation qui l’intéresse. Chaque forme d’investigation requiert une planification et une structuration attentives. Une planification nécessaire Préparer un projet de recherche revient souvent à se lancer avec enthousiasme et optimisme dans une aventure parsemée de dangers, de risque, de désillusions. Plus les chercheurs (en gestion appliquée) savent sur le processus et les méthodes de recherche, mieux ils sont préparés à 235

reconnaitre les problèmes ou les failles qui seront soulevés lors de la recherche et à mener cette aventure à son terme. C’est dans cette perspective que le présent livre s’est proposé de fournir les outils conceptuels requis pour mieux appréhender le processus de recherche, en vue soit de mener une recherche bien construite, soit d’en exploiter judicieusement le contenu. Préparer une recherche, c’est d’abord répondre à une série de questions afin de vérifier que l’on possède bien à la fois la préparation et la motivation nécessaires pour aller jusqu’au bout. C’est ensuite réfléchir aux différentes étapes de la recherche. La recherche en elle-même nécessite un ordre logique et chronologique des étapes, mais cet ordre bien qu'existant est théorique - la réalité est plus complexe : chaque étape redéfinit l'autre et vice versa. Loin d’être rigides, les différentes étapes sont donc en interaction constante, ce qui suppose de nombreux retours en arrière et de nombreuses boucles rétrospectives. Néanmoins une bonne réflexion préalable aide à conceptualiser les enjeux importants à considérer dans la construction de la recherche : ƒ

La définition claire des objectifs et questions de recherche

ƒ

Le choix des hypothèses (le cas échéant)

ƒ

Le choix des délimitations de la recherche

ƒ

Le choix de l’approche -

Paradigme

-

Approche méthodologique

ƒ

Bilan théorique / exploration de la littérature

ƒ

Définition du cadre conceptuel et d’analyse

ƒ

Les techniques de récolte des données

ƒ

Les techniques d’analyse de données

Ces éléments font référence au cadre théorique, au modèle opératoire et à la méthodologie que le chercheur se propose de mettre en œuvre. Le cadre théorique et le modèle opératoire l’orientent vers des champs d'observation, tandis que la méthodologie précise le genre de démarches pratiques qui devront être effectuées pour que ces observations nécessaires soient entreprises. Une telle réflexion préalable assure au chercheur qu’il a bien explicité ces ambitions de recherche, qu’il dispose d’un cadre d’analyse pertinent à l’investigation du phénomène. Elle lui sert également à montrer comment il envisage de répondre aux questions, à vérifier la solidité de son plan et sa faisabilité. La structuration méthodologique de la recherche 236

Dans le cadre de ce livre nous avons considéré l’application des approches quantitatives et qualitatives à la méthodologie de recherche. Nous avons approfondi trois types de recherches : celles pilotées par la théorie, celles visant à créer une nouvelle théorie, et les recherches de type design. Alors que les deux premières sont principalement réalisées dans les universités et centres académiques, le dernier type de recherche prend surtout place dans les sections recherche et développement de différentes compagnies. En adoptant des modèles de recherche plus ou moins similaires à ceux des sciences naturelles, les recherches basées sur une approche quantitative tentent généralement de valider une théorie de façon objective. Elles s’attachent à trouver des relations de causes à effets, à prouver la force d’une association et emploie des techniques d’investigation qui produisent des données systématiques analysables rigoureusement par des outils statistiques. Quant aux méthodes de recherche qualitative, elles sont conçues de façon à relever un phénomène tel qu’il émerge de l’observation ou de ce que les participants à la recherche en disent. Elles sont appliquées pour assurer une correspondance étroite entre les données et ce que les participants disent ou font réellement. Le principal avantage des recherches qualitatives est qu’elles permettent de concevoir la réalité du point de vue de ceux qui la vivent quotidiennement, et de façon globale, comme un ensemble de facteurs interdépendants. Néanmoins, elles sont peu standardisées et généralement non reproductibles. En outre, elles comportent des failles et offrent des libertés qui, si elles ne sont pas contrôlées, peuvent nuire à la rigueur et à l’objectivité de la recherche. En conséquence, les mesures de fiabilité et de validité prennent toute leur importance, pour assurer la crédibilité de la recherche, pour l’évaluer, et pour permettre l’exploitation et la compréhension de ses résultats. Bien que la recherche quantitative soit un peu plus standardisée que celle qualitative, et plus facilement reproductible, elle n’est pas exempt des confusions, et les mesures de validité et de fidélité des construits et des données sont tout aussi importantes qu’en recherche qualitative. Les différentes formes de recherches empiriques qui découlent de ces approches illustrent le pluralisme méthodologique propre à la recherche. Il n’existe pas une méthode unique de recherche supérieure à toutes les autres. Toutes les méthodes ont leurs avantages et inconvénients respectifs. Ce qui importe est que la méthode de recherche soit appropriée à l’étude des questions soulevées et qu’elle soit appliquée en respectant les principes et les règles méthodologiques qui prévalent dans le contexte de l’étude. En effet, un choix méthodologique avisé est nécessaire pour éviter de tirer des conclusions qui ne sont pas supportées par les données. Si la méthodologie ne se prête pas aux finalités de la recherche et au contexte, les résultats obtenus, pour si intéressants ou conformes à la réalité qu’ils soient, ne sauraient être considérés comme valides. 237

De par leur nature dynamique, globale et interactionnelle, les phénomènes sociologiques doivent être abordés au moyen d’une approche systémique. Il est généralement avantageux de combiner plusieurs méthodes de recherche quantitative et qualitative pour saisir avec rigueur les comportements et phénomènes étudiés, dans toute leur richesse et leurs nuances. L’envers de la médaille La recherche scientifique est regardée comme l’un des principaux véhicules contemporains de la connaissance et comme un chemin privilégié vers l’innovation. Les projets de recherche ont en commun de devoir être des contributions originales. Compte tenu de son importance pour le développement scientifique, de nombreux gouvernements, instituts ou réseaux octroient des subventions importantes à certaines universités afin d’engager plus de facultés, de professionnels et d’étudiants dans la recherche académique. Cette pratique a été institutionnalisée dans de nombreux pays, comme aux États-Unis d’Amérique par exemple, avec la création en 1950 de la National Science Foundation (NSF). La législation à l’origine de la NSF prévoyait un contrat social selon lequel le gouvernement subventionnerait les scientifiques afin qu’ils s’engagent dans des recherches de leur choix et qu’ils contribuent à produire en retour des connaissances dont bénéficierait l’ensemble de la société en terme de sécurité militaire, de santé publique et de prospérité économique (Dennings, 1997). Après des années de subventions, les universités et centres académiques sont devenus des pôles incontournables de la recherche scientifique et font de la recherche scientifique une pièce-maitresse de leur identité publique. Malgré ce succès, quelques problèmes ternissent l’image de la recherche scientifique et remettent en question les sommes colossales engrangées dans le développement de la recherche. Le premier est la nécessité de publication : le phénomène du ‘publier ou périr’. Ce phénomène reflétant la pression et les exigences académiques en matière de publication. Afin de conserver une bonne réputation et de continuer à recevoir des subventions, les chercheurs juniors sont entrainés dans une frénésie massive à publier rapidement des articles dans les revues les plus prestigieuses du moment, une habitude qui persistera le restant de leurs activités professionnelles (Dennings, 1997). La plupart de ces recherches sont médiocres et sans conséquences (Dennings, 1997). « About 2 million scholarly papers in science and engineering are published each year by 72,000 journals; the vast majority of these papers are read by a few hundred people at most; in most disciplines well over half the papers are never cited by another author. The “publish or perish” syndrome has devalued the original purpose of research in the university education. » (Dennings, 1997; p. 133) 238

Un autre problème, relié au précèdent, est l’exigence de résultats. Le processus de la découverte est loin d’être linéaire. Il est imprégné de retour en arrière, d’erreurs, d’essais vains, de perturbations multiples. L’exigence de résultats pousse alors les chercheurs à escamoter la recherche ou à modifier leurs résultats pour les rendre plus significatifs. Mais malgré les nombreuses difficultés rencontrées lors du processus, l’activité de recherche en est une gratifiante marquée par d’inévaluables moments de compréhension et d’accomplissement, et qui gagne considérablement à être bien connue. De ce fait, ce livre est destiné au large public s’intéressant aux outils de recherche surtout en administration publique, gestion et science politique. En effet, les étudiants, chercheurs, enseignants et fonctionnaires apprécieront la présentation claire des fondamentaux en la matière, ainsi que la façon dont j’établis l’utilité contemporaine des concepts de recherche en science sociale en générale. Par ailleurs, toute personne désireuse d’améliorer son approche personnel de la rédaction et ou de l’analyse des rapports scientifiques et gouvernementaux trouvera dans mon livre de réelles opportunités de développement personnel car la lecture est très largement facilitée par un style synthétique, n’hésitant pas à donner vie à mes propos à l’aide de nombreuses illustrations issue de la vie politique, sociale et économique contemporaine. Ajoutons que tous les décideurs ou toute personne siégeant à un comité d’évaluation et ou à un conseil d’administration en particulier devrait aussi s’y reporter au besoin. L’inédite lecture du livre par les étudiants de cycles supérieurs devrait leur permettre d’être mieux préparés à s’orienter dans le dédale de la rédaction de projets de recherche, de la collecte et de l’analyse des données. Les enseignants eux, trouveront ici un outil renouvelé et adapté selon l’usage qui voudra en être faite, de familiarisation de leurs étudiants de baccalauréat en science sociale en générale et administration publiques et science politique en finesse, aux notions essentielles de méthodologies.

239

Bibliographie Andreani J.C., Conchon F., 2005. Les Méthodes d’analyse et d’interprétation des études qualitatives : un état de l’art en marketing; Article présenté au Quatrième Congrès des Tendances du Marketing, Paris Bachelard G., 1965. La formation de l’esprit scientifique, contribution à une psychanalyse de la connaissance objective, 4e éd., Librairie philosophique Vrin, Paris Barker C., Pistrang N., Elliot R., 2002; Research methods in clinical psychology: An introduction for students and practitioners, 2nd ed.; John Wiley & Sons Ltd, Chichester, England Becker H.S., 1998. « The epistemology of qualitative research », In R. Jessor, A. Colby et R. Schweder (sous la direction de), Essays on ethnography and human development; University of Chicago Press, Chicago: (p. 122-141) Berelson B., 1952. Content analysis in communication research; The Free Press, New York Bogdan R., Biklen S.K., 1982. Qualitative research for education: an introduction to theory and methods; Allyn and Bacon, Boston Boudon R., 1991. « What middle-range theories are »; Contemporary Sociology – A Journal of Reviews, vol. 20(4): pp. 519-522 Bouvier A., 2008. « La théorie sociologique générale comme système hiérarchisé de modèles de portée intermédiaire »; Revue européenne des sciences sociales, Tome XLVI, vol. 140 (la sociologie en quête d’une théorie générale) : pp. 87-106 Bradley E.H., Curry L.A., Devers K.J., 2007. « Qualitative date analysis for health services research: developing taxonomy, themes, and theory »; Health Services Research, vol. 42 (4): pp.1758 -1772 Bunge M., 1967. Scientific Research II: The Search for Truth; Springer Verlag, Berlin Campbell J., 1972: Myths to live by; The Viking Press, New York Carlsson S.A., 2005. « Developing Information Systems Design Knowledge: A Critical Realist Perspective »; The Electronic Journal of Business Research Methodology, vol. 3 (2) : pp. 93- 102 Chalmers A. F., 1999. What is this thing called science, 3rd ed.; Hackett Publishing Company, Indianapolis/Cambridge Charmaz K., 1991. Good days, bad days: The self in chronic illness and time; NJ Rutgers University Press, New Brunswick Corbin J., Strauss A.L., 1990. « Grounded theory research: procedures, canons, and evaluative criteria »; Qualitative sociology, Vol. 13 (1): pp. 3-20 Del Baso M., Lewis A. D., 2007. Recherche en sciences humaines: une initiation à la méthodologie; Groupe Modulo Inc. Dennings, P.J., 1997. « A new social contract for research »; Communications of the ACM, vol. 40(2): pp. 132-134 Dey I., 1993. Data analysis: a user friendly guide for social scientists; Routledge, London Einstein A., 1940. « Considerations concerning the fundamentals of theoretical physics », Science, vol. 91(2369): pp. 487- 492 Eiseley L. C., 1973. The man who saw through time: Francis Bacon and the modern dilemma; Scribner, New York Erickson F., 1986. « Qualitative methods in research on teaching », In M. C. Wittrock (Ed.) Handbook of research on teaching; Macmillan, New York: (pp. 119-161) Erwin K., 2011. The visual coding of (big) qualitative data: new analytical methods and tools for emerging online research; Paper presented in proceedings of the 4th World Conference on Design Research, IASDR 2011 (Oct 31-Nov 4, Delft, Netherlands)

241

Faure M.A., 1994. « Some Methodological Problems in Comparative Politics », Journal of Theoretical Politics; Vol. 6 (3): pp. 307-322 Fortin M. F., 1996. Le processus de la recherche : de la conception à la réalisation; Décarie éditeur Inc., Ville Mont-Royal, Québec Gauthier B., 2009. Recherche sociale : de la problématique à la collecte des données, 5e éd.; Les Presses de l'Université du Québec, Québec Gaver B, Dunne T, Pacenti E., 1999. « Design: cultural probes », Interactions, vol. 6 (1): pp. 21- 29 Grawitz M., 1996. Méthodes des sciences sociales, 10e éd.; éditions Dalloz, Paris Greenley G.E., 1986. « Does strategic planning improve company performance? »; Long Range Planning, vol. 19 (2): pp. 101-109 Grønbæk K., 1991; Prototyping and active user involvement in system development: Towards a cooperative prototyping approach, PhD Thesis; Computer Science Department, Aarhus University, Aarhus, Denmark Håkansson M., 2003. Intelligent System Design; Design Methodology slides, IT-university, Goteburg, [Ressource en ligne] URL: http://www.viktoria.se/~saral/course.html (accès juillet 2012) Hantrais L., 2009. International comparative research: theory, methods and practice; Palgrave Macmillan, Basingstoke (England) Herbert J., 1984. Using published data: errors and remedies (Quantitative Applications in the social sciences Vol. 42); Sage publications, London Holsti O.R., 1969. Content Analysis for the Social Sciences and Humanities; Reading, Addison-Wesley Publishing Company, Massachussets Howell D.C., 2002. Statistical methods for psychology, 5th ed.; Duxbury Press, Pacific Grove, CA Hunter J.E., Schmidt F.L., 1990. Methods of meta-analysis; Sage Publication, Newbury Park, CA Järvinen P., 2004a. On a variety of research output types; Department of Computer Sciences, series of publications DǦ2004Ǧ6, Net Publications, University of Tampere, Finland Järvinen P., 2004b. Supplementing Ron Weber’s view on a theory building; Department of Computer Sciences, series of publications DǦ2004Ǧ8, Net Publications, University of Tampere, Finland Järvinen P., 2005. Action research as an approach in design science; Department of Computer Sciences, series of publications DǦ2005Ǧ2, Net Publications, University of Tampere, Finland Jeannin J.P., 2003. Les étapes d’une recherche en sciences sociales; SOS Réseaux [Ressource en ligne] URL : http://www.sosreseaux.com/sos_etudiants.php Jochum M., Ledermann S., 2009. « La démarche légistique entre théorie et pratique », LeGes - Bulletin de la société suisse de législation et de la société suisse d’évaluation, vol. 2009/1 : pp. 87 -103 Joffe H., 1996. « AIDS research and prevention: A social representational approach »; British Journal of Medical Psychology, vol. 69(3): pp. 169–190 Kerlinger F.N., 1986. Foundations of behavioural research, 3rd Ed; Holt, Rinehart and Winston editions, New York Kirk J., Miller M. L., 1986. Reliability and validity in qualitative research, Sage Publications, Beverly Hills Kluckhohn F.R., 1940. « The Participant-Observer Technique in small communities », American Journal of Sociology Vol. 46 (3): pp. 331-343 Krippendorff K., 1980. Content Analysis: An introduction to its methodology; Sage Publications, London Krueger R. A., 1994. Focus Group: a practical guide for applied research, 2nd ed.; Sage Publications, Thousand Oaks

242

Kuhn T. S., 1962. The structure of scientific revolutions; 1st ed., University of Chicago Press, Chicago, IL Kuhn T. S., 1972. La structure des révolutions scientifiques; 2e éd. (Trad. française par Laure Mayer); Champs Flammarion, Paris Landman T., 2008. Issues and methods in comparative politics: an introduction, 3rd ed.; Routledge, New York Lincoln Y.S., Guba E.G., 1985: Naturalistic Inquiry; Sage Publications, Beverly Hills, CA Lofland J., 1971. Analyzing Social Settings: A Guide to Qualitative Observation and Analysis; Wadsworth Publishing Company, Belmont, CA Long D., 2007. Introduction à la recherche selon l’approche hypothético-déductive; Centre de Recherche et de Développement en Éducation, Université de Moncton, Moncton, NB – [Ressource en ligne] URL : http://web.umoncton.ca/umcmlongd01/Doc/Introduction____a__la__recherche.html (accès Juillet 2012) March S.T., Smith G.F., 1995. « Design and Natural Science Research on Information Technology » Decision Support Systems vol. 15(4): pp. 251 – 266 Marshall C, Rossman G. B., 1995. Designing Qualitative Research, 2nd ed.; Sage, London Mayer R., Ouellet F., Saint-Jacques M.-C., Turcotte D., 2000. Méthodes de recherche en intervention sociale; Gaëtan Morin Éditeur, Boucherville Merrill D.M., 2001. Five-star instructional design rating; Department of Instructional Technology, Utah State University, [Ressource en ligne] URL: http://id2.usu.edu/5Star/FiveStarRating.PDF (accès Juillet 2012) Merrill D.M., 2002. «First principles of instruction », Educational Technology Research and Development, vol. 50 (3): pp. 43-59 Merton R. K., 1957; Social theory and social structure; Free Press, Glencoe, IL Miles M. B., Huberman M. A., 1994. Qualitative data analysis: an expended sourcebook, 2nd ed.; Sage publication, Thousand Oaks Mill J. S., 1882. A system of logic, ratiocinative and inductive; being a connected view of the principles of evidence, and the methods of scientific investigation; 8th ed.; Harper & Brother publishers, Franklin Square, New York Mills C. W., 1959. The sociological imagination; Oxford University Press, Oxford Ministère de la Justice du Canada, 2012. « Règlement sur l'essence (DORS-90-247) », Loi canadienne sur la protection de l'environnement (1990). Mukamurera J., Lacourse F., Couturier Y., « Des avancées en analyse qualitative : pour une transparence et une systématisation des pratiques »; Recherches Qualitatives, vol. 26(1) : pp. 110-138 Myers A., Hansen C. H., 2007. Psychologie expérimentale, 2e éd. (Traduction française par Dieudonné Zelé, révision par Ludovic Ferrand); de Boeck, Paris Nagel E., 1979. The structure of science: Problems in the logic of scientific explanation, 2nd ed.; Hackett Publishing Company, Indianapolis/Cambridge Pedhazur E. J., Pedhazur S. L., 1991. Measurement, design and analysis: An integrated approach; Lawrence Erlbaum associates, London Pennings P., Keman H., Kleinnijenhuis J., 1999. Doing research in political science; Sage Publications, Thousand Oaks (CA) Popper K, 1979. Objective knowledge, 5th ed.; Oxford University Press, Oxford Preece J. J., Rogers Y, Sharp H., 2002: Interaction Design- Beyond human and computer interaction; John Wiley and sons, New York, NY Purao S., 2002. « Design Research in the Technology of Information Systems: Truth or Dare »; GSU Department of CIS Working Paper; Atlanta Quivy R., van Campenhoudt L., 1988. Manuel de recherche en sciences sociales; Dunod, Paris Richardson L., 1992: «The consequences of poetic representation » in Ellis C. and Flaherty M. (eds.), Investigating subjectivity; Sage Publications, Thousand Oaks

243

Rosenthal R., DiMatteo M.R., 2001. « Meta-analysis: Recent developments in quantitative methods for literature reviews »; Annual Review of Psychology, vol. 52: pp. 59 – 82 Rosner B., 2006. Fundamentals of biostatistics, 6th Ed.; Duxbury Press, Belmont, USA Sacks H., 1995. Lectures on conversation; Blackwell, Malden, MA Sagan C., 1979. Broca’s Brain: reflections on the romance of science; Random House, New York Sagaut P, 2009. Introduction à la pensée scientifique moderne; Université Pierre et Marie Curie, Paris Sanchez R., Heene A., 2010. « Grande théorie et théorie intermédiaire en stratégie. Une perspective épistémologique »; Revue française de gestion, vol. 36(204) : pp. 105-125 Schneider D. K., 2006. Balises de méthodologie pour la recherche en sciences sociales; Institut des hautes études en administration publique, Lausanne. Simon H. A., 1996. The sciences of the artificial, 3rd ed.; MIT Press, Cambridge, MA Smith M., Glass G.V., 1987. Research and evaluation in education and the social sciences; Prentice-Hall, Englewood Cliffs/ NJ Soler L, 2000. Introduction à l’épistémologie; Ellipses, Paris Stone P.J., Dunphy D.C., Smith M.S., Ogilvie D.M., 1966. The General Inquirer: A computer approach to content analysis; MIT Press, Cambridge Strauss A.L., 1987. Qualitative analysis for social scientists; Cambridge University Press, Cambridge, UK Strauss A.L., Corbin J., 1998. Basics of Qualitative Research: Techniques and Procedures for Developing Grounded Theory, 2nd Ed.; Sage Publications, Thousand Oaks, CA Tabachnik B.G., Fidell L.S., 2001. Using multivariate statistics, 4th ed.; Harper Collins, New York Taylor S. J., Bogdan R. 1984. Introduction to qualitative research methods: the search for meanings, 2nd Ed.; John Wiley and sons, New York, NY Tremblay M-A., 1968. Initiation à la recherche dans les sciences humaines; McGraw-Hill Éditeurs, Montréal Tremblay R. R., Perrier Y., 2006. Savoir plus : outils et méthodes de travail intellectuel, 2e éd.; Les Éditions de la Chenelière Inc. Vaishnavi V., Kuechler W., 2004. Design Science Research in Information Systems; [ressource en ligne] URL: http://desrist.org/desrist last updated September 30, 2011 (accès Juillet 2012) Van Aken J.E., 2004a. « Management research based on the paradigm of design sciences: the quest for field-tested and grounded technological rules », Journal of Management Studies, vol. 41(2): pp. 219-246 Van Aken J.E., 2004b. The Field-tested and Grounded Technological Rule as Product of Mode 2 Management Research; ECIS working paper 04.10, Eindhoven University of Technology van Dijk T.A., 1997. Discourse as structure and process: Discourse studies (Vol. 1); Sage Publication, Thousand Oaks, CA Veal A.J., 1997; Research methods for leisure and tourism - A practical guide, 2nd ed.; Pitman publishing, London Walsh R., Perrucci A., Severns J., 1999. « What’s in a good moment: A hermeneutic study of psychotherapy values across levels of psychotherapy training », Psychotherapy Research, vol. 9(3): pp. 304–326 Weber R.P., 1985. Basic content analysis; Sage Publications, New Delhi Wilshaw G. 1996. Adult survivors of childhood sexual abuse: A human enquiry based study of ongoing life characteristics; Paper presented at Second Annual Counselling Research Conference, British Association for Counselling, Birmingham, UK Zaltman G., Pinson C.R., Andelmar R., 1973. Metatheory and consumer research; Holt, Rinehart and Winston editions; New York

244

Table des matières INTRODUCTION Chapitre 1 La notion de recherche scientifique 1 . La notion de « science » 2 . Les caractéristiques des sciences 2.1. Un objet d’étude 2.2. Un contenu universel et structuré autour de l’objet d’étude 2.3. Un but 2.4. Une méthode appropriée et explicite 3 . Une introduction à la recherche scientifique 4 . Les étapes majeures d’une recherche scientifique 4.1. La phase conceptuelle 4.2. La phase méthodologique 4.3. La phase empirique 4.4. La phase d’interprétation et de diffusion 4.5. Un processus non linéaire 5 . Le contexte de la recherche scientifique 6 . Conclusion Chapitre 2 La place et les fondements de la recherche en gestion appliquée 1 . L’interdépendance théorie-recherche 1.1. Les éléments méthodologiques de la science 1.2. Les éléments théoriques de la science 1.3. La dynamique du savoir 2 . Le paradigme et l’approche 2.1. La notion de paradigme (la science normale de Kuhn) 2.2. L’approche 2.3. L’interdisciplinarité en recherche 3 . Les types de recherche 3.1. Selon le niveau de théorisation 3.2. Selon la finalité scientifique 3.3. La typologie de Järvinen 3.4. Une typologie simple des recherches 4 . Conclusion Chapitre 3 La logique de la recherche empirique 1 . Le cycle de recherche empirique en gestion appliquée 2 . Le questionnement de départ 3 . Les objectifs de recherche 4 . La conceptualisation 245

19 27 27 29 29 31 31 32 34 35 35 37 39 39 40 41 41 43 43 43 45 48 49 49 53 53 54 55 55 59 60 61 63 63 63 65 66

4.1. L’utilité d’un cadre d’analyse conceptuel 4.2. Les hypothèses de recherche 4.3. Les grilles d’analyse 4.4. Les dangers liés l’opérationnalisation de la recherche 5 . Les artéfacts et interventions 6 . Les mesures 6.1. L’échantillonnage 6.2. Les techniques de mesures 6.3. La fiabilité de la mesure 7 . Les analyses et conclusions 7.1. L’analyse et l’interprétation des données 7.2. Les dangers liés à l’analyse et l’interprétation des données 7.3. La place de la validité 8 . La triangulation 9 . Conclusion Chapitre 4 Les recherches pilotées par la théorie 1 . Présentation et exemples 2 . L’approche quantitative 3 . Les méthodes expérimentales 3.1. Les expériences classiques 3.2. Les quasi-expériences 3.3. Conclusions sur les méthodes expérimentales 4 . Les méthodes statistiques 4.1. Présentation et utilité des designs statistiques 4.2. Principe général des études statistiques 4.3. Les méta-analyses 4.4. Les sondages 4.5. Les limites des études statistiques 5 . Les études comparatives de cas 5.1. La stratégie des cas comparables 5.2. La stratégie des cas dissimilaires 6 . Conclusion Chapitre 5 Les recherches visant à créer une théorie 1 . Présentation et exemples 2 . L’approche qualitative 3 . Les particularités de la recherche qualitative 3.1. La place de la théorie 3.2. L’essence de l’analyse qualitative : le triangle descriptionclassification-connexion 3.3. Un processus dynamique 3.4. La forme de la recherche qualitative 246

66 68 70 72 73 74 74 76 78 79 79 80 80 81 82 85 85 86 87 87 94 100 100 100 101 104 104 108 110 111 113 114 117 117 117 120 120 122 124 126

3.5. Les outils au service du design émergent de la recherche qualitatif 127 4 . Conclusion 128 Chapitre 6 Les recherches basées sur l’approche de design 131 1 . Les sciences de l’artificiel et l’approche de design 131 2 . Les éléments de l’approche de design 132 2.1. La notion de règles de design 133 2.2. Le développement théorique et les recherches basées sur l’approche de design 136 3 . Les catégories de recherche design 137 4 . Les produits issus des recherches design 137 5 . Le processus de design 140 5.1. Le raisonnement du design 140 5.2. Alternatives du processus de construction 140 6 . La méthodologie générale des recherches axées sur l’approche design 141 7 . Les variantes méthodologiques appliquées en recherche design 143 7.1. Les recherches participatives axées sur l’utilisateur 143 7.2. La recherche-action 152 7.3. Le modèle de la démarche légistique 153 8 . Conclusion 154 Chapitre 7 L’acquisition des données quantitatives et qualitatives en gestion appliquée 157 1 . Les principes de base 158 2 . Les méthodes d’acquisition des données quantitatives et qualitatives 159 2.1. L’observation 161 2.2. Les enregistrements et l’analyse de textes 168 2.3. Les questionnaires 174 2.4. Les entretiens 179 3 . Le choix des sources d’informations 184 3.1. L’échantillonnage dans une approche quantitative 184 3.2. L’échantillonnage dans une approche qualitative 186 4 . Conclusion 187 Chapitre 8 Introduction à l’analyse quantitative 189 1 . Postulat sur les données collectées 189 1.1. Le modèle linéaire 189 1.2. La distribution binomiale et la distribution de Poisson 190 1.3. La distribution normale 191 2 . Le principe de l’analyse statistique 191 3 . Les étapes d’une analyse statistique 193 247

4 . La préparation des données 193 5 . La réduction des données 194 5.1. Les indices composites 194 5.2. L’analyse en facteurs 196 6 . Survol des types d’analyses et des types de paramètres statistiques 197 6.1. L’exploration des données et les analyses descriptives simples 197 6.2. La formulation des hypothèses nulles 198 6.3. Les analyses inférentielles 199 7 . Analyse de la validité et interprétation des conclusions statistiques 204 8 . Conclusion 206 Chapitre 9 L’analyse des données qualitatives 207 1 . Les préliminaires à l’analyse qualitative : classer, identifier et retrouver l’information 207 2 . Déstructuration et catégorisation des données 209 3 . Le codage des données 210 3.1. Création et gestion des livres des codes 211 3.2. La structure du système de codes 216 3.3. Organisation et révision des codes 216 4 . La visualisation des données 217 4.1. Les diagrammes conceptuels 218 4.2. Les matrices listes de contrôle 218 4.3. Les matrices et graphiques chronologiques 219 4.4. Les matrices ordonnées 219 5 . La connection des données 220 6 . L’interprétation des résultats 221 7 . La place de la fiabilité et de la validité dans l’analyse qualitative 222 8 . Conclusion 224 Chapitre 10 Présentation d’une recherche et considérations sur la gestion d’un projet de recherche 225 1 . Le compte rendu de la recherche 225 1.1. Le mémoire ou la thèse de fin d’études 225 1.2. Le rapport professionnel 228 1.3. Les articles scientifiques 229 1.4. La vulgarisation supplémentaire des résultats de recherche 230 2 . L’évaluation d’un compte rendu de recherche 231 3 . Un aperçu sur la gestion d’un projet de recherche 233 4 . Conclusion 233 CONCLUSION GÉNÉRALE 235 Une planification nécessaire 235 La structuration méthodologique de la recherche 236 L’envers de la médaille 238 BIBLIOGRAPHIE 241 248

L’HARMATTAN ITALIA Via Degli Artisti 15; 10124 Torino L’HARMATTAN HONGRIE Könyvesbolt ; Kossuth L. u. 14-16 1053 Budapest L’HARMATTAN KINSHASA 185, avenue Nyangwe Commune de Lingwala Kinshasa, R.D. Congo (00243) 998697603 ou (00243) 999229662

L’HARMATTAN CONGO 67, av. E. P. Lumumba Bât. – Congo Pharmacie (Bib. Nat.) BP2874 Brazzaville [email protected]

L’HARMATTAN GUINÉE Almamya Rue KA 028, en face du restaurant Le Cèdre OKB agency BP 3470 Conakry (00224) 60 20 85 08 [email protected] L’HARMATTAN CAMEROUN BP 11486 Face à la SNI, immeuble Don Bosco Yaoundé (00237) 99 76 61 66 [email protected] L’HARMATTAN CÔTE D’IVOIRE Résidence Karl / cité des arts Abidjan-Cocody 03 BP 1588 Abidjan 03 (00225) 05 77 87 31 [email protected] L’HARMATTAN MAURITANIE Espace El Kettab du livre francophone N° 472 avenue du Palais des Congrès BP 316 Nouakchott (00222) 63 25 980 L’HARMATTAN SÉNÉGAL « Villa Rose », rue de Diourbel X G, Point E BP 45034 Dakar FANN (00221) 33 825 98 58 / 77 242 25 08 [email protected] L’HARMATTAN BÉNIN ISOR-BENIN 01 BP 359 COTONOU-RP Quartier Gbèdjromèdé, Rue Agbélenco, Lot 1247 I Tél : 00 229 21 32 53 79 [email protected]

Achevé d’imprimer par Corlet Numérique - 14110 Condé-sur-Noireau N° d’Imprimeur : 110122 - Dépôt légal : juillet 2014 - Imprimé en France

POUR COMPRENDRE

Fondements et Méthodes en Gestion Appliquée

Ce livre est une initiation à la méthodologie, c’est-à-dire aux choix et aux procédures qu’implique la recherche scientifique en gestion appliquée. Y sont examinées d’une part, les règles fondamentales constitutives de toute démarche de recherche et, d’autre part, les pratiques méthodologiques dominantes (les principaux usages qui sont faits de ces règles dans des recherches dont les objectifs, les domaines d’investigation ainsi que les contextes institutionnels et sociohistoriques de réalisation diffèrent). De là, l’ouvrage a pour objectif de développer une compréhension élargie, tant sur le plan conceptuel que pratique, des perspectives associées à la recherche qualitative et quantitative ainsi que des méthodes, outils et habiletés requises. Aussi, la mise en perspective de la recherche en gestion appliquée à travers ses enjeux, débats et applications empiriques devrait permettre au chercheur – débutant, intermédiaire ou avéré – de cerner la pertinence et la contribution des fondements et autres méthodes à l’avancement des connaissances dans ce domaine du savoir. Administrateur économique et Politologue, Walter Amedzro St-Hilaire est Auteur, Universitaire et Consultant. Conseiller technique en stratégies économique & développement des politiques à la Banque Mondiale, Associé chez ExpertActions Consulting, il dirige le Global Journal of Stratégies, Governance & Aplied Economics. La richesse de son cursus académique et professionnel lui garantit, une expertise certaine, aussi bien dans la recherche, dans les hautes sphères de décision que dans l’enseignement.

ISBN : 978-2-343-03961-9

27 €