You are on page 1of 10

L'étude d'évaluabilité: Utilité et pertinence 19

L'étude d'évaluabilité: Utilité et pertinence pour e/aboratio1i' of the logic mode/, whicl1 are l1elpf11/ for progra111 imple111e11tatio11.
When co11d11cted by an evaluator or team of eva/11ators wit/1 the required skil/s, EA
l'évaluation de programme 111ay a/so help Io gather 11sef11/ i11formatio11 in support of tlie progra111's swnmative
and formative eva/11ation. EA is considered nn exploratory type of eva/11atio11s that
ca11 be co1id11cted over a period offew weeks Io several mo11t/1s, depe11di11g on the
Biessé Diakaridja Sou ra complexity of the program and ils scope.
Université de Montréal, Montréal, Québec
Keywords: Eva/11ability assess111e11t; eva/11ntio11; program theory; logic mode/.
Christian Dagenais
Université de Montréal, Montréal, Québec
INTRODUCTION
Robert Bastien Lëtude d ëvaluabilité (ÉÉ) joue deux rôles essentiels : permettre d'améliorer le
Direction de Santé Publique de Montréal et programme et mettre en place les conditions de réussite d'une évaluation formelle
Université de Montréal, Montréal, Québec dont les résultats seraient utiles aux parties prenantes' (Schmidt, Scanlon et Bell,
1979; Wholey, 1976). Dans la perspective de l'ÉÉ, l'utilité de lëvaluation s'entend
Jean-Sébastien Fallu
Uriiversité de Montréal, Montréal, Québec par sa capacité à fournir des informations qui pourront être utilisées, soit pour
améliorer le programme (élaboration du modèle logique, vérification de la plau-
Michel Janosz sibilité des objectifs, etc.), soit pour prendre une décision sur la suite à donner au
Université de Montréal, Montréal, Québec programme. La prise de décision peut concerner l'amélioration du programme,
son interruption, sa poursuite, son extension à d'autres zones géographiques ou
Rés11111~: lltt11de dëva/11abi/ité (ÉÉ) a été concept11a/isée vers la fi11 des années 1970 à d'autres populations. Conceptualisée depuis la fin des années 1970 par Wholey
~.la s111te. d11 constat de la mauvaise ·qualité d'impla11tatio11 des programmes et de et ses collègues (Trevisan, 2007), cette démarche est bien présente dans les écrits
l mcapacrté des évaluatio11s à répondre aux besoins des parties prenantes. I:ÉÉ scientifiques anglophones 01'1 on l'utilise couramment dans les milieux académ-
est 1111e démarc/1: qui po~irrait ?ermettre d'apporter des amélioratio11s à la fois au iques et de pratiques. Cependant, l'ÉÉ semble moins présente dans la littérature
p~ogramme et à lëva./ua/1011 q11'. sera. conduite 11/térie11rement. E11 effet, l'ÉÉ permet, scientifique francophone.
d Ill/~ part, de favoriser la clarifica/1011 de la théorie d11 programme qui sous-tend LObjectif de cet article est de présenter de façon synthétique l'ÉÉ afin
la rmse en œ11vre des activités et, d'autre part, de faciliter /ëlaboratio11 du modèle d'apprécier sa pertinence dans le processus dëvaluation des programmes et des
logl~11e q!1i aide à l'impl~11tatio11. Lorsqu'elle est co11d11ite par 1111 éva/11ate11r 011 1111e interventions. Une définition de l'ÉÉ est d'abord présentée, suivie d'un bref his-
éq111~e dëval!~ateurs q.111 pos~ède l:s compétences requises, elle permet également torique de cc concept. Ensuite, nous décrivons les étapes de celte démarche et sa
de d1~pose1r d 11~or111a~ro11s 1111/es à lëva/1iatio11 formative 011 sommaiive qui sera en- pertinence pour lëvaluation de programme pour terminer, enfin, sur les compé-
treprise. LÉÉf~1t partie des évaluations de type exploratoire que [(111 peut réaliser en tences requises pour la conduire.
quelques semm11es 011s11r1111e période de plusieurs mois en fonction de /a complexité
du programme et de so11 ampleur.
L'ÉTUDE D'ÉVALUABILITÉ: DÉFINITION ET ASPECTS
Mots clés : Étude dëva/11abi/ité; éva/11atio11; théorie du programme; modèle logique. HISTORIQUES

~bstract: E~aillability assessme11t (EA) was concept11alized in the late J970s fol/ow- Qu'est-ce que l'étude d'évaluabilité?
mg the fi11d111g ofpoor progmm implementation q11ality m1d i11ability ofevaluations tÉÉ est un processus rigoureu x et systématique qui permet de s'assurer qu'une
Io meet stakeholders' 11eeds. EA is a11 approach that miglzt allow improvement to évaluation satisfaisante du programme est réalisable et de déterminer si celle-
both the program a11d tlze eva/11atio11 to be cond11cted /ater. In fact, EA ma;~ on ci peut produire des connaissances utiles pour les parties prenantes (Ridde et
the one lza11d help c/arify a program theory a11d 011 the other ha11d, faci/itate the Dagenais, 2012; Kaufman-Levy et Poulin, 2003; Rossi, Lipscy et Freeman, 2004;
Strosberg et Wholey, 1983; Wholey, 1994). On peut aussi l'entrevoir comme
une démarche s'apparentant à une évaluation exploratoire ou encore à une pré-
Correspondance à l'auteur: llicssé Diakaridja Sou ra; École de psychoéducation, Uni\•ersité évaluation qui devrait permettre de mettre en place les conditions optimales pour
de Montréal, 90, av. Vinccnl-d'!ndy, Montréal, QC, H2V 2S9.<bd.soura@umonlreal.ca> une évaluation formative ou sommative formelle (Leviton, Khan, Rog, Dawkins
C> 2016 Conodion.Journol of Progrom fvaluotion/ La Revue canadienne d'évaluation de programme
31.l (Sprlng I printemps), 18-33 dol: 10.3138/cjpe.207 doi: 10.3138/cjpe.207 GPE31.1, 18-33 ~20 16
20 Soura, Dagenais, Bastien, Fallu et Janosz . L'étude d'évaluabilité: Utilité et pertinence 21

et Çotton, 2010). I:ÉÉ est particulièrement utile pour les interventions qualifiées interventions qui ont très peu deffets, voire aucun, lorsqu'elles étaient évaluées
de complexes comme le sont la plupart des programmes psychosociaux et de (Trevisan et Yi, 2003; Van Voorhis et Brown, 1996).
santé (Contandriopoulos, Rey. Brousselle et Champagne, 2012; Kania et coll., Afin d'accroître la performance des programmes et de rendre l'évaluation plus
2013; Ogilvie et coll., 2011; Rogers, 2008; 1b uati et Suarez-Herrera, 2012). Plus efficace et utile po ur les décideurs, Horst et ses collègues ont entrepris d'identifier
particulièrement, cette démarche semble spécifiquement appropriée lorsque le les causes profondes de lëchec des programmes el de l'incapacité de l'évaluation
programme à évaluer est peu documenté ou lorsque des fac teurs importants à satisfaire les besoins des parties prenantes (Horst et coll., 1974). Lëquipc con-
(absence de structure logique du programme, difficultés à colliger des d onnées duite par Horst, dont faisait partie Wholey, recommande alors de conduire un
de suivi, manque de collaboration entre les intervenants, etc.) peuvent nuire à la Pre-nssess111e11t of Evnlrinbility qui permettrait aux programmes de satisfaire les
conduite d'une bonne évaluatio n (Dunet, Losby et Tucker-Brown, 2013; Rut man, conditions nécessaires à une évaluation. Selon Strosberg et Wholey (1983), c'est
1977). De plus, l'ÉÉ permet une description en profondeur du programme et aide de là qu'est née l'Evn/rwbility Assess111e11t. Cependant, c'est grâce aux travaux de
à la planification d'une évaluation complète en identifiant des questions pratiques Wholey que l'ÉË a été déployée telle que nous la connaissons aujourd'hui. De 1979
dëvaluatlon et en sélectionnant des indicateurs plausibles qui seront mesurés, tout jusqu'à la fin des années 1980, plusieurs publications documenteront les aspects
au long du processus, pour rendre compte de !efficacité du programme. (Horst, théoriques et empiriques de l'ÉÉ (Trevisan, 2007). Mais le départ de Wholey du
Nay, Scanlon et Wholey, 1974). département de la santé et des services sociaux à la fin des années. 1980 provo-
Une autre fonction attribuée à l'ÉÉ est de permettre de développer ou quera un ralentissement des travaux au début des années 1990 jusqu'à ce qu'on
d'améliorer la théorie du programme ou son modèle logique. De ce fait, elle peut observe une résurgence des publications ces dernières années (D'Ostie-Racinc,
être particulièrement utile lors de la phase de développement et/ou de planifica- Dagenais et Ridde, 2013; Sanou, Kouyate, Bibeau et Nguyen, 2011; Trevisan et Yi,
tion d'un programme. I:ËÉ ne remplace pas une évaluation formelle, mais elle 2003). La reprise des publications sur l'ÉÉ a coïncidé avec une demande croissante
offre certaines garanties pour s'assurer de !existence de données pertinentes pour de reddition de comptes de la part des gestionnaires des programmes fédéraux
apprécier les qualités intrinsèques du programme (Davies, 20 13b; Leclerc, 2012). américains dans le but d'améliorer la performance de ces programmes (Davies,
Le recours à l'ÉÉ comme démarche pré-évalua live pour déterminer si un pro- 2013b; Trevisan, 2007; Trevisan et W.1lser, 2014).
gramme est bien implanté et si li\valuation pourra fournir des résultats utiles aux La première recension d'écrits sur l'ÉÉ a été effectuée en 1985 par Rog (cité
décideurs a é~é largement documentée dans les écrits scientifiques et techniques. On par Trevisan, 2007). Cette recension a permis à l'auteur d'identifier 57 études
trouve, en effet, de nombreux articles, chapitres de livres, rapports et guides pour réalisées entre 1972 et 1984 dans les domaines de la santé et des services sociaux,
rendre compte des travaux dëvaluations et de recherches engagés pour guider les notamment aux États-Unis. Les résultats de l'analyse ont montré que le recours à
personnes intéressées à entreprendre une ÉÉ. Ces documents sont produits, soit par t'ËÉ était influencé, entre autres, par la taille du programme, la durée de sa mise
des chercheurs des universités et instituts, soit par des professionnels en évaluation en œuvre et son coC1t.
provenant notamment dbrganismes gouvernementaux ou non gouvernementaux. En 2007, Trevisan recensait plus de 900 références issues de la littérature
grise et scientifique, contenant les termes« Evnlunbility Assess111e11t » et publiées
Aspects historiques entre 1986 et 2006. I:analyse des 23 articles répondant aux critères d'inclusion
Cest au cours des années 1970 qu'un groupe de chercheurs du Urban fnsti- de sa recherche fait ressortir que les ÉÉ s'appliquent à des programmes très var-
t'.1te de ~a.shington aux États-Unis auquel participait Joseph Wholey développe iés liés à la prévention, la santé, le développement technologique, l'éducation, la
1Evn/1rnb1/1ty Assessme11t (EA) en réponse aux difficultés et aux défis qu'ils ren- mobilisation communautaire, l'aide aux victimes de torture, etc. Elles portent
contrèrent dans lëvaluation des programmes gouvernementaux. Ces programmes également sur des disciplines diversifiées qui peuvent relever de la psychologie,
étaient, selon eux, insuffisamment mis en œ uvre ou immatures pour être évalués de la santé (mentale et physique), de la criminologie, du service social, etc. En
o u encore avaient des objectifs jugés irréalistes (Burrows, Bilodeau et Litvak, 20 12; outre, ces études se déroulent dans différents milieux comme les universités,
Leviton et coll., 2010; Nay et Kay, 1982; Wholey, 1976). En effet, plusieurs de ces les instituts, les hôpitaux, les organismes nationaux ou internationaux d'aide au
p.rogrammes financés par le gouvernement américain manquaient de logique et de développement.
n gueur dans leur développement. Ils pouvaient aussi être mal o u peu implantés, Plus récemment, dans le cadre d'une synthèse de la littérature sur l'ÉË et sa
contrairement au plan établi, en plus de produire peu deffets lorsqu'ils étaient pratique dans les organismes d'aide au développement commanditée par le De-
évalués (Lcviton et coll., 2010). Cette situation a mené les décideurs et les évalu- partme11t for lllternational Developmenl (DflD) au Royaume-Uni, Davies (2013a)
ateurs à s'interroger sur !efficacité de lëvaluation, sa capacité à informer les preneurs a constitué une banque de références comprenant plus d'une centaine de livres,
de décision et la nécessité dengager des sommes de plus en plus élevées pour des d'articles, de chapitres de livres et de rapports publiés entre 1979 et 2012. Cette

C>2016 GPE3 1.1, 18-33 doi: 10.3138/cjpe.207 • doi: 10.3138/cjpe.207 CJPE31.1, 18-33 e> 2016
22 Soura, Dagenals, Bastien, Fallu et Janosz
L'étude d'évaluabilité: Utilité et pertinence 23

banque de références compte également des sites web, cc qui constitue une res-
source intéressante pour toutes personnes voulant conduire une Éfl.

LE PROCESSUS DE L'ÉTUDE D'ÉVALUABILITÉ


Les auteurs proposent diflerentes étapes pour la conduite d'une ÉÉ (Rut man, 1980;
Smith, 1989; Thurston et Potvin, 2003; Wholey, 1987). Dans son rapport produit
lors de la synthèse décrite au paragraphe précédent, Davies dénombrait une
douzaine dëtudes qui comportaient entre quatre et dix étapes pour conduire une c CO'
co
:J 0
I!É (Davies, 2013b). A titre iUustratif, le tableau 1 présente les étapes répertoriées 0 C!.
dans sept différentes études. Celles-ci ont été retenues pour montrer la variété des
démarches dans la conduite d'une ÉÉ. La principale différence entre elles porte
essentiellement sur le nombre dëtapcs à suivre, lbrdre d'apparition de ces étapes
et leur dénomination (Trevisan et Yi, 2003). Par exemple, si chez Rog (1985) la
première étape consiste à analyser le programme, pour Wholey (1987, 2010), la
première des choses à faire est de solliciter la participation dëventuels utilisateurs
et les parties prenantes; l'analyse du programme n'intervenant quèn seconde posi-
tion. Toutefois, scion Sm.i th (1989, 1990), l'important n'est pas d'appliquer toutes Ill

les étapes, mais de pouvoir adapter lëtude en fonction du contexte et des objectifs
poursuivis.
~
-E Ill
..!!! E
On peut retenir que, de façon générale, l'ÉÉ vise à apporter des réponses à .... E
une série de questions relatives à la capacité de lëvaluation à produire des résultats 8. ~
o. en
utiles. Selon Wholey (1987, 1994), un programme n'est évaluablc2 que s'il répond 0 0

aux quatre conditions s uivantes : 1) les objectifs du programme et les informa-


~
'4J
o.
:J
0-o
tions prioritaires sont bien identifiés et définis, 2) les objectifs du programme sont
plausibles, 3) les données pertinentes sur la performance du programme peuvent
être obtenues à des coOts raisonnables et 4) la manière d'utiliser les résultats de
l'évaluation chez les utilisateurs potentiels est clarifiée. En répondant à ces quatre
conditions, l'ÉÉ devrait permettre, comme le souligne Smith (1989). de prendre
une des cinq décisions suivantes à propos du programme: 1) apporter des change-
ments, 2) conduire une évaluation formelle, 3) arrêter le programme, 4) laisser
les choses dans leur état initial, mais aussi 5) ignorer les résultats de cette étude.
L'ÉÉ fait partie des évaluations de type exploratoire rapide pouvant se con-
duire sur une période allant d'un à six mois (Wholey, 2010). Elle peut aussi se
dérouler en quelques semaines en fonction de l'ampleur et de la complexité du
programme (Davies, 2013b). La plupart des ÉÉ ont recours aux données qualita-
tives. En effet, les entrevues, la revue documentaire, les groupes de discussion,
les visites de terrain et lbbservation sont les méthodes de collecte des données
régulièrement utilisées lors de la réalisation d'une ÉÉ (Esher et èoll., 2011). Ce-
pendant, dans sa recension des écrits, Trcvisan (2007) rapporte quelques études
ayant utilisé des données quantitatives à l'aide d'un questionnaire. Mais ces cas
restent rares et constituent moins d'un pour cent du corpus de textes analysés par
l'auteur. Toutefois, le choix d'une méthode par rapport à une autre dépend des
objectifs poursuivis, de la finalité et du contexte de lëtude.
N

()2016 OPE31.1, 18- 33


doi: 10.3138/cjpe.207 doi: 10.3138/cjpe.207 OPE31.1, 18-33 Q 2016
Tableau 1. Les étapes de l'étude de l'évaluabilité de programmes selon quelques auteurs.
c.
~.

e Ëtapes Strosberg et
Wholey (1983)
Wholey (1987,
2010)
Rog (1985) Smith (1989) Thurston et
Potvin (2003)
Dunn
(2008)
Dunet et coll.
(2013)

'"
.,,~
Déterminer Jes res- Faire participer
sources, activitf.s. les éventuels
Analyser le
programme
Déterminer le but.
recueillir l ~ngagement,
SéJectionner
l'évaluateur
Vérifier le
modèle
Sélectionner
le domaine de
"
~
0
~
objectifs et présup- utilisateurs et les
positions parties pte.-.antes
mettre en place le groupe
de travail
responsable de causal
conduire rétude
pratique

du programme d'évaluabilité
2 Recueillir Clarifier la Analyser Définir les frontières du Identifier les S'accorder Identifier les
l'agrément des formulation du 17mplantation programme à évaluer parties pre- surie but de programmes
parties prenantes programme du programme nantesdu l'évaluation
sur la description programme d'impact
du programme
3 Déterminer les Explorer la réalité Analyser le Identifier et analyser les Identifier et Evaluer RAssembler l!li g
typeS de données de lîmplantation système de documents du analyser la la faisabi- informations et "
Q.

à collecter du programme mesure et programme documentation lité d'un évaluer lîntérét "c.
d'information modèle de l'étude de ~
alternatif l'évaluabilité ~
~
cr
4 Vérifier la réalité Analyser la Effectuer une Développer la théorie Développer le Identifier Sélectionner =
;;:
s... de 11mplantation
du programme
plausibilité du
programme•
analyse de la du programme
pl<lusibilité des
objectifs du
modèle logique une équipe
du programme d'évaluation
et le plan locale
le(s) pro-
grammes à
évaluer
c:
~
ii:
programme d'évaluation ~
a; '8
...
1 5 Déterminer si les S'entendre sur Préparer des Identifie< les parties pren· S'accorder sur Préparer les
5'
"' ressources et activ- d'éventuels modèles variés antes et avoir des entre-- le principe de équipes pour ~
:>
e ités mobilisées changements à du programme vues avec eux conduire une les visites de
"
~

.....,
~
0 permettent apporter au pro- évaluation terrain
<;; d'atteindre les gramme ou à son
objectifs implantation•
0
~ Etapes Strosberg et Wholey (1987, Rog (1985) Smith (1989) Thurston et Ounn Dunet et coll.
0
;;; Wholey (1983) 2010) Potvin (2003) (2008) (2013)

c;:;: 6 Déterminer sl le
programme pos·
S'entendre sur
les options
Détetminer Décrire la percep1ion Evaluer le
l'utilisation des qu'o"t les parties prenantes temps et les
Conduire les
visites de ter 8

!:! ~e un systême d'"évaluation et résultats de du pr;09ramme re-ssourœs rain


- de gestion de les intentions l'évaluation requis pour
l'évaluation
tw l'information d'utilisation des
résultats
7 Déterminer la por· Identi fier les besoins, Préparer les
tion du programme intérêts et différences de documents
prête à être perceptions des partiM del~tudede
évaluée en fonc· prenantes l'évaluabilitê
tion des objectifs
identifiés
8 Identifier les op- Déterminer la pla usibil ~é Déterminer
tions d'évaluation du modèle du programme la possibilité
et de gestion pour d 'une évalua-
les gestionnaires tion rigoureuse
du programme
9 Tirer lies conclusions et faire
Q.
des recommandations
g. 10 ~tabli r un plan d'utilisation

~
w
des données de l'étude
d'éval uabilité
11'
.,,
"2. Adapté de Trevisan et WCtlser(2014).
·~tapes ajoutées dans Wholey (2010).
~
0
~
l'étude d'évaluabilité: Utilité et pertinence 25
24 Soura, Dagenals, Bastien, Fallu et Janosz

L'UTILITÉ ET LA PERTINENCE DE L'ÉTUDE D'ÉVALUABILITÉ

ë....
QJ
~
"' .!..
..!~
.~ ~
:J "'
Réaliser une ÉÉ peut représenter un exercice utile à la fois pour le programme, les
évaluateurs et les décideurs.
"U QJ
c41 "....' c0 -~ c
:J 0
0 !::!. u ·:;
V'l•-
~
Pour fe programme
Au départ, l'ÉÉ était considérée comme une démarche pré-évaluative, mais elle
est aujourd'hui u tilisée à plusieurs étapes du développement d'un programme
c
co
co (Walser el Trevisan, 2016). CÉÉ peut être utile lors des trois principales phases
:J 0 du développement d'un programme. La phase d'élaboration du programme,
o!::!.
c'est-à-dire la phase de sa planification constitue un moment oit l'on effectue
.. M' l'analyse des besoins d'une population, lëtude des caractéristiques de celle-ci et
~~
o-
l'identification des problèmes auxquels elle est confrontée et pour lesquels une ac-
.. c tion ou une intervention est jugée nécessaire (Potvin, 2009). Au risque de mettre
!:'.? ·-
:J ~ en place un programme qui ne répondrait pas aux besoins de la population, cette
.r. 0
1- Q.
analyse doit se faire en collaboration avec les bénéficiaires du programme. Dans
les conditions normales, l'analyse des besoins doit aussi reposer, autant que faire
se peut, sur les connaissances scientifiques qui permettent de trouver des solu-
tions éprouvées pour faire face à la situation problématique (Pineault et Daveluy,
1995). En instaurant des moments dëchangcs avec les personnes concernées et en
Oi' analysant les écrits pertinents au problème en jeu, l'ÉÉ peut aider à identifier les
OO
(J\ besoins prioritaires de la population et les stratégies les plus efficaces et adaptées
c pour y remédier (Macaskill et coll., 2000). Elle permet également d'identifier les
.r.
.~
E objectifs et les indicateurs de rendement et dèffets q ui faciliteront les opérations
VI
dëvaluation proprement dite (Van Voorhis et Brown, 1996). Bref, l'utilité de l'ÉÉ
dans cette phase est essentiellement de rendre explicites la théorie du programme
et son modèle logique qui schématise les liens entre les ressources mobilisées,
les activités à entreprendre et les résultats présumés (Lessard, Stich et Montreuil,
2012; Vanderheyden, Verhoef, Scott et Pain, 2006; Wholcy, 1987). Certains au-
teurs préconisent de conduire une ÉÉ particulièrement à cette phase de dével-
oppement du programme afin de tirer profit des résultats de cette étude dans la
planification des activités du programme (Dunn, 2008; Timrston et Potvin, 2003).
Lors de la phase d'implantation du programme, c'est-à-dire la phase cor-
respondant à la mise en œuvre des activités du programme, l'utilité de l'ÉÉ sera
de proposer des actions correctrices, si la mise en œ uvre ne se fait pas comme
cela avait été planifié lors de la phase de développement du programme. Le rôle
de l'ÉÉ ici s'apparente quelque peu à celui d'une évaluation du processus; toutes
les deux visent à accroître les performances du programme et à comprendre son
fonctionnement (Potvin, 2009). Cette opération s'effectue en analysant la façon
dont les activités sont déployées pour atteindre les objectifs fixés. Or, l'ÉÉ a ceci
de particulier qu'elle permet une consultation plus large des parties prenantes
(Macaskill et coll., 2000) et s'intéresse, au-delà des objectifs et des activités déployées,
à toute la structure logique du programme à travers la théorie du programme et
son modèle logique (Akintobi el coll., 2012; Kaufman-Levy et Poulin, 2003). Si ces
OO 0
éléments n'existent pas pendant la phase de mise en œuvre du programme et au

0Pf31.1, 18-33 0 2016


02016 GPE31.1, 18- 33 doi: 10.3138/cjpe.207 doi: 10.3138/cjpe.207
!:étude d'évaluabllité : Utilité et pertinence 27
26 Soura, Dagenais, Bastien, Fallu et Janosz

moment de l'évaluation , l'ÉÉ permettra de les rendre explicites. Son utilité ici sera Pour les décideurs
d 'a mélio rer la qualité du programme et de faciliter lëvaluation qui va scnsuivre Enfin, pour les décideurs l'ÉÉ est utile essentiellement de d eux poi~~s de ~1e.
(Wholey, 2010). Premièrement, elle leur offre une occasion de participer au processus devaluahon
La phase post implantation du programme représente très souvent la et d e voir leurs préoccupations être prises en compte. Cela a, pour avan.tage de
phase pendant laquelle une évaluation est sollicitée, soit pour rendre compte contribuer à une meilleure d éfinition du programme et à !augmentation des
de ce qui s'est passé, soit pour justifier l'utilisation des ressources fin ancières. ch ances d'application des recommandations formulées à !:issue de !~valuation.
Lorsqu'une évaluation est entreprise à cette phase, dans la majorité des cas, Deuxièmement - et c'est un élément important pour les décideurs-, 1 ÉÉ pem1et
!Objectif principal est de mesurer les effets obtenus auprès de la population cible. clëconomiser des ressources financières et humaines, entre autres, en limitant les
Généralement, lëvaluateur engagé dans ce processus se demande, entre autres, si opérations dëvaluation aux seuls aspects du programme.~ui so~t prêts à t.me.évalua-
le programme est évaluable, c'est-à-dire si celui-ci possède des éléments (théo- tion formelle et en sélectionnant la meilleure méthode devaluatlon et les md1cateurs
rie du programme claire, implantation suffisante et conforme à cc qui avait été les plus pertinents (Leviton et Gutman, 2010; Leviton et c~ll., 2? 10) .. Les ressources
prévu, objectifs clairement formulés et indicateurs d e performance et données ainsi économisées pourraient ensuite être investi~s dans 1améhoral!on des perfor-
disponibles, etc.) qui permettent de produire des résultats dëvaluation utiles aux mances du programme ou ailleurs, dans un autre programme. Pour entreprendre
parties prenantes (Thurston, Graham el Hatfield, 2003; Wholey, 2010). Les pro- une ÉÉ les décideurs doivent faire le choix d'un évaluateur qui possède des compé-
grammes d'intervention sont généralement constitués de plusieurs composantes tences dans ta conduite de cette démarche (Kaufman-Lcvy et Poulin, 2003).
qui peuvent être utilisées à divers degrés de mise en œuvre. Lorsque le processus
dëvaluation commence après la mise en œuvrc du programme, il est possible
que l'ÉÉ recommande de ne procéder qu'à !\!valuation d es composantes qui sont LES COMPÉTENCES REQUISES POUR LA CONDUITE D'UNE
évaluables, soit celles qui présentent un intérêt particulier pour les parties pre- ÉTUDE D'ÉVALUABILITÉ
nantes el pour lesquelles d es données sont disponibles à moindre coôt. Ce qui La co nduite d'une ÉÉ n'est pas sans représenter des défis pour celui qui s'engage
permet d ëviter d'investir des ressources (temporelles, financières, matérielles dans ce processus. Alors, la question se pose de savoir qui peut ou doit réaliser ce
et humaines) pour une évaluation complète qui ne pourra produire les résultats type d'évaluations. Cette démarche peut être conduite par toute personne ayant
escomptés (Dunet et co ll., 2013). des compétences en évaluatio n d'interventions ou de programmes. Quant à la
question de savoir si lëvaluateur doit provenir de l'intérieur ou d~ lextérie~1r de
Pour les évaluateurs JOrganisation, chacune de ces positions présente ses avantages e,t ses 111convé111ents.
Dans le cas des évaluateurs, l'ÉÉ p eut être utile p our deux raisons. La première Si certaines organisations d'aide au développement comme 1 U~AID el le ~OD
réside dans le fait qu'elle est un moyen rapide d'appréhender l'é tat actuel d'un préfèrent recourir à des évaluateurs externes, d'autres comme 1lnter-Amencan
programme. En effet, avant de se lancer dans des investigations coûteuses en Developmenl Bank (IADB) utilisent les compéten ces de professionnels logés da~1s
temps et en argent, l'ÉÉ permet, avec des ressources limitées, d'identifier quelles !organisation (Davies, 2013b). Cependant pour éviter certains biais et des confl.1ts
parties du programme pourraient nécessiter des modifications ou des ajuste- d'intérêts en matière dëvaluation de programmes (Posavac et Carey, 2007), Dav1es
ments afin d'améliorer son rendement. Si toutes les composantes du programme (2013b) préconise de recourir à un évaluateur indépendant de !Organisation et
ne sont pas évaluables, lëvaluateur peut ne limiter l'é valuation qu'à celles qui extérieur à la mise en œuvre du programme afin d'y apporter un regard nouveau.
offrent la possibilité de produire des résultats satisfaisants pour l'ensemble des Pour Tlmrston et Potvin (2003), le choix de lëvaluateur responsable de l'ÉÉ doit
parties prenantes. D'ailleurs, plusieurs auteurs recommandent, pour la créd i- être am plement discuté entre les principales parties prenantes du programme. ..
bilité de lëvaluateur, d e ne pas conduire lëvaluation d'un programme qui a été En dehors des compétences en évalu ation de programmes (Buchanan et Kui1-
mal planifié ou qui est insuffisamment mis en œ uvre (Kaufman-Levy et Poulin, Shikatan, 2014; Luo, 2010), l~valuateur engagé dans une ÉÉ do it avoir m~e conn~is­
2003; Wholey, 1987). sance étendue du phénomène qui est en jeu et du programme à évaluer (Dav1es,
La seconde raison tient au fait que l'ÉÉ peut aider !'évaluateur à orienter les 2013b). Cette connaissance pratique, acquise, entre autres, par l'expérience, est en
opérations dëvaluation. Elle o ffre, en effet, !Opportunité d'identifier les i.ndicateurs effet nécessaire, par exemple pour juger de la plausibilité des objectifs et de laper-
de mesure des effets du programme et de sélectionner la méthode la plus efficace tinence des activités par rapport au but visé par le programme. Enfin étant d onné
pour atteindre les objectifs fixés par les p arties prenantes (Aquilino, Arias, Estévez q ue l'ÉÉ est un processus interactif nécessitant de nombreux contacts avec les par-
et Echt, 2013; Wholey, 1987). Sc faisant, cette démarche permet aux évaluateurs ties prenantes, !'évaluateur engagé dans cette étude doit pos~é~er des compétences
de produire des conclusions pertinentes par rapport à !Objet évalué (Dunet et en matière de communication interpersonnelle et de négociation (Kaufman -Levy
coll., 2013). el Poulin, 2003; Leclerc, 2012; Macaskill et coll., 2000; Smith, 2005).

OPE31.1, 18- 33 ~2 016


02016 OPE31.1, 18-33 doi: 10.3138/cjpe.207 doi: 10.3138/cjpe.207
28 Soura, Dagenais, Bastien, Fallu et Janosz l:étude d'évaluabilité: Utilité et pertinence 29

CONCLUSION saines habitudes de vie et la prévention des problèmes liés au poids - Phase 1. Montréal:
Direction de santé publique, Agence de la santé et des services sociaux de Montréal.
LObjectif de cet article était de présenter ce quest l'ÉÉ, soit une démarche qui peut
être utile au processus dëvaluation d e programme. Développée en réaction à la Contandriopoulos, A.-P., Rey, L., Ilrousselle, A. et Champagne, F. {2012). Évaluer une
fai~le qualité d~s évaluations conduites vers les années 1970, lesquelles ne répon- intervention complexe: Enjeux conceptuels, méthodologiques et opérationnels. La
daient pas tOUJours aux préoccupations des parties prenantes, i'ÉÉ garde toute revue ca11adie1111e dëvaluatio11 de programmes, 26(3). 1-16.
sa pertinence pour éclairer les évaluations conduites aujourd'hui. Elle peut être Davies, R. (2013a). A bibliography on evaluability assessment. Repéré à http:l/mande.
utilisée lors de mlaboration d'un programme ou au début de sa mise en œuvre. co.uklblog/wp-content/uploads/2013/02/Zotero-report.htm le 6 octobre 2014.
Dans ce cas, son rôle est d'apporter des améliorations à la théorie du programme, Davies, R. (2013b). Planning evaluabilityassessmcnts: A synthesis of the literature with rec-
au modèle logique et conséquemment à sa performance. On peut aussi recourir à ommendations. Working Paper N 40. UK: Oepartmenl for International Dcvclopmcnt.
cette démarche lorsque le programme à évaluer est dans une phase avancée de son D'Oslie-llacine, L., Dagenais, C. et Ridde, V. (2013). An evaluability assessment of a
implantation ou est achevé. La stratégie mise en œuvre visera ici à déterminer si West Africa based Non-Governmental Organization's (NGO)_progressive evaluation
les conditions d'une évaluation susceptible d'apporter des informations utiles aux strategy. Evaluation and Progmm Pla1111ing. 36(1), 71-79. http://dx.doi.org/I0.1016/
parties prenantes sont réunies. j.cvalprogplan.2012.07.002
Comme nous l'avons montré, l'ÉÉ pourrait permettre aux décideurs et aux Dunet, D.O., Losby, J.L. et Tucker-Ilrown, A. (2013). Using evaluability assessment to
intervenants d'apporter des améliorations au programme initial et de faciliter support the dcvclopment of praclice-bascd evidcnce in public health. /011rnal of
l'évaluation formelle qui s'ensuivra. Elle nécessite un processus inclusif qui prend Public Healt/1 Management and Practice, 19(5). 479-482. http:l/dx.doi.org/10. 1097/
en compte les opinions et perceptions de toutes les entités concernées par le pro- PHH.Ob013e318280014f
gramme et les résultats de lëvaluation. I.:ÉÉ peut donc s'avérer utile aussi bien pour Dunn, E. (2008). Plmmingfor cost effective emlrm/ion witll e1·al11ability asse.c.sment, Impact asse.c.s-
les décideurs, les évaluateurs et le programme à évaluer. ment primerseries # 6. Washington: United States Agcncy for International Developmcnt
Esher, A., dos Santos, E.M., Azcrcdo, T.IJ., Luiza, V.I.., Osorio-de-Castro, C.G.S. et Oliveira,
NOTES M.A. (20 l I). Logic models from an evaluability asscssment of pharmaceutical services
for people living with HIV/AIDS. Ciê1rcia & Sa!lde Coletiva, 16(12). 4833-4844.
Les parties prenantes ou stakeholders concernent toutes les entités qui ont un intérèt http://dx.doi.org/l 0.1590/S 1413-81232011OO1300032
quelconque pour le programme et qui pourraient tirer un bénéfice des résultats de
Horst, P., Nay, J.N., Scanlon, J.W. el Wholey, J.S. (1974). l'rogram management and the
lëvaluation. Les parties prenantes peuvent être les décideurs, les personnes qui finan-
fcderal cvalualor. Public Administration Review, 3•1( 4). 300-308. http://dx.doi.
cent le programme, le personnel du programme, les populations cibles, les utilisateurs
<les résultats, etc. org/10.2307/975239
2 Un programme évaluable s'entend ici dans la perspective de Wholey (2010), cèst-à-dire Kania, A., Patel, A.Il., Roy, A., Yclland, G.S., Nguyen, D.'1'.K. et Verhoef, M.J. (2013). Cap-
un programme qui permet de conduire une évaluation utile. Car pour cet auteur, s'il turing the complexity of evaluations of health promotion interventions: A scoping
est possible de procéder à lëvaluation de tous les programmes, tous ne permettent pas review. Ca11adia11 Jou mal of Progmm Eval11atio11, 27( I ), 65-91.
cependant de conduire une évaluation utile. Kaufman-Levy. D. et Poulin, M. (2003). Emlttability assess111e11t: Exa111i11i11g tire readi11e..c.s
of a progrmn for eval11atio11. Washington: Juvcnile Justice Evaluation Center, Justice
RÉFÉRENCES Research and Statistics Association.
Akintobi, T.~.'. Y.1ncey, E.M., Daniels, P., Mayberry, R.M., Jacobs, D. et Berry, J. (2012). Using Leclerc, IJ.-S. (2012). Utilité de lëvaluation de lëvaluabilité des politiques gouvernementales
evaluab1hty assessment and evaluation capacity-building to strengthen community- de lutte contre le tabagisme: Lèxpérience québécoise des centres d'abandon du tabag-
based prevcntion initiatives. Jou mal of Healtli Cnre for the Poor and U11derserved, isme. La rev11e ca11adie11ne dëml11ation de programmes, 24(3). 59-71.
23(2). 33- 48. http://dx.doi.org/I0.1353/hpu.2012.0077
Lessard, S., Stich, C. et Montreuil, A. (2012). Éval11al/011 de /ëvalimbililé d11 Plan q11ébécois
Aquilin~, N., Arias, E., Estévez,.S. et Ech~, L. (2013). Towards a11 evalttability assessme 11t of de pré1•e11tio11 d11 tabagisme cirez les jeunes 2010-2015. Québec: Institut National de
soctal plm'.s and prog~ams 111 Arge11/111a: A st11dy of 1611atio11al i11ilialives. Policy Brief Santé Publique du Québec.
Buenos Aires, Argentma: Center for the lmplementation of Public Policies Promoting
Levitan, L.C. et Gutman, M.A. (2010). Overview and ralionale for the systcmatic screen-
Equity and Gro\vth.
ing and assessment method. New Directions for Eval11atio11, 2010(125). 7-31. http://
Buchanan, H. el Kuji-Shikatan, K. (2014). Evaluator competencies: 'Ihe Canadian expcri- dx.doi.org/ I 0.1002/ev.3 I 8
encc. Ca11adia11 Jo11rnal of Progmm Evalualio11, 28(3). 29-47.
Levitan, L.C., Khan, L.K., !log, D., Dawkins, N. et Cotton, D. (2010). Evaluabilityassessment
Ilurrows, S., Ililodeau, A. et Litvak, E. (2012). Étude de la faisabilité de lëvaluation et des possi- to improve public health policies, programs, and practices. A111111al Review of Public
bilités de recherche du Plan d'action montréalais 2012-2014 de la 1àble régionale sur les Healt/1, 31( 1),213-233. http://dx.doi.org/10.1146/annurev.publhealth.O 12809.103625

©2016 0Pf31.1, 18-33 doi: 10.3138/cjpe.207 doi: 10.3138/cjpe.207 OPE31.l, 18-33 ©2016
... ---~,..·.- ........... ,.,

30 Soura, Dagenals, Bastien, Fallu et Janosz L'étude d'évaluabilité : Utilité et pertinence 31

Luo, H. (2010). The role for an evaluator: A fondamental issue for evaluation of educa- Smith, M.E ( 1989). Evaluability assess111e11t: A pmctical appronc/1. Boston Norwell, Mass.:
tion and social programs. lntemnt/01111/ Ed11cntio11 Sludies, 3(2). 42-50. http://dx.doi. Kluwer Acadcmic; Distributors for North America Kluwer Academic Publishers.
org/10.5539/ies.v3n2p42 http://Jx.doi.org/ 10.1007/978-94-015-7827-1.
Macaskill, L., Dwyer, J.J.M., Uetrecht, C., Dombrow, C., Crompton, R., Wilck, D. et Stone, J. Smith, M.F. (1990). Evaluability assessment: Reficelions on the process. fan/uatio11 a11d
~2000). An evaluability assessmcnt to develop a restaurant hcalth promotion program Progmm P/111111i11g, 13(4). 359-364. http:l/dx.doi.org/10.1016/0149-7189(90)90020-W
111 Canada. Hen/t/1 Pro11101/011 lntemnlio11a/, 15(1), 57- 69. http://dx.doi.org/10.1093/
heapro/15.1.57 Smith, M.F. (2005). Evaluability assessment. Dans S. Mathison (éd.). E11cyclopedia of el'lll-
rmtio11 (pp. 137- 140). T11ousa11d Oaks, CA: Sage Publications, Inc. http://dx.doi.
Nay, J.N. et Kay, P. (1982). Govem111e11t oversight 1111d eva/1111bility assess111e11t. Lexington, org/ 10.4135/9781412950558.n l 77.
MA: Lexington.
Strosberg, M.A. et Wholey, J.S. ( 1983). Evaluability assessment: Prom theory to practice in
Ogilvie, D., Cummins, S., Petticrew, M., White, M., Joncs, A. et Wheeler, K. (2011). As- the departmenl ofHealth and Human Services. Public Ad111i11istratio11 Revieiv, 43(1),
sessing the evaluability of complex public hcalth interventions: Five questions for 66-71. http://dx.doi.org/I0.2307/975301
researchers, fun<lers, and policymakers. Milba11k Quarter/y, 89(2). 206-225. http://
dx.doi.org/10.l l l l/j.1468-0009.2011.00626.x Tlmrston, W.E., Graham,). et Hat field, J. (2003). Evaluability assessmcnt: A catalyst for pro-
gram change and improvement. fa•a/1111tio11 & t/1e Hea/th Professions, 26(2). 206-221.
Pineault, R. et Daveluy, C. (1995). La p/1111ificatio11 de la sauté: Co11cepls, méthodes el stra- http://dx.doi.org/ 10.1177/0163278703026002005
tégies. Montréal: l!ditions nouvelles.
Thurston, W.E. et Potvin, L. (2003). Evaluability assessment: A tool for incorporating
Posavac, E.J. et Carey, R.G. (2007). Progm111 evn/1111tio11: 1Het/1ods a11d case sl11dies (7e éd.). evaluation in social change programmes. Eva/11atio11, 9(4), 453- 469. http://dx.doi.
Upper Sacldle River, N.J.: R. G. Carey and Associates. org/10.1177/1356389003094006
Potvin, P. (2009). flléments et critères dC!valuabilité d'un programme d'intervention psy- Touati, N. et Su~rez-Herrera, J.C. (2012). LC!valuation des interventions complexes: Quelle
chosociale. Dans M. Alain et D. Dessureault (éds.). É/nboreret éva/11er les progm111111es peut être la contribution des approches configurationnelles? Ln revue ca11ndie1111e
d'i11ten•e11tio11 psrc/1osocinle (pp. 101- 114). Québec: Presses de l'Université du Québec. dëvn/11atio11 de progm111111es, 26(3), 17-35.
Ridde, V. et Dagenais, C. (2012). Introduction générale à l'évaluation de programmes. Dans Trevisan, M.S. (2007). Evaluability assessment from 1986 to 2006. Americn11 /01m111/ of
V. Ridde et C. Dagenais (éds.), Approches et pmtiq11es e11 éva/11atio11 dëprogmmmes. Eva/11atio11, 28(3). 290-303. http://dx.doi.org/I0.1177/1098214007304589
Nouvelle édition revue et 1111g111e11tée (p. 13-32). Montréal, Québec: Les Presses de
l'Université de Montréal. Trevisan, M.S. et Walser, T.M. (2014). fa•a/11abi/ity assess111e11t: I111provi11g e\'11/11111/011 qunlity
1111d 11se. T11ousand Oaks: SAGE Publications, Inc.
Rog, D.J. (1985). A methodological 111111/ysls of eva/11abilily nssess111e11t. (Doctoral disserta-
tion, Vanderbilt University, Nashville, Tennessee). Trevisan, M.S. et Yi, M.H. (2003). Evaluability assessment: A primer. Practlca/ Assessment
Resenrch c:~ Eva/11atio11, 8(20). Repéré à http://PAREonlinc.net/getvn.asp?v=8&n=20
Rogers, P.J. (2008). Using programme thcory to evaluate complicated and complex aspects of le 2 octobre 2014.
interventions. Ei•a/11111/011, 14(1), 29- 48. http:l/dx.doi.org/10.1177/1356389007084674
Van Voorhis, P. et Drown, K. (1996) . Evaluability assessmcnt: A tool for program devclop-
Rossi, P.H., Lipsey, M.W. et Freeman, H.E. (2004). Evnlr111tio11: A systematic npproach (7e ment in corrections. Washington, DC: National Institute of Corrections.
éd.). Thousand Oaks, CA: Sage.
Vanderherden, L., Verhoef, M., Scott, C. et Pain, K. (2006). Evaluability asscssmcnt as a tool
Rutrnan, L. ( 1980). Pla1111/11g 11sef11/ eva/11atio11S: Eva/11ability assessmellf. Beverly Hills, CA: for rescarch nctwork development: Experiences of the complcmentary and alternative
Sage Publications.
medicine cducation and research nctwork of Alberta, Canada. C111111dia11 /ormra/ of
Rutman, L. (1977). Formative research and program cvaluability. Dans L. Rutman (éd.). Progra111Eva/1111tio11,21(1). 63-82.
Ei•a/11atio11 research methods: A baslcg11/de (pp. 59-71). Deverly Hills, CA: Sage. Walser, T.M. et Trevisan, M.S. (2016). Evaluability assessmcnt thesis and dissertation
Sanou, A., Kouyate, D., llibeau, G. et Nguyen, V.K. (2011). Evaluability Assessment of studies in graduate professional degrce programs: Rcvlew and recommendations.
an immunization improvement strategy in rural Burkina Faso: Intervention theory A111erica11 /011mnl of Evn/1111tio11, 37(1). 118-138.
versus reality, information need and cvaluations. Evn/11111/011 1111d Progmm P/111111i11g, Wholey, ).S. (1976). T11e role of evalnation and evaluator in improving public programs:
34(3), 303-315. http://dx.doi.org/10.1016/j.evalprogplan.2010.10.005 T11e bad news, good news, and a biccntennial challenge. P11b/lc Ad111i11istrntio11 Revleiv,
Schmidt, R.E., Scanlon, J.W; et Dell, J.O. (1979). Evalrrability assess111e11t: Maki11g p11blic 36(6). 679-683. http:l/dx.doi.org/10.2307/975063
progmms work better. H111111111 . Services Mo11ogmpli Ser/es (Vol. 14). Washington, D.C.: Wholey, J.S. (1987). llvaluability assessment: Developing program theory. New Directio11s
Department ofHealt11, Education, and Welfare. for Progmm Evnlr111tio11, l987(33). 77- 92. http://dx.doi.org/10.1002/ev.1447

Q 2016 CJPE31.1, 18-33


doi: 10.3138/cjpe.207 dol: 10.3138/cjpe.207 CJPE31.1, 18- 33 02016
L'étude d'évaluabilité: Utilité et pertinence 33
32 Sou ra, Dagenais, Bastien, Fallu et Janosz

cette réalisation lui a valu d'être le lauréat du prix Forces Avenir 2002, dans la catégorie
Wholcy, J.S. (1994). Asscssing the feasibility and likcly usefulncss of evaluation. Dans J.S.
Wholey, H.P. Hatry cl K.E. Newcomer (éds.), Hc111dbook ofpracticnl program e1•al11a- Société, communication cl éducation.
lio11 (pp. 15- 39). San Francisco: Jossey-llass. l\Uchcl Janosz est professeur titulaire et directeur de l'lkole de psychoéducation. de
l'Université de Montréal. JI dirige le Groupe de recherche sur les environnements s~ola1res
Wholey, J.S. (2010). Exploratory evalualion. Dans J.S. Wholey, H.P. Hatry et K.E. New-
(GRES) depuis 2005 et est chercheur régulier à l'Institut de re~he.rche en ~an lé pu?hque de
comcr (éds.), Ha11dbook of practical program eva/11alio11 (pp. 81 - 99). San Francisco:
l'Université de Montréal (JRSPUM). Dans la dernière décenme, 11 a pubhé près dune cen-
Jossey-Bass.
taine d'articles scientifiques el rapports gouvernementaux. Ses intérêts. de rcchc~chc portent
sur l'étiologie et la prévention du décrochage et de la violence ~cola1res, les hens entre la
scolarisation, l'environnement scolaire et l'adaptation ps>•cho~ocial~ des cn~anls et de~ ado-
PRÉSENTATION DES AUTEURS lescents. Il est également activement impliqué dans lëvalua~1on d m.novallons à petites et
Biesse D. Soura est étudiant en fin dè!tudes doctorales à !'École de psychoéducation de larges échelles faisant la promotion de l'utilisation des connaissances issues de la recherche.
l'Université de Montréal. Dans le cadre de sa thèse, il évalue les processus el les eOets d'une
intervention visant à prévenir l'usage de substances psychoactives (SPA) en milieu sco-
laire. JI est ex-boursier du Programme de formation Prévention, Promotion el Politiques
Publiques (4P) du Réseau de Recherche en Santé des Populations du Québec (RRSPQ)
et est actuellement agent de recherche au sein de !'Alliance de Recherche Universités-
Communautés (ARUC) sur les trajectoires addictives et les trajectoires de services pour
les personnes toxicomanes. Ses intérêts de recherche portent sur l'application d'approches
innovantes et participatives en évaluation de programmes, lè!tiologic et la prévention du
VIH cl de la consommation de substances psychoactives, lcs méthodes de recherche mixtes
et le transfert des connaissances.
Christian Dagcnais est professeur agrégé au département de psychologie de l'Université de
Montréal depuis 2004. Depuis 2008, il dirige lè!quipc RENARD, la première équipe trans-
disciplinaire de recherche sur le transfert des connaissances (TC) dans le domaine social.
Cette équipe regroupe une cinquantaine de membres issus des universités, des milieux de
pratique el dorganismes de TC. Ses intérêts de recherche portent sur: 1) lè!valuation des
effets des différentes stratégies de TC, 2) l'identification des conditions favorisant une plus
grande utilisation de la recherche et 3) les développements méthodologiques et conceptuels
pour lëvaluation des activités de TC.
Robert Dasticn est chercheur à la Direction de la santé publique (DSP) de Montréal
et professeur adjoint de clinique au Département de médecine sociale et préventive de
l'Université de Montréal. li détient une maitrise et un doctorat en éducation, ainsi qu'un
baccalauréat en design. li s'intéresse aux politiques, aux discours et aux pratiques de
prévention. Ses travaux tentent de cerner les vecteurs d'influence de la recherche sociale
sur les politiques et d'identifier de nouveaux leviers pour que la recherche contribue à
renouveler les politiques, les pratiques et les services. En collaborant avec des personnes
œuvrant dans le domaine des arts, du social et de la santé, il provoque la rencontre entre
diverses disciplines, développe de nouveaux questionnements, et expérimente de nouvelles
méthodologies de recherche et de création.
Jean-Sébastien Fallu a obtenu sa maîtrise et son doctorat en psychologie à l'Université de
Montréal. Il a par la suite effectué un stage postdoctoral au Centre de 1oxicomanie et de
santé mentale, affilié à l'Université de Toronto. Il est professeur à l'lkole de psychoéduca-
tion de l'Université de Montréal depuis 2005 cl directeur de la revue Drogues, santé et
société. Ses intérêts de recherche portent notamment sur l'étiologie et la prévention de la
consommation problématique de substances chez les adolescents el il intervient fréquem -
ment dans les médias sur ces sujets. Président-fondateur de l'organisme GRIP Montréal,

CJPE31.1, 18-33 ©2016


Q 2016 CJPE 31.1, 18-33 doi: 10.3138/cjpe.207 doi: 10.3138/cjpe.207

You might also like