Accéder au contenu.
Menu Sympa

athena - [Athena] Appel à contributions évaluation de la recherche/research evaluation

athena AT services.cnrs.fr

Objet : Histoire des techniques

Archives de la liste

[Athena] Appel à contributions évaluation de la recherche/research evaluation


Chronologique Discussions 
  • From: virginie tournay <vtournay AT yahoo.fr>
  • To: athena AT services.cnrs.fr, listancmsp AT lists.apinc.org, mshpn-contact AT mshparisnord.fr, rt19 AT services.cnrs.fr, liviavel AT yahoo.fr
  • Subject: [Athena] Appel à contributions évaluation de la recherche/research evaluation
  • Date: Sun, 9 Jan 2011 15:42:20 +0000 (GMT)
  • Domainkey-signature: a=rsa-sha1; q=dns; c=nofws; s=s1024; d=yahoo.fr; h=Message-ID:X-YMail-OSG:Received:X-Mailer:Date:From:Subject:To:MIME-Version:Content-Type; b=q2dSGEkRhJx3sbSAZvyV8PZVjAk8ElsDi2jNeY3IzOgUjo3aKgo7VjRdCL/I1gzNEeb83EWWzr4+33SL+ThMnSgm2OTMas0PTtGf7dvFrD/FlvciVD41P+LrOaaUYa2RyNNEqaCNA4FAFLOWMvA/UL18schMjxH4CtESHqgRe+Y=;
  • Mailscanner-null-check: 1295192896.69504@xvvrboAV7oXa6PtQcq5XgQ

Cher(e)s collègues,


La revue Quaderni lance un appel à contributions (ci-joint) pour un dossier thématique intitulé : « L’évaluation de la recherche : pour une réouverture des controverses / Research evaluation: reopening the controversy ».

Ce dossier est coordonné par Séverine Louvel (UMR PACTE, CNRS et Grenoble Université).

 

Comité scientifique:

 

Nicolas Dodier (Inserm/GSPM, CNRS-EHESS),

Lars Engwall (Uppsala University),

Frédéric Forest (Paris 7/Rouen University),

Olivier Godechot (CMH – CNRS/Ecole Normale Supérieure),

Michèle Lamont (Harvard University),

Liudvika Leišytė (Twente University),

Séverine Louvel (PACTE, CNRS and Grenoble University),

Christine Musselin (CSO –Sciences Po Paris and CNRS).

 

- Date limite d’envoi des résumés de 8000 signes : 1er février 2011

 

 

L’évaluation de la recherche : pour une réouverture des controverses

 

L’évaluation est aujourd'hui consubstantielle aux politiques de recherche publique. Elle se rattache à ces « technologies à distance » par lesquelles les Etats contemporains pilotent, orientent, régulent ou contrôlent les activités de groupes sociaux[1].

 

En tant que telle, l’évaluation repose sur trois piliers :

 

ü     Des agencements socio-techniques (standards, procédures, critères, indicateurs, mesures, etc.) qui visent à atteindre une « objectivité mécanique»[2] supposée exempte de la subjectivité des jugements interpersonnels ;

ü     Une figure du pouvoir fondée sur l’adhésion contractuelle (auto-évaluation, inversion des rôles entre évaluateur et évalué) et sur le savoir plutôt que sur la contrainte[3] ;  

ü     Enfin une Weltanschauung, à la fois vision du monde et système de valeurs destinée à orienter l’action, structurée autour des valeurs de compétition, de rentabilité et de performance.      

 

Ainsi définie, l’évaluation de la recherche est le produit de mouvements historiques aujourd'hui bien connus : dans la longue durée, l’avènement du règne de la mesure dans les politiques publiques[4] ; au vingtième siècle, l’apparition dans l’ordre industriel et la diffusion dans le secteur public des mots d’ordre de « qualité totale », « démarche qualité » et de « benchmarking » où la compétition devient un principe d’organisation[5] ;  enfin, à partir des années 1980, l’adoption de la doctrine du Nouveau Management Public (dans l’enseignement supérieur et la recherche, mais aussi la santé, la justice, etc.) par les Etats occidentaux et par la Commission Européenne. Ses principes de rentabilité et d’accountability (à la fois « rendre des comptes » et « être responsable »)[6] s’inspirent directement du management des entreprises.

 

Ce numéro de la revue Quaderni est motivé par le constat d’un déficit d’analyse des usages et les effets de l’évaluation, qui conduit d’une certaine manière à clore les controverses que des dispositifs plus ou moins récents[7] pourraient susciter. L’affaire semble en effet entendue :   

 

ü      les agencements sociotechniques : La production « d’objectivité mécanique » a été décrite comme une activité à visée ontologique. Les dispositifs d’évaluation feraient advenir un monde peuplé d’entités nouvelles (« taux de publication », « rayonnement de la recherche », « part des financements contractuels », etc.) et ils définiraient le mode d’être au monde (survie ou disparition) des entités existantes.

Cette thèse véhicule toutefois une vision monolithique des agencements sociotechniques produits par l’évaluation, très diversifiés à l’échelle internationale[8] ou selon l’objet considéré (revues, scientifiques, laboratoires ou établissements). Elle postule qui plus est une supériorité du jugement collectif des pairs, au prix peut-être d’une simplification voire d’une idéalisation de celui-ci[9].   

 

ü      Le pouvoir est vu comme tyrannique[10] : il s’arrogerait un droit sur le savoir et l’assujettirait à son projet de domination.    

Cette affirmation tend à opérer un « grand partage » entre savoir et pouvoir, et à présenter seulement l’évaluation comme une entreprise de mise au pas des communautés scientifiques. Le pouvoir est ici impersonnel (l’Europe, la bureaucratie) ; les « scientifiques experts » ou les « experts gestionnaires »[11], pourtant maîtres d’œuvre de l’évaluation, quasiment invisibles.     

 

ü      Enfin, la Weltanschauung ou « vision du monde » portée par l’évaluation est supposée comporter un ensemble de prescriptions anthropologiques. Elle appellerait à la « fabrication d’un chercheur nouveau »[12], dépourvu de sens critique, relais d’une pensée conformiste, et largement consentant aux injonctions gestionnaires.

Corollaire probable du « grand partage » entre savoir et pouvoir, les mécanismes disciplinaires restent ici dans l’ombre, et avec eux la résistance, la contrainte, mais aussi la satisfaction et la réappropriation stratégique.

 

 

Les articles qui composeront ce dossier thématique de Quaderni dépasseront des interprétations relativement mécaniques ou manichéennes, de manière à rouvrir les controverses autour de l’évaluation de la recherche. Pour ce faire, ils analyseront la variété de ses usages et de ses effets par et sur les différentes parties prenantes de la recherche publique : scientifiques (en tant que chercheurs, membres de comités de rédaction d’une revue, directeurs de thèse, coordinateurs de projet, etc.) ; experts évaluateurs ; gestionnaires d’établissements de recherche ; instances ministérielles ; médias, etc.

 

-         Les articles attendus relèvent de plusieurs disciplines : science politique, sociologie, sciences de la communication, anthropologie, etc.

 

-         Ils développeront une analyse empirique d’un ou plusieurs dispositifs d’évaluation : critères, notes, indicateurs, bibliométrie, classements, recommandations, appréciations, délibérations en jury, comités de visite, etc. Ceux-ci pourront être développés pour des chercheurs, des équipes ou des départements, des revues, des établissements, des comités de programmes, etc.  

 

-         Ils retraceront la généalogie du dispositif étudié, afin de préciser les modalités de diffusion et les voies de standardisation des formes d’évaluation.

 

-         Ils interrogeront les formes de clôture des controverses autour de l’évaluation et ce qu’elles doivent en particulier à la persistance de schémas classiques de la décision politique, linéaires et rationnels[13].

 

-         Ils cerneront les usages et les effets de l’évaluation en privilégiant l’un ou l’autre (ou plusieurs) des trois piliers de l’évaluation.  

 

ü      Les agencements sociotechniques. L’avènement, la stabilisation et la circulation d’entités sociomatérielles ou discursives se font-ils à marche forcée ? « Revues de rang A », départements « quatre étoiles », recherche à « forte retombée socioéconomique », etc. Les auteurs sont invités à comparer la carrière de ces entités (entre dispositifs, disciplines, établissements, etc.) afin de réintroduire des processus, de l’aléa, de la dépendance au sentier, du découplage entre pratiques et discours, en lieu et place d’interprétations déterministes. Les comparaisons dans le temps, et en particulier avec les dispositifs plus anciens d’évaluation par les pairs, permettront également de discuter de « l’objectivité mécanique » visée par les nouveaux dispositifs d’évaluation.

 

ü      Le pouvoir. La recomposition des relations entre parties prenantes de la recherche signe-t-elle un diktat du politique ? Les articles du dossier thématique restitueront la complexité des enjeux de pouvoir soulevés par l’évaluation de la recherche, ils incarneront les acteurs engagés dans ce processus et la manière dont ils exercent leurs prérogatives. Plutôt que de conclure en toute généralité à un accroissement unilatéral du contrôle des managers sur les scientifiques, les auteurs s’intéresseront aux déplacements des sphères d’influence dans l’espace public (instances ministérielles, hiérarchie des établissements, collectivités scientifiques et leurs représentants, comités de programmes, agences d’évaluation, comités de programmes, etc.) et au-delà (monde socioéconomique, agences de notation, think tanks et médias)[14].

 

ü      La Weltanschauung, ou la vision du monde et les valeurs portées par les nouveaux mots d’ordre de l’évaluation. Suscitent-elles normalisation des comportements et conformité, ou consentement et conversions stratégiques ? Historiquement, des professionnels ont refondé leur légitimité[15] en défendant auprès des politiques des mesures quantifiées de leur activité. Les collectivités scientifiques sont loin de parler à l’unisson[16] en matière d’évaluation, et certains chercheurs devancent leurs évaluateurs en calculant leurs scores individuels (« H Index », citations dans Google Scholar, etc.). Les articles du dossier thématique pourront s’intéresser à ces scientifiques qui prennent une part active à l’avènement d’un « chercheur nouveau » acquis aux nouvelles formes d’évaluation et en particulier aux indicateurs chiffrés. Les analyses pourront aussi porter sur la montée en puissance d’experts ou de « scientifiques – évaluateurs » (souvent membres des instances décisionnelles des agences d’évaluation, etc.), ou sur le déploiement de nouvelles « écologies de pratiques » pour répondre à l’évaluation[17], observables dans le lancement de programmes de recherche, les réponses aux appels d’offre, la conclusion de partenariats, etc.

Enfin, les contributions pourront envisager comment l’évaluation conforte ou bouscule les rhétoriques professionnelles des chercheurs. Les réformes poussent certains à produire un discours de la dénonciation qui décrit l’évaluation comme une attaque en règle contre la légitimité professionnelle des chercheurs et comme un dévoiement de l’ethos scientifique. Mais à l’inverse, d’autres scientifiques trouveront dans les réformes de nouvelles ressources de légitimation. Ces déplacements des pratiques et des discours renouvellent-il les anciennes lignes de partage au sein du monde académique ? Les articles pourront notamment retracer comment les réformes récentes de l’évaluation ont recomposé les rapports de pouvoir et de légitimité entre spécialités, disciplines, établissements, générations, etc.

 

Modalités de soumission des propositions

 

Les auteurs intéressés sont invités à soumettre un résumé qui ne dépassera pas 8000 signes. Ce résumé indiquera : l’argument proposé, la matière empirique, le cadre théorique, les cinq références bibliographiques essentielles.

 

Les propositions seront évaluées par un comité scientifique désigné par le comité de rédaction de la revue Quaderni pour cet appel à propositions.

 

Composition du comité scientifique : Nicolas Dodier (Inserm et GSPM, CNRS-EHESS), Lars Engwall (Université d’Uppsala), Frédéric Forest (Chercheur associé au CRPMS, Paris 7 et Administrateur civil, DGS de l'Université de Rouen), Olivier Godechot (CMH – CNRS et Ecole Normale Supérieure), Michèle Lamont (Université de Harvard), Liudvika Leišytė (CHEPS, Université de Twente), Séverine Louvel (PACTE, CNRS et Université de Grenoble), et Christine Musselin (CSO – Sciences Po Paris et CNRS).  

 

Les résumés peuvent être indifféremment rédigés en anglais ou en français. Ils seront accompagnés du nom de leur(s) auteur(s), ainsi que des affiliations professionnelles et des coordonnées de ce(s) dernier(s).

Ils doivent être envoyés dans un même courriel aux adresses suivantes : severine.louvel AT iep-grenoble.fr ou quaderni_researchevaluation AT yahoo.fr

Tout renseignement peut être demandé aux mêmes adresses.

- Date limite d’envoi des résumés de 8000 signes : 1er février 2011

- Sélection des résumés par le comité scientifique : 15 mars 2011

- Pour les résumés acceptés, date limite d’envoi des textes (français ou anglais, environ 35000 signes) : 1er octobre 2011.

 

 

Research evaluation: reopening the controversy

 

Research evaluation has become an intrinsic part of public research policy, and built into those technologies that national states now use to pilot, guide and regulate social groups, and control their activities at a distance[1].

Research evaluation is based on three notions:

ü      Sociotechnical arrangements (standards, procedures, criteria, indicators, measurements, etc.) that aim to ensure a “mechanical objectivity”[2] that is free from the subjectivity inherent in personal judgment;

ü      A definition of power based on contractual agreement (auto-assessment, reversal of roles between assessor and assessed) and on the production and use of expert knowledge[3];

ü      A Weltanschauung - both a world view and a value system - designed to guide action and structured around values of competition, profitability and performance.

 

Research evaluation is the product of some well-documented historical movements: the long-term emergence of measurement in public policies[4]; the appearance in the 20th Century – in both the industrial order and the public sector - of such touchstone dogmas as “Total Quality Management”, “Performance Management” and “benchmarking”, which enshrine competition as an organizing principle[5]; finally, the consolidation of this trend in western states (and the EC) since the 1980s with the adoption of the New Public Management doctrine (in higher education and research, but also in health, justice and so forth), whose principles of profitability and accountability[6] are directly inspired by management thinking and practice in the for-profit sector.

This impulse behind this special issue of Quaderni grew from the observations that neither the uses nor the effects of research evaluation have received sufficient analysis, and that this lack does not favor debate around recent events[7]. While it might appear that a consensus has emerged as to how research evaluation should be characterized – and that that consensus has gained a general legitimacy among scholars – in fact other voices have suggested there is still a debate to be heard. Thus:

 

ü     On sociotechnical arrangements: The notion of “mechanical objectivity” has been described as ontologically-oriented. The assessment procedures are seen as giving rise to a clutter of new entities (“publication rates”, “scope of influence of research”, “proportion of contract-based funding”, etc.) which decide the survival or disappearance of existing entities.

But this interpretation projects too monolithic a vision of contemporary socio-technical assessment arrangements - in reality, these are highly diversified, both at the international level[8] and depending on the entity under consideration (journals, scientists, laboratories and institutions). Moreover, it suggests the superiority – even the idealization - of previous forms of assessment (e.g. the collective judgment of peers) perhaps at the cost of simplifying the process[9].

 

ü     Power is seen as tyrannical,[10] as if claiming the right to ultimate knowledge, and to be able to enforce subservience to some ‘project for domination’.

But this view tends to imply a fundamental schism between knowledge and power, and to characterize research evaluation as being purely an exercise in keeping scientific communities at bay. Power is seen as impersonal (European, bureaucratic); with experts[11] having only a ‘behind the scenes’ role at specific stages, despite the fact that, in reality, they play a key role in how evaluation actually unfolds.

 

ü     The Weltanschauung enshrined in assessment is held to include a set of anthropological prescriptions that appear to call for the “creation of a new type of researcher”,[12] who has no critical sense, but who merely relays conformist thought, and largely abides by management injunctions.

But this interpretation does not consider disciplinary mechanisms, or give any sense of either their enforcement or of resistance against them. Nor does it take on board the view that researchers may not be merely victims, or that there has been both agreement with - and strategic buy-in to - the new arrangements.

 

 

Contributions to this special issue of Quaderni will therefore go beyond such relatively mechanical or Manichaean interpretations and re-open the whole – potentially controversial – debate around research evaluation. They will analyze the variety of its uses and effects, both by and on different public research stakeholders: scientists (in their role as researchers, members of journal editorial boards, doctoral supervisors, project coordinators, etc.); expert assessors; research institute managers; ministerial bodies; the media, etc.

 

-         Contributions may come from a variety of disciplines: sociology, political science, information science, anthropology, etc.

 

-         Empirical analyses will focus on one (or more) assessment procedures: criteria, notes, indicators, bibliometrics, rankings, recommendations, appraisals, jury decisions, visiting committees, etc., and may relate to researchers, teams or departments, reviews, establishments, program committees, etc..

 

-         Articles will go back over the history of the procedure under study, in order to specify modes of dissemination and standardization of research evaluation.

 

-         They will question which arguments and actions might achieve closure in the controversy around assessment, and how they relate in particular to the continuation of classical political decision-making models, both linear and rational[13].

 

-         They will focus on the uses and effects of research evaluation procedures by choosing one or other (or several at once) of the following angles:

 

ü     Sociological arrangements. The emergence, stabilization and circulation of socio-material or discursive entities: an imposed process? “Rank-A journals”, “four star departments”, “high socio-economic impact research”: authors are invited to compare the development of these entities in terms of procedures, disciplines, establishments, etc. so as to decouple discourses from practices and reintroduce processes, uncertainties and path-dependence in place of deterministic interpretations. Comparisons over time (in particular with older style peer-review mechanisms) will also foster discussion around the efficacy of the “mechanical objectivity” which seems to be the aim of current research assessment procedures.  

 

ü     Power. Recomposing the relationships between research stakeholders: the unquestioned diktat of policy? Where many previous contributions on this subject have seen power as impersonal, we hope articles in this special issue will examine the complexity of power issues raised by research evaluation, identifying the actors involved in the process and considering how they exercise their prerogatives. Rather than simply concluding (in a general fashion) that there has been a unilateral increase in control of managers over scientists, authors are invited to look at the shifts in spheres of influence in the public arena (ministerial bodies, hierarchy of institutions, scientific bodies and their representatives, program committees, assessment agencies, etc.) and beyond (to the socioeconomic world, rating agencies, think-tanks and the media).[14]

 

ü     New “Weltanschauung” and new values. Standardization of behavior - or strategic conversions to the new evaluation dogmas? Historically, professionals have used quantified measurements of their activities to establish their legitimacy[15] and to defend their professions before politicians. Scientific communities are far from speaking with one voice on the subject of assessment[16] – and certain researchers have managed to keep one step ahead of assessors by calculating their own individual scores (“H Index”, Google Scholar citations, etc.). Special Issue articles might look at how certain scientists have taken active roles in the emergence of the “new researcher”, supporting the new forms of assessment, particularly their quantitative methods. Other options for investigation could include the increasing influence of experts (such as membership of assessment agencies’ decision-making bodies, etc.) and how “ecologies of practices” have been transformed by the need to satisfy new assessment procedures,[17] which can be sensed in research program launches, answers to calls for tenders, setting up of partnerships, etc..

 

Finally, articles may examine whether the new forms of assessment will modify the professional rhetoric of researchers: reforms can push certain actors to adopt a denunciatory approach which characterizes research evaluation as an attack on researchers’ professional legitimacy and the whole scientific ethos. On the other hand, some scientists are finding new sources of legitimacy in these reforms. But do the shifts in practices and messages occasioned by new forms of evaluation risk reviving old dividing lines in academia? In particular, it will be interesting to look back at how the power relationships and legitimacies between specialties, disciplines, establishments, generations, etc. have developed since the institution of the new assessment procedures.

 

How to submit a contribution?

Interested authors are invited to submit an abstract (not exceeding 8,000 characters) which should indicate: the main argument to be developed in the paper; its empirical basis and theoretical frames; and the paper’s five main bibliographical references. Proposals may be made in English or in French, and the abstracts should be sent as an attachment to severine.louvel AT iep-grenoble.fr or to quaderni_researchevaluation AT yahoo.fr (All additional requests may be sent to the same addresses).  

Please provide the contributor's name(s), department and professional affiliations, address, phone number and e-mail address in the body of the e-mail message.

Proposals for papers will be evaluated by an international scientific committee selected by Quaderni’s editorial board specifically for this issue.

Scientific committee: Nicolas Dodier (Inserm and GSPM, CNRS-EHESS), Lars Engwall (Uppsala University), Frédéric Forest (Paris 7 and Rouen University), Olivier Godechot (CMH – CNRS and Ecole Normale Supérieure), Michèle Lamont (Harvard University), Liudvika Leišytė (Twente University), Séverine Louvel (PACTE, CNRS and Grenoble University), and Christine Musselin (CSO – Sciences Po Paris and CNRS).

- Deadline for submission of abstracts (max. 8,000 characters): February 1st, 2011

- Selection of abstracts: March 15th, 2011

- - For selected abstracts, full papers (in English or in French, max. 35,000 characters) to be sent by October 1st 2011.



[1] Porter, T. M. Trust in Numbers: The Pursuit of Objectivity in Science and Public Life Princeton, NJ, Princeton University Press, 1995.

[2] Ibid.

[3] Miller, J.-A. and Milner, J.-C. Voulez-vous être évalué ? Paris, Grasset 2004.

[4] Desrosières, A. La politique des grands nombres. Histoire de la raison statistique. Paris, La découverte, 1993.

[5] Bruno, I. A vos marques, prêts… cherchez ! La stratégie européenne de Lisbonne, vers un marché de la recherche. Collection Savoir/Agir. Paris, Editions du croquant, 2008.

[6] Garcia, S. "L'évaluation des enseignements : une révolution invisible." Revue d'Histoire Moderne et Contemporaine,  volume 55-4bis, number 5, 2008, p. 46-60. Ferlie, E., Musselin, C., et al. "The steering of higher education systems: a public management perspective." Higher Education, volume 56, number 3, 2008, p. 325-348.

[7] Here we refer to the creation of national assessment procedures (Research Assessment Exercise in the UK, Valutazione triennale della ricerca in Italy, Standard Evaluation Protocol for Public Research Organizations in the Netherlands, Agence de la Recherche et de l’Enseignement Supérieur in France, etc.), the proliferation of rankings for institutions (Shanghai, Times Higher Education, etc.) and journals (the European Science Foundation’s ranking of social science journals ‘European Reference Index for the Humanities’ (ERIH), etc.)

[8] Whitley, R. and Gläser, J. (ed). The Changing Governance of the Sciences. Sociology of the Sciences Yearbook. Dordrecht, Springer, 2008.

[9] Lamont, M. How Professors Think: Inside the Curious World of Academic Jugdment. Cambridge, Harvard University Press, 2009.

[10] Zarka, Y.-C. "L'évaluation : un pouvoir supposé savoir." Cités,  volume 37, number 1, 2009, p. 113-123.

[11] Vilkas, C. "Des pairs aux experts : l'émergence d'un « nouveau management » de la recherche scientifique ?" Cahiers internationaux de sociologie,  volume 126, number 1, 2009, p. 61-79. Garcia, S. "L'expert et le profane : qui est juge de la qualité universitaire ?" Genèses,  volume 70, number 1, 2008, p. 66-87.

[12] Gori, R. "Les scribes de nos nouvelles servitudes." Cités,  volume 37, number 1, 2009, p. 65-76.

[13] SFEZ, L. Critique de la décision, Presses de Sciences Po. First édition 1973, fourth édition 1992. SFEZ, L. "Evaluer: de la théorie de la décision à la théorie de l'institution" forthcoming in Cahiers Internationaux de Sociologie.

[14] Whitley, R., Gläser, J., and Engwall, L. (ed). Reconfiguring Knowledge Production: Changing Authority Relations in the Sciences and Their Consequences for Intellectual Innovation. Oxford, Oxford University Press, 2010

[15] Porter (1995) op. cit.

[16] Mérindol, J.-Y. "Comment l'évaluation est arrivée dans les universités françaises." Revue d'Histoire Moderne et Contemporaine,  volume 55-4bis, number 5, 2008, p. 7-27.

[17] Stengers, I. La vierge et le neutrino. Les scientifiques dans la tourmente Paris, Les empêcheurs de penser en rond, 2006.

 

 



[1] Porter, T. M. Trust in Numbers: The Pursuit of Objectivity in Science and Public Life Princeton, NJ, Princeton University Press, 1995.

[2] Ibid.

[3] Miller, J.-A. et Milner, J.-C. Voulez-vous être évalué ? Paris, Grasset 2004.

[4] Desrosières, A. La politique des grands nombres. Histoire de la raison statistique. Paris, La découverte, 1993.

[5] Bruno, I. A vos marques, prêts… cherchez ! La stratégie européenne de Lisbonne, vers un marché de la recherche. Collection Savoir/Agir. Paris, Editions du croquant, 2008.

[6] Garcia, S. "L'évaluation des enseignements : une révolution invisible." Revue d'Histoire Moderne et Contemporaine,  volume 55-4bis, numéro 5, 2008, p. 46-60. Ferlie, E., Musselin, C., et al. "The steering of higher education systems: a public management perspective." Higher Education, volume 56, numéro 3, 2008, p. 325-348.

[7] On pense ici à la création de dispositifs nationaux d’évaluation (Research Assessment Exercice britannique, Valutazione triennale della ricerca italien, Standard Evaluation Protocol for Public Research Organizations néerlandais, Agence de la Recherche et de l’Enseignement Supérieur française, etc.), à la multiplication des classements des établissements (Shanghai, du Times Higher Education, etc.) et des revues (classement des revues de sciences sociales ‘European Reference Index for the Humanities’ (ERIH) de la Fondation Européenne de la Science, etc.)

[8] Whitley, R. et Gläser, J. (dir.). The Changing Governance of the Sciences. Sociology of the Sciences Yearbook. Dordrecht, Springer, 2008.

[9] Lamont, M. How Professors Think: Inside the Curious World of Academic Jugdment. Cambridge, Harvard University Press, 2009.

[10] Zarka, Y.-C. "L'évaluation : un pouvoir supposé savoir." Cités,  volume 37, numéro 1, 2009, p. 113-123.

[11] Vilkas, C. "Des pairs aux experts : l'émergence d'un « nouveau management » de la recherche scientifique ?" Cahiers internationaux de sociologie,  volume 126, numéro 1, 2009, p. 61-79. Garcia, S. "L'expert et le profane : qui est juge de la qualité universitaire ?" Genèses,  volume 70, numéro 1, 2008, p. 66-87.

[12] Gori, R. "Les scribes de nos nouvelles servitudes." Cités,  volume 37, numéro 1, 2009, p. 65-76.

[13] SFEZ, L. Critique de la décision, Presses de Sciences Po.1ère édition 1973, 4ème édition 1992. SFEZ, L. "Evaluer: de la théorie de la décision à la théorie de l'institution" à paraitre dans les Cahiers Internationaux de Sociologie.

[14] Whitley, R., Gläser, J., et Engwall, L. (dir.). Reconfiguring Knowledge Production: Changing Authority Relations in the Sciences and Their Consequences for Intellectual Innovation. Oxford, Oxford University Press, 2010.

[15] Porter (1995) op. cit.

[16] Mérindol, J.-Y. "Comment l'évaluation est arrivée dans les universités françaises." Revue d'Histoire Moderne et Contemporaine,  volume 55-4bis, numéro 5, 2008, p. 7-27.

[17] Stengers, I. La vierge et le neutrino. Les scientifiques dans la tourmente Paris, Les empêcheurs de penser en rond, 2006.

-- 
Séverine Louvel
Maître de conférences en sociologie à Sciences Po Grenoble 
chercheure à PACTE (UMR CNRS Grenoble Université)
severine.louvel AT iep-grenoble.fr
http://www.pacte.cnrs.fr/spip.php?article331





  • [Athena] Appel à contributions évaluation de la recherche/research evaluation, virginie tournay, 09/01/2011

Archives gérées par MHonArc 2.6.18.

Haut de le page