Article écrit par Johanna Kalbfuss et Karine B.Ventura.
“Dans une société où les chiffres sont les piliers de tout argument, la gestion des données (en particulier la collecte et l’analyse) devient une arme stratégique, voire vitale pour assurer le futur des bibliothèques”.
Voici l’une de nos conclusions préliminaires issues du billet de blog lié au projet de recherche OVaLS 2.0, que nous menons depuis le mois de février. Il est important de se rappeler que si OVaLS 2.0 existe, c’est qu’ OVaLS pré-existait. En effet, ce projet dure depuis 2021 et prends ses fondements avec un questionnaire partagé à de très nombreuses bibliothèques afin de récolter des informations sur ce qu’elles connaissent d’elles-mêmes. Un exemple simple de question qui leur était posées : parmi ces utilisateur-trice-s actif-ve-s, pouvez-vous nous donner le nombre de ceux-celles qui sont hors-territoire de votre bibliothèque ? Les choix de réponse étaient limités entre :
- Cette information est connue et accessible;
- Inconnu mais accessible;
- Inconnue et inaccessible.
OVaLS s’est arrêté là, notre binôme s’est penché sur le projet : OVaLS 2.0 a vu le jour, en février 2025.
Contexte et méthode
Maintenant que nous savions quelles étaient les informations inconnues et jugées inaccessibles par les bibliothèques, le but était de se préoccuper des problématiques les plus pertinentes et de les transformer en indicateurs d’impact.
Considérons pour ce blog, que ces indicateurs soient les outils du projet de la mesure de l’impact des bibliothèques.

Pour transformer ces problématiques en indicateurs, nous avons sélectionné les 20 questions du questionnaire mentionnés plus haut qui avaient recensé le plus de réponses : “inconnue et inaccessible”, nous les avons étayés notamment en y associant le nom de l’indicateur qui lui est relié. Ensuite, nous avons partagé cette liste d’indicateurs détaillés à un groupe de travail qui avait pour mission de les classer par ordre de pertinence. Ainsi, sur la base de ces votes, nous avons pu identifier les 10 indicateurs / les 10 outils qui répondent le plus aux besoins des bibliothèques mais qu’elles ne sont pas en mesure de produire.
Cependant, il ne suffit pas de connaître les outils qui sont à notre disposition pour les utiliser. C’est pourquoi, nous nous sommes proposées de rédiger des “fiches techniques”, que l’on pourrait considérer comme les modes d’emploi de chaque outil. Ainsi la boîte à outils comprend les 10 fiches techniques des 10 indicateurs finalement sélectionnés. Nous avons transmis cette dernière à notre groupe de travail. Le but de tout cela était de rendre les bibliothèques à même de générer des indicateurs par elles et pour elles.
La génération d’indicateurs au-delà d’une question de science de l’information
Les retours sont divers et variés mais mettent en lumière des problématiques intrinsèques aux indicateurs.
Les indicateurs d’impact : facteurs de concurrence entre les bibliothèques
Une première problématique s’est imposée : si les bibliothèques produisent toutes les mêmes indicateurs, elles risquent d’entrer dans une forme de compétition contre-productive. Imaginons deux établissements voisins : l’un met en avant un impact notable sur l’amélioration du niveau de français des usager-ère-s allophones et l’autre, qui n’a pas orienté ses actions vers cet objectif, est contraint de publier le même indicateur pour rester comparable. Ce dernier apparaîtra alors comme moins performant sur un aspect qui ne fait pas réellement partie de ses priorités, ce qui pourrait affaiblir sa crédibilité.
Effectivement, c’est bien pour cette raison que l’on parle de “boîte à outils”. Tout n’est pas utile à tout le monde. Si l’on souhaite accrocher un tableau avec un simple clou et un marteau, il est évident que l’usage de vis, de chevilles ou d’une visseuse serait superflu, et risquerait même d’endommager le mur. Il en va de même pour les indicateurs : toutes les bibliothèques n’ont pas besoin des mêmes outils.
Les indicateurs d’impacts : un aspect politique
Les discussions avec le groupe de travail ont révélé le caractère stratégique et politique de certains indicateurs. Prenons l’exemple du nombre d’usager-ère-s qui fréquentent une bibliothèque tout en résidant hors de sa commune. Est-il réellement pertinent de rendre publique une telle information ? Cela pourrait alors se retourner contre la bibliothèque et fragiliser sa position auprès de ses autorités de tutelle, qui pourraient y voir un usage des ressources au bénéfice de populations extérieures.
Conclusion
Au départ de ce projet, la production d’indicateurs devait rendre service au bibliothèques, mais celui-ci a pris une dimension à la fois politique et stratégique. Il est donc question de sélectionner avec finesse les mesures capables de quantifier les impacts de la bibliothèque, tout en veillant à ne pas fragiliser les autres établissements ou son propre établissement. Mais, peut-on réellement s’inscrire dans une telle dynamique et prétendre éviter les comparaisons implicites qu’entraîne inévitablement l’usage d’indicateurs communs ?
Les premiers postulats mettaient en avant que des indicateurs d’impact permettraient aux bibliothèques de prouver scientifiquement leur utilité et de s’imposer comme actrices clés des politiques publiques locales. Or, notre projet de recherche – qui arrive à son terme mais appelle bel et bien une suite – nous amène à prendre davantage de recul sur la production de ces indicateurs et de ce que cela pourrait induire pour les bibliothèques.


Laisser un commentaire