La présente liste de ressources n’est pas exhaustive, mais certaines ressources thématiques peuvent être dignes d’intérêt. Si vous connaissez d’autres ressources qui, selon vous, méritent d’être mentionnées, veuillez nous les faire parvenir à info@ccra-acrc.ca.
Équité, diversité et inclusion
« La science a un problème de racisme. Et ce problème ne se limite pas aux découvertes scientifiques et à leur usage. Les institutions scientifiques, l’éducation scientifique et les mesures utilisées pour définir la réussite scientifique ont également un problème de racisme. » – Traduction libre d’une citation (en anglais seulement) tirée de : https://www.cell.com/cell/pdf/S0092-8674(20)30740-6.pdf
- Erosheva, E. A. et coll. (2020). NIH peer review: Criterion scores completely account for racial disparities in overall impact scores. Science Advances, 6, eaaz4868. https://advances.sciencemag.org/content/advances/6/23/eaaz4868.full.pdf (en anglais seulement). Cet article examine l’ensemble des demandes de subvention de projet de recherche (R01) présentées par des chercheurs principaux de race noire ou blanche selon l’analyse effectuée par le Center for Scientific Review des National Institutes of Health des États-Unis pour la période de 2014 à 2016. Les auteurs ont relevé que le taux général d’acceptation des demandes présentées par des chercheurs de race noire était de 55 % de celui des demandes présentées par des chercheurs de race blanche (10,2 % comparativement à 18,5 %), ce qui a entraîné un écart de financement de 45 %. En moyenne, les chercheurs de race noire ont reçu des scores préliminaires inférieurs pour les cinq critères retenus (importance, chercheur(s), innovation, approche et environnement), même après l’appariement de variables clés comme le stade de la carrière, le sexe, le type de diplôme et le domaine scientifique.
- Guthrie, S. et coll. (2019). Measuring bias, burden and conservatism in research funding. F1000Research, 8, 851. https://doi.org/10.12688/f1000research.19156.1 (en anglais seulement). Cet article présente les innovations concernant les approches de financement de subventions d’après un examen rapide des données probantes et des entrevues avec des intervenants clés. Le tableau 11 fournit une carte conceptuelle du processus de financement de subventions et des répercussions potentielles des biais, des obstacles et du conservatisme.
- Tamblyn, R. et coll. (2018). Assessment of potential bias in research grant peer review in Canada. CMAJ, 190(16), E489-E499. https://www.cmaj.ca/content/190/16/E489 (en anglais seulement). Cet article examine toutes les demandes de subvention présentées au Concours du Programme ouvert de subventions de fonctionnement des IRSC pendant la période de 2012 à 2014. On a relevé des exemples à l’appui de biais systématiques potentiels dans l’examen par les pairs qui pénalisaient les demandeurs de sexe féminin. Ces biais étaient associés aux caractéristiques des pairs examinateurs et ils étaient assez importants pour modifier le score attribué aux demandes de sorte qu’elles passent de finançables à non finançables.
- Witteman, H. O. et coll. (2019). Are gender gaps due to evaluations of the applicant or the science? A natural experiment at a national funding agency. Lancet, 393, 531-540. https://www.sciencedirect.com/science/article/pii/S0140673618326114 (en anglais seulement). Cet article examine l’acceptation des demandes parmi les demandes de subvention présentées par des chercheurs principaux dans le cadre du Programme ouvert de subventions des IRSC pour la période de 2011 à 2016. Les auteurs ont relevé que les écarts liés aux sexes dans le financement de subventions étaient attribuables aux évaluations moins favorables obtenues par les femmes à titre de chercheuses principales et non à la qualité de la recherche qu’elles proposaient.
Décisions de reconnaissance et de financement
- Le document intitulé Reconnaissance des contributions à des recherches collectives : Comment optimiser le système canadien de la recherche scientifique, publié en 2017, est un rapport exhaustif de l’Académie canadienne des sciences de la santé qui propose 12 recommandations pour aborder les problèmes au sein des équipes scientifiques sous les angles de la culture et des comportements, des comités d’examen et de l’évaluation. https://cahs-acss.ca/academic-recognition-of-team-science-how-to-optimize-the-canadian-academic-system/?lang=fr
- David Moher, de l’Institut de recherche de l’Hôpital d’Ottawa, et d’autres chefs de file dans le domaine ont résumé six principes pour évaluer les scientifiques et les répercussions connexes sur la recherche et les politiques. Cette évaluation s’est conclue par un atelier réunissant un groupe d’experts, qui a eu lieu à Washington, D.C., en janvier 2017. Les principes sont bien décrits dans le tableau 2 du document : Moher, D. et coll. (2018). Assessing scientists for hiring, promotion, and tenure. PLoS Biology, 16(3), e2004089. https://doi.org/10.1371/journal.pbio.2004089 (en anglais seulement).
- Le document de 2020 de Science Europe intitulé Position Statement and Recommendations on Research Assessment Processes formule 27 recommandations en lien avec 1) les approches utilisées pour évaluer et choisir les propositions et les chercheurs; 2) les défis en jeu pendant les processus d’évaluation et 3) les changements récents dans l’évaluation des propositions et des chercheurs. https://www.scienceeurope.org/media/3twjxim0/se-position-statement-research-assessment-processes.pdf (en anglais seulement).
- Kerzendorf, W. E. et coll. (2020). Distributed peer review enhanced with natural language processing and machine learning. Nature Astronomy, 4, 711-717. https://arxiv.org/pdf/2004.04165.pdf (en anglais seulement). Cet article décrit les trois caractéristiques de l’approche de « l’évaluation distribuée entre pairs » : 1) lorsqu’un chercheur présente une proposition aux fins d’évaluation, on lui demande d’abord d’évaluer plusieurs articles de ses concurrents, ce qui permet de diminuer le nombre d’articles que l’on demande à une personne d’évaluer; 2) à l’aide de l’apprentissage automatique, les organismes de financement associent l’examinateur à des propositions portant sur ses domaines d’expertise. Ce processus permet de diminuer le biais humain en retirant de l’équation l’expertise déclarée par l’examinateur; 3) un système de rétroaction est mis en place de façon à ce que la personne qui a présenté la proposition puisse juger si les commentaires reçus sont utiles. À terme, on espère que la contribution des chercheurs qui formulent des critiques constructives d’une manière assidue sera reconnue.
- Liu, M. et coll. (2020). The acceptability of using a lottery to allocate research funding: a survey of applicants. Research Integrity and Peer Review, 5, 3. https://doi.org/10.1186/s41073-019-0089-z (en anglais seulement). Cet article décrit le point de vue des demandeurs du programme Explorer Grant, un programme offert par le Health Research Council of New Zealand pour appuyer les premiers stades de la recherche « transformative ». Dans un premier temps, on évalue les demandes anonymisées pour savoir si elles sont admissibles au financement. On attribue un nombre aléatoire aux demandes jugées admissibles, puis on les sélectionne jusqu’à l’épuisement du budget du programme. Les demandeurs peuvent présenter une nouvelle demande, peu importe le résultat de la demande précédente. [Les lignes directrices pour les demandes au titre du programme de 2020 sont accessibles à https://gateway.hrc.govt.nz/funding/downloads/2020_Explorer_Grant_Application_Guidelines.pdf (en anglais seulement)]
Rigueur et reproductibilité en science
- La revue Nature a recueilli une série d’articles sur les défis liés à la reproductibilité, accessibles à https://www.nature.com/collections/prbfkwmwvz (en anglais seulement).
- L’initiative intitulée Reproducibility Project: Cancer Biology reproduit de façon indépendante certains résultats d’articles à visibilité élevée dans le domaine de la biologie du cancer. Ce projet est le fruit d’une collaboration entre le Center for Open Science et Science Exchange. Pour en savoir plus, voir https://cos.io/rpcb/ (en anglais seulement).
- Wass, M. N. et coll. (2019). Understanding of researcher behavior is required to improve data reliability. GigaScience, 8(5), giz017. https://doi.org/10.1093/gigascience/giz017 (en anglais seulement). Cet article offre un examen succinct de la reproductibilité des données. Il présente les lacunes dans la compréhension de cet enjeu, et les meilleures façons de s’y attaquer. Comme le titre de l’article l’indique, les auteurs défendent une connaissance accrue du comportement des chercheurs pour trouver de nouvelles façons de les inciter à respecter les normes les plus élevées dans le cadre de leur recherche.
Mesurer et évaluer les répercussions de la recherche
- Le RIRC (Réseau Impact Recherche Canada) est un réseau pancanadien d’universités qui se sont engagées à maximiser les répercussions positives de la recherche universitaire sur le bien commun. Le RIRC s’est donné comme mission de renforcer la capacité des établissements à favoriser et à évaluer l’impact de la recherche, du savoir et des activités créatives en découvrant et en faisant connaître les services, les outils et les pratiques exemplaires. Le site Web du RIRC offre une liste de ressources et d’études de cas. http://researchimpact.ca/fr/
- La publication intitulée Making an Impact: A Preferred Framework and Indicators to Measure Returns on Investment in Health Research est le rapport exhaustif de 2009 de l’Académie canadienne des sciences de la santé qui fournit un cadre et une liste d’indicateurs et de mesures qui peuvent être utilisés pour évaluer le rendement des investissements consacrés à la recherche en santé. https://cahs-acss.ca/making-an-impact-a-preferred-framework-and-indicators-to-measure-returns-on-investment-in-health-research/?lang=fr (en anglais seulement). Alberta Innovates est un grand promoteur de ce cadre : (https://www.frontiersin.org/articles/10.3389/frma.2018.00025/full) (en anglais seulement).
- Bowden, J. et coll. (2018). Measuring research impact: a large cancer research funding programme in Australia. Health Research Policy and Systems, 16, 39. https://health-policy-systems.biomedcentral.com/articles/10.1186/s12961-018-0311-3 (en anglais seulement). Cet article applique le cadre de récupération de Buxton et Hanney (http://jonathanstray.com/papers/PaybackFramework.pdf (en anglais seulement) pour évaluer les répercussions sur la recherche du Beat Cancer Project en Australie-Méridionale.
Soutien aux stagiaires
- Programme ReTOOL de l’Université de la Floride : l’objectif à long terme du programme ReTOOL est d’accroître le bassin de chercheurs sur le cancer de la prostate issus des minorités en Floride. Il cible les étudiants du premier cycle et des cycles supérieurs dans différentes disciplines. http://retool.cop.ufl.edu/about/ (en anglais seulement).
- Hurst, J. H. et coll. (2019). Cultivating research skills during clinical training to promote pediatric-scientist development. Pediatrics, 144(2), e20190745. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6855830/pdf/PEDS_20190745.pdf (en anglais seulement). Cet article décrit le Pediatric Research Scholars Program for Physician-Scientist Development (DPRS) de l’Université Duke.
- Wortman-Wunder, E. et Wefes, I. (2020). Scientific writing workshop improves confidence in critical writing skills among trainees in the biomedical sciences. Journal of Microbiology & Biology Education, 21(1), 21.1.5. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7048399/pdf/jmbe-21-5.pdf (en anglais seulement). Cet article porte sur une approche utilisée à l’Université de Colorado Denver pour améliorer les compétences en communication écrite des stagiaires avant et après le doctorat.
- Yin, C. et coll. (2017). Training the next generation of Canadian Clinician-Scientists: charting a path to success. Clinical and Investigative Medicine (en ligne), 40(2), E95-E101. https://cimonline.ca/index.php/cim/article/view/28200/20775 (en anglais seulement). Cet article propose des stratégies pour améliorer les programmes de médecine et de doctorat (Ph. D.) au Canada.