Le Round University Ranking s’est imposé au fil des années comme une référence discrète mais influente dans l’univers des classements académiques internationaux. Construit comme un outil d’aide à la décision pour les étudiants, les établissements, les entreprises et les pouvoirs publics, il vise à refléter la performance globale des universités en combinant des données quantitatives, qualitatives et financières.
Son positionnement tranche avec d’autres systèmes plus élitistes. Là où certains classements privilégient la recherche ou le prestige, le RUR défend une lecture plus équilibrée, en valorisant également l’enseignement et l’ouverture à l’international. Une logique inclusive, qui permet à des établissements aux profils diversifiés d’y figurer.
Quatre grandes dimensions pour structurer l’évaluation
La force du RUR repose sur une architecture méthodologique claire, construite autour de quatre axes majeurs, chacun contribuant à la note globale avec une pondération définie :
- Enseignement (40 %) : cette dimension intègre des critères comme le ratio étudiants/professeurs, le niveau des qualifications du corps académique, ou encore la perception de la qualité pédagogique à travers des enquêtes.
- Recherche (40 %) : elle mesure la productivité scientifique à travers le volume de publications, le taux de citations, l’impact académique et la reconnaissance dans les réseaux de recherche.
- Internationalisation (10 %) : elle prend en compte la diversité des étudiants et du personnel académique, ainsi que le volume de coopérations internationales.
- Viabilité financière (10 %) : elle évalue la stabilité budgétaire des établissements, leur capacité à mobiliser des ressources et à assurer leur développement à long terme.
Chaque dimension comprend cinq indicateurs spécifiques, pondérés de manière égale au sein du groupe. Ce qui signifie, par exemple, que chacun des cinq indicateurs de la recherche représente 8 % du score total (40 % ÷ 5).
Des sources croisées pour garantir la robustesse des données
Pour alimenter ses indicateurs, le RUR s’appuie sur trois types de données :
- Données statistiques institutionnelles, transmises directement par les universités (effectifs, budgets, qualifications, etc.).
- Données bibliométriques, principalement issues de la base Web of Science, permettant de quantifier la production scientifique.
- Enquêtes réputationnelles, menées auprès de panels internationaux d’universitaires et d’experts.
Afin d’éviter les effets de seuils ou les exclusions mécaniques, le RUR a mis en place un système de tolérance : lorsqu’un établissement ne remplit pas les critères minimaux (nombre de publications, taille critique), il n’est pas exclu, mais se voit attribuer une moyenne nationale sur les indicateurs manquants. Une logique d’inclusion, certes, mais qui peut générer des effets de distorsion dans la lecture comparative.
Traitement statistique : une normalisation qui favorise la stabilité
La méthodologie du RUR se distingue aussi par sa stabilité. Peu d’évolutions ont été apportées depuis sa création. L’objectif affiché est clair : éviter les effets de rupture entre deux éditions, qui fausseraient l’analyse longitudinale. Le traitement des données suit une chaîne statistique rigoureuse :
- Nettoyage et vérification des données brutes,
- Normalisation pour permettre des comparaisons entre établissements de tailles, de pays et de modèles différents,
- Agrégation selon les pondérations prédéfinies,
- Contrôle qualité pour identifier les valeurs aberrantes ou incohérentes.
Ce processus assure une cohérence d’année en année, ce qui permet de mesurer l’évolution réelle d’un établissement sans craindre des effets de méthodologie.
Les forces de la méthode : équilibre, ouverture, lisibilité
Parmi les points forts régulièrement salués par les observateurs :
- Un équilibre réel entre enseignement et recherche. Là où la majorité des classements donne un poids prépondérant à la recherche (jusqu’à 70 % dans certains cas), le RUR choisit une répartition plus équitable entre les deux piliers de l’université.
- Une méthodologie stable, qui facilite le suivi dans le temps et évite les surprises méthodologiques d’un classement à l’autre.
- Une approche inclusive, qui permet à des établissements de taille modeste ou à orientation pédagogique forte d’exister dans le classement, là où d’autres systèmes les auraient ignorés.
Des limites structurelles qui appellent à la prudence
Mais cette architecture, aussi rigoureuse soit-elle, comporte aussi ses angles morts. Plusieurs critiques récurrentes soulignent les limites du système :
- Pondérations arbitraires : attribuer le même poids à chaque indicateur, au sein de chaque dimension, repose sur une logique d’égalité formelle, mais pas toujours pertinente. Un indicateur comme le ratio étudiants/professeurs peut-il avoir le même poids qu’un critère de production scientifique ? Rien ne permet de l’affirmer objectivement.
- Biais bibliométriques : les disciplines scientifiques sont sur-représentées dans les bases de données internationales utilisées pour les publications. Les sciences humaines, les recherches locales ou les travaux en langues non anglaises sont donc désavantagés.
- Opacité des données réputationnelles : les enquêtes d’image ou de réputation ne sont que partiellement publiées. On connaît les grandes tendances, mais peu de détails sont fournis sur la composition des panels ou la méthodologie des sondages.
- Traitement contestable des universités sous-seuil : attribuer une moyenne nationale à des universités qui ne remplissent pas les critères minimums permet de les inclure, mais fausse la réalité statistique. Cela peut lisser artificiellement les écarts entre établissements.
- Peu de prise en compte des résultats étudiants : la méthodologie ne mesure ni le taux d’insertion professionnelle, ni la satisfaction des diplômés, ni leur mobilité. Autant d’indicateurs pourtant centraux dans la perception de la qualité d’un établissement par les futurs étudiants et les employeurs.
- La viabilité financière marginalisée : avec seulement 10 % du poids total, la santé économique d’un établissement est sous-évaluée, alors qu’elle conditionne directement sa capacité à recruter, à innover ou à investir dans ses infrastructures.
Un classement utile, mais à lire dans un jeu de miroirs
Le RUR a le mérite de poser un cadre clair, stable et documenté. Il permet d’observer des tendances, de positionner les universités dans un référentiel international et de mieux comprendre leur dynamique de développement. Mais comme tout classement, il ne dit pas tout, et surtout ne dit pas pour qui un établissement est performant.
La prudence s’impose donc dans l’interprétation des résultats. Pour les décideurs académiques, les DRH, les recruteurs ou les étudiants, le Round University Ranking doit être considéré comme un outil parmi d’autres. Sa force réside dans sa structure lisible. Sa faiblesse, dans les angles morts qu’il laisse volontairement de côté.
Croiser ses résultats avec d’autres sources — classements spécialisés, évaluations nationales, analyses qualitatives — est indispensable pour construire une lecture complète et stratégique de la valeur d’un établissement universitaire. Ce n’est qu’à ce prix qu’un classement devient véritablement un levier d’orientation ou de transformation.