Début 2026, les services des ressources humaines sont de plus en plus dépendants des outils d’intelligence artificielle. Le problème ne réside pas dans l’utilisation de la technologie, mais dans la manière dont elle est appliquée : non pas comme un soutien à la réflexion humaine, mais comme un substitut.
Les systèmes d’IA fonctionnent à partir de modèles, de données historiques et de comparaisons statistiques. Or, les êtres humains sont contextuels, sujets à contradictions et imprévisibles. Ignorer cette différence transforme le risque opérationnel en risque stratégique.
Dans le recrutement et la sélection, ce transfert de responsabilité est encore plus flagrant. Des processus de sélection excessivement longs, avec de multiples étapes automatisées et des tests standardisés, sont souvent synonymes d’insécurité plutôt que de rigueur. Au lieu d’améliorer les décisions, ils masquent l’absence de critères clairs, les dysfonctionnements internes et les défaillances de gestion qu’aucune technologie ne peut corriger. Automatiser les décisions ne renforce pas les structures fragiles.

Parallèlement, les candidats ont également commencé à réagir à l’automatisation par l’automatisation. CV optimisés par des algorithmes, réponses préparées et entretiens scénarisés par l’IA sont devenus monnaie courante. Il en résulte une lutte silencieuse entre les systèmes, où le facteur humain est dilué et l’authenticité perdue.
Pour la chasseuse de têtes Raquel Mozzer, ce mouvement crée une illusion d’efficacité. « Lorsque l’IA commence à décider seule, le processus peut devenir plus rapide, mais pas nécessairement plus intelligent. L’impact se manifeste plus tard, par une augmentation du taux de rotation du personnel et un décalage culturel », constate-t-elle.

Ce scénario confirme un point essentiel : l’IA face à l’IA ne crée pas de lien, mais de la distorsion. Et les effets ont tendance à se faire sentir rapidement, avec des recrutements techniquement corrects, mais stratégiquement erronés.
Dans ce contexte, le rôle du chasseur de têtes n’est pas de rivaliser avec la technologie, mais de l’équilibrer. C’est le regard humain qui interprète le contexte, questionne les exigences mal définies, challenge le leadership et relie la stratégie, la culture et les personnes. L’intelligence artificielle accélère les étapes, mais ne soutient pas les décisions.
L’avertissement pour 2026 est clair : la technologie peut optimiser les processus, mais les humains resteront responsables des conséquences. Si les RH l’oublient, elles perdent non seulement en efficacité, mais aussi en discernement.

