Ressources non-humaines
Aujourd’hui, des logiciels permettent déjà d’opérer l’appariement (« matching ») demandeurs d’emploi-employeurs. Demain, vous serez peut-être recrutés par un DRH virtuel. Quant à savoir si l’intelligence artificielle permettra de diminuer la discrimination à l’embauche, la réponse reste aux mains des humains.
Emboîtant le pas à son homologue français de Pôle emploi, le Forem a lancé en juin dernier un nouvel outil d’appariement, ou « matching », employeur-demandeur d’emploi sobrement baptisé « Mon profil ». Sur une base volontaire, les demandeurs d’emploi wallons peuvent désormais y entrer leurs compétences (niveau et domaine d’études, maîtrise des langues, compétences numériques…) et les métiers recherchés. « L’outil regroupe déjà 15.000 profils », explique Thierry Ney, directeur communication corporate au Forem. Parmi eux, une grande majorité de jeunes travailleurs : 50% des profils sont représentés par les moins de 35 ans. Les entreprises, elles, ont déjà répondu présent avec quelque 340 recherches enregistrées quotidiennement. « Pour elles, cela représente un gain de temps très important : plutôt que de se confronter à une pile de CV, elles peuvent faire une recherche en sélectionnant directement certains critères jugés nécessaires, comme le permis de conduire ». Exit la touchante histoire du demandeur d’emploi qui ne cochait pas toutes les cases mais qui se fait engager sur la base d’une lettre de motivation qui se démarque ? « N’oublions pas qu’il y a des métiers où cet aspect créatif a clairement moins d’importance. Prenez un boucher : il existe plusieurs types de spécialisations en boucherie. Ce n’est pas une question de motivation », commente Thierry Ney, qui rappelle que cet outil n’a d’ailleurs pas vocation à remplacer l’accompagnement personnalisé ni l’offre en matière de formations proposée par le Forem. Personne pour prétendre ici que la problématique de l’emploi serait soluble dans l’intelligence artificielle…
Des données et des biais
Du reste, « Mon profil » demeure un outil relativement simple, qui ne « décide » pas à la place de l’employeur mais lui propose une présélection sur la base de critères purement factuels. Le bénéfice se traduit donc surtout par un gain de temps et le sentiment de ne pas « passer à côté » de la recrue/de l’emploi adéquat. Mais des expériences plus sophistiquées relevant à proprement parler de l’« intelligence artificielle » (IA) commencent à se mettre en place, soulevant au passage un grand nombre de questions. Il y a quelques mois, les équipes russes de L’Oréal se sont attaché les services de la DRH Véra, développée par Stafori – une start-up plébiscitée par d’autres grands groupes comme Pepsi et Ikea. Cette intelligence artificielle faisait passer aux candidats un premier entretien téléphonique. Des systèmes de reconnaissance vocale lui permettaient alors de sélectionner parmi eux les plus susceptibles de correspondre aux besoins de l’entreprise. Après quelques mois de ce régime, Véra s’est finalement « autolicenciée », n’ayant pas réussi à convaincre le géant de la cosmétique.
Les machines ont besoin de données pour fonctionner et ces données sont fondées sur des expériences de recrutement passées.
Car l’utilisation des intelligences artificielles dans le domaine de l’embauche est un sujet excessivement délicat, notamment en termes d’image. Il faut en effet pouvoir donner au public les garanties que l’utilisation d’une IA dans le processus de recrutement ne va pas à l’encontre des principes de non-discrimination prônés par la culture de ladite entreprise… « Les machines ont besoin de données pour fonctionner et ces données sont fondées sur des expériences de recrutement passées; or, depuis longtemps, les sociétés d’Europe occidentale essaient de se débarrasser de biais de recrutement et notamment de biais de discrimination raciale ou fondée sur le genre », commente à ce propos Nicolas Petit, professeur à l’ULiège et en charge d’un cours de droit de l’intelligence artificielle. « Si on nourrit les machines de ces données passées, les machines ne feront que reproduire ces biais ou les amplifier : le défi pour les programmeurs, c’est donc de travailler avec des données qui soient expurgées de ces biais ou qui les corrigent ».
L’apparition récente des outils de « justice prédictive », qui permettent de prévoir la décision d’un juge sur la base de la jurisprudence ou, comme c’est déjà le cas aux États-Unis, le risque de récidive d’un condamné, a déjà soulevé cette question. « On sait qu’aux États-Unis, le système pénal est très biaisé en défaveur des personnes de couleur : les recherches montrent aujourd’hui qu’il existe des risques constatés de discrimination assistée par l’intelligence artificielle. Or, on ne voit pas pourquoi ce qui existe dans le système carcéral ne se produirait pas dans le secteur du recrutement », avertit Nicolas Petit. C’est en ce sens que l’entreprise américaine IBM a développé récemment un logiciel « anti-biais » capable d’expliquer en temps réel les décisions de l’IA. Grâce à lui, les entreprises pourraient ainsi vérifier que leurs processus – par exemple de recrutement – ne sont pas en proie à trop de préjugés aveugles. Une sorte de bonne conscience de l’intelligence artificielle…
Recrutement prédictif
Chez Visiotalent, où l’on met en contact entreprises et recrues potentielles via des vidéos en ligne, on se félicite d’avoir déjà trouvé une solution anti-biais. « Visiotalent est né sur la base du constat que la plupart des entreprises se fondaient sur le CV pour fixer un entretien alors que le CV ne reprend que des informations factuelles et les informations que le candidat veut bien communiquer… Le côté humain et la personnalité ne sont pas pris en compte. Le problème se pose d’autant plus pour les jeunes qui cherchent un premier emploi et dont le CV est vierge. Que pourraient-ils mettre en avant ? », explique Thomas Cador, responsable Benelux pour Visiotalent. La vidéo vous met à l’aise ? Vous craignez d’être jugé sur votre monture de lunettes, votre propension à rougir ou votre accent prononcé ? Pour Thomas Cador, la vidéo est précisément un média bienveillant. « Prenez un candidat anversois avec un nom arabe. Il y a beaucoup de chances pour que, sur le CV, l’employeur se dise que son français n’est pas impeccable. Mais si la première étape est la vidéo, ce préjugé n’existe pas. Et s’il parle bien, il va passer ce stade, là où, dans le processus classique, il n’aurait même pas eu sa chance ».
Walibi recrute désormais uniquement grâce aux services de Visiotalent : le parc d’attractions a ainsi pu passer de quelque 9.000 CV à traiter annuellement à 1.500. « Walibi estime par ailleurs que, sur 1.500 vidéos reçues, environ 85% des candidats pourraient convenir. Comme la vidéo demande un minimum d’investissement, on évite en effet les CV envoyés pour justifier qu’on recherche bien un emploi », décode Thomas Cador. Si elle permet à certaines entreprises bien connues de gérer la masse de sollicitations, la vidéo permet aussi, lorsqu’elle est utilisée pour faire passer des entretiens à distance, de raccourcir les délais de recrutement… et d’avoir une chance de mettre la main sur les meilleures recrues. Enfin, pour les sociétés qui peinent à recruter, l’interface vidéo permet de placer directement le candidat dans la culture de l’entreprise en lui proposant un entretien depuis une salle d’immersion. « Aujourd’hui, un candidat ne cherche pas seulement un travail mais un endroit où travailler. Il demande à être approché par le volet émotionnel », explique Thomas Cador.
On est encore loin de pouvoir demander à un robot d’analyser (…) les émotions humaines.
Si Visiotalent propose une « chatbox » qui permet au candidat de poser des questions et d’être accompagné dans l’élaboration de sa vidéo, Thomas Cador se refuse pour l’instant à envisager l’intervention de l’IA dans l’analyse des images. Ce n’est pas encore demain que, à l’instar de ce que montre la série Black Mirror, les émotions des candidats seront décodées en direct… « Quand on sait qu’un ordinateur a besoin d’engranger 5.000 images de chats pour reconnaître un chien, on se dit qu’on est encore loin de pouvoir demander à un robot d’analyser quelque chose d’aussi complexe que les émotions humaines. Non seulement les intelligences artificielles ne sont pas prêtes à offrir un servir aussi complexe mais nous ne sommes pas prêts non plus à accepter qu’une machine nous juge », estime Thomas Cador. « Il y a beaucoup d’effervescence autour de l’IA, mais ce qu’on en imagine tient souvent davantage de l’anticipation », confirme Nicolas Petit. Même s’il ne faut pas oublier que, en dehors de la question de l’IA, le recrutement se fait d’ores et déjà sur la base d’une masse considérable de données numériques – toutes traces laissées en ligne pouvant être retenues contre le candidat.
On pourrait imaginer que le recrutement prédictif permette d’estimer la propension du futur employé à se mettre en arrêt maladie.
Comme dans le domaine de la justice, le recours progressif aux IA laisse surtout entrevoir le spectre d’un recrutement « prédictif ». « Couplé à la médecine prédictive, qui permet de dire quelles sont les pathologies en puissance chez une personne, on pourrait imaginer que le recrutement prédictif permette d’estimer la propension du futur employé à se mettre en arrêt maladie », explique Nicolas Petit. Effrayant ? Tout dépend des principes et des valeurs à partir desquels seront programmées ces machines à recruter. « Pensons aussi que l’IA pourrait permettre de corriger certains biais. Lorsqu’un DRH doit auditionner 40 personnes, il aura dans les derniers entretiens des biais de frustration et de déconcentration que la machine n’aura pas ».
IA et biais de genre
L’intelligence artificielle est-elle l’amie des femmes ? Cela reste à voir. « Dans le secteur du recrutement, la structuration des données autour du genre est importante. Et il ne suffit pas de supprimer les pronoms il/elle pour s’en défaire. Les données qui concernent la durée d’occupation professionnelle, notamment, restent désavantageuses pour les femmes en raison des périodes d’inactivité liées à la grossesse : on ne peut donc pas se contenter d’anonymiser », explique Nicolas Petit. A l’inverse, un DRH virtuel pourrait « préférer » les dossiers féminins en raison des moindres prétentions salariales communément observées chez les femmes. « Les résultats peuvent être contre-intuitifs et demandent donc une réflexion globale ».
La question se pose de manière encore plus évidente dans le secteur dit des STEM (Science, Technology, Engineering, Mathematics) où les femmes restent extrêmement minoritaires. « Les entreprises de la Silicon Valley ont essayé de mettre en place des procédures de recrutement favorables aux femmes mais cela prendra peut-être des années voire des décennies pour que ça s’équilibre. Le sujet est d’autant plus délicat que ce sont ces mêmes entreprises qui développent aujourd’hui les IA… », analyse Nicolas Petit. En août 2017, Google a d’ailleurs licencié un de ces ingénieurs, James Damore, pour avoir écrit un mémo où il justifiait la prédominance des hommes dans les STEM par l’existence de différences physiologiques et psychologiques entre hommes et femmes. Un discours essentialiste qui faisait franchement « mauvais genre » en regard du progressisme dont se prévalent aujourd’hui les GAFA…