L’intelligence artificielle appliquée au domaine des ressources humaines

L’intelligence artificielle (IA) en quelques mots  

 

En 2017, le Premier ministre Edouard Philippe a commandé au mathématicien Cédric Villani un rapport sur l’IA dans le but de définir une feuille de route pour les services de l’Etat. Un inventaire des enjeux liés à l’IA et une liste de recommandations ont été dressés. Cette demande s’inscrit dans le cadre de l’immixtion, perçue ou non, de l’IA dans nos habitudes quotidiennes, aussi bien professionnelles que personnelles, et du retard pris par la France face aux grandes entreprises américaines comme Amazon, Facebook ou Google ainsi qu’à des pays comme les USA, la Chine ou le Japon.

 

Les ressources humaines représentent un champ d’expérimentation intéressant pour l’IA avec des challenges autour de l’identification des talents, la prédiction des risques de départ ou des besoins en compétences mais aussi de l’écosystème foisonnant des éditeurs de solutions de gestions des ressources humaines toujours à la recherche de technologies différenciantes.

Afin de clarifier le concept d’IA et ses applications potentielles aux ressources humaines, nous vous proposons une série d’articles sur le sujet. Ce premier article a pour objectif de présenter les contours de l’IA et de revenir sur les différentes technologies phares qui la composent à savoir :

  • Le Machine Learning (Apprentissage Machine),

  • Le Deep Learning (Apprentissage Profond),

  • Le Big Data

Il convient de bien comprendre ce qui se cache derrière chacune de ces technologies, d’appréhender leurs frontières et interconnexions mais aussi leurs usages actuels et futurs. D’autres articles suivront afin de préciser les applications au domaine des ressources humaines. Mais avant il nous faut mieux définir la notion d’IA.

 

L’intelligence artificielle : qu’est-ce ?

L’IA regroupe un ensemble de technologies permettant à des machines d’assurer des fonctions habituellement réalisées par l’humain comme par exemple apprendre, comprendre, communiquer, raisonner ou décider. Des programmes informatiques peuvent ainsi recréer et simuler l’intelligence humaine, sans l’intervention d’une personne.

 

En dépit des croyances, l’IA n’est pas un concept émergent : elle est apparue dès les premières avancées en mathématiques et informatiques au 19ème siècle. Son perfectionnement a commencé dans les années 1950 et n’a cessé d’évoluer depuis.

Près de 70 ans de réflexion plus tard, l’IA trouve des applications concrètes dans la vie de tous les jours :

 

  • Netflix ou YouTube nous recommandent des programmes sur la base de ceux que nous avons déjà regardés

  • Facebook reconnaît les visages des personnes taguées sur d’anciennes photos

  • Siri, Cortana, Alexa ou Google Home répondent automatiquement à nos questions (problème technique, météo du jour…) et font des actions à notre place (programmer un réveil, mettre de la musique…)

  • Des navettes de la RATP sont désormais capables de rouler à l’aide d’une caméra, sans conducteur

  • Des hôpitaux recourent au Deep Learning et au Big Data Analytics pour identifier les biomarqueurs du cancer

  • SNCF Réseau réalise la maintenance prédictive des pantographes de ses trains en faisant analyser des photographies de ces derniers par l’IA afin de détecter des défauts invisibles à l’œil nu et par conséquent anticiper les remplacements

De par ces exemples, on voit bien que l’usage de l’IA est de nos jours de plus en plus commun, simple et intégré à notre vie quotidienne. L’IA permet aujourd’hui de répondre à des besoins complexes et des enjeux majeurs notamment en termes de transport, de médecine ou de prévision de catastrophes naturelles.

 

Le Big Data : l’élément déclencheur de l’explosion de l’IA

 

C’est l’avènement du Big Data, en parallèle d’autres avancées informatiques, qui a donné un second souffle à l’IA. Par Big Data, nous entendons l’analyse des mégadonnées, autrement dit un ensemble de données volumineux qui ne peut pas être analysé ni par les capacités intellectuelles ou intuitives humaines ni par les outils informatiques classiques.

 

A l’origine, l’IA s’est développée grâce à des ordinateurs de plus en plus puissants et à des données générées de plus en plus nombreuses. Avec le Big Data, la volumétrie des données ayant explosé, l’IA a désormais la matière pour aller encore plus loin : non plus simplement simuler l’intelligence humaine mais la surpasser en traitant un nombre de données conséquent en un temps record, ce qu’aucun humain ne serait capable de faire.

 

Mais comment fonctionne concrètement l’IA ? Comment opère-t-elle des programmes informatiques capables de simuler l’intelligence humaine ? Elle a pour cela recours à différentes techniques de modélisation (algorithmes), plus ou moins complexes, avec des mécanismes qui leur sont propres.

A l’origine technologique de l’IA : l’algorithme

 

Un algorithme est un ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. L’usage classique qui en est fait se traduit par un ensemble de lignes de code (dit programme) qui, exécuté par un ordinateur, donne un résultat de manière plus rapide et automatisé que si le programmateur l’avait fait lui-même à la main. Pour créer un algorithme, il est nécessaire de décrire chacune des étapes par lesquelles l'ordinateur doit passer pour répondre à la question posée.

Mais l'algorithme seul ne permet pas l'IA. Elle se caractérise par la combinaison de données, d’une puissance de calcul pour les exploiter et d’une capacité à apprendre. Ce dernier facteur est porté par le Machine Learning que nous vous proposons de définir.

Le Machine Learning : un “super algorithme”

 

Le Machine Learning, dit apprentissage machine ou apprentissage automatique en français, désigne l’usage d’algorithmes qui font preuve d’apprentissage grâce à des données “exemples” qui lui sont fournies. Ce “super algorithme” permet de tirer des conclusions intéressantes sur les données possédées.

 

Dans le Machine Learning, l’algorithme à la base du processus est différent de l’algorithme défini précédemment en ce sens qu’il ne décrit pas l’ensemble des étapes de réflexion qui mènent à un résultat mais construit lui-même sa propre logique en rapprochant les données qui lui ont été fournies pour répondre à une question donnée. En effet, si pour un algorithme "classique", le programmateur s'efforce de décrire étape par étape la démarche à suivre, pour le Machine Learning la construction est inverse. Le programmateur compose un cadre pour le Machine Learning et le nourrit ensuite de données, d'informations, de résultats desquels l’algorithme de Machine Learning déduit la démarche à suivre. Ce n’est donc pas le processus de réflexion qui est à l’origine du résultat mais bien la donnée.

Mais alors, comment tout cela fonctionne ? Il existe plusieurs types de Machine Learning. Nous vous proposons de vous présenter deux grandes catégories : le supervisé et le non-supervisé.

 

Le Machine Learning supervisé consiste à créer un algorithme pour répondre à une question dont nous avons déjà la réponse, pour laquelle il nous est possible de répondre mais moins rapidement et avec une marge d'erreur plus grande que la machine. Le créateur de l’algorithme lui fournit de la donnée étiquetée avec la réponse jusqu'à ce que l'algorithme comprenne, structure sa logique et puisse l'appliquer à de la donnée non-étiquetée. C'est par exemple comme cela qu'a été construit l'algorithme de la société DeepMind pour battre les meilleurs joueurs au jeu de go. Dans le jeu de go, il y a trop de possibilités de jeux pour proposer un algorithme classique couvrant l'ensemble des étapes avec un nombre fini d'opérations. La société DeepMind a alors construit un algorithme supervisé et l'a nourri tout d’abord des règles du jeu. Puis le programme, appelé AlphaGo, a joué des millions de parties contre lui-même avec comme indication si les parties étaient "perdantes" ou "gagnantes". C'est alors qu’AlphaGo apprend, reproduisant les coups gagnants desquels il a été nourri. Ce type de Machine Learning est le plus répandu aujourd'hui et le plus simple à créer pour les chercheurs.

 

La méthode non-supervisée quant à elle consiste à créer un algorithme pour répondre à une question dont le chercheur lui-même ne connaît pas la réponse. En effet, il s'agit de fournir à l'algorithme un ensemble de données duquel l'humain n'arrive pas à tirer de conclusion ou pour lequel les possibilités sont tellement nombreuses qu'il n'est pas possible de les étiqueter simplement. C'est alors à l'algorithme de construire un lien entre ces données, de les classifier, les structurer, les organiser de manière à en déduire un résultat intéressant et exploitable. Pour continuer l'illustration avec DeepMind, après avoir créé une machine joueuse de go, DeepMind s'est attaqué au jeu StarCraft II. Il s'agit d'un jeu vidéo populaire de stratégie, en temps réel.  L'objectif de DeepMind est de créer un agent (un bot joueur) capable de jouer à n'importe quel jeu sans la nécessité de lui écrire l'ensemble des règles ou de connaître l'ensemble du plateau de jeu et des stratégies associées. Récemment, ce bot joueur a battu à plates coutures les deux meilleurs joueurs de StarCraft II.

 

S’il est important de comprendre ces deux grandes catégories du Machine Learning, ce n’est en revanche pas suffisant pour comprendre ce qu’est l’IA. En effet, le Machine Learning supervisé, très utilisé aujourd’hui dans les entreprises et dans les applications dont nous nous servons au quotidien démontre des capacités d’apprentissage assez limitées puisque la supervision humaine est essentielle pour le faire fonctionner. C’est alors dans le Machine Learning non-supervisé que réside le réel potentiel de l’IA, et surtout dans une branche de cette catégorie : le Deep Learning.

 

Le Deep Learning : l’étape suivante du Machine Learning

 

Le Deep Learning utilise des outils et techniques de modélisation similaires au Machine Learning non-supervisé mais conduit à des résultats beaucoup plus performants en permettant la connexion (la mise en réseau) de plusieurs technologies de Machine Learning. Nous parlons alors de réseaux de neurones. Contrairement au Machine Learning défini précédemment, la quantité de données nécessaire à la création du Deep Learning est nettement supérieure au Machine Learning. De plus, sa capacité d’apprentissage est beaucoup plus grande que celle du Machine Learning. En effet, le Machine Learning finit par ne plus rien apprendre de nouveau à partir d’un certain nombre de données - une fois les liens entre les données trouvées par l’algorithme et la classification faite, la machine n’a plus de marge de progression. Enfin, une autre différence se trouve dans le résultat que permettent d’atteindre les différentes technologies : là où le Machine Learning supervisé ne permet d’obtenir qu’un résultat chiffré (classification de la donnée en plusieurs catégories, score, statistique…), le Deep Learning ouvre le champ des possibles (texte, son, image…). Nous pouvons par exemple recourir au Deep Learning pour ajouter de la couleur à des images en noir et blanc. Les véhicules autonomes sont eux aussi rendus possibles par le Deep Learning, il ne s’agit pas d’un seul modèle d’IA, mais bien d’un ensemble d’algorithmes interconnectés (Deep Learning), qui permettent aux véhicules d’avancer de façon autonome. Ce type d’apprentissage constitue le réel avenir de l’IA au vu des nombreuses opportunités qu’il offre.

La donnée : le pré-requis de ces technologies

 Aujourd’hui, les entreprises utilisent essentiellement le Machine Learning supervisé car le Machine Learning non-supervisé - et notamment le Deep Learning - demande une quantité de données beaucoup trop importante que toutes les entreprises n’ont pas à disposition. De plus, au-delà de la quantité nécessaire de donnée, il est également essentiel que celle-ci soit "propre" c’est-à-dire nettoyée de toute erreur. Pour que le système puisse apprendre et apporter des résultats de meilleure qualité, il est nécessaire que la donnée injectée soit volumineuse, représentative et exhaustive. La notion de représentativité vient de la quantité des données utilisées mais pas seulement, il s'agit également de vérifier que ces données ne sont pas entachées de biais (discrimination, approximation, erreur…). Le risque ici réside dans le fait que la machine n'apporte pas un regard critique sur la donnée à l'origine du processus de réflexion. La machine n'apprend qu'à exécuter et le fait de manière systématique et rapide. L'impact d'une erreur ou d'un biais est alors démultiplié par la force d'exécution du Machine Learning.

 

Conclusion 

Les entreprises telles que Google, Apple, Facebook, Amazon et Microsoft, possèdent une quantité gigantesque de données générée par l’ensemble des activités de leurs utilisateurs. Elles ont ainsi la possibilité d’alimenter leurs technologies pour proposer des produits ou services toujours plus innovants à leurs clients. Les utilisateurs, qui s’habituent à ces fonctionnalités dans leur vie courante, sont pour la plupart également salariés d’entreprises dans lesquelles ils souhaiteraient retrouver des services tout aussi intuitifs et fluides.  

 

La plupart des entreprises ont déjà recours au Robotic Process Automation (RPA) pour automatiser les tâches les plus répétitives. La montée en puissance de l’IA marque quant à elle le début d’une révolution. Elle va à terme transformer les services et les produits, les processus et les métiers, et toucher à la fois le business et les fonctions supports, tous secteurs confondus. Cette transformation n’est pas à prendre à la légère : les entreprises doivent être accompagnées pour que l’IA soit d’une part utilisée de manière pertinente et efficiente, et de l’autre perçue comme un levier de performance et ainsi éviter toute forme d’inquiétude ou de rejet.

 

L’IA peut apporter des réponses aux défis humains auxquels sont confrontés les services RH comme par exemple : l’identification du meilleur candidat pour un poste au regard des multiples candidatures reçues, l’identification des ressources les plus critiques pour l’entreprise et l’évaluation du risque de départ, l’identification des compétences critiques dont l’entreprise aura besoin demain… La mesure dans laquelle l’IA va révolutionner les RH, au vu des multiples cas d’usages et de la réalité des processus RH, sera traitée dans le prochain article.

Revue des solutions digitales Ressources Humaines

© 2023 by Name of Site. Proudly created with Wix.com

  • Facebook App Icon
  • Twitter App Icon
  • Google+ App Icon