Intelligence artificielle et relation de travail

Source : Paperjam
15 janvier 2024 par
Legitech, LexNow

L’engouement du grand public pour les technologies de l'intelligence artificielle (IA) n’épargne pas la sphère professionnelle.


Si l’IA présente bien des avantages, les employeurs doivent rester conscients des risques qu’une absence d’encadrement peut générer.


Prévenir les risques de discrimination

La discrimination figure parmi les risques les plus craints par l’intrusion de l’IA dans les processus d’aide à la décision, notamment en matière de recrutement et de sélection de candidats.


Pour rappel, le Code du travail pose un principe strict de non-discrimination. Le non-respect de cette règle expose l'employeur à différents risques allant de la nullité de la décision viciée à une condamnation éventuelle au civil et/ou au pénal.


En cas de recours à l’IA, le risque principal à détecter sera celui de la discrimination indirecte, à savoir des critères d’apparence neutre qui sont néanmoins susceptibles d’entraîner un désavantage pour les individus en raison d’une caractéristique protégée (p.ex. sexe, âge, situation de handicap, etc.).


En 2018, une grande multinationale s’est rendue compte que le modèle d’algorithme de son outil (expérimental) de recrutement avait entériné des biais discriminatoires sexistes aboutissant à une notation moins favorable d'une plus grande proportion de candidatures de femmes.


Il s’est avéré que l’algorithme avait été élaboré à partir d’un historique de candidatures constitué sur les dix années précédentes, lesquelles étaient marquées par la prédominance de candidats de sexe masculin aux postes techniques.


Cela démontre qu'un algorithme construit sur un modèle de pratiques ou de situations biaisées augmentera la probabilité que la décision finale soit elle-même entachée d’une discrimination.


Or, il n'est pas garanti qu’en cas d'action en justice, l'employeur puisse s'exonérer de sa responsabilité au seul motif que la pratique discriminatoire serait le « fait » d’un algorithme dont il sera, au demeurant, rarement le concepteur. L’employeur averti prendra donc soin de s’intéresser à l’ « assainissement » et au paramétrage des données sur lesquelles le modèle d’algorithme de l’IA sera bâti.


Veiller au respect de la règlementation sur la protection des données

Les employeurs qui ont recours à des technologies de l’IA dans le cadre de la relation de travail ne pourront pas faire l’économie d’une analyse de conformité au règlement général sur la protection des données (« RGPD »). 


Le marché regorge de solutions RH prometteuses et d’une efficacité redoutable : des systèmes capables d’analyser les expressions faciales et la gestuelle d’un candidat, de prédire les démissions à partir d’évaluations professionnelles et d’augmentations salariales, de contrôler discrètement la productivité des salariés en télétravail.


Toutefois, ces pratiques ne sont pas neutres sur le plan de la protection des données : décisions entièrement ou partiellement automatisées, profilage et surveillance des travailleurs, tous ces sujets font l’objet de règles – très strictes –, lorsqu’elles ne sont pas tout bonnement interdites.


L’implication du DPO (s’il en existe un) et une analyse d’impact préalable adaptée sont indispensables pour toute entreprise qui souhaite jouir de ce potentiel technologique en toute quiétude.


Rappelons que les amendes administratives prévues par le RGPD sont particulièrement dissuasives sans compter qu'elles pourraient se cumuler avec des sanctions pénales et civiles.


Encadrer l’usage des IA génératives par le personnel

Ce n’est plus un tabou, nombreux sont les salariés qui exécutent leurs tâches quotidiennes avec l’aide de traducteurs en ligne, de transcripteurs de contenus audio et vidéos ou d’agents conversationnels (« chatbot »).


L'employeur doit donc être proactif dans l'encadrement de ces pratiques au risque d'en subir les désagréments juridiques et opérationnels. L’un des géants des nouvelles technologies a récemment dû faire face à une violation grave du secret des affaires par plusieurs salariés ayant divulgué des données ultra sensibles en utilisant ChatGPT.


L'usage inadapté de ces IA génératives pourra par ailleurs engager la responsabilité civile du chef d'entreprise vis-à-vis des tiers, notamment s’il aboutit à une violation des droits d’autrui (p.ex. atteinte à la vie privée, violation de droits d’auteur, etc.).


La mise à jour des chartes et politiques informatiques ainsi que la sensibilisation et la formation du personnel restent des mesures préventives incontournables.


Respecter les prérogatives de la délégation du personnel

Finalement, les employeurs qui envisagent de faire usage des technologies de l’IA dans le cadre de la relation de travail devront tenir compte des attributions que la loi confie aux délégations du personnel au même titre que pour n’importe quelle décision susceptible d’affecter l’organisation et les conditions de travail, la santé et la sécurité du personnel (p.ex. sujets liés au stress technologique et au droit à la déconnexion) ou les droits des salariés en matière de surveillance sur le lieu de travail.

Écrit par Me Marie Behle Pondji, Avocat à la Cour & Partner de Castegnaro – Ius Laboris, Luxembourg