
Un pouvoir de contrôle balisé, mais chamboulé par l’IA
Le Code du travail reconnaît à l’employeur le droit de contrôler l’exécution du contrat de travail. Mais ce pouvoir est encadré de près. Il impose notamment d’informer les salariés de tout dispositif collectant des données personnelles et de consulter le comité social et économique (CSE). Le règlement général sur la protection des données (RGPD) ajoute les principes de proportionnalité, de minimisation et de durée de conservation limitée.
Faute de respecter ces garde-fous, l’entreprise s’expose aux sanctions de la CNIL. Mais la montée en puissance de la surveillance technologique menace cet équilibre.
À l’augmentation des usages numériques favorisée par l’hybridation du travail, s’ajoute ainsi le spectre de la surveillance algorithmique et de l’IA dans les entreprises. En effet, certains RH utilisent déjà l’IA pour recruter, évaluer les compétences ou gérer les carrières : chatbots, assistants qui rédigent des mails ou analysent des données… mais aussi logiciels capables de mesurer la productivité, traquer les pauses, chronométrer le temps passé sur chaque mission, enregistrer les frappes clavier ou surveiller la webcam, souvent sans raison valable ni respect des règles.
Si ces technologies peuvent améliorer la productivité et optimiser les processus, elles posent des risques majeurs pour les libertés individuelles. Ainsi, l’utilisation d’un « keylogger », à l’insu d’un collaborateur, pour intercepter les mots qu’il tape, est un délit. Certains dispositifs ont fait par ailleurs l’objet de sanctions de la CNIL, de par leur usage disproportionné – certains permettaient de comptabiliser des périodes « d’inactivité » supposée et d’effectuer des captures d’écran régulières des ordinateurs.
Recrutement, surveillance, biais : l’IA au travail dans le viseur de l’émission Cash Investigation
L’IA Act, entré en vigueur le 2 février 2025 pose des limites claires en ce qui concerne certains usages sur le lieu de travail. Ainsi, ce texte interdit « la mise sur le marché, la mise en service à cette fin spécifique, ou l’utilisation de systèmes d’intelligence artificielle pour déduire les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’intelligence artificielle est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité. »
Dans le cadre de ses travaux de prospective sur les usages de l’IA au service de la santé et sécurité au travail, l’INRS avait déjà souligné que ces nouvelles fonctionnalités pouvaient « conduire à développer des outils de surveillance des travailleurs et d’alerte lorsque les conditions d’un travail en sécurité ne sont pas remplies (consignes non respectées, état de santé du travailleur hors norme, etc.). Cette surveillance permanente peut générer des risques psychosociaux et également conduire à une individualisation de la santé et sécurité au travail et à une responsabilisation exclusive du travailleur au détriment de la mise en place par l’employeur de mesures de prévention collectives ». De son côté, la CNIL appelle à la vigilance à travers la publication de recommandations.
En l’absence de transparence sur le fonctionnement des algorithmes et de régulation claire, cette surveillance exercée par des outils intégrant l’IA pourrait devenir déviante, intrusive, voire discriminatoire. La question de la proportionnalité, déjà centrale dans le cadre juridique actuel, devient encore plus délicate face à une IA autonome ou mal maîtrisée. De plus, si les outils de surveillance assistés par l’IA sont intégrés à des plateformes globales ou des outils collaboratifs, il peut être difficile pour les salariés de les éviter, voire de les identifier.
Que faire en cas de surveillance intrusive ?
En cas de surveillance abusive, un salarié peut solliciter le CSE, la médecine du travail et l’inspection du travail et la CNIL. La jurisprudence a longtemps protégé les salariés contre les abus de surveillance. L’arrêt Nikon (2001) a reconnu le droit à la vie privée du salarié, même sur son lieu et temps de travail. Les juges ont ainsi écarté les preuves obtenues par des dispositifs clandestins ou disproportionnés lorsque l’information du salarié ou la consultation du CSE n’avait pas été respectée.
Cependant, un tournant a été amorcé avec un revirement de jurisprudence acté par la Cour de cassation dans son arrêt du 22 décembre 2023. Désormais, une preuve obtenue de manière déloyale ou illicite peut être recevable, si elle est jugée indispensable à l’exercice du droit à la preuve et si l’atteinte aux droits du salarié reste proportionnée. Cette nouvelle doctrine s’est confirmée dans d’autres arrêts récents, notamment pour des preuves tirées de vidéosurveillance ou de logiciels de gestion des appels utilisés sans information préalable.
Ces décisions créent un climat d’incertitude. Elles interrogent sur l’équilibre à maintenir entre pouvoir de l’employeur, le droit d’accès aux données personnelles et les droits fondamentaux du salarié. Des zones grises s’installent. La surveillance peut s’immiscer dans la sphère privée, notamment en télétravail, et les frontières entre vie professionnelle et vie personnelle deviennent floues. Les salariés sont ainsi soumis au risque d’une surveillance potentiellement déviante, accrue avec l’IA.
Dans ce contexte, il est impératif de renforcer l’encadrement légal. La transparence, l’explicabilité des décisions algorithmiques et le respect du RGPD sont essentiels. Le rôle de la CNIL, des partenaires sociaux et du législateur sera déterminant pour éviter que l’IA ne transforme le lieu de travail en un espace de surveillance constante et oppressante.
Source : Courrier Cadres