Intelligence artificielle partout, sécurité pour l’emploi nulle part ? Cette crainte des travailleurs a nourri les réflexions du Conseil national de la refondation (CNR) Numérique. Le secrétariat général du Conseil national du numérique (CNNum), l’Agence nationale de la cohésion des territoires (ANCT), la Mednum et la Direction générale des entreprises (DGE), aidés de France Num, la Dilcrah, l’Arcom, la Dinum et la DITP, ont planché durant près d’une année sur les transitions numériques au travail. Dans ses recommandations, rendues publiques en septembre, le CNR Numérique accorde une importance particulière au déploiement de l’intelligence artificielle dans les entreprises.
Or il constate que si l’IA au travail est « déjà encadrée » par la réglementation, elle ne fait l’objet que d’un accompagnement sommaire au sein des organisations. « Il est indispensable de mettre ces outils au cœur d’une discussion collective », estiment ainsi les auteurs. Et ce en anticipant la mise en place de systèmes d’IA par « un questionnement rigoureux des cas d’usage et de la création de valeur attendue », assortis « d’une étude d’impact préalable ». Pour faciliter « le dialogue entre organisations quant aux bonnes pratiques mises en œuvre » et permettre la supervision des IA « tout au long de [leur] vie dans l’organisation », le CNR Numérique a imaginé 3 nouveaux outils à la disposition des entreprises.
Une charte rédigée avec les partenaires sociaux
Encore une charte ? Consortium numériques, administrations et entreprises n’ont pas attendu ChatGPT pour se doter de principes éthiques. Le rapport du CNR Numérique souligne ainsi qu’entre 2014 et 2018, « 85 chartes ont été recensées dans le monde en matière d’IA ». Alors pourquoi songer à rédiger un document supplémentaire ? Ce « guide » serait élaboré « avec les partenaires sociaux ». Ce qui en ferait un document de référence non seulement éthique mais aussi social.
Il présenterait « des lignes directrices » qui « s’attacheraient dans un premier temps à présenter les différents systèmes d’IA et leur fonctionnement dans des termes simples afin de démystifier ces concepts et ce qu’il faut attendre de ces outils ». Il comporterait également « des précisions quant aux enjeux éthiques ». Tout comme « le contexte légal applicable à ces différents systèmes d’IA et les droits et obligations qui incombent aux organisations et aux travailleurs ». Pour que chacun trouve sa place aux côtés de l’intelligence artificielle.
Un registre des outils d’intelligence artificielle
On ne change pas une recette qui a fait ses preuves. Les auteurs ne s’en cachent pas, ils se sont librement inspirés du RGPD pour certains des outils imaginés. Et ont donc calqué « un registre des outils d’intelligence artificielle » sur le « registre de traitement des données collectées » créé dans le cadre du RGPD.
L’idée est double. D’une part poser noir sur blanc ce que l’entreprise attend de l’IA qu’elle utilise. Une façon de « suivre les décisions » et de « réinterroger les choix effectués » à l’aune de leur efficacité. Mais aussi de « visibiliser ces dispositifs et de les porter à la connaissance de l’ensemble des parties prenantes ». Y compris à l’extérieur de l’entreprise, créant ainsi une grande base de données… sur les systèmes d’intelligence artificielle en entreprise. Pour faciliter la mise en place de cet outil dans les entreprises, le CNR Numérique suggère de mettre à leur disposition « un répertoire d’exemples » dans lequel elles pourraient puiser pour établir la « fiche d’identité » de leur système d’IA.
Un comité et un délégué à l’intelligence artificielle
Autre nouveauté inspirée du RGPD : le « délégué aux systèmes d’intelligence artificielle », déclinaison du délégué à la protection des données (DPO). Celui-ci « aurait un rôle d’interface entre les fournisseurs de services et leurs utilisateurs« . Il prendrait place au sein d’un « comité » dédié à l’intelligence artificielle, aux côtés de « représentants de la direction, juristes, représentants du personnel » formés aux enjeux de l’intelligence artificielle.
Ce comité serait chargé à la fois de superviser la mise en place de systèmes d’IA et de former les collaborateurs à l’IA. Mais pourrait aussi être saisi si un utilisateur relève une anomalie dans l’usage de l’IA. « Une expertise du système est alors réalisée, par exemple dans ‘un bac à sable d’acceptabilité’ […] en cas de signalement fondé, le comité mandate le délégué pour alerter officiellement le fournisseur de service. » Car si l’objectif de ces nouveaux outils est de limiter les risques de dérives, ils permettent aussi d’y remédier.