Le média des entreprises qui construisent la société de demain

Intelligence artificielle : que va changer l’AI Act pour les entreprises ?

L'AI Act entre dans sa dernière ligne droite
© Parradee Kietsirikul via iStock

Dernière ligne droite pour l'AI Act avant sa mise en œuvre. Il édicte de nouvelles règles auxquelles les entreprises qui développent ou utilisent l'intelligence artificielle devront se conformer.

Âprement discuté, l’AI Act est enfin finalisé. Vendredi 8 décembre tard dans la soirée, les États membres de l’Union européenne (UE) et le Parlement européen sont parvenus à un accord sur ce texte encadrant le développement et l’usage des intelligences artificielles (IA). Une réglementation « historique », selon le commissaire européen Thierry Breton, qui défendait le projet.

Quelles entreprises devront l’appliquer ?

La réglementation est particulièrement extensive. Elle concerne tous les fournisseurs et distributeurs qui proposent des IA au sein de l’UE. Mais aussi toutes les entreprises situées dans l’UE qui utilisent une IA.

Que contient l’AI Act ?

L’AI Act comprend un ensemble de règles définissant les conditions de développement et de déploiement de systèmes d’intelligence artificielle. Fournisseurs et utilisateurs d’IA devront respecter un certain nombre de contraintes, à commencer par garantir la qualité des données utilisées par les algorithmes. Mais aussi s’assurer que les contenus générés (sons, images ou textes) soient clairement identifiés comme produits par une IA. Et pour les IA capables d’interagir avec les humains, elles doivent s’identifier comme telles auprès de leurs interlocuteurs.

Les régulateurs européens ont imaginé des contraintes renforcées pour les systèmes présentant « un risque élevé », défini soit par leur usage (notamment lié à des fonctions régaliennes) soit par la puissance de calcul des algorithmes. Les fournisseurs et utilisateurs de ces systèmes devront rédiger une documentation technique détaillée, mettre en place un système de gestion du risque et une supervision humaine des algorithmes. Des gages de transparence qui doivent aussi garantir des usages plus éthiques.

Le texte prévoit à ce titre quelques interdictions ciblées pour les applications ne respectant pas les valeurs européennes. Elles concernent principalement les usages étatiques, comme la notation citoyenne ou les systèmes de surveillance de masse. Un cas d’usage lié au monde du travail est toutefois explicitement listé : la reconnaissance des émotions sur le lieu de travail.

Quand va t-il s’appliquer ?

Pas avant 2026, au mieux. Le Conseil européen rappelle sur son site que le texte final, objet de l’accord, doit encore « être formellement adopté à la fois par le Conseil et le Parlement, en tant que co-législateurs ». Celui-ci précise que la réglementation « devrait s’appliquer à partir de 2026 ».

Que risquent les entreprises qui ne s’y conforment pas ?

C’est là aussi une première mondiale : contrairement à d’autres réglementations, l’UE a fait le choix de la contrainte. Et gare aux contrevenants, les amendes encourues sont très élevées :

  • 35 millions d’euros ou 7% du chiffre d’affaires pour la mise en place d’usages d’IA interdits
  • 15 millions d’euros ou 3% du CA pour la violation des obligations réglementaires
  • 7,5 millions d’euros ou 1,5% du CA pour la fourniture d’informations incorrectes.

Un barème spécifique, qui n’a pas encore été dévoilé, sera appliqué aux PME et aux start-up.

Qu’est-ce qui lui est reproché ?

Les acteurs du secteur se montrent prudents… voire réticents à cette nouvelle réglementation. Arthur Mensch, le fondateur de Mistral AI, l’un des principaux concurrents européens de l’Américain OpenAI, a ainsi regretté dans un tweet que l’AI Act régule les modèles de fondation des IA, indépendamment des usages qui en seront faits. Pour l’entrepreneur, le problème se situe au niveau de l’usage et non de la conception. Or, « renforcer la sécurité des produits d’IA affectera naturellement la façon dont nous développons les modèles de fondation. »

Une régulation à 2 vitesses

Thierry Breton s’est réjoui que le texte constitue « un tremplin pour les start-ups européennes et les chercheurs afin de mener la course mondiale à l’IA ». Mais l’entrepreneur ne l’entend pas de cette oreille. Il s’élève tout particulièrement contre « une régulation à 2 vitesses ». « Elle acte l’existence de deux catégories d’entreprises : celles qui auront le droit de se développer parce qu’elles auront les moyens de faire face aux exigences réglementaires et celles qui ne le pourront pas parce qu’elles n’auront pas d’armée d’avocats. » Arthur Mensch a ainsi estimé que l’AI Act était « contreproductif pour l’écosystème européen de l’IA en train d’émerger ».

Une analyse d’autant plus inquiétante que Mistral AI vient de lever 385 millions d’euros et dispose donc de moyens conséquents… Ce qui n’est pas le cas de nombreuses autres start-up. La France, qui était partisane d’une réglementation plus souple, sera vigilante aux « détails » qui doivent encore être précisés. « Nous allons analyser attentivement le compromis trouvé et nous assurer que le texte préserve la capacité de l’Europe à développer ses propres technologies d’IA et préserve son autonomie stratégique », a ainsi réagi le ministre chargé de la Transition numérique, Jean-Noël Barrot.

Rejoignez la discussion !

Votre adresse e-mail ne sera pas publiée.

S’abonner
Notification pour
0 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires