Le média des entreprises qui construisent la société de demain

Utiliser l’intelligence artificielle pour innover : attention, danger !

Innover en utilisant l'intelligence artificielle, est-ce vraiment possible ?
© Olemedia via iStock

L'intelligence artificielle est un outil puissant mais que les entreprises doivent utiliser avec parcimonie pour innover si elles ne veulent pas risquer un retour de bâton juridique.

L’intelligence artificielle va-t-elle repousser les limites de la recherche ? Selon une étude publiée par la revue Nature, 31% des chercheurs utilisent déjà régulièrement une intelligence artificielle pour leurs recherches. Dans les entreprises aussi, c’est devenu un réflexe. Croiser des données ou même rédiger certaines lignes de code grâce à l’IA fait partie des nouveaux us et coutumes professionnels. Pratique et relativement efficace. Mais trop peu sécurisant pour les entreprises lorsqu’il s’agit d’innover. « La mission d’une entreprise est de créer quelque chose de singulier. Car, sans cela, elle fera une différence moindre sur le marché qu’elle vise », rappelle Vanessa Bouchara, avocate spécialisée en propriété intellectuelle et associée fondatrice du cabinet Bouchara & Avocats.

L’intelligence artificielle est-elle un frein à cela ? « Nonobstant l’utilisation de l’IA, on peut arriver à créer quelque chose d’original », estime l’experte. « Mais il faut arriver à expliquer l’originalité et l’apport intellectuel de l’auteur. » Ce qui implique de mettre en place des garde-fous pour pouvoir faire la preuve cette originalité et ainsi protéger l’entreprise.

Surveiller le processus créatif

Et ce dès le début du processus d’innovation. « Le fait de devoir créer quelque chose d’original force les entreprises à encadrer le processus créatif de leurs employés. Or cela n’est pas toujours le cas », reconnaît Vanessa Bouchara. Les entreprises devraient être aidées par les plateformes d’intelligence artificielle, bientôt soumises à l’AI Act européen. « L’AI act prévoit notamment d’imposer aux plateformes d’IA spécifiquement destinées à générer du contenu tel que du texte complexe, des images, du son et des vidéos, à communiquer au public un ‘résumé suffisamment détaillé’ de l’utilisation des données d’entraînement protégées par le droit d’auteur. Cette disposition semble imposer aux IA de citer leurs sources« , éclairent ainsi les avocates Pauline Debré et Laetitia Nicolazzi du cabinet Linklaters, dans une interview au Blog du Modérateur.

Dévoiler une partie de cette mystérieuse « boîte noire » des algorithmes qui régissent une intelligence artificielle permettra aussi de limiter les dérives, notamment sur l’utilisation d’œuvres protégées. « Pour générer quelque chose, l’IA va puiser, s’immerger dans l’existant pour en tirer un résultat correspondant à la demande de l’utilisateur. Mais elle ne peut pas proposer des éléments qui constitueraient une atteinte à des droits d’auteur ou de marque », rappelle Vanessa Bouchara. On touche là aux limites technologiques de l’IA : comme il n’existe aucun registre recensant les œuvres protégées par des droits d’auteur, impossible de fournir aux algorithmes une base des données à exclure. Les technophiles estiment aussi que limiter autant les données disponibles pour les IA pénaliserait drastiquement leur fonctionnement. Les entreprises se montrent toutefois prudentes : pas question de risquer un procès pour contrefaçon.

Attention à la contrefaçon

Car des procédures judiciaires sont déjà en cours. Le logiciel Copilot, propriété de Microsoft qui permet de générer automatiquement des lignes de code, est notamment pointé du doigt. Il puise dans le code présenté par les développeurs sur GitHub, sous licence open source, pour créer de nouvelles lignes. Sauf qu’il arrive que le logiciel recrache des lignes de code déjà existantes, sans pour autant reproduire la licence associée. Difficile au cas d’espèce de défendre l’originalité de la création…

Pourtant, la plus grande sanction pourrait venir du marché plutôt que des juges. « Pour établir une violation des droits d’auteur afférents à une œuvre qui aurait contribué à nourrir une IA, il faut démontrer que le résultat généré grâce à l’IA reproduit en intégralité ou au moins en partie les caractéristiques originales de cette œuvre. Or cela ne sera pas le cas dans la majeure partie des cas », présagent Pauline Debré et Laetitia Nicolazzi. « Plus la masse de données utilisée pour nourrir l’IA est importante, moins l’IA risque de reproduire une partie importante du contenu sur lequel elle a été entraînée. » Vanessa Bouchara rappelle à ce titre que le droit fonctionne de manière binaire en matière de contrefaçon : « s’il n’y a pas de ressemblance entre l’œuvre créée et l’œuvre prétendument plagiée, il n’y a pas d’atteinte aux droits ».

Une incertitude juridique bientôt limitée ?

Afin de rassurer les entreprises, les autorités nationales et européennes planchent sur un meilleur encadrement de l’intelligence artificielle. L’AI Act européen devrait se concrétiser d’ici quelques mois. En France, une proposition de loi pour « encadrer l’intelligence artificielle par le droit d’auteur » a été déposée par 8 député·e·s. Si elle a « le mérite d’exister », elle « crée une complexité juridique difficile à gérer », estime Vanessa Bouchara. Qui souligne notamment l’ambiguïté de la formule « une œuvre créée par une intelligence artificielle sans intervention humaine directe ». « C’est méconnaître le fonctionnement d’une intelligence artificielle », soupire l’avocate. Preuve que les législateurs ont pour l’instant du mal à trouver l’équilibre entre la révolution induite par l’IA et un droit pour l’instant adapté à l’existant.

Rejoignez la discussion !

Votre adresse e-mail ne sera pas publiée.

S’abonner
Notification pour
0 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires