Il y a à peine plus d’un an, le grand public découvrait l’intelligence artificielle générative avec la troisième version de ChatGPT, sortie le 30 novembre 2022. Depuis, l’IA tient son rang d’innovation révolutionnaire. Et 2024 ne devrait pas le démentir. « Il y a beaucoup de hype autour de l’IA générative, parfois des choses délirantes mais des projets partent en production. Ce n’est pas une bulle qui va éclater du jour au lendemain », constate Laurent Daudet, directeur général et co-fondateur de la start-up tricolore LightOn. Une vision que partage le président du collectif Impact AI, Christophe Liénard : « aujourd’hui, l’IA générative est un élément incontournable dans la construction des métiers ».
Reste que 2024 doit être « l’année du scale up, du passage à l’échelle des projets d’intelligence artificielle ». « L’enjeu sera de continuer le déploiement de l’IA en entreprise tout en minimisant les risques éthiques et de divulgation d’informations », résume Christophe Liénard. Les entreprises bénéficient de l’alignement des planètes du financement. « L’intelligence artificielle est un des rares domaines épargnés par le ralentissement généralisé », observe Laurent Daudet. Les créateurs d’IA trouvent facilement des investisseurs, comme en témoigne la levée de 385 millions d’euros réalisée début décembre par Mistral AI. Et, du côté des clients, les conseils d’administration ne rechignent pas à mettre la main au portefeuille.
Une intelligence artificielle plus pragmatique
Un carburant nécessaire pour alimenter le développement des grands modèles d’intelligence artificielle. Laurent Daudet entrevoit l’émergence de « méga-modèles, encore plus gros et plus puissants, aux capacités incroyables ». Concrètement, ils pourraient être « multimodaux, combinant image et son » et capables « de davantage de planification, de raisonnement ». Et s’ils sont majoritairement portés par les géants américains du numérique, les acteurs européens planchent de leur côté. « Nous disposons à l’heure actuelle d’une douzaine de grands modèles de langage (LLM) présentant entre 1 et 180 milliards de paramètres. Et nous continuons d’explorer et d’innover », annonce fièrement le DG de LightOn. À titre de comparaison, la version gratuite de ChatGPT repose sur 175 milliards de paramètres.
Mais le plus est-il toujours le mieux ? Loin s’en faut. « Pour l’essentiel des cas d’usage en entreprise, ces modèles sont autant de marteaux pour écraser une mouche, estime Laurent Daudet. On peut souvent diviser la taille du modèle par 10 en préservant 95% de la performance. » C’est ainsi que 2024 devrait voir essaimer « des applications industrielles d’intelligence artificielle ». Christophe Liénard précise que « ces cas d’usage très personnalisés » présenteront « des retours sur investissement extraordinaires ».
Plus éthique
Les entreprises n’oublieront pas pour autant leur responsabilité dans le déploiement de ces applications. D’autant moins que l’accord trouvé sur le texte final de l’AI Act, mi-décembre, esquisse un premier cadre réglementaire. « On est contents que ça avance parce que l’AI Act a été un psychodrame pendant toute l’année. Mieux vaut un texte imparfait que pas de texte du tout », résume Laurent Daudet. Les amendes évoquées sont suffisamment dissuasives pour que les entreprises commencent déjà à se mettre en ordre de bataille. « Elles ont en tête le RGPD et à quel point il avait été compliqué à mettre en œuvre quand elles ne s’y étaient pas préparées, souligne Xavier Lioneton, COO du club datacraft. Elles anticipent donc énormément et se préparent à intégrer ces contraintes dans leurs projets d’IA. »
Certaines se tournent vers de premières certifications, comme Colas. L’entreprise a obtenu en décembre une certification du Laboratoire national et d’essai (LNE) pour sa méthode de développement d’IA. L’entreprise a mis sur pied Infracare, une solution vidéo d’identification de défauts sur les routes. Et l’équipe qui a porté le projet est la même que celle qui avait travaillé sur la qualification des temps de parole politique durant la campagne présidentielle.
La prochaine étape ? « L’acculturation du grand public à l’éthique et à ce que ça implique », dessine Hélène Chinal, coordinatrice du groupe de travail sur la formation IA et biais de genre au sein d’Impact AI.
Et plus sobre
Autre sujet qui va (pré)occuper les entreprises en 2024 : la sobriété de l’intelligence artificielle. « Les gros modèles d’IA générative consomment beaucoup d’énergie, rappelle Christophe Liénard. Les entreprises poussent les constructeurs à développer des dispositifs plus économes. » LightOn en a bien conscience, estimant impossible de « faire la course à l’armement des modèles sans regarder leur impact environnemental ».
Sur ce point, les entreprises qui subissaient la doctrine écologiste sont devenues actrices. « Au départ, le développement d’une IA frugale répondait à des contraintes, se remémore Xavier Lioneton. La question était de développer des algorithmes avec peu de données disponibles. Aujourd’hui, c’est l’inverse : on veut arriver à faire aussi bien avec moins. Parce que l’IA présente un coût économique et écologique. » Le COO de Datacraft souligne qu’il existe « énormément de techniques de machine learning qui permettent déjà d’être plus frugaux ». La création de modèles plus adaptés aux besoins des entreprises – et donc plus limités en ressources – devrait doper l’émergence d’IA plus sobres.
L’affrontement de 2 modèles
En prenant un peu de recul, 2024 devrait donc voir s’affronter 2 standards dans le secteur de l’intelligence artificielle. D’un côté, le modèle américain « hyper efficace ». « Le duo OpenAI et Microsoft constitue un leader technologique et commercial sur le marché », reconnaît Laurent Daudet. En quelques mois d’existence, « un tout petit acteur, soutenu par un très gros, a su se positionner à l’échelle mondiale », remarque Christophe Liénard, admiratif. Une success story qui comporte ses défauts. Du moins pour les utilisateurs et clients européens : « une dépendance totale, technologique, commerciale et réglementaire », souligne le DG de LightOn. Les modèles américains, fermés, ne laissent rien entrevoir de ce qu’il se passe sous leur capot, tout en plaçant les clients européens sous la coupe de l’extra-territorialité des lois américaines.
Au contraire, le modèle européen se veut plus ouvert. « Les technologies de LightOn, d’HuggingFace, de Kyutai mais aussi une partie de Mistral AI présentent un coeur open source, ce qui permet à la communauté d’avoir une certaine visibilité sur ce qui régit les IA », décrit Laurent Daudet. « Ces dispositifs open source peuvent être intégrés dans des clouds en mode fermé, sont mieux contrôlés et mieux explicables, personnalisés et donc moins consommateurs de ressources », se réjouit de son côté Christophe Liénard. Un coup à jouer pour les concurrents européens d’OpenAI. « L’Europe peut rivaliser avec les géants si elle se positionne sur un terrain différent, celui de la coopétition », résume le DG de LightOn.