Le média des entreprises qui construisent la société de demain

Laurent Hausermann (ex-Sentryo) : « Il est nécessaire de mettre en place des politiques publiques de cybersécurité »

Une photo de Laurent Hausermann
© Laurent Hausermann

La course à l'armement fait rage entre criminels et responsables de la sécurité informatique. Les intelligences artificielles génératives feront-elles pencher la balance d'un côté plutôt qu'un autre ? Laurent Hausermann, co-fondateur de Sentryo, évalue les forces en présence.

Techniques de phishing personnalisé ou encore rançongiciels facilement adaptables… L’introduction d’intelligences artificielles (IA) génératives dans le monde de la cybercriminalité mène à un renouvellement des menaces. Les RSSI doivent rapidement se munir des outils nécessaires pour y répondre. Selon Laurent Hausermann, fondateur de Sentryo, cela doit passer par une spécialisation des tâches et de la pédagogie. Interview.

Comment les intelligences artificielles génératives peuvent-elles être utilisées pour concevoir des attaques de plus en plus complexes ?

Laurent Hausermann : Les criminels peuvent tirer 2 avantages significatifs de cette technologie. Tout d’abord, elle les aide à automatiser la création de mails de phishing, qui est déjà une réalité. Deuxièmement, l’IA générative permet de personnaliser les mails de phishing en prenant la personnalité de quelqu’un d’autre pour mieux tromper l’interlocuteur. Les criminels seraient capables de créer des attaques plus complexes et personnalisées, potentiellement interactives. On peut imaginer qu’ils redirigeraient les cibles vers des sites web identiques générés automatiquement avec l’IA générative. Ou ajouteraient des pop-ups qui imitent un support client pour extraire des informations supplémentaires. Cela rendrait les attaques plus efficaces car elles seraient automatisées et personnalisées.

Les IA génératives vont-elles donc démocratiser la cybercriminalité ?

L.H. : Les IA génératives peuvent certainement aider les cybercriminels à être plus efficaces et sophistiqués. Mais cela ne suffit pas à expliquer la hausse de la cybercriminalité. Le principal moteur de cette évolution est le gain financier important que les cybercriminels obtiennent en s’attaquant aux systèmes informatiques des entreprises et des organisations, avec ou sans l’aide d’IA génératives.

Comment les gouvernements et les entreprises peuvent-ils collaborer pour atténuer les risques associés aux intelligences artificielles génératives dans le domaine de la sécurité informatique ?

L.H. : Aux États-Unis et en Europe, les gouvernements essaient de faire un certain nombre de choses, en lançant des initiatives pour établir de nouvelles réglementations et collaborations. En général, les gouvernements fixent la barre trop haute car les menaces entre États nécessitent des moyens considérables. Par conséquent, je milite pour que l’on fasse progresser tout le monde de façon structurée. Pour que cela soit possible, il est nécessaire de mettre en place des politiques publiques de cybersécurité, comme on a des politiques de santé publique pour lutter contre le tabac et l’obésité. En effet, il faut des mesures pédagogiques et des paliers simples à atteindre. On peut augmenter progressivement le niveau de contrainte pour que les gens deviennent davantage conscients des risques. Au final, cela améliorera le niveau moyen de sécurité, comme cela a été le cas avec le tabac.

L’IA ne peut-elle pas être utilisée également pour prévenir les cyberattaques ?

L.H. : L’IA générative peut jouer un rôle préventif en fournissant aux développeurs des explications sur les vulnérabilités identifiées. L’objectif est d’être défensif et de corriger les problèmes avant la mise sur le marché des logiciels. Cette approche, appelée « shift left », devient une tendance majeure sur le marché de la cybersécurité. Plutôt que de mettre en place des barrières et des protections, il est plus efficace de corriger les problèmes en amont, avant la mise sur le marché des logiciels.

Les développeurs disposent-ils des outils adéquats ?

L.H. : La semaine dernière, lors de la RSA Conference, l’éditeur Geek Lab a annoncé une IA intégrée à son logiciel de gestion de code des projets. L’outil peut identifier des failles à partir de règles et de scans mais souvent le développeur reçoit des centaines d’alertes de vulnérabilités. Et certaines passent à l’as. Geek Lab a résolu ce problème en intégrant directement dans l’outil de développement une explication complète de chaque alerte, générée par une IA. Cette fonctionnalité permet de mieux comprendre la nature de la vulnérabilité, son impact, comment l’exploiter, etc.

Les RSSI ont-ils adopté les IA génératives aussi rapidement que les cybercriminels ?

L.H. : Les RSSI ont l’obligation d’intégrer l’IA générative dans des solutions qu’ils doivent être capables d’utiliser. Il y a eu quelques exemples de son utilisation par des chercheurs pour montrer son potentiel. Mais je ne suis pas certain que cette technologie soit actuellement largement adoptée.

Les intelligences artificielles génératives permettront-elles de pallier la pénurie de profils en cybersécurité ?

L.H. : Oui, elles permettront de limiter l’impact de cette pénurie. D’une part, elles pourront accomplir des tâches qui auraient dû être effectuées par des humains. D’autre part, elles faciliteront la structuration des tâches afin de pouvoir intégrer des personnes moins expertes dans les équipes. Dans des domaines matures, tels que la médecine, les tâches sont structurées et réparties entre différents professionnels. Dans la cybersécurité, nous devrions également mieux organiser le travail afin que les personnes puissent travailler à des tâches correspondant à leur niveau d’expertise. Si nécessaire, une IA peut aider les employés à effectuer leur travail et à se former, adaptant son niveau en fonction de l’utilisateur.

Les IA génératives sont-elles complémentaires des RSSI ou vont-elles les remplacer ?

L.H. : Les intelligences artificielles génératives auront un impact sur le métier de RSSI, tout comme sur de nombreux autres métiers. Une multitude de tâches peuvent être démultipliées par une IA générative. Par exemple, un RSSI pourrait mettre sa politique de sécurité dans une IA générative, puis demander à l’IA de générer une série d’e-mails pour l’expliquer à différentes filiales. Les IA génératives peuvent donc aider les RSSI à augmenter leur activité en leur permettant de faire plus de choses, comme davantage de communication et de sensibilisation, et à réduire le temps passé à des tâches à faible valeur ajoutée. Je ne crois pas qu’elles remplaceront le travail des RSSI mais plutôt qu’elles multiplieront leur efficacité en leur permettant de faire des choses qu’ils ne pouvaient pas faire auparavant.

Biographie

Laurent Hausermann est un développeur diplômé des Mines d’Alès. Il a débuté sa carrière chez Arkoon Network Security, où il passe 10 ans jusqu’à en devenir le CTO. Il a ensuite co-fondé, en 2014, la start-up de cybersécurité Sentryo, acquise par Cisco en 2019. Laurent Hausermann travaille actuellement sur un nouveau projet dans le domaine de la cybersécurité.

Mélanie Roosen & Géraldine Russell

2
3

vous accompagnent chaque semaine sur Intelekto

le média dédié aux entreprises façonnant l’avenir de notre société

Recevez toutes les semaines
notre newsletter gratuite éditorialisée

* champs obligatoire

Rejoignez la discussion !

Votre adresse e-mail ne sera pas publiée.

S’abonner
Notification pour
0 Commentaires
Commentaires en ligne
Afficher tous les commentaires