[Tribune] « Un assistant IA donne immédiatement une vue complète des menaces » : 3 questions sur la cyber GenAI

Chaque semaine, la rédaction de ChannelBiz donne la parole à un spécialiste de l’IT et Tech, qui apporte un éclairage plus personnel sur l’actualité et les tendances du Channel. Aujourd’hui, nous revenons sur 3 questions posées par l’IA générative en cybersécurité.

Nous partageons aujourd’hui l’avis d’expert de Philippe Nault, System Engineering Director chez Fortinet.

L’IA générative permet-elle de réagir plus rapidement en cas de cyberattaques ?

 

L’IA générative facilite grandement la gestion des cyberattaques, qui n’ont cessées de se renforcer au cours des dernières années. L’un de ses principaux avantages est qu’elle offre plus de visibilité sur l’intégralité de la surface d’attaque de l’entreprise, souvent difficile à cartographier. Chez Fortinet nous distinguons la surface d’attaque digitale de la surface d’attaque physique. La première englobe tout le matériel et les logiciels qui se connectent au réseau d’une organisation (ex : applications, code, ports, serveurs et sites Web). La deuxième comprend tous les appareils terminaux auxquels un attaquant peut accéder physiquement (ex : ordinateurs de bureau, disques durs, ordinateurs portables, téléphones mobiles et clés USB). L’IA générative est un outil puissant pour monitorer les deux surfaces en question.

Par exemple, la plateforme SecOps comprend de nombreux capteurs qui utilisent l’IA et d’autres analyses avancées pour évaluer en continu les appareils, les utilisateurs, les fichiers, le réseau, les e-mails, les applications, le cloud, les journaux et même l’activité sur le Dark Web, afin d’identifier les signes de cybermenaces. Toutes ces informations sont ensuite remontées pour une investigation et une remédiation centralisée, alimentées par l’assistant GenAI de Fortinet, FortiAI. Cet assistant fournit, en quelques secondes, des informations critiques en langage naturel aux équipes, ce qui accélère leur détection et leur réponse aux incidents, et renforce ainsi leur posture globale de sécurité.

Est-ce qu’une solution d’IA générative en cybersécurité doit seulement s’adresser à certains métiers dans l’entreprise ?

L’IA générative a l’avantage d’être accessible à tous les profils. Pour converser avec un assistant virtuel il n’y pas de besoin de compétences spéciales. Pour donner plusieurs exemples, un assistant de sécurité assisté par la GenAI peut améliorer le travail des jeunes recrues, pallier la pénurie de talents et faciliter le travail quotidien des collaborateurs. Fortinet a déployé en ce sens son assistant de sécurité FortiAI, qui donne accès de manière conversationnelle à tout l’historique des documentations. Lors de l’onboarding de jeunes talents, une telle solution permet de prendre des décisions plus éclairées à l’aide de l’assistant et réduit ainsi les risques d’erreurs humaines.

Dans d’autres cas, les équipes en charge des opérations de sécurité (SecOps) et des opérations réseau (NetOps) peuvent configurer et piloter plus rapidement le réseau, en conversant en langage naturel avec FortiAI. Pour ce faire, elles n’ont pas besoin d’être surqualifiée en programmation.Nous sommes convaincus que des solutions comme FortiAI peuvent pallier la pénurie majeure de compétences en cybersécurité, estimée à 4 millions de professionnels dans le monde1.

Comment une entreprise peut garantir un usage sécurisé de la GenAI par ses collaborateurs ?

Il y a plusieurs bonnes pratiques à adopter. Par exemple, il faut s’assurer que les requêtes soumis aux LLMs n’exposent pas les données sensibles de votre organisation à des personnes extérieures. Pour cela il suffit d’exécuter et d’entrainer des modèles linguistiques dans un environnement privé et donc, éviter de soumettre des données aux IA générative en accès libre. Concernant la protection des données des clients, nous avons opté pour l’hébergement de ces données dans des serveurs IA qui jouent le rôle de proxy pour toutes les connexions IA. En centralisant le trafic IA via des proxys sécurisés, Fortinet s’assure de surveiller et protéger toutes les interactions de données, pour une parfaite maîtrise des risques associés aux opérations IA.

Il ne faut pas négliger non plus l’usage de technologies de protection de la vie privée, telles que l’anonymisation des données comme l’ajout de « bruit » ou suppression des détails d’identification, le traitement crypté des données, l’analyse fédérée/distribuée de données centralisées empêchant ainsi les processeurs de voir le contenu et les outils de responsabilisation des données. Nous recommandons également d’imposer des contrôles d’accès stricts et de limiter l’utilisation d’ensembles de données spécifiques aux utilisateurs autorisés. Ces pratiques se réfèrent plus communément à l’adoption du Zero Trust dans les entreprises.

 

TAGS ASSOCIÉS