Ajouter l’IA et le machine learning peut être la meilleure chose à faire pour améliorer votre profil de cybersécurité. Mais il existe de potentiels obstacles qu’il faut surmonter avant de décider quand, où et comment intégrer l’IA à votre plan général de sécurité.
Biais potentiel
L’une des qualités innées de l’être humain est la formation de biais, qu’il n’est pas toujours facile d’identifier. Malheureusement, l’IA est aussi sujette aux biais, mais il est plus difficile de les identifier dans la technologie que chez les gens.
En matière de cybersécurité, les informations humaines, le contexte et les connaissances sont transmis à l’IA pour aider à gérer les risques et les zones d’ombres que nous constatons. Donc, si l’IA est un excellent outil de cybersécurité pour les raisons précédemment mentionnées, elle peut aussi refléter les biais des humains qui lui ont été intentionnellement ou involontairement transmis, notamment les idéologies, le genre, la race, l’âge, les handicaps et autres.
Alors que l’IA est de plus en plus présente en cybersécurité, il deviendra de plus en plus important de faire confiance au fait que les résultats obtenus par l’IA soient dépourvus de tout biais. S’il n’y a pas de vérifications, l’IA biaisée pourrait engendrer des problèmes importants en termes de diversité et de cybersécurité. Si vous choisissez d’intégrer l’IA à votre posture de cybersécurité, votre équipe devra être consciente des risques potentiels, notamment :
Règles commerciales biaisées — Les algorithmes sont créés pour s’aligner aux règles de la logique commerciale, lesquelles sont rédigées par des êtres humains ayant leurs propres biais (souvent inconscients). Pour cette raison, l’IA peut refléter les hypothèses de risques de sécurité inconscients de ceux qui les ont émises.
Données de formation étroites — L’IA ne peut prendre des décisions qu’à partir des données de formation qu’elle a reçues, lesquelles sont par essence neutres jusqu’à ce qu’elles soient filtrées par des humains et leurs biais. Le temps d’élaborer les algorithmes, le biais de l’homme a affecté les décisions des échantillons, des classeurs de données et la valeur apportée aux données de formation.
Collaborateurs non variés — Lorsque ceux qui contribuent à la formation de l’IA sont trop similaires, il devient très difficile de s’assurer de la diversité des algorithmes, ce qui est pourtant nécessaire pour procurer de l’équilibre et de l’équité lors de leur application.
Construire des équipes variées qui comprennent l’importance de la diversité et les risques de biais de l’IA peut permettre de garantir des algorithmes équitables et des données de formation équilibrées.
Ensembles de données
Les modèles de cybersécurité avec l’IA sont formés à l’aide d’ensembles de données d’apprentissage. Cela signifie que votre équipe devra obtenir plusieurs ensembles différents de données précises sur les malwares et les codes malveillants, et autres anormalités. Pour plusieurs organisations, mettre la main sur ces données est un vrai défi.
Dépenses
Adopter l’IA et le machine learning coûte cher et prend du temps. Une puissance de calcul, des données et une expertise supplémentaire sont nécessaires pour construire et entretenir un système d’IA.
L’IA dans de mauvaises mains
Les cybercriminels testent en permanence leurs capacités à rendre leurs outils résistants à la sécurité de l’IA. Les attaquants apprennent en continu à partir des outils d’IA existants pour les aider à élaborer des attaques complexes contre les systèmes de cybersécurité traditionnels et les systèmes ayant intégré l’IA.
Cela inclut le potentiel du neural fuzzing. On parle de fuzzing quand de grandes quantités de données aléatoires sont testées par un logiciel pour identifier des faiblesses. Avec le neural fuzzing, l’IA est utilisée pour le faire très rapidement. Depuis la perspective d’un hacker, le neural fuzzing permet de cibler plus facilement un système en identifiant ses faiblesses.