En raison de son intégration croissante dans la société, l’intelligence artificielle (IA), pilier de la quatrième révolution industrielle, soulève des enjeux cruciaux dans le domaine de la cybersécurité. Le marché de l’IA appliquée à la cybersécurité est en pleine expansion, avec une valeur projetée de 34,8 milliards de dollars d’ici 2025. Cette dynamique offre aux entreprises et aux gouvernements des outils sophistiqués pour lutter contre les cybermenaces, faisant de l’intelligence artificielle un acteur déterminant dans la prévention et la protection contre la cybercriminalité.
L’interdépendance de l’intelligence artificielle et de la cybersécurité
À l’ère du numérique, l’intelligence artificielle et la cybersécurité sont étroitement liées. Ces deux concepts interconnectés jouent un rôle crucial dans la protection des données et des systèmes informatiques. D’un côté, l’IA renforce la cybersécurité en détectant les menaces et en améliorant les défenses. De l’autre, il est essentiel de garantir la sécurité de l’IA elle-même pour prévenir les cyberattaques et éviter qu’elle ne devienne une cible ou un vecteur d’attaques. Cette interdépendance signifie que pour que l’IA puisse contribuer efficacement à la cybersécurité, elle doit d’abord être un outil sécurisé. Michel Séjean, professeur agrégé en droit privé et sciences criminelles, distingue ainsi la cybersécurité par l’intelligence artificielle et la cybersécurité de l’intelligence artificielle.
L’IA et la cybersécurité forment donc un écosystème interdépendant, se renforçant mutuellement pour créer un environnement numérique sécurisé.
L’intelligence artificielle comme atout majeur dans le renforcement de la cybersécurité
L’intelligence artificielle révolutionne le paysage de la cybersécurité en offrant des solutions avancées pour la protection des données et la gestion des incidents au sein des entreprises et des organisations. En automatisant les processus, en détectant les menaces et en prévenant les vulnérabilités, elle propose une panoplie d’outils pour contrer les attaques informatiques de manière efficace et proactive.
Une des contributions majeures de l’IA à la cybersécurité est l’automatisation des tâches, réduisant les erreurs humaines, souvent à l’origine des incidents de sécurité. L’intelligence artificielle excelle également dans le traitement en temps réel et continu de volumes massifs de données, optimisant la gestion des informations par le biais du mapping, de la référence, de l’identification, de la sauvegarde et du chiffrement des données. De plus, sa capacité à traiter rapidement des flux d’informations intensifs permet une détection anticipée et une correction efficace des vulnérabilités.
Essentielle dans la gestion des incidents au sein d’entreprises, l’intelligence artificielle intervient à tous les niveaux, de la notification à l’analyse d’un incident, en passant par la mise en place de plans de restauration. Par exemple, elle est capable de réinstaller des antivirus, de vérifier les clés de registre, d’ajuster les règles des pare-feux et de proposer des scénarios de réponse automatique ou semi-automatique.
Dans la gestion des menaces, l’IA joue un rôle primordial en collectant et analysant des données sur les menaces potentielles pour détecter rapidement les activités anormales et identifier les comportements suspects, renforçant la sécurité des systèmes informatiques. Pour prévenir les failles de sécurité, elle peut également effectuer des tests d’intrusion pour détecter les vulnérabilités avant qu’elles ne soient exploitées, une tâche difficile à réaliser de manière exhaustive pour les humains.
Une mobilisation pour l’élaboration des bonnes pratiques pour la sécurité des systèmes d’intelligence artificielle
Il est crucial d’adopter une approche vigilante et prudente lors du déploiement de l’intelligence artificielle et de son intégration. Protéger l’intelligence artificielle elle-même contre les menaces et les attaques malveillantes en mettant en place des mesures de sécurité spécifiques est ainsi essentiel.
Pour cela, la CNIL ainsi que des acteurs tels que la société Wavestone, le National Institute of Standards and Technology et l’OWASP, conseillent et mettent en place des pratiques pour sécuriser l’intelligence artificielle. De son côté, l’ANSSI a publié un guide de recommandations de sécurité pour un système d’IA générative, promouvant les bonnes pratiques à adopter depuis sa conception jusqu’à son déploiement et son utilisation, tout en sensibilisant aux risques associés.
Par ailleurs, des think tanks et groupes de travail comme la Cloud Security Alliance et le Centre for European Policy Studies, mènent des recherches pour élaborer des guides pratiques visant à renforcer la sécurité de l’IA.
Les États et les régulateurs, tels que l’Agence de l’Union européenne pour la cybersécurité et le National Cyber Security Centre, publient également des lignes directrices et des recommandations pour sécuriser les algorithmes d’IA. De plus, des normes de sécurité, comme l’ISO/IEC 42001, aident les organisations à mieux gérer les risques et opportunités liés à l’utilisation de l’IA.
Les grands acteurs de l’intelligence artificielle, comme Google, Meta, OpenAI et Microsoft, investissent également massivement dans la cybersécurité de leurs systèmes. Par exemple, Google a proposé le « Secure AI Framework » pour atténuer les risques liés à l’IA, tandis qu’OpenAI a constitué une « red team » pour évaluer les risques liés à ses systèmes. En outre, ces entreprises ont mis en place des programmes de « bug bounty » pour récompenser les hackers éthiques et les chercheurs signalant des vulnérabilités, renforçant ainsi la sécurité et la performance de leurs systèmes d’IA.
En somme, l’intelligence artificielle n’est pas une solution autonome. Ainsi, que ce soit pour la cybersécurité de l’intelligence artificielle ou par l’intelligence artificielle, le contrôle humain reste primordial pour exploiter pleinement son potentiel en cybersécurité.
Lucie Speyser
M2 Cyberjustice – Promotion 2023-2024
Sources :
- Chapitre 18 du livre « Droit de l’intelligence artificielle » rédigé par Michel Séjean, sous la direction d’Alexandra Bensamoun et Grégoire Loiseau
- DROIT DE L’INTELLIGENCE ARTIFICIELLE – 2è édition – Sous la direction de Alexandra Bensamoun et Grégoire Loiseau
- Onepoint – Intelligence artificielle et cybersécurité : risques ou opportunités ?
- CNIL – Sécurité : Intelligence artificielle – Conception et apprentissage
- LINC – Sécurité des systèmes d’IA, les gestes qui sauvent
- CYBERUNIVERSITY – Bug Bounty : définition et comment participer ?
- Cloud Security Alliance – AI Safety Initiative
- LeMonde Informatique – OpenAI ajoute des fonctions de sécurité, de contrôle pour les entreprises
- NIST – AI RISK MANAGEMENT FRAMEWORK
- OWASP – Liste des contrôles LLM AI Cybersécurité et gouvernance