Concevoir des Intelligences Artificielles sûres
Concevoir des Intelligences Artificielles sûres
Le Machine-Learning et en particulier le DeepLearning se sont imposés dans notre quotidien pour toutes sortes de tâches critiques, de la vision par ordinateur (conduite autonome, robots industriels) à la reconnaissance de maliciels ou de spams.
Il serait une erreur de penser que ces technologies basés sur l’apprentissage automatique soient dépourvues de faille de sécurité. C’est exactement le contraire qui se produit : elles offrent aux attaquants un tout nouveau champ d’attaque, encore inexploité :
La manipulation subtile d’un très petit nombre d’exemples d’apprentissage peut être utilisé pour détériorer drastiquement les performances du systèmes (en réduisant le F-score, augmentation des faux-positifs et faux-négatifs).
Les conséquences sont en finalité similaires à celles d’une attaque par déni de service, mais dont les causes sont difficiles à identifier.
Cette attaque est réalisable dès lors qu’une petite proportion des exemples d’apprentissage est manipulable. Elle est à distinguer de la simple pollution par des examples d’apprentissages mal classés.
(également dénommées adversarial examples en anglais)
Les réseaux de neurones (mais aussi les SVM) sont sensibles à de fines perturbations des données d’entrées conduisant à une mauvaise classification.
Ces attaques ne requièrent aucun accès aux détails des couches sous-jacentes constituant le système mais seulement aux résultats. Elles sont donc conduites en mode boite noire (black box).
Exemples d’attaques :
Le coût moyen d’une intrusion est de 2.5 millions d’euros (Accenture). Ne soyez pas le prochain !
Support : +335 64 27 05 82
contact@owlyshield.com