Equipe-projet

ARTISHAU

Intelligence artificielle : sécurité, traçabilité et audit
Intelligence artificielle : sécurité, traçabilité et audit

 

L'intelligence artificielle analyse des données pour prendre des décisions ou génère de nouvelles données. Ces systèmes sont désormais largement répandus et servent à la plupart de nos interactions en ligne (agents conversationnels, curation, recommandation, algorithmes de tarification ou de classement, voitures autonomes, génération de texte ou d'images). Ils sont également de plus en plus utilisés dans des applications critiques telles que la cybersécurité, où l'on suppose qu'il existe un attaquant, c'est-à-dire un acteur malveillant prêt à compromettre le système. Ces systèmes ont démontré des performances incroyables quant à leurs objectifs principaux (précision, perplexité, faible latence, débit élevé, etc.). Pourtant, ce succès indéniable est entravé par un manque croissant de confiance dans l'IA et l'apprentissage automatique. Ces algorithmes font peur, et ce sentiment est alimenté par l'absence de nombreuses propriétés secondaires : équité, explicabilité, plausibilité, sûreté, transparence et sécurité.

Il est donc dans l'intérêt public de développer des méthodes permettant de détecter et d'expliquer les vulnérabilités intrinsèques, de sécuriser les modèles dès leur conception lors de la phase d'entraînement, de vérifier la conformité des modèles déjà déployés en ligne et d'identifier les domaines dans lesquels l'IA sape notre confiance. ARTISHAU cible les propriétés secondaires de la transparence et de la sécurité des algorithmes d'apprentissage automatique dans un environnement hostile, où un attaquant est présent.

Centre(s) inria

Centre Inria de l’Université de Rennes

En partenariat avec

Université de Rennes

Contacts

Responsable de l'équipe

Loic Lesage

Assistant(e) de l'équipe

Dans l'actualité