Safran.AI (ex Preligens) a republié ceci
La confiance dans l’IA ne peut être imposée ; elle doit être méritée et démontrée. Elle repose notamment sur la protection effective des données utilisées pour entraîner les modèles, ainsi que sur la capacité des concepteurs à garantir la robustesse de leurs algorithmes face aux attaques visant la confidentialité. Chez Safran.AI (ex Preligens), nous nous réjouissons de l’initiative PANAME, portée par la CNIL, ANSSI - Agence nationale de la sécurité des systèmes d'informationANSSI, le PEReN et le projet IPoP, qui vise à outiller techniquement et juridiquement les audits de confidentialité des modèles d’IA, en conformité avec le RGPD. Cette initiative structurante permettra d’évaluer la robustesse des modèles face à des attaques telles que : - l’inférence d’appartenance ; - l’inversion de modèle ; - l’extraction de modèle. Ces techniques, aujourd’hui bien documentées dans la littérature scientifique, sont encore insuffisamment intégrées dans l’industrialisation des modèles d’IA. PANAME vise à combler ce fossé en proposant : - une bibliothèque de tests open source (développée par le PEReN), - une expertise en cybersécurité (apportée par l’ANSSI), - un pilotage scientifique (assuré par IPoP), - et un cadrage juridique opérationnel (sous la supervision de la CNIL). Nous saluons également les travaux du CEA-List dans ce domaine, et espérons une mobilisation élargie de l’écosystème scientifique et industriel français. Construire la confiance, c’est intégrer dès la conception les exigences de sécurité et de conformité. C’est aussi offrir aux utilisateurs finaux des garanties tangibles à travers une certification indépendante. Nous appelons l’ensemble des acteurs français de l’IA à soutenir ce projet ambitieux, qui constitue une étape clé vers une IA de confiance, auditable et souveraine. https://lnkd.in/eqeeWF3M #ACN #HubfranceIA #INESIA