Points clés de l’AI Act de l’UE
- Cadre fondé sur les risques : les systèmes d’IA sont classés en quatre catégories : inacceptables, à haut risque, à risque limité et à risque minimal.
- Interdiction des pratiques inacceptables : les systèmes manipulant les comportements, exploitant les vulnérabilités ou permettant le « crédit social » par les gouvernements sont proscrits.
- Obligations pour les IA à haut risque : règles renforcées pour les systèmes utilisés dans des domaines critiques comme l’évaluation de la solvabilité, la détection de la fraude, le recrutement et l’identification biométrique.
- Exigences de transparence : les utilisateurs doivent être informés lorsqu’ils interagissent avec un système d’IA (par ex. chatbots) ou lorsque le contenu est généré par l’IA.
- Qualité et gouvernance des données : les systèmes à haut risque doivent être entraînés sur des ensembles de données de qualité, représentatifs et sans biais.
- Supervision humaine : les opérateurs humains doivent pouvoir surveiller et intervenir dans les processus d’IA à haut risque.
- Documentation et traçabilité : les fournisseurs doivent conserver une documentation technique et des journaux pour démontrer leur conformité.
- Sanctions : le non-respect peut entraîner des amendes allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, selon le montant le plus élevé.
L’Union européenne est sur le point de mettre en œuvre l’AI Act, la première réglementation complète au monde visant à encadrer le développement, le déploiement et l’utilisation des technologies d’intelligence artificielle.
Attendu pour entrer en vigueur en 2025, ce texte adopte une approche fondée sur les risques, imposant des obligations strictes aux fournisseurs et utilisateurs de systèmes d’IA dits « à haut risque », tout en interdisant certains usages jugés inacceptables.
Pour le secteur des services financiers – qui englobe les banques, les compagnies d’assurance, les sociétés d’investissement et les fintechs – l’AI Act de l’UE aura des implications majeures.
Les algorithmes sont déjà omniprésents dans la détection de la fraude, l’évaluation du crédit, l’intégration des clients, le trading et la surveillance de la conformité. Avec cette nouvelle réglementation, les autorités indiquent clairement que la gouvernance, la transparence et la responsabilité ne sont plus optionnelles ; elles deviennent des obligations légales.
Pour se préparer efficacement, les institutions financières devraient envisager les étapes suivantes :
- Cartographier les cas d’usage de l’IA : Recenser tous les systèmes d’IA utilisés dans le crédit, le trading, la détection des fraudes, la conformité, le service client et les fonctions de support.
- Évaluer la classification des risques : Déterminer quels systèmes relèvent probablement de la catégorie « à haut risque » de l’Acte, tels que l’évaluation de la solvabilité ou la prise de décision automatisée affectant l’accès aux services financiers.
- Examiner la qualité des données : Auditer les données d’entraînement pour en vérifier l’exactitude, l’exhaustivité, la représentativité et l’absence de biais. Mettre en place des cadres de gouvernance des données alignés sur les normes de l’UE.
- Renforcer les structures de gouvernance : Désigner des responsables chargés de la supervision de l’IA. Établir des politiques internes et des systèmes de gestion des risques pour la gestion du cycle de vie de l’IA.
- Améliorer la transparence et l’explicabilité : Informer les clients lorsqu’ils interagissent avec l’IA (par ex. chatbots, conseillers virtuels). Développer des explications claires sur la manière dont les décisions automatisées sont prises et instaurer des processus de révision humaine.
- Mettre à jour les contrats et la gestion des fournisseurs : Exiger des prestataires technologiques tiers qu’ils se conforment à l’AI Act. Intégrer les obligations de conformité dans les accords de niveau de service.
- Mettre en œuvre des processus de suivi et d’audit : Mettre en place une surveillance continue des performances des systèmes d’IA. Établir des mécanismes d’audit interne pour vérifier la conformité à l’AI Act et aux réglementations financières existantes.
- Former le personnel et sensibiliser : Proposer des formations ciblées sur l’éthique de l’IA, la protection des données et les exigences réglementaires. Favoriser une culture d’utilisation responsable de l’IA dans toutes les fonctions de l’entreprise.
Perspectives
L’AI Act de l’UE redéfinit le paysage réglementaire des services financiers, renforçant le lien entre innovation technologique et responsabilité éthique. En anticipant dès maintenant la conformité, les institutions financières peuvent réduire les risques, accroître la confiance des clients et se positionner de manière compétitive sur un marché qui valorise de plus en plus la transparence et la responsabilité.