La réglementation bancaire va-t-elle s’étendre à l’utilisation de l’intelligence artificielle?

L’intelligence artificielle est de plus en plus utilisée dans les services financiers - Pixabay
En 2020, la Financial Conduct Authority (FCA), qui est l’instance de supervision des établissements financiers au Royaume-Uni, a créé avec la Bank of England un Forum Public-Privé sur l’Intelligence Artificielle (AIPPF), qui vient de publier son premier rapport.
Cet effort de concertation est parti du constat que les dispositifs faisant appel à l’intelligence artificielle (IA) commencent à se multiplier dans le secteur financier avec une rapidité et un foisonnement susceptibles de faire craindre que les banques elles-mêmes en perdent prochainement la maîtrise. C’est en ceci que l’approche paraît particulièrement intéressante car si l’IA suscite bien entendu de nombreux et d’importants débats en elle-même, c’est la première fois à notre connaissance que la question de sa gouvernance est posée dans le domaine financier.
Bien que demeurant à un niveau très général à ce stade – la démarche ne fait que commencer – la réflexion trace les contours d’une supervision des dispositifs d’IA susceptible d’en assurer la maîtrise. Cela commence avec le traçage et les attributs des données utilisées. Sont ensuite identifiés de nouveaux risques, liés notamment à l’extrême rapidité des traitements - sur les marchés financiers, le trading algorithmique en fournit un exemple désormais bien connu.
Vient alors la problématique essentielle: les relations complexes entre les variables utilisées et leur interprétation par les systèmes automatisés. En d’autres termes: est-on toujours en mesure de bien savoir ce que déterminent précisément les algorithmes, selon quels principes et avec le risque d’être exposés à quels biais? Une question qui devient particulièrement complexe quand les systèmes d’IA intègrent des couches d’auto-apprentissage et sont interconnectés en réseau. Bref, comment éviter de se retrouver un jour incapable d’expliquer et de comprendre ce qui sortira des machines?
Risque de décisions automatisées autonomes
Car celles-ci sont et seront de plus en plus utilisées pour prendre des décisions opposables aux clients et aux contreparties. Dès aujourd’hui, il arrive de plus en plus souvent que votre chargé de comptes ne sache pas du tout pourquoi, par exemple, l’utilisation de votre carte bancaire en ligne a été bloquée. Demain, personne ne sera-t-il capable de savoir pourquoi un crédit vous a été refusé?
Le principal risque avec l’IA, pointe justement le rapport de l’AIPPF, est d’en arriver à des processus de décisions automatisées autonomes, non pas au sens où la décision leur serait déléguée mais en celui où aucun décideur ne serait plus capable de la discuter et de la corriger!
L’AIPPF en appelle donc à la responsabilisation du management et il est permis de croire que cet avis s’imposera généralement. Les établissements financiers n’ont-ils pas intérêt à développer d’eux-mêmes de tels contrôles, d’ailleurs, sans attendre que la réglementation les y oblige?
Complexité, rapidité et risques d’engagements et de sur-réactivité irréversibles: il y a une quarantaine d’années, l’essor d’opérations et d’instruments de marché de plus en plus sophistiqués ont déjà mis les établissements financiers dans une situation assez comparable. Une supervision particulière des risques de marché a ainsi dû être développée qui n’aura pourtant pas évité d’importants épisodes de crises sur les marchés et de nombreux déboires pour les banques. Espérons que l’on sera plus réactif face aux algorithmes! Car leur utilisation va bien davantage affecter notre vie de tous les jours.