Un récent rapport de la Banque des Règlements Internationaux (BRI) met en lumière les opportunités et les risques liés à l’intelligence artificielle (IA) dans le secteur financier. Bien que l’IA puisse offrir une efficacité transformante et des perspectives nouvelles, le rapport met en garde contre une gouvernance défaillante, des processus décisionnels opaques et une dépendance excessive vis-à-vis de prestataires externes, qui pourraient rendre les établissements financiers vulnérables.
Ce rapport, rédigé par Juan Carlos Crisanto, Cris Benson Leuterio, Jermy Prenio et Jeffery Yong, appelle à une “approche fondée sur le risque” lors de l’intégration de l’IA, en mettant l’accent sur la sécurité des données, l’équité et la supervision humaine pour éviter l’aggravation des risques systémiques.
Le rapport identifie plusieurs défis majeurs auxquels les institutions financières sont confrontées lors de l’adoption des technologies IA. Selon les auteurs, ces défis résultent de la pression exercée pour innover tout en maintenant des cadres de gestion des risques efficaces. Au cœur de ces enjeux se trouve l’expansion rapide des cas d’utilisation de l’IA, notamment dans l’évaluation de crédit, la détection de fraude et les services à la clientèle comme les chatbots.
Néanmoins, les auteurs mettent en garde contre les risques associés à ces avancées.
« Le risque accru lié aux modèles peut être causé par un manque d’explicabilité des modèles d’IA », souligne le rapport, mettant en avant les difficultés rencontrées par les institutions financières pour évaluer l’adéquation des décisions prises par IA. Les modèles d’IA, et en particulier les systèmes d’IA générative, fonctionnent souvent comme des boîtes noires, rendant difficile la vérification de leurs résultats ou la compréhension des processus décisionnels.
La transparence et l’explicabilité apparaissent comme des préoccupations majeures, en particulier dans les domaines à enjeux élevés tels que l’évaluation de crédit et l’assurance. Le rapport insiste sur la nécessité pour les décideurs de comprendre clairement le fonctionnement des systèmes d’IA afin de garantir que leurs résultats respectent les attentes réglementaires et les appétits de risque institutionnels.
« L’explicabilité, l’interprétabilité et l’auditabilité nécessitent une divulgation interne ou une transparence, en particulier auprès du conseil d’administration et de la direction, afin qu’ils puissent mieux cerner les risques et les implications de l’utilisation de l’IA », notent les auteurs.
Le rapport attire également l’attention sur les risques liés aux données, exacerbés par la dépendance croissante vis-à-vis des fournisseurs externes pour les modèles d’IA et les services basés sur le cloud. Bien que ces relations externes offrent évolutivité et efficacité économique, elles introduisent des vulnérabilités telles que les violations de données et la dépendance vis-à-vis des fournisseurs.
« La concentration des fournisseurs de services cloud et d’IA entre quelques grandes entreprises technologiques renforce l’argument en faveur de la mise en place de cadres d supervision directs pour ces prestataires de services », observe le rapport. Pourtant, dans de nombreuses juridictions, les approches réglementaires continuent de compter sur les institutions financières pour gérer ces risques en interne.
Du point de vue de la gouvernance, le rapport de la BRI souligne l’importance de cadres de responsabilité clairs, surtout à mesure que l’IA s’intègre de plus en plus dans les activités financières fondamentales. Il recommande que les institutions financières mettent en place des mécanismes de contrôle robustes, y compris des systèmes « humains dans la boucle » ou « humains sur la boucle », pour garantir que l’intervention humaine demeure centrale dans le processus décisionnel. Cela est particulièrement crucial pour atténuer les risques associés aux résultats produits par l’IA, qui pourraient entraîner des conséquences dommageables pour les clients.
Les auteurs de la BRI insistent également sur le rôle fondamental de l’expertise et des compétences dans la gestion des risques liés à l’IA. Un manque de compétence technique à des niveaux élevés pourrait aboutir à une supervision insuffisante et à une atténuation des risques inefficace. À mesure que les technologies IA évoluent, les institutions doivent s’assurer que leurs équipes sont préparées à comprendre et à gérer la complexité de ces systèmes.
En matière de réglementation, le rapport souligne d’importantes disparités quant à la façon dont les juridictions abordent la supervision de l’IA. Certains, comme l’Union européenne, ont adopté des cadres réglementaires basés sur des règles, tel que l’AI Act, tandis que d’autres privilégient des approches basées sur des principes, axées sur des directives à un niveau élevé. Les thèmes communs à ces approches réglementaires incluent la fiabilité, l’équité et la responsabilité, mais de nouvelles directives commencent à traiter des questions telles que la durabilité et la propriété intellectuelle.
La collaboration internationale est identifiée comme une nécessité pressante. L’absence d’une définition acceptée mondialement de l’IA complique la cohérence réglementaire et entrave la capacité à aborder efficacement les risques transfrontaliers. « Le manque d’une définition mondialement acceptée de l’IA empêche une meilleure compréhension des cas d’utilisation de l’IA dans le secteur financier mondial et l’identification des zones spécifiques où les risques peuvent être accrus », met en garde le rapport.
Les défis s’étendent également au déploiement de l’IA générative, qui, bien qu’elle promette des bénéfices transformateurs, pose des risques uniques. Les auteurs notent que les institutions financières demeurent prudentes quant à l’utilisation de l’IA générative dans des rôles orientés vers le client, en raison de préoccupations relatives à la confidentialité des données, à l’exactitude des modèles et à la confiance des consommateurs. Ils citent la possibilité de « hallucination », où les systèmes d’IA génèrent des résultats inexactes ou inappropriés, comme un problème particulièrement inquiétant pour les applications à haut risque.
Le rapport de la BRI ne rechigne pas à aborder les risques systémiques plus larges associés à l’adoption de l’IA. L’interconnexion accrue, alimentée par la dépendance à un nombre réduit de fournisseurs technologiques, pourrait amplifier les vulnérabilités à travers l’écosystème financier. De même, le comportement de mouton (herding behavior) – où plusieurs institutions utilisent des modèles et ensembles de données similaires – pourrait conduire à des risques procycliques et à des distorsions de marché.
Notre Opinion
Il est essentiel que les institutions financières adoptent une approche prudente et réfléchie face à l’intégration de l’intelligence artificielle. Bien que l’IA offre des outils puissants pour l’innovation, il est crucial de ne pas négliger les enjeux liés à la transparence et aux risques systémiques. Un équilibre doit être trouvé entre l’innovation technologique et la rigueur de la gouvernance pour protéger les utilisateurs tout en capitalisant sur les bénéfices potentiels de cette technologie disruptive.
- Source image(s) : www.theglobaltreasurer.com
- Source : https://www.theglobaltreasurer.com/2024/12/12/bis-highlights-ai-risks-for-finance/
Rebecca Dubois est Responsable de la section Business et Finance / Elle est Chargée de coordonner les différentes sections de Sefarad et s’occuper également du programme International et des Actualités, de la Finance du Développement personnel et des sujets liés à l’entrepreneuriat