Une vue d’ensemble
« Ce type d’algorithme nous renseigne sur le comportement des clients », a indiqué Monica Defend, stratège en chef à l’Amundi Institute, le service Études et stratégies de la société. « Le client y trouve son compte, mais cela nous donne aussi une vue d’ensemble de l’évolution des attitudes au sein de ce groupe d’utilisateurs. »
Mme Defend a précisé que pour d’autres utilisations, telles que la prise de décisions institutionnelles en matière d’investissement, l’IA peut être limitée par des données qui s’avèrent peu fiables ou par des situations sans précédent à forte incidence. Il convient également de veiller en priorité à éviter tout abus et à utiliser l’IA dans un cadre sûr, éthique et conforme.
« L’IA ne peut pas remplacer l’intelligence humaine », a poursuivi Mme Defend. « Un processus entièrement piloté par l’IA pourrait être dangereux. Il est tout aussi important d’interpréter, de comprendre et de vérifier les renseignements fournis par les algorithmes. »
JPMorgan, le plus grand prêteur américain, consacre plus de 15 milliards de dollars par an à la technologie, un domaine auquel est affecté près du cinquième de ses quelque 300 000 salariés. Un groupe de recherche sur l’IA emploie 200 personnes, et l’IA a été intégrée à des centaines d’utilisations, du démarchage et du marketing à la gestion des risques et à la prévention des fraudes. L’IA est également utilisée à l’échelle mondiale dans les systèmes de traitement des paiements et de transfert de fonds.
« L’IA est absolument essentielle », a déclaré le directeur général Jamie Dimon à l’assemblée des actionnaires en avril.
Le monde monétaire
L’enjeu est beaucoup plus important pour les décideurs qui veillent sur l’économie. Les banques centrales, qui sont par nature plus lentes et plus prudentes, apprennent à utiliser l’IA dans un tout autre contexte et à évaluer les risques qu’elle peut représenter.
L’utilité de l’IA a été démontrée pour diverses fonctions des banques centrales, telles que le contrôle. La banque centrale du Brésil a construit un prototype de robot pour télécharger les plaintes des consommateurs concernant les institutions financières et les classer grâce à l’apprentissage automatique. Cette année, la Reserve Bank of India a fait appel aux sociétés de conseil McKinsey et Accenture pour l’intégration de l’IA et des analyses connexes dans ses activités de contrôle.
Le Comité de Bâle sur le contrôle bancaire a constaté que l’IA pouvait accroître l’efficacité des décisions de crédit et de la lutte contre le blanchiment de capitaux. Ce comité composé de dirigeants de banque centrale et de contrôleurs bancaires est l’un des principaux organismes au monde chargés d’établir des normes à des fins de réglementation. Le Comité a également mentionné plusieurs risques, tels que la compréhension des résultats à partir de modèles opaques, le risque de biais et les cyberrisques accrus.
« Les processus de contrôle permettant de déterminer ce qui est sécuritaire ainsi que la capacité de distinguer les innovations responsables de celles qui ne le sont pas s’amélioreront sans aucun doute, mais il reste du chemin à parcourir », a déclaré l’année dernière Neil Esho, secrétaire général du Comité.
La Banque des règlements internationaux (BRI), le regroupement de banques centrales qui a son siège à Bâle (Suisse) et où se trouvent les bureaux du secrétariat du Comité, a mis à l’essai diverses utilisations potentielles. Le projet Aurora du Pôle d’innovation de la BRI, par exemple, a démontré que les réseaux neuronaux, un type d’apprentissage automatique, peuvent faciliter la détection des opérations de blanchiment de capitaux en relevant les schémas et les anomalies qui échappent aux méthodes classiques.
Des signaux au milieu du brouhaha
La Banque du Canada a élaboré un outil d’apprentissage automatique pour détecter les anomalies dans les rapports prescrits par la loi. Selon Maryam Haghighi, directrice du département Science des données, les exécutions automatiques quotidiennes de ce programme détectent ce qui échappe à l’humain, ce qui permet au personnel de se concentrer sur l’analyse complémentaire.
« Voilà un exemple où l’IA peut être d’une aide vraiment précieuse pour les banques centrales », a ajouté Mme Haghighi. « L’outil d’IA peut apprendre à exécuter cette tâche plutôt fastidieuse et à surpasser l’humain en qualité et en rapidité. »
La Banque centrale européenne (BCE) utilise l’IA entre autres pour le classement automatisé des données de 10 millions d’entités privées et publiques, et le suivi en temps réel des prix des produits affichés sur le Web. Cette technologie aide également les contrôleurs bancaires à extraire et à analyser des articles de presse, des rapports de contrôle et des rapports de société.
L’univers des données étant en croissance exponentielle, il est essentiel de l’apurer pour rendre l’information intelligible, surtout dans le cas des données non structurées, estime Myriam Moufakkir, directrice des services à la BCE. L’IA peut aider l’humain à établir des distinctions importantes. La BCE examine également la possibilité d’utiliser de grands modèles de langage pour rédiger des codes, tester des logiciels et même faciliter la compréhension des communications publiques.
La stabilité financière
Selon Jon Danielsson, chercheur à la London School of Economics qui étudie l’incidence de l’IA sur le système financier, les fonctionnalités de cette technologie vont des plus élémentaires aux plus avancées. Pour illustrer les fonctionnalités élémentaires, prenons les échecs. À ce jeu, qui consiste à déplacer des pièces sur un échiquier en suivant des règles connues de tous, l’humain n’est pas de taille à rivaliser avec l’IA. En revanche, la supériorité de l’IA diminue à mesure que la tâche se complexifie. Dans une situation inattendue, l’humain peut prendre des décisions plus éclairées en tirant parti de ses connaissances dans divers domaines allant de l’économie et de l’histoire à l’éthique et à la philosophie. C’est sur ce terrain que l’humain surpasse l’IA — pour l’instant.
L’IA prend déjà des décisions financières importantes, comme le traitement des demandes de cartes de crédit, et a fait d’importantes percées dans les secteurs public et privé. M. Danielsson a ajouté que l’IA peut protéger les clients, par exemple en empêchant les banques d’abuser de leur confiance ou de fermer les yeux sur la fraude ou le blanchiment de capitaux. Il a cependant souligné le risque posé par cette utilisation accrue.
« La technologie nous envahit lorsque nous commençons à lui faire confiance et à l’utiliser de plus en plus », croit M. Danielsson.
Gary Gensler, président de la Commission des valeurs mobilières des États-Unis, veille sur un marché boursier de 46 000 milliards de dollars qui représente les deux cinquièmes du marché mondial. À son avis, l’IA pourrait provoquer une crise financière. Les risques qu’elle fait peser sur la stabilité financière exigent « une nouvelle réflexion sur les interventions systémiques ou macroprudentielles », a-t-il déclaré à la presse en juillet. « L’IA peut accroître la fragilité financière, car elle pourrait favoriser un comportement moutonnier, les acteurs prenant des décisions similaires parce qu’ils reçoivent le même signal d’un modèle de base ou d’un agrégateur. »
Cette mise en garde repose sur les travaux que M. Gensler a réalisés en tant que professeur d’économie mondiale et de gestion au Massachusetts Institute of Technology, où, en collaboration avec Lily Bailey, il a publié une communication sur l’apprentissage profond en 2020. Selon les coauteurs, cette branche de l’IA offre « des pouvoirs de prédiction inédits qui ouvrent des perspectives considérables en matière d’efficacité, d’inclusion financière et d’atténuation des risques ». Ils ont cependant souligné que les réglementations désuètes « ne seront sans doute pas adaptées aux risques systémiques posés par l’utilisation généralisée de l’apprentissage profond dans le secteur financier ».
Les « polycrises »
L’IA risque également d’exacerber une crise, quelle qu’en soit la cause, parce qu’elle s’appuie sur des données en décalage face à la réalité d’une situation inédite, selon Anselm Küsters, chef du département de la numérisation et des nouvelles technologies au Centre pour la politique européenne de Berlin. M. Küsters a utilisé le terme « polycrise », popularisé par l’historien de l’économie Adam Tooze, qui fait référence à l’interaction de différents chocs dont l’effet combiné est pire que la somme de leurs parties.
Le recours accru à des applications opaques de l’IA « crée de nouveaux risques systémiques », car elles peuvent rapidement amplifier les chaînes de réaction négatives, a écrit M. Küsters, qui a exhorté le Parlement européen à « se concentrer sur le surcroît de risque lié aux prévisions algorithmiques en cas de crise ».
Les dirigeants des banques centrales et les autres décideurs seront confrontés à ces questions posées par l’évolution rapide de la technologie dans les années à venir, à mesure que les bienfaits et les menaces se préciseront.
« Nous ne pouvons pas encore déterminer ce qui est pertinent pour les banques centrales », a indiqué Mme Moufakkir. « L’histoire ne fait que commencer. » F&D