Qui peut être tenu pour responsable si un investissement piloté par l’IA entraîne de lourdes pertes pour le client ? Les lois actuelles n’apportent qu’une réponse incomplète à cette question, met en garde Julie Goetghebuer, chercheuse à l’université de Gand.
L’année dernière, Mme Goetghebuer a rédigé une thèse de doctorat sur l’utilisation de l’intelligence artificielle dans les services financiers, en se penchant notamment sur la question suivante : quelles sont les implications juridiques de mauvais conseils boursiers donnés par l’IA ?
La question devient de plus en plus pertinente, car on peut s’attendre à ce que l’IA générative, la variante de l’IA qui crée du contenu presque instantanément à partir des données fournies, soit plus largement adoptée dans le monde des conseils boursiers et de l’investissement robotisé. Cela pourrait se traduire par des portefeuilles hyper-personnalisés avec des allocations d’actifs individuelles par client. Ou encore des ordres boursiers automatisés après une analyse en temps réel par l’IA de l’actualité économique, avec des volumes de données qu’un cerveau humain ne pourrait jamais traiter.
Les législateurs peinent à suivre l’évolution fulgurante de l’IA, ce qui entraîne un vide juridique dans certains domaines. Il en va de même pour les conseils en investissement, note Julie Goetghebuer. « Les trois risques généraux de l’IA – autonomie, opacité et imprévisibilité – sont également présents dans certains modèles d’IA programmés pour trouver des opportunités d’investissement. Il est donc plus difficile de les évaluer et de les contrôler. Cela crée des ambiguïtés juridiques en matière de responsabilité, par exemple s’il se révèle que le système a fait une prédiction incorrecte de l’évolution des cours et que le client subit d’importantes pertes d’investissement. »
Réglementation relative à l’IA
Le règlement européen sur l’IA, un ensemble de règles visant à garantir la fiabilité de l’IA dans l’UE, est entré en vigueur le 1er août 2024. Cette législation impose des règles sur les applications d’IA à haut risque. Dans le secteur financier, il s’agit notamment de systèmes d’IA qui calculent la solvabilité des personnes.
Mais le conseil en investissement et l’allocation d’actifs ne figurent pas dans la liste des applications à haut risque de l’UE. C’est sans doute regrettable, car cela signifie qu’il n’existe pas de cadre législatif européen concret pour les services d’investissement utilisant l’IA, remarque Mme Goetghebuer.
On applique le principe de la norme générale de prudence, que l’on retrouve dans plusieurs lois. Selon cette norme, les conseils en matière d’investissement doivent être prodigués avec soin et toujours dans le meilleur intérêt du client. Bien entendu, les entreprises d’investissement sont également tenues de toujours prendre en compte le profil d’investissement du client lorsqu’elles donnent des conseils.
Par le biais d’un détournement juridique, le conseil en investissement basé sur l’IA pourrait être traité comme une application à haut risque. « Pour fournir des conseils d’investissement prudents, il faudrait se conformer à la réglementation sur l’IA. Indirectement, les conseils en investissement resteraient soumis aux règles strictes de l’UE. »
Boîte noire
« Toutefois, de nombreuses interrogations subsistent. La norme générale de prudence est un critère intrinsèquement humain, car le législateur de l’époque n’avait à l’esprit que des acteurs humains et non quelque chose comme l’IA. Peut-on également tenir pour responsable la technologie de l’IA elle-même ? Et quel serait alors un système d’IA prudent ? Comment le déterminer ? Une option consiste à utiliser un système d’IA de référence comme point de repère. Personnellement, je ne suis pas adepte de cette méthode. Qui va développer cela ? Et que se passe-t-il si la société d’investissement a pris toutes les précautions technologiques et que de mauvais conseils boursiers sont donnés malgré tout ?
La différence avec les anciens algorithmes If-then-else est que l’IA générative fonctionne souvent comme une boîte noire, où il est impossible de savoir exactement sur la base de quelles données et de quels modèles des conseils d’investissement spécifiques ont été générés. « Le régulateur pourrait mitiger ce problème en n’autorisant que l’IA explicable (explainable AI ou « XAI »). Avec ces modèles, il est toujours possible de vérifier pourquoi le modèle a produit un résultat particulier. »
Nouvelle autorité en matière d’IA ?
Une autre question épineuse consiste à déterminer si une autorité suprême est nécessaire pour les nombreuses questions sensibles liées à l’IA dans le domaine des services financiers, à l’instar de l’Autorité de protection des données qui supervise le traitement des données à caractère personnel dans tous les secteurs. Ou bien les régulateurs existants que sont la FSMA, la Banque nationale et l’Inspection économique suffiront-ils ?
« C’est l’une des grandes questions que je n’ai pas encore résolues en tant que chercheuse. Un organisme unique de coordination de l’IA pour le secteur financier serait le plus rentable et rassemblerait aussi toutes les connaissances technologiques. On pourrait également envisager une coopération dense entre les trois régulateurs », déclare Julie Goetghebuer.
Cette coopération ne doit pas être en contradiction, par exemple, avec le devoir de confidentialité auquel la FSMA est tenue. En bref : beaucoup de questions, mais pas encore beaucoup de réponses.
L’AEMF, le régulateur européen AE adopte une attitude attentiste, a déclaré dans une communiqué en mai 2004 : « en collaboration avec les régulateurs nationaux, nous continuerons à surveiller l’évolution du phénomène de l’IA et du cadre juridique européen correspondant afin de déterminer si d’autres mesures sont nécessaires. »
Dans les années à venir, il s’agira surtout d’attendre la jurisprudence en la matière dans le cadre de procès réels sur des demandes d’indemnisation. Ce n’est qu’à ce moment-là que nous saurons comment les juges appliqueront la norme générale de prudence aux conseils d’investissement basés sur l’IA », conclut Mme Goetghebuer.
Une version du doctorat de Julie Goetghebuer sera commercialisée au printemps 2025.