Le secteur financier doit se montrer prudent quant à l’utilisation de l’intelligence artificielle (IA) dans les services d’investissement, a mis en l’Autorité européenne des marchés financiers (AEMF) la semaine dernière.
Si l’IA s’apprête à rendre le secteur de l’investissement de détail plus efficace et innovant, l’AEMF y voit des risques considérables. « L’IA a beau promettre d’améliorer les stratégies d’investissement et les services à la clientèle, elle comporte également des risques inhérents, dont les biais algorithmiques, une mauvaise qualité des données ou un potentiel manque de transparence », a déclaré l’AEMF dans un communiqué. Elle cite également le risque que la direction d’un prestataire de services financiers comprenne mal comment les technologies d’IA sont appliquées et utilisées.
Une supervision lacunaire
L’autorité de surveillance européenne s’inquiète d’une supervision lacunaire de l’utilisation de l’IA, qui pourrait éclipser le jugement humain sur les marchés financiers. Des conditions de marché complexes et imprévisibles pourraient échapper à l’IA et entraîner des résultats potentiellement désastreux en cas de supervision humaine insuffisante, selon l’AEMF.
Un autre problème potentiel est celui de la transparence. Les systèmes d’IA fonctionnent souvent comme des « boîtes noires », rendant opaques leurs processus décisionnels, même pour les entreprises qui les emploient. Pour les acteurs financiers, ce manque de transparence peut compliquer, à tous les niveaux, la compréhension et la gestion efficace des stratégies basées sur l’IA et ainsi nuire à la qualité du service et au respect de la réglementation.
Le biais algorithmique
Par ailleurs, le besoin des outils d’IA en big data, y compris des informations personnelles sensibles, pose de sérieux problèmes en termes de confidentialité et de sécurité. L’AEMF affirme que les entreprises doivent mettre en œuvre des mesures rigoureuses de protection des données en vue de prévenir les violations et de répondre aux exigences réglementaires.
La possibilité de potentiels biais algorithmiques fait « douter de la fiabilité » des résultats de l’IA. L’IA peut générer des informations incorrectes, en particulier lorsqu’elle traite le langage naturel. En outre, les biais intégrés dans les données d’apprentissage peuvent fausser les décisions de l’IA. Ce phénomène est appelé « hallucinations » et peut entraîner des conseils d’investissement trompeurs et la négligence de risques potentiels selon l’AEMF.
Une gestion solide des risques
C’est avec ces points problématiques à l’esprit que l’AEMF préconise une approche équilibrée de l’adoption de l’IA, qui met l’accent sur une gestion des risques et une transparence solides. Les sociétés d’investissement sont encouragées à conserver une supervision humaine, améliorer leur transparence, mieux sécuriser les données et surveiller et adapter constamment leurs systèmes. Selon l’AEMF, l’objectif doit être de concevoir des systèmes d’IA qui améliorent les capacités humaines sans enfreindre de normes éthiques ni de réglementations.