Wie kan verantwoordelijk gesteld worden als een door AI gestuurde belegging tot zware verliezen leidt voor de klant? De huidige wetten geven daar een onvolledig antwoord op, waarschuwt onderzoekster Julie Goetghebuer van de Universiteit Gent.
Goetghebuer schreef vorig jaar een doctoraat over het gebruik van artificiële intelligentie bij financiële dienstverlening en zoomde daarbij onder meer in op de volgende vraag: wat zijn de juridische implicaties van slecht beursadvies door AI?
De kwestie wint aan pertinentie, want het valt te verwachten dat generatieve AI, de variant die razendsnel nieuwe content maakt op basis van ingebrachte input, ruimer ingang gaat vinden in de wereld van beursadvies en robotbeleggen. Denk aan hypergepersonaliseerde portefeuilles met individuele asset allocaties per cliënt. Of aan geautomatiseerde beursorders na een real-time AI-analyse van de economische actualiteit, met datahoeveelheden die een menselijk brein nooit kan verwerken.
De wetgever hapt naar adem om de razendsnelle ontwikkelingen in AI bij te benen, wat in sommige domeinen tot een juridisch vacuüm leidt. Dat geldt ook voor beleggingsadvies, stelt Goetghebuer vast. ‘De drie algemene risico’s van AI - autonomie, opaciteit en onvoorspelbaarheid - zijn ook aanwezig in sommige AI-modellen die beleggingskansen moeten vinden. Die zijn daardoor moeilijker te beoordelen en te controleren. Dat schept juridische onduidelijkheden over de aansprakelijkheid, bijvoorbeeld wanneer zou blijken dat het systeem een verkeerde voorspelling maakte van de koersevolutie en de klant grote beleggingsverliezen lijdt.’
AI-verordening
De Europese AI-verordening, een set regels die betrouwbare AI in de EU moet garanderen, trad op 1 augustus 2024 in werking. Die wetgeving legt regels op aan AI-toepassingen met een hoog risico. In de financiële sector vallen daar onder meer de AI-systemen onder die de kredietwaardigheid van particulieren berekenen.
‘Maar beleggingsadvies en asset allocatie staan niet in de EU-lijst van hoog-risico-toepassingen. Dat valt misschien wel te betreuren, want dat betekent dat er geen concreet Europees wetgevend kader bestaat voor beleggingsdiensten met AI’, merkt Goetghebuer op.
‘Het brede principe van de zorgvuldigheidsnorm, die je in verscheidene wetten terugvindt, is wél van toepassing. Daar moeten we dan op terugvallen. Die norm schrijft voor dat er bij beleggingsadvies zorgvuldig gehandeld moet worden, en altijd in het belang van de cliënt. En natuurlijk zijn beleggingsondernemingen ook verplicht om bij hun advies altijd rekening te houden met het beleggingsprofiel van de klant.’
Via een juridische omweg zou AI-beleggingsadvies alsnog als een hoog-risico toepassing behandeld kunnen worden. ‘Je kan argumenteren dat om zorgvuldig beleggingsadvies te geven, het naleven van de AI-verordening een vereiste is. Indirect zou beleggingsadvies daardoor toch aan de strenge EU-regels moeten voldoen.’
Black box
‘Er blijven echter veel vraagtekens. De zorgvuldigheidsnorm is een inherent menselijk criterium, want de wetgever had destijds alleen menselijke actoren voor ogen en niet zoiets als AI. Kan je ook de AI-technologie zelf aansprakelijk stellen? En wat zou dan een zorgvuldig AI-systeem zijn? Hoe bepaal je dat? Een optie is om een referentie-AI-systeem als maatstaf te gebruiken. Van die werkwijze ben ik persoonlijk geen fan. Wie gaat dat ontwikkelen? En wat als de beleggingsfirma alle technologische voorzorgsmaatregelen genomen heef en er toch slecht beursadvies uit de bus komt?’
Het verschil met oude If-then-else-algoritmes is dat generatieve AI vaak als een black box werkt, waarbij niet te achterhalen is op basis van welke data en patronen specifiek beleggingsadvies precies tot stand is gekomen. ‘De regelgever zou dat probleem kunnen beperken door alleen verklaarbare AI (explainable AI of ‘XAI’) toe te laten. Bij die modellen kan wel nog nagegaan worden waarom het model een bepaalde output heeft geproduceerd.’
Nieuwe AI-autoriteit?
Nog een kopbreker is de kwestie of er een overkoepelende autoriteit nodig is voor de vele gevoelige AI-kwesties in het domein van financiële dienstverlening, naar analogie met de Gegevensbeschermingsautoriteit die toezicht houdt op het verwerken van persoonsgegevens in alle sectoren. Of volstaan de bestaande toezichthouders FSMA, Nationale Bank en Economische Inspectie?
Goetghebuer: ‘Het is een van de grote vraagstukken waar ik als onderzoekster nog niet uit ben. Een uniek overkoepelend AI-orgaan voor de financiële sector lijkt me het meest kostenefficiënt en verzamelt ook alle technologische kennis, maar je zou ook kunnen denken aan dichte samenwerking tussen de drie toezichthouders.’
Zo’n samenwerking mag dan wel niet botsen met bijvoorbeeld de geheimhoudingsplicht waar de FSMA aan gebonden is. Kortom: veel vragen, maar nog niet evenveel antwoorden.
Laat ons nog even afwachten, is de houding van de Europese toezichthouder ESMA. ‘Samen met de nationale toezichthouders zullen we de ontwikkeling van het AI-fenomeen en van het relevante EU-rechtskader blijven volgen om te bepalen of er verdere actie moet worden ondernomen’, zo zei de Europese toezichthouder in mei vorig jaar in een statement.
‘Het wordt in de eerstvolgende jaren vooral uitkijken naar de rechtspraak hierover bij concrete rechtszaken over schadeclaims. Pas dan zullen we weten hoe rechters de zorgvuldigheidsnorm gaan toepassen op beleggingsadvies op basis van AI’, besluit Goetghebuer.
De commerciële editie van haar doctoraat komt in de lente van 2025 uit.