De financiële sector moet voorzichtig zijn met het gebruik van kunstmatige intelligentie (AI) in beleggingsdiensten. Daar heeft de Europese Autoriteit voor Effecten en Markten (Esma) vorige week voor gewaarschuwd.
Hoewel AI klaar staat om de retail beleggingssector efficiënter en innovatiever te maken, ziet Esma aanzienlijke risico’s. “Hoewel AI belooft beleggingsstrategieën en klantendiensten te verbeteren, brengt het ook inherente risico’s met zich mee, waaronder algoritmische vooroordelen, gebrekkige datakwaliteit en een potentieel gebrek aan transparantie”, aldus Esma in een statement. Ook wordt het risico benoemd dat het management van een financiële dienstverlener niet goed begrijpt hoe AI-technologieën worden toegepast en gebruikt.
Gebrekkig toezicht
De Europese toezichthouder is bezorgd over gebrekkig toezicht op het gebruik van AI, omdat dit het menselijk oordeel in financiële markten kan overschaduwen. Complexe en onvoorspelbare marktomstandigheden kunnen AI’s ontgaan, wat tot potentieel rampzalige uitkomsten kan leiden als er onvoldoende menselijk toezicht is, aldus Esma.
Daarnaast is er een mogelijk probleem met transparantie. AI-systemen functioneren vaak als “black boxes”, waardoor hun besluitvormingsprocessen ondoorzichtig zijn, zelfs voor de bedrijven die ze inzetten. Dit gebrek aan transparantie kan het voor personeel op alle niveaus moeilijk maken om AI-gedreven strategieën te begrijpen en effectief te beheren, wat de servicekwaliteit en naleving van regelgeving kan ondermijnen, zo stelt Esma.
Algoritmische bias
Daarnaast brengt de grote data-behoefte voor AI-tools, inclusief gevoelige persoonlijke informatie, aanzienlijke privacy- en beveiligingskwesties met zich mee. Esma zegt dat bedrijven rigoureuze gegevensbeschermingsmaatregelen moeten implementeren om inbreuken te voorkomen en te voldoen aan regelgeving.
De kans op mogelijke vooroordelen die voortkomen uit algoritmes, de algoritmische bias, zorgt voor een “twijfelachtige robuustheid” van AI-uitkomsten. Vooral bij natuurlijke taalverwerking kan AI feitelijk onjuiste informatie genereren. Bovendien kunnen ingebouwde vooroordelen in de trainingsdata AI-beslissingen vertekenen. Dit staat bekend als “hallucinaties” en kan leiden tot misleidend beleggingsadvies en het over het hoofd zien van mogelijke risico’s, aldus Esma.
Robuust risicobeheer
Met deze pijnpunten in het achterhoofd pleit Esma voor een evenwichtige benadering van AI-adoptie, met nadruk op robuust risicobeheer en transparantie. Beleggingsfirma’s worden aangemoedigd om menselijk toezicht te handhaven, transparantie te verbeteren, gegevens beter te beveiligen en systemen voortdurend in de gaten te houden en aan te passen. De focus moet liggen, aldus Esma, op het bouwen van AI-systemen die menselijke capaciteiten verbeteren, zonder dat ethische normen of regelgeving geweld worden aangedaan.