60f40759-9f21-4310-b86f-97906e9f472c.png

In de financiële wereld worden de wonderen van kunstmatige intelligentie gevierd, maar er is ook steeds meer aandacht voor de mogelijke nadelen. Het risico van frauduleus gedrag en manipulatie op de financiële markten is groot en cyberbeveiligingsexperts waarschuwen dat hackers hun vaardigheden kunnen vergroten door middel van AI

Hollywood heeft ons een hele filmfranchise gebracht die is gebaseerd op uit de hand gelopen kunstmatige intelligentie en intelligente cyborgs: The Terminator. Nu heeft Netflix een film genaamd Unknown: Killer Robots

Dergelijke zorgen beperken zich niet tot Hollywood. In een recent onderzoek van Natixis Investment Managers wordt melding gemaakt van ‘een hoog potentieel voor frauduleus gedrag’ en manipulatie in verband met AI.

‘Voor financiële instrumenten zou het problematisch kunnen zijn’, zegt ook adviespartner en cyberbeveiligingsexpert Koen Maris van PwC Luxemburg in gesprek met Investment Officer. ‘De snelheid waarmee AI transacties zou kunnen starten en een beurs zou kunnen manipuleren - dat kan gevaarlijk zijn.’

Datamanipulatie

Als de dataset verkeerd is en hackers of the dark side er alle baat bij heeft om de data in de dataset te manipuleren, schetst Maris. ‘Overtuig je deze AI-tools voor investeringen of robots ervan dat Microsoft een slechte, slechte optie is om te kopen en dat er geen langetermijnvisie meer is, zal iedereen het gaan dumpen op basis van de AI-informatie.’

Natixis merkt in het gepubliceerde onderzoek op: ‘Net als de zorg dat AI kan worden gebruikt om het politieke sentiment en kiezersgedrag te manipuleren, maken strategen zich zorgen dat het gedrag van beleggers en het marktsentiment door slechte actoren kan worden gemanipuleerd. 100 procent van de strategen is van mening dat AI het potentieel voor fraude en oplichting zal vergroten.’

AI veerkracht

AI is een belangrijk onderwerp voor beleggers, of is daar hard naar op weg. ‘Als beleggers hun investment managers evalueren en selecteren, zal het belangrijker worden om te testen hoe veerkrachtig de beleggingsstrategieën van managers zijn in markten die steeds meer worden gevormd door AI. Ze moeten er zeker van zijn dat hun alfakans herhaald kan worden om waarde toe te voegen op de lange termijn’, zegt Martha Brindle, directeur aandelenkapitaal van bfinance, in gesprek met Investment Officer.

Maar als er één gebied is dat AI als een echte bedreiging ziet, is het cyberbeveiliging. Volgens Maris van PwC Luxemburg kan AI de computerbeveiliging zowel helpen als schaden.

Een stap achter

‘Op het gebied van beveiliging zou het ons kunnen helpen bij detectie en verbetering’, argumenteert hij. ‘Maar vergeet niet dat dat soort AI altijd een stap terug is in vergelijking met de AI die aanvallers zouden kunnen gebruiken.’

‘Het is een kat-en-muisspel dat we spelen. En aan de aanvallende kant kan het heel gevaarlijk zijn, omdat AI exploitaties zou kunnen vinden zonder het aan iemand te vertellen en die zou kunnen gebruiken om je netwerk of je omgeving te infiltreren’, legt Maris uit.

AI is bijna te groot geworden, te snel, en regulering van het gebruik ervan is nu niet meer mogelijk’, zegt George Ralph, wereldwijd directeur en chief risk officer bij technologiebedrijf RFA. Dergelijke vragen houden het agentschap voor cyberbeveiliging van de Europese Unie, Enisa, en zijn bedrijf bezig, zegt hij desgevraagd.

Keerzijde van dezelfde medaille

Ralph: ‘Voor elk positief gebruik van AI en de manier waarop het cyberbeveiliging ten goede komt, is er de keerzijde van dezelfde medaille, waarbij iemand dezelfde technologie gebruikt voor illegale activiteiten.’ In dit vroege stadium betwijfelt hij wel of AI al een directe impact heeft op financiële markten.

In het gesprek met Maris van PwC, wijst hij op de Cyber Grand Challenge van 2016, van het Amerikaanse Defense Advanced Research Projects Agency (Darpa), het zogenaamde “eerste geautomatiseerde netwerkverdedigingstoernooi ter wereld” met computers die “kunnen redeneren over fouten”.

‘Ze vielen aan en gebruikten aanvalstechnieken die nog niemand kende,” zei Maris. “Ze waren heel erg creatief. Ze innoveerden.’

Zorgen over gegevensprivacy

Stéphane Hurtaud, partner bij Deloitte en leider op het gebied van cyberrisico’s, komt tot drie gebieden waar AI momenteel een schaduwzijde heeft, te beginnen met gegevensprivacy. Voorstanders hebben hun zorgen geuit over de gegevens die in AI’s worden ingevoerd. ‘We hebben gemerkt dat financiële instellingen soms geen aandacht besteden aan het soort gegevens dat ze verstrekken’, aldus Hurtaud, die eraan toevoegde dat dit tot datalekken heeft geleid.

Deze bezorgdheid ligt ten grondslag aan het verbod op het gebruik van AI in sommige gebieden, aldus Hurtaud.

Een tweede type bedreiging, legt Hurtaud uit, is het gebruik van AI om cyberaanvallen te automatiseren. ‘Aanvallers kunnen algoritmen voor machinaal leren gebruiken om enorme hoeveelheden gegevens te verwerken om kwetsbaarheden te identificeren en bestaande beveiligingsmaatregelen te omzeilen.’ Het kan ook helpen bij de automatisering van social engineering-aanvallen, legt hij uit.

Malware trainen

AI kan slechte actoren helpen om detectiesystemen te omzeilen. ‘Met behulp van machine learning-algoritmes kunnen aanvallers het systeem gebruiken om malware te trainen om detectie door traditionele beveiligingssoftware te omzeilen.’

Hurtaud van Deloitte vertelt over zijn ervaringen tijdens gesprekken met directies van bedrijven die hun zorgen uiten over AI. Zijn boodschap is ‘voorlopig moet de prioriteit blijven liggen bij het verkrijgen van de basismogelijkheden en -maatregelen om je organisatie te beschermen’. ‘Voordat je gaat rennen, moet je weten dat je loopt.’

*De afbeelding ter illustratie van dit artikel is gegenereerd door kunstmatige intelligentie.

Gerelateerde artikelen op Investment Officer:

Author(s)
Categories
Target Audiences
Access
Limited
Article type
Article
FD Article
No