We zitten nog mijlenverweg van de computer die alles kan en taken van mensen overneemt, zegt de één. Volgens de ander is die stap echter helemaal niet zo groot. In ieder geval zijn er kansen, maar ook risico’s.
Zelflerende computers die in een stroomversnelling terecht komen. Zichzelf beter en beter maken totdat ze zó goed zijn dat wij mensen hen niet meer bij kunnen houden, laat staan controleren. Als computers vervolgens miljoenen keren slimmer zijn dan mensen, kunnen ze ook voorzien wat wij van plan zijn, voorspellen dat wij mensen hen willen uitschakelen. En maatregelen nemen.
Aan het woord is hoogleraar Communication Science and Artificial Intelligence Tibor Bosse van de Radboud Universiteit, die het begrip singularity beschrijft: de hypothese dat Artificial Intelligence (AI) zo slim wordt dat het meer invloed krijgt op de ontwikkeling van de maatschappij dan de mens.
Meer dan eens heeft de onlangs overleden Britse natuurkundige Stephen Hawking hiervoor gewaarschuwd, en entrepreneur Elon Musk lanceerde begin april de documentaire Do You Trust This Computer, waarin wordt geschetst hoe kunstmatige intelligentie de samenleving en de mensheid kan veranderen.
Het zijn niet de enige zorgen die heersen rond Artificial Intelligence, maar wel de meest extreme, volgens hoogleraar Bosse. Theoretisch kan hij ze niet uitsluiten, maar de wereld is volgens hem nog mijlenver weg van singularity. ‘We lossen fantastische problemen op met AI, en er zullen de komende jaren nog veel successen volgen, maar we zitten op slechts een paar procent van dat futuristische beeld van een soort superintelligentie die alles kan en alle taken van mensen overneemt.’
Volgens Elon Musk is die stap helemaal niet zo groot. Door de enorme hoeveelheid data die wordt vastgelegd, geïnterpreteerd en gebruikt, zijn wij mensen straks niet meer onze eigen regisseur, is zijn opvatting. ‘Nothing will affect the future of humanity more than digital super-intelligence’, aldus de mede-bedenker van Tesla begin april op Twitter.
Beleggerskapitaal
Fondsmanager Richard Clode, die namens het Janus Henderson Global Technology Fund onlangs groter is gegaan in Artificial Intelligence, noemt dat soort uitingen rond singulariteit en machines die de wereld overnemen, overdreven. Bovendien is de uitwerking ervan volgens hem dat de mogelijkheden van AI op de korte termijn overschat worden. ‘Dergelijke opwinding trekt veel beleggerskapitaal aan, wat kan leiden tot buitensporige waarderingen.’
Peter Lingen van het 7 miljard dollar grote Pictet Robotics Fund vreest daar voorlopig niet zo voor. De waarderingen van roboticabedrijven liggen volgens hem over het algemeen al enkele jaren op eenzelfde hoogte. De gemiddelde ev/ebitda van zijn eigen portefeuille ligt stabiel op ongeveer 12. Daarbinnen zijn volgens Lingen bovendien nog genoeg interessante bedrijven te vinden voor beleggers, momenteel vooral onder de largecaps.
Rabobank
Bij de waardering van de robotica-sector zit wel een verschil tussen robotica-fondsen en robotica-bedrijven, merkt CIO Han Dieperink van Rabobank op. Robotica-fondsen waren in 2016, toen de grootbank de sector opnam in de beheerportefeuilles, goedkoper dan de wereldindex. ‘Dat is nu niet meer het geval. De iShares Robotics and Automation is nu gewaardeerd op 19 keer de winst, het Pictet Robotics Fund op 22 keer de winst. Allemaal duurder dan de markt.’
Robotica-bedrijven noemt Dieperink wél goedkoop, althans, in sommige gevallen. ‘Daar blijf ik me over verbazen. Vooral in Japan en de rest van Azië. Ook goedkoop zijn industriële concerns die een succesvolle transformatie maken naar “robotica en automation” en waarvan het robotics-potentieel wordt onderschat.’
Dodelijk ongeval
Terug naar de risico’s van AI, en de vraag of díe worden onderschat. Lingen sprak tijdens recente reizen met de bedrijfs-toppen van verschillende van de 250 roboticabedrijven waar hij namens Pictet in kan beleggen. Daar heeft hij het onder meer over risico’s en actuele missers van AI, zoals het dodelijke ongeval dat onlangs werd veroorzaakt door een zelfrijdende auto.
‘Daar reageert de industrie op, door zichzelf de vraag te stellen of het niet iets te snel is gegaan. En het ís snel gegaan. Als je het twee jaar geleden met beleggers over een zelfrijdende auto had, lachten ze om je. Mensen geloofden niet dat dat zo snel werkelijkheid kon worden. Natuurlijk zijn er haperingen in dit soort technologieën, en discussies over de inzet ervan. Maar je moet de media-hysterie rond zo’n ongeluk wel in het perspectief zien van het langetermijndoel van zelfrijdende auto’s en het toevoegen van dit soort technologieën aan auto’s. Jaarlijks komen 1,3 miljoen mensen om bij een auto-ongeluk. Het doel van zelfrijdende auto’s is juist om meer van die levens te redden. En er worden goede resultaten geboekt rond dat doel, kijk maar naar de statistieken.’
Waar de risico’s van het verdwijnen van banen door automatisering en de noodzaak om de vaardigheden van werknemers op peil te houden eveneens besproken wordt in die gesprekken tussen Lingen en de managementteams van Robotica-bedrijven, komt iets als singularity niet aan bod. Lingen: ‘Dat ligt wel heel ver af van alles dat we vandaag de dag zien.’
Japans bordspel
Bosse van de Radboud Universiteit legt het verschil tussen de actuele problematiek en het doemscenario dat Musk schetst uit aan de hand van de kaders waarbinnen AI plaatsvindt. ‘De robot die enkele jaren geleden een ingewikkeld Japans bordspel won van de heersende wereldkampioen, slimme computers in de medische sector die ziekten beter kunnen voorspellen dan doktoren: bij al dit soort successen liggen de regels vast, zijn de mogelijkheden uiteindelijk beperkt. Dat is heel wat anders dan functioneren in een wereld die een context heeft, waar je met mensen en hun belangen, wensen en emoties te maken hebt.’
Daarnaast is Bosse van mening dat deze zorgen te veel aandacht krijgen ten opzichte van andere ethische vraagstukken rond AI die urgenter en actueler zijn. Samen met de andere schrijvers van een nationaal manifest over de toekomst van de AI-wetenschap heeft hij drie thema’s rondom kunstmatige intelligentie vastgesteld. Twee daarvan vormen volgens hem een concreet risico: enerzijds de ontwikkeling dat machines hun besluit niet kunnen uitleggen, anderzijds de mogelijkheid dat zelflerende systemen vooroordelen kunnen ontwikkelen op basis van data, omdat ze de menselijke normen en waarden uit het oog verliezen.
Dan is er nog, niet te vergeten, de gebruiker. Bosse: ‘Vergeet niet dat AI uiteindelijk een neutrale techniek is, die zoals elke technologie op goede en slechte manieren gebruikt kan worden.’