Sur l’ensemble des données dans le monde, 90 % datent des deux dernières années. Chaque jour, 2,5 trillions d’octets sont ajoutés dans le monde. Heureusement, les machines traitent les données jusqu’à 2 000 fois plus vite que les humains. Mais cela ne change rien au fait que le magasin de bonbons est tout simplement trop grand, reconnaît Herman van der Sluis, de l’investisseur en pensions PGGM. Le problème n’est pas le traitement des données par l’ordinateur, mais la question à laquelle l’investisseur doit répondre : quelles données apportent ou n’apportent rien ?
Les acteurs les plus importants et les plus sophistiqués du secteur de l’investissement, tels que PGGM et APG aux Pays-Bas, s’efforcent de mettre en place l’avenir en interne, c’est-à-dire l’intelligence artificielle, l’apprentissage automatique, les données alternatives et la science des données. Pour s’assurer que ces techniques et ces ensembles de données apportent quelque chose aux processus d’investissement, de nombreux spécialistes sont recrutés, tels que des mathématiciens, des économètres, des spécialistes des logiciels et des scientifiques des données. Ils doivent aider à déterminer quelles données traditionnelles et alternatives ajoutent de la valeur aux investissements de PGGM, l’investisseur interne de Pensioenfonds Zorg en Welzijn.
Herman van der Sluis (photo), gestionnaire de portefeuille principal d’Investment Analytics, explique dans un entretien avec Investment Officer que la révolution de la science des données qui balaie actuellement le secteur de l’investissement est le résultat de la conjonction de trois évolutions : l’émergence d’une énorme quantité d’ensembles de données disponibles pour les investisseurs, le développement de techniques analytiques avancées, telles que l’intelligence artificielle, l’apprentissage automatique et le traitement du langage naturel, qui peuvent être utilisées pour traiter ces données, et la disponibilité d’ordinateurs extrêmement puissants pour effectuer effectivement ces analyses.
Étant donné le grand nombre d’ensembles de données disponibles et les prix souvent élevés par ensemble de données, la question clé est de savoir comment «séparer le bon grain de l’ivraie», reconnaît également M. van der Sluis. Mon conseil est le suivant : commencez par vous-même. En tant qu’équipe d’investissement, que voulez-vous vraiment savoir ? Qu’est-ce qui apporte réellement quelque chose à votre décision d’investissement et à vos objectifs d’investissement ? Je pense que c’est le bon point de départ.
Déployer des observateurs de données
Pour s’orienter plus rapidement dans le monde des données alternatives, il est possible de faire appel à des «data scouts». Ils connaissent le marché et les bons fournisseurs. Quels sont les ensembles de données disponibles, par exemple sur un sujet ESG spécifique, et quels sont l’historique, la couverture et la qualité de chaque ensemble de données. Cela peut faciliter la recherche d’ensembles de données appropriés».
Les données alternatives peuvent non seulement fournir des informations sur les ESG, mais les bonnes informations peuvent également contribuer aux rendements. Les données alternatives que PGGM étudie actuellement sont, par exemple, les informations textuelles que vous pouvez extraire des rapports annuels et de l’analyse des sentiments. Il s’agit souvent de textes écrits ou parlés spécifiques, qui ne peuvent pas être trouvés dans les données traditionnelles. Ici, par exemple, nous cherchons à savoir si un PDG brosse un tableau positif à la suite des résultats annuels.
La question qui se pose alors est la suivante : comment passer des données brutes à des informations pertinentes et comment transmettre ces informations aux équipes d’investissement ? C’est ce à quoi nous nous employons actuellement. Nous continuerons à investir dans la construction et l’extension de la plateforme de données sous-jacente et dans la mise en place de la plateforme d’analyse dans les années à venir.
Il faut également savoir comment se préparer à ce flux d’informations sur le plan de l’organisation et des processus», affirme M. van der Sluis. Les processus doivent être adaptés. Comment traiter l’ensemble des données ? Comment les décentraliser au niveau des équipes d’investissement ? En effet, il ne faut pas que tous les flux de données passent par un point central, car les files d’attente seraient alors trop longues. C’est pourquoi nous sommes en train de mettre au point une configuration de «maillage de données».
Quelle est sa contribution à l’alpha ?
La principale question à se poser lors de la sélection des données est de savoir si elles contribuent à l’alpha. C’est la question essentielle à poser pour chaque ensemble de données. Nous pensons que les données ESG sont très importantes à l’heure actuelle, car nous voulons avant tout que nos investissements aient un impact. Nous ne nous contentons donc pas de regarder le rapport risque-rendement, nous posons également la question de l’impact que nous avons avec ces investissements, et donc avec ces ensembles de données», explique M. van der Sluis. Que font les entreprises auxquelles nous sommes exposés ? Quelle est leur communication ? Quelle est leur empreinte ? Ce sont des aspects importants dont nous devons nous faire une idée».
Il est essentiel de savoir si les informations supplémentaires et alternatives sont suffisantes. Car c’est sans commune mesure avec l’offre gigantesque, qui, selon M. van der Sluis, pourrait atteindre 5 à 10 milliards de dollars. C’est devenu un marché sur lequel, en tant qu’investisseur, vous devez avant tout savoir exactement ce que vous cherchez. Mais, ajoute M. van der Sluis, si vous faites le bon choix, vous pouvez aussi améliorer votre alpha.
Les fonds spéculatifs, par exemple, ont payé cher pour obtenir des données sur les cartes de crédit parce qu’elles généraient jusqu’à 4 % d’alpha sur une base annuelle. Mais la baisse de cet alpha a également été assez importante sur une base annuelle, car - en raison de son succès - il est devenu un «métier très prisé». L’alpha est donc - historiquement - de moins en moins à saisir, reconnaît M. van der Sluis. Mais c’est là que l’apprentissage automatique et l’intelligence artificielle peuvent jouer un rôle positif, car on leur attribue une valeur prédictive. Les modèles devraient déterminer si cette hypothèse s’avère correcte.
Les organisations entièrement axées sur les données que PGGM et APG deviendront dans les années à venir imposent des exigences élevées aux organisations elles-mêmes, mais aussi aux connaissances et aux compétences dont elles disposent en interne. Cela conduit à la création d’équipes agiles et à la formation des employés aux techniques de «science des données» nécessaires - le nouveau monde exige que l’on réunisse différentes expertises et expériences.
Qu’en est-il de l’empreinte carbone ?
À cet égard, un nouveau défi, qui n’a pas encore été pleinement réfléchi, se profile également pour les investisseurs en fonds de pension et les fonds de pension qu’ils ont comme clients : après tout, l’augmentation sans précédent de la puissance de calcul au cours des dernières années, que les parties institutionnelles capitalisent maintenant dans l’espoir de générer plus d’informations et de rendements pour leurs participants, a également un prix : plus de centres de données et donc plus de consommation d’énergie, ce qui a des implications pour l’empreinte carbone.
Herman van der Sluis et le porte-parole présent à la conférence reconnaissent que cela augmentera potentiellement l’empreinte carbone, obligeant les investisseurs à une introspection - qui évalue également les entreprises dans lesquelles ils investissent sur ce point. En effet, on ne peut pas mesurer les autres sans faire la même chose pour nous-mêmes».