Un avenir axé sur l’IA pour la gestion d’actifs nécessite un type de confiance différent
L’intelligence artificielle (IA) est activement propulsée dans la chaîne de valeur des services financiers, de la recherche et de la construction de portefeuille à la gestion des risques et aux rapports aux clients. Alors que l’adoption accuse un retard sur le rythme du changement, avec toute période de perturbation, une constante demeure : la confiance.
Les fondements de la gestion d'actifs ont sans doute été basés sur plusieurs composantes, et l’un de ces éléments fondamentaux était les relations et la confiance. Les investisseurs accordent confiance aux institutions, aux relations consultatives de longue date et au jugement de professionnels expérimentés lorsqu’ils prennent des décisions critiques. Cette confiance est née d’une interaction entre humains et a évolué pour inclure la collaboration entre entreprises (aidé par la réglementation), mais les fondements de la confiance évolue à nouveau.
À mesure que l’IA s’intègre dans les processus décisionnels, la confiance ne concerne plus seulement les personnes ou les entreprises; elle s’étend aux systèmes, aux machines et plus encore aux données qui les alimentent et qui sont de plus en plus exploitées pour prendre des décisions clés. La question pour certains propriétaires et gestionnaires d’actifs n’est pas de savoir si l’IA jouera un rôle, mais comment la confiance peut être maintenue à mesure que ce rôle se développe.
Les données sont à la base de la confiance
La confiance en l’IA est souvent encadrée comme une question de technologie. En réalité, c’est une question de données.
La fiabilité des systèmes d’IA est limités par la fiabilité des informations sur lesquelles ils sont formés. La qualité, la pertinence et l’étendue des données déterminent directement l’utilité des perspectives générées par l’IA. Une simple analogie s’applique : feriez-vous confiance à une recommandation basée sur quatre points de données, ou quarante?
À notre avis, la profondeur et la continuité des données sont importantes. Ils permettent à l’IA d’identifier des modèles, d’extraire des signaux et des informations de surface à partir d’un vaste ensemble de données qui n’aurait peut-être pas été économique, voire possible, d’analyser manuellement.
Il est tout aussi important de maintenir un humain dans la boucle pour aider à assurer des données et un point de départ de modèle précis et à prévenir les « dérives de l’IA », où les systèmes sont formés sur les sorties générées par d’autres outils d’IA, ce qui aggrave graduellement les erreurs. Nous croyons que l’expertise humaine demeure essentielle pour valider les intrants, interpréter les résultats et s’assurer que les modèles restent ancrés dans la réalité.
De l’humain dans la boucle à la confiance centrée sur la machine
Le modèle opérationnel d’aujourd’hui est clair que les humains doivent rester au courant. Les outils d’IA soutiennent l’analyse et la génération de connaissances, mais la surveillance est essentielle. Les limites connues, en particulier les hallucinations et le raisonnement opaque, font du jugement humain une protection essentielle. Les cadres réglementaires renforcent cette approche, reflétant une mise en garde partagée selon laquelle la responsabilité doit rester claire.
Pourtant, ce modèle fait face à des défis. Les « co-pilotes » de productivité, les outils de surveillance automatisés et les systèmes avancés d’aide à la décision commencent à superviser les flux de travail que les humains géraient une fois directement. Cela soulève une question provocante, mais de plus en plus pertinente, sur ce qui se passe lorsque les systèmes d’IA commencent à valider, à remettre en question ou même à contourner les décisions humaines dans des contextes définis. Si les machines font partie de l’environnement de contrôle, comment établissons-nous la confiance lorsque le validateur lui-même est automatisé?
Pour de nombreux gestionnaires d’actifs, l’attente n’est pas une automatisation complète, mais une augmentation significative. L’accent est mis sur l’utilisation de l’IA pour traiter plus d’informations, de manière plus cohérente et à plus grande échelle, tout en préservant la responsabilité humaine.
Principes pour une IA fiable dans les services financiers
Pour les gestionnaires d’actifs qui déploient l’IA, la confiance n’est pas assurée par un seul contrôle. Il a besoin d’un cadre. Selon nous, ces plusieurs principes sont essentiels :
- Intégrité des données : Les données doivent être de haute qualité, pertinentes et vérifiées.
- Transparence : Les utilisateurs doivent comprendre l’intention et la logique derrière les recommandations basées sur l’IA.
- Gouvernance : Une responsabilité claire, des voies d’escalade et des mécanismes de surveillance ne sont pas négociables.
- Expérience : L’expertise du domaine et le contexte historique doivent être intégrés dans les modèles, et non plus tard.
- Orientation client : L’IA ne devrait pas avoir d’impact négatif sur les résultats d’une volonté de gains d’efficacité internes.
Lorsque ces principes sont alignés, l’IA pourrait devenir un outil pour aider à mieux juger plutôt que de le remplacer.
Démocratisation des conseils de haute qualité
L’une des implications les plus prometteuses de l’IA est l’accès. En automatisant l’analyse et la synthèse intensives en main-d’œuvre, l’IA pourrait permettre de fournir des renseignements de haute qualité à grande échelle. Cela pourrait permettre aux modèles consultatifs alimentés par un copilote d’IA d’atteindre un univers plus large de propriétaires d’actifs et des segments de clients plus diversifiés sans diluer la qualité.
Plutôt que de prendre des décisions uniquement par la réduction des coûts, l’IA peut potentiellement élargir les ensembles d’occasions, améliorer la couverture et soutenir de meilleurs résultats d’investissement. L’objectif n’est pas de prendre le même nombre de décisions plus rapidement, mais de prendre plus de décisions, de façon cohérente et rapide, ce qui libère du temps pour consacrer plus de temps aux éléments à valeur ajoutée du processus.
Perception et responsabilité du client
Malgré les progrès réalisés, le scepticisme persiste. De nombreux clients remettent toujours en question la transparence, l’intention et l’utilisation éthique de l’IA, en particulier lorsque les décisions affectent la répartition du capital et les résultats à long terme.
Cette prudence est saine. La confiance n’est pas créée par l’adoption rapide de la technologie, mais par sa mise en œuvre responsable. Pour nous, cela signifie être clair sur la façon dont l’IA est utilisée, ce qu’elle peut et ne peut pas faire, et comment l’expertise humaine demeure centrale.
Alors que l’IA devient une technologie générationnelle pour les services financiers, il y a peu de temps pour « gagner la confiance plus tard ». La confiance doit être intégrée aux systèmes dès le départ – ancrée dans les données, la gouvernance et l’expérience. Nous croyons que l’avenir de la gestion d'actifs sera probablement façonné par l’IA. La confiance dépendra des choix faits aujourd’hui.
Chef mondial analyses et solutions de portefeuille