Project Description

Pour accompagner le lancement de sa nouvelle offre de conseil en stratégie auprès des directions générales, Vertuo vous invite tout l’été à découvrir chaque jeudi un nouvel épisode de sa série dédiée à l’Open Banking et à la plateformisation des services financiers traditionnellement proposés par les banquiers & assureurs.

Sixième épisode de notre feuilleton de l’été consacré à la banque de demain, nous nous concentrons aujourd’hui sur les opportunités offertes par les plates-formes de robotisation des processus bancaires pour dégager de nouvelles formes de valeurs au sein des organisations. Quelles en sont les perspectives concrètes ?


« L’IA est la science de comment faire faire à des machines les choses qu’elles font dans les films » Artur Teller, 1998

L’idée que l’humain pourrait créer un être doué de conscience n’est pas nouvelle, et hante l’imaginaire collectif dès l’Antiquité. On se souvient alors du mythe de Pygmalion, ou même du Golem dont il est fait mention dans l’Ancien Testament. C’est pourquoi Cédric Villani a fait la remarque que ce terme est peut-être, pour l’instant, mal choisi. En effet, l’IA en l’état actuel des choses ne possède pas de conscience, bien que certains seraient prêts à lui en attribuer une. Pour Yann Lecun, chercheur français, pionnier du Deep Learning et membre de la cellule d’Intelligence Artificielle de Facebook : « Les machines intelligentes du futur auront des sentiments, des plaisirs, des peurs, et des valeurs morales. Ces valeurs seront une combinaison de comportements, d’instinct et de pulsions programmés avec des comportements appris. […] Mais c’est un futur lointain où l’on pourra donner de l’autonomie aux machines. D’ici là, les machines seront certes intelligentes, mais pas autonomes. Elles ne seront pas à même de définir leurs propres buts et motivations. Malgré les déclarations de certaines personnalités, le scénario à la Terminator est immensément improbable » (1). Yann Lecun fait ici référence à ce que l’on appelle « l’IA forte » ou « Intelligence Générale », c’est-à-dire des machines qui seraient dotées de la capacité de raisonner sur tout ce que l’on connaît et appréhender le monde dans son ensemble, en toute autonomie. Aujourd’hui, aucun ingénieur est capable de créer telle IA. Les IA d’aujourd’hui sont des « IA faibles » qui peuvent être remarquables dans des domaines spécialisés : le jeu de go, la gestion d’actifs…De fait, il est considéré comme difficile de définir l’IA, car il s’agit d’une science évolutive, dont nous ne connaissons pas encore les limites. De même qu’il s’avère complexe de définir ce qu’est l’intelligence elle-même, beaucoup de chercheurs ne s’accordant pas sur sa définition.

Contentons-nous d’éclairer quelques-uns des types d’IA fréquemment rencontrés.

  • Les systèmes d’expert sont des logiciels capables de répondre à des questions en effectuant un raisonnement à partir de faits et de règles connues. Ce qui signifie qu’à chaque nouveau modèle, il faut le reprogrammer entièrement pour y intégrer les nouvelles règles, qu’il ne peut définir lui-même. Il s’agissait de la forme d’IA la plus fréquente dans les années 80, et également l’une des formes les plus archaïques de l’IA, l’apprentissage n’étant pas autonome.
  • Le Machine Learning est au contraire ce à quoi l’on pense lorsqu’on évoque l’IA : ce sont des algorithmes définissant eux-mêmes leurs propres règles pour aboutir à certains résultats. D’où la notion d’apprentissage « autonome ». Il existe trois types principaux d’apprentissage :
    • L’apprentissage supervisé, où l’on fournit à un algorithme des panels de données déjà classées ou étiquetées. L’algorithme peut donc définir les caractéristiques des groupes de données par comparaison et en déduire les règles de classement.
    • L’apprentissage non supervisé, où l’on fournit à l’algorithme des données non classées. Il doit donc définir lui-même les règles de classement, qu’il généralisera ensuite en-dehors du panel d’entraînement.
    • L’apprentissage par renforcement, où le modèle définit ses propres règles et propres classements, et à la fin de chaque itération, on lui attribue une note. Si elle est mauvaise, il modifiera des paramètres dans les règles qu’il a définis, si elle est meilleure que la précédente, il continuera dans cette voie jusqu’à obtenir la note maximale.
  • Le Deep Learning recouvre différents types de neurones, dont ceux que l’on nomme « réseaux de neurones ». On appelle cela « Deep Learning » car les algorithmes sont composés de couches successives de « neurones » assignant des poids à différentes variables et interconnectés pour réaliser un résultat final. Les réseaux de neurones sont en général utilisés à des fins de prévision, de classification et de reconnaissance de forme.
  • La logique floue recouvre des algorithmes reposant sur le constat que les classes d’objet rencontrées dans le monde réel ne possèdent pas de critères d’appartenance bien définis, mais plutôt des « seuils d’appartenance ». On n’assigne donc pas à chaque individu une appartenance, mais un seuil d’appartenance, un degré compris entre 0 et 1.
  • Les Algorithmes Génétiques sont fondés sur les mécanismes de l’évolution génétique des espèces et du principe de sélection naturelle : différents algorithmes interagissent, certains disparaissent, d’autres peuvent même se « reproduire » en se mixant, selon leur environnement et les règles qui le régissent. En finance, ils sont utilisés pour les prévisions de séries temporelles, l’optimisation et la prise de décision financière (3).

Lors de la conduite de nos travaux de R&D, nous avons rencontré un salarié d’une grande banque d’investissement affecté au département « Sales », qui nous a affirmé : « Je ne peux vous donner qu’un conseil : ne venez pas en Sales. Dans deux ans, plus aucun de nous ne sera là ». Car l’IA divise schématiquement en deux camps : ceux qui faisaient appel à la célèbre théorie de Schumpeter, selon laquelle tous les emplois détruits seraient recréés ailleurs, de plus dans des endroits sûrement plus plaisants et enrichissants ; et ceux, plutôt Malthusiens, pour qui la population allait excéder de loin la « ressource », ici le travail, d’autant plus que l’IA allait réduire drastiquement celle-ci. Dans The Future of Employment, étude publiée en 2013, les deux chercheurs d’Oxford Osborne et Frey affirmaient en effet que pour la première fois, la destruction pourrait ne pas être créatrice.

Nous avons donc lancé une vaste étude ayant pour objet de déterminer dans quelle mesure un panel de métiers bancaires, issus de la banque de détail et de la banque d’investissement, pouvaient faire l’objet d’une robotisation. Pour alimenter cette étude, nous avons utilisé la même base de données qu’Osborne et Frey (O*NET) qui présente l’avantage d’être régulièrement mise à jour par des professionnels de chaque secteur et s’avère extrêmement détaillée. Pour chaque métier, une trentaine de tâches, une vingtaine de compétences, de connaissances et d’aptitude, ainsi que l’environnement de travail sont décrits, en posant l’hypothèse que les descriptions américaines des métiers bancaires sont globalement transposables au système de banque universelle à la française.

(Cliquer sur pour afficher la version complète)

Un métier recevant une note proche de 10 ne va pas forcément disparaître. Cela signifie simplement qu’une grande part des tâches qui lui incombent peut être réalisée par une IA.

Or, d’autres facteurs jouent pour l’automatisation de toute une profession : le retour sur investissement de l‘automatisation (fonction de son coût de déploiement), le coût humain relatif au coût de l’IA, la régulation et l’acceptabilité sociale de l’automatisation. En effet, l’automatisation d’une profession ayant un pouvoir élevé sur la société ou les clients sera moins acceptée. Pour exemple, la fonction de Directeur Général a selon notre étude une note de 5,625. Pourtant, il est très peu probable que cette fonction soit automatisée dans les années à venir, car cela ne serait probablement pas accepté par la population (à commencer par la population des collaborateurs d’une organisation), et plus important encore, cela n’est pas dans l’intérêt de ceux qui détiennent le pouvoir de décision.

Ainsi, il serait plus exact d’interpréter la note de la manière suivante : plus la note est élevée, moins de personnes seront embauchées dans ce domaine pour leur pure expertise bancaire. Cela ne signifie pas que la profession disparaîtra, mais les personnes exerçant cette fonction seront plus assistées par des IA, ce qui aura pour conséquence que là où 20 personnes produisaient une certaine Valeur Ajoutée pour la Banque, un effectif plus restreint produira davantage de Valeur Ajoutée.

Alix DARDENNES, Master 224 Banque et Finance de l’université Paris Dauphine et membre du LAB Vertuo
François JULOU, Master 224 Banque et Finance de l’université Paris Dauphine et membre du LAB Vertuo
Salaheddine MERAKEB, Master 224 Banque et Finance de l’université Paris Dauphine et membre du LAB Vertuo
Alexandre ZAVAGNO
, Consultant Senior du Cabinet Vertuo Conseil

Découvrez plus épisodes de la série dédiée à l’Open Banking et à la plateformisation des services financiers :

RETOUR