Cette semaine, Jérémie Bertrand nous gratifie d'un article sur l'humain dans le monde data-finance, un sujet cher à Concilys.
Les algorithmes prennent de plus en plus de place au sein du paysage professionnel, tout particulièrement dans les domaines de la finance où ils deviennent source de prise de décision de plus en plus importante : depuis les décisions de vente et d’achat dans le trading, aux décisions d’octroi de crédit au sein des banques et autres institutions financières (particulièrement aux États-Unis). Cependant, se baser sur les algorithmes c’est oublier que ceux-ci ne sont pas parfaits, loin de là.
Dans un premier temps, lorsque l’humain code un algorithme il biaisera, sans forcément s’en rendre compte, les prises de décision de son algorithme : ses habitudes de consommation, sa vision du monde qui influence sa manière de traiter l’information ou encore simplement ses émotions, qui distordent son jugement et dont il lui est impossible de se défaire, auront des conséquences. Et même si nous considérons que l’humain peut se défaire de ses biais, il restera l’ensemble des biais techniques, inhérents aux statistiques : un problème de variables dites omises, c’est-à-dire des données non mesurables ou manquantes qui ne seront donc pas traitées ; une base de données initiale de mauvaise qualité ou encore un problème de sélection de données non représentatives de la réalité.
Tout cela entraine non seulement des biais, mais vient également parfois amplifier les biais humains. Un bon exemple est l’amplification de la discrimination spatiale au sein du marché du crédit. Celle-ci consiste en appliquer à un individu donné des caractéristiques génériques à une classe de la population à laquelle il appartient, et le discriminer à partir de là. Par exemple : « les jeunes ont plus de chance de ne pas rembourser leur crédit. Tiens un jeune. Je ne vais pas lui prêter car il aura plus de chance de faire défaut ». Pire que cela, ce type de biais vont entrainer de gros risques de prévisions autoréalisatrices : par exemple, une estimation (trop) élevée d’un risque de crédit d’un individu va lui donner accès au crédit mais à un taux élevé, ce qui va renforcer son risque de défaut de paiement.
Alors que faire par rapport à cela ? Simplement remettre l’humain au cœur de ce processus en créant un triptyque équilibré entre la donnée, le métier et la technologie. C’est-à-dire faire en sorte qu’il existe des échanges constants entre les algorithmes, leurs résultats et l’humain. Ne pas hésiter à faire des tests aléatoires pour vérifier le résultat de l’algorithme et si celui-ci ressort un résultat surprenant essayer de comprendre d’où vient celui-ci : a-t-il perçu quelque chose que le chargé d’affaires en banque n’a pas vu, ou bien est-ce une amplification qui ne devrait pas avoir lieu d’être. Si l’algorithme est un outil extrêmement pratique et qui permet de prendre des décisions plus rapides et souvent plus précises, il doit rester un outil au service de la décision humaine. Il ne faut pas hésiter à conserver le contact entre le client et le décisionnaire au sein de l’établissement financier, pour faire en sorte que celui-ci ait en main toutes les informations importantes pour parfois pouvoir aller contre l’algorithme si nécessaire.
- Jérémie Bertand
Comments