Quels apports de la « Data Science » pour le crédit à la consommation ?

Le crédit à la consommation occupe une part importante des habitudes financières des français.

En 2017, plus de 27% des français avaient contracté un crédit à la consommation auprès d’établissements de crédit, souvent par l’intermédiaire de distributeurs, majoritairement de biens automobiles ou d’équipement de la maison.

L’octroi de crédit à la consommation est un exercice qui nécessite sérieux et rigueur de la part de ces établissements, car ils doivent à la fois

  • Protéger le consommateur
  • S’assurer du bon remboursement de ces crédits
  • Minimiser leurs besoins en fonds propres

Au cœur de ces problématiques se trouve le credit scoring : il permet à un établissement de crédit d’évaluer le risque de défaut associé à un emprunteur. Pour se faire, il se base traditionnellement sur deux grandes catégories de critères :

Les critères de fiabilité

Ils s’intéressent à des caractéristiques intrinsèques du demandeur de crédit : genre, nombre d’enfants, profession du conjoint, type de logement …

Les critères de solvabilité

Ils  s’intéressent directement à la situation financière de l’individu. Il s’agira de renseigner des informations de revenu, de profession, de remboursements en cours…

En comparant ces caractéristiques à des statistiques de remboursement/ défaut, les banques établissent le credit scoring de l’individu. 

Limites du modèle traditionnel

L’efficacité et l’impartialité de cette méthode statistique n’est pas à débattre, mais l’utilisation de certains critères comme le genre, le nombre d’enfants ou la profession du conjoint posent la question de la légitimité et peuvent pénaliser l’expérience client. Saviez-vous que statistiquement, les femmes sont plus fiables que les hommes ?

Au-delà du caractère intrusif des questions amenant à la collecte de ces données, le crédit scoring manque d’objectivité et de fiabilité. Il se base sur des données historiques et subjectives. Peu évolutif, il met du temps à intégrer les nouveaux comportements.

Dans un monde de plus en plus divers (rapport au travail, rapport à l’engagement, modes de consommation, accès à la propriété…), cette méthode traditionnelle génère des rejets qui n’auraient pas lieu d’être, empêchant certaines catégories de personnes d’accéder au crédit et créant de ce fait un manque à gagner pour les établissements.

Chez Headlink, nous pensons qu’une approche « Data Science » permettra d’améliorer les modèles prédictifs traditionnels du credit scoring. Explications :

La « Data Science » est une discipline à la croisée des chemins entre l’inférence statistique, le développement d’algorithmes et la technologie.

Elle permet d’explorer et d’analyser des données brutes pour résoudre des problèmes complexes. Au cœur de celle-ci se trouvent les problématiques de Big Data et de Machine Learning.

Au fond, le crédit scoring fonctionne de manière comparable à un moteur de recommandations. A force d’itérations, l’algorithme de Netflix connait les contenus consommés par les même types d’individus, et donc ceux susceptibles de plaire. De son côté, le credit scoring rapproche caractéristiques personnelles et défauts de paiements. D’après l’historique de Netflix, il y a de fortes chances que vous aimiez la série Luther si vous avez regardé Sherlock Holmes et quelques épisodes de Columbo. Cette information est obtenue par la compilation continue et l’analyse de votre historique de consommation et de vos réactions aux recommandations qui vous sont soumises par l’algorithme. Ainsi, d’après l’historique d’un établissement de crédit, il est probable que vous soyez bon emprunteur si vous habitez dans le même appartement depuis des années et que vous avez un emploi stable.

La clef de la précision de ces types de modèles réside dans le volume de données qu’ils exploitent : c’est là que les progrès de la « Data Science » rentrent en jeu.

Trois apports de la « Data Science » pour le credit scoring

Une capacité à inférer des corrélations entre des comportements (défauts de paiement) et des caractéristiques des historiques sur des grandes masses de données

Une approche big data permet d’exploiter de très grandes masses de données, inaccessibles aux outils statistiques traditionnels par leur volumétrie. Elle permet ainsi de détecter des signaux faibles inaccessibles aux méthodes classiques.

Une capacité à exploiter de nouvelles sources de données parfois non structurées

Certaines données non structurées comme des photos issues de réseaux sociaux, des posts de blogs, la géolocalisation … sont exploitables par ces nouveaux algorithmes, leurs permettant d’affiner leurs analyses au delà des données numériques.

Une capacité à intégrer de nouvelles sources de données via l’open data

De nombreuses données accessibles gratuitement comme les statistiques Insee, les annonces légales, les liasses fiscales … permettent d’augmenter encore la capacité d’analyse de ces modèles. En captant des informations dont la qualité est garantie, cette méthode mitige sa dépendance à un historique de données internes. Le potentiel supplémentaire lié à DSP2 permettra à ces modèles d’aller encore plus loin.

Les bénéfices attendus sont élevés, et compatibles avec les obligations réglementaires

L’approche « data science » permet d’apporter précision et fiabilité au modèle de scoring.

Comme évoqué plus haut, plus un modèle de credit scoring se nourrit de données, plus il est fiable et précis. La « data science » permet d’augmenter la fiabilité des modèles. Elle permettrait donc d’augmenter le nombre d’octrois en intégrant plus de données corrélées avec de bons comportements.

Depuis Bâle III, le risque crédit représente 85% du Besoin en Fonds Propres des organismes de crédit. Cette précision supplémentaire peut donc, en plus d’améliorer le processus d’octroi, se révéler cruciale pour dégager de la marge de manœuvre.

L’utilisation du machine learning permettra une évolutivité des modèles

Le machine learning permettra aux modèles de se re-calibrer, les données nourrissant en temps réel un algorithme auto-apprenant.

La « data science » est compatible avec les besoins des banques en terme d’auditabilité des modèles

Le régulateur européen ayant autorisé les établissements financiers à construire leurs modèles de calcul de risque crédit en interne, il est indispensable de les rendre compréhensibles et auditables. Chaque décision prise avec l’aide de ces modèles de risque doit pouvoir être expliquée et auditée. En permettant de cartographier les données, matérialiser les dépendances et conserver un historique, la « data science » permet aux organismes de crédit d’aborder avec sérénité d’éventuels contrôles des autorités compétentes.

Que faire ?

Après avoir retrouvé en 2015 son niveau d’avant crise, la production de crédit à la consommation continue de s’accélérer, en partie grâce à des taux directeurs faibles, mais surtout grâce à la stabilisation du chômage et son influence naturelle sur la confiance des ménages. Le moment est opportun pour y investir de nouveaux moyens, afin de mettre cette activité en phase avec les enjeux du marché, et de la sécuriser.

N’hésitez pas à nous contacter si vous souhaitez approfondir le potentiel de la « data science » pour votre société.