La statistique juridique, un outil dont la performance dépend de l’usage qu’en fait le professionnel du droit.

Connaître les performances passées pour bien préparer l’avenir : voici un postulat cher aux parieurs sportifs, aux conseillers financiers et analystes en tout genre. Il existe bien des prédictions sur tout, mais la difficulté, c’est d’oser analyser le futur avec sagesse.

Par Fabrizio Papa Techera, Directeur Général Délégué de Lexbase.

Et si on s’inspirait de l’expérience de l’analyse statistique financière ?

En s’inspirant, par exemple, de l’analyse financière, de nombreux outils mathématiques et statistiques ont été développés et testés depuis Benjamin Graham. La plupart de ces méthodes sont basées sur une analyse historique des performances passées d’un ou plusieurs acteurs financiers, desquelles on déduit une corrélation mathématique avec d’autres facteurs. Ces analyses sont elles-mêmes interprétées et adaptées par un professionnel qui, in fine, a le pouvoir décisionnel en accord avec la réglementation et les directives de son client.

Au demeurant, lorsque les clients des analystes financiers sont interrogés sur la façon dont ils ont choisi leurs conseillers, ils ne mettent pas en avant les outils, les méthodes, mais bien l’intuitu personae, la confiance et la disponibilité du professionnel. Car seul un humain peut exercer ses fonctions avec dignité, conscience, indépendance, probité et humanité.

Si la statistique financière et l’utilisation qu’en font les professionnels ont été mises en pratique depuis plus de 80 ans, la statistique juridique en est encore à ses débuts.

Pour autant, elle s’appuie sur les mêmes fondements : avoir une masse de données importante et analyser ces données pour en dégager des tendances qui pourront donner des indications aux professionnels du droit. L’idée est, comme souvent, de leur permettre de « trouver vite et bien » dans une masse d’information toujours croissante. Cette méthode en droit a mis plus de temps à se développer car il ne s’agit pas seulement de traiter des données chiffrées, mais du langage, de la culture et de l’humain. Ce traitement informatisé est devenu accessible récemment grâce, d’une part, aux architectures informatiques modernes de type Elastic Search et d’autre part, aux méthodes de TAL, Sémantique, Machine learning supervisés et non supervisés, bref l’IA.

 

La performance, ce n’est pas juste du Big Data, c’est aussi le contexte éditorial et le savoir-faire du professionnel du droit.

En l’état, il ne s’agit pas de laisser le professionnel du droit (et encore moins le particulier) avec sa donnée brute sortie du Big Data. L’idée est de continuer à le guider : vous avez un accident de la route, sur telle juridiction, et vous avez eu tel préjudice, voici le set de décisions qui vous retrace les motivations et les montants indemnitaires prononcés à ce jour.

Et une fois que le professionnel dispose de ces décisions, encore faut-il mettre chaque décision dans son contexte : parle-t-on de cette décision dans une étude d’encyclopédie, dans une revue, dans un podcast de radio ?

Et une fois que le professionnel dispose de ces décisions et de l’éclairage éditorial, encore faut-il qu’il établisse une stratégie qui convienne au client, qu’il vérifie qu’il n’y a pas de revirement pressenti ou de changement de loi applicable, qu’il mette au service de son client ses soft skills dans le cadre d’une négociation ou du bon déroulement du procès.

Aussi, la statistique juridique devient un outil décisif et extrêmement qualitatif lorsqu’il est complété par le contexte doctrinal. Mais il ne s’agit que d’un outil qui sera bonifié (ou pas) par le professionnel.

 

A quand l’IA pour tous les professionnels du droit, et donc pour tous les justiciables ?

Ces plateformes de statistiques juridiques existent déjà dans des versions plus ou moins complètes selon les acteurs du marché. Pour que ces techniques soient accessibles à tous les professionnels du droit et pour qu’elles deviennent une opportunité pour les petites et moyennes structures, les éditeurs font face à 3 problématiques : l’investissement R&D en Tech, la distribution large et rapide du produit et la collecte des données.

Si les deux premières conditions sont déjà à la portée de bon nombre d’éditeurs, y compris de jeunes pousses, le point bloquant reste la collecte rapide des données. Il est primordial qu’en France, les acteurs du marché obtiennent au plus vite un Open Data des décisions de justice le plus large possible. Ainsi, la différence entre les opérateurs se fera, non pas sur la collecte des données, mais sur le traitement des données (informatique et éditorial).

Sur les 3 dernières années, en pratique, le flux des décisions de justice, au lieu de s’ouvrir, s’est drastiquement restreint.

Tous les acteurs (y compris institutionnels) sont dans l’attente du projet de loi de programmation 2018-2022 de la réforme pour la justice. Ils sont aussi dans l’attente de savoir qui va gérer la mise en œuvre de cet Open Data. Aujourd’hui, pour les décisions judiciaires à tout le moins, c’est la Cour de cassation qui est pressentie pour mener à bien ce projet d’envergure. Or, l’étape préalable et indispensable à cet Open Data est l’anonymisation des décisions de justice.

Pour ce faire, l’Etat a recruté via Etalab 3 entrepreneurs d’intérêt général, dont deux Data Scientists, pour une durée de 10 mois (soit un investissement global de 120 K€ en terme de rémunération nette selon le site d’Etalab). La pseudomisation d’une telle masse de données en si peu de temps, avec des effectifs réduits, est, en pratique, un défi de taille.

Or, plus cette pseudomisation prendra du temps à être mise en place, plus la mise à disposition de l’Open Data sera décalée. De sorte que la France pourrait prendre du retard sur ces sujets pourtant clés et de nature à défendre notre indépendance judiciaire.

Les marges d’investissement de l’Etat sont bien évidemment limitées avec des priorités fortes au niveau de la justice (les prisons notamment), sans parler des « revendications légitimes », pour citer le Président de la République, des gilets jaunes ou des forces de l’ordre.

Néanmoins, puisque l’Etat français a décidé de ne pas passer un appel d’offres pour s’adosser à un opérateur privé du marché qui maîtriserait déjà les techniques de pseudomisation automatique et qu’il a fait le choix de l’administration publique pour gérer l’Open Data, il est urgent d’en augmenter les dotations pour que sa mise en œuvre devienne enfin effective. Pour la pseudomisation rapide. Et pour l’Open Data juridique pour tous.

Par  Fabrizio Papa Techera
Directeur Général Délégué de Lexbase
Ancien avocat au Barreau de Paris & MBA McGill Finance