L’avocat Adrien Basdevant, la docteure en sciences Aurélie Jean et l’ingénieur en IA Victor Storchan, dans le rapport intitulé « mécanisme d’une justice algorithmisée », proposent une analyse scientifique et juridique des grands principes de la justice algorithmisée.
Pour les auteurs du rapport « mécanisme d’une justice algorithmisée » publié par la Fondation Jean Jaurès, le terme de « justice prédictive » n’est pas adapté car il « nourrit le fantasme d’une justice automatique, fluide, efficace, débarrassée des inconvénients humains et qui pourrait à terme renforcer la confiance des justiciables dans la justice ». Cette formule repose sur la croyance erronée que l’utilisation d’algorithmes pourrait permettre de prédire la jurisprudence future.
Selon eux, la « question de l’algorithme et de la justice n’est pas tant celle de la substitution du juge par la machine, mais davantage celle de l’impact des nouveaux outils d’aide à la décision sur la faculté de juger, de rendre le droit et de prendre des décisions judiciaires ». Par conséquent, ils préfèrent utiliser le terme de justice algorithmisée.
Enjeux de la justice algorithmisée
Le rapport rappelle que trois conditions sont nécessaires au développement des technologies de l’intelligence artificielle donc de la justice algorithmisée. Il faut un volume de données, une puissance de calcul suffisante et l’usage d’algorithmes performants.
Un premier enjeu concerne les données, leur collecte suppose leur dématérialisation et leur traitement numérique pour en extraire le contenu pertinent.
Un deuxième enjeu majeur consiste à l’explicabilité des algorithmes. En effet, l’usage d’algorithmes dans l’aide à la décision ou dans certaines procédures judiciaires exige de pouvoir expliquer leur fonctionnement et leur comportement pour des raisons d’éthique, de transparence et de responsabilité.
Un dernier enjeu est de parvenir à une coopération de confiance entre les acteurs de la justice et ceux de la technologie, de la science de la data et de l’IA permettant la co-construction d’outils efficaces garantissant aucun traitement inégal et injuste des individus.
Précautions et recommandations
Les auteurs formulent plusieurs précautions et recommandations.
En ce qui concerne les précautions, les auteurs considèrent que des biais algorithmiques peuvent provenir d’un mauvais échantillonnage des données d’apprentissage, d’un manque de diversité et de représentativité de ces données. Ceci a pour conséquence un traitement inégal, stigmatisant et injuste. Aussi, ils estiment qu’il est fondamental qu’un algorithme ne reflète pas les préjugés des ses concepteurs. De même, l’explicabilité des algorithmes est primordial afin de garantir la transparence des pratiques judiciaires tant pour les acteurs de la loi que pour les justiciables.
S’agissant des recommandations, le choix du modèle algorithmique apparaît majeur dans l’objectif d’une transparence de la justice algorithmisée. Ce choix doit s’effectuer selon un arbitrage délicat entre explicabilité et performance. Par ailleurs, le développement des algorithmes doit s’appuyer sur des bonnes pratiques telles que les discussions sur l’idée même de l’algorithme, sa programmation informatique, sa validation, son usage et sa compréhension par les utilisateurs.
L’humain doit également rester dans la boucle agorithmique. Pour les auteurs, « même entrainé au mieux à exécuter une tâche, un algorithme manquera toujours cruellement de sens commun propre à l’homme. Aussi, d’un point de vue éthique et déontologique, il y a le besoin de conserver un certain jugement humain dans la considération et l’appréciation d’affaires. Écrit autrement, l’humain doit rester dans la boucle, même lorsque des algorithmes sont utilisés pour éclairer une décision ».
Enfin, ils préconisent d’insuffler une culture du numérique qui passe par l’hybridatrion des connaissances. Cela signifie qu’un codeur de demain ne pourra pas ignorer les questions éthiques. De même, le juriste de demain devra s’intéresser aux statistiques et au fonctionnement des systèmes d’intelligence artificielle.
Source: Arnaud Dumourier (@adumourier)