L’intelligence artificielle au service des forces de l’ordre

intelligence artificielle

Dans un discours donné début juin, le ministre de l’Intérieur Gérard Collomb a évoqué l’usage de l’intelligence artificielle dans le travail des forces de l’ordre en France. Des logiciels seraient en effet utilisés pour “repérer dans la foule des individus au comportement bizarre ».

L’utilisation de l’intelligence artificielle dans le domaine de la justice prédictive et dans la résolution d’enquêtes criminelles permet d’assister efficacement le travail de la police. Mais où se situe la limite dans l’emploi de l’IA ? Certaines utilisations inquiétantes voient le jour et posent la question de la protection des données personnelles.

L’IA, soutien précieux de la police criminelle

L’utilisation de l’intelligence artificielle représente avant tout un gain de temps considérable dans l’analyse des dossiers numériques des suspects. Les recherches internet, l’historique des appels, de même que des vidéos de caméras de surveillance sont décryptés en quelques secondes grâce au logiciel. Les logiciels sont désormais capables de juger de l’intérêt ou non d’une séquence et peuvent être équipés d’un outil de reconnaissance faciale.

En analysant les données des suspects, l’IA cherche les similarités dans le mode opératoire, dans le profil des victimes, dans les zones géographiques ou encore dans les temporalités. Lorsqu’un agent de police a besoin de faire des dizaines de recherches pour obtenir d’éventuelles corrélations, l’IA peut le faire en un clic. Cette analyse de données pourra ensuite fournir des références de jurisprudence.

Enfin l’IA peut être amenée à explorer des pistes que les forces de l’ordre ont pu mettre de côté par manque de temps, de moyens, voire d’imagination, puisque le logiciel est chargé d’étudier des théories que personne ne serait en mesure de deviner, exceptés les criminels eux-mêmes.

Concernant les types de logiciels, nous pouvons citer VALCRI, un projet financé par l’UE et testé par les forces de polices du Royaume-Uni et de la Belgique. Le système de VALCRI exploite trois années de données, ce qui correspond à 6,5 millions de dossiers de police ! Le logiciel analyse les données, retrace les scènes de crime et soumet ses hypothèses sur un écran tactile interactif. Cet écran se divise en trois parties, présentant les données disponibles, l’analyse des données par le logiciel et les résultats de l’analyse, basés sur les preuves collectées.

Le logiciel VALCRI permet indéniablement d’alléger la charge de travail des agents, sans pour autant prendre leur place.

La justice prédictive : le risque d’un “Big Brother”

intelligence artificielle au service des forces de l'ordre

Si l’IA peut éviter une surcharge de travail, son utilisation peut parfois soulever des questions, notamment lorsqu’il s’agit de la justice prédictive.

Dans son désir de devenir le pays leader de l’intelligence artificielle, la Chine souhaite mettre en place un système d’intelligence artificielle capable de prédire les crimes et les délits avant qu’ils ne soient commis. Cette volonté n’est pas sans rappeler le film Minority Report, dans lequel des humains mutants sont capables de détecter un criminel avant qu’il ne passe à l’acte. Le système d’IA reposerait sur le Big Data, pour analyser les comportements d’individus suspects à l’aide de millions d’images de caméras surveillance. Le système est programmé pour prévenir ensuite la police s’il estime que le risque de passage à l’acte est élevé.

Plus récemment, une enquête a révélé que la police de la Nouvelle-Orléans, l’une des villes les plus dangereuses des Etats-Unis, utilise depuis six ans un logiciel prédictif pour lutter contre les gangs de trafiquants de drogues. En 2012, le maire a conclu un contrat avec la société Palantir de la Silicon Valley, qui a fourni le logiciel In-Q-Tel aux forces de l’ordre.

Le système a ainsi eu accès à des milliers d’informations récupérées de la banque de données municipale… sauf que ni les habitants, ni les conseillers municipaux n’étaient au courant de l’accès de Palantir à ces données personnelles. Palantir n’a en effet pas eu besoin d’autorisation en raison de la relation philanthropique qu’il entretient avec la ville.

Des systèmes de prédiction des crimes similaires seraient en test dans une cinquantaine de villes dans le monde. Si le taux de criminalité de la Nouvelle-Orléans a baissé au début de l’utilisation du logiciel, il atteint à nouveau un taux record.

Soyons rassurés, nous sommes encore loin du scénario catastrophe du film Minority Report. Cependant, les technologies de justice prédictive posent de réelles questions de pertinence et d’utilisation abusive des données personnelles.

 

Sources :

https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/l-intelligence-artificielle-s-invite-aux-cotes-de-la-police-et-du-renseignement_124880

http://mashable.france24.com/tech-business/20180613-valcri-intelligence-artificielle-europeenne-police-analyse-criminelle

https://cordis.europa.eu/news/rcn/128452_fr.html

http://www.slate.fr/story/158260/nouvelle-orleans-palantir-police-predictive

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

seize − 12 =