La justice britannique a jugé illégale l’utilisation d’une technologie de reconnaissance faciale automatique par les forces de police, l’estimant en contradiction avec les dispositions relatives à la protection de la vie privée et des données personnelles.

La police galloise a utilisé un système appelé “AFR Locate”, qui implique le déploiement de caméras de surveillance afin de capturer des images numériques de membres du public, qui sont ensuite traitées et comparées avec des photos d’une « liste de surveillance », qui peut inclure suspects et/ou personnes disparues ou présentant un intérêt.

La Cour d’appel de Londres a estimé qu’il n’y avait pas d’indications claires sur les endroits où le système “AFR Locate” pouvait être utilisé par les forces de police et sur qui pouvait être mis sur la « liste de surveillance ». Ainsi, la Cour d’appel a reproché à la police galloise de ne pas avoir fait tout son possible pour vérifier que le logiciel ne présentait pas de biais racistes ou sexistes.

Enfin, la cour d’appel a considéré que l’AIPD menée par la police galloise n’a pas correctement évalué les risques pour les droits et les libertés des personnes physiques concernées et elle n’a pas inclus des mesures envisagées pour faire face à ces risques, conformément à la section 64 de la loi britannique sur la protection des données qui présente un contenu similaire à celui de l’article 35 du RGPD.

Pour aller plus loin :