Didier Baichère – Député des Yvelines

version 25/01/2021

En effet, aborder la question à travers différents cas d’usage permettra de mieux comprendre les
arbitrages à effectuer car chacun de ces cas d’usage nécessite un protocole particulier
d’expérimentation afin d’être le plus précis possible. L’audit à la fois des algorithmes utilisés dans
les dispositifs de reconnaissance faciale, ses processus d’apprentissage et l’analyse
récurrente dans le temps des évolutions de ces cas d’usage est au cœur de l’expérimentation
et des recommandations qui en découleront.
Ce texte d'expérimentation de dispositifs pour une reconnaissance faciale par l’IA éthique et
transparente permettrait d’établir une méthodologie d’évaluation et d’expérimentation afin notamment
d’éclairer les collectivités locales (ville, départements, régions…) sur les choix possibles d’évolution
des dispositifs de vidéo protection, tout en s’assurant de la tenue systématique d’un débat
citoyen avant toute évolution.
De manière plus générale, les expérimentations sont considérées comme des outils d’innovation pour
les pouvoirs publics dans le récent rapport du Conseil d’État du 3 octobre 2019, si elles répondent à
plusieurs caractéristiques : elles doivent respecter les règles de compétence (pouvoir réglementaire),
porter sur un objet déterminé et avoir une durée limitée. Les expérimentations doivent également
veiller à ne pas entraver d’autres principes à valeur constitutionnelle et comporter une évaluation.
Cette proposition de loi s'articule autour de trois axes : 1/ nommer un comité de la société civile et de
chercheurs experts composés de scientifiques et de personnes qualifiées, 2/ définir une méthodologie
et l’évaluation de l'expérimentation des cas d’usage retenus d’application de la reconnaissance
faciale, 3/ définir les modalités d’organisation d’une consultation citoyenne effective de type « états
généraux » sur le sujet et d’en détailler les modalités d’application.
En lien avec les propositions établies dans le rapport « Donner un sens à l’Intelligence artificielle »
commandé par le Premier Ministre en 2018, il nous faut développer l’audit de l’IA ainsi que l’évaluation
citoyenne des IA. Dans cette optique, l’article 1 précise l’objectif d’analyse scientifique et la volonté
de transparence et d’éthique en soumettant une méthodologie d’évaluation des algorithmes. Il
institue un comité de supervision de la société civile et de chercheurs qui sera à même d’accomplir
cette tâche d’audit des algorithmes et des bases de données. Il précise le rôle de la Commission
Nationale de l'Informatique et des Libertés (CNIL) : observateur objectif et indépendant, elle pourra
prodiguer des conseils dans le suivi critique et l’accompagnement des expérimentations.
L’article 2 définit le cadre et le déroulement de l’expérimentation des quatre cas d’usage particulier
de reconnaissance faciale – ou plus si le comité de la société civile et de chercheurs d’experts se
prononce en ce sens - qui sont : 1/ accès par reconnaissance faciale (gestion de flux), 2/ sûreté et
sécurité dans les espaces, 3/ marketing et services clients (offres sollicitées ou non-sollicitées), 4/ les
services à vocation de santé ou sociaux.
L’article 2 ouvre également la voie à l’audit. Le II - propose que le comité de supervision de la société
civile et de chercheurs travaille à développer l’audit de la méthodologie utilisée pour les différents cas
d’usage et le comportement du système d’apprentissage. Développer l’audit de la méthodologie
scientifique des algorithmes de reconnaissance faciale utilisée dans les expérimentations serait un
premier pas pour garantir leur conformité scientifique et éthique comme le souligne le rapport Donner
un sens à l'intelligence artificielle : pour une stratégie nationale et européenne : « il faut accroître la
transparence et l’auditabilité des systèmes autonomes d’une part, en développant les capacités

3

Select target paragraph3