News Day FR

le comité d’évaluation exprime des doutes sur l’efficacité du dispositif mis en place pour les Jeux de Paris

Le comité d’évaluation, chargé d’évaluer l’usage de la vidéosurveillance algorithmique (VSA) testé lors des Jeux olympiques de Paris 2024, émet des doutes sur l’efficacité du dispositif, dans un rapport consulté par Le monde et franceinfo mercredi 15 janvier. Ce rapport a été remis mardi au ministère de l’Intérieur.

Pour rappel, la vidéosurveillance algorithmique est une technologie basée sur des logiciels associés à des caméras de surveillance permettant d’identifier les événements jugés suspects ou à risque, avant d’alerter un opérateur en temps réel. Testé lors des JO, le gouvernement envisage depuis de généraliser le système. Le texte de loi prévoit déjà une prolongation jusqu’au 31 mars 2025. Matignon a indiqué qu’il attendait le rapport de la commission d’évaluation pour prendre sa décision.

Dans ce reportage d’une centaine de pages consulté par franceinfo et par l’agence Radio , il ressort « que le recours aux traitements algorithmiques mis en œuvre dans le cadre de l’expérimentation a abouti à des performances techniques inégales, très variables selon les opérateurs et les cas d’usage, les contextes d’utilisation, ainsi que les caractéristiques techniques et le positionnement des caméras.

La commission considère que l’intérêt du dispositif dans le cadre de l’expérimentation “dépend en grande partie du contexte d’utilisation”. Parmi les conclusions, la commission juge que le VSA est, par exemple, “moins efficace quand il y a peu de lumière” et les résultats sont plus pertinents « dans des espaces clos ou semi-fermés, notamment les couloirs et les stations de métro, par rapport aux résultats observés dans les espaces ouverts ».

Les performances techniques de l’appareil sont « globalement satisfaisant » pour certains cas d’utilisation tels que « l’intrusion d’individus ou de véhicules dans une zone non autorisée, la circulation dans un sens non autorisé, ou encore la densité de personnes ». Avec toutefois quelques réserves. Concernant la densité de personnes par exemple, “Le logiciel avait parfois du mal à compter trop d’individus (…) à cause de la hauteur des caméras.” L’appareil apparaît en effet “moins efficace lorsque les caméras sont trop proches du public, avec des corps pas entièrement visibles.” Concernant les mouvements de foule, l’efficacité du dispositif est « difficile à évaluer »explique le rapport. « Les quelques retours témoignent des difficultés rencontrées pour identifier les mouvements réels. Le traitement peut notamment assimiler des groupes de personnes circulant dans une même direction, sans précipitation particulière. Il est difficile de définir un regroupement ou des mouvements de regroupement. dispersion rapide.

Un autre point mis en avant par le rapport est celui des objets abandonnés. Les performances sont jugées « très inégal ». Il existe par exemple une confusion entre les objets laissés sans surveillance et ceux dont la présence sur les lieux n’est pas anormale : « Le traitement assimile ainsi régulièrement du mobilier urbain (bancs, panneaux) ou encore du matériel de nettoyage (poubelles, seaux et machines de nettoyage) et autres objets fixes ou usuels. Plus grave, il assimile parfois des personnes assises ou statiques, notamment des personnes sans abri.

Malgré cela, le rapport indique que « les agents concernés sont globalement satisfaits de la mise en œuvre du système ». « L’intégration des écrans de caméras IA dans les salles de commandement, lorsqu’elle a été réalisée, a contribué à favoriser la complémentarité des caméras classiques et des caméras IA. »

Pour le comité, « abandon, prolongation ou perpétuation » de l’appareil est “un choix politique” ce qui ne rentre pas dans sa mission. Toutefois, la commission considère que si ce système est mis en place, « Une vigilance particulière s’impose (…) notamment pour prévenir tout risque d’usage abusif à des fins licites ou, plus fondamentalement, d’accoutumance à l’utilisation de telles technologies à des fins de surveillance ».

Si l’expérience est prolongée ou rendue permanente, la commission considère qu’il est important que le “législateur” réaffirme plusieurs principes généraux tels que « le contrôle des parlementaires en amont et le saisine des projets de décrets soumis à la CNIL ». Autres principes à réaffirmer : « L’interdiction de la reconnaissance faciale en dehors du contexte judiciaire, l’évaluation constante des questions relatives aux libertés publiques et aux droits fondamentaux »ou même « informer clairement le public de l’étendue exacte de l’utilisation des caméras équipées d’IA au regard de son droit d’accès. » “Il est essentiel”, insiste la commission, “que l’information donnée soit suffisante pour garantir que le public soit informé et qu’il connaisse les droits qui lui sont reconnus par le droit européen et les législations nationales”.

Laurent Nuñez, le préfet de police de Paris, s’est déclaré favorable à la généralisation du système, tout comme le ministère de l’Intérieur et le ministre des Transports, Philippe Tabarot, dans un article du Parisien. Les associations de défense des libertés craignent, de leur côté, une surveillance généralisée malgré la ligne rouge jusqu’ici fixée par le gouvernement : le recours à la reconnaissance faciale.

 
For Latest Updates Follow us on Google News
 

Related News :