Publié le 15 mars 2023 par : Mme Ménard.
Supprimer cet article.
L'article 7 de ce projet de loi vise à autoriser, à titre expérimental, le traitement algorithmique des vidéos qui seront enregistrées aux abords des événements sportifs olympiques.
Si l'on ne peut que partager la volonté d'assurer la sécurité des personnes, celle-ci ne peut se garantir au détriment de leur liberté et de la protection de leurs données. Choisir cette technologie n'est d'ailleurs pas anodin car les Jeux Olympiques et Paralympiques de 2024 est un « méga-évènement » qui, par sa dimension exceptionnelle, va permettre d'accélérer certaines politiques et même certains changements dans notre société, notamment par une hyper surveillance qui pose naturellement certaines questions éthiques. Des changements que d'ailleurs nous n'aurions peut-être pas acceptés en temps normal.
Véritable vitrine sécuritaire pour les pays organisateurs, l'organisation des Jeux Olympiques pose question.
La première d'entre elle est celle de la fin de cette expérimentation : ne sommes-nous pas en train de nous voiler la face, puisque nous le savons, les expérimentations sont rarement abandonnées. Malheureusement c'est à craindre. Une crainte qui s'explique par la technologie utilisée.
De quoi parlons-nous ? Il s’agit tout simplement de l’automatisation du travail d’analyse des images de vidéosurveillance grâce à un logiciel qui se charge de produire des notifications lorsque qu’il détecte un événement qu'il a été entraîné à reconnaître à partir des flux vidéos issus des caméras de vidéosurveillance.
Pourquoi y recourir ? La raison le plus souvent invoquée est simple : visionner des vidéos est long et chronophage pour la police.
Pourquoi est-ce problématique ? Pour que le système fonctionne, il faut, pour entraîner les algorithmes, collecter, rassembler et traiter des millions d'heures d'images de personnes et donc de traitements de données personnelles. Par ailleurs, le choix du jeu algorithmique influence mécaniquement et fortement les décisions finales de celui-ci ; or ces arbitrages sont, à part entière, des décisions politiques qui devraient appartenir au législateur et non à des programmateurs. Enfin, pour entraîner un algorithme, il faut recourir à des images labellisées (c'est-à-dire validées par l’œil humain). Or cette étape de la labellisation est comparable au pouvoir d'un juge puisque c'est une personne qui va dire quel tel ou tel comportement est répréhensible.
Par ailleurs, il apparait que l'algorithme ne connaît pas la nature ou la sensibilité des données qu'il traite. Il ne fait que chercher des corrélations entre des variables. Une image contenant des données biométriques (très sensibles par essence) ou une image d'un objet seront traitées de la même manière. En somme, l'algorithme va consommer toutes sortes d'informations sans être capable de les classer par ordre d'importance.
Enfin, il est prévu à cet article 7 que le traitement des données doit être « loyal, objectif et de nature à identifier et prévenir l’occurrence de biais et d’erreurs. » Ce triptyque d'intention n'est malheureusement pas accordé avec la réalité puisque les raisonnements et chemins d'apprentissage qui permettent de parvenir à un modèle final ne peuvent jamais être maîtrisés totalement... Et puis, comment ne pas souligner que certains algorithmes comportent énormément de couches, ce qui les rend totalement opaques dans leur fonctionnement.
Pour toutes ces raisons, il convient de supprimer cet article et developper d'autres dispositifs pour assurer la sécurité de ceux qui assisterons aux Jeux comme celle des athlètes.
Aucun commentaire n'a encore été formulé sur cet amendement.