Preuve en est, les dispositifs d'intelligence artificielle testés sur les réseaux sociaux sont rapidement devenus des monstres acharnés de haine : ils n'apprennent pas et sont confrontés à une accumulation d'informations allant dans le sens voulu par leurs créateurs.
Dans son avis du 8 décembre sur le projet de loi, la CNIL considère que les outils d'analyse automatisés des images peuvent entraîner des risques importants pour les libertés individuelles et collectives, ainsi qu'un risque de surveillance et d'analyse dans l'espace public : on ne peut pas dire qu'elle soutienne franchement votre dispositif. Le Conseil d'État estime que le traitement des images est susceptible de mettre en cause la protection de la vie privée ainsi que d'autres droits et libertés fondamentales, telles que les libertés d'aller et venir, d'opinion et de manifestation. La transparence et l'accessibilité des traitements algorithmiques sont essentielles : le flou n'est pas acceptable alors que les forces de l'ordre décideront ou non d'intervenir, pendant une période prétendument courte mais en réalité bien longue, sur la base de l'analyse de ces algorithmes ; les ordres donnés et les moyens d'accumulation des informations ne peuvent rester hors de tout contrôle car le risque existe que ces informations soient utilisées de manière obsessionnelle contre certains comportements et certaines personnes.
Les écologistes proposent donc que les traitements algorithmiques soient rendus accessibles au public sous un format ouvert et librement réutilisable et que les données et les images ne puissent être ni cédées ni vendues. Si cet amendement était adopté, on pourrait commencer à vous croire sur le fait qu'il ne s'agit pas d'une grosse opération commerciale.