Intervention de Mounir Mahjoubi

Séance en hémicycle du mercredi 7 février 2018 à 21h30
Protection des données personnelles — Article 14

Mounir Mahjoubi, secrétaire d'état chargé du numérique :

Ces technologies algorithmiques sont de plus en plus utilisées dans notre monde, non seulement dans l'économie, mais aussi dans l'administration. Une décision algorithmique peut être plus juste qu'une mauvaise décision prise au terme d'un processus mal organisé. Il n'est pas envisageable que l'administration se prive de ces innovations. Cependant nous rappelons toujours une exigence, qui figure dans ce texte : la maîtrise. Aucun algorithme non explicable ne pourra être utilisé. Vous l'avez rappelé : les algorithmes de décisions judiciaires sont interdits et continueront de l'être.

Le RGPD prend en compte ces évolutions et autorise le recours aux algorithmes pour fonder des décisions individuelles, à condition de prévoir les mesures appropriées pour la sauvegarde des droits et des libertés : c'est l'objet de l'article 14.

Je voudrais à présent aller dans le détail, pour vous expliquer comment ces garanties seront mises en oeuvre. La première, c'est l'information de l'usager, dont nous avons parlé tout à l'heure. Lorsqu'une décision le concernant a été prise sur la base d'un algorithme, il peut obtenir, sur simple demande, la communication des règles qui ont défini le traitement algorithmique et ses principales caractéristiques. Cela répond à l'objectif de transparence de l'action de l'administration, et crée un droit à l'explication pour l'usager. La commission des lois a clarifié le texte sur ce point, et je vous en remercie.

Je n'ai pas rappelé tout à l'heure qu'il existe une autre obligation, plus générale : le contenu et les règles de tous les algorithmes significatifs seront disponibles en open data, sans qu'il y ait pour cela besoin de formuler une demande, afin que la société civile, les experts, puissent s'en saisir. Je ne pense pas que l'ouverture globale permette à chaque citoyen de comprendre l'algorithme. En revanche, leur ouverture, leur demande, leur traitement par ceux qui veulent plus de transparence, permettront de diffuser cette confiance et cette maîtrise.

La deuxième garantie, c'est le droit au recours, qui implique une intervention humaine a posteriori. Ce droit à une intervention humaine est maintenu, et il s'applique à tous. Il s'agit du droit à un recours hiérarchique ou gracieux contre toute décision administrative individuelle – qui est de droit commun. Ce droit historique, je le répète, est maintenu : lorsqu'une personne concernée par une décision reposant sur un traitement automatisé de données le voudra, ce traitement sera bien repris en main par un humain. Je le rappelle encore une fois : cette possibilité sera conservée.

L'autre élément essentiel est l'exclusion des données sensibles, que le Gouvernement a souhaitée bien qu'elle ne soit pas obligatoire aux termes du RGPD.

Enfin, vous l'avez rappelé, madame la rapporteure, il y a pour ce qui est des décisions administratives une obligation de maîtrise du traitement algorithmique par le responsable du traitement. Cela signifie que les algorithmes boîte noire, c'est-à-dire ceux qui apprennent d'eux-mêmes, qui au fur et à mesure de leur utilisation peuvent prendre une décision dans un sens plutôt qu'un autre sans que celui qui l'a créé soit capable de définir pourquoi l'algorithme est allé dans un sens ou un autre, sont interdits et continueront de l'être.

Pour le Gouvernement, ces garanties permettent de répondre à vos inquiétudes. Un cadre juridique trop figé risquerait de nous empêcher d'innover, ce qui est pourtant essentiel. La CNIL, dans son dernier rapport sur l'éthique de l'intelligence artificielle et des algorithmes, nous invite à d'autres futurs. Elle invite à s'interroger sur l'opportunité de l'intervention humaine autrement qu'à l'échelle de chaque décision individuelle. L'avenir est là, et mes équipes comme la CNIL travaillent beaucoup sur ces sujets.

Le gouvernement précédent avait saisi l'Institut national de recherche en informatique et en automatique, l'INRIA, du sujet de la transparence des algorithmes avec TransAlgo. J'avais moi-même travaillé sur ce sujet au sein du Conseil national du numérique. Ces sujets continuent d'être des sujets de réflexion ; il sera très important d'être capable de les maîtriser quand ces algorithmes seront partout dans l'administration et dans la société. Il faudra alors être capable de les analyser et d'en garantir la transparence.

C'est aussi un des enjeux du rapport que le Gouvernement a confié à M. Cédric Villani. Il abordera ce sujet dans ses conclusions et le Gouvernement aura à se prononcer sur la capacité technologique de l'État à développer des algorithmes plus justes, plus transparents, mais aussi à les contrôler pour apporter plus de valeur au citoyen.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.