Si le logiciel n'est pas disponible en open source, il sera impossible à nos concitoyens de s'assurer de l'absence de certaines dérives involontaires, bien attestées dans ce domaine.
Par exemple, aux États-Unis, un logiciel de traitement des données s'est révélé raciste. Il ciblait majoritairement les personnes de couleur, à cause du contexte dans lequel l'intelligence artificielle avait été entraînée – la discrimination n'était pas due aux programmeurs eux-mêmes, qui n'avaient pas prévu cet effet.
Si nous ouvrons l'accès au code source du logiciel, nos concitoyens pourront s'assurer de l'absence d'une telle dérive, ou, si elle est attestée, la rectifier, émettre une alerte.
En outre, nous ne savons pas quelles seront les exigences de la Cnil et de l'Arcom vis-à-vis des entreprises sollicitées – devront-elles fournir leurs données, pour que l'Arcom vérifie que les solutions logicielles sont irréprochables ?
Nos concitoyens devraient pouvoir s'assurer d'eux-mêmes que ces logiciels sont parfaitement respectueux de nos droits et de nos lois. C'est primordial, d'autant que nous savons désormais que certaines dérives liées à l'entraînement des logiciels ne se révèlent qu'avec le temps.