Office parlementaire d'évaluation des choix scientifiques et technologiques

Réunion du jeudi 6 juillet 2023 à 9h30

Résumé de la réunion

Les mots clés de cette réunion

  • controverse
  • office
  • scientifique
  • technologie

La réunion

Source

Office parlementaire d'évaluation des choix scientifiques et technologiques

Jeudi 6 juillet 2023

La réunion est ouverte à 9 h 30.

Rencontre sur « Quatre controverses scientifiques d'actualité »

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Au nom de tous les parlementaires de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), je souhaite remercier le Président Gérard Larcher qui a accepté d'ouvrir cette réunion organisée dans le cadre du quarantième anniversaire de l'Office, occasion pour nous de présenter le bilan de ce qui a été réalisé à travers cet organisme depuis quarante ans. La journée d'hier à l'Assemblée nationale et celle d'aujourd'hui au Sénat nous permettent également de nous projeter dans l'avenir et de réfléchir au fonctionnement et à la vocation de l'Office et à ce que nous pourrions encore améliorer.

Cher Président, cher Gérard, tu as devant toi un bataillon indéfectible de parlementaires assidus et passionnés qui ont appris à travailler ensemble, avec la diversité de leurs formations, et produisent des travaux paritaires, associant toujours un député et un sénateur.

Aujourd'hui, nous allons nous pencher sur le thème original des controverses scientifiques, pour en évoquer les enjeux et montrer en quoi elles sont animées, parfois tranchées. Hier, à l'Assemblée nationale, nous avons travaillé sur le thème de la science et la politique, dans la salle Victor-Hugo, qui fut lui-même un grand sénateur. Nous avons également travaillé sur le sujet plus concret de l'évaluation scientifique et technologique au service du Parlement. La technologie influe plus directement que la science sur les décisions d'investissement et de soutien. Les députés et sénateurs sont alors concernés au premier chef, dans le cadre de leur ancrage départemental.

Je redis que nous sommes très heureux que tu participes à l'ouverture de cette séance, ce qui représente une garantie pour la qualité de nos travaux.

Permalien
Gérard Larcher

, Président du Sénat. – M. le président de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, cher Pierre Henriet, M. le premier vice-président, cher Gérard Longuet, merci pour vos propos. Je vois avec plaisir des anciens présidents de l'OPESCT : Henri Revol, Jean-Yves Le Déaut, qui a eu comme Victor Hugo, une fonction quasiment in eternam. Je salue également Cédric Villani et Bruno Sido. Je salue les membres anciens et actuels de l'Office, les académiciens, les responsables des grands organismes de recherche, et je salue les sénateurs.

C'est un plaisir de célébrer avec vous le quarantième anniversaire de l'Office. La loi du 8 juillet 1983 a instauré, à la suite d'un vote unanime de chaque assemblée, cette structure originale, utile et efficace. Nos prédécesseurs ont souhaité doter le Parlement d'un organisme commun pour l'informer sur les conséquences des grand choix scientifiques et technologiques, et éclairer ainsi la décision parlementaire. Lors des travaux préparatoires furent évoqués de grands sujets, toujours d'actualité aujourd'hui : le spatial – nous avons assisté hier soir au dernier lancement d'Ariane 5 –, le nucléaire et ses déchets, la génétique, l'informatique, etc.

L'Office compte un nombre égal de députés et sénateurs avec une présidence tournante entre Assemblée et Sénat, et s'impose comme un lieu de « fabrique de consensus » selon les mots de Jean-Yves Le Déaut. La force de l'Office repose sur ces rapports approfondis et communs entre députés et sénateurs et sur l'adoption le plus souvent consensuelle de ces rapports – 250 rapports depuis le début de son existence.

Malgré les vicissitudes de la vie politique, l'Office n'a jamais renoncé à l'adoption d'un rapport, recherchant toujours le compromis. Catherine Procaccia pourrait en parler plus longuement, par exemple sur le sujet des nouvelles techniques de sélection végétale, question discutée d'ailleurs hier à la Commission européenne.

L'originalité de l'Office repose aussi sur son conseil scientifique de vingt-quatre personnalités représentatives des différentes disciplines scientifiques et technologiques, qui fournit une expertise précieuse à l'Office.

Une autre originalité repose sur ses modalités de travail.

La première de ces modalités se trouve dans les études sur saisine du Bureau ou d'une commission permanente de l'Assemblée nationale ou du Sénat. Quand j'étais président de la commission des affaires économiques, j'ai saisi l'Office sur des sujets en lien avec les télécommunications. Hier, le Bureau du Sénat, conjointement avec celui de l'Assemblée nationale, a décidé de saisir l'Office sur les nouveaux développements de l'intelligence artificielle. La technologie en la matière avance très vite, comme le grand public peut le constater.

L'Office a également élargi ses modalités de travail en organisant des auditions publiques d'actualité. Ces auditions contradictoires sur des sujets souvent complexes et parfois controversés ont permis d'éclairer le Parlement sur de nombreux sujets : les OGM, la stratégie vaccinale, l'expérimentation animale, l'usage d'algorithmes dans certaines politiques publiques, etc. Je citerai également une audition « électrique » sur les soudures de l'EPR de Flamanville, cher Gérard Longuet. Ces auditions ont deux particularités : elles permettent d'aboutir à des conclusions assorties de recommandations et elles sont également ouvertes aux questions des internautes en direct, ce qui est une marque d'un Office vraiment à l'écoute du grand public. Non seulement au carrefour de la science et du Parlement, il est aussi au carrefour de la science et de la société.

Une autre modalité du travail de l'Office se retrouve dans les notes scientifiques. Ce nouveau format a été instauré par Cédric Villani et Gérard Longuet. Au rythme d'une dizaine par an, dans un format court et synthétique de quatre pages, avec notes et références, elles explorent des sujets très divers souvent en lien avec les travaux parlementaires et marquent une véritable réussite, par exemple sur le stockage de l'électricité, les technologies quantiques, la phagothérapie, l'huile de palme, le recyclage du plastique, la pollution lumineuse, etc.

L'Office est également chargé par la loi de l'évaluation de certaines législations ou politiques publiques. Je pense par exemple aux lois sur la bioéthique, au domaine nucléaire, avec le contrôle de la sureté et la gestion des déchets radioactifs. Le Président du Sénat désigne d'ailleurs un membre du collège de l'Autorité de sûreté nucléaire.

Dans le contexte actuel de renouvellement du nucléaire, l'Office a un rôle éminent à jouer : son rapport à venir sur la sûreté nucléaire est très attendu. Il nous permettra de regarder les choses avec la sérénité nécessaire.

Il est difficile de citer tous les travaux et, encore plus, tous les députés et sénateurs qui y ont participé, mais je veux souligner l'engagement de tous, à travers les réunions, auditions, visites de laboratoires, et rencontres avec des scientifiques, français ou étrangers. Cela est très précieux pour le Parlement.

Pour ces journées anniversaires, je rappelle que vous avez souhaité consulter le public, qui a ainsi sélectionné les quatre thèmes débattus ce matin. C'est, à mon avis, une démarche utile et essentielle pour le lien avec les citoyens que nous représentons.

Vous allez donc travailler sur les questions suivantes :

– Peut-on satisfaire nos besoins énergétiques avec les énergies renouvelables ?

– Réduire l'impact des produits phytosanitaires agricoles, est-ce mettre en danger la production alimentaire ?

– Peut-on capter et stocker davantage de CO2 ?

– L'intelligence artificielle est-elle une menace ?

Nous vous avons d'ailleurs également saisis sur ce dernier thème. Lors de la réunion du Bureau du Sénat hier, que je présidais, Pierre Laurent, entre autres, nous a rappelé l'importance de cette saisine.

Je souhaite saluer le premier vice-président Gérard Longuet et le remercier pour tout le travail accompli en tant que parlementaire, ministre et ici comme premier vice-président de l'Office. Je n'oublie pas ses propos « prophétiques » sur le nucléaire lors de la discussion d'un projet de loi en 2015 qui prévoyait la réduction à 50 % de la part du nucléaire dans la production d'électricité d'ici 2024, c'est-à-dire l'année prochaine. Vous prédisiez d'ailleurs la réouverture de centrales à charbon, ce qui a été fait à Saint Avold. Je pense que les ministres et les parlementaires ont toujours intérêt à s'appuyer sur la science et la technologie.

Merci, cher Gérard Longuet, ainsi que tous vos prédécesseurs, pour cet engagement.

Au nom du Sénat tout entier, je souhaite un très bon anniversaire à l'Office.

En ces temps de défiance envers la science, de discours obscurantistes et de raccourcis scientifiques, le rôle de l'Office n'en est que plus essentiel pour éclairer non seulement les parlementaires, mais également les médias et la société tout entière. Je formule le vœu que l'Office poursuive son travail d'intérêt général au service de la science, de la société et du Parlement. Nous en avons besoin encore plus que jamais.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Je propose à présent de lancer les débats sur les controverses, avec l'idée d'en proposer des approches différentes tout en trouvant une position qui puisse fédérer une action collective nationale.

Première controverse : « Peut-on satisfaire nos besoins énergétiques avec les énergies renouvelables ? »

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Cette première question est prudente et malicieuse. Nous avons, pour animer cette controverse, deux intervenants, David Marchal, directeur exécutif adjoint expertises et programmes de l'Agence de la transition écologique (Ademe), et Valérie Faudon, déléguée générale de la Société française d'énergie nucléaire (SFEN), dont nous connaissons l'engagement et la combativité.

Nous allons ouvrir le débat avec le point de vue de l'Ademe avec David Marchal et découvrir comment l'agence voit le rôle des énergies renouvelables.

Permalien
David Marchal, directeur exécutif adjoint expertises et programmes de l'Agence de la transition écologique (Ademe)

. – Je vous remercie d'avoir invité l'Ademe pour l'anniversaire de l'Office.

L'Ademe a dans ses missions de lever les freins au déploiement des énergies renouvelables, en éclairant tous les débats autour de ces énergies. Nous assurons notre rôle d'agence d'expertise et de financement, qui tire son expertise des projets qu'elle finance : financements de la recherche-développement, d'études économiques et de potentiel. Nous sommes également financeur du déploiement de certaines de ces énergies renouvelables, au titre notamment des fonds Chaleur et Décarbonation de l'industrie, ce qui nous permet d'être au contact du terrain.

Je rappelle le contexte de notre approvisionnement énergétique : nous consommons 1 600 térawatts-heure d'énergie finale (chiffres 2021). Cette énergie est à 60 % d'origine fossile, 20 % nucléaire et 20 % renouvelable. Elle est répartie selon différents vecteurs : 27 % électricité, 23 % gaz et 50 % pétrole. Cette énergie est consommée pour moitié par le bâtiment tertiaire et résidentiel, principalement sous forme de chauffage, et pour 30 % par les transports. Cet état des lieux montre notre grande dépendance actuelle car 60 % de notre énergie est importée et seulement 20 % est renouvelable.

Sachant cela, il nous faut étudier la part que peuvent représenter les énergies renouvelables dans le futur. Des études ont été réalisées depuis plusieurs années. Récemment, fin 2021, l'Ademe a publié un travail de prospective nommé « Transition 2050 » autour de quatre scénarios avec une société française neutre en carbone. Nous allons au-delà de l'aspect énergétique, en interrogeant l'alimentation, l'agriculture, l'évolution des mobilités et les questions de mix énergétique.

Je rappelle que la question posée parle d'énergie, et pas seulement d'électricité. Les énergies renouvelables sont donc assez variées. À ce jour, ces énergies sont essentiellement de la biomasse puis de l'électricité. Celles qui ont une très forte dynamique, l'éolien et le photovoltaïque, sur lesquels l'essentiel des efforts repose, ne représentent qu'une faible part. En 2050, la part des renouvelables dans les mix énergétiques des scénarios varie entre 70 % ou plus, quels que soient les choix sur le nucléaire. Ces énergies bénéficient donc d'une belle voie de progression devant elles, avec une perspective de production multipliée par trois par rapport à aujourd'hui.

J'insiste sur le fait que nous sommes devant un bouquet d'énergies renouvelables, mais la transition ne se fera pas uniquement avec les énergies davantage appréciées car non « visibles » (marine, géothermie). Il faudra donc compter sur l'éolien… C'est une certaine diversité qui est facteur de résilience. Ce choix représente par ailleurs un facteur de souveraineté à travers une production locale qui se substituera aux importations (à hauteur de 85 % pour les produits pétroliers à l'horizon 2050). Ce choix est également économique : le renouvelable a longtemps été plus cher, mais nous arrivons actuellement à une meilleure compétitivité, non seulement du fait de la crise récente mais aussi des progrès technologiques. Aujourd'hui, les questions concernent les coûts de financement et les travaux de RTE et de l'Ademe montrent que le choix n'est plus économique mais politique et industriel.

La chaleur renouvelable repose aussi sur une logique économique. Le fonds Chaleur de l'Ademe a coûté à l'Etat, au contribuable, 3,5 milliards d'euros de subventions en 10 ans pour 40 térawatts-heure de chaleur renouvelable produits actuellement. Le prix du gaz observé l'an dernier a remboursé intégralement en un an ce fonds Chaleur.

Pour évoquer l'appropriation locale, nous sommes face au projet ambitieux de multiplier par trois la production des énergies renouvelables sur des territoires avec des besoins et des potentiels différents. Actuellement, dans le cadre de la planification écologique, la question se pose de la répartition de ces énergies sur les territoires. Il convient ici de réconcilier les schémas régionaux remontant des territoires avec les schémas nationaux.

Pour terminer, ces énergies renouvelables ont des potentiels techniques importants, mais nous ne devons pas oublier que les gisements sont limités. Il sera difficile d'aller à plus de 1 000 térawatts-heure de production d'énergie renouvelable en 2050. Notre consommation doit dont être réduite (elle est actuellement de 1 600 térawatts-heure), via les technologies mais aussi l'évolution des comportements, ce que nous nommons la sobriété, qui ne signifie pas la privation.

J'évoque un dernier point. De nouveaux objectifs européens existent aujourd'hui pour l'horizon 2035. Ainsi, l'objectif d'une réduction drastique – moins 55 % – d'émissions de CO2 change la donne. L'enjeu est de développer les énergies renouvelables pour cette échéance car nous ne pourrons pas compter sur le nucléaire, dont les nouvelles installations n'entreront pas en service à cette date.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Je vous remercie pour votre intervention et je passe la parole à Valérie Faudon.

Permalien
Valérie Faudon, déléguée générale de la Société française d'énergie nucléaire (SFEN)

. – Nous sommes très touchés de votre invitation. Nous avons nous-mêmes fêté hier les cinquante ans de la SFEN et les cent cinquante ans de la Société française de physique.

Nous avons regardé d'anciens débats présidentiels et avons constaté que la controverse « nucléaire vs renouvelable » y était déjà présente. Selon moi, la controverse se place autour de l'idée du 100 % renouvelable. Elle n'existait pas en 1981, François Mitterrand souhaitant un mix, ce qui était aussi le cas pour Ségolène Royal et Nicolas Sarkozy en 2007. La controverse actuelle apparaît dans le débat de 2012.

Selon moi, la question est d'abord politique car le nucléaire porte des halos symboliques : la bombe, la place de l'Etat, la science, la décroissance, voire le patriarcat. Beaucoup de gens y sont donc opposés.

Cette controverse s'avère compliquée car elle utilise des modèles qui valident des thèses scientifiques. C'est le cas en France, par exemple avec les scénarios de négaWatt, mais également aux États-Unis où Bernie Sanders prône un modèle 100% renouvelable en s'appuyant sur des modèles universitaires. Cette situation complique pour les citoyens la compréhension des enjeux avec peu d'informations sur la méthodologie et les données utilisées. Cependant, nous ne connaissons pas les conditions de 2050. Nous devons aussi faire preuve d'humilité car les chocs pétroliers, le gaz de schiste, la crise en Ukraine n'étaient pas prévus. Il convient donc de choisir la trajectoire la plus robuste et la plus résiliente.

De nombreux travaux existent (Ademe, négaWatt, mais aussi pro-nucléaires), mais aucun ne se base sur une hypothèse de 100 % nucléaire.

Je vais insister sur les scénarios RTE car leur méthodologie a été partagée par tous les acteurs français. Ils s'appuient sur trois niveaux de consommation : moyen de référence (scénario Stratégie nationale bas carbone SNBC), plus faible (sobriété) et plus fort (réindustrialisation profonde ; vertueux car relocalisation en France avec une production bas carbone).

Un nouveau scénario est en cours de réalisation chez RTE avec une perspective haussière de la consommation d'électricité très forte, mais en restant à 1 600 térawatts-heure en 2035, du fait de la demande d'hydrogène dans l'industrie et de l'arrivée des e-fuels dans l'aviation.

Je tiens à rappeler qu'une confusion a longtemps existé entre énergie et électricité. Or il nous faut baisser la consommation d'énergie, et pour cela il nous faut augmenter la consommation d'électricité.

Nous sommes donc devant des scénarios établis fin 2021 et avec trois niveaux de consommation et six trajectoires : trois sans renouvellement du parc nucléaire, trois avec un renouvellement progressif. Cette étude nous indique qu'il existe une différence de coûts, mais que ce sont des coûts de réseau Enedis-RTE et des coûts d'entretien. Ces coûts système jouent donc aujourd'hui à travers la distribution, le transport et l'équilibrage du réseau. Ce scénario de RTE présente aussi le mérite de poser la question de la robustesse du réseau.

Je vais évoquer les forces et les faiblesses du nucléaire. Concernant les faiblesses, nous devons nous interroger sur notre capacité à construire tous les EPR. Selon nous, il est important de lancer les constructions et d'atteindre ensuite un « rythme de croisière ». Il convient aussi de savoir si les réacteurs peuvent avoir une durée de vie supérieure à 60 ans pour ne pas avoir à fermer tous les réacteurs simultanément. Le financement, prévu actuellement à 4 %, pose aussi question, ainsi que la place du contribuable et du consommateur dans celui-ci.

Concernant les énergies renouvelables, les risques identifiés consistent en notre capacité de proposer un déploiement à la vitesse requise, plus élevée que celle de nos meilleurs voisins. Se pose aussi la question de la disponibilité, des flexibilités, donc du stockage.

Nous sommes convaincus de l'importance du nucléaire dans notre système au niveau français mais aussi au niveau européen pour stabiliser l'ensemble du réseau. Au niveau français, je souhaite que nous arrivions à un consensus sur cette question.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Je vous propose de passer aux questions.

M. Gérard Larcher, Président du Sénat, quitte la séance.

Permalien
Premier intervenant

. – Il convient de comparer non pas les coûts de production mais les coûts système. Entre les scénarios de RTE à 50 % de nucléaire et les scénarios les plus ambitieux en énergies renouvelables, nous notons des coûts complets de 20 milliards d'euros par an. En me référant aux propos que vous avez tenus sur les coûts du gaz l'an dernier, si nous appliquons le même raisonnement à l'électricité, l'EPR de Flamanville serait rentabilisé en trois ans.

Permalien
Deuxième intervenant

. – J'ai une question pour David Marchal et je souhaite évoquer la situation de la Bretagne. Cette région ne dispose pas de capacité nucléaire, et 80 % de l'électricité consommée y est amenée par RTE. Peut-on envisager que l'Ademe et la région travaillent ensemble sur le sujet ?

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Je complète cette question en évoquant les plaques territoriales. Des situations telles que celle de l'Allemagne ou de l'Espagne, par exemple, sont-elles intégrées par l'Ademe ? Je constate par ailleurs que le vote écologiste se trouve dans des régions sans éoliennes, par exemple en Alsace…

Permalien
Troisième intervenant

. – Je souhaite poser une question sur les souverainetés inhérentes à la production locale d'énergie. Qu'en est-il des ressources minérales nécessaires au redéploiement du nucléaire mais aussi des renouvelables, en lien avec la position de la Chine sur ces ressources ?

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Le concept de système est pertinent car il ne faudrait pas créer un problème en voulant en résoudre un autre, tel le sapeur Camembert.

Permalien
Quatrième intervenant

. – Je souhaiterais savoir dans quelle mesure les considérations de souveraineté industrielle et technologique sont intégrées dans les différents scénarios ?

Permalien
David Marchal, directeur exécutif adjoint expertises et programmes de l'Agence de la transition écologique (Ademe)

. – Sur le sujet du mix électrique, depuis 2017, des études sont réalisées avec l'horizon 2050. L'Ademe y prend en compte les coûts complets. Il est important de ne pas présenter mes propos comme une opposition au nucléaire, car je rappelle que 45 % de notre consommation d'énergie finale ne sera pas de l'électricité et qu'il faut développer la part de chaleur renouvelable.

Concernant l'interdépendance des régions, nous assistons à un changement majeur. L'augmentation de la production locale ne doit pas conduire à l'autarcie des régions ou à des territoires à énergie positive. En effet, davantage de solidarité s'avérera nécessaire à l'avenir. Des études plus locales peuvent être menées et nous savons déjà que des enjeux de transferts importants entre régions existeront. Nous menons également des travaux sur les outre-mer.

Nous étudions les questions de plaques industrielles à travers les ZIBAC (zones industrielles bas carbone), mais ces études ne s'étendent pas au-delà des frontières, ou très peu.

Sur le sujet des ressources minérales, il convient d'avoir à l'esprit que c'est l'évolution de nos consommations qui aura la plus grande influence, par exemple avec les voitures électriques et l'utilisation du lithium.

Pour la souveraineté, des scénarios prévoient en effet de relocaliser des productions industrielles. Nous finançons pour cela de grands projets de réindustrialisation avec, entre autres, des projets d'usines de batteries. Aux niveaux français et européen, le marché des énergies renouvelables à l'horizon 2050 permet des investissements rentables.

Permalien
Valérie Faudon, déléguée générale de la Société française d'énergie nucléaire (SFEN)

. – Sur la question des matières, des travaux sont en cours. Il existe un réel enjeu sur le système électrique et la consommation de cuivre augmentera de manière très importante.

Le nucléaire se révèle plutôt sobre car les constructions ont une durée de vie de 60 à 80 ans. Mais la question de l'uranium se pose et un nouveau rapport de la World Nuclear Association est attendu en septembre prochain. Il est à noter que nous disposons de ressources importantes sur notre sol avec l'uranium appauvri.

Sur la question de la souveraineté, des relocalisations sont en cours, chez Framatome par exemple. Une chaîne française existe, mais penser à la chaîne européenne est également important, pour pouvoir accompagner l'ensemble des pays européens. Les Etats-Unis sont déjà présents en Pologne et en Roumanie.

Enfin, je remercie l'Office pour son travail d'accompagnement du programme nucléaire. Des débats virulents ont parfois eu lieu, insistant sur le fait que la démocratie française était malade du nucléaire, mais le développement nucléaire a toujours été accompagné d'un débat démocratique.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Je conclus en constatant que cette controverse donne lieu à des débats d'une qualité croissante, car plus respectueux des points de vue des uns et des autres. Je pense que le nucléaire était plutôt malade de la démocratie et du scrutin majoritaire à deux tours et pas l'inverse. Quand les personnes bénéficient de l'électricité bon marché, le système fonctionne. Mais l'inverse est aussi vrai et se ressent sur les scrutins électoraux. Les controverses peuvent être d'autant plus raisonnées que nous arrivons sur la réalité des difficultés, point rassurant pour la démocratie française.

* * *

Deuxième controverse : « Réduire l'usage des produits phytosanitaires agricoles, est-ce mettre en danger la production alimentaire ?

Permalien
Jean-Yves Le Déaut, ancien président de l'Office

. – Nous abordons la deuxième controverse : réduire l'usage des produits phytosanitaires agricoles, est-ce mettre en danger la production alimentaire ? Elle propose un sujet majeur mais peu abordé par l'Office sauf concernant le chlordécone comme cela a été rappelé précédemment.

C'est un sujet au cœur de l'actualité. Pourquoi n'allons-nous pas plus vite vers une agriculture sans pesticides ? Nous sommes face à un échec quant aux objectifs à atteindre et nous n'arriverons pas à 50 % de réduction en 2030 alors que 43 000 tonnes de produits phytosanitaires sont encore utilisées aujourd'hui. Mais de nombreuses questions sont liées à ce constat : de quels pesticides parlons-nous ? Car quand les pesticides de synthèse baissent, les produits de biocontrôle augmentent. Mais aussi : quels pesticides sont autorisés aujourd'hui ? Existe-t-il des pesticides à faible risque ? Le cuivre et le soufre ne sont-ils pas nocifs ?

D'autres questions se posent en complément. Cette baisse d'utilisation peut-elle entraîner une baisse de la production alimentaire ? C'est la question majeure. Cette interrogation est-elle valable dans tous les pays du monde ?

Christian Huyghe, qui a supervisé de nombreux programmes scientifiques, pourra nous dire si ces solutions à atteindre sont du seul ressort du monde agricole ou s'il convient plutôt d'impliquer tous les publics concernés.

Par ailleurs, les pesticides nuisant à la biodiversité, Valérie Chansigaud pourra répondre à la question de l'impact sur l'environnement et l'homme.

Enfin une dernière question, à l'échelle de la planète, sera de nous demander comment nourrir 10 milliards de personnes sans produits de synthèse. Il sera également important de savoir si nous devons combiner des bouquets de solutions, agro-écologiques, de biocontrôle, numériques, génétiques.

Permalien
Christian Huyghe, directeur scientifique agriculture à l'INRAE

. – Je vous remercie pour votre invitation.

Nous abordons ici un sujet de controverse sociétal. J'apprécie la rédaction de la question : « Réduire l'usage des produits phytosanitaires agricoles, est-ce mettre en danger la production alimentaire ? » car elle traduit un biais majeur qui considère les pesticides comme un intrant, pour lequel il existe une courbe de réponse. Mais les pesticides ne sont pas un intrant. La vraie question est plutôt : faut-il maintenir la protection des cultures ? La réponse est ici positive. Cette protection des cultures a pour but de maintenir les agresseurs en dessous d'un certain seuil de nuisibilité, plutôt que de les éradiquer.

Depuis que le plan Ecophyto a été mis en place en 2009, une absence de réduction de volumes des pesticides chimiques, de synthèse, a été observée pendant dix ans, mais un fléchissement a émergé depuis quelques années. Ceci s'accompagne d'une augmentation régulière des produits dits de biocontrôle, avec en premier lieu le soufre et son large champ d'application, par exemple en viticulture, en protection des céréales. Nous pouvons donc constater un vrai changement dans l'offre et dans l'utilisation de ces produits et nous demander jusqu'à quel point ce système peut aboutir.

Nous rencontrons également deux autres effets de fixation majeurs quand nous évoquons les pesticides :

– la question des alternatives : cette question implique qu'on cherche une « solution miracle ». Il convient plutôt de se demander où trouver des degrés de liberté et quelle sera la consommation alimentaire de demain ;

– la question de la disponibilité des pesticides à long terme. Cette hypothèse est battue en brèche avec les travaux menés sur les soixante-quinze substances actives les plus impactées actuellement. Le risque de génotoxicité lié aux molécules émerge également.

Mais nous devons aussi savoir qu'une baisse d'efficacité des produits est observée, par exemple des herbicides, car les populations sont devenues résistantes. Par ailleurs, nous bénéficions d'un nombre moins important de leviers d'actions et de cibles pour les substances chimiques. Le système est donc amené à évoluer.

Enfin, nous pourrons revenir plus tard sur la question de la réduction de la consommation alimentaire. Pour l'instant, la question se pose d'assurer le même volume de culture avec moins de pesticides. Différents leviers sont alors disponibles.

Le premier levier consiste à réduire la pression : s'il existe moins de bio-agresseurs, moins de produits seront nécessaires. Deux grandes voies existent : les régulations naturelles, pour lesquelles un travail de l'INRAE a abouti en octobre 2022) et l'augmentation de la complexité des paysages agricoles, démarche qui relève de l'agrobiologie, pour réguler les populations mais aussi pour augmenter la production. Il en résulte ainsi davantage de temps disponibles pour les cultures. Ces procédés sont efficaces, peu chers mais peu utilisés car ils nécessitent une transition.

Le deuxième levier est génétique. Proposer des variétés tolérantes aux maladies est pratiqué depuis longtemps mais reste peu utilisé alors que les résultats sont très bons, par exemple les vignes résistantes au mildiou et à l'oïdium. Ici encore, il convient de savoir comment gérer ce processus sur le long terme pour éviter les contournements des plantes. Ce cadre permet aussi l'émergence des nouvelles techniques d'édition du génome et une réflexion sur son utilisation.

Le troisième levier concerne les agro-équipements et le digital. Le potentiel est considérable sur le désherbage mécanique avec, par exemple, une bineuse entre les rangs et sur le rang mise au point en Allemagne, qui fonctionne à une vitesse de 8 km/heure. Des robots existent également, qui sèment et qui désherbent, ainsi que des drones. Nous pouvons aussi évoquer les produits d'éclaircissage sur les pommiers, pruniers, etc., avec un bras qui fait tomber les jeunes fruits inutiles.

Le dernier levier est le biocontrôle, qui marque une rupture totale dans la façon de penser la santé des plantes. Il s'agit ici de réguler une population sans la réduire à zéro, grâce au cuivre ou au soufre. Mais d'autres techniques émergent autour des macro-organimes et de la technique des insectes stériles, des microorganismes, qui ouvrent un champ d'innovation considérable et très prometteur, et enfin des phéromones et des kairomones qui permettent de modifier les paysages olfactifs des insectes.

Tous ces leviers peuvent être combinés, ainsi qu'avec les molécules chimiques en dernier ressort.

La vraie question repose sur la vitesse d'évolution car l'offre doit pouvoir s'aligner et il est important de déverrouiller les systèmes de production. En aval, on doit aussi anticiper la demande alimentaire qui se modifie et gérer les risques associés au passage d'un système à un autre.

Un point important également est celui de l'anticipation des changements liés au dérèglement climatique.

Enfin, je dirai que la recherche a une responsabilité, celle d'attaquer ces nouveaux fronts de science.

Permalien
Valérie Chansigaud, historienne des sciences et de l'environnement

. – Je vais apporter un éclairage différent, à partir d'un point de vue historique sur les pesticides, qui permet d'éclairer et de nous interroger sur les problématiques actuelles.

Les pesticides modernes apparaissent aux États-Unis à la fin du XIXe siècle dans des paysages vastes de monocultures, avec des espèces cultivées non originaires du continent. Ce système écologique est entièrement nouveau. Il représente un paradis pour les espèces d'insectes ravageurs, elles aussi sans concurrence. L'agriculture a ainsi été frontalement touchée.

Dans les années 1870, le monde agricole demande des solutions et le gouvernement américain demande aux scientifiques des préconisations simples, notamment pour les plantations de coton. Ceux-ci proposent les polycultures, et en cas d'atteinte par le charançon, de brûler la production de la parcelle. Des témoignages indiquent que le monde agricole a refusé ce type de solutions.

Les agriculteurs expérimentent d'autres procédés comme l'électricité pour tuer les larves, puis des produits chimiques, dont l'arsenic, produit en Allemagne et majoritairement présent dans les pays occidentaux. Vers 1870, le développement de l'appareillage pour pulvériser apparaît également.

La Première Guerre mondiale et le blocus conduisent au développement des industries chimiques aux États-Unis et l'utilisation de davantage de pesticides. Après la guerre, les avions et les pilotes sont réutilisés pour les épandages.

En 1933 paraît un ouvrage des militants de la cause des consommateurs sur les risques concernant les aliments et les produits de beauté. Ici émerge un problème de fonctionnement de la démocratie car les grandes industries limitent les informations transmises aux consommateurs.

La Seconde Guerre mondiale marque une étape avec une épidémie de paludisme dans le Pacifique, mais sans possibilité d'utiliser la quinine. En Europe, le typhus gagne et menace de détruire les armées. Les États-Unis découvrent le DDT mis au point par un chimiste suisse, alors que l'Allemagne ne semble pas intéressée. Le premier usage en est fait à Naples sur un début d'épidémie de typhus, en 1943. En 1946, le premier cas de résistance est observé, toujours à Naples, chez les insectes. Le DDT est dès 1945 considéré comme une bombe atomique contre les insectes et suscite un véritable engouement. En parallèle toute une recherche scientifique se développe sur ces sujets, mais cette littérature ne circule que dans les milieux autorisés.

En 1963, Rachel Carson fait paraître un ouvrage très important, Printemps silencieux, dans lequel elle fait la synthèse des connaissances scientifiques. Biologiste marine, elle permet au grand public d'entrer dans le débat. Le mouvement environnemental contemporain est ainsi né. En 1970, le DDT est interdit. En France, l'ouvrage est traduit mais sans sa bibliographie et Rachel Carson est présentée comme une journaliste, à tort. Cette émergence des produits chimiques a donc eu lieu dans un premier temps sans implication du grand public et Rachel Carson a effectué un travail de vulgarisation scientifique.

Nous pouvons noter avec intérêt que d'autres sujets sont très peu abordés : la résistance des insectes, connue dès 1943 pour les arsenics, par exemple. La même question apparait en parallèle avec la résistance aux antibiotiques mais sans changement de pratique. Il faut observer à ce propos que peu de réactions politiques ont émergé devant ces problèmes scientifiques mais vous êtes ici, grâce aux travaux de l'Office, l'exemple contraire et je vous en remercie.

La thématique des insectes est aussi marquée par l'introduction des espèces envahissantes. On peut observer ici que les insectes n'étaient pas vecteurs de transmission du Covid-19, ce qui a été une grande chance. Nous avons donc une situation contradictoire entre l'augmentation de ces espèces envahissantes qui posent de grands problèmes, et la volonté de diminuer l'arsenal chimique. Force est de constater que le grand public reste peu au courant de ces questions.

Enfin, concernant le chlordécone, le décalage temporel des réactions de politique publique entre la France et les États-Unis repose, il me semble, sur la petite taille des associations naturalistes en France, contrairement aux États-Unis, et y explique la difficulté de la reconnaissance du problème.

Permalien
Jean-Yves Le Déaut, ancien président de l'Office

. – Je souligne que les États-Unis ont connu un accident dans une usine de chlordécone qui a pu accélérer la prise de conscience.

Permalien
Florence Lassarade

, sénatrice. – Je suis contente que le vin soit vu comme un aliment et non comme un mauvais alcool. Nos viticulteurs ont longtemps été stigmatisés pour l'usage des produits phytosanitaires mais nous constatons un changement de climat et l'utilisation des intrants se révèle considérable cette année pour des raisons climatiques. Par ailleurs, les problèmes d'irrigation risquent de prendre le pas sur les problèmes phytosanitaires. Ainsi, qu'en est-il de l'introduction de cépages résistants dès lors que l'INAO et les AOC bloquent toute évolution ?

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Christian Huyghe a évoqué des mesures qui permettraient de limiter les intrants. Cela fonctionne pour certaines cultures mais pour les betteraves, toutes les solutions ne sont pas efficaces, surtout sur les grandes parcelles. Les interdictions entraînent une baisse de production, la fermeture d'usines et une importation de sucre. Que pensez-vous de ces contradictions ?

Permalien
Christian Huyghe, directeur scientifique agriculture à l'INRAE

. – Pour vous répondre sur le vin et la vitesse d'action de l'INAO, la vraie question est de savoir comment faire évoluer les cahiers des charges en fonction de leurs objectifs et pour intégrer les problématiques de changement climatique et de réduction des produits phytosanitaires. Il est à noter que 5 à 10 % de cépages résistants ont été autorisés à certains emplacements, en bordure de parcelles ou près des habitations, par exemple.

Je connais très bien le sujet de la betterave. Vous soulevez une question intéressante car il conviendrait de savoir pourquoi nous avons attendu 2020, avec une perte de 27 % de production, pour agir, alors qu'on sait depuis 2014 qu'il faut faire quelque chose. Nous sommes donc extrêmement verrouillés autour d'un intrant simple, qui intervient directement sur la graine, avec une vie très longue. Il était important de sortir de cette situation mais les betteraviers souhaitent un produit avec la même action. Nous devons travailler sur plusieurs leviers : introduire des espèces plus résistantes ; retarder la date d'arrivée des pucerons avec des plans de campagnes, puis des kairomones (produits répulsifs) qui présentent des résultats encourageants ; réduire les réservoirs viraux où peuvent aller les pucerons. Cette année, une action forte des agriculteurs sur la repousse a été opérée et nous allons parvenir à de bons résultats. Il n'y a pas de solution miracle mais la mobilisation de plusieurs leviers est possible et on va y arriver.

Permalien
Valérie Chansigaud, historienne des sciences et de l'environnement

. – Toutes ces questions doivent être associées aux sciences humaines et sociales pour comprendre les freins aux changements et les attentes contradictoires du grand public, qui déteste les pesticides… mais aussi les insectes. Revenir à l'histoire permet de comprendre le temps présent.

Permalien
Jean-Yves Le Déaut, ancien président de l'Office

. – Je vous remercie pour cet échange passionnant. Nous noterons que revenir à l'histoire permet de comprendre la situation présente. Les objectifs de production de la CEE des années 1970 ont assigné à l'agriculture des tâches rendues possibles par les produits de synthèse.

Nous avons aujourd'hui une situation différente. J'ai noté le besoin d'une diversité plus importante sur des mêmes lieux alors que des régions françaises sont encore entièrement spécialisées. J'ai aussi retenu que le zéro pesticide, sur lequel travaillent les chercheurs, n'est pas prescriptif. Ce sont des bouquets de solutions qui permettront de maintenir la production des cultures, ce qui est un enjeu majeur. Mais nous constatons également des refus face à certaines solutions.

Avec Catherine Procaccia, nous avons formé un couple scientifique prolifique, avec, entre autres travaux, notre rapport sur la vigne. Nous avions tancé l'INRAE qui craignait les réactions politiques et avait donc pris le temps pour proposer des solutions…

Je note pour conclure que les nouvelles technologies sont nombreuses et doivent nous permettre de tendre vers un consensus.

* * *

Troisième controverse : « Peut-on capter et stocker davantage de CO2 ?

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – La troisième table ronde porte sur la décarbonation, objectif prioritaire de nos politiques environnementales, avec la réduction des émissions. Les technologies offrent quelques solutions prometteuses dans ce domaine, en plus du travail sur la réduction des émissions.

L'Office a déjà travaillé sur le sujet. En 2006, un rapport avait été présenté sur les nouvelles technologies de l'énergie et la séquestration du carbone. Début 2018, une note scientifique sur le stockage du carbone dans les sols a été prolongée, en 2020, par un rapport sur l'agriculture et la production d'énergie. À l'origine de ces travaux, il y avait une interrogation sur la possibilité et la pertinence d'envisager la neutralité carbone à l'aide des technologies de stockage de CO2. Mais cette option relevait-elle d'une illusion ?

Les connaissances scientifiques nous montrent que des solutions pragmatiques existent mais restent difficiles à mettre en œuvre. Deux grandes technologies cohabitent. D'une part, le stockage accru du carbone dans les sols, avec l'initiative « 4 pour 1 000 », dont nous allons parler. D'autre part, le captage et la séquestration du carbone avec ou sans utilisation (CCS ou CCUS). Au-delà du potentiel de ces technologies pour réguler le réchauffement climatique, et alors que le gouvernement vient de lancer une consultation sur la stratégie CCUS, d'autres enjeux peuvent être mentionnés. Nous pouvons citer l'acceptabilité sociale de ces technologies par les citoyens, mais aussi l'accompagnement des industriels et des agriculteurs sur ces procédés possibles mais coûteux, et qui nécessitent des adaptations de nos systèmes productifs. Cet enjeu est important pour notre industrie, dans des secteurs pour lesquels il n'existe pas de décarbonation, par exemple la chaux, le ciment, la chimie, la métallurgie.

Nous proposons ici un parfait sujet scientifique et technologique dans lequel l'approche de l'Office peut éclairer l'action publique et sur lequel nous travaillons depuis une vingtaine d'années.

Je laisse la parole à nos intervenants.

Permalien
Thierry Caquet, directeur scientifique environnement à l'INRAE

. – Je vous remercie pour votre invitation.

Le sujet des sols doit tous nous concerner car les sols de la planète sont des ressources finies, renouvelables mais sur une échelle de temps très longue. Les sols sont donc un patrimoine à protéger car il est menacé par plusieurs processus : l'érosion, la pollution chimique, la salinisation, la désertification, le tassement des sols. Ces processus sont pour certains sous contrôle humain. La Commission européenne estime qu'aujourd'hui 60 à 70% des sols sont dégradés en Europe. Il existe donc un enjeu important à protéger et reconquérir nos sols, y compris au regard de la biodiversité, dont un quart se trouve dans les sols.

L'atténuation du changement climatique amène à s'intéresser au compartiment des sols car celui-ci permet de stocker du carbone à long terme grâce aux processus biologiques actifs dans ces sols. Les projections montrent que nous ne parviendrons à la neutralité carbone en 2050 que si nous avons des puits naturels de carbone car nous ne pourrons pas compenser autrement les émissions résiduelles.

Dans les dimensions naturelles de la neutralité carbone, nous trouvons donc la biomasse (les forêts, par exemple) et les sols, capables de stocker du carbone de manière plus ou moins permanente.

L'initiative « 4 pour 1 000 », initiée en France en 2015 à l'occasion de la COP21, est une vision de ce que nous pourrions faire avec les sols pour compenser en partie nos émissions. Si nous pouvions augmenter la teneur en carbone des sols de 4 pour 1 000 par an, de manière uniforme à l'échelle de la planète et sur 30 cm ou 1 m de profondeur, nous pourrions capter chaque année le surplus d'émission de CO2 – sans toutefois réduire l'existant. Cette vision part du constat que, en dehors de tout objectif climatique, lorsque la teneur des sols en matière organique est augmentée, des bénéfices sont retirés, en premier lieu pour l'agriculture et la production alimentaire. Dans beaucoup de pays, les sols sont décarbonés et une telle réintroduction aurait de nombreux bénéfices, pour la production agricole, pour la biodiversité et pour la rétention de l'eau par les sols. Nous constatons donc des effets collatéraux positifs. Selon moi, ce constat permet de combiner atténuation et adaptation au changement climatique.

Si nous revenons à la situation de la France, nous bénéficions d'un réseau de mesures de la qualité des sols, au travers du Groupement d'intérêt scientifique sur les sols (GisSol), avec une campagne systématique de mesure, en France métropolitaine et dans les territoires ultramarins, avec une revisite régulière des parcelles mesurées. Cette cartographie précise nous permettra de constater si les premières mesures prises donnent déjà des résultats.

En 2017-2018, l'état de ce réseau montre qu'en France, les sols sont hétérogènes, avec des sols forestiers à l'équilibre (80-90 tonnes de carbone par hectare y sont stockées) et des zones déficitaires (50 % de moins), principalement des zones de grande culture comme celles du Bassin parisien. Nous avons dans ce deuxième type de zones la capacité de déployer des leviers agronomiques pour augmenter la teneur en carbone des sols. Ces leviers, par exemple couvrir les sols entre deux cultures principales, introduire de l'agroforesterie ou faire du semis direct, permettraient une augmentation de la teneur des sols en carbone de 4 à 5 pour 1 000 par an pendant une trentaine d'années.

Nous disposons donc d'une capacité théorique à faire, mais la question est de savoir si ce stockage fondé sur des processus naturels peut être permanent. La réponse est non, malheureusement, en cas de changement d'utilisation du sol (passage du champ à la prairie par exemple), mais aussi en cas de phases de sécheresse, qui entraînent un déstockage de CO2.

Le coût de déploiement doit aussi être pris en compte. Les estimations vont de 10-20 à 100 euros par tonne, par hectare et par an.

Il nous faut donc réfléchir au modèle économique à mettre en place. Pour ce carbon farming, des initiatives existent dans le secteur privé, s'appuyant sur des contrats de cinq ans avec une rémunération de 30 à 50 euros par tonne de carbone. Il faut s'interroger alors sur les priorités à retenir et se demander si ces évolutions ne vont pas transformer radicalement le métier de certains agriculteurs.

Je termine par un point que j'estime très important. Le stockage de carbone est une solution mais ce ne sera pas la seule car elle ne concernera que 10 à 12 voire 15 % des émissions telles qu'elles sont actuellement. Nous ne devons pas non plus négliger les autres émissions du secteur agricole qui contribuent au changement climatique, dont les azotes.

Il existe donc des solutions mais la prudence doit s'imposer. Des opportunités émergent, également pour le modèle économique des exploitations agricoles, mais ces opportunités sont pilotées par le vivant et le climat change : nous devons garder à l'esprit que les solutions de 2023 ne pourront pas forcément s'appliquer en 2030-2040.

Permalien
Cécile Barrere-Tricca, directrice à l'IFPEN

. – Je vous remercie pour votre invitation. Je suis ravie d'apporter aujourd'hui l'éclairage de l'IFPEN sur le captage et le stockage du CO2. Nous sommes impliqués dans la recherche et l'innovation dans ces domaines depuis plus de vingt ans.

Ce sujet revient au cœur des débats avec la prise de conscience de l'urgence climatique. En France, ces dernières semaines ont été marquées par la présentation, lors du Conseil national de l'industrie du 23 juin dernier, de la stratégie de Capture, stockage et utilisation du carbone (CCUS) qui compile les retours des 50 industriels les plus émetteurs de CO2 sur le territoire avec un plan de décarbonation. Cette compilation a permis l'élaboration d'une feuille de route par le gouvernement.

Le CCUS est déjà une réalité. Les solutions technologiques existent et sont déployées. Trente unités industrielles de grande taille dans le monde permettent de capter du CO2, stocké ou utilisé. Ce sont 40 millions de tonnes de CO2 concernées. En Norvège, en mer du Nord, un million de tonnes est déjà injecté chaque année dans des aquifères salins profonds, et ce depuis vingt-cinq ans. Mais ceci n'est bien sûr pas suffisant. Les scénarios montrent que les besoins de captage seront de 8 milliards de tonnes à l'horizon 2050, ce qui est considérable.

Le captage de CO2 ne représente qu'une partie de la décarbonation. Selon les scénarios, 15 % de l'effort de réduction des émissions de CO2 devraient venir du captage, du stockage et de la réutilisation. Ce captage doit donc intervenir une fois tous les autres efforts mis en place en amont (sobriété, efficacité énergétique, passage aux énergies renouvelables, électrification des procédés, etc.).

De ce fait, toute une industrie doit se mettre en place, avec le développement, au niveau mondial, d'une dizaine de sites de stockage par an, d'une centaine de sites de captage, de milliers de kilomètres de canalisations pour transporter le CO2. Le captage et le stockage du CO2 coûtent donc cher actuellement et les efforts doivent viser à réduire au maximum les coûts et les consommations d'énergie.

D'autres enjeux existent, dont l'acceptabilité sociétale. Le captage-stockage de CO2 est peu évident à appréhender, car il peut faire peur alors que nous faisons déjà en France du stockage de méthane sans rencontrer de problème. Je rappelle que le CO2 n'est un produit ni explosif, ni inflammable et qu'il ne présente pas de risques hors milieu confiné.

Il existe différentes technologies de captage du CO2 : la précombustion, l'oxycombustion pour produire de la chaleur et récupérer le CO2, et la postcombustion.

Dans la stratégie nationale sont prévus le captage et le stockage de 4 à 8 millions de tonnes de CO2 par an à l'horizon 2030, et 15 à 20 millions de tonnes à l'horizon 2050. Cette ambition représente un investissement de 50 milliards d'euros (tout compris, donc avec la décarbonation de l'industrie), uniquement pour le CO2 incompressible, donc après que tous les autres efforts pour le réduire ont été mis en œuvre.

Sur la recherche et l'innovation, je veux insister sur les technologies avancées en cours de démonstration, chez ArcelorMittal à Dunkerque, par exemple, qui fonctionnent extrêmement bien. D'autres procédés français sont également en cours d'essai en Chine. La recherche et l'innovation se poursuivent donc. Le PEPR Spleen a été inauguré le 30 juin à Lyon. Ce projet de programme prioritaire tend à soutenir l'innovation et à développer de nouveaux procédés industriels largement décarbonés. Les travaux permettront de réduire les coûts et la pénalité énergétique tout en travaillant sur des procédés plus compacts, plus efficaces ; on pourra ainsi élargir ainsi le panel de captage de CO2. J'ajoute que le captage direct dans l'air sera un procédé indispensable à terme, même s'il apparaît encore surréaliste aujourd'hui. Je n'oublie pas non plus la biomasse énergie et les émissions négatives de CO2 pour compenser le CO2 inévitable.

Pour conclure, le captage et le stockage du CO2 existent déjà mais restent à développer avec l'appui de la puissance publique et avec un travail sur l'acceptabilité sociétale.

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Je vous remercie et je vous propose de passer aux questions.

Permalien
Premier intervenant

. – Sur les trois controverses présentées, la cause commune concernant la consommation d'énergie est bien apparue, notamment dans les transports, l'alimentation, l'hébergement, mais qu'en est-il de la baisse de nos consommations globales, des biocarburants, et aussi du problème de l'eau ? Peut-on aller vers un monde où l'on consomme moins d'énergie ?

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

. – Ici, vous proposez un sujet plus large que celui des controverses de cette matinée. Sur la consommation énergétique, l'Office a rendu la semaine dernière un rapport consacré à la sobriété énergétique. Mais cet enjeu dépasse notre thématique de ce jour.

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Je rappelle aussi que le choix des thématiques a été celui des internautes, parmi une vingtaine de sujets proposés.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – J'apporte également une remarque sur les rôles respectifs de l'Office, des deux assemblées et des formations politiques. Notre rôle est de donner aux députés et sénateurs l'état de l'art à un moment donné, mais les faits peuvent se révéler têtus. Les conclusions politiques peuvent être de nature très différentes. Ainsi, un colloque auquel j'assistais proposait une opposition entre « solutionnistes », confiants dans la technologie, et « déclinistes », qui s'appuient sur l'inéluctable. Nous voulons à l'Office que les parlementaires soient éclairés de manière objective, à eux d'en tirer ensuite toutes les conséquences.

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Avons-nous d'autres questions ?

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Est-ce qu'il pourrait y avoir une compétition dans l'usage des sols et à quelle condition de prix ?

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Je complète cette question en demandant quelle est l'acceptabilité aussi bien pour les agriculteurs que les industriels.

Permalien
Thierry Caquet, directeur scientifique environnement à l'INRAE

. – Ce sujet dépasse celui du CO2 et revient à s'interroger sur notre foncier agricole et ce qu'est le métier d'agriculteur.

Si nous procédons à une hiérarchisation des usages des sols, nous trouvons, de manière assez convergente à l'INRAE, la production alimentaire, puis celle pour les animaux, les fibres et la bio-industrie, enfin la production d'énergie. Cette hiérarchie devrait rester la même car utiliser des sols pour la production d'énergie semble être une limite à ne pas atteindre.

Sur l'aspect économique, nous sentons actuellement une tension sur ce qui serait le plus rémunérateur : l'alimentation, l'énergie ou d'autres usages des sols. Nous avons ici un véritable enjeu politique sur le choix de société souhaité pour l'usage des sols. Il faut aussi se demander comment les agriculteurs sont rémunérés et par qui.

En dernier lieu émerge la question du foncier et de la propriété des sols. Là encore, nous sommes devant un sujet très important et de nature politique, si nous considérons les sols comme un bien commun.

Aucune option n'est donc complètement positive et une réflexion collective s'impose mais la production alimentaire semble être la priorité.

Permalien
Cécile Barrere-Tricca, directrice à l'IFPEN

. – J'ajoute que pour les industriels, si engagés soient-ils, la question du coût est importante. Il est primordial de les encourager à aller vers ces solutions, avec des subventions et des contrats car le captage et le stockage du CO2 coûtent plus cher que le CO2 lui-même. Ces solutions sont indispensables, surtout dans le contexte de réindustrialisation dans lequel nous sommes aujourd'hui.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Le stockage pourrait donc être une opportunité pour des sols non utilisables autrement, et ce dans une dimension internationale.

Permalien
Thierry Caquet, directeur scientifique environnement à l'INRAE

. – En effet, cette solution permettrait à des sols de devenir utilisables. Nous aurions ainsi des écobénéfices à prendre en compte à moyen ou long terme.

Permalien
Gérard Longuet

, sénateur, premier vice-président de l'Office. – Pouvons-nous envisager un signal prix acceptable et prévisible à long terme ? Dans un autre ordre d'idée, la tarification de l'énergie électrique en Europe est une des clés de la solution, malgré des points de vue très conflictuels au sein des partenaires européens.

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Je propose de conclure cette table ronde en demandant si finalement cette controverse ne concerne pas d'abord le monde occidental et riche.

Permalien
Thierry Caquet, directeur scientifique environnement à l'INRAE

. – Plutôt qu'une controverse, nous sommes ici davantage dans une convergence de solutions très différentes les unes des autres mais qui amènent vers un même but souhaité.

Je reviens sur la notion de la mesure sans regret : nous pouvons intervenir en premier lieu dans les sols très bas en stock de carbone, donc dans les pays du Sud, où l'on peut avoir le plus rapidement des résultats à un coût raisonnable. Mais il est important aussi de mettre en place des solutions en France. Il faut donc déployer, informer et former les personnes pour le faire.

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Je reviens sur la controverse, qui conduit à s'interroger sur la pertinence du captage. Certaines associations aux Etats-Unis estiment par exemple que cela revient à prolonger l'utilisation des énergies fossiles.

Permalien
Cécile Barrere-Tricca, directrice à l'IFPEN

. – Comme je l'ai dit, le captage et le stockage de CO2 doivent représenter le recours ultime, après la sobriété, le passage aux énergies renouvelables, mais aussi le recyclage.

Ces solutions ne doivent pas être une raison de continuer à polluer. Tous les leviers doivent être activés.

Permalien
Catherine Procaccia, sénateur, vice-présidente de l'Office

. – Je vous remercie. Votre résumé m'évite de conclure.

* * *

Quatrième controverse : « L'intelligence artificielle est-elle une menace ? »

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

. – J'ai le plaisir de présenter notre quatrième controverse : « L'intelligence artificielle est-elle une menace ? », avec un sujet plus que jamais au cœur de l'actualité, et d'accueillir nos deux intervenants.

Depuis sa naissance en 1956 lors de la conférence de Dartmouth, l'intelligence artificielle interroge sur sa dangerosité. Près de soixante-dix ans plus tard, les médias continuent de se demander si elle est une menace. En 2016, nos anciens collègues ont rendu pour l'Office le premier rapport parlementaire sur le sujet sous le titre : « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». L'intérêt pour l'intelligence artificielle et ses éventuels dangers fluctuent dans le débat public. À l'heure de ChatGPT et des IA génératives, nous constatons l'intérêt des travaux de l'Office qui permettent d'actualiser nos connaissances sur les évolutions technologiques et les évolutions du débat public. Le rapport de 2016 faisait déjà le constat que les technologies d'intelligence artificielle progressaient de manière exponentielle, ce que nous avons pu constater avec le deep learning, les big data ou l'accélération de la vitesse de calcul des processeurs.

La science nous montre que l'avènement d'une super intelligence, dite IA forte, est peu probable car contrainte par l'acceptabilité sociale, notamment alimentée par des représentations catastrophiques, par exemple dans la littérature ou le cinéma.

De façon plus réaliste, nous pouvons discuter des menaces réelles, des risques qui doivent être identifiés, anticipés et maîtrisés. Nous pouvons aussi évoquer l'impact de l'IA sur la place dominante et monopolistique de quelques entreprises dans un contexte d'économie globalisée de plateformes, mais également sur le marché du travail. Enfin nous pouvons évoquer la manière de mettre ces technologies au service de l'homme et des valeurs humanistes, selon quels principes – politiques, juridiques et éthiques – et sur quel plan – national, européen, mondial.

Espace de dialogue depuis quarante ans, l'Office a toute sa place dans ce débat. Les Bureaux de l'Assemblée nationale et du Sénat l'ont d'ailleurs saisi pour qu'il poursuive ses travaux sur l'intelligence artificielle. Je remercie pour cela le Président Gérard Larcher. Je laisse la parole à nos deux intervenants pour ouvrir le débat et nous donner des pistes de réflexion pour l'avenir.

Permalien
Raja Chatila, professeur de robotique et d'intelligence artificielle, membre du conseil scientifique de l'Office

. – Je vous remercie pour cette introduction.

L'intelligence artificielle est à la fois un domaine scientifique et une technologie avec un effet important sur la société, grâce à son caractère diffusif qui la rend présente dans tous les secteurs et domaines. Nous devons donc l'appréhender comme un domaine socio-technique. Ce n'est pas un phénomène naturel qui est évoqué ici, mais de sont des objets, conçus et développés par des êtres humains et des entreprises. Notre maîtrise en tant qu'êtres humains et sociétés, en tant que parlementaires et gouvernement, est possible à mettre en œuvre car la simple observation, dans ce cas, ne suffit pas.

Mais il ne convient pas de croire aux annonces alarmistes sur la superintelligence. Ce discours n'est pas fondé scientifiquement, mais dominé par d'autres raisons pour avoir un effet de crainte et donner confiance dans la maîtrise de ces risques, qui doit revenir à la société et à ses organisations.

L'intelligence artificielle, comme toute technologie, doit être correctement maîtrisée et adaptée pour être en accord avec la loi et les droits humains. Il est essentiel d'en comprendre les mécanismes pour la démystifier et les effets pour l'utiliser et la maîtriser, selon les termes du rapport de l'Office de mars 2017 évoqué précédemment.

Mars 2017 a également vu la naissance d'une nouvelle architecture d'intelligence artificielle chez Google, appelée Transformer. Celle-ci a permis une avancée majeure dans le domaine du traitement automatique de la langue naturelle. Cette avancée a entraîné une accélération du développement des systèmes d'intelligence artificielle générative avec, par exemple, ChatGPT, mais aussi le système Bloom en Europe, grâce au supercalculateur Jean Zay. Nous ne sommes donc pas en retard, mais nous devons avoir de la motivation et des moyens pour être acteurs et ne pas se soumettre au bon vouloir de la Californie.

Les recommandations du rapport de 2017 sont toujours valides, mais d'autres apparaissent désormais. Le Comité national pilote d'éthique du numérique, dont nous sommes membres, vient de publier un avis sur les enjeux d'éthique des systèmes d'IA générative. Cet avis propose dix recommandations sur la conception et douze sur la gouvernance.

Par exemple, sur la question de la vérité, ces systèmes mélangent le vrai et le faux, par leur nature même, à cause de leur méthode statistique et corrélative. Or, un accord commun sur des vérités partagées est un socle de la cohésion de la société, on l'a vu lors de l'assaut sur le Capitole. Un accord sur la vérité des faits partagée est donc essentiel et cette menace doit être maitrisée.

Un autre aspect est l'absence de signification et de sémantique. Ces systèmes n'appréhendent pas la signification des mots et des textes, ce sont les humains qui le font. Des textes sans signification peuvent donc être produits et doivent être pris avec la plus grande prudence, sans même parler des images. Il est donc nécessaire de former les utilisateurs à ces limites et problèmes.

Je vais mentionner l'une des applications envisagées : l'éducation (et l'apprentissage) qui est un cheminement dans lequel interagissent le pédagogue et l'apprenant pour acquérir des connaissances et des savoir-faire. Les systèmes d'IA peuvent donner des résultats mais sans mention de qualité ni de source. Il est donc primordial de pouvoir étudier leur effet sur le développement cognitif des élèves avant de les utiliser.

En termes de régulation, ces systèmes doivent être considérés comme à haut risque car, quelle que soit leur utilisation, ils contiennent ce problème de la vérité. La responsabilité des acteurs tout au long de la chaîne de valeur, des modèles de fondation jusqu'aux applications, doit être identifiée. Il n'est pas possible d'exclure de la responsabilité les concepteurs des modèles, par exemple.

Enfin, concernant la réglementation, ces systèmes sont construits à partir de calculs sur de grandes quantités de données présentes sur Internet. Les questions de la protection des données personnelles et de la propriété intellectuelle se posent donc ici et doivent être examinées au regard de l'existence de cette nouvelle technologie.

Permalien
Laurence Devillers, professeur d'informatique appliquée aux sciences sociales

. – Je vous remercie pour cette invitation. Je vais compléter les propos de Raja Chatila puisque nous avons travaillé ensemble sur ce rapport du Comité national pilote d'éthique du numérique, organisme pérennisé par le président de la République, Emmanuel Macron, au mois de mars. Un nouveau comité sera donc en place à partir de septembre.

La controverse sur l'intelligence artificielle se développe autour des craintes de perte d'emploi, de la machine qui devient superintelligente ou encore devant le fait qu'elle consomme une grande quantité d'énergie. Mais cette évolution permet aussi de découvrir de nouveaux vaccins ou de faire émerger des manières de mieux consommer. Nous sommes bien face à des tensions fondamentales, qu'elles soient éthiques ou anthropologiques, sur les connaissances.

Entre admiration et peur, le public et les décideurs comprennent mal ces nouvelles technologies. Or, il y a des menaces d'équilibre. Si demain nous allons vers une plus grande consommation de ces objets, notre société verra l'apparition de modèles complexes, tout en étant incapable de les remettre à jour, de les recréer, donc avec une perte de savoir-faire très forte. Nous sommes donc face à un problème d'éducation fondamental sur ces outils, pour disposer d'experts mais aussi pour former les citoyens à leur utilisation.

L'émergence de ChatGPT marque l'occasion de traiter enfin ces sujets au cœur de la société. Derrière ce constat, nous trouvons les géants du numérique et leur envie de prise de pouvoir, qui pose un problème géopolitique grave. En effet, nous sommes face à un système d'IA générative basé sur des modèles qui s'appuient sur des milliards de données, avec des hyperparamètres peu transparents. L'opacité des modèles est totale et doit être régulée. L'intérêt du système Bloom est qu'il propose un modèle open, qui peut être testé. Mais les autres systèmes sont très opaques, ce qui entraîne par exemple qu'une même question peut engendrer en réponse deux phrases différentes. Ce facteur température implique en effet que le système ne répond pas avec la réponse la plus probable mais avec la première séquence de mots repérée.

Par ailleurs, fondamentalement, ces systèmes sont créés sur une hypothèse linguistique : les tokens, qui ne sont même pas des mots mais un ensemble de caractères, des vecteurs contenants. Les entités tokens tendent donc à avoir des sens similaires dans des conditions similaires. Ce principe amène à avoir des vaches qui pondent des œufs... selon l'exemple bien connu. La machine ne produit que des statistiques liées à des contextes. Mais des comportements émergents peuvent également apparaître dans certains contextes, lors d'une requête affinée. L'utilisateur pourrait croire ici que la machine s'adapte à lui mais le processus ne relève pas de l'humain, ce que nous pouvons avoir du mal à distinguer.

Il est donc essentiel que ces capacités soient plus ouvertes. L'apprentissage de ces machines diffère d'un apprentissage humain tel que peut le vivre un enfant. ChatGPT propose ainsi plusieurs types d'apprentissage : l'auto-apprentissage (produire le mot le plus probable derrière une séquence de mots) ou le manque (un mot de la phrase est enlevé et le système cherche à le prédire). Ces systèmes montrent des qualités mais sans abstraction ni raisonnement humain. Nous les humanisons à défaut. Dans l'éducation, il est urgent de démystifier ce que nous percevons de la machine pour ne pas créer une société de dépendance.

Il est important de rappeler également que les données de ces modèles sont principalement anglo-saxonnes et à plus de 80 % en anglais. Nous devons alors nous interroger sur l'influence d'une langue sur une autre, ce que nous ne pouvons pas appréhender du point de vue de la recherche. Nous connaissons cette influence mais nous ne pouvons pas la mesurer, donc la maîtriser. Le citoyen ne comprend alors pas ce qui survient et la machine peut de son côté devenir totalement incohérente. Elle peut se comporter à la manière d'un humain mais sans conscience ni émotion. Sur ce sujet du multilinguisme et du traitement automatique de la langue, je vous indique qu'un important projet est en cours d'élaboration avec le ministère de la Culture au sein de la Cité internationale de la langue française de Villers-Cotterêts.

La première préconisation de notre rapport repose donc sur le besoin d'une entité souveraine pour travailler sur ces sujets qui arrivent trop vite dans la société et pour lesquels les GAFAM ne sont pas capables d'apporter des solutions. Nous sommes face à des objets qui bénéficient d'une certaine autonomie.

Il faut ainsi travailler à la fois sur une loi et sur les normes européennes dès aujourd'hui car il y a une prise de pouvoir extrêmement rapide qui s'opère en parallèle. Il importe d'œuvrer pour l'avenir des citoyens.

Ce bouleversement est énorme dans le monde du travail et il nous faut l'anticiper, ce qu'a peu abordé notre concertation. Par exemple, aider un enseignant à voir qu'un travail est le résultat de différents apports peut se révéler utile.

Nous devons donc aller beaucoup plus loin sur la compréhension de ces systèmes et nous devons impérativement pouvoir dialoguer avec les GAFAM. Une mise à disposition des bonnes pratiques est également indispensable, dans un souci de mutualisation. Nous devons associer les bonnes et les mauvaises pratiques entre entreprises, par exemple dans le domaine médical. Les États-Unis prennent le leadership très rapidement et il nous revient d'éclairer les pièges réels de ces intelligences artificielles génératives. Je vous recommande à ce sujet le film documentaire Derrière les écrans de fumée proposé par des « repentis » des GAFAM qui expliquent les politiques de manipulation mises en œuvre et le profil de cobayes que les utilisateurs endossent en utilisant des produits comme ChatGPT.

Nous pouvons donc conclure en rappelant qu'un effort de guerre est nécessaire et j'espère que l'Office pourra en être l'un des vecteurs. Il se pourrait qu'à court terme les normes pour le marché européen soient élaborées par les Etats-Unis et la Chine…

Permalien
Premier intervenant

. – Nous constatons la grande complexité des questions débattues dans les différentes controverses, ainsi que l'intérêt de l'Office pour éclairer les politiques. Mais nous voyons également les transitions et les changements qui vont s'avérer nécessaires. Comment l'Office peut-il aider au changement ?

Permalien
Deuxième intervenant

. – Je souhaite poser une question sur les émotions, qui a priori distinguent l'humain du robot. J'ai appris qu'une IA générative émergente, Project December, permettait d'échanger avec une personne décédée. Existe-t-il des IA génératives capables de donner l'illusion de l'émotion ou du sentiment et quelles en seraient les conséquences ?

Permalien
Laurence Devillers, professeur d'informatique appliquée aux sciences sociales

. – Sur les émotions, dont j'ai fait mon sujet de recherche pour les détecter dans la voix et le langage, les tokens sont utilisés. Au niveau international, nous travaillons sur les émotions depuis 2000 environ, à travers la voix et les émotions très mélangées qu'elle peut contenir. Ces machines sont très loin de détecter ces distinctions. Elles procèdent à une simplification importante, mais qui peut être intéressante dans certains cas, dans les systèmes qui s'adaptent à la voix, par exemple dans les cas de pathologies mentales.

L'autre sujet est celui des dead bots, initiés par Microsoft, qui consistent à faire parler quelqu'un qui n'est plus là. On sait simuler la voix d'une personne décédée, ceci a été réalisé pour le général de Gaulle. Pour ce qui est du langage, il est donc possible de prendre des données et de les retravailler en ce sens. Mais des enjeux conversationnels et des enjeux d'éthique apparaissent car faire parler quelqu'un avec des mots qu'il n'a jamais dits ne relève pas de la dignité humaine. On crée une immortalité numérique. Il nous revient de nous interroger sur la manière dont la société peut vivre avec ce type de systèmes. Certaines sociétés, comme les sociétés asiatiques, l'acceptent mieux que d'autres. Il y a des exemples en Chine et au Japon. Pour prendre un autre exemple, le système Replica, conçu en Russie, s'appuie sur l'idée de répliquer une personne décédée. Il y a là des dérives évidentes.

Notre rapport propose donc non pas d'interdire, mais de s'interroger collectivement sur notre souhait de disposer de tels outils. Il y a des avis divergents. Nous sommes devant un monde d'experts qui nous fait miroiter des améliorations, par exemple avec l'émergence de réponses émotionnelles mais ce n'est pas vrai, cela est fait pour des enjeux purement économiques et marketing.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

. – Pour revenir à la première question, il convient de ne pas confondre les rôles de chacun, qu'ils soient d'expertise, d'analyse, d'évaluation ou de prise de décision. L'Office se situe au milieu, dans l'analyse et l'évaluation.

La réunion de ce matin répond en partie à vos interrogations, par exemple comment, avec une meilleure compréhension, réguler l'intelligence artificielle et où il faut cibler pour gagner en efficacité. Il nous faut en effet être efficace pour tous ceux pour qui nous travaillons, notamment le législateur.

Bien sûr, nous voyons que sur le sujet de l'intelligence artificielle, nous ne maitrisons pas les résultats et la multitude des projections.

Permalien
Laurence Devillers, professeur d'informatique appliquée aux sciences sociales

. – De nombreux chercheurs travaillent sur ces sujets. En France, par rapport aux pays anglo-saxons, nous négligeons encore la nécessité de mettre en œuvre une entité souveraine « science et société » regroupant les aspects technologiques et les conséquences. Notre pays n'est pas assez tourné vers l'interdisciplinarité.

Permalien
Troisième intervenant

. – Si l'on mélange experts et société civile, il serait important de mieux maîtriser les déclarations de liens d'intérêt.

Permalien
Laurence Devillers, professeur d'informatique appliquée aux sciences sociales

. – Oui, mais je ne parlais ici que des chercheurs, pas de la société civile.

Permalien
Sonia de La Provôté, sénatrice, vice-présidente de l'Office

. – Nous sommes face à un système invasif d'un point de vue intellectuel et il nous manque un cadre pour le réguler, à l'inverse de la médecine, par exemple, qui repose sur des protocoles de suivi d'expérimentation au niveau international.

Ensuite, l'information traitée par ces systèmes est numérique et relève donc d'un domaine relativement récent. Le poids accordé à l'ancien et au présent est donc déséquilibré. La question sur le poids de la vérité scientifique est donc posée car les remises en cause des dernières années peuvent déstabiliser la science et je peux citer par exemple les platistes.

Enfin, il est primordial de développer l'humain avec la pédagogie et l'éducation, ainsi que le sens critique, le libre choix et le choix éclairé, ce qui nécessite de gros moyens. Ces outils doivent rester des outils et pas des éléments visant à modifier la pensée et la société.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

. – Nous constatons en effet que ChatGPT est utilisé pour alimenter les théories du complot, ce qui démontre les limites en termes d'éthique.

Permalien
Raja Chatila, professeur de robotique et d'intelligence artificielle, membre du conseil scientifique de l'Office

. – Nous sommes en effet des cobayes d'expérimentation, sans accord et sans contrôle. Nous assistons à une forme de coup d'Etat numérique dont il faut avoir conscience et face auquel il faut réagir. Un certain effet de sidération prédomine, raison pour laquelle il faut démystifier ces systèmes pour, à terme, aller plus loin et ne plus subir le bon vouloir des GAFAM au niveau international. Le rôle des institutions peut être posé ici, en rappelant que le rapport de 2017 formulait des recommandations dont la mise en œuvre est seulement partielle. Un lieu doit être trouvé pour que l'exécutif puisse prendre en compte les préconisations de l'Office.

Un autre problème est celui de la qualité des informations, qui sera impactée par ces systèmes. Ainsi, ChatGPT ignore ce qui s'est passé depuis septembre 2021, date de sa mise en service, mais sa mise à jour prendra en compte les données issues des intelligences artificielles génératives, ce qui entraînera un risque supplémentaire, et de manière incontrôlable. Il est alors primordial d'aller au-delà de la pédagogie, vers une réflexion sur l'action à mener face à ces problèmes.

Permalien
Laurence Devillers, professeur d'informatique appliquée aux sciences sociales

. – Sur la toile, nous constatons que les utilisateurs malveillants ont pris en main l'objet, pour propager des fausses informations et déstabiliser les démocraties. Ce constat nécessite un véritable effort de guerre de recherche allié à de la politique. Nos recherches peuvent nourrir les idées. Sinon, une autre solution serait d'aller vers l'anarchie sur la Toile pour rendre le système « fou ».

N'oublions pas que ce système consomme beaucoup d'énergie et nécessite de nombreux data centers. Nous devons donc obliger les géants du numérique à s'ouvrir plus pour disposer de davantage d'informations sur les modèles et les grands systèmes grâce à des réglementations, même si nous sommes bien conscients que l'ensemble du problème ne se résoudra pas ainsi.

Permalien
Valérie Faudon, déléguée générale de la Société française d'énergie nucléaire (SFEN)

. – Nous nous sommes nous-mêmes demandé comment faire pour permettre une meilleure connaissance de l'industrie nucléaire pour les publics intéressés. Nous avons constaté que ChatGPT n'était pas fiable. Notre interrogation suivante a porté sur la manière dont le public recherchait de l'information : est-ce grâce à ces systèmes, car Internet propose déjà de très nombreuses informations complètement erronées et sans sources, ce qui me semble être une aberration ?

Permalien
Laurence Devillers, professeur d'informatique appliquée aux sciences sociales

. – Tous ces outils restent une bonne idée mais dans une approche à la fois bottom up et top down. Cela signifie qu'il faut apprendre l'importance des sources, et apprendre à déconstruire un texte généré par ChatGPT pour en découvrir, éventuellement, les inepties. J'encourage les jeunes mais aussi les adultes à suivre ce processus, mais je crains que nous soyons souvent paresseux… Dans cette optique, je vous incite à ne jamais utiliser ChatGPT quand vous souhaitez réaliser un travail important.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

. – Sur ces propos, je vous propose de clôturer notre réunion en remerciant tous nos intervenants.

Nous concluons ainsi cette deuxième journée d'anniversaire de l'OPECST, avec l'immense plaisir d'avoir reçu des intervenants de qualité qui nous permettent de comprendre les enjeux scientifiques et de connaissance et d'éclairer les décisions à prendre sur les régulations, dans de nombreux domaines. Continuons à faire prévaloir la science ! Je vous remercie.

La réunion est ouverte à 13 h 25.