Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Publié par Scientifique

http://pcf.evry.pagesperso-orange.fr/nucleaire.jpg

Au lendemain de la catastrophe de Tchnernobyl, L'Express interrogeait dans ses colonnes du 9 mai 1986 le spécialiste des risques technologiques majeurs, Patrick Lagadec.

 

Tchernobyl illustre l'une de vos observations selon laquelle la catastrophe "majeure" ne se limite plus à l'accident, mais commence avec lui.

Ces accidents "majeurs" se distinguent totalement des accidents "classiques". Pour résumer, dans un accident "classique", on a affaire à plusieurs choses: une défaillance bien connue, des conduites d'urgence bien codifiées, des intervenants en nombre restreint, des communiqués de presse facilement établis et des couvertures par un système d'assurance relativement aisées. 

 

L'accident "majeur" s'oppose, sur tous les points, à cette définition: des effets de grande ampleur pour l'immédiat et le long terme, qui prennent à contre-pied les dispositifs opérationnels, des incertitudes paralysantes, une phase critique de longue durée, éprouvante, et une multiplication des intervenants.  

A Tchernobyl, les Soviétiques n'étaient pas préparés. A Three Mile Island, c'est la presse qui a pris la mesure de l'événement 

 

Jusqu'ici, pratiquement tous les accidents majeurs ont eu tendance à déraper en crises. Il y a des faits insaisissables, parce que générés à très haute vitesse, comme le disait l'envoyé du président Carter à Three Mile Island: " Nous sommes tombés dans un trou noir einsteinien." Chaque fois que l'on pensait dominer quelques données, de nouvelles informations arrivaient, et l'on jouait ainsi à cache-cache avec l'événement. A l'intérieur des organisations, chaque niveau transmet trop tard l'information aux autres et la communication fonctionne très mal. On ne sait pas comment se comporter en face des médias.  

 

A Tchernobyl, cela devient très problématique, car les Soviétiques n'étaient pas du tout préparés à cela. Il faut se souvenir qu'à Three Mile Island, c'est la presse qui a pris la mesure de l'événement avec ses propres renseignements. Dans cette turbulence, les systèmes vacillent, c'est l'implosion du leadership, les cohérences se désintègrent. Et, comme c'est une dynamique d'évolution rapide, moins on sait faire, plus la situation dégénère. 

L'attitude à l'égard des risques technologiques majeurs est généralement une réticence à les considérer comme possibles et, donc, à les prévoir. Qu'en est-il actuellement en France?

 

Les porte-parole les plus avertis se sont toujours bien gardés de dire que l'accident nucléaire majeur était impossible en France. Pour les centrales, il y a chez nous, bien sûr, une enceinte de confinement en béton, et on s'en félicite, d'autant plus qu'on avait beaucoup hésité à poursuivre cette politique de protection.  

En France, l'idée que l'on puisse poser des questions sur l'industrie nucléaire n'est pas encore mûre 

Mais une analyse rigoureuse de notre capacité à faire face à tous les accidents majeurs (et pas seulement nucléaires) montrerait que de nombreux points sont à revoir. Le relevé même des risques reste encore à faire, malgré les progrès apportés depuis la "directive Seveso". Ces études se heurtent à des résistances: il y a des installations que l'on sait ne pas être satisfaisantes, mais, en France, l'idée que l'on puisse poser des questions sur ce qui se passe sur le terrain industriel n'est pas encore tout à fait mûre. Quant à la capacité d'intervention, il faut reconnaître que l'on en est aux balbutiements. Les sapeurs-pompiers français sont les premiers à réclamer des moyens stratégiques d'un tout autre niveau. Beaucoup d'officiers de sapeurs m'appellent pour me dire leur impatience à ce sujet... 

 

Comme on a pu le vérifier récemment, les grandes organisations éprouvent d'extrêmes difficultés à traiter les dynamiques de crises, même mineures. Ce fut le cas dans l'affaire du "Mont-Louis": au bout de quarante-huit heures, qu'en était-il de la crédibilité des officiels? Même scénario pour les fûts de Dioxine ou l'accident du transformateur d'EDF à Reims. On remarque que, dans ces situations, alors qu'elles devraient établir un réseau de crise, les organisations se recroquevillent sur elles-mêmes, et à l'intérieur naissent des conflits qui poussent à l'éclatement au moment précis où il faudrait une efficacité maximale. 

La succession, depuis dix ans, d'accidents majeurs, chimiques ou nucléaires, ne va-t-elle pas finir par persuader le public que la technologie ne peut pas maîtriser toutes ses conséquences?

Ces événements ne sont pas sans effets pervers: peu à peu, les gens comprennent autre chose que ce que dit le langage des responsables. Pour contrer ce sentiment, il est nécessaire de poser des actes montrant que le problème va enfin être affronté. Il faut aujourd'hui en France créer un groupe d'experts -- publics et privés -- sur la gestion de ces crises, qui pourraient, d'abord, suivre ce qui va se passer à Tchemobyl, de manière à faire le point, et, ensuite, émettre des propositions pour que les prochaines crises soient mieux traitées.  

 

Depuis peu de temps l'image du nucléaire s'était modifiée, en France, apparaissant comme "propre". Tchernobyl peut-il renverser cette tendance?

 

Sans doute, mais n'oublions pas que, en France, les risques viennent nettement plus du chimique que du nucléaire. Il faudrait éviter, cependant, une dérive préjudiciable pour la réflexion en matière de risque. La sécurité est un arbitrage entre différentes exigences, et aussi un rapport de forces, quelque chose de dynamique que l'on peut conquérir, mais qui ne sera jamais un acquis définitif. 

 

Patrick Lagadec est aussi chercheur au laboratoire d'économétrie de l'Ecole polytechnique. Il est l'auteur de La Civilisation du risque. Catastrophes technologiques et responsabilité sociale (Le Seuil).  

L'Express

Commenter cet article