C'est le titre d'un document conçu par EDF et publié au 4ème trimestre 1996. De nombreux articles de spécialistes EDF y traitent des problèmes de sûreté des réacteurs nucléaires et des études faites à EDF sur ces problèmes.
Ce qui est assez frappant dans plusieurs articles, c'est l'honnêteté des théoriciens de la sûreté nucléaire concernant les difficultés des problèmes que pose la sûreté et l'impossibilité de fournir des résultats absolument sûrs alors que les " communiquants " d'EDF dans leurs relations médiatiques sont d'une certitude absolue. Mais comment peut-on affirmer qu'un accident grave est " absolument impossible " (les communiquants) quand les études de sûreté sont imprécises et incomplètes (les experts en sûreté) ?
Voici quelques extraits assez significatifs que nous avons recueillis dans ce document.
A propos des études probabilistes de sûreté :
" Maîtriser la complexité : il faut apprendre à simplifier et à fournir des résultats pertinents, même lorsque les connaissances sont imparfaites " (p. 9).
Comment est-ce possible honnêtement ?
" De gros progrès restent à accomplir dans la modélisation et l'évaluation probabiliste du comportement de ces systèmes ; enfin, comment évaluer l'incertitude des résultats ? L'incertitude est liée aux données d'entrée. Mais elle tient aussi aux phénomènes physiques mis en jeu en situation accidentelle (aucune expérimentation en vraie grandeur n'est possible) ou au facteur humain " (p. 10).
Ainsi l'énergie nucléaire a atteint un développement très important bien que les études de sûreté soient loin d'être terminées, que de nombreuses incertitudes demeurent et ne peuvent que demeurer [P. Tanguy, alors Inspecteur Général pour la Sûreté et la Sécurité nucléaire à EDF, reconnaissait publiquement en 1988 " (...) s' il doit se produire un accident ce sera celui que nous n'aurons pas prévu " ]. Notons l'espèce de regret du théoricien qui est dans l'impossibilité de vérifier expérimentalement ses modèles théoriques faute d'accidents graves. Mais il ne semble pas se rendre compte que si l'énergie nucléaire avait déjà produit quelques accidents graves, cette industrie aurait été enterrée depuis longtemps et que ses modèles théoriques n'auraient eu aucun intérêt.
" (...) l'ingénieur doit prédire quantitativement le comportement de systèmes complexes alors que des éléments échappent encore à la compréhension générale. On s'en tire avec une pincée d'empirisme bien maîtrisé " (p.15).
Cela ressemble fort au joueur de poker qui doit se décider à jouer sans connaître les cartes de ses adversaires. Mais l'enjeu du résultat peut être d'une tout autre nature qu'un modeste gain d'argent. Comment saupoudrer les résultats annoncés " d'une pincée d'empirisme " [empirique = qui s'appuie avant tout sur les données de l'expérience et non sur la science et le raisonnement] alors que l'expérimentation n'existe pas encore ?
" Les connaissances physiques théoriques actuelles étant incomplètes [souligné par nous] les modèles que l'on déduit ne permettent pas de prédire les phénomènes ".
Mais il faut malgré tout que les experts justifient l'impossibilité des catastrophes alors qu'ils n'ont pas suffisamment de données fiables pour établir scientifiquement cette affirmation. Finalement, on ne pourrait avoir une vision correcte de la sûreté nucléaire qu'après un certain nombre d'accidents graves que les experts en sûreté pourraient modéliser, mais il resterait toujours des incertitudes, et les experts, pour les résoudre auraient besoin de nouveaux accidents. Cela est la philosophie de la sûreté de l 'industrie nucléaire.
Un autre article intéressant traite des " Études probabilistes pour une sûreté au meilleur coût ". On voit là une motivation importante des études probabilistes de sûreté : montrer que les coefficients de sûreté pris pour compenser les incertitudes sont grossièrement trop importants et qu'il serait possible de les réduire notablement pour réduire les coûts.
Cette approche " probabiliste " s'oppose à l 'approche " déterministe " jugée trop pénalisante qui est présentée de la manière suivante :
" La démarche déterministe est traditionnellement employée pour les analyses mécaniques de dimensionnement des structures industrielles (avions, navires, ponts ou encore plates-formes pétrolières et centrales de production d'électricité). Dans une telle approche, chacun des paramètres incertains ayant une influence sur la sûreté de la structure est décrit par une valeur caractéristique défavorable. Associée à des coefficients de sécurité, l'analyse produit une estimation de type " tout ou rien ", c'est à dire " la structure est sûre " ou bien " la structure n'est pas sûre ". Ce résultat traduit la confiance que l'on peut accorder à son bon dimensionnement mais sans en mesurer la fiabilité. On pressent déjà qu'une telle approche peut conduire à des conclusions exagérément sévères et trop irréalistes pour permettre, par exemple, d'optimiser les opérations de maintenance " [souligné par nous]. Ainsi les études probabilistes auraient pour finalité une vulgaire économie d'argent et non pas une meilleure garantie vis-à-vis du risque nucléaire.
En ce qui concerne les générateurs de vapeur (G. V.) " La maintenance des tubes G.V. et leur programme d'inspection poursuivent deux objectifs principaux
- d'un point de vue sûreté, maintenir la probabilité de rupture d'un tube à un niveau suffisamment faible, même en cas de surpression accidentelle. Cela implique de définir des actions propres à compenser l'augmentation de risque entraînée par la dégradation des tubes.
- du point de vue de la disponibilité, limiter le nombre d'arrêts de réacteurs dus à des fuites primaire-secondaire " (p. 25).
Le premier point est assez obscur. Il n'est pas dit comment on peut maintenir la probabilité de rupture d'un tube à un niveau suffisamment faible. Est-ce par des modifications de conception (impossibles à faire sur les G.V. existants) ? Est-ce en réduisant les contraintes par une réduction des performances du réacteur ? Ou est-ce tout simplement en trafiquant les modèles mathématiques des simulations de rupture pour obtenir une probabilité faible et rassurante ? On peut le craindre. Ainsi, le modèle probabiliste donne, en situation accidentelle, une distribution des tailles critiques des défauts (centrée sur 25 millimètres) supérieure à la taille critique du modèle déterministe (17 mm). Le commentaire de la figure indique " Dans le cas d'une analyse déterministe, on aurait adopté une taille critique de 17 mm, qui apparaît très restrictive par comparaison " [souligné par nous ]. Espérons que le programme de bouchage des tubes fissurés ne sera pas modifé sur la base de cette estimation jugée " très restrictive " !
Le deuxième point, lui, est clair. Les fuites de radioactivité du circuit primaire vers le circuit secondaire sont la preuve de fissurations dans les tubes G.V. Mettre hors jeu les tubes fissurés qui risquent de craquer implique des arrêts de réacteur. Limiter les arrêts est possible en remontant les niveaux critiques de radioactivité dans le circuit secondaire c'est à dire en acceptant de fonctionner avec plus de tubes fissurés. C'est ce qui a été fait. La sûreté est sacrifiée pour une meilleure disponibilité des réacteurs.
Les études de sûreté ne doivent pas conduire à une augmentation des coûts de maintenance. Ceci est nettement exprimé dans l'article :
" Par contre, il ne faut pas augmenter les coûts de maintenance de façon prohibitive - le parc EDF compte 170 000 km de tubes ! - ni raccourcir exagérément la durée de vie des G.V. (...) Pour maximiser la sûreté et la disponibilité des réacteurs, tout en minimisant les coûts, l'exploitant doit faire le choix d'une politique de maintenance des tubes G.V. " (p. 15).
Est-ce là le résultat de ce que P. Tanguy appelait, lorsqu'il était Inspecteur Général de la Sûreté à EDF (il est actuellement Inspecteur Général de la Sûreté au CEA), dans plusieurs de ses rapports annuels la " culture de la sûreté ". N'est-ce pas là plutôt la manifestation d'un culte du kilowattheure ?
L'auteur de l'article insiste beaucoup, pour aboutir à l'optimisation qu'il souhaite (améliorer la sûreté et abaisser les coûts) sur la nécessité de " disposer d'outils de calcul très sophistiqués " (p. 25). Il n'explique pas comment on peut compenser la fissuration de tubes existants simplement par le calcul. Évidemment le calcul peut se faire sans arrêter les réacteurs.
Un autre article traite du même problème : Optimiser la gestion de la production d'électricité et indique en entrée " Prendre des marges de sécurité trop importantes coûte cher à l'exploitant " (p. 29).
La production d'électricité doit bien sûr suivre la demande des consommateurs et cette demande n'est pas exactement prévisible même " à l'horizon de la journée " (p.31). Aussi :
" Pour contourner cette imperfection, on est contraint d'adopter de façon déterministe une marge de sécurité [il s'agit là d'une marge de sécurité pour la production, pas pour le risque nucléaire] en décidant de garder quoi qu'il arrive [souligné par nous] une réserve de puissance disponible rapidement dans un délai de l'ordre d'une trentaine de minutes. Pendant cette demi-heure " fatidique ", il est possible de demander aux centrales en marche de produire un peu plus " (p.31). Et cela, l'auteur l'a bien précisé au départ quoi qu'il arrive.
On voit dans ce document EDF intitulé Chercheurs d'énergie comment le maintien de bas coûts de production n'est guère favorable à une meilleure sûreté, à une plus grande marge de sûreté. Il est dommage que Pierre Tanguy n'ait pas été invité à exposer en détail ce qu'il a maintes fois nommé la " culture de la sûreté ". Revenu au CEA, son bercail d'origine, il est désormais " serein ", comme il l'a indiqué à la radio il y a peu. Loin d'EDF, loin des soucis ?
Il est bien évident que l'amélioration de la sûreté (la sûreté absolue étant impossible) passe par une augmentation des coûts de maintenance et une réduction de la disponibilité des réacteurs.