Enfants : apprenez-leur à aimer les épinards… et le reste !

 
Enfants : apprenez-leur à aimer les épinards… et le reste !

Miam ! C’est sûr, vos lasagnes maison aux épinards et au chèvre bio vont régaler toute la famille. Vous les apportez fièrement sur la table quand votre petit dernier, trois ans, se met à crier fort : « J’aime pas les épinards ! ». La veille au soir, il n’a rien pris non plus, tout comme l’avant-veille… Vous commencez à être inquiet.

Vous êtes un peu au fait des dernières avancées de la psychologie de l’enfance, qui assurent qu’il ne faut pas forcer les enfants à manger. « En revanche, il faut l’obliger à goûter ! », affirme Nathalie de Boisgrollier, coach et auteure d’un ouvrage sur l’éducation bien­veillante publiée en octobre dernier, « Élever ses enfants sans élever la voix » (Albin Michel).

Lui apprendre à verbaliser ses goûts

Pour faire goûter, une cuillère à café suffit. N’expliquez pas tout de suite que ce sont des lasagnes aux épinards : laissez-le tester, comme si chaque nouveau plat était une surprise. Puis donnez-lui l’espace pour verbaliser. Il a évidemment le droit de ne pas aimer, mais pas celui de dire n’importe quoi. « On ne doit pas tolérer que l’enfant dise “Beurk, c’est nul” », appuie Nathalie de Boisgrollier. « Apprenez-lui à formuler plutôt “je ne trouve pas ça bon, je n’aime pas” et faites-lui décrire ses sensations : est-ce trop acide ? Trop amer ? » Surtout, ne vous découragez pas : les goûts changent avec le temps.

Au cours du repas, échangez autour de la nourriture, évoquez les plats que vous aimiez ou pas lorsque vous étiez enfant : vous montrerez que les avis peuvent changer et que goûter est un préalable indispensable à toute discussion culinaire. « Goûter quelque chose de nouveau, c’est apprendre à découvrir l’étrange », appuie Nathalie de Boisgrollier. « C’est un apprentissage essentiel pour pouvoir s’ouvrir à la nouveauté et à la rencontre avec l’autre. »

Le laisser se servir

Le repas, c’est surtout pour l’enfant l’occasion d’apprendre à bien se nourrir et à être autonome. « Il est important que l’enfant se serve lui-même sa portion », conseille la coach. Pour déterminer la quantité optimale qui lui correspond, une astuce : la cuillère à soupe. « À deux ans, l’enfant a le droit de se servir deux cuillères à soupe, à 3 ans, trois » et ainsi de suite, explique-t-elle. Bien sûr, l’enfant peut se resservir, mais toujours en petite quantité.

Surtout, ne dramatisez pas : s’il ne mange pas grand-chose, un enfant ne se laisse jamais mourir de faim ! Ce d’autant qu’« alors que les adultes ont besoin de rations quotidiennes, l’enfant équilibre ses besoins sur la semaine », précise Candice Lévy. S’il n’a pas d’appétence pour vos lasagnes, ne soyez pas vexé, il a le droit d’aimer ce que vous n’aimez pas, et réciproquement.

L’obliger sans faire de chantage

« Même s’il ne mange rien, un enfant doit rester à table », rappelle-t-elle, car « c’est un moment de convivialité, celui où la famille se retrouve, c’est essentiel ». Bien évidemment, à l’heure du repas, « tout le monde doit avoir un comportement cohérent » : pas question que l’un des membres de la famille se fasse un plateau-télé ! Pas question non plus de résoudre le problème du repas en cuisinant une portion de coquillettes au jambon à la place des lasagnes. Ou encore de faire du chantage avec la nourriture : il est inutile de le culpabiliser avec les pauvres petits enfants qui meurent de faim dans le monde ou de le priver de dessert s’il ne termine pas son assiette, ou bien encore de le récompenser avec une sucrerie s’il a bien mangé !

Le repas doit se dérouler dans le calme, et surtout durer suffisamment longtemps pour respecter le rythme des enfants. « Alors que les adultes expédient souvent le repas en vingt minutes, les enfants ont plutôt besoin de trois-quarts d’heure pour manger », complète Candice Lévy. Si, malgré tout, votre enfant continue de refuser de s’alimenter comme vous le souhaiteriez, gardez à l’esprit qu’en titillant ainsi votre anxiété, il vous invite peut-être tout simplement à vous pencher sur une problématique qui vous est propre et pour laquelle vous devriez peut-être consulter un spécialiste.

 

Fukushima : la contamination continue, mais les contrôles se relâchent

Trois ans et demi après la catastrophe nucléaire de Fukushima,   les produits japonais importés sont-ils sûrs? Oui affirment les autorités nippones. Mais le nouveau règlement européen baisse la garde sur les contrôles douaniers, tandis qu’un accord franco-japonais risque d’assouplir un peu plus les normes admissibles de radioactivité pour l’alimentation humaine ou animale. Précisions.

Dans la préfecture de Fukushima, réputée pour la qualité de ses produits biologiques, la vie tente de reprendre doucement son cours. Mais la peur de la radioactivité ne s’est  qu’en partie diluée avec le temps.  A la presque quatrième génération de végétation depuis l’accident,  les radioéléments sont loin de s’être volatisés, malgré les travaux titanesques  entrepris depuis 2012 par les autorités pour s’en débarrasser  (maisons passées au karcher, arbres  abattus et terre creusée sur 5cm). « La réalité, c’est qu’on ne sait pas décontaminer », affirme le Pr. Hiroiko Koidé, spécialiste de l’atome. Ce « Gandhi » japonais milite depuis 40 ans pour l’arrêt du nucléaire. La contamination, mise en sacs et en  décharges revient aux premières pluies, ou au gré des caprices de la centrale elle-même, toujours hors de contrôle depuis l’accident, et qui continue de fuir.

Des « normes » pour accepter le risque nucléaire

Pour être exportables, les produits japonais doivent respecter des normes admissibles de radioactivité. Ces normes ont été fixées par le Codex Alimentarius[2] afin de préserver les intérêts du commerce mondial, même en cas de contamination nucléaire accidentelle des aliments destinés aux hommes ou aux animaux par le césium. « Les normes ne sont qu’un critère administratif que l’on donne à croire scientifique. Rien à voir avec une limitation de vitesse qu’il suffirait de respecter pour conduire en sécurité !   précise Yves Lenoir, président des Enfants de Tchernobyl Belarus. Car avec les radioéléments, le problème est  l’accumulation biologique.  “En mangeant des produits contaminés, on augmente peu à peu la radioactivité interne du corps, explique le scientifique. “Or   certains organes la concentrent   jusqu’à 10 fois plus que la moyenne corporelle, ce qui peut provoquer des lésions au bout d’un certain temps d’intoxication chronique.”  

Fin des contrôles douaniers 

Le nouveau règlement européen adopté le 1er avril 2014, relâche la bride sur les produits nippons : il n’exige plus de certificat d’analyse de conformité aux normes de radioactivité, sauf pour les champignons, dont on sait qu’ils accumulent les radioéléments, et pour les produits provenant de la préfecture de Fukushima, qui continue d’avoir mauvaise presse, puisqu’elle a eu le malheur d’héberger sur ses terres la centrale éponyme. Pourtant, la contamination s’est étendue bien au-delà de Fukushima, aux alentours de Tokyo, par exemple, à 225km de la centrale. « Au Japon, nous continuons d’analyser la nourriture, explique Wataru Iwata, co-fondateur du CMRS, organisme citoyen de mesure de la radioactivité, et nos appareils décèlent des traces de contamination, souvent loin de Fukushima! »

De plus, le règlement européen prévoit l’allègement des contrôles douaniers, le Japon ayant su gagner la confiance des autorités européennes, avec, ces deux dernières années, moins de 1% de produits non conformes détectés. Produits de la pêche, plantes sauvages comestibles, légumes, fruits, riz et soja, produits transformés et dérivés  (bière, tofu, sauce soja, umeboshi, thé) sont désormais exportés sur la seule bonne foi des autorités nippones.

Qui rassurera les consommateurs ?

Les importateurs restent confiants : «  A Saitama, au Nord-Ouest de Tokyo, ils n’ont pas eu de chance, rappelle Esther Miquel, gérante de la société Koedo qui ouvrira un restaurant de « bento » japonais à Issy sur Seine en janvier prochain. Seules les montagnes ont en effet touchées par le nuage, mais toute la préfecture a été considérée comme contaminée. C’est justement dans cette province que se trouve le producteur « de la plus délicieuse des sauces sojas qui existe », selon elle. Depuis 2012 qu’elle traite avec lui, elle assure que « tous les lots sont assortis des certificats d’analyse qui garantissent le respect des normes de radioactivité».  ISSE Workshop  semble en revanche ne pas être au courant de la nouvelle réglementation ( !) tout en certifiant n’importer que des produits contrôlés. Foodex n’a pas pris la peine de nous répondre.

Et le « Bio » japonais ?

On peut être rassuré !  Celnat, qui ne s’approvisionne que dans le Sud du Japon (non contaminé), certifie la contamination zéro de ses produits, continuant même de les faire analyser en France par des laboratoires indépendants. 

Clara Delpas

Le bilan de Fukushima

En mars 2011, l’explosion de trois réacteurs nucléaires, équivalente à 168 fois la bombe d’Hiroshima, a formé un nuage noir gigantesque de particules radioactives dont, « par chance », la plus grande partie (84%) est retombée dans l’océan Pacifique,  le reste se déposant « en taches de léopard »,   suite aux pluies et neiges de saison, sur près de 14 000 km2 de terres dans l’archipel[1]. Bilan : outre la préfecture de Fukushima, 13 autres préfectures japonaises ont été touchées, sur les 47 que compte le territoire. Quant à l’océan, le Césium s’y serait tout simplement dilué ou bien tombé au fond, là où les poissons ne vont pas …

La France plus laxiste que l’Europe pour les produits japonais ?

La France  a signé en mai dernier  avec le Japon un accord pour un « rapprochement des économies et de la croissance », se déclarant même à une révision des normes admissibles concernant la radioactivité des produits japonais, dont les aliments. Dénoncé aussitôt par EELV, ce point revient dans l’actualité : le 16 octobre dernier la sénatrice socialiste du Haut-Rhin,  Patricia Schillinger, a interpellé le gouvernement, qui  n’a pas encore répondu …    

Fin  du certificat d’origine géographique pour le thé japonais

Le nouveau règlement européen sur le contrôle de la radioactivité des aliments en provenance du Japon (voir Focus) dispense depuis mai dernier les producteurs japonais non seulement de fournir les certificats d’analyse mais aussi les certificats d’origine géographique des feuilles de thé, qui concentrent pourtant les radioéléments plus ou moins selon les préfectures. Il ne nous reste plus qu’à faire confiance aux maisons de thé japonaises , qui, souvent en place depuis des générations, ne se risqueraient certainement pas à un quelconque  scandale lié à la découverte fortuite d’une radioactivité excessive …


[1] Selon l’estimation de l’équipe du Dr. Nobuhiro Sawano de l’Université de Kanazawa Seiryo

[2]à 100bq/kg pour les aliments pour adultes, depuis 2012 (le bq ou becquerel mesure le nombre de désintégrations radioactives survenant en une seconde dans un matériau contaminé)

Diane 35 : Un scandaleux retour

Mise sur le marché comme traitement contre l’acné, elle était prescrite comme pilule contraceptive. Après avoir été reliée à plus de cent accidents vasculaires, mortels pour certains, elle a été interdite en France début 2013. Un retrait de courte durée puisqu’elle est de nouveau disponible dans les officines depuis mi-janvier.

Emballage, nom, présentation, composition et stratégie marketing, Diane 35 a été dès son lancement la « pilule qui donne une belle peau ». Avec ses 2 mg de cyprotérone (un progestatif actif contre l’acné) et ses 35 μg d’éthinylestradiol (d’où son nom Diane 35), elle se présente comme un antiacnéique puissant, doté de propriétés contraceptives. Sauf qu’officiellement, Diane 35 n’a jamais été une pilule contraceptive mais seulement un médicament contre l’acné… Et c’est pour cette seule indication qu’elle a reçu son autorisation de mise sur le marché en France en 1987.

Six fois plus dangereuse

Dès les années 2000, des chercheurs britanniques ont montré que la cyprotérone exposait à un risque d’événements thromboemboliques (phlébites ou embolies pulmonaires) particulièrement élevé… « Diane 35 présente six fois plus de risques de provoquer un accident vasculaire que la pilule classique », précise le Pr Henri Joyeux. En France, «  la Haute Autorité de santé a signalé le problème il y a dix ans, mais il aura fallu des morts pour que l’alerte soit enfin donnée… par les médias ! » souligne Claude Reiss, ancien chercheur au CNRS et fondateur d’Antidote Europe… Selon l’Agence nationale de sécurité du médicament et des produits de santé (ANSM), en vingt-cinq ans, 125 cas de thromboses (caillots) veineuses, dont quatre mortels, lui sont directement imputables.

L’UE court-circuite, Bayer gagne

L’alerte des médias a au moins eu pour conséquence le retrait immédiat de Diane 35 (distribuée depuis 2008 par les laboratoires Bayer) et de ses 135 génériques, dès la fin janvier 2013, par l’ANSM. Mais comme pour des raisons réglementaires, aucun pays de l’Union européenne n’a le droit d’interdire un médicament sans en référer à l’autorité communautaire, le dossier fut confié à l’arbitrage de l’Agence européenne du médicament (EMA).

En mai 2013, le Comité de pharmacovigilance et d’évaluation des risques (PRAC) de cette institution concluait ainsi que le rapport bénéfice-risque de Diane 35 était favorable chez les patientes souffrant d’hirsutisme ou d’une acné résistant aux traitements. Autrement dit que, limitée à ces indications, cette pilule peut continuer à être prescrite ! Même si, en plus d’être à haut risque thromboembolique, son efficacité sur l’acné reste discutable, tout comme son pouvoir contraceptif (et pour cause,  celui-ci n’a jamais été évalué !)…

Le 30 juillet 2013, la Commission européenne a imposé à la France de laisser Bayer remettre sa Diane 35 sur le marché, ce que le laboratoire a fait en janvier dernier. Si Diane 35 ne peut plus être prescrite que comme antiacnéique contraceptif (et non plus comme contraceptif antiacnéique…), tout comme ses homologues, osons dire qu’elle ne devrait plus l’être du tout !

 

Miel de Manuka, le plus pro des antiseptiques

Le miel de Manuka est un miel aux propriétés antiseptiques scientifiquement reconnues. Disponible en France, depuis quelques années, il reste rare et cher. Qu’a-t-il donc de plus que les autres miels, dont les propriétés antiseptiques, connues depuis l’Antiquité égyptienne, les font déjà utiliser dans le monde entier depuis des décennies dans de nombreux services de chirurgie hospitalière ? Comment bien le choisir et bien l’utiliser ?

Le miel de Manuka possède des propriétés antiseptiques remarquables : il est souverain pour traiter des infections bactériennes en tout genre, des plaies qui cicatrisent difficilement aux angines et bronchites récidivantes en passant par la prévention des caries dentaires ou la guérison des ulcères gastriques, dus à la bactérie Helicobacter pylori. Selon l’affection, on l’applique directement sur les plaies ou on le mange à la petite cuillère…

Aujourd’hui, on sait que tous les miels contiennent naturellement de l’eau oxygénée (ou peroxyde d’oxygène), d’où leur activité antibactérienne dite peroxydique, ainsi qu’une molécule aux propriétés anti-inflammatoires et antibactériennes très puissantes, le méthylglyoxal (MGO). Mais, alors que dans les miels classiques, la concentration de MGO oscille de 1 à 5 mg par kg, elle peut atteindre 800 mg par kg dans le miel de Manuka. Cette concentration élevée est liée à son origine botanique particulière : les abeilles de Nouvelle-Zélande le fabriquent en butinant les fleurs roses et blanches du Manuka (Leptospermum scoparium), un arbuste endémique de l’île, cousin du Tea-tree cher aux aborigènes d’Australie.

Comment choisir son miel ?

« À partir de 100mg/kg (UMF 10+),  le MGO joue son rôle antibactérien », affirme David Lechaux, chirurgien de l’appareil digestif à l’Hôpital Yves Le Foll de St Brieuc. Inutile donc d’aller chercher les indices les plus élevés, et donc les miels les plus chers….

Mais, question subsidiaire, comment être sûr de la qualité du miel de Manuka que l’on achète ? David Coirot, le PDG de Comptoir et Compagnies qui importe depuis 2009 du miel de Manuka en France, délivre sur demande les certificats d’analyse du laboratoire néozélandais qui teste les lots de miel qu’il importe. Tout comme Family Mary, qui commercialise aussi du miel de Manuka mais effectue ses propres analyses. Aux clients de leur faire confiance, même si, au prix du miel, ils pourraient au moins donner la traçabilité du miel qu’ils importent : d’où vient le miel, du Nord ou du Sud de l’île, et par qui est-il cultivé ? Des informations élémentaires que les importateurs français de miel ne se risquent pourtant pas à dévoiler, afin, disent-ils, de préserver leurs sources d’approvisionnement sur ce marché hautement concurrentiel… Malgré un contexte agité où les fraudes sont de plus en plus fréquentes, puisqu’il se vend aujourd’hui plus de Miel de Manuka dans le Monde qu’il n’en est produit dans son pays d’origine : en 2013, 10 000 tonnes ont été vendues pour 1700 tonnes produites en Nouvelle-Zélande ! Après la saisie l’été dernier de miels de Manuka frauduleux au Royaume-Uni et à Hong Kong, le gouvernement néo-zélandais planche sur la mise en place de nouvelles garanties. Des mesures que les consommateurs attendent avec impatience pour pouvoir enfin acheter du miel de Manuka, sans avoir à se demander au préalable si c’est vraiment du miel de Manuka !

Encadré La qualité antibactérienne d’un miel de Manuka peut être certifiée soit par sa concentration en MGO soit par son activité antibactérienne non péroxydique, donnée sous forme d’un indice, UMF® (pour Unique Menuka Factor), marque réservée aux adhérents de l’UMFA en Nouvelle-Zélande ou IAA (Indice d’Activité Antibactérienne), développée par Comptoir et Compagnies.

 Bioinfo Mars 2014

Une cosmétique plus propre

Face aux nouvelles réglementations européennes mais aussi à la vigilance accrue des consommateurs, les cosmétiques tendent à devenir beaucoup plus propres qu’ils ne l’étaient. Les conventionnels sont de plus en plus nombreux à emprunter pour cela le chemin tracé par le bio. Pour autant, le bio, s’il a permis de grandes avancées, est encore loin d’offrir au consommateur la garantie d’une innocuité parfaite. S’informer de manière attentive non seulement sur les labels, mais aussi sur la composition des produits et les pratiques des fabricants reste encore un passage obligé pour le consommateur final. D’autant plus que les labels sont nombreux et ne garantissent pas tous la même chose… 

létude sur les cosmétiques publiée en septembre 2013 par le Réseau environnement santé (RES) a encore donné l’alerte : sur 15 000 produits notés par l’institut indépendant Noteo, près de 40 % contiennent au moins un perturbateur endocrinien ! Parmi les plus fréquemment trouvés, les parabènes (23 %) et le cyclopentasiloxane (15 %). Toutes les catégories de produits d’hygiène et de beauté sont concernées : au premier chef, les vernis à ongles (dont 74 % contiendraient un ou plusieurs perturbateurs endocriniens), les fonds de teint (71 %), les produits de maquillage pour les yeux (51 %), puis les rouges à lèvres (43 %), les soins du visage (38 %), les déodorants (36 %), les dentifrices (30 %) et enfin les shampooings (24 %). Les substances incriminées dans l’étude ne sont rien moins que celles qu’un rapport de l’Organisation mondiale de la santé (OMS) de février 2013 considérait comme « une menace mondiale » pour la santé humaine et l’environnement. Une menace qui ne concerne que très peu les produits bio : l’étude de Noteo ne retrouve de perturbateurs endocriniens que dans 1,3 % d’entre eux. Il s’agit principalement du cinnamal, une molécule naturellement présente dans certaines huiles essentielles (cannelle, jacinthe, patchouli…). Autre cri d’alarme récent : une étude de l’Association allemande pour l’environnement et la protection de la nature (BUND) parue en juillet révélait la présence de substances chimiques problématiques dans un tiers des 60 000 produits cosmétiques distribués Outre-Rhin.

Poisons quotidiens

Des études toxicologiques menées par des chercheurs indépendants ou appartenant à des organismes de recherche publique montrent déjà depuis une bonne dizaine d’années que de nombreuses substances utilisées dans les cosmétiques peuvent irriter la peau et enlever son enveloppe protectrice, la traverser, circuler dans le sang, s’accumuler à certains endroits de l’organisme ou prendre la place habituellement réservée aux hormones (perturbateurs endocriniens). On sait que certaines déclenchent, aussi, des réactions allergiques ou provoquent des cancers. Les substances pointées sont des produits dérivés de la chimie des hydrocarbures, que les industriels eurent un jour l’idée d’incorporer à des crèmes de beauté, probablement plus pour exploiter au maximum les résidus des raffineries de pétrole que pour la santé de notre peau. Or les cosmétiques, contrairement aux médicaments, ont le droit de se passer d’autorisation de mise sur le marché car ils sont supposés ne pas avoir d’effets notoires sur l’organisme. Pourtant la peau étant ce qu’elle est, une simple interface entre l’intérieur et l’extérieur, toute substance chimique qu’on lui applique peut finir par pénétrer dans l’organisme et y avoir un effet bien moins anodin que ce que l’on ne pensait ! L’histoire n’est pas neuve. Déjà du temps des Égyptiens et des Romains, les belles utilisaient un fard à base de céruse, une poudre de plomb qui rendait la peau blanche. Mais aussi du vermillon, poudre de cinabre (minerai de mercure) qui leur donnait le rouge aux joues. Non sans effets notoires, bien évidemment.

L’Europe plus stricte

Que les cosmétiques puissent être dangereux n’est donc pas une découverte, mais le législateur a quelque peu tardé à intervenir dans le domaine de la beauté. Il aura fallu pour cela qu’éclate en France l’affaire du talc Morhange, en 1972. Suite à une erreur de manipulation, le fabricant de ce talc destiné aux fesses des nourrissons avait surdosé son produit en hexachlorophène, une substance bactéricide toxique à haute dose. Bilan : plus de 30 morts et 200 victimes lourdement handicapées. S’en était suivie dès 1975 une loi et rendant obligatoires l’étiquetage des cosmétiques et la traçabilité des lots. Mais pas leur innocuité. Trois décennies plus tard, en mars 2005, un reportage d’Envoyé spécial, sur France 2, remettait le problème sur le tapis en révélant au grand jour que les produits cosmétiques recelaient de nombreux ingrédients nocifs : conservateurs comme les parabènes ou le phénoxyéthanol, éthers de glycol, phtalates, sels d’aluminium antitranspirants. Plusieurs campagnes d’ONG écologistes comme Greenpeace (Cosmétox) ou le WWF (Toxiques au quotidien) dénonçaient, outre les effets néfastes de ces substances pour la santé humaine, leurs conséquences désastreuses pour l’environnement. Les législateurs ont alors renforcé les règles, favorisées par le contexte de renforcement réglementaire de l’Union européenne… Pour notre santé, une réglementation européenne sur les cosmétiques s’est mise en place dès 2006. Puis une version plus stricte, rédigée en 2009, entrée en application le 11 juillet decette année. Plus largement, concernant tous les produits chimiques employés par l’industrie (dont celle des cosmétiques), une réglementation européenne REACH (Registration, Evaluation, Authorisation and Restriction of Chemicals) demande depuis 2007 aux fabricants de réaliser des évaluations toxicologiques des produits qu’ils mettent sur le marché et dont bon nombre, donc, entrent dans la composition des cosmétiques. Mais son application est suivie avec la lenteur du mastodonte, ce qui laisse encore bon nombre de substances dangereuses sur le marché…

Le nouveau règlement Bien sûr, ce nouveau règlement entré en vigueur le 11 juillet dernier interdit l’utilisation des substances reconnues comme cancérogènes (tels que les colorants azoïques ou les muscs de synthèse) et comme perturbateurs endocriniens (nonylphénol ou bisphénol A). Il interdit aussi les phtalates les plus dangereux tels que le dibutylphtalate (DBP) ou le diéthylhexylphtalate (DEHP) ainsi que de nombreux hydrocarbures, comme le pétrole (petrolatum) qui avait fait les beaux jours d’une célèbre lotion

Les industriels, pas pressés de faire évaluer leurs ingrédients

La réglementation européenne REACH impose depuis 2007 à tous les fabricants de produits chimiques (dont font partie les ingrédients de l’industrie cosmétique) de réaliser eux-mêmes les évaluations toxicologiques des produits qu’ils mettent sur le marché. Malgré ces obligations, de nombreux produits que l’on sait être dangereux continuent d’être diffusés. Les industriels, réunis dans un lobby puissant et influent, se réfugient derrière l’ampleur de la tâche : 30 000 substances à évaluer…, également derrière son coût (ces évaluations toxicologiques coûtent très cher), pour faire traîner les choses. Même si la commission européenne a dressé un bilan plutôt positif en juin 2012, recensant plus de 7 000 substances correctement enregistrées, des ONG comme Greenpeace pointent le fait qu’il ne s’agit pas des plus dangereuses ou des plus préoccupantes : des 500 substances connues comme cancérogènes, seules moins d’une centaine ont été évaluées. Quant aux substances produites en petite quantité (moins de 10 tonnes), comme les nanoparticules qui ont fait les beaux jours de l’innovation cosmétique de ces dernières années, elles ne seront pas évaluées avant 2014 • * Registration, Evaluation, Authorisation and Restriction of Chemicals.

6 conseils pour bien choisir

Lire les étiquettes ? Pas toujours facile… Voici comment aller à l’essentiel dans lechoix d’un produit.

Cherchez le label ! Bio, les cosmétiques sont moins toxiques.

Observez la liste des ingrédients et privilégiez les compositions courtes. Plus un produit contient d’ingrédients, plus il risque d’entraîner des allergies. Notez que même certains produits cosmétiques biologiques présentent des formules « chargées » de 20 à 50 ingrédients, ce qui n’est pas sans rappeler parfois la cosmétique classique…

Ne vous faites pas avoir par les mises en avant trompeuses d’un extrait de plante. Les ingrédients sont présentés par ordre décroissant d’importance. Mais lorsqu’ils sont présents en quantité inférieure à 1 %, ils peuvent être cités dans le désordre, sans préciser le pourcentage. Rien n’empêche alors le fabricant de placer un extrait de fruit ou de plante représentant seulement 0,001 % de la composition avant un conservateur conventionnel présent à 0,2 % ou 0,3 % !

Si vous choisissez un cosmétique non labellisé, repérez dans la liste les ingrédients qui risquent de mettre votre santé en danger (voir encadré). Méfiez-vous aussi des produits étiquetés « sans paraben » qui peuvent contenir des conservateurs non moins problématiques.

Préférez la douceur : privilégiez les formules à base d’eau (aqua), et même d’eaux thermales ou florales. Pour les produits lavants, évitez le SLS (sodium lauryl sulfate) et le laureth sulfate, réputés être les plus irritants pour la peau, mais autorisés, y compris en cosmétique bio, ainsi que l’ammonium lauryl sulfate, particulièrement irritant mais là encore autorisé par exemple dans la charte Cosmébio. A contrario, privilégiez les tensioactifs issus du sucre (gluco) ou du coco comme le sodium cocoyl glutamate.

N’oubliez pas qu’en vertu de la loi du 1er janvier 1997 sur l’étiquetage des cosmétiques, vous êtes en droit de demander au fabricant la composition exacte de son produit.

capillaire visant à empêcher la chute des cheveux… et qui a, depuis, dû être remplacé. Enfin, il interdit également pas moins de vingt-deux ingrédients particulièrement dangereux qui étaient jusqu’alors autorisés dans les teintures capillaires. Mais il continue d’autoriser les controversés parabènes, des conservateurs accusés d’affecter aussi la qualité du sperme, le développement du foetus mâle et d’être de forts sensibilisants et irritants pour la peau et les yeux, des alkylphénols, utilisés pour la fabrication de parfums, ainsi que d’autres substances problématiques comme les butylhydroxytoluène (BHT), le butylhydroxyanisole (BHA), l’ethylenediaminetetraacetate (EDTA), et certains filtres solaires.

Les risques de la substitution

Poussés par la mauvaise publicité faite autour de ces substances, certains laboratoires ainsi que de grandes marques de cosmétiques ont commencé à revoir totalement leurs formulations, comme en témoignent les nombreuses étiquettes « sans » qui fleurissent sur les flacons de gels douche, de crèmes ou de shampooings. Un progrès qui ne doit pas nous rendre dupes : même si l’étiquette est très vendeuse, la mention « sans parabène » ne signifie pas pour autant sans danger. Certains fabricants ont en effet remplacé ces conservateurs par d’autres, tout aussi hasardeux. Ce qu’illustre parfaitement le cas des lingettes pour bébé sans parabène : celles-ci contiennent souvent de la chlorhexidine digluconate, un antiseptique qui passe dans le sang et peut être responsable d’eczéma de contact, ainsi que du méthylisothiazolinone (MIT) et du méthylchloroisothiazolinone (MCIT)… Cela alors même que les lingettes, ainsi que l’a dénoncé dès 2008 le Comité pour le développement durable en santé (C2DS), ne sont pas supposées devoir être suivies d’un rinçage à l’eau et qu’elles mettent la peau des nourrissons (à l’endroit où elle est le plus sensible !) longtemps en contact avec ces substances. Le MIT a clairement été associé par la Société française de dermatologie à l’explosion du nombre d’irritations et d’eczéma chez les nourrissons. Cela, précisément, depuis que… les parabènes sont tombés en disgrâce. Autres conservateurs tout autant autorisés dans les produits sans parabènes, le formaldéhyde, pourtant reconnu comme cancérigène par le Centre international de recherche sur le cancer (CIRC) ainsi que des conservateurs susceptibles d’en émaner au contact de l’eau (ce qui est habituellement le cas lorsque l’on se lave !) – DMDM hydantoïne, quaternium-15, imidazolidinyl urea, qui peut causer des dermatites, ou les 2-bromo-2-nitropropane-1,3- diol. Pas de réserve non plus pour le triclosan, un agent antibactérien qui pourrait notamment favoriser l’apparition des résistances aux antibiotiques.

Le bio à portée de fraude

Une enquête publiée en 2009 par la Direction générale de la consommation, de la concurrence et de la répression des fraudes (DGCCRF) rappelle même que les industriels peuvent mentir sur la concentration en ingrédients d’origine naturelle (autrement dit avoir recours à la place à des composés synthétiques) : sur 47 prélèvements réalisés en 2006 et 2007 par l’organisme officiel, six ont même été déclarés non conformes à cause de la présence de produits de synthèse dans des produits pourtant qualifiés de naturel ou de bio

Exclus dans les produits bio

Face à ces produits douteux, le bio s’impose clairement comme un rempart. Les substances synthétiques les plus dangereuses y sont proscrites, même si, les conservateurs restant indispensables, la plupart des labels en autorisent certains, les plus doux : acide sorbique, acide citrique ou benzoate de sodium. En cosmétique bio comme en conventionnelle, la mention « sans conservateurs » mise en avant par certains fabricants demande, là encore, méfiance : mis à part certains conditionnements (airless) qui permettent vraiment de se passer de ces substances, elle signifie que le fabricant utilise simplement un produit qui n’est pas référencée comme conservateur dans le règlement européen. Par exemple des huiles essentielles ou des alcools, dont l’utilisation peut aussi exposer le consommateur à des risques d’allergie ou d’intolérance cutanée.

Sous leurs jolis noms, ils cachent le pire de la chimie…

Parmi les quelques 2 500 substances couramment employées en cosmétique, une dizaine, depuis

longtemps interdites en bio, sont toujours utilisées dans des produits cosmétiques courants.

Si vous n’achetez pas bio, sachez les éviter.

Avène, Cold Cream Pain surgras, Klorane, Déodorant très doux à l’althéa blanc, bille

Contient :Butylhydroxyanisole (BHA),antioxydant

Nocivité : Perturbateur endocrinien.

Axe, Style Mèches au vent Crème Fix & Flex

Contient : Iodopropynyl butylcarbamate, conservateur

Nocivité : libérateur de formaldéhyde, cancérigène

Bioderma, Matriciane Rides Crème matricielle resurfaçante,

Kéraknyl, Stick correcteur teinté

Contient : Butylhydroxytoluene (BHT), antioxydant

Nocivité : Perturbateur endocrinien

Clinique, BB Cream SPF 30

Contient :Benzophenone-3 (BP3) (oxybenzone),filtre solaire

Nocivité :Perturbateur hormonal

Decléor, Crème double éclatLife Radiance

Contient : Methylisothiazolinone (MIT),conservateur

Nocivité :Irritant et allergisant

Erborian, BB Crème au ginseng

Contient : Cyclopentasiloxane (D5), émollient

Nocivité : Perturbateur endocrinien

Laboratoires Didier Rase, Masque relaxant détoxifiant

Contient : Butylparaben, conservateur

Nocivité : Perturbateur endocrinien

Laino, Savon liquide d’Alep

Contient Ethylenediaminetetraacetate (EDTA), agent de liaison

Nocivité Réactions chimiques incertaines

La Roche-Posay, Hydreane riche Crème hydratante peaux sensibles

Contient Chlorhexidine, antibactérien Nocivité

Résistant aux antibiotiques

Le Petit Marseillais, Crème mains nourrissante peaux très sèches

Contient : Phenoxyethanol (EGPhE), conservateur

Nocivité : Allergisant

L’Occitane en Provence, Gel douche verveine agrumes

Contient : Methylchloroisothiazolinone (MCIT),conservateur

Nocivité : Irritant et allergisant.

L’Oréal Paris, Mascara Beauty Tubes Double Extension

Contient : Imidazolidinyl Urea, conservateur

Nocivité : Libérateur de formaldéhyde, cancérogène

Mavala, Mavala scientifique Durcisseur d’ongles

Contient : Formaldéhyde, durcisseur

Nocivité : Cancérogène

Parogencyl, Dentifrice Sensibilité Gencives

Le Petit Marseillais, Crème mains nourrissante

Contient : Methylparaben, conservateur

Nocivité : Perturbateur endocrinien

Rogé Cavaillès, Gel fraîcheur « sans parabènes »

Contient : DMDM Hydantoin, conservateur

Nocivité : Libérateur de formaldéhyde, cancérogène

Rogé Cavaillès, Soin toilette intime

Contient : Triclosan, antibactérien

Nocivité : Résistant aux antibiotiques

Shu Uemura, Cleansing Oil Shampoo Shampooing Doux Éclat

Contient :Polyethylene glycol (PEG), tensioactif

Nocivité :Irritant

Vichy, Derma Blend Ultra Correcteur Teint stick

Contient : Paraffinum liquidum, base

Nocivité :Hydrocarbure irritant

Source : Observatoire des cosmétiques

Une éthique qui ne coule pas de source

L’industrie cosmétiques pose un problème auquel on pense moins : le pillage des savoirs traditionnels. C’est souvent dans les savoirs des peuples lointains que les laboratoires puisent l’inspiration de leurs nouveaux produits, faisant même souvent de ces savoirs des arguments marketing. Qu’on pense simplement au monoï des vahinés ou au beurre de karité des Africaines. Les choses changent, là encore, avec les réglementations, qui imposent peu à peu que des négociations soient menées en amont avec les communautés détentrices des savoirs pour qu’elles soient indemnisées. Des labels comme Rainforest Alliance, Forest Garden Products Bioéquitable ou Fair Trade Max Havelaar intègrent ces critères de protection de la nature ou de commerce durable et équitable sur les ressources végétales. Mais les autres n’en tiennent pas compte, ne précisant pas souvent leurs filières d’approvisionnement.

Des repères

Ironie du sort, pour les cosmétiques, la mondialisation est peut-être bien une chance pour le consommateur. Pour pouvoir les diffuser sur le marché mondial, les fabricants de cosmétiques doivent depuis décliner la liste de leurs ingrédients conformément à une nomenclature commune, l’INCI (International Nomenclature of Cosmetic Ingredients ou Nomenclature internationale des ingrédients cosmétiques). Définie par l’association internationale des professionnels du secteur, la CTFA (Cosmetic, Toiletry and Fragrance Association), elle n’est cependant pas facile quand on n’est ni chimiste ni botaniste. Car les ingrédients se traduisent dans la liste INCI dans deux langues, l’anglais et le latin, ou sous forme de codes… Les noms latins désignent souvent des substances d’origine naturelle comme l’eau (aqua) ou les extraits de plantes (dénomination botanique scientifique). Ils sont habi tuellement suivi des mots anglais : leaf (feuille), seed (graine), extract (extrait), oil (huile), wax (cire) pour désigner la partie utilisée de la plante. Parmi les plus couramment rencontrés, prunus armeniaca oil désigne ainsi par exemple l’huile d’amande d’abricot ou butyrospermum parkii butter le beurre de karité, tandis que l’hydrogenated castor oil est le petit nom de l’huile de ricin hydrogénée. Le latin n’est pas une garantie, car il ne désigne pas que des végétaux ! Il désigne des produits naturels beaucoup moins désirables comme… les sous-produits résultants de la distillation du pétrole. On distingue cependant ces derniers assez facilement : paraffinum liquidum désigne l’huile de paraffine, cera microcristallina la cire de paraffine, ces deux ingrédients étant connus pour obstruer les pores de la peau, voire déclencher des allergies. Les noms anglais sont pour leur part les noms des molécules chimiques ou de matières premières usuelles. Là non plus, à moins d’être bilingue, pas facile de s’y retrouver mis à part pour zinc oxyde (oxyde de zinc), honey (miel), éventuellement bee wax, cire d’abeille. Les codes à 5 chiffres précédés des initiales CI (Color Index) correspondent quant à eux aux colorants, sans distinction d’innocuité et de nocivité. À 7 chiffres, là on abandonne ! Ce sont des ingrédients dont le fabricant veut garder le secret et auquel l’INCI accorde un code. Dans cette confusion de substances, les cosmétiques biologiques ou naturels, toujours, font la différence : ils présentent des formules avec des ingrédients plus naturels, voire biologiques, une garantie d’exclusion des produits de la pétrochimie et des composés les plus toxiques, mais aussi une volonté de transparence pour le consommateur avec, en regard de la composition INCI, obligatoire depuis 1998 en Europe, la traduction du nom des ingrédients dans la langue du marché visé.

L’eau n’est pas comptée

La nomenclature INCI, en plus d’être opaque pour la plupart des consommateurs, a aussi ses limites : la quantité exacte des ingrédients reste inconnue, ainsi que leur origine géographique, leur mode d’obtention ou de fabrication. L’eau, par exemple, n’a pas de certification en bio. Or elle est loin d’être toujours puisée dans une source, comme le fait par exemple la marque Léa Nature avec sa gamme cosmétique à l’eau thermale de Jonzac. L’eau des ingrédients peut très bien être de l’eau déminéralisée, distillée, osmosée… ou simplement provenir du robinet. Toutes sont bonnes en cosmétique conventionnelle ou bio. Les chimistes vous diront que toutes les molécules se valent… Autre limite, les plantes, qui peuvent, si elles ne sont pas cultivées en bio, avoir poussé sur des sols contaminés aux pesticides sans aucune obligation d’étiquetage. Ou avoir été génétiquement modifiées. La lécithine par exemple peut provenir du soja, dont on sait qu’une grande partie est d’origine transgénique. Car, réglementairement, à moins de 1 % de la composition totale, comme dans les produits alimentaires, il n’est nul besoin de spécifier sur l’étiquette la présence d’OGM… En proscrivant les OGM et en privilégiant les plantes issues de l’agriculture biologique, les labels bio offrent a priori aux consommateurs des garanties précieuses, vérifiables sur l’étiquette : un ingrédient issu de l’agriculture biologique mérite dans la nomenclature INCI d’avoir un astérisque accolé à son nom. Enfin, même l’origine naturelle d’un ingrédient pose parfois question, les laboratoires de cosmétiques s’approvisionnant en ingrédients auprès de multiples fournisseurs, souvent situés à l’étranger et pas toujours transparents…

Parfum or not parfum ?

De nombreux cosmétiques bio ou conventionnels contiennent du parfum, pour être plus attrayants ou tout simplement masquer l’odeur du mélange chimique de la composition. Les parfums sont certes présents en très faible quantité (moins de 1 %), et les labels bio interdisent les parfums synthétiques. Mais, un parfum, même d’origine végétale ou animale, a besoin de produits chimiques pour être stabilisé, tels que… des phtalates (aujourd’hui interdits), des alkylphénols ou des éthoxylates d’alkylphénols. Dispensé d’étiquetage exhaustif par la réglementation, le parfum n’est mentionné que de façon très laconique par la mention générique fragrance (ou parfum) qu’impose la nomenclature INCI. Sa composition n’a pas d’obligation à être détaillée pour des raisons de secret industriel (le parfum est un mélange mis au point par des « nez »…). Il existe une exception : lorsque l’un des 26 allergènes listés par la réglementation européenne est présent dans sa composition, sa présence est mentionnée. Dans le doute, mieux vaut s’abstenir et préférer les produits parfumés avec des huiles essentielles (même si certaines contiennent les substances allergisantes à déclaration obligatoire) ou des hydrolats de fleurs, ce qui est d’ailleurs généralement précisé sur l’étiquette (la nature étant toujours mise en avant par des industriels qui n’oublient pas qu’elle est leur meilleur argument de vente !). La mention « non parfumé », elle, n’est pas une garantie : elle signifie simplement qu’il n’y a pas de parfums ajoutés, ou qu’il y a un ingrédient qui masque l’odeur des autres ingrédients dans le cosmétique. En cosmétique conventionnelle, le phénoxyéthanol reste utilisé. S’il est interdit en bio (sauf dans la charte du label Soil) la cosmétique bio continue, elle, d’autoriser l’alcool benzylique, un conservateur qui se trouve aussi masquer fort bien les odeurs…

La jungle des labels bio

Dans ce contexte d’opacité, les labels bio veulent apporter quelques garanties fermes au consommateur. Sontelles suffisantes ? Avec près d’une vingtaine de labels, le moins qu’on puisse dire est qu’il n’est pas facile de s’y retrouver. Tous sauf Nature & Progrès autorisent des ingrédients de synthèse, certains comme Écocert autorisent même par dérogation des procédés issus de la pétrochimie et la plupart des labels gonflent le pourcentage d’ingrédients biologiques en incluant l’eau ! Tous les labels ne se valent pas, d’autant plus que la part du bio y varie, aussi, de 10 à 95 % ! À la source de cette variation, la confusion savamment entretenue entre le naturel et le bio. D’abord, naturel ne signifie nullement végétal. C’est simplement tout ce qui n’est pas artificiel. Le pétrole, par exemple, est un ingrédient tout à fait naturel. Comme l’aluminium, le bore, les silicones ou le propane. Si les ingrédients plus nocifs ou de plus mauvaises presses ont été interdits par la plupart des labels, on voit bien que la compréhension de la notion de naturel par les labels est plus qu’étendue… La plupart autorisent aussi des ingrédients « d’origine naturelle », c’est-àdire des ingrédients naturels qui ont subi des transformations physiques ou chimiques et dont les résultats n’ont plus grand-chose de naturel : une huile de palme estérifiée comme l’isoamyle laurate, par exemple, est considérée comme un ingrédient d’origine naturelle… La certification bio, elle, ne peut s’appliquer qu’à ce qui est cultivé – selon les principes de l’agriculture biologique, donc qu’aux végétaux et aux produits d’origine animale (lait…). Pas à l’eau, nous l’avons dit, et pas à des ingrédients minéraux comme les sels d’alun. Dans une volonté d’harmonisation européenne, et après plus de dix ans de discussions (sur fond de concurrence entre les marques) entre les labels européens – BDIH (Allemagne), Cosmébio et Écocert Greenlife (France), ICEA (Italie) et Soil Association (Royaume-Uni) – les labels Cosmos sont apparus en 2009 pour harmoniser les standards et faciliter le repérage des cosmétiques biologiques (Cosmos Organic) et des cosmétiques naturels (Cosmos Naturel) certifiés. Comme dans toute harmonisation, on peut cependant reprocher que les normes aient été abaissées à l’exigence minimale : les cosmétiques bio européens s’alignent sur une composition d’au moins 10 % d’ingrédients biologiques et autorisent 5 % d’ingrédients d’origine synthétique.

Des cosmétiques plus éthiques ?

Tous ces labels ne tiennent pas encore compte non plus de l’éthique des approvisionnements. Car la recherche d’actifs naturels dans les plantes n’est pas sans poser des questions plus larges : les plantes viennent souvent de l’autre bout du monde et posent des problèmes écologiques et humains. Sur place, elles risquent par exemple, à force d’être cueillies, de disparaître. Souvent, elles conduisent à l’exploitation des populations humaines : pour réduire les intermédiaires, les grandes marques installent sur place des « filiales » chargées de négocier en direct avec les producteurs locaux, faisant la pluie et le beau temps tout en se vantant, au mieux, de faire du commerce équitable ou éthique… En septembre 2009, un reportage d’une chaîne de la télévision allemande dénonçait Daboon, producteur colombien d’huile de palme notamment pour la marque The Body Shop (achetée en 2006 par L’Oréal). Ce reportage accusait Daboon d’avoir participé à l’expulsion par la force publique de 123 familles de petits paysans, dans le but de faire de la place pour implanter ses cultures de palmier à huile. Suite au scandale, L’Oréal a coupé les ponts avec son fournisseur colombien afin de ne pas ternir son image de marque auprès des consommateurs. Mais l’huile de palme, dont on connaît les ravages environnementaux, est irremplaçable, car très peu chère. Et entre dans la composition d’un grand nombre d’ingrédients cosmétiques, y compris autorisés en bio… de façon assez discrète mais très repérable comme en témoignent les dénominations en palm, lauryl, myrist voire stearat. Seul Nature & Progrès en exige la certification bio. S’il est déjà difficile d’être bio à 100 %, il semble l’être encore plus d’être écolo jusqu’au bout des ongles !

Encore du chemin à faire

On voit donc bien que le bio a su tirer vers le haut le conventionnel. De plus en plus de fabricants se conforment à son cahier des charges minimal. La cosmétique conventionnelle a elle-même su tirer avantage des normes et exigences des cosmétiques bio ou naturels en développant des produits moins toxiques pour notre santé. Il ne faut pas oublier qu’elle y a été contrainte par les réglementations environnementales, qui tendent à mettre les industries aux normes de la chimie verte… Pour autant, tout est loin d’être résolu en matière de toxiques, notamment en ce qui concerne les perturbateurs endocriniens qui menacent la fertilité de l’espèce humaine. Pour le conventionnel, le chemin risque d’être très long car les pouvoirs publics et les industriels traînent. Début 2013, une enquête publiée par les associations de consommateurs européens (dont l’UFC-Que Choisir) a inspiré nos sénateurs, au nom du principe de précaution, à demander au mois de juin dernier au ministre des Affaires sociales et de la Santé d’indiquer la position du gouvernement français face aux problèmes posés par ces substances, dont font partie les parfums… Sans doute parce que le marché des cosmétiques pèse son poids dans la balance économique, la réponse, à ce jour, n’a pas été donnée. Mais le travail est en cours : fin 2012, les perturbateurs endocriniens ont été inscrits au programme de la conférence environnementale, ils ont fait l’objet d’un groupe de travail et même d’une consultation publique du 20 août au 20 septembre 2013 afin que chaque citoyen puisse donner son avis. En attendant, les consommateurs ont tout intérêt à se fier aux labels biologiques, qui demeurent les plus rigoureux pour choisir des cosmétiques plus sains, voire plus écologiques et plus éthiques. S’il est important de rappeler que tous les labels ont été mis en place avant tout en réaction à la cosmétique conventionnelle, longtemps simple filiale de l’industrie chimique, il faut rappeler aussi que, sur ce nouveau segment de marché porteur qu’est le bio, des industriels repentis, « convertis » à une cosmétique plus propre, sont loin d’avoir le même niveau d’exigence que les marques historiques et les pionniers de la cosmétique bio comme Weleda, Cattier ou Lavera ou bon nombre d’entreprises plus familiales. Cela s’en ressent dans la jungle des labels verts – écologiques, biologiques, équitables ou solidaires… En clair pour le consommateur, les labels bio font une première partie d’un travail, à lui de faire le reste. Il nous appartient de ne pas nous laisser berner par de fausses assertions, de lire un tant soit peu les étiquettes et de rester vigilant sur la philosophie et l’éthique des marques auxquels nous accordons notre confiance.

Quelles normes pour les labels bio ou naturels ?

tous les labels bio interdisent le recours à des ingrédients végétaux issus d’OGM, l’ajout intentionnel de nanomatériaux ou d’ingrédients issus de la pétrochimie, l’exploitation des espèces végétales ou animales en danger et, comme tous les cosmétiques désormais, les tests sur les animaux. Pour le reste, difficile de comprendre ce qui les différencie… Pour se repérer dans la jungle des labels verts, comprendre certaines définitions est un passage obligé. On vous guide.

NATUREL Ingrédients présents en tant que tels dans la nature, non transformés ou transformés au moyen de procédés physiques autorisés par les cahiers des charges reconnus. Éléments végétaux, mais aussi minéraux, marins ou encore issus de la production animale. Et l’eau, bien sûr.

VÉGÉTAL Ingrédients issus exclusivement d’un végétal : il peut s’agir d’un extrait de plante, d’une huile, d’une huile essentielle…

BIOLOGIQUE Ingrédients issus de l’agriculture biologique, donc exclusivement végétaux ou animaux.

LE RESTE ? Ce sont des ingrédients synthétiques, obtenus en laboratoire par réaction chimique. Ils peuvent être artificiels… ou semblables à un ingrédient présent dans la nature, auquel cas ils sont dits « nature-identique » ou « naturelike ». Chaque label fixe ainsi (sauf Nature & Progrès et Demeter qui exigent 100 % de naturel) des listes positives d’ingrédients synthétiques autorisés. Selon leurs déclarations, les colorants synthétiques, parfums de synthèse et ingrédients issus de la pétrochimie sont interdits ; cependant aucun ne communique la liste exacte des composants interdits…

Chercher le bio

La plupart des labels ne mentionnent la part de bio que sur que la partie végétale et non sur l’ensemble du produit. Seuls deux mentionnent un pourcentage de bio minimum sur la part totale : Cosmébio (de 5 à 10 %) et Cosmos Organic (20 %). Mais ce ne sont justement que des minimums, là où les autres labels préfèrent viser le maximum

possible, tout en interdisant les ingrédients de synthèse.

Labels  Part bio sur ingrédients végétaux  Ingrédients  synthétiques

Nature & Progrès 100 % NON

Demeter, Agriculture bio-dynamique 100 % NON

NaTrue, Cosmétique biologique 95 % NON

Cosmos Organic 95 % OUI < 5%

Écocert, Cosmétique biologique 95 % OUI < 5%

Cosmébio, Bio 95 % OUI < 5%

NaTrue, Cosmétiques naturels en partie bio 70 % NON

NaTrue, Cosmétiques naturels – NON

Cosmos Natural – OUI < 2%

Écocert, Cosmétique écologique 50 % OUI < 5%

Cosmébio Éco 50 % OUI < 5%

Soil Association 70-95 % NON

BDIH 95 % OUI *

Bio Équitable 95 % OUI

Bio Solidaire 95 % OUI

Écocert ESR 95 % OUI

Cheveux : des teintures explosives

Aussi incroyable que cela puisse paraître, les ingrédients qui composent nos teintures capillaires sont sans doute les plus dangereux de toute l’industrie cosmétique : une raison suffisante pour trouver d’autres façons d’embellir nos crinières.

Au mois d’août, Carole M. a fait les frais d’un cocktail détonnant. En testant sur sa chevelure L’Ultra-Blond, dernier-né de la gamme Inoa de L’Oréal, cette coiffeuse professionnelle s’est très vite aperçue, au rinçage, qu’ils tombaient par paquets, se cassant à un centimètre du cuir chevelu, comme s’ils avaient été brûlés. Bilan des dégâts : des plaques de calvitie. En attendant que ses cheveux repoussent, Carole, comme beaucoup d’autres, a porté plainte contre L’Oréal et la teinture a été retirée du marché. « Résorcinol, EDTA, paraphénylediamine (PPD) ou dérivés de diaminophénol pour ne citer que quelquesuns des principaux constituants des teintures, furent des explosifs utilisés par l’armée avant d’entrer dans la composition des teintures capillaires ! affirme Rémi Guyomarch, fondateur de Terre de Couleur, marque de soins et colorations végétales. Le principe de la coloration conventionnelle est d’exploser la cuticule du cheveu pour que la couleur prenne directement sur la kératine. » Mais les teintures capillaires chimiques menacent à plus long terme encore nos bulbes capillaires : leurs résidus s’accumulent jusqu’à loin sous le cuir chevelu et pour longtemps. « À l’heure où 60 % des femmes et 5 à 10 % des hommes se teignent les cheveux, il n’est plus rare de constater lors des autopsies une couche noire de quelques millimètres d’épaisseur sous le cuir chevelu », rapporte France Guillain dans son livre « L’argile tout simplement ». Détonnant, mais pas étonnant : les produits présents dans les teintures chimiques sont classés comme mutagènes ou potentiellement cancérogènes ! On comprend mieux pourquoi elles ne doivent pas être utilisées sur les cils et les sourcils, sont déconseillées aux moins de 16 ans et formellement interdites aux femmes ayant déclaré un cancer. Les teintures capillaires ont été associées à un risque important de récidive…

Libérer ses bulbes !

Les colorations végétales ne sont pas toutes inoffensives, même le henné (Lawsonia inermis), susceptible de contenir des métaux lourds. Les marques 3 Chênes, Martine Mahé, Beliflor et Wella n’excluent que partiellement les produits dangereux*. Aujourd’hui, seules quatre marques sont considérées sans risques : Logona, Terre de Couleur, Marcapar et, depuis cette année, Nathalie Tuil Création, qui propose des soins et couleurs haut de gamme, sans aucune substance de synthèse. De quoi se refaire une jolie teinte et éliminer les résidus d’anciennes teintures chimiques.

* Source : enquête de Féminin Bio, juillet 2010. 2 1 novembre 2013 by adminBioinfo

À qui appartiennent les ressources énergétiques de l’Islande?

Article écrit pour Novethic en juin 2013

Malgré l’impact environnemental délétère des barrages sur l’environnement, et l’opposition d’une partie de la population, l’Islande, qui vient d’élire un nouveau gouvernement, poursuit le développement de sa production hydroélectrique  pour les besoins de multinationales étrangères. Une vieille histoire.

Mi-mars 2013, les médias islandais ont révélé un scandale environnemental : la mort du lac Lagarfljót, aux environs de la ville d’Egilsstaðir, au nord-est de l’île, qu’alimente depuis 2008 les eaux du barrage de Kárahnjúkar. Révélée par le rapport annuel de la Landsvirkjun, la compagnie nationale d’électricité, la turbidité du lac long de 92 km et jadis paradis des pêcheurs, a considérablement augmenté : en cause, le détournement d’une rivière glaciaire pour alimenter le réservoir du barrage. Les rivières glaciaires charrient en effet beaucoup de sédiments, rendant la photosynthèse difficile, et donc la survie des poissons. L’ichtyologue Guðni Guðbergsson, de l’Institut des pêcheries d’eau douce, confirme : la densité de population de l’omble arctique et de la truite brune a diminué de 80 % depuis 2008. Même si la quantité de sédiments dépend de la fonte des glaciers, qui peut varier selon les années, le constat est inquiétant.”

Une catastrophe prévisible 

Dès 1999, tous les rapports scientifiques alertaient sur l’impact du projet de ce barrage pharaonique sur la qualité des eaux. Mais, malgré les avis négatifs des agences nationales de l’environnement et de conservation de la nature, l’opposition des associations écologistes et d’une grande partie de la population islandaise, la ministre de l’environnement en poste en 2002, Siv Friðleifsdóttir donnait son accord, pour les travaux, témoignant d’une stratégie politique de développement du pays plus forte que toutes les considérations environnementales.

L’Islande dispose de ressources naturelles renouvelables (hydrauliques et géothermiques) lui permettant de remplir 80 % de ses besoins en énergie. Depuis le début des années 1990, les énergies fossiles n’y servent qu’aux transports. Grâce à une clause spécifique dans le cadre du protocole de Kyoto, elle a même été autorisée à augmenter ses émissions de gaz à effet de serre de 10 %. Dès lors le pays a projeté la construction de nouveaux barrages et centrales, destinés à augmenter sa production hydroélectrique. Non pour ses 320 000 habitants, déjà pourvus, mais pour séduire des multinationales étrangères particulièrement gourmandes électricité, avec un kWh   trois fois moins cher que dans le reste de l’Europe, et, comme tout kWh produit par hydroélectrité, bien moins émetteur de CO2[1]. Première cible visée  : les fonderies d’aluminium, invitées à s’installer dans les Fjords islandais . 

… mais une aubaine pour les producteurs d’aluminium

Grâce à ses trois fonderies[2], l’Islande compte   aujourd’hui pour 2 % dans la production mondiale d’aluminium (40 millions de tonnes) sans en détenir un seul gisement. Avec 803 210 tonnes produites en 2012 , le métal représente aujourd’hui  plus de 40% des exportations du pays, soit autant que les produits de la pêche … en consommant les trois quarts de sa production annuelle d’hydroélectricité (17 TWh). Avec une quatrième fonderie en construction prévue pour fin 2013 à Helguvik ( Century Aluminium), l’Islande devrait franchir la barre du million de tonnes à l’horizon 2014, sur un marché en progression constante.

Les bénéfices réels pour le pays restent incertains : le coût contractuel de l’électricité pour ces multinationales, secret d’État, a été rivé au cours de l’aluminium, en baisse depuis quelques années. Ainsi la Landsvirkjun accuse dans son rapport 2012[3] une baisse de revenus de 6,5 % qu’elle explique par une diminution de 15 % du prix à la tonne (autour de 2000 dollars en 2013). Par ailleurs, les médias ont révélé que les multinationales étrangères ne payaient pas de taxes locales sur les entreprises. Si l’industrie de l’aluminium avec ses quelque 4000 employés compte désormais pour près de 15 % dans le PIB du pays, le coût de construction des barrages, supporté par l’État, pèse lourd dans les charges du pays : avec plus d’un milliard et demi de dollars pour celui de Kárahnjúkar , qui alimente la fonderie d’Alcoa, la politique énergétique islandaise a certainement compté dans la faillite du pays en 2008[4]. Sans compter les dégâts collatéraux : l’Agence Nationale de l’Environnement accuse aujourd’hui Alcoa de ne pas contrôler les émissions de fluorures de sa fonderie Fjarðaál  implantée à Reyðarfjörður, petit village des fjords de l’Est, toutes les zones agricoles alentour ayant été contaminées.

Mais l’Islande continuera sans doute encore longtemps à être le « petit secret le mieux gardé des multinationales de l’industrie de l’aluminium », comme la qualifiait déjà Valgerður Sverrisdóttir, la ministre de l’industrie en poste en 2002…. Son  parti  (le  parti  progressiste)  vient  d’être  réélu, avec le  parti  de l’indépendance, à la tête  du  pays aux  dernières élections législatives  du  pays,  le  27  avril  dernier. Et il compte dans ses rangs le premier ministre  Sigmundur Davið Gunnlaugsson et le ministre de l’environnement  Sigurður Ingi Jóhannsson ( auquel a été également confié le ministère de l’agriculture et de la pêche).  Le premier ministre a déclaré  à la télévision islandaise  la levée de toutes les restrictions environnementales limitant le programme-cadre sur le développement hydroélectrique (et notamment le déclassement des zones protégées instaurées par le précédent ministère, écologiste[5].  D’autres  étendues  sauvages devraient donc être sacrifiées  pour  augmenter  la  production  d’hydroélectricité  islandaise,  potentiellement  de  30 TWh/an. Selon ce plan, au moins 10  barrages  supplémentaires   devraient être construits dans  les  Hautes  Terres inhabitées de l’île d’ici 2020.  Le  premier,  le  barrage  de Búðarháls,  sera  achevé  fin  2013, et exclusivement  dédié  aux  besoins  de la  fonderie  de  Straumsvik  (Rio Tinto Alcan),  qui  vient d’être   agrandie. 

Les autres devraient servir à  alimenter de nouvelles fonderies, mais aussi des cimenteries et des centres de stockages de données informatiques qui nécessitent une climatisation elle aussi très gourmande en électricité. Voire même un projet fou de câble sous-marin destiné à fournir l’Europe en électricité verte. Au nom de la lutte contre le réchauffement climatique.

Clara DELPAS


[1] 1KWh n’émet que 4g de CO2 s’il est produit par hydroélectricité, contre 978 g s’il est produit par une centrale au charbon.

[2] Straumsvik, Grundartangi et Fjarðaál, respectivement propriétés de Rio Tinto Alcan (depuis 1969), de Century Aluminium (1998) et d’Alcoal (2008))

[3] http://www.landsvirkjun.com/media/pdf/Press_release_Financial_Statements_2012.pdf

[4] comme l’affirme l’islandais Andri Snaer Magnason , auteur du documentaire « Dreamland » (lien : http://dreamland.is/)

[5]article en anglais de grapevine.is http://grapevine.is/Home/ReadArticle/government-reviews-restrictions-on-energy-development

Dossier sagasciences sur le nucléaire

J’ai écrit cette partie 3 sur les aspects sociétaux du nucléaire pour le CNRS en 2012.

Il semble que le site de sagasciences ait été purgé de ces « vieux » dossiers , aussi comme les droits de ce que j’ai écrit m’appartiennent, je le republie ici… ( il n’est plus accessible sur le site…)

3 – Aspects sociétaux de l’énergie nucléaire
Depuis ses débuts, le nucléaire civil a toujours été promu comme une «énergie propre» et pacifique. Fondé sur une technologie sûre et à la pointe du progrès, il permettait de s’assurer une indépendance énergétique face au pétrole, ressource inégalement répartie et existant en quantité finie. La France a ainsi fait le choix du nucléaire, comme bien d’autres pays industrialisés et de nombreuses centrales ont été installées dans le monde dès les années 1960-1970.
Puis, les premiers accidents ont commencé à semer le doute dans les esprits. En 1979, celui de Three Mile Island aux Etats-Unis a rappelé que les centrales étaient implantées au voisinage de zones très peuplées. En 1986, la catastrophe de Tchernobyl en Ukraine a révélé que la portée d’un accident dépassait les frontières d’un pays. En 2011, Fukushima a montré que des accidents pouvaient toujours survenir, y compris dans des pays à la technologie réputée très sérieuse comme le Japon.
Le risque d’accident nucléaire est certes décrit comme faible, mais les accidents, eux, sont bien réels et leurs conséquences énormes: contamination de l’environnement, évacuation des populations humaines pour des durées souvent encore indéterminées; ces conséquences font l’objet d’études approfondies, la radioactivité étant un phénomène dont la durée de vie dépasse très largement la durée de vie humaine.
Se pose aussi la question des déchets nucléaires pour lesquels il faut trouver une solution durable acceptable. Leurs effets concernent au moins plusieurs centaines de générations futures, sans parler du risque d’accident toujours présent lors de leur transport.
Bien sûr, de nombreux chercheurs et ingénieurs travaillent sur la sûreté des centrales et la gestion des déchets. Des instances spécifiques, comme l’Autorité de sûreté nationale en France, veillent au respect des normes, aujourd’hui internationalement édictées ; l’idée est d’atteindre le risque d’accident le plus faible possible, une notion qui demeure surtout une question économique résultant d’une analyse coût avantage.
La catastrophe de Fukushima a replacé le nucléaire au cœur du débat public. L’accident japonais est non seulement l’occasion d’interroger la sûreté des installations nucléaires mais, plus généralement, de repenser les relations entre nucléaire et société. Longtemps imposé comme choix politique et décision d’Etat, le nucléaire est contesté par de multiples organisations non gouvernementales et de nombreux citoyens. A commencer par les Japonais, aujourd’hui fortement mobilisés, ou encore les Allemands.
Le nucléaire n’est pas uniquement une question de technique ; c’est aussi une question de société qui ne se limite pas seulement à l’indépendance énergétique, aux perspectives économiques et aux impératifs du développement durable. L’existence et la connaissance du risque nucléaire ont un impact sur les populations, impact qui n’a jamais été vraiment pris en compte. La peur, justifiée ou non, a été assimilée à de l’ignorance et les politiques et les industriels ont longtemps cherché à faire accepter le nucléaire coûte que coûte aux citoyens, considérés comme non compétents pour porter un jugement informé. Ce procédé a sans doute terni la qualité des débats publics menés jusqu’à présent sur le nucléaire. Là encore l’accident de Fukushima a fait changer les choses: en juillet 2011, l’Académie des sciences française a rendu un avis déclarant que la recherche sur le nucléaire ne devait pas être réservée aux organismes l’exploitant, mais se dérouler dans les universités et dans les organismes publics de recherche, comme le CNRS. Une sorte de blanc-seing pour la recherche académique dans son ensemble et notamment pour des programmes de Sciences Humaines et Sociales indépendants des exploitants, qui contribueront peut-être à mettre en place un vrai débat public sur la question du nucléaire.

Perspectives économiques de l’énergie nucléaire
Le rapport parlementaire publié le 15 décembre 2011 par la Mission sur la sécurité nucléaire, la place de la filière et son avenir souligne que le nucléaire français est synonyme d’un savoir-faire industriel internationalement reconnu et représente plusieurs dizaines de milliers d’emplois. Le rapport insiste sur un deuxième aspect : la sécurité énergétique, enjeu de puissance et d’indépendance pour la France et ses industries.
Le rapport de la Cour des comptes paru le 31 janvier 2012 traite plus précisément des coûts de la filière électronucléaire. L’investissement public initial est estimé à 188 milliards d’euros. Les dépenses courantes annuelles s’élèvent aujourd’hui à 10 milliards d’euros pour EDF (dont 8,9 milliards d’euros de charges d’exploitation et 1,1 milliard d’euros de provisions pour la gestion des combustibles usés et la gestion à long terme des déchets) et à 644 millions pour l’Etat (414 millions pour l’effort de recherche et 230 millions pour les coûts relatifs à la sûreté, la sécurité et l’information des citoyens).
Les charges futures, encore incertaines aujourd’hui, sont évaluées à 79,4 milliards d’euros (dont 62 milliards pour EDF) : elles concernent le démantèlement des centrales en fin de vie, la gestion du combustible usé et celle des déchets ultimes. S’y ajoute le surcoût des évaluations de sécurité mises en place après Fukushima ; le rapport de l’Autorité de sûreté nucléaire sur les évaluations complémentaires de la sûreté des installations nucléaires prioritaires au regard de l’accident survenu à la centrale nucléaire de Fukushima Daiichi, paru début 2012 , a été suivi de l’engagement d’EDF d’apporter les investissements nécessaires.
Toujours selon la Cour des comptes, des investissements importants à court et moyen terme sont à prévoir pour permettre le maintien de la production actuelle, ce qui ne sera pas sans conséquences sur le coût global de production de l’électricité.
Causes et enseignements des accidents de Three Mile Island, Tchernobyl, Le Blayais et Fukushima
Three Mile Island
Le 28 mars 1979, à la centrale de Three Mile Island, une panne des pompes principales d’alimentation en eau de l’unité 2 (TMI-2) combinée à une signalisation erronée d’une vanne de secours (déclarée fermée alors qu’elle était ouverte) entraîne la surchauffe du réacteur : s’ensuit la fusion d’une partie du cœur, mais l’enceinte de confinement du bâtiment réacteur n’est pas affectée et il n’ y a pas de rejet de radioactivité dans l’environnement.

Tchernobyl
Le 26 avril 1986, à la centrale de Tchernobyl, lors d’une expérience d’amélioration de la sécurité, six erreurs humaines graves conduisent à un emballement de la réaction en chaîne dans l’un des 4 réacteurs : s’ensuit une augmentation de la température du cœur du réacteur qui fait au contact de l’eau exploser les pastilles combustibles d’oxydes d’uranium puis l’hydrogène formé par le contact de l’eau avec la très forte chaleur produite par le cœur du réacteur. Faute d’enceinte de confinement, le cœur du réacteur se retrouve à l’air libre et le graphite qui sert à ralentir les neutrons prend feu : une grande partie de la radioactivité est envoyée à l’extérieur, 10 jours durant, le temps que l’incendie soit maîtrisé.

Le Blayais
Le 28 décembre 1999, à la centrale du Blayais, après une tempête qui fait déborder l’eau de l’estuaire de la Gironde, l’inondation des sous-sols de la centrale, et notamment des tranches 1 et 2, met hors d’usage certaines installations de sécurité. Les circuits de secours fonctionnent néanmoins et permettent d’éviter la catastrophe.

Fukushima
Le 11 mars 2011, à la centrale de Fukushima, après un tremblement de terre de magnitude 9 survenu dans l’océan Pacifique au large des côtes nord-est du Japon, les réacteurs s’arrêtent et les circuits de refroidissement se mettent en place. Mais, deux heures après, une vague de 15 mètres passe les digues de sécurité, prévues pour des vagues de 5 mètres « seulement », et inonde tout, détruisant les circuits de refroidissement. La température du cœur monte alors, les gaines du combustible fondent, de l’hydrogène se forme et explose détruisant le bâtiment réacteur. Lors de cet accident, une grande quantité de radioactivité est relâchée dans les airs et dans la mer.

Le risque de défaillance d’une centrale nucléaire est supposé être si minime que chaque accident grave est l’occasion d’en tirer des leçons. L’accident de Three Mile Island a eu des conséquences positives en terme de « sûreté des réacteurs » : une culture de la sûreté s’est développée, ce qui a conduit à améliorer la sécurité des réacteurs dans le monde entier.
La catastrophe de Tchernobyl a constitué une leçon grandeur nature de la gestion des accidents graves, de la communication et de l’information du public. Si elle a été vite mise sur le compte d’un régime soviétique vieillissant, incapable d’assurer l’entretien de ses centrales, elle a surtout mis en évidence les répercussions transfrontalières que pouvait avoir un accident nucléaire. Ces conséquences susceptibles d’affecter, directement ou indirectement, de nombreux pays situés même à grande distance du lieu de l’accident ont motivé la mise en place d’une échelle analogue à celle de Richter pour les tremblements de terre, l’échelle INES (International Nuclear Event Scale) ou échelle internationale des événements nucléaires, aidant à percevoir la gravité d’un accident nucléaire.
Quant à la catastrophe de Fukushima qui aurait pu être évitée si, par exemple, la digue avait été plus haute, elle replace comme priorité absolue la sûreté des installations même face à des situations hautement improbables. En France, l’événement de la centrale du Blayais en 1999 avait déjà conduit à réévaluer le risque d’inondation dans les centrales nucléaires françaises et à lancer des travaux afin de relever les digues. Celui de Fukushima a entraîné des évaluations complémentaires de sûreté (ECS), réalisées par l’Autorité de sûreté nucléaire à la demande du gouvernement.

Conséquences environnementales et humaines des accidents nucléaires
Conséquences environnementales des accidents nucléaires
Les conséquences environnementales des accidents nucléaires sont difficiles à mesurer. D’autant plus que les « points zéro » manquent : l’état de la biodiversité avant les accidents n’est généralement pas très bien connu. Après un accident nucléaire, les hommes sont évacués, mais les animaux domestiques restent, ainsi que la végétation. La terre est contaminée pour de longues années, ainsi que tous les végétaux alimentaires qui y poussent. Le seul site où le recul est suffisamment grand est celui de Tchernobyl. Les études récentes y ont mis en évidence une riche biodiversité. Des espèces animales s’y développent, mais aussi parce qu’elles n’ont pas à craindre les chasseurs, faute d’humains dans la zone d’exclusion! Dans cette « zone interdite » de 30 km de rayon autour de la centrale, la forêt a été rebaptisée « forêt rousse » tant elle a été brûlée par les radiations. Environ 900 tranchées y ont été creusées dès 1987 par les autorités soviétiques pour y enterrer, sous une fine couche de sable, déchets végétaux contaminés et déchets fortement radioactifs issus de la centrale accidentée.
Depuis une dizaine d’années, des équipes ukrainiennes, aidées d’équipes du CEA, de l’IRSN et du CNRS, observent que dans l’une de ces tranchées, la tranchée T22, certains nucléotides (césium 137, strontium 90, plutonium) migrent plus rapidement que ce que les facteurs physico-chimiques auraient laissé prévoir. La piste microbiologique est explorée : en effet, des bactéries du sol sont probablement impliquées, certaines espèces captant les radionucléides à leur surface (biosorption), tandis que d’autres les incorporent (bioaccumulation). Des mécanismes qui permettent d’immobiliser la radioactivité, ou, avec la migration des cellules, de la propager.
Ces analyses microbiologiques devraient permettre de mieux comprendre la migration des radionucléides dans l’environnement.

Conséquences humaines des accidents nucléaires
En cas d’accident grave dans une centrale nucléaire, les autorités évacuent les populations les plus proches en raison d’un risque sanitaire lié à l’exposition aux substances hautement radioactives qui peuvent être émises et transportées dans l’air, contaminant aussi la terre et l’eau. Pénétrant dans les organismes par la respiration, l’absorption d’aliments ou d’eau contaminés, ou bien encore par une plaie, ces particules se fixent sur certains organes, provoquant ainsi une irradiation interne (l’iode radioactif se fixe par exemple sur la thyroïde, le césium 137 sur les muscles et le cœur).
Lorsque l’irradiation est très importante ou qu’elle se prolonge, l’accumulation de radioéléments dans les cellules est susceptible d’entraîner un cancer. Il est cependant toujours difficile d’évaluer précisément l’impact d’un accident nucléaire sur la santé des populations.
Le rapport de l’OMS (Organisation Mondiale de la Santé) et de l’AIEA (Agence Internationale de l’Energie Atomique) sur la catastrophe de Tchernobyl, paru en 2005 sous l’égide des Nations-Unies, a évalué le nombre de décès de victimes immédiates de l’accident à moins de 50 et à 2200 celui de l’excès de décès entraîné par l’exposition à la radioactivité des 200 000 « liquidateurs » les plus exposés. Par ailleurs, des registres font état d’environ 4000 cas de cancers de la thyroïde diagnostiqués imputables à l’accident de Tchernobyl, chez les enfants et les adolescents âgés de moins de 18 ans en 1986, âge où la maladie est rare et n’a pu être induite que par une contamination à l’iode radioactif dispersé dans les premiers jours qui ont suivi la catastrophe.
Cependant, ces chiffres font l’objet de fortes controverses dans la communauté scientifique internationale et il est donc encore aujourd’hui, plus de 20 ans après, très difficile d’avoir une estimation fiable du nombre de victimes de cette catastrophe.
D’autres conséquences graves, notamment psycho-sociologiques, existent pour les populations humaines: la détresse, pouvant mener au suicide, des populations évacuées qui perdent tout du jour au lendemain et la peur de la contamination (à Tchernobyl, un grand nombre de femmes ont avorté par crainte de donner naissance à des enfants malformés).

La temporalité des décisions
Dans les pays où ils surviennent, les accidents nucléaires posent le problème, après l’évacuation immédiate des territoires contaminés, de la réinstallation ultérieure des populations.
Combien de temps déclare-t-on les zones interdites ? Autour de la centrale de Fukushima, une zone rouge de 20km a été délimitée dans laquelle le gouvernement travaille à la dépollution: nul ne sait quand les quelque 110 000 habitants seront autorisés à rentrer.
À Tchernobyl, près d’un millier d’habitants évacués sont revenus vivre illégalement presqu’aussitôt dans la zone interdite des 30km et jusqu’au pied de la centrale. Ces « samosioli » vivent en autosuffisance, préférant le risque choisi à l’exode imposé.
Le nucléaire est un investissement politique sur le très long terme qui impose des décisions sur plusieurs décennies, difficiles à remettre en cause même après un accident nucléaire majeur comme celui de Fukushima : le Japon après avoir arrêté tous ses réacteurs nucléaires, a décidé d’en relancer deux en juin 2012, malgré une vague très importante de protestations.
La responsabilité face aux générations futures caractérise tous les débats sur l’environnement et le nucléaire n’y échappe pas.
D’autre part, au risque d’accident, s’ajoute la problématique du stockage des déchets radioactifs dont la temporalité dépasse largement l’échelle de vie humaine. Leur enfouissement géologique profond est à l’étude. Pour ses partisans, cette solution aurait l’avantage de ne pas laisser aux générations futures le soin de gérer cet héritage encombrant. Pour ses opposants, l’enfouissement des déchets ne serait pas une solution viable sur le très long terme.

Sûreté des centrales et sécurité des personnes
Sûreté des centrales
La sûreté des centrales nucléaires est un objectif prioritaire internationalement partagé.
En France, des organismes spécifiques d’évaluation du risque ont été mis en place. Jusqu’en 2006, la sûreté nucléaire des installations civiles était sous contrôle de l’état, mais la loi n°2006-686 du 13 juin 2006 relative à la transparence et à la sécurité en matière nucléaire (dite « loi TSN ») a instauré la création d’un organisme indépendant de contrôle : l’ASN (Autorité de Sûreté Nucléaire). En son sein, le Service d’Evaluation de la sûreté des Réacteurs à Eau sous Pression (SEREP), par exemple, est chargé de mener toutes les actions techniques visant à assurer la sûreté de l’exploitation de l’ensemble des réacteurs à eau sous pression qui compte 58 réacteurs mis en exploitation entre 1977 et 1999 sur 19 sites, dont plusieurs en zones sismiques.
La sûreté est bien sûr une question de coût qui reste dimensionné dans la limite du raisonnable : certes, à Fukushima, si la digue avait été plus haute, la catastrophe aurait été évitée. Mais personne n’avait envisagé une vague de 15 mètres de haut.
La sûreté des centrales n’est pas uniquement une question de fiabilité technique : elle est aussi liée à la formation et à la compétence des personnes qui y travaillent. Or de nombreuses centrales fonctionnent depuis des temps qui dépassent la durée d’une carrière professionnelle : se pose alors la question de la transmission de l’historique de la centrale, voire même de son mode d’emploi complet. De plus, l’hyperspécialisation des postes et l’externalisation de certaines tâches pour des interventions courantes ne facilitent pas la maîtrise coordonnée de l’ensemble des paramètres de sûreté.

Sécurité des personnes
En cas d’accident de centrale nucléaire, les travailleurs de la centrale sont les plus exposés.
A Tchernobyl, par exemple, les hommes qui poussaient les morceaux de combustibles sur le toit ont été exposés à des doses maximales. Viennent ensuite les personnes habitant dans un périmètre défini par les autorités (en France, 10km) autour de la centrale. Elles sont censées connaître les mesures d’urgence, disposent d’un numéro vert ainsi que de pastilles d’iode à prendre dans les heures qui suivent un accident majeur. Pour les autres, tout dépend des conditions de l’accident : l’échappement des poussières radioactives peut former un nuage qui va circuler jusqu’à l’autre bout de la planète ou bien, du fait de pluies, se retrouver au voisinage le plus proche de la centrale.
En France, l’ASN (Autorité de sûreté nucléaire) participe à l’élaboration des plans de gestion de crise et à la vérification des systèmes d’alerte. Néanmoins, de nombreuses centrales sont situées à côté de grosses villes où des procédures d’évacuation sont difficiles à mettre en œuvre.
En ce qui concerne le transport de substances radioactives (combustible usé et déchets nucléaires) depuis une centrale vers une installation de retraitement ou un centre de stockage, c’est également l’ASN qui en assure le contrôle. La sûreté du transport repose avant tout sur le colis qui désigne l’ensemble constitué par l’emballage et son contenu. La conception du colis obéit à des critères stricts de sûreté, fixés par l’Agence internationale de l’énergie atomique (AIEA) et dont l’ASN, en France, garantit l’application. Diverses épreuves réglementaires, incluant des accidents de référence, doivent démontrer la sûreté des emballages pour permettre leur homologation. Les colis sont conçus pour assurer la protection, dans des conditions normales ou accidentelles, des personnes (population et travailleurs) et de l’environnement.

Nucléaire et développement durable
Le développement durable repose sur trois piliers : économique, social et environnemental.
Le nucléaire reste un choix énergétique principalement motivé par son intérêt économique. Il permet de fournir de l’électricité relativement bon marché. Dans le monde, fin 2011, 435 réacteurs étaient en fonctionnement produisant à peu près 13% de l’électricité mondiale. En France, ce sont 58 réacteurs qui assurent environ 78% de la production totale d’électricité du pays.
Côté social, le nucléaire continue de susciter des controverses. L’une d’entre elles concerne la sous-traitance par EDF de l’entretien de ses centrales à des sociétés extérieures dont les employés sont exposés à des conditions de travail discutables : précarité et exposition continue à la radioactivité par le cumul d’emplois.
Côté environnemental, un intérêt est largement mis en avant : le nucléaire ne produirait pas, ou très peu, de gaz à effet de serre (GES). Mais ce décompte des GES n’intègre pas l’extraction de l’uranium qui s’opère à l’étranger, ni le transport de l’uranium et des déchets. D’autre part, les mines sont sources de pollution pour l’environnement lors de leur exploitation et pendant de nombreuses années après leur fermeture. Enfin, l’énergie nucléaire n’est pas une énergie renouvelable : les réacteurs actuels REP (réacteurs à eau pressurisée) et leurs immédiats successeurs, les EPR (réacteurs pressurisés européens), consomment beaucoup d’uranium naturel, une ressource qui risque d’être épuisée, au rythme actuel d’utilisation, d’ici un peu moins de 100 ans. De plus, les déchets sont toujours en attente d’une solution définitive. Faute de pouvoir être recyclés ou éliminés, ils s’accumulent peu à peu sur la planète.

Le ressenti des populations vis-à-vis du nucléaire et les enquêtes d’opinion
Le ressenti des populations
Face au nucléaire, les citoyens se sentent généralement exclus des processus décisionnels. Depuis longtemps, les autorités et les industriels cherchent à favoriser l’ »acceptabilité sociale » du nucléaire et à rassurer le public. C’est ainsi que les sondages d’opinion menés par EDF dans les années 1980 auprès des sites pour mesurer la tension sociale liées à l’implantation des centrales indiquaient une opinion stabilisée et favorable au nucléaire.
Mais le manque d’information sur la contamination liée à l’accident de Tchernobyl a initié une revendication plus forte de transparence. Le mouvement anti-nucléaire, après les grandes manifestations des années soixante-dix, s’est essoufflé dans les années 80, une fois la nucléarisation du pays accomplie. Avant de connaître, après Tchernobyl, dans les années 90, une renaissance, comme en témoigne la constitution du réseau Sortir du nucléaire, qui regroupe plus de 700 associations. S’y est ajoutée la voix d’une contre-expertise scientifique avec des organismes tels que la Commission de Recherche et d’Information Indépendantes sur la RADioactivité (Criirad) dont les avis divergent des communications officielles et qui mène elle aussi des actions d’information en direction du grand public.
L’accident de Fukushima, la plus grande catastrophe nucléaire depuis celle de Tchernobyl, n’a pas renforcé ce renouveau et la mobilisation antinucléaire en France reste faible : la manifestation organisée à Paris deux jours après la première explosion a rassemblé à peine 300 personnes. Et les choix politiques des Français, à l’inverse de certains de nos voisins (Allemagne, Italie) depuis Fukushima, témoignent plutôt de leur acceptation du nucléaire. Au niveau mondial, la plupart des grands pays très consommateurs d’énergie (Chine, Inde, USA, Royaume-Uni, Russie,…) ont également réaffirmé leur implication dans l’énergie nucléaire.

Les enquêtes d’opinion
Comment savoir de façon précise ce que pensent les Français du nucléaire ? Tout dépend de l’institut qui fait le sondage et du commanditaire.
Ainsi, à l’occasion du dernier sondage européen (Eurobaromètre, publié en mars 2010) , 45% des Français se sont prononcés en faveur d’une diminution du nucléaire en France, soit 6% de plus qu’en 2007. Un autre sondage, commandé par EDF et réalisé par TNS Sofres les 15 et 16 mars 2011, révèle lui que 55% des Français ne sont pas favorables à une sortie du nucléaire et 62 % font confiance à EDF pour empêcher tout risque d’accident nucléaire en France.
Dans le même temps, un sondage Ifop réalisé pour Europe Ecologie-Les Verts montre que 70% des Français sont favorables à un arrêt du programme nucléaire de la France et du fonctionnement de ses centrales (19% à court terme et 51% à échéance de 25/30 ans).
Dans le cadre de l’étude Triélec portant sur la campagne présidentielle 2012 qui rassemblait trois équipes de recherche spécialisées dans l’étude des élections, des opinions et de la communication politique, des enquêtes TNS Sofres –TriÉlec ont mesuré régulièrement le niveau de soutien des Français à la production d’énergie par les centrales nucléaires. La proportion des personnes interrogées exprimant une opinion tout à fait ou plutôt favorable est passée de 50% en octobre 2011 à 58% en décembre 2011, puis 61% en février 2012. Ainsi, un an après l’accident de Fukushima qui a conduit plusieurs pays à décider d’abandonner la production d’énergie nucléaire face à une montée d’hostilité de leur opinion publique, les Français semblent n’avoir jamais été aussi favorables à l’énergie nucléaire. Une ferveur que pourrait expliquer la médiatisation des événements de Fukushima (qui ont surtout mis en avant la sûreté des installations françaises et l’incompétence des Japonais) et peut-être ce que les analystes nomment « le cadrage politique » qui a notamment pointé dans les discours l’impossibilité de se passer de la filière.

Le défi NEEDS (Nucléaire, Energie, Environnement, Déchets, Société)
La Mission Interdisciplinarité du CNRS a lancé en 2012 le défi « Nucléaire : Energie, Environnement, Déchets, Société » (NEEDS) qui vise à fédérer l’effort interdisciplinaire de recherche sur le nucléaire, afin de fédérer les recherches académiques sur les technologies nucléaires innovantes, sur la transition énergétique, sur le stockage des déchets et sur tous les aspects de la relation entre la société, la nature et la technologie nucléaire. Ce programme prend la suite des recherches menées depuis 1997 dans le cadre du programme CNRS PACEN (Programme sur l’Aval du Cycle et l’Energie Nucléaire).

Ce programme national de recherche s’inscrit dans un cadre déterminé : celui des exigences des deux lois, n°2005-781 sur l’énergie et n°2006-739 sur la gestion des matières et déchets radioactifs ainsi que le décret n° 2008-357 du 16 avril 2008 sur les missions du CNRS, du CEA et de l’ANDRA. Ce programme est construit avec les grands partenaires du nucléaire. Il a pour ambition de mettre à contribution et valoriser le large éventail de compétences du monde académique (CNRS et universités), de développer de nouvelles compétences au sein de la recherche fondamentale, de renforcer les relations avec les partenaires, tout en aidant la communauté académique à développer une analyse propre sur l’avenir du nucléaire et des programmes de recherche associés, analyse qui devrait contribuer de façon éclairée aux débats sociétaux autour des différents aspects de cette source d’énergie très particulière : risques associés, sûreté, organisation sociale, gestion des déchets, technologies du futur, …

Le défi NEEDS assure l’élaboration de programmes scientifiques, de réseaux et de compétences diversifiées, afin de faire progresser la recherche en vue de :
• réduire la quantité de déchets, optimiser la consommation des ressources et la gestion des matières valorisables, tout en assurant une sûreté accrue des installations,
• améliorer le traitement des déchets pour réduire les volumes et conséquences environnementales à court et à long terme,
• améliorer la compréhension des mécanismes moléculaires et macroscopiques qui sont à l’origine de l’immobilisation et de l’isolation des radionucléides en milieu géologique poreux, notamment afin d’améliorer la confiance dans un stockage.
• adapter des matériaux pour qu’ils résistent mieux aux conditions extrêmes du nucléaire (température, contraints mécaniques, étanchéité, rayonnement, milieux chimique…),
• analyser de façon fine et intégrée l’impact environnemental en approfondissant notre compréhension des fixations et transferts des radionucléides,
• favoriser la prise en compte dans la recherche des transformations récentes dans le domaine social, éthique, politique, particulièrement dans le nouveau contexte créé par l’accident de Fukushima.
• faire progresser la réflexion sur les rapports entre connaissance, société et démocratie.

Fortement interdisciplinaire, NEEDS s’organise autour de sept projets fédérateurs, appuyés sur deux consortiums de compétences.
Les projets fédérateurs portent sur :
1. les systèmes nucléaires et scénarios,
2. le traitement et conditionnement des déchets
3. les milieux poreux dans le confinement des déchets,
4. l’impact des activités nucléaires sur l’environnement,
5. les ressources : mines, procédés, économie,
6. SHS : nucléaire, risque et société
7. les matériaux pour l’énergie nucléaire.

Les consortiums de compétences regroupent : les mathématiques appliquées ainsi que la physico-chimie et la radiolyse. Ils sont à la frontière entre recherche fondamentale et recherche dédiée à l’énergie nucléaire et représentent le liant nécessaire entre le cœur du programme NEEDS, piloté conjointement par le CNRS et les partenaires, et les chercheurs du CNRS développant des compétences plus générales que celles appliquées à l’énergie.

______________________________________________________________________________________________

Ce qui suit a été écrit par d’autres journalistes, pour le même dossier du CNRS (supprimé donc de leur site!)

4 – Nouvelles technologies de production, de retraitement et de stockage
En France, la part de l’énergie nucléaire dans la production d’électricité était d’environ 78 % en 2011. En mai 2012, le Président de la République nouvellement élu a promis de ramener ce chiffre autour de 50 % à l’horizon 2025-2030. Par ailleurs, certains experts ont proposé des scénarios pour une sortie du nucléaire d’ici 2033. En un mot, le devenir de la filière électronucléaire de notre pays n’est pas encore écrit. De même que celui du monde qui, suite à la catastrophe de Fukushima, s’interroge sur sa dépendance à l’atome. Mais une chose est sûre, quelle que soit la trajectoire énergétique choisie, l’industrie nucléaire n’a pas d’autre solution que d’innover. Pour assurer la sécurité de ses installations, garantir l’approvisionnement en matières premières, retraiter les combustibles usés et enfin stocker durablement les déchets ultimes. Bref, afin de faire face à tous les futurs possibles.
Dans l’hexagone, 80 % du parc nucléaire aura atteint 30 ans en 2017. Ainsi, la question de son renouvellement se pose de façon aigüe. Raison pour laquelle la France construit actuellement son premier réacteur dit de troisième génération, l’EPR, sur le site de la centrale de Flamanville. Si l’EPR fonctionne sur le même principe que les réacteurs des générations précédentes, le principal argument en sa faveur concerne les questions de sécurité. Si bien que dans le contexte de l’après Fukushima, la troisième génération pourrait devenir la norme dans les toutes prochaines décennies.
Mais rien n’est pour autant gravé dans le marbre. Car le visage du nucléaire de demain dépend en partie des ressources en uranium, elles-mêmes conditionnées par l’évolution du parc mondial de réacteurs. Avec le parc actuel, les besoins en matières premières semblent couverts pour les 200 à 400 prochaines années. A l’inverse, si le nombre de réacteurs est multiplié par 5 au niveau mondial d’ici 2050, ce qui pour les experts n’a rien d’impossible, le secteur électronucléaire pourrait être à sec d’uranium avant la fin du siècle.
Pour pallier cette éventuelle pénurie, ou tout simplement ne pas risquer de tensions sur le marché de l’uranium, le forum international Génération IV, qui regroupe 13 partenaires (Argentine, Brésil, Canada, Chine, Corée du Sud, Russie, France, Japon, Afrique du Sud, Suisse, Royaume-Uni, Etats-Unis, Union européenne) s’est engagé sur la voie des réacteurs de quatrième génération à l’horizon 2040. Leur intérêt ? Contrairement aux réacteurs des générations antérieures, qui consomment quasi exclusivement de l’uranium 235, présent à seulement 0,72 % dans l’uranium naturel, la génération IV tire parti de l’uranium 238 qui compte pour plus de 99 % dans la composition de l’uranium naturel. Voire du thorium, un autre radioélément très abondant sur la Terre. Ainsi, sur 120 concepts, le forum Génération IV en a retenu six dont l’un au moins pourrait bien remplacer avant 2100 la filière nucléaire actuelle fondée sur l’uranium 235.
Mais au-delà de cette quatrième génération, les spécialistes du nucléaire s’intéressent à la fusion. Pour l’heure, elle n’existe que sur le papier, et les plus optimistes n’imaginent pas qu’elle puisse être maîtrisée avant 40 ans. Mais en principe, elle offre la possibilité d’une énergie nucléaire plus propre, plus sûre, pacifique et aussi durable que pourrait l’être la génération IV. Un rêve qui justifie les moyens colossaux mis en œuvre par ses promoteurs pour parvenir un jour à la maîtriser. Au point que d’aucuns imaginent qu’il serait envisageable de passer directement de la génération III à la fusion, sans passer par la case de la génération IV. Cela dit, cette génération IV possède également l’avantage d’apporter une réponse, même si elle n’est que partielle, à la question des déchets nucléaires. Et ce à un horizon bien plus palpable que celui de la fusion. En effet, parce qu’ils utilisent des neutrons de grande énergie, les réacteurs de la quatrième génération seraient susceptibles « d’incinérer  » une partie des déchets les plus problématiques du nucléaire, ceux à très haute activité et à vie longue, essentiellement les actinides mineurs.
Pour autant, la transmutation de ces actinides, si elle fait l’objet de recherches actives, n’est pas la piste la plus avancée pour se « débarrasser » des déchets de l’industrie électronucléaire. De fait, la France, comme d’autres pays, a plutôt pris l’option de l’enfouissement en couches géologiques profondes. Si elle voit le jour, une telle opération ne devrait pas commencer avant 2025, mais elle occupera les spécialistes au minimum pour 100 ans. Preuve que les nouvelles technologies du nucléaire sont plus que jamais d’actualité !

EPR : amorce de renouvellement du parc nucléaire
Tout comme les réacteurs nucléaires de la génération précédente, l’EPR est un réacteur à eau pressurisée. Il consiste en un cœur rempli d’eau sous une pression de 155 bars, dans lequel des barreaux d’uranium enrichi, c’est-à-dire contenant 3 à 5 % d’uranium 235, sont soumis à un flux intense de neutrons, de telle sorte qu’ils se fragmentent en libérant de nouveaux neutrons – gage d’une réaction en chaîne – et de l’énergie. Evacuée par l’eau qu’elle contribue à chauffer, cette énergie permet ensuite de produire de la vapeur qui alimente une turbine destinée à la production d’électricité.
Ainsi, l’EPR ne constitue pas une rupture technologique par rapport à l’existant. Pour autant, aux dires de ses promoteurs, son intérêt réside dans sa très grande sûreté, concrètement liée à sa plus grande étanchéité et au renforcement de ses systèmes de secours en cas d’accident. Ses détracteurs, eux, le jugent trop complexe. Ainsi, son rival direct, l’américain AP-1000, est d’une conception allégée et plus simple de construction. Du reste, si l’EPR, dans un monde post-Fukushima, pourrait devenir la norme en terme de sécurité, d’aucuns jugent prématuré le passage à la génération III de réacteurs. Leur argument : en attendant la génération IV, il serait tout à fait possible de poursuivre l’exploitation de réacteurs de deuxième génération, dont les plus récents sont considérés par d’aucuns comme des réacteurs de la génération III. Actuellement, deux EPR sont en cours de construction en Chine, un autre en Finlande et un dernier en France, sur le site de la centrale de Flamanville. Son coût, de 6 milliards d’euros, a doublé par rapport aux prévisions initiales. La mise en service de l’EPR de Flamanville est prévue pour 2016.

Réacteurs rapides, prochain horizon du nucléaire ?
Un réacteur nucléaire capable d’engendrer son propre carburant : délire de spécialistes ? Non, principe du surgénérateur, encore appelé réacteur à neutrons rapides. Précisément, un cœur de plutonium pour la production d’énergie, mais dont une partie des neutrons émis lors des réactions de fission est utilisée pour bombarder l’uranium 238 (l’isotope le plus abondant de l’uranium) présent dans le combustible. Conséquence : une transmutation de cet élément en uranium 239, puis en neptunium et enfin en plutonium !
Plusieurs concepts de surgénérateurs ont été retenus par le Forum international génération IV. Mais le plus avancé est incontestablement celui du réacteur rapide refroidi au sodium, où ce dernier est utilisé comme fluide caloporteur, c’est-à-dire pour transférer la chaleur hors du réacteur. Un principe qui avait été retenu pour les deux surgénérateurs du CEA et d’EDF, Phénix et Superphénix, arrêtés respectivement en 2009 et 1998. De même que pour Astrid, un surgénérateur expérimental qui pourrait entrer en service en 2020.
Les réacteurs rapides au sodium sont-ils pour autant l’avenir du nucléaire ? D’aucuns pointent du doigt leur incroyable complexité, notamment liée à la manipulation du sodium, un liquide inflammable au contact de l’eau et de l’air ! Ainsi, il n’est pas évident qu’ils soient jamais plus sûrs qu’un EPR. Ils pourraient néanmoins devenir rentables en cas de raréfaction de l’uranium ou d’une envolée de son prix. D’où l’intérêt de nombreux pays pour cette technologie. A moins que ne se développent les réacteurs rapides refroidis au gaz ou au plomb, mais dont la technologie est bien moins avancée que celle du sodium.

Le thorium remplacera-t-il l’uranium ?
Dans l’esprit du public, le destin du nucléaire est irrémédiablement lié à l’uranium. Or pour produire de l’énergie nucléaire, une autre voie est possible, celle du thorium. La particularité de cette filière ? Elle est mise en œuvre dans des réacteurs dits à sels fondus. Ainsi, son combustible, au lieu d’être solide comme dans un réacteur « traditionnel », est liquide. De quoi adapter à la demande, et notamment en fonction des exigences de sécurité, la quantité de matière fissile dans le réacteur. Et en cas d’urgence, la possibilité de vidanger très rapidement.
Outre le thorium, un réacteur à sels fondus pourrait également utiliser de l’uranium naturel et du plutonium. Mais les calculs montrent qu’il est alors difficile de régénérer le combustible, et il existe des doutes sur la solubilité du plutonium.
Si aucun réacteur au thorium produisant de l’énergie n’a jamais été construit, son concept est pris très au sérieux par les spécialistes du Forum international génération IV, puisqu’ils l’ont retenu parmi les six filières possibles pour le nucléaire dit de quatrième génération dont l’une pourrait être amenée à prendre le relais de la génération à laquelle appartient l’EPR.
Autre avantage d’un réacteur au thorium, c’est un « mange tout ». Ainsi, il pourrait incinérer les déchets dits transuraniens de la filière actuelle, ce qui n’est pas acquis pour les autres réacteurs de la quatrième génération. De même qu’il pourrait incinérer ses propres déchets une fois arrivé en fin de vie, en même temps que ceux des autres générations IV. Sans compter que le thorium se trouve en abondance à l’état naturel.
La Chine ne s’y est pas trompée qui entend reprendre à son compte les travaux notamment développés par des chercheurs français sur les réacteurs au thorium. Alors même que la France, avec une dizaine de spécialistes travaillant sur le sujet, semble pour l’heure tourner le dos à la filière.

Qu’est-ce que la fusion nucléaire ?
Concernant la fusion nucléaire, les blagues vont parfois bon train dans les laboratoires : « La fusion est l’énergie du futur… mais le sera toujours ! » De fait, elle combine deux réalités. Alors que la fission consiste à casser des noyaux lourds, tel l’uranium, l’énergie de la fusion surgit lorsque des noyaux atomiques légers s’assemblent en un atome plus lourd, libérant des particules ultra énergétiques. Une réaction qui a tous les avantages : elle implique des atomes légers, en particulier les isotopes de l’hydrogène, dont le deutérium se trouve naturellement dans l’eau de mer. Elle n’engendre quasiment aucun déchet dangereux, ni risque de prolifération. Et elle est tellement fragile qu’il est physiquement impossible qu’un réacteur à fusion s’emballe.
Sauf qu’en près de 60 ans de recherche sur la fusion, personne n’a été jusqu’à aujourd’hui en mesure de la maîtriser. Et pour cause, pour ce faire, il faut être capable de contrôler un gaz de deutérium et de tritium chauffé à 150 millions de degrés (on parle alors d’un plasma), soit 10 fois la température du cœur du Soleil, et maintenu en lévitation par un champ magnétique qu’il engendre en partie. Il faut également disposer de matériaux capables de résister à des températures jamais atteintes sur Terre et à des flux très intenses de neutrons très rapides. Enfin, il faut produire du tritium, qui n’existe pas à l’état naturel, à partir de lithium bombardé par les neutrons du réacteur lui-même.
A partir de 2027, le réacteur expérimental ITER, actuellement en construction sur le site du CEA à Cadarache, permettra aux spécialistes de commencer à apprendre à maîtriser la stabilité d’un plasma de fusion. Pour autant, ce colosse de 15 milliards d’euros ne sera qu’un premier pas sur la voie de la fusion. La suite se jouera à partir de 2033 au Japon auprès d’un autre réacteur expérimental baptisé DEMO, puis avec PROTO, premier prototype de ce que pourrait être un réacteur à fusion industriel. Alors seulement la fusion pourra-t-elle être, qui sait, considérée comme l’avenir du nucléaire.

GUINEVERE : vers la transmutation des déchets
Parmi les déchets de l’industrie nucléaire, les plus problématiques sont les actinides mineurs. D’une part ils contribuent fortement au dégagement thermique du combustible irradié, d’autre part, certains d’entre eux ont une activité pendant des milliers d’années. Pour les traiter, il est par exemple envisagé de les transmuter, c’est-à-dire de les transformer en des éléments moins radioactifs et/ou radioactifs moins longtemps. Pour ce faire, une solution pourrait être la mise au point d’un réacteur nucléaire spécialement conçu pour « incinérer » les actinides.
Sur cette voie, les chercheurs du Centre d’étude de l’énergie nucléaire de Belgique, en collaboration avec le CNRS et le CEA, ont mis au point le réacteur GUINEVERE. Sa particularité : il est piloté par un accélérateur de particules ! Plus précisément, le cœur de GUINEVERE, dit sous-critique, est incapable d’entretenir lui-même une réaction nucléaire en chaîne. Ainsi, c’est un accélérateur qui lui apporte de l’extérieur le surplus de neutrons nécessaires à l’entretien de la réaction.
GUINEVERE n’est qu’une maquette de recherche à la puissance quasi nulle. Elle permet la mise au point de procédures destinées à surveiller et contrôler le fonctionnement de futurs réacteurs (pilotés par accélérateur), tel MYRRHA, un modèle de puissance intermédiaire qui pourrait être opérationnel en 2023. Certes, la loi de 2006 relative à la gestion durable des matières et déchets radioactifs n’envisage pas de recours à la transmutation avant 2040, si ce choix est retenu. Mais les avancées obtenues grâce à GUINEVERE et MYRRHA auront permis de faire la démonstration de la faisabilité du concept.

Stockage géologique des déchets : une solution de long terme ?
La loi de 2006 relative à la gestion durable des matières et déchets radioactifs a désigné le stockage en formation géologique profonde comme solution de référence pour « l’évacuation définitive » des déchets radioactifs de haute activité et à vie longue. Depuis 2000, la France s’est dotée d’un laboratoire souterrain, à Bure, dans la Meuse, afin d’étudier la faisabilité d’un tel projet, notamment les propriétés de confinement de la formation géologique d’argile située à 500 mètres sous terre. Conclusion de l’Andra dans un rapport rendu au gouvernement en 2005: le principe fonctionne.
Ainsi, si le débat public prévu en 2013 débouche sur une issue favorable à l’enfouissement, les premiers « colis » radioactifs devraient prendre place sur le site de Bure à partir de 2025. D’après les scientifiques, il faudra environ 1000 ans à l’humidité pour corroder les conteneurs dans lesquels sont enfermés les verres nucléaires renfermant la radioactivité. A partir de ce moment, l’eau souterraine devrait commencer à corroder ces verres. Mais si lentement qu’aucun radioélément ne devrait être relargué dans la couche d’argile avant 100000 à 200000 ans, couche où ils devraient diffuser à très petite vitesse.
Si des incertitudes scientifiques demeurent, il n’est pas prévu de sceller définitivement les galeries du site de Bure avant 2125. De quoi prendre le temps de la réflexion. Pour autant, il semble à peu près clair qu’il sera impossible de léguer la mémoire de ces sites pollués aux générations futures sur des centaines de milliers d’années. A titre de comparaison, nous avons perdu la signification des mégalithes de Stonehenge qui n’ont pas plus de 5000 ans ! L’enfouissement est néanmoins souvent considéré aujourd’hui comme la plus acceptable des solutions.

CNRS
sagascience

Energie nucléaire

Introduction
Grâce à la découverte en 1896 par Henri Becquerel du phénomène de la radioactivité naturelle, l’homme a pu produire de l’énergie nucléaire dès les années 1940. Solution d’avenir pour les uns, technologie trop dangereuse pour les autres, ce dossier fait l’état des lieux.

1 – La radioactivité
La découverte de la radioactivité naturelle à la fin du XIX° siècle s’est faite en plusieurs étapes.
Le 8 novembre 1895, le physicien allemand Wilhelm Röntgen découvre un rayonnement invisible qui est capable d’impressionner une plaque photographique. En raison de son étrangeté, il le nomme « rayons X ». Interposant sa main sur le trajet de ces rayons, il parvient à enregistrer une image de ses phalanges sur une plaque photographique. La radiographie vient de naître.
Le 20 janvier 1896, le mathématicien Henri Poincaré présente la découverte de Röntgen à l’Académie des sciences. Henri Becquerel est présent et se demande d’où peuvent bien venir ces mystérieux rayons invisibles. Poincaré, passionné par la physique, suggère alors à Becquerel d’étudier si il y a un lien entre la fluorescence qui accompagne l’émission des rayons X et les rayons eux-mêmes. La fluorescence est une émission lumineuse produite par certains corps quand ils ont été eux-mêmes illuminés auparavant.
Après quelques essais infructueux avec différents matériaux, Becquerel utilise des cristaux de sels d’uranium qu’il expose au soleil sur une plaque photographique enveloppée de carton noir pour la protéger de la lumière. La plaque est impressionnée à travers le carton. Il en déduit que ce sel émet des rayons X après excitation par la lumière.
Mais sa découverte capitale n’est pas encore là ; elle viendra quelques jours plus tard et sera le fruit du hasard. En effet, peu de temps après son expérience réussie, Becquerel veut la répéter ; il prépare son matériel, mais ce jour là à Paris le soleil est intermittent. Remettant son expérience à plus tard, il range plaques photographiques et sels d’uranium dans un tiroir. Le 1er mars, par acquit de conscience, il décide de développer les plaques qui sont restées dans l’obscurité du tiroir. A sa grande stupéfaction, il découvre alors qu’elles ont été fortement impressionnées dans le noir. Cette impression est donc indépendante de la fluorescence de l’uranium ; le sel d’uranium émet spontanément des rayons pénétrants, qu’il ait été ou non exposé à la lumière du soleil. La radioactivité vient d’être découverte.
A partir de 1898, Pierre et Marie Curie s’intéressent aussi à ce phénomène et découvrent le polonium et le radium.
Le 26 mars 1900, Becquerel identifie le rayonnement bêta du radium comme étant une émission d’électrons et réalise ainsi la première détection d’une particule élémentaire. Puis, Pierre Curie constate que le radium dégage une énergie considérable, un million de fois supérieure à toute énergie de combustion connue ; c’est la première reconnaissance de l’énergie nucléaire.
Les dangers de la radioactivité pour la santé ne sont pas immédiatement identifiés ; au contraire, de nombreuses propriétés thérapeutiques sont attribuées au radium qui devient populaire comme tonifiant et est prescrit sous forme de poudre, crème, boisson, compresses, dentifrice et même talc pour bébé. Un grain de radium sera présenté à l’exposition universelle de 1904, à Saint Louis dans le Missouri pour satisfaire la curiosité du public.
Les effets biologiques de l’énergie dégagée par la radioactivité sont observés accidentellement par Becquerel. Transportant dans sa poche une ampoule de radium, il constate au bout de quelques heures une rougeur sur sa peau qui se transforme en brûlure. Pierre et Marie Curie confirment cette observation en expérimentant sur eux-mêmes. C’est la naissance de ce qui va devenir la radiothérapie.
Becquerel et les Curie reçoivent le prix Nobel de physique en 1903 pour leur découverte de la radioactivité. Elle va ouvrir la voie à la physique nucléaire, à l’énergie nucléaire, à l’étude de la structure de la matière et à la physique des particules élémentaires. En 1911, Rutherford établit l’existence du noyau atomique et nomme proton le noyau d’hydrogène. Il comprend qu’il doit exister un proton neutre ou neutron qui sera identifié par Chadwick en 1932. En 1934, Frédéric et Irène Joliot-Curie découvrent la radioactivité artificielle et Fermi met en évidence la capture des neutrons par les noyaux ; en 1938, Meitner, Hahn et Strassmann découvrent la fission nucléaire et au début de 1939, Frédéric Joliot comprend les réactions en chaîne, la possibilité de produire de l’énergie nucléaire et de fabriquer des armes nucléaires.
Le 2 décembre 1942, le premier réacteur nucléaire, construit par Fermi, démarre à Chicago.

Qu’est-ce que la radioactivité?
La radioactivité est un phénomène physique naturel au cours duquel certains noyaux atomiques instables, dits radioactifs, se transforment spontanément (on parle de désintégration) en dégageant de l’énergie sous forme de rayonnements. On les appelle aussi radio-isotopes. Ils donnent des noyaux atomiques plus stables, qui ont perdu une partie de leur masse.
Les atomes radioactifs à l’origine de la radioactivité naturelle sont présents dans les roches de l’écorce terrestre depuis la formation de la Terre, ils sont également générés en permanence par le rayonnement cosmique. Nous baignons dans la radioactivité naturelle depuis la nuit des temps.
C’est seulement depuis une centaine d’années que l’homme a découvert, grâce aux travaux d’Henri Becquerel, qu’il vivait depuis toujours environné par cette radioactivité. Il en a progressivement compris le mécanisme et les applications qu’il pouvait en tirer.
Ses domaines d’utilisation sont multiples : examens médicaux et traitements à base de radio-isotopes, énergie nucléaire, contrôles non-destructifs dans l’industrie, traceurs radioactifs pour étudier l’environnement, conservation des denrées agro-alimentaires, préservation des œuvres d’art, datation au carbone 14, détecteurs ioniques d’incendie en sont des exemples parmi d’autres.

Les unités de mesure de la radioactivité
Mesurer la radioactivité, et ses effets, consiste à mesurer trois phénomènes différents : l’activité émise par la source radioactive, la dose reçue, et l’effet de ce rayonnement sur l’organisme ou sur l’environnement.
L’activité d’une source radioactive se mesure en becquerels, notés Bq. Un becquerel correspond à une désintégration radioactive par seconde. Il s’agit d’une unité très petite.
Par exemple, un humain de 60 kg a une activité d’environ 6000 Bq de potassium-40 radioactif dans son squelette.
La dose reçue par une cible se mesure en grays, notés Gy. Un gray correspond à une énergie d’un joule reçue par un kilogramme d’un milieu (inerte ou vivant) exposé à un rayonnement ionisant.
On l’utilise pour exprimer des doses élevées, comme par exemple celles délivrées en radiothérapie pour détruire localement des cellules malignes. Ces doses se comptent en dizaines de grays ; elles seraient mortelles si elles étaient délivrées au corps entier.
L’effet biologique produit sur un organisme vivant pour une dose donnée de rayonnement n’est pas une quantité physique mesurable ; cet effet dépend de l’énergie transmise aux tissus, du type de rayonnement, et du tissu traversé. Le sievert, noté Sv, est l’unité légale d’équivalent de dose qui permet d’en rendre compte. Il est défini comme une dose (mesurée en Gray) pondérée par des facteurs sans dimension qui permettent de prendre en compte l’effet des rayonnements sur les organismes vivants.
En France, annuellement, la population est exposée en moyenne à une dose de 3,5 mSv.

Les expositions de l’homme à la radioactivité
En France, l’estimation des sources d’exposition aux rayonnements évalue la dose totale annuelle à laquelle est exposée la population : elle est estimée à 3,5 mSv, dont 2 mSv d’origine naturelle et 1,5 mSv d’origine artificielle. Ces répartitions sont des moyennes, elles peuvent varier selon différents paramètres, notamment la localisation géographique.
L’exposition aux rayonnements d’origine naturelle correspond à environ 60% du total de l’exposition de l’homme à la radioactivité.
Sa composante principale a pour origine le radon, un gaz radioactif descendant de l’uranium qui s’échappe des roches. Le restant provient du rayonnement tellurique émis par les roches, des rayons cosmiques et de la radioactivité propre du corps humain due à la présence en son sein de deux radioéléments d’origine naturelle, le potassium-40 et le carbone-14.
L’exposition à la radioactivité naturelle est permanente. Etalée au fil des jours, des mois et des ans, elle se fait à faible débit de dose.
L’exposition aux rayonnements d’origine artificielle a pour origine principale les examens et les traitements médicaux ; le 1% restant est produit par l’industrie, les retombées nucléaires, les installations nucléaires et les laboratoires de recherche.
Il est difficile de réduire ces doses autrement qu’en améliorant les appareillages. Renoncer aux examens et à la radiothérapie que permet la médecine nucléaire signifierait renoncer aux avancées de la médecine moderne.
Toutefois, on n’a recours aux rayonnements que si cela est justifié au regard du bénéfice apporté par rapport au risque encouru. Dans ce cas, on cherchera à les utiliser le plus efficacement possible et on limitera les doses en fonction de l’objectif à atteindre. Les médecins disposent pour cela de Niveaux de référence diagnostiques (NRD).
L’imagerie médicale au moyen de rayons X produit la plus forte dose d’exposition humaine aux rayonnements. Cependant, dans ce cas, on ne parle pas de radioactivité car les rayons X ne sont pas issus de réactions nucléaires, mais d’excitation électronique de l’atome.

Fission et fusion
L’énergie nucléaire peut être libérée de deux façons : en cassant des noyaux atomiques lourds ou en fusionnant des noyaux très légers, ce qu’on appelle respectivement la fission et la fusion nucléaire.
Si depuis longtemps la fission est contrôlée pour la production d’électricité, ce n’est pas encore le cas de la fusion qui est difficile à réaliser car il faut rapprocher deux noyaux qui ont tendance naturellement à se repousser.
La fission nucléaire est le phénomène par lequel le noyau d’un atome lourd (noyau qui contient beaucoup de protons et neutrons, tels les noyaux d’uranium et de plutonium) est divisé, à la suite de la capture d’un neutron primaire, en deux fragments plus légers. Cette réaction de fragmentation se traduit par l’émission de deux à trois neutrons secondaires et un dégagement d’énergie très important.
La fission spontanée est un phénomène extrêmement rare. Par exemple, pour un noyau comme l’uranium-238, la fission spontanée n’intervient qu’une fois sur 2 millions de désintégrations. Le seul noyau fissile naturel est un isotope de l’uranium (U-235), présent en faible proportion (0,7 %) dans les minerais d’uranium. Il existe d’autres noyaux fissiles, mais il faut les produire dans les réacteurs. Il s’agit principalement du plutonium-239 (généré à partir de l’uranium-238) et de l’uranium-233 (généré à partir du thorium-232).
La fission est le plus souvent provoquée par la capture d’un neutron dans un noyau très lourd, fissile, fragilisé par un trop grand nombre de protons et neutrons. Ce noyau très volumineux se scinde alors en noyaux plus stables, libérant de l’énergie.
Ce phénomène découvert en 1938 par Otto Hahn et Lise Meitner serait resté marginal s’il n’était possible de le multiplier à travers un mécanisme de réaction en chaîne.
La fission est accompagnée de quelques neutrons qui peuvent générer d’autres fissions. L’énergie nucléaire libérée ne concerne plus alors des atomes isolés, mais des quantités considérables de matière. La réaction en chaîne peut prendre un tour explosif dans le cas de la bombe atomique. Dans les réacteurs nucléaires, cette réaction est contrôlée.
Le phénomène de fission nucléaire induite fut décrit le 17 décembre 1938 par Otto Hahn et Fritz Strassmann. On doit à Hans von Halban, Frédéric Joliot, Lew Kowarski (en France) et à Enrico Fermi (aux États-Unis) la découverte, en 1939, de la réaction en chaîne provoquée par l’émission de neutrons lors de la fission.
La fusion nucléaire est une réaction où deux noyaux atomiques légers s’assemblent pour former un noyau plus lourd ; par exemple un noyau de deutérium et un noyau de tritium s’unissent pour former un noyau d’hélium, plus un neutron.
Cette réaction est à l’origine de l’énergie rayonnée par le Soleil permettant d’atteindre des températures de plusieurs millions de degrés.
Actuellement, aucun appareillage ne permet de produire de l’énergie en contrôlant les réactions de fusion nucléaire. Des recherches sont en cours afin que l’énergie de fusion produite soit supérieure à celle investie dans le chauffage des particules. Ces recherches sont menées dans le cadre international du projet ITER, afin de développer l’usage civil de l’énergie de fusion nucléaire pour la production électrique. (Voir aussi le texte « Qu’est-ce que la fusion nucléaire? » dans la partie du site consacrée aux Nouvelles technologies de production de l’énergie nucléaire).



2 – L’énergie nucléaire
La France est le deuxième producteur d’électricité nucléaire au monde en volume, derrière les Etats Unis, et le premier si l’on ramène cette production au nombre d’habitants. Cela peut s’expliquer, d’une part, par l’implication des chercheurs français, au début du 20ème siècle, dans la découverte de l’atome et la compréhension des mécanismes de la fission et, d’autre part, par la situation particulière de la France. En 1973, en plein choc pétrolier, le pays s’est retrouvé sans accès indépendant à une source d’énergie fossile, à la différence des Etats-Unis, qui disposaient de charbon, de pétrole et de gaz, de l’Allemagne, avec ses mines de charbon, ou encore du Royaume-Uni, avec le pétrole et le gaz de la mer du Nord. La diversité géographique et politique des pays producteurs d’uranium, ainsi que la facilité de stockage du combustible sur le territoire national, apparaissaient alors et, peut-être encore aujourd’hui, comme des éléments favorables à l’indépendance énergétique d’un pays par ailleurs complètement démuni de ressources.
Le programme nucléaire français, civil et militaire, voit le jour au lendemain de la seconde guerre mondiale. La création en 1945 du Commissariat à l’énergie atomique marque le début du développement de l’industrie nucléaire en France. En 1958 le général de Gaulle, nouvellement élu, décide que le pays doit maîtriser l’ensemble du cycle du nucléaire.
Dans ce but, et sur décision du président Pompidou, la construction de l’usine d’enrichissement d’uranium de Pierrelatte sur le site du Tricastin est lancée en 1972. Elle est inaugurée en 1979 et fonctionnera pendant 33 ans. Cette usine, actuellement en démantèlement, va être remplacée par l’unité de séparation par centrifugation Georges Besse II qui réalisera la même fonction tout en libérant l’équivalent de la production de deux centrales nucléaires grâce à sa moindre consommation énergétique.
Parallèlement, dès les années 50, EDF met en service 6 réacteurs uranium naturel-graphite-gaz, dits UNGG. Cette filière sera abandonnée progressivement, à partir de la fin des années 60, au profit de la filière à eau pressurisée, technologie utilisée actuellement, qui nécessite une phase d’enrichissement de l’uranium naturel. Le parc électronucléaire français évolue jusqu’au milieu des années 90 pour atteindre le niveau actuel de 58 réacteurs, répartis dans 19 centrales.
Actuellement en construction à Flamanville, l’EPR, réacteur pressurisé européen, est conçu sur les mêmes principes que les réacteurs en service aujourd’hui avec des objectifs de sûreté notablement renforcés.
En 2012, neuf réacteurs sont en cours de démantèlement en France. Ce sont les six réacteurs de la filière UNGG, le premier réacteur de Brennilis et les deux réacteurs surgénérateurs PHENIX et SUPERPHENIX. Ce démantèlement implique la déconstruction, le traitement, l’évacuation et le stockage de tous les composants, y compris le réacteur nucléaire. Une estimation des coûts de démantèlement des 58 réacteurs en activité sur le territoire national donne un chiffre de 18 milliards d’euros. Il existe une forte incertitude sur cette valeur qui pourrait être multipliée par deux ou trois. Cependant, le rapport de la Cour des Comptes de janvier 2012 a montré que cette incertitude a un impact très faible, quelques euros par MWh, sur le coût de production de l’électricité nucléaire.
La comparaison entre ces coûts de production et ceux des autres filières est un sujet qui se retrouve souvent au cœur des controverses entre pro et anti nucléaires.
La question du combustible est centrale dans les débats sur l’énergie nucléaire. Outre le fait qu’il n’y a plus aucune mine d’uranium en exploitation en France, le cycle de l’uranium lui-même, bien que relativement bien maîtrisé grâce aux usines d’enrichissement et de retraitement, alimente les discussions. Les différentes étapes qui vont de l’extraction du minerai au retraitement des combustibles usés sont souvent présentées comme les étapes d’un cycle fermé, faisant ainsi de l’uranium un combustible renouvelable, si l’on excepte le stockage des déchets ultimes. En France, c’est vrai en théorie mais faux dans la pratique. S’il est vrai que l’uranium contenu dans le combustible usé peut être réutilisé dans les centrales, sous certaines conditions de ré-enrichissement, il est vrai également que ce n’est pas le cas actuellement, le pays ne disposant pas encore d’usine pour le faire. De plus, le recyclage en combustible MOX du plutonium contenu dans le combustible usé, qui est opérationnel dans les réacteurs à eau sous pression, n’a lieu qu’une seule fois. Un véritable cycle fermé, avec multi-recyclage du plutonium, est techniquement possible, et pourra être mis en œuvre dans les réacteurs rapides surgénérateurs, comme cela a été démontré par le passé dans une centrale comme PHENIX.
Concernant le stockage des déchets à vie longue, environ 3,8% en volume des déchets radioactifs, les solutions adoptées varient d’un pays à l’autre. La France a choisi comme solution de référence le stockage en couche géologique profonde testé actuellement au laboratoire de Bure, dans la Meuse. Ce choix fera l’objet d’un débat public en 2013. Le système électronucléaire français est géré par un ensemble d’acteurs chargés de la recherche, de la construction et de l’exploitation des centrales, du recyclage du combustible, de la sûreté des installations, de la radioprotection et de la sécurité des personnes et de l’environnement. Cette organisation s’inscrit naturellement dans un cadre européen et international.

Centrale nucléaire : comment ça marche ?
Une centrale nucléaire produit de l’électricité grâce à la chaleur dégagée par la fission d’atomes d’uranium qui est le combustible. La fission du noyau d’uranium, noyau lourd et instable, est provoquée par la rencontre de ce noyau avec un neutron. Cette rencontre déclenche – la division du noyau en deux noyaux plus liés, – la libération de deux ou trois neutrons – et un dégagement d’énergie. Les neutrons libérés pourront eux-mêmes interagir avec d’autres noyaux d’uranium et poursuivre ainsi la fission. C’est ce que l’on appelle la réaction en chaîne. Dans un réacteur nucléaire, ce phénomène est maîtrisé par des barres de contrôle qui permettent d’agir sur la réaction en chaîne et donc de faire varier la puissance du réacteur ou de l’arrêter. Le pilotage est également rendu possible par des phénomènes physiques de rétroaction qui empêchent naturellement la divergence de la réaction.
En France, les 58 réacteurs en activité sont des réacteurs à eau pressurisée, ou REP. La grande quantité de chaleur dégagée par la fission de l’uranium fait chauffer de l’eau, maintenue sous pression. Ce circuit primaire d’eau chauffe à son tour un circuit secondaire d’eau qui va se transformer en vapeur et faire tourner une turbine, qui entraînera elle-même un alternateur. Cet alternateur produit un courant électrique alternatif qui, après passage dans un transformateur, voit sa tension augmentée pour être plus facilement transporté dans les lignes à très haute tension. À la sortie de la turbine, la vapeur du circuit secondaire est à nouveau transformée en eau grâce à un condenseur dans lequel circule de l’eau froide en provenance de la mer ou d’une rivière. Ce troisième circuit est appelé circuit de refroidissement. Si le débit de la rivière est trop faible, ou si l’on veut limiter son échauffement, l’eau de ce troisième circuit peut être refroidie en s’évaporant au contact de l’air circulant dans de grandes tours, appelées aéroréfrigérants, qui sont la partie la plus visible des centrales nucléaires. Les 3 circuits d’eau sont étanches les uns par rapport aux autres.

Le démantèlement des centrales
Le démantèlement est l’ensemble des opérations techniques qui visent, après l’arrêt définitif d’exploitation d’une installation nucléaire, à l’assainir en éliminant les substances dangereuses et les structures ou équipements les ayant contenues. (1)
Pour une centrale, cela comprend notamment la démolition, le traitement, l’évacuation vers le site de stockage adapté de tous ses composants, y compris le réacteur nucléaire.
En France, c’est EDF qui assure la maîtrise d’ouvrage du démantèlement en cours de ses neuf réacteurs industriels définitivement mis à l’arrêt : Brennilis, Bugey 1, Chinon A1, A2 et A3, Chooz A, Creys-Malville Superphénix ) et Saint Laurent A1 et A2.
Les opérations de démantèlement font suite aux phases de cessation définitive d’exploitation (CDE) et de mise à l’arrêt définitif (MAD) qui durent environ 10 ans. L’arrêt de la centrale puis le déchargement du combustible et la vidange des circuits se font durant la CDE. Le combustible est alors entreposé deux ans en piscine de désactivation et les études pour passer à la MAD sont réalisées.
La phase de MAD, point de non-retour, nécessite un décret. Elle consiste à démonter tous les équipements et les bâtiments industriels qui produiront essentiellement des déchets conventionnels (c’est-à-dire non radioactifs). Les déchets conventionnels sont valorisés et les déchets nucléaires sont conditionnés puis évacués vers les centres de stockage adaptés à leur nature. Durant cette phase, toutes les études permettant d’établir le scénario de démantèlement adapté aux objectifs de propreté visés sont réalisées. Sur cette base, un nouveau décret permet de passer à la phase de démantèlement. Elle consiste à démonter le bâtiment du réacteur, les matériaux et les équipements encore radioactifs et enfin à évacuer et stocker les déchets. La durée de cette phase est elle aussi estimée à 10 ans. Elle se termine par une phase d’assainissement final, suivie par les caractérisations, mesures et études d’impact permettant d’établir le dossier de déclassement. Les contre-mesures, contre expertises et le traitement de ce dossier prennent en général encore plusieurs années.
Le démantèlement des neuf réacteurs français devrait produire 800 000 tonnes de déchets non radioactifs (déchets conventionnels) qui seront recyclés et 165 000 tonnes de déchets radioactifs (2).
A l’issue des phases de démantèlement et une fois l’état final défini atteint, l’installation pourra être déclassée. Elle sera rayée de la liste des installations nucléaires et donc redeviendra utilisable pour un usage industriel (3). Plusieurs autres installations sont en cours de démantèlement ou de déclassement, notamment des réacteurs de recherche au Commissariat à l’Énergie Atomique (CEA) (4) ainsi que le réacteur exploité conjointement par le CNRS et l’université de Strasbourg.
L’ensemble de ces opérations est réalisé dans un cadre réglementaire notamment au travers de la loi sur la transparence et à la sécurité en matière nucléaire, dite loi TSN (Loi n° 2006-686 du 13 juin 2006).
En France, la Cour des comptes estime, à partir des chiffres donnés par les opérateurs (EDF, Areva et le CEA), à un peu plus de 18 milliards d’euros (5) le coût du démantèlement des 58 réacteurs en activité à ce jour. Cependant, les comparaisons internationales donnent des chiffres plus élevés. Ainsi une extrapolation des données internationales aux 58 réacteurs français donne des chiffres variant de 20 milliards selon les critères belges, à plus de 60 milliards selon les critères allemands (5). Un avis de l’autorité de sûreté nucléaire d’avril 2011 préconise d’améliorer les méthodes de calcul de ces coûts. Le coût de démantèlement est fortement lié à plusieurs critères parmi lesquels l’étalement dans le temps de la déconstruction, ou le fait que le démantèlement suive ou non l’arrêt de la production (3).
Aux Etats Unis quelques centrales ont déjà été démantelées comme celle de Maine Yankee par exemple, de 1997 à 2005. Le site a été remis en état, mais il reste encore à régler le problème du stockage de longue durée pour les déchets à vie longue (6).

Sources
1/ Site de l’Autorité de sûreté nucléaire
2/ pages « Le programme de déconstruction« ,  » Le financement » et « Les contrôles et la transparence » – site EDF
3/ article des Echos – Vrais comptes et mécomptes du coût de démantèlement des centrales nucléaires en France – 08/09/2011
4/ article « Démantèlement nucléaire » – wikipedia
5/ Rapport de la cour des comptes – janvier 2012 – « Les coûts de la filière électronucléaire« 
6/ article « Centrale nucléaire de Maine Yankee » – wikipedia et article « Maine Yankee decommissionning overview » Le cycle du combustible
Le cycle du combustible nucléaire désigne l’ensemble des opérations nécessaires pour approvisionner en combustible les réacteurs nucléaires puis pour stocker, retraiter et recycler ce combustible, la principale étape du cycle étant constituée par les 2 à 6 ans durant lesquels le combustible est utilisé dans le réacteur pour produire de l’électricité.
A l’état naturel, l’uranium ne contient que 0,7% d’isotope fissile, l’uranium 235, et 99,3% d’uranium 238, non fissile. Pour être utilisé dans les réacteurs à eau sous pression français, il doit être enrichi en uranium 235 à hauteur de 4 à 5%. Après enrichissement qui s’effectue sous forme gazeuse, il est transformé en oxyde, qui se présente sous la forme d’une poudre noire qui est ensuite comprimée en petites pastilles d’environ 7g. Ces pastilles sont insérées dans des tubes métalliques que l’on appelle crayons, eux-mêmes regroupés en assemblages combustibles placés dans le cœur du réacteur.
Après son utilisation dans le cœur du réacteur, le combustible s’est appauvri en uranium 235 et doit être remplacé. L’uranium 238 présent a également conduit à la production de plutonium et d’actinides plus lourds. Le combustible fait d’abord un passage prolongé en piscine afin de laisser décroître les produits de fission les plus radioactifs et à vie courte. Dans un second temps, le combustible irradié est placé dans un site d’entreposage dans l’attente d’un stockage définitif ou d’un retraitement.
Le retraitement consiste à isoler par des procédés mécaniques et chimiques les différents éléments du combustible usé de façon à séparer les éléments potentiellement valorisables, comme l’uranium et le plutonium, des déchets proprement dits, appelés déchets ultimes, qui seront calcinés puis vitrifiés au sein d’une matrice inerte avant d’être stockés. En France, une partie du plutonium est recyclée en combustible MOX, mélange d’oxydes d’uranium et de plutonium, utilisable dans certains réacteurs et dans le futur EPR.
L’uranium, qui représente encore 95% de la masse du combustible usé, est lui aussi recyclable. Il peut être à nouveau enrichi et utilisé dans certains réacteurs.
Cette opération de ré-enrichissement nécessite une installation d’ultracentrifugation qui n’est actuellement disponible au niveau mondial qu’en Russie, dans l’usine de Seversk, et aux Pays-Bas, dans l’usine Urenco. Pour sa part, la France sous-traite cette opération principalement à la Russie, en attendant la mise en production sur le site du Tricastin de l’usine Georges Besse II qui disposera d’une installation d’ultracentrifugation. Une partie, environ 10% actuellement, de cet uranium de retraitement (URT) est ré-enrichi. Le reste est stocké.
Ce recyclage d’une partie de l’uranium et du plutonium génère une économie annuelle d’environ 12% d’uranium naturel. Quelques pays possèdent une usine de retraitement des déchets nucléaires dont la France, avec l’usine de la Hague, le Royaume-Uni, la Russie, le Japon. Les Etats Unis ont fermé leur propre usine de retraitement pour des raisons économiques. La question du transport des combustibles usés à retraiter, du transport de l’uranium de retraitement vers les usines de ré-enrichissement et la prise en compte des risques, tant pour les personnels que pour les riverains et l’environnement, alimente régulièrement les débats entre pro et anti nucléaires. L’efficacité économique du recyclage tel qu’il est pratiqué aujourd’hui est faible, puisque l’uranium naturel reste encore à des prix très faibles. Néanmoins, dans l’hypothèse d’un déploiement du nucléaire au niveau mondial, une meilleure gestion des ressources naturelles alliée à un déploiement de réacteurs futurs, ainsi qu’une gestion optimisée des déchets demanderont à l’avenir de recycler les combustibles usés de plus en plus efficacement.

La gestion des déchets
Les différentes utilisations de la radioactivité – industrie électronucléaire, usage militaire, médecine nucléaire, laboratoires de recherche – génèrent des déchets qui doivent être gérés de façon sûre.
Les déchets sont définis par la durée de leur activité radioactive et par leur niveau de radioactivité qui conditionne leur dangerosité. On a ainsi défini 4 types de déchets :
– les déchets de haute activité à vie longue (HAVL) et les déchets de moyenne activité à vie longue (MAVL) : ce sont principalement les déchets issus du cœur du réacteur, hautement radioactifs et dont la radioactivité reste notable pendant des centaines de milliers, voire des millions d’années. Ces déchets ne restent pas « hautement radioactifs » à l’échelle géologique, ils se transforment progressivement en « déchets à faible activité vie longue » (FAVL). Le stockage définitif est aujourd’hui la solution privilégiée en France, et les décisions successives doivent être examinées par le parlement dans les années à venir.
– les déchets de faible et moyenne activité à vie courte (FMA-VC) : ce sont principalement les déchets technologiques (gants, combinaisons, outils, etc.) qui ont été contaminés pendant leur utilisation en centrale nucléaire ou pendant le cycle du combustible nucléaire. Leur nocivité ne dépasse pas 300 ans.
– les déchets de très faible activité (TFA) : ce sont principalement des matériaux contaminés, tels ferraille, gravats, béton, provenant du démantèlement de sites nucléaires. Ils sont peu radioactifs, mais les volumes attendus sont plus importants que ceux des autres catégories. Leur gestion est aujourd’hui opérationnelle, notamment dans les centres de stockage de l’ANDRA (Agence nationale pour la gestion des déchets radioactifs).
Pour des raisons de sécurité et de coût, il faut adapter la solution du stockage à la nature des déchets. L’activité et la durée de vie des déchets à vie courte de très faible activité et de faible et moyenne activité ne nécessitent pas qu’ils soient stockés dans les couches géologiques profondes. De même pour les déchets de faible activité à vie longue qui peuvent être stockés à des profondeurs intermédiaires, entre 15 et 200 mètres sous terre. Le stockage en couche géologique profonde, choisi par plusieurs pays, dont la France, est réservée aux déchets de haute et moyenne activité, à vie longue. Ces déchets représentent environ 3,8% en volume des déchets radioactifs.
En France l’ANDRA étudie et valide ce stockage géologique profond dans le laboratoire souterrain de Bure dans la Meuse. Si les tests sont concluants, et si le gouvernement donne son accord, un centre de stockage profond sera ensuite construit à proximité, c’est-à-dire dans une couche géologique similaire à celle qui a permis des études. Les centres de stockage sont implantés en régions non sismiques, dans des couches géologiques où les écoulements d’eau souterrains sont très faibles (roches argileuses ou granitiques par exemple). Le concept de stockage géologique en couche profonde est présenté comme étant un mode de gestion ne contraignant pas les générations futures sur la base des déchets actuellement produits.
À plus long terme, le stockage géologique se veut aussi, selon ses promoteurs, une réponse à une éventuelle dégradation de la société : le stockage est destiné à être sûr, même en cas d’oubli du site et d’arrêt de sa surveillance. C’est un concept passif dont la sûreté ne dépend pas de l’action des générations futures.
Pour ses opposants, l’exemple de la mine d’Asse, ancienne mine de sel en Basse-Saxe qui a été sujette à des infiltrations entraînant une contamination nucléaire du milieu environnant, prouve que le stockage des déchets par enfouissement est une fausse solution. On peut également penser qu’une société capable de gérer des réacteurs nucléaires en fonctionnement, et les risques associés, pourrait proposer une solution plus réversible de la gestion des déchets. Cela permettrait potentiellement de bénéficier d’avancées technologiques futures, d’autant plus que les déchets les plus radioactifs ne pourront être stockés dans un site géologique qu’après une période d’entreposage en surface d’environ 70 ans, afin que leur puissance résiduelle soit suffisamment réduite et ne conduise pas à des températures de colis enfouis trop élevées.

Radioprotection
La radioprotection est l’ensemble des mesures prises pour assurer la protection de l’homme et de son environnement en empêchant ou en réduisant les effets nocifs des rayonnements ionisants produits sur les personnes, directement ou indirectement.
Les radioéléments, atomes dont les noyaux sont radioactifs, émettent des rayonnements qui interagissent avec la matière et peuvent l’ioniser, c’est-à-dire enlever un ou plusieurs électrons à ses atomes constitutifs. Ces rayonnements sont appelés rayonnements ionisants. Les effets des rayonnements ionisants sur la santé sont de deux types :
– les effets à court terme (dits déterministes) tels la stérilité masculine temporaire, les brûlures, la nécrose des tissus, la nausée, la fatigue ;
– les effets à long terme (dits aléatoires) tels le cancer et les anomalies génétiques. Les tissus les plus sensibles aux irradiations sont les tissus reproducteurs, ceux impliqués dans la formation des cellules sanguines, la peau et le cristallin.
Les trois principes fondamentaux de la radioprotection, liés à la source et quelle que soit la situation d’exposition, sont :
– la justification : les sources de rayonnements ionisants ne doivent pas être utilisées s’il existe d’autres alternatives, sauf si le bénéfice obtenu par la société est supérieur au risque encouru ;
– l’optimisation ou principe ALARA : réduction de l’exposition, autant que faire se peut, compte tenu des facteurs économiques et sociaux de l’exposition aux rayonnements ionisants ;
– la limitation : la fixation par la réglementation des limites de doses annuelles d’exposition à ne pas dépasser. Il existe trois sources principales d’exposition : naturelle ; professionnelle ou médicale ; environnementale due aux activités humaines, actuelles ou passées, impliquant des rayonnements ionisants.
– La radioactivité naturelle peut donner lieu à une exposition externe, la source est alors le rayonnement tellurique ou le rayonnement cosmique. Les astronautes, les personnels navigants et les voyageurs qui empruntent régulièrement l’avion reçoivent des doses de rayonnement cosmique qui justifient une surveillance spécifique. La radioactivité naturelle peut donner également lieu à une exposition interne. Dans ce deuxième cas la source provient des aliments et de l’eau potable ainsi que de l’air inspiré qui contiennent du radon. Dans les deux cas il y a incorporation dans l’organisme. Cette irradiation naturelle varie selon la localisation géographique. En France elle est en moyenne de 2 mSv par an et par habitant ;
– Le secteur médical (radiothérapie, radiologie), l’industrie nucléaire, de nombreux secteurs industriels (conservation des aliments, contrôles par radiographie) et des laboratoires de recherche utilisent des rayonnements ionisants. La nature du rayonnement, la distance de l’organisme à la source, la durée de l’exposition, l’épaisseur et la composition des écrans de protection, les confinements dynamiques éventuels sont les éléments qui vont déterminer le niveau d’exposition. Des contrôles techniques sont effectués régulièrement sur les lieux de travail, ainsi que des mesures des doses reçues par le personnel. La dosimétrie opérationnelle, en temps réel, qui mesure l’exposition externe, est ainsi devenue obligatoire en France en 2000 pour tout travailleur exerçant en zone contrôlée. Elle est venue en complément de la dosimétrie passive (lecture en différé), obligatoire depuis plus de 30 ans pour tout type de zone réglementée. L’exposition interne est mesurée par dosage d’isotopes dans les urines, les selles, les sécrétions ou dans la totalité du corps (anthropogammamétrie). Pour les travailleurs concernés la dose efficace, somme de l’exposition externe et de l’exposition interne, est limitée à 20 mSv/an. Pour le public elle est limitée à 1 mSv/an hors exposition médicale, naturelle et environnementale.
– L’exposition environnementale liée aux activités humaines concerne principalement l’impact de l’industrie du nucléaire sur l’environnement. Elle fait l’objet d’une surveillance radiologique dotée d’un réseau national qui implique de nombreux acteurs de la société. C’est le Réseau national de mesures de la radioactivité de l’environnement (RNM). Ce réseau créé en 2003 est là pour répondre à des préoccupations sociétales.

Surveillance et mesures environnementales
En matière de surveillance environnementale, au niveau international, la Commission internationale de protection radiologique (CIPR) édicte des recommandations concernant la mesure de l’exposition aux radiations et les mesures de sécurité à prendre sur les installations sensibles. Ces recommandations ne font pas force de loi, mais sont reprises et adaptées par les législations nationales. En Europe, en application du traité Euratom, chaque état membre est tenu d’assurer une surveillance des niveaux de radioactivité dans l’environnement, que cet état ait ou non une industrie nucléaire. Au niveau international l’AIEA (Agence internationale de l’énergie atomique) émet des recommandations sur les méthodes à utiliser et les bonnes pratiques.
La surveillance de la radioactivité dans l’environnement se fait à deux niveaux : de manière rapprochée au voisinage des installations nucléaires et dans des sites plus éloignés non influencés directement par ces installations et qui permettent d’identifier des apports extérieurs potentiels au territoire concerné.
Une surveillance de routine est effectuée grâce à des réseaux de prélèvements effectués à une fréquence régulière. Ces prélèvements, faits dans l’air, l’eau, le sol et les aliments, sont analysés a posteriori en laboratoire. D’autre part, des réseaux de télésurveillance mesurent la radioactivité de l’air et des fleuves le long desquels sont implantées les installations nucléaires. Le dimensionnement de ces réseaux et leurs caractéristiques sont très variables d’un pays à l’autre.
En France, l’organisation des contrôles et de la surveillance est du ressort de l’Autorité de Sûreté Nucléaire (ASN) qui dispose d’un appui technique, l’IRSN (Institut de radioprotection et de sûreté nucléaire).
L’IRSN dispose d’un réseau de surveillance du territoire qui intègre à la fois des analyses sur des prélèvements et des dispositifs de surveillance en continu.
D’autres directions ministérielles et services de l’Etat sont également en charge des contrôles sanitaires notamment des aliments, des animaux destinés à l’alimentation et de l’eau de consommation.
En France, les sites nucléaires font l’objet d’une étude d’impact sanitaire et environnementale préalable à leur démarrage. Cette étude d’impact permet d’évaluer les répercussions des rejets radioactifs sur les populations et l’environnement. Elle permet également à l’ASN de dimensionner et déterminer le dispositif de surveillance réglementaire de l’environnement et de contrôle des rejets liquides et gazeux de l’installation. Ce dispositif de surveillance est formalisé dans un arrêté ministériel. Les exploitants de ces installations nucléaires ont ainsi la responsabilité de surveiller les effluents qu’ils rejettent ainsi que l’environnement des installations à l’intérieur et à l’extérieur de celles-ci.
En ce qui concerne la réalisation des mesures réglementaires, afin de garantir la qualité des résultats publiés, l’ASN délivre des agréments aux laboratoires qui effectuent ces analyses et les prélèvements. Seuls ces laboratoires sont autorisés à réaliser ces mesures à caractère réglementaire. Les résultats de ces mesures de surveillance sont mis à disposition du public dans le cadre du Réseau national de mesures de la radioactivité de l’environnement (http://www.mesure-radioactivite.fr/public/s-carte.html).
Des associations, comme l’ACRO (Association pour le contrôle de la radioactivité dans l’Ouest) ou la CRIIRAD (Commission de Recherche et d’Information Indépendantes sur la Radioactivité), possèdent leur propre laboratoire et effectuent également des contrôles ou des expertises sur la situation radio-écologique des sites. De leur côté, les commissions locales d’information (CLI), présentes à proximité des installations nucléaires, ont une mission de suivi, d’information et de concertation en matière de sûreté nucléaire, de radioprotection et d’impact des activités nucléaires sur les personnes et l’environnement. Les CLI peuvent faire réaliser des expertises et faire procéder à des mesures au niveau des rejets d’installations.
Le réseau Becquerel, quant à lui, a été mis en place par sept laboratoires de l’IN2P3 (Institut national de physique nucléaire et de physique des particules) du CNRS, pour répondre aux préoccupations en matière d’impacts de l’industrie nucléaire sur l’environnement. C’est une plateforme nationale d’analyse de radioéléments qui possède une expertise reconnue pour la compréhension du comportement des radionucléides dans l’environnement et pour la mise au point de détecteurs de très haute technologie. Le réseau mène des études environnementales de radio-écologie, de compréhension des phénomènes de transfert et d’accumulation des radionucléides dans les différents compartiments environnementaux ainsi que de caractérisation des risques sanitaires et environnementaux liés à la présence de radioactivité. Il réalise également des inventaires radiologiques, avant démantèlement d’installations nucléaires. En fonction de leur domaine d’activité, les laboratoires du réseau Becquerel disposent d’agréments délivrés par l’Autorité de Sureté Nucléaire (voir le site de l’ASN) et, à ce titre, plusieurs d’entre eux alimentent le Réseau national de mesures de la radioactivité de l’environnement.

Les coûts des différentes filières de production
Le rapport de la Cour des comptes publié le 31 janvier 2012 a évalué de façon très détaillée l’ensemble des coûts de la filière électronucléaire, en France, en 2010, selon différentes approches. Parmi ces approches, celle du coût courant économique* consistant à calculer un coût global au mégawattheure produit sur toute la durée de fonctionnement de l’outil de production choisi, doit permettre de faire des comparaisons entre le coût de la filière nucléaire et celui des autres filières énergétiques : hydraulique, éolien, solaire, biomasse, géothermie, gaz naturel, charbon, pétrole.
La difficulté consiste à identifier des chiffres explicites du coût du mégawattheure produit par ces différentes filières. Selon les diverses sources consultées, pour l’énergie hydraulique, le coût estimé varie de 20 euros à 60 euros du mégawattheure produit; pour l’énergie éolienne terrestre, les chiffres vont de 70 à 85 euros et pour l’éolien offshore, de 110 à 200 euros ; pour l’énergie solaire, la fourchette est de 170 à 350 euros; pour la biomasse, on trouve le chiffre de 110 euros du mégawattheure produit ; pour la filière cycle combiné à gaz (CCG), le mégawattheure produit va de 62 à 81 euros et pour la filière charbon ce coût peut aller de 44 à 70 euros (ces deux estimations sont hors montant de la taxe carbone qui selon son niveau peut augmenter le coût du MWh produit de plusieurs dizaines d’euros).
Ces chiffres sont des estimations, ils sont donnés à titre indicatif pour permettre au néophyte d’établir des comparaisons. Leur valeur par filière peut varier du simple au double, voire au triple, selon par exemple le facteur de charge des éoliennes (rapport entre la production effective et la production maximale théorique), ou la puissance des panneaux photovoltaïques et leur localisation géographique. Pour comparaison, le coût courant économique du mégawattheure d’origine nucléaire estimé par la Cour des comptes dans son rapport de 2012 est de 49,50 euros. En y intégrant l’impact de l’évolution des investissements de maintenance et de remise à niveau de sûreté post Fukushima d’ici 2025, ce coût monte à 54,20 euros.
Actuellement, un débat a lieu sur l’opportunité de prendre en compte dans le coût de l’électricité tout ou partie des coûts passés de recherche et développement financés par des crédits publics. Pour l’EPR de Flamanville, la Cour des comptes estime entre 70 et 90 euros le coût du mégawattheure produit pour ce premier exemplaire de nouvelle centrale de 3° génération. Pour être complet, il faut également préciser qu’en dehors du coût de production associé à chaque technologie, il faut prendre en compte le service rendu au système électrique, notamment la base de production garantie et la réserve de capacité de pointe. Le service rendu par un réacteur nucléaire ou une centrale à gaz par exemple n’est pas le même que celui d’un parc éolien dont la production est intermittente.
* Le coût courant économique inclut dans un calcul actualisé les éléments suivants : les investissements initiaux, les charges d’exploitation et de maintenance, les investissements de jouvence (par exemple le remplacement de gros équipements) et les provisions pour charges futures (traitement des déchets, démantèlement).

Les organismes : qui fait quoi ?
1 – En France
L’ASN, Autorité de sûreté nucléaire, est une autorité administrative indépendante chargée de contrôler les activités nucléaires civiles françaises. Elle rend compte chaque année au Parlement de l’état de la sûreté nucléaire et de la radioprotection en France.
L’IRSN, institut de radioprotection et de sûreté nucléaire, est un organisme public d’expertise et de recherche sur les risques nucléaires et radiologiques. L’IRSN évalue les dispositions des exploitants de centrales dans le domaine de la sûreté et propose des mesures de protection des populations dans le cas d’un accident. Cet organisme contribue également à l’information du public et effectue des recherches et des études sur les risques radiologiques et nucléaires. Enfin, l’IRSN assure une surveillance radiologique du territoire et des populations.
Le HCTISN, Haut comité pour la transparence et l’information sur la sûreté nucléaire, est une instance d’information, de concertation et de débats sur les risques liés aux activités nucléaires.
Areva (regroupement de Framatome, Cogema et Technicatome) est un groupe industriel français détenu à plus de 80% par l’Etat et dont les activités sont essentiellement liées à l’énergie nucléaire : extraction du minerai, fabrication des combustibles nucléaires, construction de réacteurs, traitement des combustibles usés, transport des matières radioactives, propulsion nucléaire, exploitation nucléaire.
L’Andra, Agence nationale pour la gestion des déchets radioactifs, est chargée de la gestion à long terme des déchets radioactifs produits en France. L’Andra est un EPIC (établissement public industriel et commercial). L’agence est indépendante des producteurs de déchets et est placée sous la tutelle des ministères en charge de l’Industrie, de la Recherche et de l’Environnement.
Le CEA, Commissariat à l’énergie atomique et aux énergies alternatives, est un établissement public industriel et commercial (EPIC). Cet organisme intervient dans quatre grands domaines : les énergies bas carbone, dont le nucléaire, les technologies pour l’information et pour la santé, les Très grandes infrastructures de recherche, la défense et la sécurité globale. Le CEA est le principal actionnaire d’Areva.
Le CNRS, Centre national de la recherche scientifique, a amplifié son implication dans la question de l’énergie nucléaire suite à la loi Bataille de 1991 sur la gestion des déchets nucléaires. Aujourd’hui, le programme NEEDS (Nucléaire : énergie, environnement, déchets, société) regroupe l’ensemble des acteurs académiques travaillant sur l’énergie nucléaire, de la chimie à la physique, en passant par la géologie ou les sciences humaines.
EDF, électricité de France, est la principale entreprise de production et de fourniture d’électricité en France. C’est une société anonyme à capitaux publics. EDF vend également ou achète de l’énergie à l’étranger en fonction des besoins et de la production. 77,71% de l’électricité en France est produite par le nucléaire (chiffres AIEA – 12/04/2012).
2 – A l’international
L’AEN, agence pour l’énergie nucléaire, est une institution de l’Organisation de coopération et de développement économiques (OCDE) dont le but est d’aider les pays membres à développer le nucléaire civil. L’AEN compte 30 pays membres.
L’AIEA, agence internationale de l’énergie atomique, est une agence inter-gouvernementale, qui, sous l’égide des Nations unies, veille au respect du traité de non-prolifération et œuvre pour la coopération dans l’utilisation pacifique du nucléaire.
Euratom, ou CEEA, Communauté européenne de l’énergie atomique, est un organisme public européen chargé de coordonner les programmes de recherche sur l’énergie nucléaire.

Exploitation et devenir des mines d’uranium
L’uranium, métal assez répandu dans l’écorce terrestre, est extrait principalement de mines à ciel ouvert ou souterraines. Un gisement est considéré comme exploitable lorsqu’il contient au moins 1 à 2 kg d’uranium par tonne de minerai.
Les mines les plus productives actuellement se situent au Canada, au Kazakhstan, en Australie, en Namibie, en Russie et au Niger. En 2010, ces six pays ont fourni 54% de la production mondiale d’uranium.
L’isotope fissile 235, présent seulement à raison de 0,7% dans l’uranium naturel en fait donc une ressource rare et précieuse.
En France, entre 1945 et 2001, l’uranium était extrait de 210 sites miniers répartis sur 25 départements situés majoritairement en région Centre. Environ 52 millions de tonnes de minerai d’uranium ont ainsi été traités pendant cette période, pour une production de 76 000 tonnes d’uranium. Le minerai extrait contenant très peu d ‘uranium, son transport serait économiquement non rentable. Le minerai est donc transformé et concentré sur place. Il est concassé en poudre fine puis traité chimiquement afin de dégager l’uranium par dissolution. Une mine d’uranium produit de nombreux déchets : des rejets atmosphériques, en particulier le gaz radon très toxique issu du minerai lui-même ; des rejets liquides ; des déchets solides comme les boues ; des stériles, roches qui ne contiennent que très peu d’uranium et ne sont donc pas traitées mais stockées à l’extérieur de la mine ; et, enfin, des minerais pauvres en uranium, qui sont eux aussi stockés.
Ces différents déchets peuvent entraîner une contamination de l’environnement et constituent un risque potentiel pour les populations. Il est donc nécessaire de maîtriser toute la chaine d’extraction du minerai d’uranium ainsi que le devenir des mines une fois leur exploitation achevée.
En France des laboratoires du CNRS, associés au réseau Becquerel, mènent régulièrement des analyses de radioactivité des sols et des eaux afin d’étudier les risques de contamination des eaux souterraines ou les problèmes liés au stockage des stériles miniers. Des études sur la gestion des risques longue durée sont menées en collaboration avec des équipes de sciences humaines et sociales. Le dialogue avec la société se fait au travers des Commissions Locales d’Information (CLI) auxquelles participent également d’autres organismes, comme l’IRSN ou la CRIIRAD, qui effectuent leurs propres analyses.

Fukushima : des conséquences sociales et politiques …

Novethic décembre 2012

Des chercheurs en sciences sociales, rassemblés au sein d’une mission interdisciplinaire du CNRS, se sont penchés sur les conséquences socio-politiques de la catastrophe de Fukushima au Japon et à travers le monde.  Impressions …

Le 7 décembre dernier, à Paris, à l’heure où un nouveau séisme frappait le nord-est du Japon, les chercheurs du défi NEEDS (Nucléaire, Energie, Environnement, Déchets et Société) se réunissaient pour un colloque de restitution de leur première année de travaux. Cette mission interdisciplinaire menée au sein du CNRS (avec l’appui des partenaires ANDRA, AREVA, CEA, EDF et IRSN) a consacré de nombreux projets à  la catastrophe de Fukushima, avec des thématiques de recherche aussi variées que l’impact de la mobilisation des femmes sur la vie quotidienne des populations, les études sociologiques sur les populations déplacées, l’analyse des décisions politiques globales ou encore l’étude des « tweets » envoyés au fil de la catastrophe sur les réseaux sociaux. Que les sciences sociales apparaissent ainsi dans le secteur gardé du nucléaire est une grande première , ce secteur ayant été laissé jusqu’alors aux techniciens et ingénieurs, qui ne s’attachaient de fait qu’à la sécurité des centrales.

Une analyse politique

Comme l’a rappelé Gabrielle Hecht, professeur d’histoire des techniques à l’université de Michigan (Etats-Unis), « l’analyse de la catastrophe japonaise a une fonction politique ». Et les causes ou particularités retenues pour l’étudier conditionnent aussi les leçons que l’on peut en tirer.  Par exemple, expliquer la catastrophe par la situation sismologique particulière du Japon, la restreint au cadre national alors qu’elle a une portée globale. Et elle permet aussi de la rendre d’autant plus improbable en France que nous n’y avons pas de séismes !  Il est bien sûr encore trop tôt pour savoir si toutes les études menées autour de l’impact social du nucléaire au Japon, bénéficieront  aux débats prévus en France en 2013 autour de la transition énergétique et de l’enfouissement des déchets nucléaires…Mais toutes ces études posent une question de fond : une  catastrophe comme celle de Fukushima peut-elle être un élément  déclencheur  pour un changement de paradigme énergétique ? L’étude comparée  de quelques systèmes politiques européens, un programme, nommé RESPAFE (Retombées socio-politiques de l’accident de Fukushima à l’échelle européenne), montre que si la catastrophe japonaise a pu amener certains pays à amorcer un virage vers la sortie du nucléaire, elle en a maintenu, voire confortés d’autres dans leurs politiques…

Ainsi, en Turquie, malgré une opinion publique défavorable et de grandes manifestations, malgré aussi des risques sismiques bien connus, la construction de 20 réacteurs nucléaires d’ici 10 ans a été annoncée par le gouvernement peu après la catastrophe.  De même en Finlande, tous les projets en cours (4 réacteurs, un centre de stockage de déchets nucléaire, et l’EPR Olkiluoto 3) ou à venir (2 EPR supplémentaires décidés en 2010) ont été maintenus. L’opinion publique finlandaise, brièvement en baisse après la catastrophe, semble avoir redonné toute sa confiance aux experts. Au Royaume Uni, le grand retour du nucléaire, lancé par Tony Blair en 2006, s’est confirmé avec  la construction  annoncée de nouveaux réacteurs en 2012. Les analystes de RESPAFE y ont par ailleurs noté la place prépondérante des experts pro-nucléaires dans les médias. Expliquant probablement que l’opinion publique britannique soit autant favorable au nucléaire qu’avant  Fukushima et ce, dès l’été 2011 … Seuls pays amorçant un virage de sortie : la Belgique, où le gouvernement a décidé dans un premier temps de fermer ses 3 principaux réacteurs ; et l’Allemagne, où la grande mobilisation de l’opinion publique a été suivie de l’annonce gouvernementale d’un moratoire (mais il s’agissait en fait d’une décision qui avait déjà été prise bien avant Fukushima) ; (NDLR : non mentionnée dans l’étude,   la Suisse a également décidé d’arrêter 5 de ses réacteurs et de sortir du nucléaire…)

Le nucléaire à la française

En France, où 58 réacteurs sont en activité, et où 2 EPR sont en cours de construction, le nucléaire s’est naturellement invité au programme de la campagne présidentielle 2012. Le nouveau gouvernement  a convenu de réduire la production, d’arrêter la centrale de Fessenheim et de lancer le grand débat sur « la transition énergétique ». L’intervention d’Olivier Labussière, du Centre International de Recherche sur l’Environnement et le Développement (EHESS, CNRS, AgroParisTech) a permis de rappeler la façon dont les Schémas Régionaux  du Climat, de l’Air et de l’Energie (SRCAE), mis en place dans les régions à la suite de la loi Grenelle 2, avaient été censurés par le gouvernement précédent de tout débat autour du nucléaire, alors que des discussions avaient spontanément émergé à la suite de la catastrophe de Fukushima : en juin 2011, une proposition de motion colportée par les collectivités de région visait à utiliser ces SRCAE pour débattre de l’opportunité de sortir du nucléaire, de fermer les centrales de plus de 30 ans, mais aussi de s’opposer à la construction de nouvelles, d’élargir le périmètre d’information des populations  et de proposer un mixte énergétique pour sortir du nucléaire ; elle avait été sanctionnée presque aussitôt, dès le mois de juillet 2011, par une circulaire du ministère de l’écologie  rappelant que ces SRCAE n’étaient pas le lieu où discuter de la politique nationale ! Reste donc à voir comment le nouveau gouvernement encadrera les prochains débats sur la question…

La catastrophe de Fukushima est bien loin d’avoir sonné le glas du nucléaire. Bien sûr, en mars 2011, le monde entier fut choqué, les antinucléaires se mobilisèrent, au Japon mais aussi dans le reste du monde. Et si, en septembre 2012, le gouvernement japonais annonçait la fin programmée de tous leurs réacteurs à l’horizon 2040,  c’était tout en sachant que la décision avait toutes les chances d’être remise en cause après les élections législatives. Ces dernières, qui se sont déroulé le 16 décembre dernier, viennent d’être remportées sans grande surprise par le PLD (le parti libéral-démocrate), la droite conservatrice qui depuis 40 ans contribue au développement du nucléaire au Japon. Et les activités  nucléaires devraient y reprendre, comme presque partout ailleurs dans le monde, presque comme avant.

Quand les sciences sociales planchaient sur Fukushima…

Le 7 décembre 2012, un colloque au CNRS rassemblait économistes, sociologues et autres spécialistes ès sciences humaines aux côtés des chercheurs du nucléaire, dans une volonté de pluridisciplinarité, avec des sciences sociales qui entendaient bien tirer les leçons de la catastrophe de Fukushima…Sauf que depuis, le programme a été « recadré » si l’on peut dire, sous le pilotage bienveillant de l’IRSN. Certaines voix qui criaient à raison un peu plus fort que les autres ont été priées de se taire.

Un recensement alarmant


Depuis plus d’un an, des observateurs du monde entier (OMS, IRSN, organismes indépendants tels que la Criirad ou l’Acro) se rendent à Fukushima afin d’y étudier la radioactivité et son impact sanitaire et environnemental. Mais aussi ses impacts sociaux, économiques et politiques, notamment au travers de programmes de recherche impliquant des chercheurs français. Déjà les 17 et 18 septembre dernier, une conférence internationale « Risk after Fukushima : Crisis, disaster and governance » s’était déroulée au CERI-Sciences Po (Paris) pour présenter les premiers résultats du projet DEVAST. Le colloque NEEDS vient compléter le bilan situationnel de l’après-Fukushima.

Fukushima, un an après
Le colloque du CNRS faisait le bilan d’un an de recherches menées en toute indépendance par des chercheurs en sciences humaines. Un bilan, qui un an et demi après la catastrophe, reste lourd : la contamination des sols, étendue bien au-delà du site de l’accident, a conduit à l’exil des centaines de milliers de personnes ; les installations endommagées de la centrale, dont une piscine de refroidissement emplie de barres de combustible, restent à sécuriser, le risque de catastrophe nucléaire étant toujours élevé pour peu que survienne un nouveau séisme d’envergure, comme celui du 7 décembre dernier, par exemple, au Nord-Est du Japon qui a atteint 7.4 degrés sur l’échelle de Richter ; les denrées alimentaires sont pour une bonne part contaminées ; et le pays a subi une crise politique majeure, le gouvernement s’avérant incapable de gérer pleinement les suites de la catastrophe. Vivre dans le Japon de l’après-Fukushima s’avère, pour les populations des territoires contaminés, être toujours quelque peu chaotique…


Une société chamboulée
Déjà à l’ automne 2012, le projet DEVAST qui rassemble des chercheurs japonais et français autour de l’étude de l’évolution de la perception du risque dans la démocratie rendait son premier bilan : à l’occasion d’une réunion informelle avec la presse le 17 septembre, les chercheurs japonais du projet ont souligné la difficulté des autorités à faire face à la désorganisation de la société qui a suivi la catastrophe. En effet, quelques 340 000 personnes (sur les 128 millions d’habitants du pays) ont quitté leur logement pour cause de contamination radioactive. Certains sur ordre du gouvernement, d’autres (40% d’entre eux), de leur propre initiative au fur et à mesure que les informations sur les radiations arrivaient (en particulier grâce aux initiatives citoyennes de Crowd sourcing répercutant sur internet les mesures réalisées selon un quadrillage GPS très précis…)
Ces mouvements de population n’ont pas été sans traumatisme, les gens ayant été obligés du jour au lendemain de quitter maison et travail pour occuper des logements provisoires, aménagés à la hâte par une politique de logement complètement chaotique. Chômage, suicide, dépression et exclusion (les gens de la zone interdite autour de Fukushima sont par exemple interdits de bains publics) font désormais partie de leur quotidien. Et le nombre de divorces a augmenté.
En mars 2012, des indemnisations ont enfin été décidées par le gouvernement pour les populations évacuées, fonction du taux d’irradiation de leur zone de provenance (voir encadré 1) . Elles n’ont pour beaucoup d’entre elles pas encore été versées. « Quant aux personnes qui sont parties de leur plein gré, elles ne perçoivent, elles, aucune indemnité. » résume l’un des responsables du projet DEVAST, le Pr. Noiyuki Ueda, anthropologue à l’Institut de Technologie de Tokyo. Pourtant les zones d’où elles proviennent sont parfois fortement exposées à la radioactivité ! Comme celles de la ville de Fukushima, pourtant située à 70km de la centrale…

Comment le gouvernement gère-t-il les populations concernées ? Thierry Ribault, chercheur au CNRS, à Fukushima


Des chiffres et des mesures
« La gestion de la catastrophe de Fukushima par les autorités est une réussite extraordinaire », note amèrement Thierry Ribault, chercheur CNRS en économie en poste à la Maison franco-japonaise au Japon et responsable d’un projet de recherche au sein du programme NEEDS. Elle a permis de ne pas faire bouger la masse de gens qu’il aurait été nécessaire de déplacer ! La contamination a voyagé avec le vent, s’éloignant de la centrale pour atteindre des zones à densité de population élevée. Comme le rappelle le chercheur, « Le panache de Cesium 134 et 137 émis lors de l’accident a arrosé très loin.  Ainsi, à Fukushima, des mesures indépendantes menées par la CRMS montrent une irradiation 3 à 4 fois supérieure à celle que l’on relève près de la centrale, à 70km de là ! ». Mais pourquoi ces chiffres ne sont-ils pas pris en compte par les autorités ? C’est que la densité de population est beaucoup plus élevée en ville qu’en zone agricole, donc beaucoup plus difficile à déplacer !

Quelle est la situation de la ville Fukushima ? Thierry Ribault est chercheur en économie au CNRS, en poste à la Maison franco-japonaise à Tokyo.


Dans la ville de Fukushima, l’organisation non gouvernementale Greenpeace a mené une campagne de mesures au mois d’octobre 2012, confirmant la contamination élevée de la ville de Fukushima (tout comme celle d’Iitate, reclassée en partie en « aire 2 » depuis le mois de juillet). Et a voulu éprouver la volonté de transparence des autorités en matière d’informations aux citoyens. Les autorités ont en effet installé de nombreux appareils de mesure dans la ville de Fukushima, qui affichent les doses d’exposition à la radioactivité. Greenpeace a donc testé 40 de ces appareils et constaté que les résultats étaient bien en deçà de la réalité, puisque, selon l’organisation, « dans 75% des cas, les mesures relevées à 25 m de l’appareil affichaient des doses 6 fois plus élevées ! ».
Outre les mesures de radiation, des programmes de surveillance sanitaire se sont aussi mis en place, dont un programme de contrôle de la thyroïde chez les enfants de moins de 18 ans. Les premiers résultats, présentés le 11 septembre dernier à Tokyo, se veulent aussi très rassurants, n’annonçant qu’un cas de cancer de la thyroïde diagnostiqué sur 80 174 enfants. En fait, «ce cas de cancer ne peut être ramené qu’à une population de 14 enfants ayant effectivement subi tous les examens nécessaires », dénonce Thierry Ribault dans une analyse plus poussée. Or sur ces 80 174 enfants ayant subi une première échographie de dépistage, 387 sont toujours en attente d’examens complémentaires.


Vers l’arrêt du nucléaire au Japon? 
Avant Fukushima, le nucléaire représentait un moins du tiers (28%) de la production d’énergie du pays et il était envisagé de le développer pour qu’il en produise un peu plus de la moitié (53%) d’ici 2030. La catastrophe du 11 mars a soulevé des mouvements citoyens qui avaient conduit le gouvernement à annoncer, le 14 septembre 2012, l’arrêt total de la production d’électricité par l’énergie nucléaire d’ici 2039. Un arrêt ne signifiait pas alors pour autant l’arrêt de l’industrie japonaise du nucléaire. Le Japon exporte en effet ses centrales à des pays en voie de développement (comme l’Indonésie par exemple, dans des zones à risque sismique élevé), intégrant désormais, fort de son expérience, un plan de gestion des catastrophes . Et avait annoncé en juin 2012 vouloir relancer sa production de plutonium, ce que certaines analyses ont attribué à une volonté, nouvelle, de se lancer dans la fabrication d’armes nucléaires. Le résultat des dernières élections législatives, le 16 décembre 2012, montre à quel point cette décision d’arrêter les centrales était une manœuvre électorale visant à la simple récupération des voix chez les citoyens anti-nucléaires. Car le parti nouvellement élu, le PLD (Parti des Libéraux-Démocrates), programme de relancer le nucléaire à tout va, après avoir durant plus de 30 ans contribué à son essor !

Une inversion paradoxale du désastre
Depuis plus d’un an, les informations scientifiques sur l’impact humain de la catastrophe de Fukushima sont contradictoires, souvent tues ou minimisées par les autorités, rappelant à quel point le nucléaire est, au Japon comme ailleurs, politiquement lié à l’industrie qui le développe. Néanmoins, fait nouveau, la catastrophe a replacé dans le monde entier la question nucléaire au centre des débats publics. Même si son incidence sur les décisions politiques en matière d’orientation nucléaire aura été faible, ont rappelé les chercheurs du programme SHS de NEEDS. « La catastrophe de Fukushima a conduit le CNRS à repenser le rôle des sciences humaines et sociales dans la recherche sur le nucléaire, et sur les choix en matière d’énergies », précise Sandra Laugier, philosophe, directrice adjointe scientifique de l’Institut des Sciences Humaines et Sociales du CNRS, qui pilote depuis un an le défi SHS NEEDS. « Notre but en lançant ce programme était de soutenir des recherches scientifiques indépendantes, sur les conséquences immédiates et à long terme de la catastrophe japonaise, mais aussi sur la société nucléaire en général, sur ce qu’elle implique pour les humains. » De fait, il est probable que ces travaux bénéficient à l’élaboration des lignes de conduite des prochains débats publics sur la transition énergétique et le nucléaire.
Restera à savoir pourquoi, deux ans bientôt après Fukushima, rien n’a vraiment changé dans les politiques publiques de l’énergie en France et au Japon quant à la place du nucléaire… « comme si la catastrophe avait renforcé le nucléaire, en dépit du choc et de la révolte induits chez les populations » note Sandra Laugier. Cette paradoxale inversion du désastre, et les stratégies et argumentations politiques qui l’ont soutenue, sera certainement l’objet des réflexions des chercheurs du CNRS et des universités dans la suite du programme lancé en 2012.


Pour en savoir plus :
Fukushima, un an après Premières analyses de l’accident et de ses conséquences Rapport IRSN de mars 2012


Rapport sur les doses reçues par les populations japonaises au cours de la première année suivant l’accident de Fukushima. Rapport OMS de mai 2012

 Des risques environnementaux toujours à l’étude
Cet été, l’accent a été mis sur le risque d’effondrement de la piscine remplie de barres de combustible de la centrale de Fukushima. Ce risque est bien réel, mais loin d’être un scoop, est connu depuis le début .
Le danger de la piscine de Fukushima est connu de puis longtemps !
 En revanche, les travaux scientifiques portant sur l’évaluation scientifique  des conséquences de la catastrophe nucléaire sur l’environnement commencent à  paraître  : le 9 août 2012 dernier, un article de la revue Nature  a ainsi établi  des anomalies de développement morphologique dans  une espèce de papillon bleu, « Zizeeria maha », très commune au Japon : apparaissant dès la première génération   après l’accident, ces mutations  seraient en outre héritables (affectant les cellules germinales), se retrouvant à la 3ème génération (1) . Des travaux, menés par une équipe japonaise, que l’IRSN a estimé sérieux et originaux, même si ils ne tiennent pas compte de la contamination interne liée à l’absorption des végétaux. Le 26 octobre 2012, au tour de la revue Science  de publier un article rapportant que 40% des poissons pêchés au large de Fukushima présentent des doses de césium les rendant non consommables. Ce qui fait dire à son auteur, Ken Buesseler, chimiste américain, que la centrale de Fukushima continue à fuir ou que les fonds marins sont contaminés.  

(1) Hiyama et al. « The biological impacts of the Fukushima nuclear accident  on the pale grass blue butterfly » , Scientific Reports, 2 :   DOI: 10.1038/srep00570 1

(2)  Buesseler K « Fishing for answers off Fukushima » Science 26 October 2012:  Vol. 338 no. 6106 pp. 480-482 DOI: 10.1126/science.1228250

EN SAVOIR PLUS

Synthèse des informations disponibles concernant la contamination des denrées alimentaires à la suite de l’accident de Fukushima, IRSN, juillet 2012

Etat des lieux de l’avancement des travaux de decontamination dans la Préfecture de Fukushima, juillet 2012 .

Rapport sur l’exposition des travailleurs les plus exposés au cours de la phase d’urgence radiologique. Rapport de l’Investigation Committee on the Accident at Nuclear Power Stations of Tokyo Electric Power Company de décembre 2011

Rapport de la commission d’enquête indépendante commanditée par le Parlement japonais sur l’analyse du traitement de la situation par l’opérateur et le gouvernement. juillet 2012

Cancer de la Thyroïde, des chiffres manipulés , Rue 89 2012



Sigles utilisés

  • OMS Organisation Mondiale de la Santé
  • IRSN Institut de Radioprotection et de Sûreté Nucléaire
  • Criirad Commission de Recherche et d’Information Indépendantes sur la Radioactivité 
  • Acro Association pour le Contrôle de la radioactivité dans l’Ouest
  • DEVAST (Disaster Evacuation and Risk Percepetion in Democracies) est un programme soutenu par l’ANR (Agence Nationale de la Recherche) et la JSTA (Japan Science and Technological Agency). Il porte sur l’évolution de la perception du risque dans la démocratie.
  • NEEDS (Nucléaire : Énergie, Environnement, Déchets et Société) est un programme interdisciplinaire lancé par le CNRS début 2012, pour une période renouvelable de cinq ans. Un programme  spécifique,« Fukushima : un an après » , y a été développé, entièrement financé par le CNRS.
  • L’indemnisation est calquée sur le zonage défini depuis avril 2012 . Pour les ex- habitants de l’area 3, elle s’élève à 60 000 euros, soit le montant compensatoire de leur maison,
  • CRMS : Citizen Radiation Measure Station, homologue japonais de la CRIIRAD





La saga des casseroles

Octobre 2012

Espoirs et désillusions d’une révolution citoyenne

L’Islande est aujourd’hui citée comme un exemple de révolution citoyenne réussie. Le monde entier, des Indignés au FMI, la félicite d’être ainsi parvenue à résoudre la crise économique qui l’avait placé au bord de la faillite. Sur place, le bilan semble beaucoup plus mitigé : et si la Révolution n’était qu’un mythe ?

Reykjavik, août 2012. Près d’un mois que je suis dans l’île des 1000 volcans. Comment se porte l’Islande aujourd’hui ? Difficile de s’en faire une idée claire. Après un périple dans le Nord, me voici ici, dans la principale rue commerçante de la capitale islandaise. Laugarvegur à hauteur du n°46, une cour dans laquelle des enfants font de la bicyclette. 

Deux silhouettes longilignes se détachent dans la nuit : Jon et sa femme peignent sur un mur l’image étonnamment vivante d’un papillon géant au-dessus duquel on reconnaît la lettre sanskrite « om ».

Tiens ! Un symbole d’accomplissement d’une transformation, certes éphémère mais associé à une sagesse millénaire. Serait-ce une métaphore de l’Islande d’aujourd’hui ? Pour Jon Sæmundur, artiste et rocker psychédélique fondateur des Dead Skeletons [1], regard sombre et cheveux longs sous chapeau noir, la « crise » (Kreppa en Islandais)  est « la meilleure chose qui soit arrivée à l’Islande. Grâce à elle, les gens sont revenus à des valeurs essentielles, plus spirituelles. Ils “s’éveillent”. Retrouvent leurs familles, leurs amis et se questionnent sur ce qui compte vraiment pour eux. »

Kreppa ou pas ?

Frappé de plein fouet en 2008 par la faillite de ses banques, ce tout petit pays – 320 000 habitants à peine, dont les deux tiers dans la seule ville de Reykjavik, semble aujourd’hui à nouveau prospère. Les vitrines des magasins de luxe sont bien achalandées et les boutiques de souvenirs pour touristes ne désemplissent pas. Tout comme les bars, les restaurants et les hôtels de la capitale.Une crise? Mais quelle crise ? Le mot, à lui seul, ne provoque souvent que des yeux ronds en guise de commentaire.

On fuit, on rit, une pinte de bière à la main. Anita, une grande et grosse jeune fille aux tresses blondes et à la peau boutonneuse, à l’instar de tous les jeunes rencontrés lors des trois jours de la fête nationale des commerçants (le premier week-end d’août), brandit fièrement une carte de crédit dorée.  « Tout va bien, regarde, on fait la fête, on s’amuse, on boit. » Les cornes de viking en plastique qui surmontent son serre-tête flamboient en clignotant. De tous les autres jeunes et moins jeunes rencontrés, personne ne semble vouloir parler de crise économique. Même sobres.

Hrafnkell Fannar Ingjaldsson, le directeur de la  bibliothèque municipale d’Akureyri, la deuxième ville du pays, au Nord, confirme, d’une voix douce mais presque blasée, après avoir cherché, vainement, dans les bases documentaires, des témoignages écrits sur le sujet : « La crise, c’est du passé, vous ne trouverez personne pour en parler. Ici, l’économie et la politique, ça embête tout le monde. » Sauf peut-être les petits cochons-tirelire roses qui agrémentent les enseignes des magasins Bonus et parlent d’eux-mêmes : ces discounts alimentaires attirent aujourd’hui des familles qui, avant 2008, se fournissaient encore dans les épiceries fines… Ou les militants très catholiques de l’association « United Reykjavik 101 » (lire one-o-one, nom du quartier central de la capitale qui jouxte le port) qui pestent contre la réduction des budgets sociaux. Tous les mardi soirs, dans une ambiance de camp scout, ils offrent, tout sourire, devant le Parlement, des repas à quelques 200 personnes à la rue ou en grande difficulté.

Quand 2008 rimait avec faillite

Retour à l’histoire. En 2008, l’Islande compte alors parmi les pays les plus riches du monde. L’Etat insulaire s’est enrichi en très peu de temps : vivant jusqu’au dernier millénaire de la pêche, et, depuis les années 1970, de la vente d’une partie de ses ressources géothermiques à des géants canadiens (Rio Tinto) et états-uniens (  Alcoa) de l’aluminium,  toute son économie repose depuis la fin des années 1990 sur les investissements financiers d’hommes d’affaires aventureux, les « néo-vikings ». Une vraie success-story… acquise grâce à la hardiesse sans faille de ces conquérants des marchés financiers mondiaux, facilitée par une corruption bien organisée du système tout entier.

Dans les années 2000,  trois banques se partagent les  comptes bancaires du pays : Landbanski, Kaupthin et Glitnir, ouvrant même des filiales à l’étranger. Telle que la banque en ligne Icesave, filiale de la Landbanski, qui a pour clients des milliers de Britanniques et de Néerlandais et même quelques centaines de Français. Ces banques spéculent à tout-va, au total l’équivalent de dix fois le produit intérieur brut du pays.

Aux premiers signes de la crise économique mondiale, la monnaie islandaise est dévaluée de moitié. Puis, la tempête de la crise des subprimes et la chute de la banque américaine Lehman Brothers, le 15 septembre 2008, finissent d’ébranler l’édifice spéculatif. Les banques islandaises se mettent en faillite. Deux d’entre elles (Kaupthing et Glitnir) sont nationalisées. Et le 6 octobre, le Premier ministre Geir H. Haarde (droite conservatrice) annonce à la télévision : « Nous connaissons une situation grave. Les trois banques  les plus importantes du pays ont perdu des millions d’euros en spéculation… » .  

« Gud Välsigne Island »

« Que Dieu sauve l’Islande… » Le chef du gouvernement conclue ainsi son intervention. Le 7 octobre, lendemain de l’allocution télévisée du Premier ministre, la troisième banque, la Landbanski, est nationalisée ; sa filiale en ligne, Icesave, suspend immédiatement toutes les opérations des comptes de ses clients . Retour de bâton immédiat : les gouvernements britannique et néerlandais gèlent tous les avoirs des banques islandaises dans leurs pays, indemnisent les clients… et  se retournent contre l’Islande ! Le 8 octobre, le Royaume-Uni invoque même la loi « Antiterrorisme, Crime et Sécurité », votée en 2001 à la suite du 11 septembre, pour inscrire la République d’Islande sur la liste des pires terroristes de la planète.  La population réagit, non sans humour. Une pétition « We are not terrorists » circule, un site Internet se créé, diffusant les photos ironiques que les Islandais s’amusent à faire, déguisés en terroristes.  Quand ils ne manifestent pas en faisant exploser… des balises de détresse !

Photo : Skúli Þór Magnússon

Fin novembre 2008, un accord de remboursement est trouvé entre l’Islande, le Royaume-Uni et les Pays-Bas. Le FMI (Fonds Monétaire International) débloque un prêt  de plus de deux milliards d’euros, versé en plusieurs fois, au gré des « progrès » du pays.

Mais, la réalité est là : les Islandais sont désormais redevables des dettes de leurs banques, ils sont furieux et le font savoir. Le film documentaire God Bless Island (2010), du réalisateur islandais Helgi Felixson nous les montre, dès le 18 octobre 2008, à Reykjavik, devant le Parlement (Althingi), réclamant la démission du gouvernement.  Le drapeau des magasins Bonus, reflet de ce que nombre d’Islandais pensent désormais des finances du pays flotte sur le toit du parlement, planté là par le jeune Hàkur – qui finira au poste. Sa mère, Eva Hauksdöttir, tient un magasin ésotérique dans le centre de Reykjavik. Et manifeste à sa façon : sorcière blonde vêtue de noir, elle procède, toujours devant le parlement, à des cérémonies de magie noire contre le gouvernement et contre les banquiers afin qu’ils réparent leurs dettes. Elle fesse même publiquement une poupée à l’effigie de Davíð Oddsson, le directeur de la banque centrale d’Islande de 2005 à 2009, l’un des principaux responsables de l’hypertrophie du système banquaire insulaire.

Des initiatives plus pacifiques fleurissent :  l’Islande est mise aux enchères   sur eBay pour 0,99 cents…  et Hörður Torfason, troubadour et apôtre néogandhien de la non-violence, inaugure une tribune d’expression ouverte à tous. Il invite les gens  à sortir de chez eux avec leurs ustensiles de cuisine pour manifester en musique devant le parlement. L’amorce d’une révolution?

La révolution des casseroles

Ces manifestations tonitruantes ouvrent ce que l’on a appelé la « révolution des casseroles ». Elles vont inspirer les groupes d’indignés espagnols et canadiens, auxquels Hörður rend visite, vantant les mérites de la révolution pacifique et de la mobilisation de masse. Pourtant, sur fond de « batucada » de casseroles, les manifestations de l’hiver 2008  ne sont pas exemptes de violences et ne rassemblent pas tant de monde  que cela :   1000 à 2000 personnes au début,  8000 à 10 000   au plus fort du mouvement, début 2009. Mais les manifestants sont très remontés, ils n’hésitent pas à couvrir le Parlement  de « Skyr » (le yaourt local) et de papier toilette, en escaladent les murs, y entrent par les fenêtres. La police use des gaz lacrymogènes et procède à des centaines d’arrestations. Du jamais vu en Islande, aux habitants réputés tranquilles, depuis l’adhésion du pays à l’Otan en 1949.

Fin janvier 2009, le Premier ministre Geir Haarde part sous les huées et les lancers d’œufs…. La ministre des Affaires sociales,  Jóhanna Sigurðardóttir, le remplace. A 60 ans passés, « Sainte Johanna », comme on la surnomme alors, est  depuis longtemps   entrée en politique chez les sociaux-démocrates.  Pour autant, comme dans de nombreux pays du monde, les citoyens ne croient plus en la classe politique… Reflet des mobilisations citoyennes, un nouveau parti émerge et vient s’ajouter aux candidats habituels : le Mouvement des citoyens (Borgarahreyfingin en Islandais). Les élections anticipées du mois d’avril feront entrer 4 de ses représentants au Parlement (qui compte 63 sièges). Un score tout à fait honorable pour ce petit pays qui « n’a pas de tradition de protestation, comme en France », ainsi que le rappelle la députée Birgitta Jónsdóttir [2], l’une des instigatrices de ce nouveau parti. La   coalition socio-démocrates-verts est pour sa part élue à la tête du gouvernement avec 54% des suffrages.

« No Cash… but Ashes » !

Le nouveau gouvernement , sommé de trouver des accords pour rembourser la dette bancaire de Icesave au Royaume-Uni et aux Pays-Bas, envisage en octobre 2009, à la charge entière des contribuables, le paiement de 3,7 milliards d’euros, avec 5% d’intérêts. La loi passe en force au Parlement en décembre 2009. Les manifestations citoyennes se poursuivent de plus belle : la grande majorité des citoyens islandais ne supportent pas l’idée d’être considérés comme des vaches à lait, forcés de rembourser les erreurs des « Money hooligans », tels qu’on appelle désormais les néo-Vikings…

C’est alors qu’entre en scène Ólafur Ragnar Grímsson, le Président de la République, resté en poste malgré la tourmente  de l’hiver précédent, où il avait été pourtant lui aussi mis en cause pour ses discours passés dans lesquels il faisait l’apologie de « ces néo-Vikings à l’esprit d’entreprise si profitable à la croissance de la Nation ». Le Président décide d’exercer son seul pouvoir, un droit de veto devant le Parlement, ce qui a pour effet de soumettre la loi Icesave à un référendum populaire, au grand dam du FMI. En mars 2010, 93,3% de non y répondent. Seule une infime minorité d’Islandais (2% de oui) n’apprécient alors pas de passer pour des brigands auprès du reste du monde.

Juste après, l’éruption de l’Eyjafjallajökull paralyse un temps le trafic aérien, à la grande joie des islandais. Cela ne sonne-t-il pas comme un pied-de-nez de mère Nature à  la fragilité de l’économie mondiale ? « No Cash… but Ashes » …un slogan-choc, présent encore en 2012, … sur les T-shirts-souvenirs du pays !

Le gouvernement revoit sa copie et propose de nouveaux accords, avec un taux d’intérêt de remboursement moindre (3% contre 5). Même scénario : le Président en appelle encore à la voix du peuple. En avril 2011, le « non » triomphe un peu moins, mais totalise tout de même 59,9% des voix. Ce que n’apprécie pas le FMI. Et ne change rien au final : les Islandais doivent  toujours, d’ici 2046, près de 4 milliards d’euros aux britanniques et aux néerlandais. Soit près de 12.200 euros par tête, hors intérêts. 

La nouvelle Constitution

Un souffle politique nouveau émerge cependant. Après le choc de la faillite, du volcan et du referendum, le gouvernement ressent le besoin de mobiliser les  Islandais autour d’un projet constructif : un vaste chantier est lancé, l’écriture d’une nouvelle Constitution : « Au départ, il ne s’agissait que de  réviser un peu plus sérieusement notre Constitution actuelle qui  remonte à 1944 (NDLR :  date  de l’ indépendance avec le Danemark), rappelle Thorsteinn Sigurdsson, l’ex-secrétaire général du Conseil constitutionnel, quinquagénaire barraqué, chauve et jovial. Puis, il s’est agi de la réécrire, car, bien évidemment,depuis 1944,  les choses ont changé. »   À l’automne 2010, un vaste  forum préparatoire au travail du conseil est organisé, réunissant quelques 1200 personnes choisies dans le registre national de la population. Bien que Reykjavik concentre près des deux tiers de la population islandaise, « les participants au forum venaient de toute l’Islande » insiste Thorsteinn. Comme aux temps du premier Parlement démocratique au monde, né en Islande en l’an 935.  Tout un week-end d’octobre, les 1200 délégués forment des ateliers de travail pour réfléchir aux thèmes qu’ils veulent vraiment inscrire dans la constitution. « Le droit des homosexuels depuis longtemps reconnu en Islande, allait par exemple de soi. Celui des transsexuels a été par contre jugé plus anecdotique : impossible de tout retenir, question de place  ! »  commente Thorsteinn.  

Puis, au mois de novembre, les citoyens sont invités à candidater au Conseil constitutionnel créé pour l’occasion. Plus de 500 se présentent, 25 sont élus.  Pas tout à fait des citoyens « ordinaires » à vrai dire. « Comme on s’en doute, les Islandais ont plutôt choisi les candidats qu’ils connaissaient, des gens principalement déjà engagés dans l’action associative ou locale », précise Thorsteinn. On ne s’étonnera pas non plus du taux d’abstention, énorme , de 63 %. « La Constitution ? Bien peu de personnes l’avaient lue et s’y intéressaient » explique Thorsteinn. « Les Constitutions sont plutôt ardues à lire, et ne concernent guère que ceux qui étudient les sciences politiques ! ». Mais la Haute Cour islandaise a aussitôt remis en question la validité des élections. «  Des histoires techniques de bureau de vote trop haut et de bulletins mal pliés, mais qui ont conduit le gouvernement à nommer les membres du Conseil constitutionnel car il était trop compliqué de refaire des élections », précise l’ex-secrétaire général. « Ces nominations, même si elles concernaient les citoyens précédemment élus, n’ont pas été très bien perçues par la  population… ».

Procédure inédite, la participation directe des citoyens est sollicitée au travers des réseaux sociaux. 6000 profils Facebook s’inscrivent.  « L’avantage de passer par Facebook, explique Thorsteinn, c’est qu’il n’y a aucun profil anonyme, les commentaires ne peuvent qu’être sérieux, sinon, l’internaute s’expose au risque de se voir signalé auprès des responsables du site.. »  Une sorte de « démocratie directe » qui a donné lieu à plus de 3000 commentaires. Cependant, même aidés de juristes, les représentants du peuple n’ont eu que quatre mois pour écrire le texte de la nouvelle Constitution. « Un travail de Titan en un temps trop court, admet Thorsteinn, faute d’argent… » Mais une grande première mondiale, assurément.

Une première partie de l’histoire s’est écrite le 20 octobre 2012, date à laquelle les Islandais se sont prononcés par referendum sur certains points de la nouvelle constitution, comme la séparation de l’Église et de l’État ou la protection des ressources naturelles du pays, afin que celles-ci ne soient plus vendues mais uniquement louées.  (NDLR :  à l’heure où ces lignes sont écrites, l’adoption de la nouvelle constitution islandaise est toujours en suspens). La seconde partie s’écrira au printemps 2013 , après les prochaines élections législatives. Le gouvernement actuel, initiateur de la nouvelle constitution, est en effet aujourd’hui particulièrement impopulaire…  

La chasse aux banquiers

Un dimanche de mars 2009, un animateur-vedette de la télévision islandaise fait venir Eva Joly dans son show TV. Eva appelle les Islandais à mener l’enquête et à trouver les coupables de la faillite. L’émission bat tous les records d’audience. Peu après, le gouvernement monte une commission d’enquête et appelle Eva Joly comme conseillère. La commission d’enquête a eu quelque mal à se choisir un procureur général, tant il y avait peu de candidats! Pour tout dire, c’est Olafur Hauksson, auparavant commissaire de police d’une petite ville de province, inexpérimenté en matière de justice économique mais tout à fait indépendant de l’élite accusée d’avoir précipité l’île vers la faillite, qui sera retenu pour ce poste à haute responsabilité. « Eva Joly, elle nous a beaucoup aidé, oui ! C’est une femme fantastique ! » rappelle encore émue  Sigrin Borg Sigurðardóttir, 54 ans, frêle grande femme blonde, qui, depuis la crise, vend à la sauvette les bijoux d’argent et de pierres de lave qu’elle taille à ses heures perdues, pour  compléter son salaire d’assistante maternelle… « Après la crise, j’avais honte d’être Islandaise, d’être de ce pays qui avait coulé tant de monde avec lui…Eva m’ a fait relever la tête ! ». Très populaire en Islande, Eva Joly remet en janvier 2010 un rapport de 2000 pages…  puis arrête sa mission en octobre, officiellement pour cause de campagne présidentielle. Sur le terrain, la commission d’enquête peine à arrêter les responsables, même épaulée d’une bonne centaine de collaborateurs : les néo-vikings ont leurs refuges en Angleterre ou au Luxembourg, par exemple, les procédures d’arrestation sont longues. Quant aux jugements…Parmi la douzaine d’interpellations jusqu’alors réalisées, seules quatre ont été suivies de condamnations : début novembre 2011, deux anciens dirigeants de la banque Kaupthing[3] sont condamnés à reverser les millions d’euros indûment gagnés à la Banque Centrale du pays. En juin 2012, deux autres anciens dirigeants de Byr, une compagnie financière de gestion de fonds[4] sont condamnés à 4ans et demi de prison pour fraude.… Les autres attendent toujours de connaître leur sort.

Les politiques eux-mêmes n’ont pas été épargnés par la vindicte publique, un tribunal ayant spécialement été  créé pour pouvoir les juger : le directeur de cabinet du ministre des Finances au moment de la crise (Baldur Gudlaugsson) a été condamné à deux ans de prison ferme pour délit d’initié ; l’ex-Premier ministre Geir Haarde est lui aussi passé au tribunal, en mars 2012, mais, bien que reconnu comme coupable dans la faillite de 2008, aucune charge particulière n’a pu être retenue contre lui. Il est sorti libre. Et trois ex-ministres de son gouvernement [5]n’ont toujours pas été jugés.

Que sont devenus les principaux acteurs de 2008?

Le Mouvement des citoyens  n’existe plus. Trois mois à peine après son entrée au Parlement, l’un de ses membres décide de siéger « sans étiquette ». Le parti est dissous, faisant place au Mouvement (tout court), dont les représentants n’occupent plus que 3 sièges. « Malgré l’idée de départ (NDLR : pas de leader…), les jeux de pouvoir sont inévitables et la pire chose qui soit»  explique, un brin désabusée la députée Birgitta Jonsdottir. Le Mouvement ne se représentera d’ailleurs pas aux prochaines élections, en 2013. Faute de programme politique.

Même s’il s’est largement investi pour qu’une loi soit adoptée, l’Islandic Modern Media Initiative (IMMI), destinée à garantir la protection des journalistes d’investigation, une protection inscrite dans la nouvelle Constitution.  Dans la continuité de cette loi, un think thank indépendant de la société civile, sur la liberté d’expression et les droits de l’information, est créé : l’International Modern Media Institute, dirigé  par Smàri Mc Carthy, l’un des coordonnateurs du projet Wikipedia en Islande. Des initiatives qui augurent la prochaine création du Parti Pirate islandais, par Smàri et Birgitta, candidat prévisible aux prochaines élections. 

Le Président de la République a pour sa part été épargné de toutes poursuites : fin tacticien, marquant systématiquement son opposition au gouvernement et à ses lois impopulaires (outre la loi Icesave s’ajoutent un projet de loi visant à limiter les quotas de pêche et surtout un projet d’adhésion à l’Union européenne..), le Président a regagné l’estime du peuple : fin juin 2012, il est réélu  à plus de 52% des voix, pour un 5e mandat. Un record absolu de longévité.

Le gouvernement  élu  en 2009  avec 54% des voix est aujourd’hui si impopulaire que les prochaines élections pourraient bien remettre au pouvoir les conservateurs.   « La cote de popularité de la coalition des verts- sociaux-démocrates rase aujourd’hui les 28% », quand celle de l’ancien gouvernement « était encore de 83% avant le début de la crise » résume l’animateur Egill Helgasson.

La sorcière Eva Hauksdöttir a pour sa part fermé boutique. Ruinée, elle est partie vivre en Norvège avec son fils. L’homme qu’elle fessait publiquement par l’entremise d’une poupée (David Oddsson, l’ancien directeur de la Banque centrale d’Islande) a été licencié début 2009. Mais s’en est mieux sorti qu’elle : aucune charge n’a jamais été retenue contre lui. Il est désormais rédacteur en chef du principal quotidien de Reykjavik, le Morgunbladid.

Une révolution manquée

Aujourd’hui, l’Islande se redresse brillamment. Du côté des instances économiques internationales, le satisfecit est unanime : une sortie de crise reconnue, ainsi que l’a annoncé l’OCDE(Organisation de coopération et de développement économiques), en janvier 2012, avec une croissance économique de 2,71% envisagée pour l’année. Une amélioration que beaucoup d’Islandais ne ressentent pas encore, la dévaluation de la couronne ayant quasiment fait doubler les prix, dans cette île tributaire des importations, alors que les salaires sont restés les mêmes. Néanmoins, les choses redeviennent peu à peu comme avant. « Dès que la situation s’améliore les gens retournent à la consommation à tout-va, » constate Birgitta Jonsdottir. En Islande, comme ailleurs, tout le monde continue de vouloir son 4×4 et sa maison…

Plus récemment encore, à la fin de l’été, le FMI, enhardi, a salué le gouvernement islandais pour « son attitude exemplaire vis à vis des banques … », entendez leur nationalisation, une mesure d’urgence prise par le gouvernement renversé par le peuple pour que soit versée l’aide du FMI ! 

C’est décevant, certes, mais force est de constater que la « révolution citoyenne » relève bien du fantasme : « Il n’y a pas eu les changements que l’on pouvait attendre de la mobilisation de 2009 » constate, amère,  Birgitta. Et Smàri Mc Carthy d’enchérir : « Une révolution, c’est un changement complet du système ! Or, ce changement n’a pas eu lieu. » Certes, les citoyens se sont réveillés, ils ont protesté pour ne pas avoir à payer les fautes de leur élite corrompue et pour poursuivre les responsables, ils ont écrit une nouvelle constitution, tenté de nouvelles expériences jusqu’alors inédites comme fonder un parti de citoyens et fait passer une loi pour la protection du journalisme d’investigation. « Mais les Islandais n’ont  pas réussi leur révolution, ils se sont contentés d’un changement de gouvernement. La scène politique est restée la même. Les poursuites ont été peu nombreuses, la responsabilité politique est nulle,   la plaie purulente continue de cracher les exemples de corruption, de clientélisme ou de mauvaise gestion » déplore Smàri. Selon lui, ce qu’il aurait fallu pour que les choses changent vraiment, c’est que les gens « comprennent que tout pouvoir politique est finalement prisonnier de sa capacité à contrôler les conditions de vie ». Autrement dit, poursuit-il, « il aurait fallu que les gens se concentrent sur les infrastructures – ces choses qui vous maintiennent en vie, en introduisant par exemple des monnaies complémentaires paramétrées pour garantir l’approvisionnement alimentaire et la gestion des infrastructures, seuls moyens de garder le moral par temps de crise ! » 

Dans la cour du 46 Laugarvegur, le papillon coiffé d’un om a les ailes peintes déployées, mais figées sur le mur.  La voix grave et légèrement éraillée de Birgitta résonne à mes oreilles «   les gens ont comme perdu le vent qui soufflait dans leurs ailes…   Il faudrait qu’ils ressentent à nouveau le vent sur leur peau pour y croire ! ». Je ne sais que penser de ce que m’a dit Jon : la « vraie » révolution ne peut certes être qu’intérieure, mais si elle a déjà eu lieu pourquoi ne laisse-t-elle pas plus de signes ?  

Le silence et l’immobilisme peuvent être dangereux. Comme l’écrit Jérôme Skalski, dans son enquête sur la révolution islandaise [6]: «  Dans les mains du peuple, un fracas fit se ravaler la morgue de l’oligarchie islandaise. Un silence calculé pourrait bien lui permettre de préparer son retour (…) . » Pour ma part, en Islande, je n’ai pas entendu une seule casserole. Ce n’est pas parce que toutes les casseroles sont pleines, ni parce qu’il n’y en a plus, ni même parce qu’il n’y aurait plus de raisons de faire du bruit dans la rue. Non, c’est juste parce qu’il n’y a plus personne pour les faire sonner !

Chronologie des événements

2008

  • octobre : allocution télévisée du premier ministre Geir Haarde. « Que Dieu sauve l’Islande » (6) le Royaume Uni inscrit l’Islande sur la liste des terroristes de la planète (8) ; la bourse islandaise ouvre en baisse de 76%(14) ;début de la mobilisation citoyenne (18 )
  • novembre :  des accords de remboursement sont passés entre l’Islande et le Royaume Uni (20)
  • décembre : 30 manifestants entrés dans le Parlement  sont arrêtés par la police. Neuf d’entre eux (le groupe « Rejkyavik 9 » ou RVK9) passent en procès pour dégradation de biens publics. Acquittés, ils sont toujours sous surveillance policière. (8) ; à l’occasion d’un débat télévisé où intervient le Premier ministre conservateur, des manifestants furieux prennent d’assaut l’hôtel Borg. Bilan : 200 arrestations. (31)

2009

  • janvier : après des semaines de manifestations, les députés des différents partis décident de dissoudre le gouvernement et d’organiser des élections anticipées dès le mois d’avril ( 26)
  • mars: intervention d’ Eva Joly à la télévision islandaise ; mise en place d’une commission d’enquête sur les causes de la crise.
  • avril: le  parti socio-démocrate est élu au pouvoir,  avec les Verts  (54% des voix) ; e Mouvement des citoyens recueille 7,2% des voix. (24)
  • août : le Mouvement des citoyens est dissous, faisant place au Mouvement.
  • décembre: première loi IceSave

2010

  • janvier: remise du rapport d’Eva Joly au gouvernement sur les causes de la crise
  • mars: premier referendum sur  la loi IceSave : Non (93%)
  • avril: entrée en éruption de l’Eyjafjallajökull
  • octobre: forum national sur la nouvelle constitution. démission d’Eva Joly, officiellement pour cause de campagne présidentielle
  • novembre: lancement des élections pour le Conseil Constitutionnel

2011

  • avril: deuxième referendum sur  la loi IceSave : Non (59 ,9%)
  • mai -juillet: écriture de la Constitution par les Citoyens
  • novembre: condamnation de deux anciens dirigeant de la banque Kaupthing

2012

  • mars: Non-lieu pour l’ex-premier ministre Geir Haarde , inculpé dans la crise
  • juin : Condamnation de deux anciens dirigeants dela compagnie financière de gestion de fonds Byr (Byr. Savings Bank); Réélection du Président de la République, en poste depuis 16 ans, pour un 5ème mandat
  • juillet : Impopularité maximale pour le gouvernement  en place (2 3)
  • août :  Félicitations du FMI à l’égard de l’Islande  (31)
  • octobre  : Référendum sur la nouvelle constitution

Le petit peuple se fout bien de la crise

L’Islande est le pays des elfes, des trolls, des fées, des gnomes et autres petits génies. Là bas, on taille le bois des ponts pour qu’il épouse la forme des rochers, de peur de déranger l’un des représentants du petit peuple caché. Et on intercède auprès d’eux lorsque l’on veut construire une route pour ne pas risquer de voir le chantier empêché par de mystérieux bris de machines de construction ou par des maladies non moins mystérieuses affectant les ouvriers qui y travaillent.

Erla Stefansdóttir est une spécialiste de ce peuple invisible, elle est en communication directe avec eux. Que pensent-ils de la crise islandaise ? Absolument rien ! « Ils s’en foutent ! » (en français dans le texte). Cela ne les affecte pas, ils sont autonomes et peuvent très bien vivre sans nous. 

Ce que confirme le vendeur du meilleur hot-dog de Reykjavik dans le quartier 101 (one-o-one), qui dit les compter pour clients : « iIs sont très riches, ils ont beaucoup d’or et matérialisent eux-mêmes leurs monnaies »

Mais quand on leur demande si ces merveilleus êtres auraient pu faire quelque chose pour les sauver de la faillite, ils sont unanimes : « Mais pourquoi nous aideraient-ils ? Pourquoi se sentiraient-ils responsables d’un problème qu’ils n’ont pas créés ? »


[1] Jon Saemundur, fondateur des Dead Skeletons et ami d’Anton Newcombe, des Brian Jonestown Massacre,  dont il a fait la pochette du dernier album (Aufheben), celle-là même qu’il reproduit sur son mur

[2] Birgitta, poète et vidéaste, est aussi très liée à l’affaire Assange et aux droits de l’information : elle a produit une video à partir de documents communiqués par Wikileaks, montrant des soldats américains tuer des civils irakiens. À la suite de cette affaire, début 2011, les comptes de tous ses réseaux sociaux ont été placés sous surveillance par le gouvernement américain…

[3] Sigurdur Einarsson et Ingvar Vilhjalmsson 

[4]  Jon Thorsteinn Jonsson et Ragnar Zophonias Gudjonsson

[5] Solrun Gisladottir (Affaires étrangères) Bjoergvin Sigurdsson (Commerce) et Arni Mathiesen ( Finances)

[6] Jérôme Skalski « La révolution des casseroles – chronique d’une nouvelle constitution pour l’Islande » Editions La Contre Allée Coll. Un singulier pluriel , 108 pages (04/10/2012)