Des futurs incertains : Le climat en modèles réduits
En 1970, le mathématicien anglais John H. Conway, né en 1937 à Liverpool, confie à son ami Martin Gardner, les règles simples d’un problème mathématique, mondialement connu depuis sous le nom de « jeu de la vie ». Martin Gardner était alors chroniqueur de jeux mathématiques dans la revue Scientific American. La série d’articles qu’il consacra au jeu eut un retentissement mondial -, certains considèrent même qu’au cours des années 1970, l’activité informatique consacrée au jeu de la vie a été plus importante que n’importe quelle autre. La compréhension de ce jeu aux règles simples devrait nous aider a entrevoir la complexité des travaux théoriques en climatologie. Rappelons simplement que le problème qui se pose aux climatologues est de savoir, à partir du climat mondial connu au temps T0, ce qu’il sera au temps Tl, T2, etc.
Le jeu de la vie est une matrice de cellules, qui peuvent être vivantes ou mortes. Blanches ou noires, elles sont disposées sur un réseau quadrillé, comme celui d’un jeu de
Go. Chaque cellule est influencée par l’état de ses voisines immédiates. On dispose un certain nombre de cellules vivantes sur la matrice après avoir programmé les règles du jeu : si une cellule vide ( « morte » ) a trois voisines vivantes – ni plus ni moins – elle naît. Toute cellule vivante qui a deux ou trois cellules vivantes dans son voisinage reste en vie. Enfin, toute cellule qui a quatre cellules vivantes ou plus dans son entourage immédiat, meurt (de surpopulation) ; elle peut aussi mourir d’isolement, lorsqu’elle a une ou zéro voisine (par désertification). Le nom de « jeu de la vie » provient de l’analogie entre ces règles et certains critères d’évolution de populations de bactéries. Ce jeu a développé un champ nouveau de la recherche mathématique, celui des « automates cellulaires », auquel le développement de l’informatique a donné un essor extraordinaire au cours des dernières décennies.
Les climatologues s’inscrivent dans une problématique analogue : il s’agit de connaître la succession des états futurs d’un système hypercomplexe comme le couple atmosphère-océans, à l’instant Tl, T2, etc., connaissant son état initial au temps TO. Il convient pour cela de bâtir un modèle du système dont on souhaite comprendre le fonctionnement. Initialement, le mot « modèle » désigne l’objet que l’on tente d’imiter. Par glissement de sens, « modèle » désigne aussi le dispositif élaboré pour réaliser cette imitation : des billes de bois agencées pour représenter les planètes du système solaire et fixées sur des tiges métalliques qui se déplacent au moyen d’un mécanisme à engrenages pour simuler leurs mouvements constituent un modèle. La démarche modélisatrice repose sur le postulat d’une « isomorphie », d’une sorte de ressemblance terme à terme, entre des structures qui appartiennent à des domaines phénoménaux différents. Ainsi, deux ensembles sont liés par une relation d’isomorphie quand ils sont apparentés par une structure commune : le modèle réduit de système solaire qui vient d’être évoqué est en relation d’isomorphie avec le système solaire réel. Et le fait de le manipuler, de simuler les trajectoires des planètes sur leurs orbites aide à saisir le mouvement du système réel : ici, représenter c’est comprendre.
C’est dans le cadre de ces contraintes que les climatologues tentent de modéliser la machine climatique de la planète Terre. Avec de nombreuses complications dont l’une des plus importantes est que la modélisation à laquelle ils s’attellent n’est plus en 2 dimensions comme dans le jeu de la vie, mais en 3 D… Cela implique à l’évidence que les règles du jeu climatique sont beaucoup plus nombreuses et complexes que celles du jeu de la vie !
Songeons à ce que représente l’entreprise de modélisation du climat mondial. Il faut « représenter » mathématiquement les variations au fil du temps des états complexes de l’atmosphère. Il convient aussi de tenir compte de ce que nous savons des courants océaniques, superficiels et profonds, ainsi que des échanges entre l’atmosphère et les océans. Le modélisateur – mais il s’agit en vérité d’une équipe – doit en outre se pencher sur les continents, avec les couverts végétaux, les effets de la « continentalisation », les reliefs, les albedos si différents (sur ce point, comparons par exemple les albedos de l’Antarctique et du continent sud-américain). Le modélisateur doit naturellement modéliser les interrelations de ces trois domaines de notre biosphère… le tout sans oublier d’intégrer au modèle les facteurs astronomiques de Milankovitch, la force de Coriolis et la gravité de la planète. Il s’agit enfin de prendre en compte les divers états de l’eau : vapeur d’eau, nuages (eau condensée ou cristaux), précipitations sous leurs formes variées, etc.
On comprend que, dans ces conditions, les modèles ne soient pas nombreux dans le monde, et que leurs concepteurs manifestent un certain agacement à rencontre de
ceux qui croient en balayer les résultats d’un revers de main. Il existe aujourd’hui une quinzaine de modèles généraux du changement climatique, dont deux sont en France : l’un à l’institut Pierre-Simon-Laplace (ipsl), dirigé par Jean Jouzel (il s’agit d’une fédération de plusieurs laboratoires). Le second couple le modèle Arpège de Météo-France au modèle océanique du LODYC. Comme les modèles diffèrent à la fois par les facteurs prioritairement pris en compte et par les méthodes, ils ne donnent pas tous les mêmes résultats. La manière dont un modèle est construit et ce que l’on y « entre », ne comptent pas pour rien dans ce qu’il permet de découvrir mais c’est une caractéristique normale de la production scientifique.
Pourtant, tous les modèles s’accordent à la fois sur la question du réchauffement actuel de la planète, d’intensité variable selon les divers scénarios programmés en matière d’émissions de gaz à effet de serre (ges), et sur les incertitudes liées au comportement chaotique du couple atmo- sphère-océans.
Comment parvient-on à de tels résultat ? Il s’agit, comme dans le jeu de la vie, de partir d’un quadrillage. Dans le cas du modèle atmosphérique du LMD, il s’agit souvent de carrés de 300 km de côté, s’étendant sur la surface du globe. Sur ces carrés on empile des blocs, qui ne dépassent pas 1 000 m de hauteur. Les couches les plus basses de l’atmosphère sont plus finement représentées que celles de la haute troposphère. Pour les océans, le maillage est plus serré (entre 125 et 250 km de côté sur 200 à 400 m de profondeur). On entre alors, pour un moment donné T, les conditions initiales dans chacun des parallélépipèdes et on lance le calcul d’évolution pour T + 30 min, et ainsi de suite. Ces conditions initiales peuvent être nombreuses : les températures, les pressions, l’hygrométrie, les vents, les nébulosités pour ce qui concerne l’atmosphère ; les températures et les salinités pour les eaux de mer, entre autres.
Ensuite, on lance le modèle : sur la base des conditions initiales, l’ordinateur résout les équations pour le premier pas de temps, ce qui crée de nouvelles conditions initiales, et ainsi de suite. Il s’agit d’équations de la mécanique des fluides, résolues toutes les demi-heures et qui représentent le transport de l’humidité et de la chaleur par les vents, les échanges d’eau et de chaleur entre l’atmosphère, les surfaces continentales et les océans.
Comme ce sont des milliers de parallélépipèdes et de facteurs qui définissent les conditions initiales, et que des milliers d’équations complexes sont à l’œuvre, la puissance de calcul requise est immense. On comprend bien que la fiabilité du modèle dépend de la résolution spatiale de celui-ci : plus les parallélépipèdes sont nombreux et plus fine est la prévision. De la même manière, la question des pas de temps est cruciale.
Prenons le cas de la France : pour des carrés de 250 km de côté, on obtient au maximum huit empilements de parallélépipèdes seulement. Et si on est limité en moyens de calcul, on devra peut-être définir des pas de temps d’un mois. On voit qu’il serait mieux de travailler avec une meilleure résolution spatiale et avec des pas de temps les plus courts possibles. C’est d’ailleurs ce que font les prévision-
Une grande partie des obstacles que rencontrent aujourd’hui les climatologues ne relève donc pas de la science des climats mais des technologies informatiques. Pourtant, au cours des dernières décennies, la puissance de calcul des superordinateurs a été multipliée par 100. Songeons que I’ibm 704 commercialisé en 1955 avait une puissance de 5 000 opérations en virgule flottantepar seconde (5 Kflops). Trois ans plus tard, une machine développée à Manchester atteignait la puissance de 200 Kflops. En 1985, le Cray 2 dépassait la puissance de 1 Gflop (1 milliard d’opérations) par seconde ! Aujourd’hui, les puissances atteintes par les machines les plus performantes dépassent le Tflop – c’est-à-dire le millier de milliards d’opérations par seconde (un Teraflop = 1 012 Gflops), et les climatologues jugent que c’est encore insuffisant !
Comment sont-ils parvenus aux conclusions révélées dans le rapport du GIEC de 2003 ? Tout simplement, si l’on ose dire, en introduisant des équations qui représentent un facteur possible du changement climatique : des hausses variables du taux de gaz à effet de serre dans l’atmosphère, par exemple. Comme il existe plusieurs scénarios possibles de rejets, plus ou moins optimistes, les modèles permettent d’aboutir aux deux fourchettes désormais célèbres d’un accroissement de la température de 1,5 à 6 °C (ou 1,4 à 5,8 °C) pour la fin du xxie siècle.
Nous avons évoqué un certain nombre de facteurs d’imperfection des modèles. L’un d’entre eux est lié à cette propriété du monde que nous avons déjà rencontrée, et que l’on nomme « chaos déterministe »’. L’évolution du temps qu’il fait n’est pas totalement prévisible, même si elle est relativement fiable à cinq jours : « (…) le système climatique n’est pas complètement prévisible, et cette contrainte se répercute sur sa représentation numérique » ; mais au-delà, et notamment à l’échelle des changements climatiques sur un ou deux siècles, nous devons reconnaître nos limites, et ne pas condamner légèrement, telle ou telle entreprise de modélisation.
Nous avons également vu qu’un modèle est une représentation nécessairement simplifiée du réel dont on cherche à comprendre le fonctionnement. Les choix qui président à ces simplifications sont inévitablement liés à des prises de parti scientifiques. Qu’elles diffèrent et conduisent donc à des estimations différentes n’affaiblit aucunement les modèles mais, au contraire, en renforce la cohérence d’ensemble. Il reste que les modèles actuels sont améliorables. Actuellement, certains phénomènes très importants se déroulent à des échelles inférieures au maillage. C’est le cas des nébulosités dans l’atmosphère. Un maillage de 300 km x 300 km est trop large. Ce qui pose à nouveau la question des moyens de calcul. Des ordinateurs dix fois plus puissants que ceux dont les climatologues français disposent au CNRS sont utilisés par les chercheurs anglais et allemands, et les japonais travailleraient sur une machine ( « Earth simulator » ), cent fois plus puissante. Ce supercalculateur permettra peut-être un jour de tisser sur le globe tout entier des mailles numériques à l’échelle de la dizaine de kilomètres.
Selon les scientifiques eux-mêmes, une meilleure prise en compte des phénomènes actuellement difficiles à mesurer ou à intégrer améliorerait considérablement les modèles : la circulation thermohaline profonde, le cycle du méthane – rejeté par les mammifères et les bactéries des rizières inondées, l’évaluation fine des sources et puits de carbone et 1’ « évapo-transpiration », c’est-à-dire l’évaporation des surfaces continentales et la transpiration des plantes, notamment. Ce dernier phénomène est très sensible aux variations saisonnières (il est plus important en été qu’en hiver) et à la position géographique (son intensité diffère dans les pays chauds ou froids). Dans nos régions, une forêt de 1 ha peut perdre par transpiration jusqu’à 30 t d’eau par jour. C’est considérable : l’évaporation compte pour 60 % dans la formation des nuages ; c’est donc un facteur qu’il est indispensable d’intégrer dans les modèles. Enfin, l’évapotranspiration varie sensiblement en fonction de la transparence de l’atmosphère : les aérosols et la couverture nuageuse font varier l’intensité du phénomène.
Plus généralement, la question de la vapeur d’eau dans l’atmosphère pose un problème majeur aux climatologues. Le taux d’humidité d’une masse d’air peut varier très vite, et les mouvements de l’atmosphère, qui gouvernent une partie importante des échanges de chaleur de la planète sont extraordinairement complexes, et difficiles à prévoir dans le détail. Il suffit pour s’en convaincre de prendre place dans un planeur : les ascendances thermiques, invisibles quoique souvent matérialisées par un cumulus, sont difficilement prévisibles et paraissent bien capricieuses au pilote, lequel est rarement en mesure d’en prévoir l’endroit, la taille, la direction et la vitesse de déplacement, ainsi que la puissance, d’ailleurs variables au cours de la journée. Or le vecteur de la vapeur d’eau, qui est le gaz à effet de serre de loin le plus important, est précisément cette atmosphère aux mouvements si complexes. Le travail des modélisateurs serait grandement facilité s’ils n’avaient affaire qu’à des alizés ou à des vents réguliers, de secteurs prévisibles, et à des mouvements convectifs réguliers ; mais c’est hélas ! loin d’être le cas.
Ne demandons donc pas trop aux modèles. Leur conception et leur mise en œuvre ont permis aux scientifiques de mieux comprendre les grands mécanismes de la machine climatique et de faire des progrès considérables en ce domaine. N’exigeons donc pas, en plus, d’absolues certitudes dans les prévisions. Car au final les modèles convergent malgré les imperfections qui viennent d’être évoquées et les différences spécifiques à chacun d’entre eux : « L’incertitude qui accompagne leurs prédictions reflète de moins en moins l’ignorance des scientifiques, et de plus en plus le fait que le monde réel demeure en partie imprévisible. La modélisation a permis de dessiner un faisceau de futurs possibles où le climat paraît inévitablement appelé à changer. »
Or si l’on admet sans réserves que le réchauffement climatique est intensifié par les activités humaines, la prévision de l’avenir en cette matière dépend pour beaucoup de
révolution et du développement des sociétés humaines. On sait que la déforestation de l’Amazonie pourrait agir sur le climat par modification de l’albedo de la région et diminution de l’évapotranspiration dans cette partie du continent sud-américain, ou que le choix massif de l’électronucléaire dans le monde aurait des conséquences heureuses sur l’effet de serre: un réacteur nucléaire évite chaque année le rejet de 10 millions de tonnes de C02 dans l’atmosphère et 50 000 t d’oxyde de soufre, S02.