Un site du réseau encyclopédique Savoir.fr
➔ ENVIRONNEMENT

Des futurs incertains : Le climat en modèles réduits

Vous êtes ici : » » Des futurs incertains : Le climat en modèles réduits ; écrit le: 21 mai 2012 par Samouha modifié le 14 novembre 2014

Des futurs incertains : Le climat en modèles réduitsEn 1970, le mathématicien anglais John H. Conway, né en 1937 à Liverpool, confie à son ami Martin Gardner, les règles simples d’un problème mathématique, mondiale­ment connu depuis sous le nom de « jeu de la vie ». Martin Gardner était alors chroniqueur de jeux mathématiques dans la revue Scientific American. La série d’articles qu’il consacra au jeu eut un retentissement mondial -, certains considèrent même qu’au cours des années 1970, l’activité informatique consacrée au jeu de la vie a été plus impor­tante que n’importe quelle autre. La compréhension de ce jeu aux règles simples devrait nous aider a entrevoir la complexité des travaux théoriques en climatologie. Rappe­lons simplement que le problème qui se pose aux climato­logues est de savoir, à partir du climat mondial connu au temps T0, ce qu’il sera au temps Tl, T2, etc.

Le jeu de la vie est une matrice de cellules, qui peuvent être vivantes ou mortes. Blanches ou noires, elles sont dis­posées sur un réseau quadrillé, comme celui d’un jeu de



Go. Chaque cellule est influencée par l’état de ses voisines immédiates. On dispose un certain nombre de cellules vivantes sur la matrice après avoir programmé les règles du jeu : si une cellule vide ( « morte » ) a trois voisines vivantes – ni plus ni moins – elle naît. Toute cellule vivante qui a deux ou trois cellules vivantes dans son voisinage reste en vie. Enfin, toute cellule qui a quatre cellules vivantes ou plus dans son entourage immédiat, meurt (de surpopula­tion) ; elle peut aussi mourir d’isolement, lorsqu’elle a une ou zéro voisine (par désertification). Le nom de « jeu de la vie » provient de l’analogie entre ces règles et certains critè­res d’évolution de populations de bactéries. Ce jeu a déve­loppé un champ nouveau de la recherche mathématique, celui des « automates cellulaires », auquel le développement de l’informatique a donné un essor extraordinaire au cours des dernières décennies.

Le climat en modèles réduits

Les climatologues s’inscrivent dans une problématique analogue : il s’agit de connaître la succession des états futurs d’un système hypercomplexe comme le couple atmosphère-océans, à l’instant Tl, T2, etc., connaissant son état initial au temps TO. Il convient pour cela de bâtir un modèle du système dont on souhaite comprendre le fonctionnement. Initialement, le mot « modèle » désigne l’objet que l’on tente d’imiter. Par glissement de sens, « modèle » désigne aussi le dispositif élaboré pour réaliser cette imitation : des billes de bois agencées pour représen­ter les planètes du système solaire et fixées sur des tiges métalliques qui se déplacent au moyen d’un mécanisme à engrenages pour simuler leurs mouvements constituent un modèle. La démarche modélisatrice repose sur le postulat d’une « isomorphie », d’une sorte de ressemblance terme à terme, entre des structures qui appartiennent à des domai­nes phénoménaux différents. Ainsi, deux ensembles sont liés par une relation d’isomorphie quand ils sont apparen­tés par une structure commune : le modèle réduit de sys­tème solaire qui vient d’être évoqué est en relation d’isomorphie avec le système solaire réel. Et le fait de le manipuler, de simuler les trajectoires des planètes sur leurs orbites aide à saisir le mouvement du système réel : ici, représenter c’est comprendre.

Toutefois, la compréhension de la complexité du réel est atteinte au prix d’une extraordinaire simplification de la réalité : les billes de bois, ne sont pas les planètes réelles, et il est impossible dans ce modèle fruste de reproduire des mouvements cycliques complexes comme ceux qui sont décrits dans la théorie de Milankovitch, par exemple. C’est tout simplement que les « planètes numériques », pour reprendre la jolie formule d’Hervé Le Treut et Jean-Marc Jancovici, « ne sont pas des copies exactes des planètes réelles ». Mais cette simplification est souvent mal vécue par le modélisateur. Il sait pourtant qu’il convient de négliger certains paramètres jugés d’importance secondaire pour ce qui concerne les performances attendues du modèle. Le sentiment dominant est alors que le réel est appauvri. C’est pourtant le prix à payer pour la compré­hension profonde de la réalité modélisée. Bref, le modélisa­teur n’est jamais content et on le comprend ! Ainsi que le disent Jean Jouzel et Anne Debroise : « (…) les modèles res­tent par nature simplificateurs (…) ils ne peuvent être déve­loppés qu’au prix d’approximations numériques (car les équations ne peuvent pas être résolues exactement), et physiques (notamment pour des questions d’échelle). »■

C’est dans le cadre de ces contraintes que les climatolo­gues tentent de modéliser la machine climatique de la pla­nète Terre. Avec de nombreuses complications dont l’une des plus importantes est que la modélisation à laquelle ils s’attellent n’est plus en 2 dimensions comme dans le jeu de la vie, mais en 3 D… Cela implique à l’évidence que les règles du jeu climatique sont beaucoup plus nombreuses et complexes que celles du jeu de la vie !

Songeons à ce que représente l’entreprise de modélisa­tion du climat mondial. Il faut « représenter » mathémati­quement les variations au fil du temps des états complexes de l’atmosphère. Il convient aussi de tenir compte de ce que nous savons des courants océaniques, superficiels et profonds, ainsi que des échanges entre l’atmosphère et les océans. Le modélisateur – mais il s’agit en vérité d’une équipe – doit en outre se pencher sur les continents, avec les couverts végétaux, les effets de la « continentalisation », les reliefs, les albedos si différents (sur ce point, comparons par exemple les albedos de l’Antarctique et du continent sud-américain). Le modélisateur doit naturellement modé­liser les interrelations de ces trois domaines de notre bio­sphère… le tout sans oublier d’intégrer au modèle les fac­teurs astronomiques de Milankovitch, la force de Coriolis et la gravité de la planète. Il s’agit enfin de prendre en compte les divers états de l’eau : vapeur d’eau, nuages (eau condensée ou cristaux), précipitations sous leurs formes variées, etc.

On comprend que, dans ces conditions, les modèles ne soient pas nombreux dans le monde, et que leurs concep­teurs manifestent un certain agacement à rencontre de

ceux qui croient en balayer les résultats d’un revers de main. Il existe aujourd’hui une quinzaine de modèles géné­raux du changement climatique, dont deux sont en France : l’un à l’institut Pierre-Simon-Laplace (ipsl), dirigé par Jean Jouzel (il s’agit d’une fédération de plusieurs laboratoires). Le second couple le modèle Arpège de Météo-France au modèle océanique du LODYC. Comme les modèles diffèrent à la fois par les facteurs prioritairement pris en compte et par les méthodes, ils ne donnent pas tous les mêmes résultats. La manière dont un modèle est cons­truit et ce que l’on y « entre », ne comptent pas pour rien dans ce qu’il permet de découvrir mais c’est une caractéris­tique normale de la production scientifique.

Pourtant, tous les modèles s’accordent à la fois sur la question du réchauffement actuel de la planète, d’intensité variable selon les divers scénarios programmés en matière d’émissions de gaz à effet de serre (ges), et sur les incerti­tudes liées au comportement chaotique du couple atmo- sphère-océans.

Comment parvient-on à de tels résultat ? Il s’agit, comme dans le jeu de la vie, de partir d’un quadrillage. Dans le cas du modèle atmosphérique du LMD, il s’agit souvent de carrés de 300 km de côté, s’étendant sur la sur­face du globe. Sur ces carrés on empile des blocs, qui ne dépassent pas 1 000 m de hauteur. Les couches les plus basses de l’atmosphère sont plus finement représentées que celles de la haute troposphère. Pour les océans, le maillage est plus serré (entre 125 et 250 km de côté sur 200 à 400 m de profondeur). On entre alors, pour un moment donné T, les conditions initiales dans chacun des parallélé­pipèdes et on lance le calcul d’évolution pour T + 30 min, et ainsi de suite. Ces conditions initiales peuvent être nom­breuses : les températures, les pressions, l’hygrométrie, les vents, les nébulosités pour ce qui concerne l’atmosphère ; les températures et les salinités pour les eaux de mer, entre autres.

Ensuite, on lance le modèle : sur la base des conditions initiales, l’ordinateur résout les équations pour le premier pas de temps, ce qui crée de nouvelles conditions initiales, et ainsi de suite. Il s’agit d’équations de la mécanique des fluides, résolues toutes les demi-heures et qui représentent le transport de l’humidité et de la chaleur par les vents, les échanges d’eau et de chaleur entre l’atmosphère, les sur­faces continentales et les océans.

Comme ce sont des milliers de parallélépipèdes et de facteurs qui définissent les conditions initiales, et que des milliers d’équations complexes sont à l’œuvre, la puissance de calcul requise est immense. On comprend bien que la fiabilité du modèle dépend de la résolution spatiale de celui-ci : plus les parallélépipèdes sont nombreux et plus fine est la prévision. De la même manière, la question des pas de temps est cruciale.

Prenons le cas de la France : pour des carrés de 250 km de côté, on obtient au maximum huit empilements de parallélépipèdes seulement. Et si on est limité en moyens de calcul, on devra peut-être définir des pas de temps d’un mois. On voit qu’il serait mieux de travailler avec une meil­leure résolution spatiale et avec des pas de temps les plus courts possibles. C’est d’ailleurs ce que font les prévision-

nistes de Météo-France : ils peuvent programmer des parallélépipèdes de 10 km de côté seulement – parfois beaucoup moins – et des pas de temps de 30 min ! Mais c’est parce qu’ils tentent de prévoir le temps qu’il va faire dans cinq jours, pas dans mille ans… L’une des caractéristi­ques du modèle Arpège de Météo-France est d’ailleurs qu’il peut mettre en œuvre simultanément des résolutions spatiales différentes, ce qui permet de réserver de la puis­sance de calcul pour les zones sur lesquelles on porte plus particulièrement de l’intérêt, par exemple la France, au détriment de la Nouvelle-Zélande.

Une grande partie des obstacles que rencontrent aujourd’hui les climatologues ne relève donc pas de la science des climats mais des technologies informatiques. Pourtant, au cours des dernières décennies, la puissance de calcul des superordinateurs a été multipliée par 100. Son­geons que I’ibm 704 commercialisé en 1955 avait une puis­sance de 5 000 opérations en virgule flottantepar seconde (5 Kflops). Trois ans plus tard, une machine développée à Manchester atteignait la puissance de 200 Kflops. En 1985, le Cray 2 dépassait la puissance de 1 Gflop (1 milliard d’opérations) par seconde ! Aujourd’hui, les puissances atteintes par les machines les plus performantes dépassent le Tflop – c’est-à-dire le millier de milliards d’opérations par seconde (un Teraflop = 1 012 Gflops), et les climatologues jugent que c’est encore insuffisant !

Comment sont-ils parvenus aux conclusions révélées dans le rapport du GIEC de 2003 ? Tout simplement, si l’on ose dire, en introduisant des équations qui représentent un facteur possible du changement climatique : des hausses variables du taux de gaz à effet de serre dans l’atmosphère, par exemple. Comme il existe plusieurs scénarios possibles de rejets, plus ou moins optimistes, les modèles permettent d’aboutir aux deux fourchettes désormais célèbres d’un accroissement de la température de 1,5 à 6 °C (ou 1,4 à 5,8 °C) pour la fin du xxie siècle.

Nous avons évoqué un certain nombre de facteurs d’imperfection des modèles. L’un d’entre eux est lié à cette propriété du monde que nous avons déjà rencontrée, et que l’on nomme « chaos déterministe »’. L’évolution du temps qu’il fait n’est pas totalement prévisible, même si elle est relativement fiable à cinq jours : « (…) le système clima­tique n’est pas complètement prévisible, et cette contrainte se répercute sur sa représentation numérique » ; mais au-delà, et notamment à l’échelle des changements climati­ques sur un ou deux siècles, nous devons reconnaître nos limites, et ne pas condamner légèrement, telle ou telle entreprise de modélisation.

Nous avons également vu qu’un modèle est une repré­sentation nécessairement simplifiée du réel dont on cherche à comprendre le fonctionnement. Les choix qui président à ces simplifications sont inévitablement liés à des prises de parti scientifiques. Qu’elles diffèrent et conduisent donc à des estimations différentes n’affaiblit aucunement les modèles mais, au contraire, en renforce la cohérence d’ensemble. Il reste que les modèles actuels sont améliorables. Actuellement, certains phénomènes très importants se déroulent à des échelles inférieures au mail­lage. C’est le cas des nébulosités dans l’atmosphère. Un maillage de 300 km x 300 km est trop large. Ce qui pose à nouveau la question des moyens de calcul. Des ordinateurs dix fois plus puissants que ceux dont les climatologues français disposent au CNRS sont utilisés par les chercheurs anglais et allemands, et les japonais travailleraient sur une machine ( « Earth simulator » ), cent fois plus puissante. Ce supercalculateur permettra peut-être un jour de tisser sur le globe tout entier des mailles numériques à l’échelle de la dizaine de kilomètres.

Selon les scientifiques eux-mêmes, une meilleure prise en compte des phénomènes actuellement difficiles à mesu­rer ou à intégrer améliorerait considérablement les mo­dèles : la circulation thermohaline profonde, le cycle du méthane – rejeté par les mammifères et les bactéries des rizières inondées, l’évaluation fine des sources et puits de carbone et 1’ « évapo-transpiration », c’est-à-dire l’évapora­tion des surfaces continentales et la transpiration des plan­tes, notamment. Ce dernier phénomène est très sensible aux variations saisonnières (il est plus important en été qu’en hiver) et à la position géographique (son intensité diffère dans les pays chauds ou froids). Dans nos régions, une forêt de 1 ha peut perdre par transpiration jusqu’à 30 t d’eau par jour. C’est considérable : l’évaporation compte pour 60 % dans la formation des nuages ; c’est donc un facteur qu’il est indispensable d’intégrer dans les modèles. Enfin, l’évapotranspiration varie sensiblement en fonction de la transparence de l’atmosphère : les aérosols et la cou­verture nuageuse font varier l’intensité du phénomène.

Plus généralement, la question de la vapeur d’eau dans l’atmosphère pose un problème majeur aux climatologues. Le taux d’humidité d’une masse d’air peut varier très vite, et les mouvements de l’atmosphère, qui gouvernent une partie importante des échanges de chaleur de la planète sont extraordinairement complexes, et difficiles à prévoir dans le détail. Il suffit pour s’en convaincre de prendre place dans un planeur : les ascendances thermiques, invisi­bles quoique souvent matérialisées par un cumulus, sont difficilement prévisibles et paraissent bien capricieuses au pilote, lequel est rarement en mesure d’en prévoir l’endroit, la taille, la direction et la vitesse de déplacement, ainsi que la puissance, d’ailleurs variables au cours de la journée. Or le vecteur de la vapeur d’eau, qui est le gaz à effet de serre de loin le plus important, est précisément cette atmosphère aux mouvements si complexes. Le travail des modélisateurs serait grandement facilité s’ils n’avaient affaire qu’à des alizés ou à des vents réguliers, de secteurs prévisibles, et à des mouvements convectifs réguliers ; mais c’est hélas ! loin d’être le cas.

Ne demandons donc pas trop aux modèles. Leur conception et leur mise en œuvre ont permis aux scientifi­ques de mieux comprendre les grands mécanismes de la machine climatique et de faire des progrès considérables en ce domaine. N’exigeons donc pas, en plus, d’absolues cer­titudes dans les prévisions. Car au final les modèles conver­gent malgré les imperfections qui viennent d’être évoquées et les différences spécifiques à chacun d’entre eux : « L’incertitude qui accompagne leurs prédictions reflète de moins en moins l’ignorance des scientifiques, et de plus en plus le fait que le monde réel demeure en partie imprévi­sible. La modélisation a permis de dessiner un faisceau de futurs possibles où le climat paraît inévitablement appelé à changer. »

Or si l’on admet sans réserves que le réchauffement cli­matique est intensifié par les activités humaines, la prévi­sion de l’avenir en cette matière dépend pour beaucoup de

révolution et du développement des sociétés humaines. On sait que la déforestation de l’Amazonie pourrait agir sur le climat par modification de l’albedo de la région et diminu­tion de l’évapotranspiration dans cette partie du continent sud-américain, ou que le choix massif de l’électronucléaire dans le monde aurait des conséquences heureuses sur l’effet de serre: un réacteur nucléaire évite chaque année le rejet de 10 millions de tonnes de C02 dans l’atmosphère et 50 000 t d’oxyde de soufre, S02.

← Article précédent: Article suivant:

Laisser une réponse

Votre mail ne sera pas publié

Top articles