ALS - Magazine 3 - Janvier 2012
ALS Mag / 9 Les multiples facteurs de complexité des systèmes naturels à l’infrarouge proche, c’est-à-dire d’environ 0,3 à 5 micromètres. La valeur de l’insolation au sommet de l’atmosphère (aux alentours de 1 370 W/m2) a été estimée dès le siècle dernier à partir des observatoires en altitude ; elle est désormais mesurée par satellite. Cette énergie solaire n’est pas absorbée dans sa totalité par la Terre : 30 % environ sont réfléchis vers l’espace, 50 % traversent l’atmosphère et chauffent le sol ou les océans, 20 % chauffent directement l’atmosphère. Pour rendre à l’espace l’énergie qu’elle reçoit du Soleil, la Terre émet elle aussi un rayonnement électromagné- tique, dans le domaine infrarouge, c’està- dire dans une gamme spectrale allant de 5 à 100 micromètres. L’émission provient de la surface de la planète, mais aussi de certains gaz minoritaires de l’atmosphère – dits gaz « à effet de serre » – et des nuages. L’étude du transfert radiatif dans l’atmosphère constitue un problème physique assez bien compris, même s’il subsiste des incertitudes – par exemple en présence de nuages à la géométrie complexe. Le calcul des équations de transfert radiatif se fait dans les modèles au moyen de systèmes d’hypothèses consistant à intégrer le flux d’énergie sur des bandes spectrales larges, et sur l’ensemble des directions de propagations vers le haut et vers le bas. Il est alors impossible de traiter exactement le rôle radiatif des gaz qui absorbent le rayonnement dans des domaines spectraux très précis, même si les calculs des modèles climatiques sont validés par référence à des calculs détaillés qui, eux, prennent en compte toutes les raies spectrales une par une. Les équations du transfert radiatif dans l’atmosphère jouent aussi un rôle central dans l’obser- vation satellitaire de la planète, et elles sont donc également vérifiées dans ce cadre. La phase de développement des modèles atmos- phériques ou océaniques que nous venons de décrire a été principalement le travail de physi- ciens ou de mécaniciens et elle s’est appuyée sur un corps d’équations qui sont formulées explici- tement. Bien sûr, même à ce stade, l’usage des modèles a été sujet à des limitations que nous venons d’évoquer (non linéarité, nécessité des paramétrisations). Mais depuis quelques années, la croissance considérable des moyens de calcul a modifié les conditions d’usage et de définition des modèles, ce qui a introduit plusieurs révolu- tions successives, dont chacune a ouvert des domaines d’incertitude scientifique nouveaux. La première de ces révolutions s’est produite il y a plus de 10 ans, sans être parfaitement achevée : les modèles atmosphériques et océaniques qui avaient été développés séparément ont été couplés (en association avec des modèles de la banquise), pour devenir des modèles unifiés de l’ensemble des enveloppes fluides de la planète. Dans le même temps, l’utilisation des modèles pour les études climatiques s’est clairement séparée du domaine de la prévision météorolo- gique. Dans ce dernier cas, les modèles sont intégrés à partir d’un état initial observé et on cherche à ce que l’écoulement simulé soit le plus réaliste possible, tout au long de la simulation. On sait que cet exercice n’est possible que pour une durée de quelques jours. Mais si l’on continue au-delà de cette échéance, l’intégration dans le temps du modèle climatique va l’amener à construire sa propre climatologie, c’est-à-dire sa propre statistique d’événements météorolo- giques et océaniques, que l’on caractérise par des moyennes, des variabilités à des échelles intra- saisonnières, saisonnières ou interannuelles, par la récurrence de situations extrêmes. Ce climat simulé reflète l’impact sur l’écoulement de facteurs tels que l’ensoleillement, les gaz à effet de serre ou la rotation de la Terre, mais il est indépendant des conditions atmosphériques de départ, qui sont oubliées après quelques jours de simulation ; il dépend partiellement des condi- tions océaniques initiales, ce qui pose un problème, car on les connaît mal. Avec la reconnaissance de l’importance des processus chimiques et biologiques qui contrôlent la teneur atmosphérique en CO2, en méthane ou en aérosols, la communauté scienti- fique a été confrontée à un autre niveau de complexité et à une forme d’interdisciplinarité plus large. Elle a du étendre le contenu des modèles, pour créer des « modèles du système Terre » qui incluent l’ensemble de ces processus. Cette évolution, encore inachevée, détermine un changement qualitatif dans la nature des modèles, qui deviennent nécessairement empiriques. Pour prendre un exemple, l’évolution de la photosynthèse en Amazonie dans un cas de réchauffement climatique est déterminée par la compétition entre des centaines d’espèces végétales différentes. La modélisation ne peut plus alors s’appuyer sur des équations fonda- mentales. Mais, quelles que soient les difficultés rencon- trées, le travail de vingt ans de développement des modèles a désormais permis d’amener leur climatologie très près de la climatologie observée. Les modèles reproduisent non seulement des modes d’interaction complexe tels que l’oscillation couplée océan-atmosphère qui domine la variabilité tropicale (El Niño), mais aussi des climats très différents (le dernier maximum glaciaire il y a 21 000 ans, ou le climat un peu plus chaud appelé optimum climatique qui s’étend jusqu’il y a 6000 ans).
Made with FlippingBook
RkJQdWJsaXNoZXIy MTIzMTM=