2 L'ANALYSE


Le but de l'analyse est de fournir au modèle numérique à l'instant initial une représentation de l'état de l'atmosphère aussi proche que possible de la réalité: c'est l'analyse objective.

Pour l'effectuer, on dispose d'un certain nombre d'observations: mais celles-ci sont en nombre insuffisant pour décrire correctement l'état atmosphérique, notamment au-dessus des océans. Il faut donc également utiliser une ébauche ( "guess field" en anglais ) qui nous fournit une première approche de l'atmosphère; c'est généralement une prévision du modèle lui-même ( on peut également utiliser la climatologie ).

L'analyse devra modifier cette ébauche de façon à intégrer au mieux l'information disponible contenue dans ces observations.

L'analyse devra cependant être "initialisée", c'est-à-dire devenir "conforme" à la dynamique du modèle numérique, de façon à ce que celui-ci puisse l'utiliser directement.


2.1 Champs analysés


Seuls certains paramètres sont analysés dans un modèle.
ARPEGE analyse quant à lui les variables pronostiques du modèle, soit:

en altitude:
les deux composantes horizontales du vent
la température
l'humidité

au sol:
la pression de surface
la température à 2m
l'humidité à 2m

Horizontalement, les paramètres sont analysés sur la grille du modèle ( grille de Gauss réduite, cf paragraphe 4.1.1.3 ).

Verticalement, les paramètres sont analysés sur les niveaux du modèle ( niveaux , cf paragraphe 4.2.1 ).

Quelques remarques:

1) on analyse l'humidité relative, mais c'est l'humidité spécifique qui est la variable du modèle.

2) l'analyse de la pression de surface est obtenue en convertissant des incréments de géopotentiels en incréments de pression.

3) il n'y a pas d'analyse de géopotentiel en altitude. Celui-ci est déterminé à partir de la relation hydrostatique.

4) les "erreurs" ou "inexactitudes" que les prévisionnistes constatent régulièrement dans le tracé de l'analyse ARPEGE à 500hPa s'expliquent en partie pour deux raisons: d'une part, le géopotentiel n'est pas analysé par le modèle; d'autre part, l'analyse se fait sur les niveaux du modèle ( et non sur les niveaux standards, comme dans EMERAUDE ).


2.2 Les sources d'information


Ce sont toujours les mêmes messages qui sont utilisés: SYNOP, SHIP et DRIBU pour la surface, TEMP, PILOT, AIREP, SATOB et SATEM pour l'altitude. Le seul changement notable par rapport à EMERAUDE est l'utilisation dans ARPEGE de l'ensemble de l'information contenue dans les TEMP ( niveaux caractéristiques des radio-sondages ).


2.3 La technique d'intégration des observations


2.3.1 Plage horaire ou fenêtre temporelle

Pour l'heure H, l'analyse prend en compte les observations ayant eu lieu dans la fenêtre:

- [H-30mn,H+30mn] pour les SYNOP et les SHIP
- [H-3h,H+3h] pour les observations en altitude
- pour les DRIBU, le créneau est également [H-3h,H+3h], mais en ne retenant que
l'observation la plus voisine de l'heure H dans la mesure où l'on a reçu plusieurs données dans ce créneau.

2.3.2 Contrôle de qualité

Ce contrôle des observations est essentiel de façon à ne fournir à l'analyse du modèle que des informations dont la qualité a été vérifiée.

Il va s'effectuer en comparant les observations à l'information fournie par différentes sources:
- les champs d'ébauche
- la climatologie globale mensuelle de ces champs
- les relations physiques entre les variables ( hydrostatique... )
- les relations statistiques entre les variables
- une certaine connaissance a priori, via l'expérience, des quantités que l'on traite et de leurs erreurs.

Le contrôle de qualité sera bien évidemment tributaire de l'information disponible; les observations isolées seront ainsi très difficiles à traiter. Il dépendra également des hypothèses faites sur les causes des erreurs et sur leur structure ( spatiale ).

Ce contrôle résulte de la synthèse de nombreux tests effectués séquentiellement. Après chacun de ces tests, une note est attribuée à chaque paramètre. C'est la note générale fournie à l'issue du dernier test qui conditionnera l'utilisation ou non par l'analyse du paramètre observé. Il y a quatre niveaux de tests, décrits ci-dessous.

Pour chaque test ( à l'exception de ceux effectués avant l'analyse ) ainsi que pour la note générale, l'échelle de notation est la suivante:

0: pas testé
1: à ne pas utiliser ( mais à tester ) car présent sur ;une "liste noire"
2: mauvaise
3: douteuse
4: bonne

A noter qu'il n'est pas possible pour le moment dans ARPEGE d'effectuer:
- la prise en compte forcée d'une observation
- la création d'une observation fictive.
Ces possibilités pourront être envisagées par la suite.

2.3.2.1 Tests au niveau pré-analyse

Les observations qui arrivent de la base de données ont déjà subi un contrôle au niveau du prétraitement, test qui tient compte de seuils climatologiques et de la cohérence interne du message ( hydrostatique,... ).

2.3.2.2 Tests d'écart à l'ébauche

Il s'agit d'un test d'écart à la valeur correspondante de l'ébauche, de la forme:

avec   Ao: valeur du paramètre A observée au point i
Ag: valeur de A prévue par l'ébauche en i.

L'interpolation de l'ébauche au point d'observation i est obtenue de la façon suivante:
1) interpolation horizontale sur les niveaux du modèle des 16 points de grille les plus proches de i,
2) interpolation verticale à la pression du point i.
La différence Ao-Ag est appelée "résidu observé"
VARo: variance de l'erreur de mesure du paramètre A ( fonction des instruments et des
méthodes de mesure )
VARg: variance de l'erreur de prévision ( extraite du cycle d'assimilation précédent )

2.3.2.3 Tests d'homogénéité horizontale

Pour chaque paramètre à tester, on effectue une analyse utilisant l'ensemble des observations ayant été jugées "bonnes" au test de comparaison à l'ébauche ( présenté ci-dessus ), exception faite du paramètre à tester. On obtient alors une valeur estimée, qui est comparée à celle réellement observée selon un critère du même type que celui du paragraphe 2.3.2.2, mais faisant intervenir cette fois la variance d'erreur de l'analyse du paramètre analysé et la variance d'erreur d'observation du paramètre observé ( la valeur de lamda reste la même ).

Cependant, si tous les paramètres de l'observation à évaluer sont classés mauvais dans le test d'écart à l'ébauche, on utilise pour cette analyse toutes les observations ( bonnes, douteuses ou mauvaises ).

Ainsi, dans le cas où l'ébauche est de mauvaise qualité, une observation s'écartant trop de l'ébauche pourra quand même être retenue pour l'analyse si elle est confirmée par des observations voisines.

2.3.2.4 Conclusion de l'ensemble des contrôles de qualité

La note (1) est éliminatoire.

Pour les autres notes, c'est celle obtenue au dernier test qui l'emportera ( on conserve les observations y ayant été classées bonnes ).

En conséquence, il est évident que compte tenu de la méthode utilisée, une observation isolée et trop éloignée de l'ébauche aura peu de chances d'être prise en compte par l'analyse. Celle-ci n'a en effet aucun moyen d'estimer la qualité de ce type de données.

Ces contrôles éliminent en moyenne 3% des observations reçues.

2.3.3 L'interpolation optimale

On dispose d'observations dont on a vérifié la qualité. Il faut maintenant les intégrer à l'ébauche de façon à la modifier pour la rendre aussi proche que possible de l'état atmosphérique initial et ainsi fournir au modèle la meilleure analyse possible.

Soit A le paramètre à analyser; en chaque point de grille, on écrit:

remarque: la connaissance des aak dépend en théorie de toutes les valeurs observées sur la sphère. En pratique, on ne retiendra que les n observations effectuées dans un certain volume autour de chaque point de grille ( i ne décrit qu'un certain domaine sur la sphère ). Ce volume est défini ainsi:

- sur l'horizontale: distance au point de grille < 1000 km ( 1200 km pour TEMP et PILOT )

- sur la verticale: distance au point de grille < 100 hPa.

L'interpolation optimale est l'une des manières de déterminer les lambdai. Cette méthode les évalue de telle sorte que la quantité

soit minimale ( sigma étant l'écart type, ou encore la "racine carrée" de la variance ).

2.3.3.1 Introduction à l'interpolation optimale

Il ne s'agit pas ici de décrire en détails la théorie, mais d'en approcher la méthode. Pour avoir une idée du nombre de calculs demandés, il faut garder en mémoire le fait que les relations précédentes comme celles qui suivent reviennent à effectuer des opérations sur des matrices de dimension le nombre d'observations retenues pour connaître la valeur de A en k...

Si ark est la valeur réelle ( mais non connue ) du paramètre A au point k, (1) s'écrit:

soit, en parlant en termes d'erreurs ( c'est-à-dire simplement en termes d'écarts à la valeur réelle ):

On obtient alors un système linéaire dont les lambda i sont les inconnues. Sans aller plus avant dans la méthode, nous retiendrons que pour résoudre ce système, il faut:

- d'une part, connaître les covariances d'erreurs d'observation ( fonctions du type de paramètre, des instruments, des méthodes de mesure ) et les covariances d'erreur de l'ébauche au point d'observation ( calculée lors du cycle d'assimilation; elles dépendent de l'échéance et d'une estimation de la qualité de l'analyse de départ fournie par le calcul lui-même ),

- d'autre part, modéliser les corrélations spatiales. On utilise pour cela un modèle statistique. Celui-ci repose sur un modèle en géopotentiel dont sont ensuite déduites les corrélations pour les autres variables ( T,u,v,dZ ) et sur un modèle en humidité. Dans ces modèles, les corrélations sont modélisées par des gaussiennes.

- un certain nombre d'approximations sont également nécessaires lors de la résolution de ce système ( moyennes d'erreur nulles en particulier... ).

2.3.3.2 Le variationnel 3D

Il est prévu de remplacer l'analyse par interpolation optimale par une "analyse variationnelle en 3 dimensions" ( dite "variationnel 3D" ), dont le principe est de minimiser une fonctionnelle où interviennent cette fois les écarts ébauche-observations.

Elle permettra d'intégrer l'information disponible contenue dans les paramètres qui ne sont pas reliés linéairement aux variables du modèle ( par exemple les radiances satellitaires, les modules de vent sans direction ).

Cette méthode, développée en collaboration avec le Centre Européen de Reading, est déjà fonctionnelle en "non étiré" ( le passage opérationnel au CEP devrait s'effectuer au printemps 95 ). Il "reste" (!) à la transposer en "maille étirée" sur ARPEGE ; le travail de validation en maille étirée est en cours, sa mise en opérationnel est prévue fin 95.

A plus long terme, on prévoit la mise au point du "variationnel 4D" qui permettra alors une meilleure prise en compte temporelle des observations ( valeurs intégrées au moment où l'observation a été effectuée, prise en compte des observations en dehors des heures synoptiques ).

A noter que l'ensemble de la structure et du code informatique du modèle ont, dès le début, été élaborés de façon à pouvoir être utilisés dans le cadre d'une analyse variationnelle 3D ou 4D.


2.4 Le déroulement de l'analyse, les caractéristiques des champs analysés


Exception faite de l'humidité, toutes les analyses sont multivariées. C'est-à-dire que pour analyser un paramètre, on utilise les données observées de ce paramètre, mais également celles de paramètres reliés linéairement au premier.

On effectue successivement, par interpolation optimale:


- l'analyse de la pression de surface ps
utilisation du géopotentiel, de la température, du vent, du vent à 10m

- l'analyse du vent ( u,v ) et de la température ( T )
utilisation du vent, de la température, du géopotentiel et des épaisseurs des SATEM
analyses effectuées simultanément pour chaque niveau du modèle

- l'analyse d'humidité ( Hu )
utilisation de l'humidité, fournie par les TEMP( humidité par niveau ) et les SATEM ( humidité intégrée sur une épaisseur )

- l'analyse de la température à 2m ( T2m )
utilisation de la température à 2m

et l'analyse de l'humidité à 2m ( Hu2m )
utilisation de l'humidité à 2m


- l'analyse du vent à 10m ( V10m ) n'est pas activée pour le moment.

A chaque étape, le champ analysé remplace dans l'ébauche le champ initial.


2.5 Les champs de surface; les champs de couche limite


A partir des champs analysés de T2m et Hu2m, on initialise les champs dits de surface:

- température de surface Ts
- température du sol profond Tp
- réservoir d'eau de surface Ws
- réservoir d'eau du sol profond Wp
- réservoir de neige Sn

Il n'y a pas d'analyse de la hauteur de neige opérationnelle pour le moment.

On utilise la méthode dite des incréments. En voici le principe pour Ts ( elle est similaire pour les autres paramètres ):

1) on dispose de l'ébauche de Ts ( Tsg ) ainsi que de la correction à l'ébauche de
T2m ( T2mana-T2mg ).

2) on calcule la valeur analysée de Ts ( Tsana ), qui est du type:

Tsana = ( 1-a )( Tsg + b ( T2mana-T2mg ) ) + a Tsclim

La valeur ( Tsana-Tsg ) est appelée incrément.

3) on modifie l'ébauche de Ts à partir de la valeur des incréments.

La méthode est un tout petit peu plus compliquée pour les réservoirs du sol car il faut relier leur contenu à l'humidité de surface. Soulignons que pour l'analyse, ces réservoirs sont indépendants des précipitations ( ce qui n'est pas le cas ensuite dans le modèle ! ).

L'analyse de la température de surface de la mer ( "Sea Surface Temperature" en anglais ) est une analyse classique : on modifie le champ T2m du modèle en prenant en compte les observations provenant des bateaux et des bouées ( les données satellitaires ne sont pas intégrées pour le moment ). Toutefois un terme supplémentaire de relaxation faisant intervenir la climatologie est introduit. Il permet d'éviter d'éventuelles dérives du modèle dans les zones pauvres en observations.

On effectue aussi une analyse de la banquise à partir de la température de surface de la mer ( il y a banquise si SST < -1.9 ° ). Une analyse plus fine de la banquise à partir de données satellitaires sera probablement mise en place dans le futur.

PAGE PRECEDENTE PAGE SUIVANTE