Tenho uma duvida, os ensembles infuênciam alguma coisa os modelos principais?
Para começar, vamos esclarecer alguma terminologia, pois isso dos "modelos principais" não é acertado.
Os modelos globais como o ECMWF, GFS, etc, são modelos deterministas (existe apenas um resultado/solução), poderosas aplicações informáticas que recorrendo a equações físicas simulam a evolução da atmosfera. Os modelos são inicializados com observações (dados de estações, sondagens, satélite, etc,etc) e simulam a evolução da atmosfera no futuro.
Os modelos tem grandes limitações. Não existe capacidade (nem nunca haverá) de processamento/resolução suficiente para simular a atmosfera e todos os seus processos. Não existe capacidade de recolhermos as condições iniciais reais de toda a atmosfera em todo o mundo. Muito longe disso. Mesmo os dados que recolhemos podem estar errados. A atmosfera é caótica , pequenos desvios (erros, ausência dados) podem ter enormes implicações (caos, efeito borboleta, etc). Entre outras coisas.
Dadas estas limitações, a única verdade universal sobre modelos é que eles NUNCA estão certos. Estão mais ou menos errados.
Os ensembles tentam menorizar estas limitações, realço menorizar, nunca solucionar, pois é impossível.
Outra importante forma de minimizar a incerteza é a abordagem multimodelo que todos fazemos, mas não é sobre isso que falamos agora.
Os modelos de ensemble (EPS, GEFS, etc) são nada mais do que o modelo a correr x vezes com perturbações nos dados iniciais. Como sabemos que os dados iniciais podem estar errados ou ausentes, corremos por exemplo o modelo 50 vezes (no EPS) ou 20 vezes (no GEFS) alterando condições iniciais. Que condições são alteradas é algo complexo e diferentes modelos usam abordagens/métodos diferentes.
Cada uma das saídas, membros do ensemble, diz-se que foi perturbada. Normalmente também existe uma saída não perturbada, chamada membro de controlo.
Uma coisa que eu por acaso nunca encontrei uma resposta, é porque é que o membro de controle num ensemble não é igual à saída operacional do modelo determinista, em teoria deveria ser pois suponho que partilhem as mesmas condições inicias. Mas suspeito que tenha a ver com a resolução pois no ensemble obviamente o modelo tem muito menos resolução (escassez de recursos para processar tanto membro) logo dá resultados diferentes. Quando falamos de resolução, não tem apenas a ver com as grelhas, mas também com outros factores na física do modelo, etc.
O conjunto de membros dá-nos assim um conjunto de diferentes soluções, com o qual podemos fazer previsão probabilística (não determinista), analisar médias, desvios, etc. É sempre melhor ter a opinião de cinco médicos, cinco economistas ou cinco meteorologistas do que ter apenas de um. O princípio é o mesmo.
Finalizando e respondendo à tua pergunta, não, o ensemble não influencia o modelo determinista, o que acontece normalmente é o modelo "seguir" alguma solução anteriormente apontada por um membro do ensemble, pois é mais provável algum dos membros do ensemble (entre tantos) esteja mais certo que o modelo determinista, embora isso não signifique que exista um membro certo.
Uma coisa que me esqueci de dizer há bocado:
Penso que no 2º painel, a computação do modelo já seja feita com menor resolução tanto espacial como temporal.
Isto só para nos "abrir a mente" ao porquê de ao chegar a ele, se verem delírios destes tão frequentes em cima de nós.
Não é só o "efeito borboleta" dos pequenos erros se propagarem, como também este menor detalhe explicar o porquê de a partir dessa altura o modelo como que deixar de "filtrar" as entradas frias de Este para nós, pois é possível que passe a "ver" a nossa região menos separada do resto do continente europeu..
The Secrets of Weather Forecast Models, Exposed
Feb 3, 2009; 11:16 AM ET
A meteorologist's biggest job is deciding which Weather Forecast Model has the right idea for an upcoming storm. Some of the most frequently asked questions from blog readers and Forum users are as follows:
"Why are the models so inaccurate?"
"Who is providing oversight for improvements to the models?"
"Is the GFS model really worse than the ECMWF?"
Continua:
http://www.accuweather.com/en/weather-blogs/weathermatrix/why-are-the-models-so-inaccurate/18097
Bem, um diz que não vem nada, outro diz que vem tudo, o que dirão os mais leigos que visitem o fórum?
Ora aí está!
Por isso em 21-03-2012 lancei aquela questão aqui no forum. Em Direito, quando surge uma norma é, geralmente, objecto de debate e também das mais diversas interpretações pois ela pode ser analisada à luz de variados ângulos e pontos de vista. Inclusivamente, quando os tribunais proferem decisões contraditórias sobre a mesma norma (diga-se Regulamento, Decreto-lei, Lei, etc. etc) lá vem o STJ emitir a chamada Jurisprudencia para uniformizar as decisões sobre a materia controvertida.
No caso da meteorologia trata-se de dados que, segundo me parece (mas não sou meteorologista nem geografa etc ) podem ser até matematicamente quantificaveis. Porque é que, por exemplo o GFS, o ECMWF, etc apresentam conclusões tão diversas, até conraditórias?
Costumo vir aqui ao forum passivamente mas desta vez acho que posso dar uma resposta, por isso aqui vai.
Para perceber como os modelos fazem as previsões podemos fazer a analogia com uma mesa de snooker. No início do jogo há um conjunto de bolas dispostas em triângulo e o jogador dispersa-as atirando contra elas uma outra bola. Por mais que tente, um jogador não consegue fazer duas jogadas iguais, em que as bolas se dispersem da mesma forma.
Os chamados modelos do tempo são computadores gigantescos que procuram fazer jogos de snooker onde as bolas são as partículas de ar da atmosfera, cujo comportamento os computadores procuram seguir e prever na sua memória interna. Bastam pequeníssimas variações para que os resultados obtidos comecem a divergir uns dos outros, tal como diferentes aberturas de jogo do jogador de snooker que saem sempre diferentes.
Espero que a analogia permita alguma compreensão da dificuldade de modelar o tempo. Para além do que foi dito atrás, sobra ainda a dificuldade de o número de moléculas de ar ser incomparavelmente superior ao que qualquer computador consegue colocar na sua memória, por isso os modelos trabalham com "partículas" de ar de tamanho muito superior às moléculas, o que introduz outro factor de incerteza.
.... Maria Papoila ....quem só pode ser dada uma explicação em termos simples ...
Effective on or about Tuesday, May 22, 2012, beginning with the 1200 Coordinated Universal Time (UTC) run, the National Centers for Environmental Prediction (NCEP) will upgrade the GFS model and its associated data assimilation system (GDAS). The primary changes will be to the analysis system. There will be no major changes to the GFS model itself, but there will be a few modifications to the output products available from the GFS.
The major component of the analysis change will be the incorporating a hybrid variational/ensemble assimilation system. In this system, the background error used to project the information in the observations into the analysis is created by a combination of a static background error (as in the prior system) and a new background error produced from a lower resolution (T254) Ensemble Kalman Filter. The development of this system was done in collaboration with PSD at ESRL. Including this change and the other smaller changes listed below produce significant positive impact on forecasts in both the northern and southern hemispheres and in the tropics. In almost all measures, a positive impact is noted; however, during the summer (convective precipitation) season, a small consistent degradation of the rain/no rain line and an increase in the bias was noted. This problem will be addressed through modifications to the convective parameterization in the next global implementation.
Additional changes in this upgrade include:
Analysis Changes:
- Use GPS RO bending angle rather than refractivity
- Include compressibility factors for atmosphere
- Retune SBUV ob errors, fix bug at top
- Update radiance usage flags
- Prepare for monitoring NPP and Metop-B satellite data
- Add NPP ATMS satellite data
- Add GOES-13/15 radiance data
- Add SEVERI CSBT radiance product
- Include satellite monitoring statistics code in operations
- Add new satellite wind data and quality control
- Update to current version of analysis trunk for optimization
and preparation for future updates
GFS Model Changes:
The global spectral model has been restructured, but there are no major physics or dynamics changes except for some bug fixes. The impact of these changes on the forecast is at the machine round off level.
GFS Output Product Changes:
- CAPE, CIN, & Lifted Index fields will now be calculated from
virtual temperature.
- Users will see minor changes in simulated GOES products due to
the use of the newer CRTM 2.0.2 library and coefficient files.
- The following fields will be added to the 0.5, 1 and 2.5 degree
pressure GRIB files
-- Haines index
-- Transport U and V
-- Ventilation Rate
-- Best 300mb Cape and CIN and their source levels
-- Temperature, specific humidity, U and V winds at 80 and 100m
- 1km helicity will be removed from the 0.5, 1 and 2.5 degree pressure GRIB files. This field was added to these files by mistake during a previous implementation.
JMA Upgrades its Supercomputer System
On 24 May 2012, the Japan Meteorological Agency (JMA) announced that JMA will start operating the latest generation of the HITACHI supercomputer system from 5 June 2012, aiming to improve its meteorological information for disaster risk reduction and aviation service. The new system, HITACHI SR16000/M1, is about 30 times faster than its predecessor, HITACHI SR11000, and is with the ability to make more than 800 trillion floating-point calculations per second.