Een weermodel rekent vanuit de begintoestand zoals deze nu is, door een enorm meetnet over de wereld. Hier is al een probleem, het meetnet van vandaag is vele malen meer verfijnd (meer gridpunten nu) dan pakweg 50 jaar geleden. Zowel horizontaal als verticaal. Hiermee kan dus al niet meer vergeleken worden, want bepaalde gridpunten die we nu wel hebben, hadden we vroeger niet. Die gridpunten krijgen dan een bepaalde toestand door middel van thermo- en vloetstofdynamica.
Met die data en toestand van de gridpunten wordt dan verder gerekend met de basiswetten, ook wel de "primitieve equations" genoemd. Die bepalen hoe de toestand in de toekomst van het gridpunt (of de miljoenen gridpunten) zal evolueren. Hier wordt dan weer een kaart van gemaakt.
De belangrijkste bottlenecks zijn eigenlijk de gridpunten en de processorkracht. Elke waarneming en/of gridpunt moet door een processor uitgerekend worden, maar dat kost tijd. Kies je dus voor een gridpunt zeg, maar, elke 100m dan zal één run (ik zeg maar iets), een week bezig zijn met rekenen. Kies om de resolutie te verlagen dan zijn het model minder lang bezig zijn met rekenen, maar minder accuraat. Ook de resolutie bepaald dus hoe een kaart zal veranderen. Stel dat je februari 1956 door een zeer fijn model, of zeer ruw model laat rekenen zal je nog steeds een totaal verschillende uitkomst bekomen. Hoewel de begintoestand hetzelfde is.
Maar er wordt dus nooit gerekend met een toestand uit het verleden, maar vooral met waarnemingen, gridpunten, de toestand en daarop "droge vergelijkingen" om de toekomst te bepalen.
Hoe een model werkt in een notendop.