Dit gaat deels weer aan de essentie voorbij.
Dat vind ik niet. De essentie is voor jou dat er bewezen moet worden dat het klimaat opwarmt. Voor mij is de essentie dat wetenschap bedreven wordt zoals het hoort. Als we voor dit ene issue gaan beginnen afwijken, waar houdt het dan op?
1. De vraag is niet zo zeer (misschien ook) of we door correctie (een fout woord trouwens dat iets anders suggereert dan er is) dichter bij de veronderstelde werkelijkheid komen. Ieder meting is een datapunt. Moet met scepsis bekeken worden en geanalyseerd. Dat is nu eenmaal wat in de natuurwetenschap gebeurt. (Dag Wim). Natuurlijk, we kunnen de meting niet overdoen, dus wat men bij homogenisering doet is nogmaals interpreteren in een bepaalde betekenis (terwille van de vergelijking)
Wat is er fout aan het woord correctie? De destijds gemeten waardes worden nu toch gecorrigeerd (of dat wordt toch geprobeerd)?
En zoals je zegt: een meting is een datapunt. Een datapunt is een datapunt. Daar wordt dus niet aan gemorreld. Natuurlijk moet dat met scepsis worden bekeken, maar dat betekent niet dat het datapunt moet veranderd worden. Is het datapunt opeens 'ontmaskerd" als onbetrouwbaar, dan hoort dat datapunt gewoon genegeerd te worden en dient de meting opnieuw gedaan te worden. Ik ken geen enkele wetenschap waarin ze brondata achteraf tot in het kleinste detail gaan hermodelleren omdat achteraf bleek dat hun meetmethode niet valide of niet betrouwbaar was. De data worden dan gewoon in een donker hoekje weggezet en de metingen gebeuren opnieuw. Natuurlijk gaat zoiets niet in de meteorologie, en omdat er anders eeuwen aan gegevens waardeloos zouden blijken, ben ik zeker voorstander om niet alles zomaar over boord te kieperen en kan ik me vinden in een 'homogenisering', maar wel slechts indien er enkele zaken strikt vermeld worden bij de gecorrigeerde data (zoals betrouwbaarheidsintervallen in de originele gegevens).
3. "Dat de manier van meten fout was" Wie heeft het daarover? Dat bestaat niet en dat is nu weer jouw interpretatie. Het gaat erom een oude reeks met een nieuwe reeks te kunnen vergelijken. Aangezien bekend is dat verschillende methoden verschillende meetfouten geven (dus niet een goede en een foute) zitten we met een probleem: vergelijken levert onacceptabele onjuistheden, of zo je wil onnauwkeurigheden, op. Dat is het probleem van de homogenisatie. Niet of we een reeks als goed of fout bestempelen. Ooit is Beek gehomogeniseerd met de oude reeks van Maastricht. Wat er een reeks fout?
De vroegere manier van meten was op z'n minst fouter dan nu, anders zouden we de huidige gegevens moeten homogeniseren naar toen, aangezien we - zoals je zelf aangeeft - in de wetenschap toch pogen om zo dicht mogelijk de werkelijkheid te benaderen. In principe is elke meting fout, aangezien we nooit zeker kunnen zijn of we de werkelijkheid wel volledig hebben gevat, maar ik vermoed dat zo'n filosofische beschouwingen hier weinig te zoeken hebben.
Wat doen we wel met homogeniseren: we maken de oude reeks beter vergelijkbaar met de nieuwe. Wat is daar mis mee? Dat er onzekerheden in blijven zitten zal niemand bestrijden. Maar dan zouden we moeten praten over de grootte van deze onzekerheden of foutenmarges. En dat is te technisch, zowel voor jou als voor mij.
Wat er alleszins niet te technisch is, is dat die foutenmarges niet aanwezig zijn bij de gehomogeniseerde reeks gegevens. Dat is nu juist het punt dat mij stoort. Men laat een elementair deel van de modellering (de foutenmarges) zomaar vallen en pint zich vast op een welbepaald cijfer. Als het model berekent dat de gehomogeniseerde temperatuur 33,3°C +/- 0,8°C bedraagt, dan kan de temperatuur op dat moment zowel 32,5°C als 34,0°C geweest zijn, terwijl er nu overal zal geponeerd worden dat het 33,3°C was. En dat is helemaal fout.
Quote selectie