iedere meting is een representatie van de (veronderstelde) werkelijkheid1. Dat klopt, maar dat is geen argument om een meting te gaan "corrigeren" omdat ze dan dichter bij je veronderstelde werkelijkheid ligt. Want dan is het geen meting meer, maar een wel een datapunt in een model dat poogt de werkelijkheid weer te geven.
2.Een meting is per definitie een meting: iets dat gemeten wordt, en niet iets dat geïnterpreteerd en bijgeschaafd wordt.
3. Als blijkt dat je manier van meten fout was, dan moet je ophouden met zo te meten, en dan kan je een inschatting geven van wat de vroegere metingen ongeveer moesten voorstellen, maar je kan niet pretenderen de
4. correcte meting 50 jaar na datum nog te gaan uitvoeren met de computer. Iets dat door de pc berekend wordt is simpelweg geen 'meting'.
Dit gaat deels weer aan de essentie voorbij.
1. De vraag is niet zo zeer (misschien ook) of we door correctie (een fout woord trouwens dat iets anders suggereert dan er is) dichter bij de veronderstelde werkelijkheid komen. Ieder meting is een datapunt. Moet met scepsis bekeken worden en geanalyseerd. Dat is nu eenmaal wat in de natuurwetenschap gebeurt. (Dag Wim). Natuurlijk, we kunnen de meting niet overdoen, dus wat men bij homogenisering doet is nogmaals interpreteren in een bepaalde betekenis (terwille van de vergelijking)
2. Een meting is een meting. Dat heb ik niet ontkend. Ik vraag aandacht voor een analyse. Metingen, zeker temperatuurmetingen in de open lucht, vragen extra aandacht. Als je zegt dat de gemeten temperatuur gelijk is aan de luchttemperatuur, maak je al een interpretatie die bewezen ongegrond is. Een meting is altijd discutabel en vatbaar voor interpretatie in de zin die ik in mijn vorige post heb beschreven: we meten de temperatuur van de thermometer en interpreteren vervolgens in welke mate dit onder diverse omstandigheden de temperatuur van de lucht weergeeft.
3. "Dat de manier van meten fout was" Wie heeft het daarover? Dat bestaat niet en dat is nu weer jouw interpretatie. Het gaat erom een oude reeks met een nieuwe reeks te kunnen vergelijken. Aangezien bekend is dat verschillende methoden verschillende meetfouten geven (dus niet een goede en een foute) zitten we met een probleem: vergelijken levert onacceptabele onjuistheden, of zo je wil onnauwkeurigheden, op. Dat is het probleem van de homogenisatie. Niet of we een reeks als goed of fout bestempelen. Ooit is Beek gehomogeniseerd met de oude reeks van Maastricht. Wat er een reeks fout?
4. We gaan geen correcte meting uitvoeren met de computer. Hoe kom je daar nu weer bij? Het is m.i. hetzelfde misverstand: de oude meting zou fout zijn en de nieuwe correct. (wat correct dan ook weer moge betekenen). Dus, onzinnig argument. Wat doen we wel met homogeniseren: we maken de oude reeks beter vergelijkbaar met de nieuwe. Wat is daar mis mee? Dat er onzekerheden in blijven zitten zal niemand bestrijden. Maar dan zouden we moeten praten over de grootte van deze onzekerheden of foutenmarges. En dat is te technisch, zowel voor jou als voor mij. Dat doet echter niets af aan het principe dat ik beschreven heb
Groet,
Cees
Quote selectie