Ook Frank Deboosere gaf het toe, toen hij met pensioen ging : “We werken op basis van modellen en we zijn maar zo goed àls de modellen. Voor ons is dit niet gemakkelijk.” Daar kan niemand het mee oneens zijn en het is best eerlijk als je dat toegeeft.
Alle temperatuurgrafieken in mijn vorig artikel ( https://www.stevenschrijft.be/post/veel-drukte-om-niets ) zijn gebaseerd op observeerbare gegevens of berekeningen. Maar hoe komt men aan die cijfers? Hoe zijn die, wereldwijd, verzameld? Hoe betrouwbaar zijn ze ? Hoe worden ze verwerkt ?
Alles staat of valt natuurlijk, met de correctheid en objectiveerbaarheid van je meetgegevens. Met cijfers kan je alles bewijzen. Ook met modellen trouwens: er komt uit wat je er in stopt.
Enorm veel spelers hebben belangen in het klimaatdossier, dat heb ik al aangetoond ( https://www.stevenschrijft.be/post/er-is-nog-een-hoop-werk-aan-de-winkel ). Het is bepalend geworden voor een belangrijk stuk van het beleid - om niet te zeggen ‘het belangrijkste’. En dan is het niet ondenkbaar, dat de wetenschapper, statisticus, of modellen-bouwer, niet langer vrijuit kan werken, maar onder druk komt te staan.
Dat het officiële klimaatdiscours wordt gemonopoliseerd en gedirigeerd door één organisatie, het IPCC, heb ik al aangetoond ( https://www.stevenschrijft.be/post/de-nieuwe-kleren-van-de-keizer ). En dat er best niet teveel verwarrende vragen worden gesteld of het narratief wordt bekritiseerd. De scepticus schakel je best uit, door hem weg te zetten als complotdenker, maar dat lijkt soms projectie ( https://www.stevenschrijft.be/post/wie-is-wie-en-wat-is-wat ). En ook het narratief werk je hier en daar bij, in de juiste richting, denk aan het Climategate-schandaal, de hockeystick fraude en de malafide 97% claim ( https://www.stevenschrijft.be/post/er-is-nog-een-hoop-werk-aan-de-winkel ).
De hele climate-scene is verworden tot een heel netwerk van organisaties, instituten, ngo’s en beleidsstructuren met vertakkingen in alle richtingen, naar alle niveaus en vaak opererend in het duister. Het gebrek aan transparantie en debat voedt uiteraard het wantrouwen, én in de organisatie, én in het discours. Oòk mensen die werken in het IPCC zelf, zijn zich daar van bewust.
Dat werd me duidelijk uit een open brief van Christopher Landsea. Hij schreef die, toen hij, uit protest, ontslag nam als hoofdauteur van het IPCC. U kan hem hier lezen : https://www.climatechangefacts.info/ClimateChangeDocuments/LandseaResignationLetterFromIPCC.htm
“I am withdrawing because I have come to view the part of the IPCC to which my expertise is relevant as having become politicized.”
Prof. Landsey trok zich dus terug, omdat de zaak gepolitiseerd is geworden !!??
Ik citeer een paar passages uit deze brief :
“Voor de aankomende AR4 (= het vierde IPCC-rapport, gepubliceerd in 2007), werd ik enkele weken geleden gevraagd … voor (het geven van), wat ik dacht, een belangrijke en politiek neutrale bepaling, van wat er aan de hand is met ons klimaat. Ik vond het een beetje verwarrend, dat de deelnemers aan de persconferentie (hierover), tot de conclusie waren gekomen, dat ‘de huidige orkaanactiviteit een impact had op de opwarming van de aarde’. Bij mijn weten had géén van de deelnemers énig onderzoek gedaan naar orkaanvariabiliteit …”
Toen hij daar als expert zijn beklag over deed, gebeurde dit, ik citeer:
“De leiding van het IPCC vond dat er niets was om bezorgd over te zijn …”
En hij besluit zijn brief met : “Persoonlijk kan ik niet te goeder trouw blijven bijdragen aan een proces, waarvan ik moet vaststellen, dat het enerzijds gemotiveerd wordt door vooropgezette agenda’s, en anderzijds ook wetenschappelijk niet deugt.”
Chris Landsea - 2005
Je zou dit kunnen aanzien, als een rancuneuze reactie van een ex-medewerker.
Maar als je dieper graaft, in wat bekend is van het IPCC als organisatie, dan kom je inderdaad terecht, in wat lijkt op een hallucinante wereld van sabotage, fraude en achterkamertjespolitiek.
Men heeft zich duidelijk goed georganiseerd en niet bepaald de kleinste postjes ingenomen.
De constructie wordt verder ondersteund door, enerzijds, de meest activistische rechtbank ‘sinds de metingen’, en anderzijds, door een goed uitgebouwd netwerk van sponsoring, al dan niet openbaar.
Dus ja, de hamvraag bij cijfers en grafieken is vaak: van waar komen die gegevens, en met welke bedoeling zijn ze gepubliceerd. Manipulatie kan altijd in het spel zijn.
Maar daar gaat dit artikel niet over en wie daar al meer over wil lezen raad ik het boek “The Hockeystick Illusion” van A.W. Montford aan.
Dit artikel gaat in op de vraag: hoe worden de gegevens verzameld, meer specifiek :
1. Hoe kunnen er fouten sluipen in de klimaatgegevens?
2. Waar komen we uit als we, op basis hiervan en met behulp van computermodellen, voorspellingen trachten te doen?
“Een meting is het bepalen van de waarde van iets, uitgedrukt in een gangbare eenheid”.
In dit geval dus ‘de gemiddelde temperatuur’, uitgedrukt in ‘graden Celsius’ (of Fahrenheit).
Maar dit is rapper gezegd dan gedaan. Want hoe bepaal je in godsnaam de gemiddelde temperatuur op aarde? Er zijn grote temperatuurverschillen tussen dag en nacht, per seizoen en afhankelijk van de plaats waar je meet, op het land, op zee, in de atmosfeer.
De temperaturen variëren van -98 °C tot +55 °C en dit maakt het moeilijk om heel precies de gemiddelde temperatuur op aarde te bepalen, waarbij het gaat om tienden van graden over 30 jaar. Voor een deel wordt dit probleem ondervangen door niet naar de absolute (gemiddelde) temperatuur te kijken, maar alleen naar de afwijkingen in de tijd, de zogenaamde anomalieën. Maar dit is behoorlijk misleidend. In de volgende grafiek, gemaakt door de fysicus Prof. Richard Lindzen en de klimaatwetenschapper Prof. John Christy (2021), is voor 3000 weerstations de afwijking weergegeven voor de periode 1900 tot 2020. Elke waarde wordt aangegeven met een zwart cirkeltje. Hier zie je duidelijk, dat er een grote spreiding is tussen de verschillende waarden. Die bestrijkt een gebied van wel 18 °C !
Ongeveer de helft van alle stations laten jaarlijks een afkoeling zien en de andere helft een opwarming. Voor elke waarneming geldt dat er een behoorlijke onnauwkeurigheid is ( zie verder ). Het jaarlijkse gemiddelde, aangegeven met de gele lijn, verandert in de tijd, maar heel weinig.
Een bijkomend probleem, bij het bepalen van de gemiddelde temperatuur op aarde, is de ongelijke verdeling van de meetstations. Want waar staan die opgesteld ?
Als ik op de wereldkaart kijk naar de verdeling van de weerstations, nog niet zo lang geleden, dan blijken de oceanen toen behoorlijk ondervertegenwoordigd te zijn, terwijl die uiteindelijk twee derden beslaan van het aardoppervlak.
Om dit op te vangen wordt sinds 2000 gewerkt aan het uitrollen van een impressionant meetnetwerk, het Argo-netwerk. Zo’n 4000 vrij drijvende boeien meten de temperatuur van de oceanen, duiken zelfstandig tot 2000 meter onder water en sturen hun meetresultaten door aan satellieten, waarna die worden opgenomen in de werelddatabank. Volgens het schema op de site van Argo is de totale cyclustijd 10 dagen: 6 uur zakken tot een diepte van 1km, 9 dagen metingen, dan zakken tot 2000m diepte (waar het kan, uiteraard), en dan 6-12 uur dobberen aan de oppervlakte terwijl de data worden doorgestuurd naar de weersatellieten.
Volgens de huidige cijfers van Argo, zijn sommige delen van de oceaan momenteel ‘overbevolkt’, terwijl andere zones hiaten hebben die nog moeten opgevuld worden met extra vlotters. Dit kan je zien op deze kaart, met het werkelijke aantal drijvers in vergelijking met het beoogde aantal. Rode/oranje/gele vakjes duiden op “niet genoeg drijvers”; groene vakjes betekent dat er al genoeg zijn of zelfs meer dan nodig.
Om op dit moment al een klimaattrend te kunnen weergeven is het project nog in een te vroeg stadium. Men is nog lang niet toe aan 30 jaar dataverzameling, en de uitrol staat ook qua verdeling nog niet op punt. De betrouwbaarheid van dit systeem neemt echter jaar op jaar toe naarmate er betere instrumenten worden gebouwd, de klimaatmodellen worden verbeterd en men leert steeds meer bij over oceaanvariabiliteit. Maar dat dit een veelbelovende aanpak is, met een belang van onschatbare waarde, lijkt me evident. Zeker als je dit project vergelijkt met de ronduit onbetrouwbare manier waarop men daarvoor omging met gegevens in het klimaatmodel.
Door het toepassen van allerlei kunstingrepen, zoals automatische computer-algoritmes, kon men wel niet anders dan uitkomen bij verhoogde temperatuurwaarden. Een voorbeeld van extreme extrapolatie van meetgegevens wordt uitvoerig gedocumenteerd in dit artikel.
Hierin toont Willis Eschenbach aan, dat één temperatuurmeting zelfs werd geëxtrapoleerd naar een oppervlakte van 8.700.000 km2. Dat is een gebied ongeveer zo groot als de Verenigde Staten. De oranjerode cirkel naast Australië, een schatting van de temperatuur in 1850, zou een gegeneraliseerde temperatuur zijn, gemeten vanaf een schip…
De videoloop waar de figuur uit afkomstig is kan u hier zien : https://wattsupwiththat.com/2022/02/23/swag/ ( duurt een tijdje voor bladzijde geladen is ).
Om uit te leggen, welk risico dit extreem extrapoleren inhoudt, haalt de schrijver, uit zijn eigen ervaring, een eerder anekdotische redenering op.
“ Doordat ik een groot deel van mijn leven op zee heb doorgebracht, heb ik gebieden gezien, waar de temperatuur van de oceaan een paar graden verschil gaf, op zelfs maar een paar honderd meter. Waar een koude stroming een warme stroming raakt, is er vaak een duidelijke scheidingslijn, met trouwens weinig vermenging over de lijn.
Op het land zijn de veranderingen zelfs nog groter, zoals bijvoorbeeld boven Noord-Zuid-Amerika. Dus ... een gebied zo groot als de hele VS met één thermometer? Waar ik woon, vriest het bijvoorbeeld bijna nooit. Maar een kilometer verderop vriest het een aantal keer per jaar. Ik woon aan de kust ten noorden van San Francisco, in de smalle strook groen aan de kust links van de "S" in "Santa Rosa" . Dit stuk langs de kust, aan de westkant van de eerste reeks heuvels, van ongeveer 180 tot 270 m, staat plaatselijk bekend als "The Banana Belt" omdat het er bijna nooit vriest. We verbouwen citroenen, limoenen en avocado's op ons stukje grond.”
Uit wetenschappelijk oogpunt is deze gedachtengang natuurlijk van geen enkele waarde, niet meetbaar, verifieerbaar, reproduceerbaar, maar het is wel uit het leven gegrepen. Op het aspect “microklimaten en variabiliteit binnen een beperkt gebied” komen we later nog terug als we het hebben over wolken en hun invloed op de betrouwbaarheid van klimaatmodellen.
Ben je dan niet beter af met satellieten?
Sinds 1979 zijn er satellietmetingen beschikbaar van het Amerikaanse meteorologische instituut NOAA over de gemiddelde temperatuur op aarde. Die hebben een betere dekkingsgraad dan het meetnetwerk aan de grond en kunnen vergeleken worden met volledig onafhankelijke metingen van bv. weerballonnen.
Ook hebben ze minder last van verstorende opwarming-effecten door, onder andere, de verstedelijking. Satellieten kunnen ook metingen doen in de troposfeer - de onderste laag van de dampkring - in plaats van aan het aardoppervlak.
En wat geven de meetresultaten?
Sinds de start van de metingen komt men ter hoogte van de troposfeer uit op een gemiddelde opwarming van ongeveer 0,14°C per decennium - tegenover ongeveer 0,18°C per decennium aan het aardoppervlak. Volgens de broeikastheorie zou de troposfeer 1,2 keer sneller moeten opwarmen dan het aardoppervlak. Dus alweer een argument tegen deze IPCC-theorie.
Een grappig tussendoortje :
Sommige onderzoekers in het IPCC lossen dat op een inventieve manier op.
In een van de Climategate-e-mails liet de invloedrijke IPCC-onderzoeker Kevin Trenberth zich ontvallen (okt 2009) dat, “aangezien de modellen niet overeen komen met de waarnemingen, deze bijgevolg wel ontoereikend moeten zijn.”
Dezelfde waanzinnige nonsens kwam trouwens uit de mond van de Nederlandse minister, Henk Kamp, die ten aanzien van de politiek, voor beleidsmakers, de volgende gevleugelde uitspraak deed dat ‘het eigenlijk alleen de modellen waren die belangrijk waren, en dat de waarnemingen er eigenlijk niet toe doen.’ Zoals Prof. Kees de Lange in een documentaire - waar ik op het eind van dit artikel op terug kom - terecht opmerkt is dit ‘…vanuit het oogpunt van elke serieuze natuurwetenschapper natuurlijk een volkomen belachelijke uitspraak.’
Laat ons nog even terugkeren naar de metingen op het land.
Je zou denken: we hebben hier genoeg meetpunten en alles onder controle dus hierover bestaat geen twijfel. Maar zo eenvoudig is het niet.
Wanneer ‘iets’, wat dan ook, de luchtstroom rond een meetpunt van een weerstation stopt of belemmert, dan spreekt men van ‘beschutting’. De meest voorkomende oorzaken zijn vegetatiegroei en door mensen gebouwde obstakels, zoals gebouwen.
In dit artikel (https://wattsupwiththat.com/2014/06/10/why-automatic-temperature-adjustments-dont-work/) wordt duidelijk aangetoond dat men, door computerbewerkingen (automatische algoritmes), een opwarmingstrend induceert waar die er voorheen niet bestond.
Wanneer weerstations vegetatie om zich heen hebben, die men periodiek laat verwijderen, bijvoorbeeld om de zes à tien jaar, dan vertoont de temperatuurgeschiedenis namelijk een zaagtandvorm. De temperaturen stijgen langzaam wanneer de beschutting toeneemt en dalen plotseling wanneer de begroeiing wordt gesnoeid of verwijderd (grafiek links). Die typische zaagtandvorm wordt na computerbewerking gewoonweg vervangen door een opgaande lijn (grafiek rechts). Door computerbewerking gecreëerde opwarming.
Om een zo groot mogelijke zekerheid te hebben, dat de cijfergegevens correct zijn, moeten metingen beantwoorden aan een aantal minimumvereisten. In het ideale geval meet men altijd met dezelfde apparatuur en op dezelfde plek. Ook zorgt men ervoor dat de omgeving van die plek niet drastisch verandert. Maar in de praktijk wordt daar niet altijd naar gekeken.
Hier ziet u een weerstation dat zich bevindt op een parkeerplaats bij de Universiteit van Arizona in Tucson. Het station bevond zich voorheen midden in een grasveld, maar onderzoekers verplaatsten het station naarmate de campus groeide.
Een weerstation moet eigenlijk op een open veld staan, bomen en gebouwen moeten op ten minste 30m, maar het liefst op 100m afstand staan en de ondergrond moet representatief zijn voor de natuurlijke omgeving. Aan deze simpele regels wordt zelden voldaan.
De Amerikaanse meteoroloog Anthony Watts, die jarenlang als weerman op de televisie heeft gewerkt, deed rond 2008 onderzoek naar de kwaliteit van de ruim 1000 meetstations in de VS. Hij trof weerstations aan, op of vlak bij parkeerplaatsen, te dicht bij start- of landingsbanen van vliegvelden… Maar liefst 70 stations stonden bij afvalwaterzuiveringsinstallaties, waar de stoom soms vanaf kwam. Ook van een station op een dak of een fabrieksterrein kijkt Watts niet vreemd meer op. Ongeveer 70 % van de stations staan vaak veel te dicht bij een gebouw (met vrijwel altijd een uitlaat van een airco) om de banale reden dat de bijgeleverde kabels nogal kort zijn en het bedieningspaneel niet weerbestendig is en dus binnen moet hangen. In plaats van kort gemaaid gras vind je soms grind of zelfs donkere rubberen matten op de grond. De inrichting van weerstations is vooral gericht op het gebruiksgemak en niet op het goed meten van de temperatuur.
Nu kan ik me inbeelden, dat u zich de bedenking maakt, dat dit inderdaad misschien wel voorvalt, maar dan sporadisch, en dat de meerderheid allicht wel conform is… Maar ik kan u zeggen: “maak u geen illusies”. Bijna 90 % van het NOAA-netwerk is zo slecht gesitueerd dat dit volgens criteria van NOAA zelf moet resulteren in fouten van meer dan 1°C. Bijna 70 % van de stations valt zelfs in de categorie ‘fout groter dan 2°C’. Bij het overgrote deel van de meetstations bleken storende factoren in de omgeving aanwezig te zijn, die een afwijking in de gemeten temperaturen veroorzaakten, zoals nabijgelegen gebouwen, parkeerplaatsen, geïrrigeerde gazons, enzovoorts. In de praktijk leidt de slechte situering trouwens vrijwel altijd tot opwarming. De resultaten zijn van toepassing op Amerikaanse meetstations, maar er zijn geen aanwijzingen dat het met weerstations elders op de wereld veel beter is gesteld. Uit een studie van McIntyre blijkt dat er per continent maar heel weinig meetstations zijn die aan de criteria voldoen. In heel Afrika, bijvoorbeeld, slechts tien en in heel Zuid-Amerika slechts zeven !
Maar, afgezien van de reeds besproken artefacten, is verstedelijking nog altijd het grootste probleem bij het opdrijven van de gemeten temperaturen. Gebouwen en bestrating, in de omgeving van een meetstation, zorgen altijd voor een hogere temperatuur. Daar waar veel meetstations aanvankelijk in een landelijke omgeving stonden, komen ze, door uitbreiding van de dorpen en steden, steeds meer in warmere zones te liggen. De grote hoeveelheden steen, beton, asfalt en staal in de dichtbebouwde omgeving, absorberen veel meer warmte dan een natuurlijke omgeving, en geven deze warmte in de nacht weer vrij. Door het ontbreken van veel beplanting, is er ook minder afkoeling door verdamping van vocht. Het warmte-eiland ligt als een soort koepel over de stad heen.
Verder wordt er in een bebouwde omgeving relatief meer energie verbruikt, wat ook kan bijdragen aan het effect. De extra opwarming, bij lage bevolkingsaantallen, stijgt relatief snel en vlakt langzaam af bij extreem grote bevolkingen. Een dorp van tien inwoners veroorzaakt al een extra opwarming van ruim 0,7 °C. Een dorp van honderd inwoners geeft bijna 1,5 °C opwarming, een stadje met duizend inwoners 2,2 °C en een grote stad met een miljoen inwoners maar liefst 4,4 °C.
Stedelijke gebieden omvatten ongeveer 1% van het aardoppervlak, maar ongeveer de helft van alle weerstations bevindt zich in stedelijke gebieden. Toch wordt de belangrijkste temperatuur-reeks in het IPCC-rapport niet gecorrigeerd voor stedelijke opwarming.
Vandaar dat, als Frank Deboosere zich uitliet met: ‘… de hoogste waarden in Ukkel sinds het begin van de metingen’’ of bij zijn op pensioen gaan: ‘Toen ik begon met weerberichten lagen de gemiddelde temperaturen in Ukkel een halve graad lager dan op dit ogenblik’, dan moeten we daar wel onmiddellijk een bedenking bij maken. Oordeelt u zelf :
Duidelijk niet? Links ziet u in welke zone Ukkel ligt…
Om dit artikel af te sluiten, heel kort nog iets over de klimaatmodellen.
Bij het dichterbij komen van het jaar 2000 stond heel de computerwereld in rep en roer, want modellen hadden alarmerende scenario’s gemaakt van de gevolgen van de millennium-bug. Van deze voorspellingen bleek uiteindelijk quasi niets uit te komen. Dat hadden we weer gehad: veel geblaat en weinig wol. Zijn we op dit moment aan een variante bezig van dit script? We overlopen het even samen. Het klimaat is een bijzonder complex en chaotisch systeem, waarin gigantisch veel factoren continu op elkaar inwerken. Alleen al het weer voorspellen voor de komende weken is een enorm moeilijke opdracht. Herinner u, dat zei ook Frank Deboosere: “We werken op basis van modellen en we zijn maar zo goed als de modellen. Voor ons is dit niet gemakkelijk.”
In het begin zal de voorspelling eventueel aanvaardbaar zijn, maar geleidelijk aan lopen de minimum en maximum scenario’s steeds verder uit elkaar. Toch doet het IPCC alsof ze het gedrag van ons aards klimaatsysteem volledig kennen en zelfs voor decennia ver kunnen voorspellen. Het geheel wordt bovendien zo sterk vereenvoudigd dat in wezen quasi alles wordt teruggebracht tot één element: CO2. Hallucinant, vindt u niet? Want als je dat doet weet je waaraan je voorbijgaat.
Je hebt in de eerste plaats de enorme invloed van de zonneactiviteit, planetaire bewegingen. Er zijn biologische processen, vulkaanuitbarstingen, veranderingen in ijskappen. Je hebt verdamping van enorme hoeveelheden water in de oceanen. Dit condenseert, bevriest in de atmosfeer. Je hebt wolken en neerslag … Bewolking is trouwens de factor waar we nog het minst van afweten. Zij zijn de ‘wildcards’, de jokers van het klimaat.
Dus, zelfs al kan je een aantal van de klimaatparameters inbouwen in een model, je kan ze er nooit allemaal in betrekken, voor zover ze trouwens allemaal al gekend zijn.
Het is alsof je een brood wil bakken, maar het (warm) water is nog niet uitgevonden. Wat kan je dan verwachten van het resultaat? Ik laat het je even zien.
Onderstaande grafiek werd door John Christy getoond, tijdens zijn getuigenis voor de Amerikaanse Senaat in 2016. Wat u ziet zijn de verwachtingen van de verschillende IPCC-rekenmodellen ( het spaghetti-kluwen bovenaan ) met daarboven (rode lijn) de gemiddelde trend van al deze studies. Daaronder, aangeduid als ‘reality’, zie je de authentieke resultaten van de metingen door weerballonnen (groen) en satellieten (blauw) lopende van 1979 tot 2012. Ik denk dat deze grafiek voor zich spreekt. De scenario’s van het IPCC komen duidelijk niet overeen met de waarnemingen maar zijn veel alarmistischer dan de waarnemingen aangeven. Die waarnemingen gaan in de richting van ongeveer 1°C per eeuw. De voorspellingen van de mainstream modellen praten eerder over 3°C per eeuw. En als Frank Deboosere praat van ‘een halve graad over vier decennia’ dan ligt dat niet zover uiteen. Maar voelt u? De toon maakt het verschil.
In de wetenschap is de enige manier om te beoordelen of een model geldig is, de voorspelde waarden te toetsen aan de werkelijk gemeten waarden. Maar als u dacht, dat dit voor het IPCC voldoende reden was om zijn mening te herzien, dan hebt u het mis.
Het probleem is echter dat de klimaatmodellen ondertussen al worden ge-/misbruikt om voorspellingen te doen en dat de propagandamachine verder loopt, ook naar de kinderen toe!
Ik las in een artikel van dit jaar ( https://wattsupwiththat.com/2023/02/01/elite-billionaire-foundations-fund-wave-of-green-climate-propaganda-flooding-into-british-schools/ ) : “Ondertussen krijgen schoolkinderen in de Britse klaslokalen te horen dat we "tegen 2100 een stijging van 4,5°C in de mondiale temperaturen kunnen verwachten en tegen het einde van 2200 een stijging van ongeveer 11°C” - ” Ze worden aangemoedigd om brieven te schrijven aan beleidsmakers waarin ze beweren “ons huis staat in brand” in de stijl van Greta Thunberg.” Verder wordt ze geleerd dat “de gemiddelde temperatuur in de afgelopen 10.000 jaar "zeer geleidelijk" is gestegen met niet meer dan 1°C.” Ik beken, de site waar dit artikel uit komt is uitgesproken ‘klimaat-sceptisch’, maar ook in de mainstream media schrijft men toch over toenemende depressiviteit bij kinderen.
Herinnert u zich nog de kindermarsen? Zelfs grootouders waren enthousiast. Over het bewustzijn, het engagement, de durf. Maar is ù er zo zeker van, dat men in de scholen rondom ons, enkel geverifieerde informatie gaf, of zou het kunnen dat men eerder slogans aanleerde, genre Nic Balthazar? “We want it now.” Iets om toch eens goed over na te denken.
Willem Spaans zegt hierover: “Als dan mijn kleindochter, bij het voorlezen voor het slapen gaan, uit het niets vraagt, of we inderdaad over 10 jaar allemaal dood zijn, dan wil ik wel fulmineren tegen deze kindermishandeling.”
Ik zou dit artikel willen besluiten met een transcriptie van wat Prof. Dr. Kees de Lange over modellen zegt, in het schitterende interview van Alain Grootaers op Tegenwind TV.
Wat modellen betreft loopt zijn uitleg van 16min25 tot 33min20 en wat volgt in mijn artikel is een eigen transcriptie van een aantal van zijn bedenkingen. Maar wil u alvast meer te weten komen over het IPCC en de link met de politiek dan bekijkt u deze uitzending best helemaal.
Meer dan de moeite.
“We hebben modellen en ik neem aan, dat de mensen die de modellen maken, zo goed mogelijk proberen om de waarneembare werkelijkheid te simuleren. Maar het gaat bij klimaat om een buitengewoon gecompliceerd probleem. Het heet niet voor niets complexe modellering. En dat maakt, dat het succes van de huidige vorm van modellering, niet geweldig groot is, en dat dat erg afhankelijk is van de parameters die je gebruikt, om bepaalde fysische werkelijkheden - waar je de fysische wetten niet van kent - om die toch in de berekeningen te betrekken, mee te nemen. Dus dit werkt gewoon niet goed genoeg.
Dan kom ik altijd weer terug op de beroemde uitspraak van Feynman en die was altijd heel direct en ook heel duidelijk. Die zei: als datgene wat je theoretisch voorspelt of modelleert - want dat zijn eigenlijk synoniemen - als dat niet blijkt te kloppen met de waarneembare werkelijkheid, dan blijft er maar één optie over: dat is gewoon dat model weggooien, en opnieuw beginnen. In die situatie zitten we een beetje. … (Dat wil niet zeggen) dat het maken van modellen natuurlijk helemaal een zinloze activiteit is. Maar het is buitengewoon belangrijk om de beperkingen van die modellering te kunnen zien en daarmee ook rekening te kunnen houden. Nu, dat is niet wat gebeurt in de praktijk.
In de praktijk, voor de voorspellingen die met de modellen gedaan worden, daarvan wordt steeds duidelijker, dat die met de waarneembare werkelijkheid onvoldoende te maken hebben. Dit betekent dat de modellen niet goed genoeg zijn voor een goede beschrijving van het klimaat maar in het verlengde daarvan zijn ze zeker ook niet goed genoeg om belangrijke politieke beslissingen op te baseren.”
Luk Adang
Een zeer relevante en interessante column, proficiat en dank! Ik kan ivm de onzekerheid van de metingen, de thesis van John McLean aanraden, die een studie heeft gemaakt over de HadCrut4 temperatuur reeks, die algemeen word gebruikt om de zogenaamde opwarming te illustreren. Hier is de link naar zijn thesis; de 'executive summary' is al genoeg om alles te begrijpen: https://researchonline.jcu.edu.au/52041/1/52041-mclean-2017-thesis.pdf Gewoonweg hallucinant dat meetgegevens die triljarden dollars sturen en vooral het welzijn van mensen bepalen, van zulk een abominabele kwaliteit zijn en vooral blijven. De man is uiteraard geen lieveling van het IPCC maar de gegevens zijn downloadbaar, dus iedereen kan zijn conclusies verifieren. YouTube heeft ondertussen de meeste van de filmpjes waar de man zijn thesis uitlegt, verwijderd blijkba…
“Hier zie je duidelijk, dat er een grote spreiding is tussen de verschillende waarden. Die bestrijkt een gebied van wel 18 °C !” [..] “Ongeveer de helft van alle stations laten jaarlijks een afkoeling zien en de andere helft een opwarming. Voor elke waarneming geldt dat er een behoorlijke onnauwkeurigheid is ( zie verder ). Het jaarlijkse gemiddelde, aangegeven met de gele lijn, verandert in de tijd, maar heel weinig. ” Die spreiding komt simpelweg door het verschil in temperatuur tussen seizoenen. Dat heeft niets met meetonzekerheid te maken. Het woord ‘seasonal’ staat letterlijk in te titel.
“Een bijkomend probleem, bij het bepalen van de gemiddelde temperatuur op aarde, is de ongelijke verdeling van de meetstations.” Uiteindelijk zie je…
Volledig mee eens,.....meer kan ik niet bedenken.
Krijg een warm hoofd van het IPCC.