Chcą, żeby to był nowy covid, ale żeby to osiągnąć, potrzebują ludzi, którzy poczują „podwyższony poziom osobistego zagrożenia”. Oznacza to mocne uderzenie zagrożeniami związanymi ze zmianami klimatu. Oznacza to fałszowanie liczby zgonów i tworzenie alarmujących statystyk. Oznacza to faszerowanie nagłówków wpływowymi postaciami – takimi jak Hillary Clinton – które nazywają zmiany klimatyczne „kryzysem zdrowia publicznego”.
−∗−
Tłumaczenie artykułu z serwisu Off-Guardian na temat tzw. ‘nowego covidu’, czyli próbach zastosowania rozwiązań z okresu pandemii do walki ze ‘zmianami klimatu’. //AlterCabrio
___________***___________
Chcą, abyś czuł, że zmiana klimatu jest „osobistym zagrożeniem”. Oto dlaczego.
„Kryzys klimatyczny to kryzys zdrowia publicznego”, to tweet z oficjalnego konta twitterowego Hillary Clinton opublikowany wczoraj po południu.
Tweet zawierał link do wiadomości, w której twierdzi się, że w zeszłym tygodniu Hiszpania i Portugalia zanotowały ponad tysiąc zgonów z powodu fali upałów (od tego czasu zmienili tę liczbę do ponad 2000).
Kryzys klimatyczny to kryzys zdrowia publicznego. https://t.co/klk2fgccWQ – Hillary Clinton (@HillaryClinton) 20 lipca 2022r.
Nie chcę zagłębiać się w matematykę, ale w dwóch krajach, które zamieszkuje około 58 milionów ludzi, 2000 na tydzień to raczej niewiele.
I, jak zauważyłem na Twitterze, w świecie postcovidowym nie możemy być pewni, co w ogóle oznacza „zmarł z powodu upału”.
Najwyraźniej #Heatwave2022 zabije tysiące ludzi.
Ale jeśli #COVID19 nauczył nas czegokolwiek, oznacza to, że osoby umierające we wrześniu zostaną wymienione jako „zgony związane z falą upałów”, ponieważ „zmarli z jakiejkolwiek przyczyny w ciągu 60 dni odkąd było bardzo gorąco”. — Kit Knightly (@kit_knightly) 17 lipca 2022
Przykład – już widzimy utonięcia nazywane „zgonami spowodowanymi falą upałów” ponieważ… nie pływaliby, gdyby nie było tak gorąco.
Ale nie jesteśmy tutaj, aby potwierdzać jeszcze więcej danych lub definicji. Celem tego artykułu jest uzmysłowienie przekazu kryjącego się za tym tweetem i że nie jest to coś nowego. Wszystko sprowadza się do przejęcia uprawnień, które państwa nabyły poprzez „covid”, a następnie zastosowania ich do „zmian klimatu”.
Może to oznaczać „lockdowny klimatyczne”, „paszporty klimatyczne”, racjonowanie paliwa lub zakaz podróży… ale bez względu na to, jakich terminów lub wyrażeń w końcu użyją, jest to zdecydowanie ucieleśnienie jakiejś totalitarnej fantazji.
To jest celem i było od samego początku.
Od najwcześniejszych dni „pandemii” podejmowano konsekwentne (i niedorzeczne) próby skojarzenia w świadomości społecznej pojęć „Covid” i „klimat”.
Zaczęli od bezpośredniego łączenia tych dwóch i do dziś próbują twierdzić, że zmiany klimatu spowodują więcej pandemii odzwierzęcych. Ale to nigdy nie przyniosło zamierzonych skutków.
Bardziej spójnym i wszechobecnym przekazem jest próba przemianowania „zmian klimatycznych” z problemu środowiskowego na problem „zdrowia publicznego”.
Komunikat ten pojawił się po raz pierwszy w marcu 2020r., kiedy pandemia trwała niespełna trzy miesiące. British Medical Journal opublikował artykuł zatytułowany „WHO powinna ogłosić zmiany klimatu jako stan zagrożenia dla zdrowia publicznego”, w którym argumentowano, że globalne ocieplenie jest znacznie bardziej niebezpieczne niż zwykły wirus i powinno być traktowane równie poważnie.
Nikt wtedy tak naprawdę nie zwracał na to uwagi. W ciągu dwóch lat, odkąd tylko próbowali to w kółko przypominać – nigdy nie poskutkowało.
Zaledwie kilka tygodni po wprowadzeniu lockdownów już nam wmawiano, że to one uleczą planetę, a dziennikarze pytali „jeśli możemy to zrobić dla covid, dlaczego nie dla klimatu?”
Do września 2020r. mówili o „unikaniu lockdownu klimatycznego”.
W marcu 2021r. pojawiły się raporty, w których twierdzono, że potrzebujemy „covidowego lockdownu co dwa lata”, aby osiągnąć cele klimatyczne.
Latem 2021r. najnowszy raport IPCC nakłaniał do rozmów o „przechodzeniu od covidu do klimatu”, które nigdy tak naprawdę nie wystartowały.
W marcu tego roku think tank Public Policy Project powtórzył żądanie, aby WHO uznała zmiany klimatyczne za „stan zagrożenia zdrowia publicznego”.
A wczoraj BMJ wrócił do tego, publikując dwa artykuły na ten sam temat. Jeden stanowiący ostrzeżenie o „Niewygodnych prawdach dotyczących zdrowia i kryzysów klimatycznych, których nie można po prostu zignorować” i drugi zatytułowany Dzień Świstaka: oznaki kryzysu klimatycznego znów są z nami.
Teraz w pracach nastąpił nowy impuls, a myśl towarzysząca jest jasna.
Po dziesięcioleciach propagandy, która dostrzegała, że „globalne ocieplenie” przekształciło się w „zmiany klimatu”, a to w „globalne upały” i ostatecznie „kryzys klimatyczny”, ludzie po prostu się już tego nie boją.
Może to podświadoma wiedza, że to kampania propagandowa, a może to dosłownie 60 lat nieudanych proroctw, ale cokolwiek to jest, ludzie się nie boją, a przynajmniej nie tak bardzo jak Covid.
Rządzący sami to przyznali. Pojawił się demaskujący artykuł na ten temat w Sky News przed zaledwie kilku dniami, zatytułowany:
„Dlaczego tak trudno sprawić, by ludzie zajęli się zmianami klimatu?”
Podczas covid widzieliśmy, że Zespół ds. analizy behawioralnej [Behavioural Insights Team] rządu Wielkiej Brytanii opublikował notatkę, w której stwierdzono, że ludzie nie są wystarczająco przestraszeni covidem, a komunikaty muszą się zmienić, aby przestraszyć ludzi i nakłonić do podporządkowania:
„Postrzegany poziom osobistego zagrożenia należy zwiększyć wśród osób, które zachowują się beztrosko, używając mocnych emocjonalnych komunikatów”.
To samo myślenie dotyczy zmian klimatycznych. Chcą, żeby to był nowy covid, ale żeby to osiągnąć, potrzebują ludzi, którzy poczują „podwyższony poziom osobistego zagrożenia”.
Oznacza to mocne uderzenie zagrożeniami związanymi ze zmianami klimatu. Oznacza to fałszowanie liczby zgonów i tworzenie alarmujących statystyk. Oznacza to faszerowanie nagłówków wpływowymi postaciami – takimi jak Hillary Clinton – które nazywają zmiany klimatyczne „kryzysem zdrowia publicznego”.
Dlatego mówi się o fali upałów w tak absurdalny sposób. Właśnie dlatego Wielka Brytania ogłosiła swoją pierwszą w historii „falę upałów” jako krajową sytuacjęnadzwyczajną i dlatego Biden rozważa ogłoszenie „zagrożenia klimatycznego” (cokolwiek to oznacza).
To dlatego widzimy ostrzeżenia o „tysiącach umierających” i nagle pojawiają się „pożary” (które okazują się być podpaleniami).
Dlatego lekarze zaczęli dosłownie diagnozować „zmiany klimatu”, jakby to była choroba.
Chcą – i potrzebują – zmienić dyskusję o klimacie. Nie będzie już chodziło o środowisko, ale o „zdrowie publiczne”.
Zmiany klimatu zmieniają kategorię – nie będą już zagrożeniem dla planety, od teraz są zagrożeniem dla Ciebie.
I jak tylko to przesłanie dotrze do ludzi, oni odwrócą się i powiedzą „a więc co do tych lockdownów klimatycznych…”.
=================
[odnośniki do oryginalnych wypowiedzi – w oryginale. Tu tym nie zaśmiecam. MD]
Poza pandemię czyli co dalej z klimatem Przez dosłownie dziesięciolecia podsycali publiczny strach przed „nową epoką lodowcową”, kwaśnymi deszczami i dziurą w warstwie ozonowej oraz niezliczonymi innymi rzekomo rozpoczynającymi się katastrofami klimatycznymi, i nigdy nawet nie otarli […]
_______________
Wirus i klimat czyli wspólnota kryzysu Choć niektórym może się to wydawać końcem tak zwanego kryzysu, jest to dopiero początek piekła na ziemi. Kolejne kilka miesięcy pokaże, jak będą próbowali wprowadzać każdy możliwy przejaw tyranii. A […]
_______________
Lockdowny? To jeszcze nie koniec… Wygląda na to, że w zamian zostaną przemianowane na „lockdowny klimatyczne” i albo wymuszane, albo po prostu groźnie trzymane nad głową społeczeństwa. − ♦ − W ramach „lockdownu klimatycznego” rządy […]
_______________
Great Zero Carbon czyli od wirusa do ubóstwa„W bardzo cyniczny sposób jest to triumf nauki, ponieważ w końcu coś ustabilizowaliśmy – a mianowicie szacunki dotyczące nośności planety, czyli poniżej 1 miliarda ludzi” W menu na dziś danie… […]
Sensacyjna w świetle rozpowszechnionego przekonania o „globalnym ociepleniu” książka Fritza Vahrenholta, niemieckiego specjalisty od ekologicznej energii, i Sebastiana Lüninga, niemieckiego geologa, nie tylko obala ten najnowszy mit, lecz także demaskuje manipulacje usiłujących narzucić go opinii publicznej. Vahrenholt, były minister ochrony środowiska w Hesji, a obecnie jeden z dyrektorów RWE, przeprowadził we współpracy z Lüningiem swoiste naukowe śledztwo, tropiąc grube nadużycia w doborze i interpretacji danych dokonywane przez zwolenników tezy, że główną przyczyną stałego wzrostu globalnej temperatury jest emisja dwutlenku węgla. Okazuje się, że nie „główną przyczyną” ani nie „stałego”. Od 2000 roku średnia temperatura na Ziemi nie rośnie, a w długim okresie mierzonym dekadami, stuleciami czy mileniami za zmiany temperatury odpowiada aktywność Słońca. Tysiąc lat temu Grenlandia (jak wskazuje sama nazwa) była zieloną krainą, a biegun północny był wolny od lodu. Naturalny cykl aktywności Słońca i związaną z nią rolę promieniowania kosmicznego skrzętnie się ukrywa, a dane klimatyczne ekstrapoluje się w sposób rysujący apokaliptyczną przyszłość. Rzetelność naukowa popada w konflikt z – uzasadnionym skądinąd – interesem politycznym: z dążeniem do ograniczenia emisji CO2 za wszelką cenę. Śledząc detektywistyczne tropienie przez autorów prawdy ukrywanej tam, gdzie powinna ona być najbardziej jawna: w nauce, czytelnik dowie się przy okazji mnóstwa rzeczy o klimacie Ziemi i jego historii, a wiedza ta, jak wynika z lektury Zimnego Słońca, może się okazać bardzo przydatna w praktyce.
W latach siedemdziesiątych XX wieku klimatolodzy mieli pierwszy duży występ na światowej scenie. Nawiasem mówiąc, nie pozostawili wówczas po sobie najlepszego wrażenia. Co się stało? Temperatury w latach 1910-1940 stale rosły (Do tego momentu teoria o efekcie cieplarnianym zdawała się dobrze działać. Jednakże od 1940 roku klimat zaczął się wyraźnie ochładzać i uparcie wzbraniał się przed wejściem ponownie w trend ocieplenia. Badacze byli zrozpaczeni. Dlaczego natura nie trzyma się ich modeli opracowywanych z takim wysiłkiem? A natura w swej nadgorliwości postawiła jeszcze tu i tam wykrzyknik. Na przykład zima 1968/1969 roku przyniosła taką pokrywę lodową na północnym Atlantyku, jakiej nie było przez prawie 60 lat. Zimą 1972/1973 góry lodowe zawędrowały aż na wysokość Portugalii, a na kręgu polarnym odnotowano najniższe temperatury zimowe od 200 lat. Burza śnieżna zrujnowała w sierpniu 1973 roku duże obszary upraw zbóż w zagłębiu pszenicznym Kanady. Jesienią tego samego roku wybrzeże północnoniemieckie nawiedziła seria najgorszych powodzi od półwiecza. A w 1977 roku z kolei podczas ekstremalnie mroźnej zimy szczękały zębami Stany Zjednoczone 10 (patrz też rozdział 5).
Eksperci próbowali rozwiązać tę zagadkę i nie byli zgodni. Niektórzy naukowcy wykorzystali to ochłodzenie jako okazję do spekulacji o ewentualnym bliskim końcu epoki ocieplenia na nadchodzące stulecia czy tysiąclecia. Stałą naprzemienność epok lodowych i interglacjałów doskonale znali z badań; stanowiła ona najbardziej charakterystyczny element klimatyczny minionych dwóch milionów lat. W wielu wypadkach interglacjalne okresy ocieplenia trwały tylko 10 000 lat – a prawie taki właśnie okres teraz upływa od ostatniej epoki lodowej. Żywiono jednak nadzieję, że emisje antropogenicznych gazów cieplarnianych pomogą w ucieczce przed zagrożeniem kolejną epoką lodową. Długie okresy trwania tych naturalnych zjawisk klimatycznych uspokajały z jednej strony, z drugiej zaś wiadomo było również, że w przeszłości w okresach przejściowych między ekstremalnymi zjawiskami klimatycznymi dochodziło do gwałtownych spadków temperatury. I tak na początku współczesnego okresu międzylodowcowego 11 000 lat temu nastąpiło krótkotrwałe gwałtowne ochłodzenie, tak zwany młodszy dryas. Na terenach okołobiegunowych półkuli północnej temperatura spadła w ciągu zaledwie kilku dekad o zatrważające 10oC .
Inni badacze sądzili, że nadciąga pewne zagrożenie o wiele mniej odległe w czasie i ostrzegali przed bliską fazą ochłodzenia analogiczną do małej epoki lodowej, która między XV a XIX wiekiem doprowadziła w Europie do znacznych strat w zbiorach, głodu i chorób. Choć globalna średnia temperatura spadła wówczas tylko o 1°C, już to wystarczyło, by wprawić w przerażenie mało jeszcze rozwinięte technicznie społeczeństwo. Inaczej jednak niż w średniowieczu, kiedy to słabe Słońce wywołało spadek temperatur, tym razem zdaniem niektórych naukowców – winien temu ochłodzeniu miał być człowiek. Bez wątpienia w połowie XX wieku wskutek postępującego uprzemysłowienia doszło do znacznych emisji siarki, popiołu i innych cząstek, które mogły utworzyć chroniącą przed Słońcem zasłonę mgły.
Zaczęto również podejrzewać rozwijający się właśnie ruch samolotów odrzutowych o to, że sprzyja powstawaniu chmur na niebie. To oddziaływanie “zasłony chmur” otrzymało nawet chwytliwą nazwę: global dimming [globalne zaciemnienie]. Argumentowano, że global dimming więcej niż równoważy ocieplenie spowodowane przez CO2, tak że to właśnie mętne powietrze należy winić za okres ochłodzenia od lat czterdziestych do siedemdziesiątych XX wieku.
Do najżarliwiej ostrzegających przed okresem chłodu należał amerykański klimatolog i późniejszy autor IPCC Stephen Schneider. Dla czterokrotnego wzrostu aerozoli wyliczył w 1971 roku globalne ochłodzenie o dramatyczne 3°C. W wypadku dalszego rozwoju tego trendu widział wręcz na horyzoncie zagrożenie totalną epoką lodową.
O ironio – Schneider był później także jednym z głównych bijących na alarm w kampanii globalnego ocieplenia. Krótko po tym zwrocie Schneider ostrzegał w 1979 roku w artykule na łamach “Palm Beach Post”, że lądolód na zachodniej Antarktydzie roztopi się jeszcze w XX wieku, a poziom mórz podniesie się o wiele metrów. W swoich wizjach przyszłości zatopił już w powodziach miasta na amerykańskim wybrzeżu, co wywarło ogromny wpływ na opinię publiczną.
30 lat po tej prognozie Nowy Jork & Co. wciąż jeszcze znajdują się na suchym lądzie. Poziom mórz podniósł się od tamtej pory o dziesięć centymetrów, co stanowi wartość, z którą można sobie poradzić. Na szczęście również ta apokaliptyczna prognoza ewidentnie się nie sprawdziła.
Inną prominentną osobą ostrzegającą przed ochłodzeniem w latach siedemdziesiątych był amerykański chemik i laureat Nagrody Nobla Linus Pauling. Obawiał się on, że ochłodzenie klimatu może skończyć się globalną katastrofą i stanowić najtrudniejszy do tej pory egzamin dla cywilizacji. Podobne refleksje miał amerykański Ad Hoc Panel on the Present Interglacial, który w 1974 roku prognozował mroźne czasy z rocznym przyrostem ochłodzenia wynoszącym 0.15°C do 2015 roku. Małe nadzieje miał też meteorolog ze Stanów Zjednoczonych James McQuigg. Oceniał on szanse na szybki powrót korzystnego, ciepłego klimatu lat trzydziestych XX wieku na “w najlepszym razie jeden do dziesięciu tysięcy”.
Co warte wzmianki – eksperci spodziewali się identycznych skutków, o jakich dzisiaj dyskutuje się w związku z aktualnym ociepleniem klimatu. Mielibyśmy nastawić się na więcej huraganów, susz, powodzi i klęsk głodu. Politycy, a wśród nich prezydenci USA John F. Kennedy, Richard Nixon i Gerald Ford, jak również sekretarz generalny partii komunistycznej w Związku Radzieckim Leonid Breżniew, zaczęli się bardzo martwić i uznali, że trzeba natychmiast działać. Dyskutowano, czy nie przegrodzić Cieśniny Beringa między Alaską a Rosją, by zatrzymać zimne arktyczne masy wody. Inna geoinżynieryjna propozycja z tamtych czasów dotyczyła polarnych czap lodowych. Rozważano przykrycie ich czarną folią w celu redukcji zdolności do odbijania promieni słonecznych (albedo). Chciano instalować na orbicie okołoziemskiej lustra jako dodatkowe słońca i wysadzać bombami atomowymi podwodne góry, by otworzyć wolną przestrzeń dla ciepłych prądów morskich. Innym pomysłem było znaczne rozkręcenie produkcji CO2 w celu zintensyfikowania efektu cieplarnianego.
Znaleźli się jednak i tacy eksperci, którzy nadal ostrzegali przed ociepleniem. Inni z kolei byli rozdarci między tymi dwoma obozami. Włoski twórca współczesnej paleoceanografii Cesare Emiliani ostrzegał w 1972 roku przed ewentualnymi apokaliptycznymi zagrożeniami z obu stron: “Działalność człowieka albo doprowadzi do nowej epoki lodowej, albo do kompletnego roztopienia się polarnych czap lodowych”. Kto potem jeszcze był w stanie spać spokojnie, temu nic już nie pomoże.
Dzisiaj – uważamy – jesteśmy trochę sprytniejsi. Jak obecnie wiemy, pod koniec lat siedemdziesiątych XX wieku fazę ochłodzenia zastąpiła faza ocieplenia (patrz rozdział 4 i 5). Eksperci okazali się elastyczni, schowali swoje ostrzeżenia przed zimnem do szuflady i całkowicie postawili na wariant z ostrzeżeniami przed ciepłem. Niełatwo być osobą prognozującą klimat. Ale już po dwóch dekadach na horyzoncie znów pojawiły się kłopoty. Powód: od 2000 roku Ziemia po prostu nie chce się nadal ocieplać. Od tego momentu temperatury oscylują wokół stabilnej wartości średniej. Nawet Joachim Schellnhuber musiał przyznać w 2009 roku: “Jest po prostu faktem, że globalna temperatura średnia ustabilizowała się na wysokim stałym poziomie średnim“.
Gdyby w nadchodzących latach miało dojść do ochłodzenia, deja-vu byłoby perfekcyjne. Ogólnie bowiem biorąc, okresu ochłodzenia lat sześćdziesiątych i siedemdziesiątych XX wieku nie spowodował człowiek, ale okres ten zaczął się już w 1940 roku wskutek zniżkowej fazy sześćdziesięcioletniego cyklu PDO (patrz rozdział 4). Sześćdziesiąt lat później cykl się zakończył i teraz znów jesteśmy na początku tego procesu. Dlatego zaskoczenie, że ocieplenie w ostatniej dekadzie zatrzymało się, ma granice.
[Ważna książka, bo ujawnia kłamstwa i oszustwa IPCC z pozycji ministra , i to niemieckiego. Ukazuje, dokumentuje rolę zmian NATURALNYCH, szczególnie cykli słonecznych i oceanicznych. W IPCC panika.. Tylko tłumaczenie koszmarne… MD]
Od 1990 roku IPCC wydał cztery raporty zawierające prognozy temperatur. Dlatego wydaje się zasadne porównanie prognozowanego kształtowania się temperatur z realnie mierzonymi krzywymi (rys. 73 w oryg. md). Prognoza temperatury w pierwszym raporcie z 1990 roku była zarazem najbardziej agresywną ze wszystkich opublikowanych dotąd przez IPCC. Temperatury realne plasowały się niemal w 100% poniżej prognozy uważanej za najbardziej prawdopodobną. W 2000 roku nożyce rozwarły się zupełnie, kiedy w realnym świecie ocieplenie się skończyło, a krzywa prognozowana dalej dzielnie strzelała w górę [rys. 73 w oryginale md].
W związku z tymi ewidentnymi rozbieżnościami w kolejnym raporcie z 1995 roku zdecydowanie zredukowano prognozowane temperatury. Nieco w tym jednak przesadzono, tak że tym razem średnia prognoza drugiego raportu o sytuacji klimatycznej plasowała się na ogół poniżej poziomu realnie mierzonych temperatur. Następnie, w trzecim raporcie IPCC z 2001 roku, znów założono, że nastąpi znaczne ocieplenie. Przez pierwsze lata prognoza sprawdzała się całkiem nieźle. Mierzone temperatury mieściły się w zakresie przewidywanym przez IPCC. Jednakże od 2004 roku realne wartości przez większość czasu plasowały się wyraźnie poniżej prognozowanego trendu. Prognoza ocieplenia sformułowana w raporcie z 2007 roku bardzo nieznacznie odbiega od prognozy z poprzedniej wersji i w związku z tym cierpi na tę samą przypadłość. Przez to, że w pierwszej połowie XXI wieku nie odnotowujemy ocieplenia, już po krótkim czasie pojawiła się rozbieżność między prognozą a realnymi wartościami pomiarowymi .
Staje się jasne, że żaden z tych modeli nie chce się sprawdzać. Już po kilku latach trzeba zastępować prognozy innymi i dostosowywać je do rzeczywistości. Żaden z modeli nie dowiódł dotąd, by był w stanie przedstawić wiarygodną prognozę. Żaden nie przewidział, że od 2000 roku ocieplenie nie będzie postępowało. Pół biedy, gdyby obecny brak ocieplenia miał zostać nadrobiony w kolejnych latach i wahania temperatury mieściłyby się w ogólnym trendzie rosnącym. Na to jednak nie wygląda, ponieważ zarówno aktywność słoneczna, jak i wewnętrzne cykle klimatyczne wykazują trend zniżkowy. Rozbieżność stanie się więc jeszcze większa, a prognozy będą coraz bardziej odbiegać od rzeczywistości.
Nasuwa się pytanie, jak coś takiego mogło przydarzyć się IPCC. Co poszło nie tak? Znaczny wzrost temperatur od późnych lat siedemdziesiątych do 1998 roku najwyraźniej tak bardzo przeraził naukowców, że po prostu ekstrapolowali ten wzrost ocieplenia na daleką przyszłość. Uszło przy tym ich uwagi, że mieli do czynienia ze stromo idącą w górę krzywą 60-letniego cyklu PDO [oceaniczny md] i że również po chwilowym spadku aktywność słoneczna wzrosła znów znacznie w latach siedemdziesiątych XX wieku (rys. 23 i 24). Nie zorientowali się, że gwałtowne ocieplenie było cyklicznym przypadkiem szczególnym, a nie stanem normalnym.
Wraz z osiągnięciem punktu kulminacyjnego przez PDO około 2000 roku widmo ocieplenia minęło, a temperatury przestały rosnąć. Dramatyczny spadek aktywności słonecznej oznacza, że w nadchodzących latach nastąpi faza ochłodzenia, którego CO2 nie zdoła zrównoważyć.
Czas uproszczonych prognoz klimatycznych IPCC minął. Już w najbliższym raporcie 2013/2014 IPCC musi się ostatecznie pożegnać ze swoimi rosnącymi liniowo prognozami. Trzeba je będzie zastąpić krzywymi o bardziej dopracowanym przebiegu, które uwzględnią trendy rosnące oraz spadkowe i które mają źródło w różnych nakładających się na siebie naturalnych cyklach. Dwutlenek węgla nadal jest integralnym elementem tego równania klimatycznego. Jednakże musi zrezygnować z dominującej roli, którą mylnie mu przypisywano.
W zamian stanie się teraz równoprawnym partnerem wśród wielu czynników klimatotwórczych, których wspólne oddziaływanie od milionów lat wywierało decydujący wpływ na sytuację klimatyczną Ziemi. Człowiek wiele może i z biegiem czasu znacznie zmienił świat. Jednak nie powinniśmy się przeceniać i sądzić, że nagle jesteśmy w stanie odebrać moc naturalnym siłom i procesom.
[Ważna książka, bo ujawnia kłamstwa i oszustwa IPCC z pozycji ministra i to niemieckiego. Ukazuje, dokumentuje rolę zmian NATURALNYCH, szczególnie cykli słonecznych i oceanicznych. W IPCC panika.. Tylko tłumaczenie koszmarne… MD]
================
Problemy z kontrolą wiarygodności
Wiadomo, że modele klimatyczne mające prognozować klimat przyszłości (forecasts), muszą również być zdolne do odzwierciedlania klimatu przeszłości (hindcasts). Tymczasem uznane modele IPCC mają z tym kłopot. Z reguły tylko częściowo odpowiadają realnej krzywej temperatur. Nie są w stanie w zadowalający sposób odzwierciedlać ważnych naturalnych cykli, takich jak dziesięcioletnia oscylacja pacyficzna (PDO) czy wyjątkowe zjawiska w rodzaju El Ninio Żaden z istniejących modeli klimatycznych nie przewidział braku wzrostu temperatury dla ostatnich dziesięciu lat. Na podstawie aktualnych modeli nie da się również dokonać wyliczeń dla średniowiecznego optimum klimatycznego sprzed tysiąca lat.
Pozostało to jednak w znacznym stopniu niezauważone, ponieważ IPCC dla konfrontacji z rzeczywistością przez lata korzystał z błędnych danych historycznych dotyczących temperatur w postaci krzywej kija hokejowego (rys. 26 w oryg. md). To nieuniknione: porównania z fałszywymi danymi wyjściowymi muszą prowadzić w ślepą uliczkę.
Osoby modelujące klimat niekoniecznie ignorują całkowicie przeszłość. Przeciwnie. Celem zawsze jest uzyskanie możliwie dobrej zgodności z rzeczywistością. Nie jest jednak jasne, jak dalece synchroniczność modelu i rzeczywistości potwierdza metodę kalkulacji. W modelach kryją się bowiem liczne, dowolnie dobierane parametry, które można wyznaczyć w taki sposób, że będą jak ulał pasować do krzywej docelowej. Te śruby regulacyjne stanowiące przedmiot gwałtownych kontrowersji i trudno weryfikowalne określa się również chętnie i pogardliwie mianem “fudge factors“, czyli “oszukańczych parametrów“. Niektórzy krytycy zarzucają Międzyrządowemu Zespołowi ds. Zmian Klimatu, że tak opracowuje modele klimatyczne, by przesadnie podkreślić ocieplenie wywołane przez gaz cieplarniany CO2.
Enrico Fermiemu, jednemu z najważniejszych fizyków jądrowych XX wieku, któryś z kolegów zwrócił raz uwagę na dobrą zgodność teorii i przeprowadzonego eksperymentu. Fermi zapytał go wówczas o liczbę dowolnie określanych parametrów. Kolega odpowiedział, że jest ich cztery. Fermi odparł na to: “Mój przyjaciel John von Neumann zwykł mawiać, że z pomocą czterech parametrów uda mi się wpasować słonia do mysiej dziury, a jeśli będzie ich pięć, to jeszcze skłonię go, by mi zamerdał trąbą”.
Co ciekawe, w raporcie IPCC z 2001 roku znajduje się na odległej 774 stronie następujące zdanie: “W odniesieniu do badania i modelowania klimatu trzeba jednak uznać, że mamy tu do czynienia ze sprzężonym, nielineranym systemem i z tego względu niemożliwe są długoterminowe prognozy przyszłej sytuacji klimatycznej”. Dziwi, że to ważne zdanie nie znalazło się potem w skróconej wersji dla polityków ani w 2001, ani w 2007 roku.
A jednak nas wykorzystują
W związku z wyżej opisanymi, zasadniczymi ograniczeniami modele klimatyczne są w najlepszym razie niekompletną prezentacją bardzo złożonej rzeczywistości. Dlatego dzisiejsze modele klimatyczne nie mogą dostarczyć szczegółowych prognoz klimatycznych odnoszących się do przyszłych dziesięcioleci. Wynika to również stąd, że nie uwzględniają w sposób wystarczający takich czynników klimatotwórczych jak zmienna aktywność słoneczna. Mimo wszystko symulacje te mają oczywiście pewną wartość dla badania klimatu przyszłości. Modele klimatyczne pomagają mianowicie w porównaniu różnych scenariuszy. Dokonuje się przy tym obliczeń dla serii modeli, w których każdorazowo zmienia się pewne parametry. W ten sposób można uzyskać informacje o trendach znaczących z klimatycznego punktu widzenia i uwzględnić je w prognozach. Jak powiedział znany statystyk George E. Box: “Wszystkie modele są fałszywe, ale niektóre są przydatne”.
Kiedy ma się świadomość tych ograniczeń, ale także możliwości modeli, można prawidłowo kwalifikować ich wyniki. Tak z black box robi się grey box. W tym kontekście bezwarunkowa wiara w wyniki dostarczane przez komputery ewidentnie przeczyłaby zasadniczej idei modelowania klimatu. Nigdy nie dojdzie do tego, że komputer beztrosko i całodobowo będzie wypluwać kompletny pakiet klimatyczny. Zawsze potrzeba jeszcze człowieka myślącego krytycznie, który z cyfrowego strumienia danych dopiero z wysiłkiem wyfiltruje prawdziwy wpływ danego czynnika na klimat i będzie musiał wyważyć swoje twierdzenia z alternatywnymi możliwościami interpretacji.
Zmiana strategii prognozowania klimatu
Wydaje się nieprawdopodobne, by prognozy klimatyczne faworyzowane obecnie przez IPCC mogły prawidłowo odzwierciedlać rzeczywistość. Jak to bowiem omówiliśmy w poprzednich rozdziałach, IPCC po prostu ignorował lub nie doceniał Słońca ani innych cykli klimatycznych. Jednak każdemu wolno popełniać błędy, a to oczywiście dotyczy także IPCC. Ale jest możliwość, żeby w przyszłych raportach o sytuacji klimatycznej usunąć te niedomogi. Miejmy nadzieję, że tak się stanie.
Jak mogłaby wyglądać poprawiona strategia prognozowania, która uwzględniałaby wszystkie istotne czynniki? Przede wszystkim odstawmy zatrważająco drogie elitarne komputery, bo potrzeba nam czasu, by jeszcze raz bardzo dokładnie przemyśleć kwestie absolutnie podstawowe. Kiedy bowiem chwieją się w posadach te dane bazowe, czyli równania stosowane w modelach, wówczas całe żmudne wyliczenia tracą wartość. Rubbish in – rubbish out [włożysz śmieci – zyskasz śmieci].
Wróćmy więc do punktu wyjścia i zadajmy sobie pytanie, traktowane dotąd o wiele za mało poważnie: jak właściwie kształtował się klimat w przeszłości, zanim człowiek wkroczył do akcji? Czy uda się może zidentyfikować pewne wzory zmian, które powtarzały się cyklicznie? Trzeźwe, oparte na danych spojrzenie w przeszłość jest tu lepsze niż wszelkie super-matematyczne modelowania z zastosowaniem high tech. Jeśli jakieś zjawiska nastąpiły już x razy w epoce przedindustrialnej, jakie jest prawdopodobieństwo, że znikną akurat za naszego życia? Czy naprawdę możemy oczekiwać, że naturalne procesy wokół nas nagle się zatrzymały i świat będzie od tej pory posłuszny wyłącznie ludzkiemu wpływowi na klimat, który to wpływ oczywiście bez wątpienia również istnieje?
Wszyscy badacze klimatu powinni odpowiedzieć na to pytanie jednoznacznym nie, ponieważ tak nakazuje rozsądek. Naturalne elementarne wzory klimatyczne przeszłości istnieją również dzisiaj i trzeba je uwzględniać w prognozach na przyszłość, nawet jeśli nie znamy jeszcze we wszystkich szczegółach tej naturalnej dynamiki klimatu. Dla potrzeb naszej prognozy klimatu musimy następnie do tej podstawowej dynamiki dodać wpływ czynników antropogenicznych. Możliwe są pewne wzajemne oddziaływania, które trzeba dokładniej zbadać.
Mocne wystąpienie posła Konfederacji Dobromira Sośnierza. Polityk zwrócił się w nim do minister klimatu Anny Moskwy, nazywając ją „zdrajcą bez kręgosłupa”.
Sośnierz wyszedł na mównicę sejmową, by złożyć „wniosek o zmianę porządku obrad”.
– Chcielibyśmy umożliwić pani minister Moskwie pochwalenie się przebiegiem negocjacji ws. pakietu klimatycznego, w ramach którego zgodziliśmy się już – w imieniu Polski – porzucić samochody spalinowe – rozpoczął poseł Konfederacji.
– Przypomnijmy, że jeszcze dzień wcześniej pani minister zapowiadała nasz stanowczy sprzeciw: „Ani rynek ani społeczeństwo nie jest na to gotowe” – grzmiała pani minister – wskazał Sośnierz.
– „Dopóki nie będziemy mieli na rynku aut, które mogą przejechać przykładowo tysiąc kilometrów bez konieczności zatrzymywania się po drodze na dwie godziny, żeby doładować akumulatory, społeczeństwo nie zaakceptuje takich pomysłów” – cytował dalej słowa minister klimatu.
– A potem przyszły negocjacje w Radzie Unii Europejskiej, pani minister przyszła, walnęła pięścią w stół i cała Europa usłyszała nasze stanowcze „no dobra, niech wam będzie” – ironizował Sośnierz.
Najmocniejsze słowa zostawił jednak na koniec. – I teraz o tym, za ile nas sprzedano, za jakie bezcenne zyski Rzeczpospolita zgodziła się znowu upokorzyć, o tym, jak to jest być zdrajcą własnego narodu, bez kręgosłupa – mam nadzieję opowie nam teraz pani minister Anna Moskwa. Zapraszamy – zakończył.
Nie obyło się bez komentarza ze strony prowadzącej obrady Elżbiety Witek. – Panie pośle, oczywiście tego w katalogu wniosków formalnych nie ma i pan doskonale o tym wie – powiedziała marszałek Sejmu.
[Czy mogę być ludzie aż tak bezczelnie głupi? Niewiarygodne, więc to pewnie oboje se wymyślili, ten wywiad? MD]
– Osoby, które mniej zarabiają, konsumują kolosalne ilości mięsa. (…) To zadanie dla instytucji, żeby ludzi uświadamiać i tłumaczyć im np., że nie mają tyle, za przeproszeniem, żreć. Jak idę do sklepu w mojej okolicy, to ludzie wynoszą takie siaty mięsa, że ja nie wiem, co z tym robią. Tu jest praca do wykonania. Ludzie naprawdę nie muszą jeść tyle, ile jedzą – uważa polski milioner Janusz Filipiak. Odniósł się w ten sposób do „wyzwań związanych ze zmianami klimatycznymi”. Mówił również o osobach latających samolotami pasażerskimi na wakacje.
Jeden z najbogatszych Polaków, prezes Comarchu i profesor nauk technicznych Janusz Filipiak tłumaczył w podcaście Forum IBRiS, jak należy poradzić sobie z globalnym zanieczyszczeniem środowiska.
– Jest coraz gorzej a niewiele się robi. Zgłasza się hasła polityczne, ale jest mało działań. Musi być 47 stopni Celsjusza, żebyśmy ten problem traktowali poważnie? – zastanawiał się na wstępie gość Agaty Kołodziej.
Janusz Filipiak: Ludzie nie powinni żreć tyle mięsa i latać na wakacje na Kretę
– 10 proc. najbogatszej części świata odpowiada za połowę emisji CO2 – wskazała prowadząca.
W odpowiedzi milioner stwierdził, że nie zna danych, o których mowa, przez co trudno mu się odnieść do zagadnienia w merytoryczny sposób. – Jednym z największych źródeł emisji CO2 jest hodowla zwierząt. Osoby, które mniej zarabiają, konsumują kolosalne ilości mięsa, co właśnie generuje CO2 – przekonywał Filipiak.
– Ja jestem milionerem, ale sąsiedzi świadkiem, że wybudowałem potężną farmę fotowoltaiczną i farmę pomp ciepła, i ja tej energii nie konsumuję – dodawał, deklarując, że jest “zeroemisyjny”. Sam raport, na który powołała się prowadząca, określił mianem “populistycznego” i dodał, że nie jest pewny, że “pokazuje on złożoność zjawisk”.
– Duże bogactwo generuje z kolei popyt na dobra luksusowe. Kupowane wówczas dobra nie wynikają z potrzeb, co uważane jest za szkodliwe dla klimatu zjawisko – dociekała prowadząca. Profesor zaczął się wówczas tłumaczyć z posiadanego samolotu, przekonując o niskiej szkodliwości swojej maszyny dla środowiska.
– Mam z tym problem, nie dlatego, że chcę się bronić i uciekać od odpowiedzialności. Zastanówmy się – jak kolosalna dawka emisji pochodzi z samolotów pasażerskich, np. starych boeingów, a ile z tego mojego samolociku? Równie dobrze ja mogę odbić piłeczkę i jako milioner powiedzieć: ludzie, lecicie na Kretę na urlop i zanieczyszczacie planetę, tak? Niech pani to wytłumaczy tej niższej warstwie społecznej, przepraszam, nie mamy warstw społecznych w Polsce. Ale niech pani wytłumaczy tym ludziom, którzy mniej zarabiają, żeby na wakacje nie latali. Ja tego argumentu nie “kupuję”, bo cóż można powiedzieć – nie latajmy? – dodawał prof. Filipiak.
– To może nie latajmy – byłby pan skłonny? – dopytywała prowadząca.
– To nie latajmy, ja latam służbowo. To zadanie dla instytucji, żeby ludzi uświadamiać i tłumaczyć im np., że nie mają tyle, za przeproszeniem, żreć. Jak idę do sklepu w mojej okolicy, to ludzie wynoszą takie siaty mięsa, że ja nie wiem, co z tym robią. Tu jest praca do wykonania. Ludzie naprawdę nie muszą jeść tyle, ile jedzą – kontynuował.
Janusz Filipiak: Mnie bardzo bulwersują zarobki bankierów
Janusz Filipiak wypowiedział się również na temat wynagrodzenia za pracę.
– Sporo informatyków zarabia po 25 tys. zł, a dziewczyna na recepcji 4 tys. i można powiedzieć, że to niesprawiedliwe, bo dlaczego tak? Młodzi ludzie muszą mieć perspektywę zarabiania dużych pieniędzy. To nie wyklucza ludzi, którzy dostają bazową pensję i niewiele robią. Tak to widzę: osoby, które mają mniej ochoty do pracy i chcą pracować cztery dni w tygodniu powinny mieć wynagrodzenie pozwalające na godne życie, a osoby, które “ciągną” gospodarkę, powinny mieć możliwość dobrych zarobków – mówił.
– Mnie bardzo bulwersują zarobki bankierów – oni spijają śmietankę, nie przyczyniając się do rozwoju gospodarczego – orzekł prof. Filipiak.
========================
mail:
pozwoli Pan, iż przytoczę słowa tego wielkiego naukowca oraz geniusza biznesu:
Każdego specjalistę można zastąpić skończoną liczbą studentów…
Cytat jest doskonałym opisem stanu intelektu, który ewoluuje w stronę eko-terroru.
Dlaczego zapomniano o Climate Gate? Czyli o fałszowaniu danych klimatycznych dla IPCC
[Więc z uporem przypominam.. M. Dakowski]
Na świecie istnieje kilka głównych baz danych klimatycznych. W USA są to: GISSTEMP (Goddart Insitute for Space Science) należący do NASA (National Aeronautics and Space Administration), RSS (Remote Sensing System) przy UAH (University of Alabama Huntsville) oraz NCDC (National Climatic Data Center) przy NOAA (National Oceanic and Atmospheric Administration). W Anglii jest to MOHC (Met Office for Hadley Center for Climate Sciences and Services) przy University of East Anglia. Instytucje te przez wiele lat cieszyły się zaufaniem i międzynarodowym szacunkiem. Niestety w sprawach obserwacji klimatycznych i ocieplenia klimatu popełniły w ostatnich latach wiele błędów i celowych dezinformacji.
W roku 2009 wyciekły do internetu setki prywatnych maili pracowników naukowych MOHC. W tej korespondencji dzielili się między sobą komentarzami na temat braku ocieplenia klimatu w ostatnich kilkunastu latach i pilnej potrzebie ukrycia tej informacji przed innymi naukowcami i opinią publiczną.
Pracownicy ci planowali jakie dane najlepiej publikować i komu przedstawiać je do aprobaty przed publikacją. Była to tzw. afera “Climategate”. Doprowadziło to do niewielkich zmian personalnych w tym instytucie. Wkrótce potem MOHC przeprowadziło porządki w danych klimatycznych. Raporty klimatyczne z ponad stu lat zostały wprowadzone do komputerów i poddane homogenizacji czyli ujednoliceniu. Oryginalne dane zostały wyrzucone na śmieci ze względu na “brak miejsca” w nowym budynku instytutu. W tej chwili dostępne są tylko nowe, spreparowane dane.
GISS w ostatnich latach opublikował wykresy temperatury wykazujące, że obecnie mamy najcieplejszy okres. Niestety wykresy te otrzymano dopiero po wprowadzeniu “poprawek”. Polegały one na obniżaniu temperatury o 0,5 do 3,0 °C w poprzednich okresach historycznych. W ten sposób maskuje się fakt, że w okresie średniowiecznego ocieplenia a także w latach 20. i 30. XX w temperatura była wyższa niż obecnie. Obrazuje to rys. 41.
Rys. 41. Średnia temperatura w latach 1900-2000 ze stacji meteo w mieście Genewa w stanie Nowy Jork. Linia zielona-dane oryginalne. Linia niebieska-dane po poprawkach.
Poniżej przedstawiamy kilka innych przykładów fałszowania danych klimatycznych pochodzących z różnych instytucji.
Następnym przykładem manipulacji danymi jest poniższy wykres obrazujący rok 2016 jako nagorętszy w historii. Krytycy zwracają tu uwagę na fakt iż najgorętszymi terenami są te gdzie nie ma stacji meteorologicznych. Zastosowano tu homogenizację oraz ekstrapolację danych to znaczy, że dane zostały najpierw ujednolicone a potem przeniesione na tereny skąd nie pochodzą żadne obserwacje jak Syberia, środkowa Australia czy Arktyka.
W 2016 roku Gavin Smith z NASA opublikował artkuł, w którym stwierdził, że 2014 rok był najgorętszy w historii. Było to szeroko cytowane w prasie a prezydent Barack Obama wykorzystał tę publikację na konferencji IPCC w Paryżu aby poprzeć teorię AGW i przygotować rezolucję ograniczającą produkcję CO2przez Stany Zjednoczone. Niestety można tu powiedzieć, że Gavin przygotował publikację na zamówienie administracji.
Wytknięto mu, że w jego artykule średnia temperatura w 2014 roku była wyższa tylko o 0,04 °C a więc pod wzgłędem statystycznym była bez znaczenia. Ponadto Gavin nie chciał udostępnić swoich metod obliczeniowych a potem stwierdził, że komputer na którym miał wszystkie dane uległ zniszczeniu. Przykładów tego typu poprawek, korekt, doniesień i publikacji można by przytaczać bardzo wiele.
Spowodowało to stan pewnego załamania naukowego gdyż wiele danych zostało utraconych a inne nie są miarodajne. Sytuacja ta doprowadziła do protestów w świecie naukowym i tak w 2016 roku grupa 300 naukowców-fizykow meteorologów, inżynierów chemików, geologów i innych specjalistów wysłała do Sejmowej Komisji d/s Nauki, Przestrzeni Kosmicznej i Technologii list krytykujący działania NASA i NOAA w zakresie badań i publikacji klimatycznych.
Działania te zaowocowały dochodzeniem w Kongresie USA, w którym stwierdzono wiele nieprawidłowości w tych instytucjach. Dwa lata później administracja Donalda Trumpa ograniczyła status Agencji Ochrony Środowiska (EPA), która była jednym z głównych narzędzi Baracka Obamy do forsowania polityki klimatycznej. Nowy szef zakazał pracownikom EPA publicznych wypowiedzi i niesprawdzonych publikacji. Zmniejszono budżet o 30%, zniesiono przepisy wprowadzone przez poprzednią administrację i ograniczono zasięg działalności tego ministerstwa. Niestety na codzień z mediów docierają do społeczeństwa jednostronne doniesienia o globalnym ocieplaniu.
Przykładem tego może być artykuł z października 2018 r w renomowanym piśmie “Nature” zatytułowany “Obliczenie pochłaniania ciepła przez oceany na podstawie zmian poziomu O2 i CO2 w atmosferze”. Autorzy tego artykułu Lauren Resplendy i Ralph Keeling, z kalifornijskich uniwersytetów stwierdzili, iż ocieplenie oceanów przebiega o 60% szybciej niż przewidywało to IPCC!
Był to nowy naukowy dowód nie tylko na obecność AGW lecz także na coraz większą dynamikę niebezpiecznych zjawisk. Wskazywano na istnienie nadmiaru ciepła na ziemi, niemożność jego wypromieniowania w przestrzeń i przyśpieszone pochłanianie go przez oceany. Pracę tę cytowano powszechnie w wielu krajach a IPCC dołączyło ją do swoich dokumentów. Apelowano o ograniczenie produkcji CO2. Wkrótce artykuł przeczytał matematyk, emerytowany naukowiec Nicholas Lewis, który już na pierwszej stronie znalazł dwa podstawowe błędy w metodzie obliczeniowej.
Po pierwsze niepoprawnie obliczono różnicę stężenia CO2oraz źle wyliczono zakres błędu statystycznego. Na podstawie tych obliczeń nie można było wyciągać żadnych wniosków o pochłanianiu ciepła przez wody oceanów. Lewis kontaktował się w tej sprawie z autorami publikacji jednak nie otrzymał odpowiedzi i opublikował swoje uwagi na blogu krytycznie nastawionym do teorii globalnego ocieplenia. (http://www.realclimate.org/index.php/archives/2018/11/resplandy-et-al-correction-and-response/). Krótko po tym autorzy publicznie przyznali się do błędu stwierdzając, że się “pomylili” a ich recenzent “nie zauważył” tego przed publikacją. W ten sposób szanowane pismo naukowe dołączyło do publikatorów propagandy globalnego ocieplenia.
Innym przykładem okłamywania opinii publicznej jest opis pożarów w Kalifornii. We wrześniu 2018 roku doszło do zaprószenia ognia w lesie na północy tego stanu. Było to w końcu okresu suchego i na dodatek wiały wiatry św. Anny, które przenoszą suche powietrze z lądu w kierunku oceanu z szybkością do 100 km/godz. Pożar szybko przerodził się w nieopohamowaną burzę ogniową, która zniszczyła tysiące hektarów suchych o tej porze roku lasów, 12 tysięcy domów i zabudowań a także tysiące samochodów.
W katastrofie zginęło ponad 100 osób. Dokładna liczba ofiar nigdy nie będzie znana gdyż wiele ciał spaliło się całkowicie nie pozostawiając śladu. Miasteczko Paradise położone w zalesionej okolicy zostało w całości pochłonięte przez ogień. Pożar ten spowodował straty finansowe rzędu kilkuset bilionów dolarów. Na walkę z ogniem wydano 440 mln dolarów czyli roczny budżet przeznaczony na te cele.
Pożary w Kalifornii trwały dłuższy czas i w ciągu dwóch dni wprowadzały do atmosfery tyle zanieczyszczeń co wszystkie auta w tym stanie w ciągu roku. W 10 dni po pożarach okres suchy zakończył się nadejściem obfitych opadów deszczu i śniegu. Zanim jednak zgliszcza ostygły gubernator Kalifornii Jerry Brown obwieścił, że przyczyną katastrofy było globalne ocieplenie, które doprowadziło do zmniejszonych opadów deszczu, suszy i następnie pożarów.
Oczywiście powtarzano to w wielu mediach w USA i na świecie. Wszędzie mówiono o kilkuletniej suszy i pożarach jako jeszcze jednym potwierdzeniu istnienia zaburzeń klimatycznych pochodzących od człowieka. Zaprzeczają temu dane opublikowane przez NOAA, które przedstawia rys. 44.
Widać na nim, że na przestrzeni ponad 100 lat ilość opadów w Kalifornii się nie zmieniła. Czyli to nie brak wody spowodował katastrofę. Zobaczmy jakie były prawdziwe przyczyny pożarów. W ostatnich kilkudziesięcu latach zbudowano tysiące domów na terenach zalesionych. Domostwa są otoczone drzewami i krzewami, które często przylegają do budynków. Nie przestrzegano strefy buforowej, dzięki czemu ogień mógł się łatwo przenosić. Statystyki wykazują, że przyczyną pożarów w ponad 90% jest działalność ludzka i może to być celowe podpalenie lub przypadek.
Tam gdzie mieszka więcej osób tam jest większe ryzyko podpalenia. Przyczyny naturalne stanowią tylko 5-6% pożarów. Innym powodem jest niewłaściwe zarządzanie lasami. Obszary leśne w USA są pod opieką państwowej służby leśnej, której działalność określają odpowiednie ustawy wprowadzane przez kolejnych prezydentów. W roku 2012 przepisy te zmienił Barack Obama. Wprowadził zapisy, których domagały się radykalne grupy środowiskowe jak Greenpeace, Tree People, Nature Conservancy, Sierra Club, Friends of Earth i inne. W myśl nowej ustawy służby leśne miały zakaz usuwania obumarłych drzew i krzewów oraz przerzedzania zbyt gęstych lasów.
Ustawa ta była od początku krytykowana przez leśników i strażaków, którzy twierdzili, że w zwiększy ona ryzyko pożarów i chorób drzew. W 2015 roku Kongres USA przygotował nową ustawę o lasach popieraną przez obie partie ale prezydent ją odrzucił. W Kalifornii, która jest co roku nękana pożarami przygotowano w 2016 roku specjalną ustawę o Zapobieganiu Pożarow Lasów (SB 1463). Fachowcy mówili o 140 mln obumarłych drzew w lasach, które mogą stać się paliwem dla ognia. Autorem jej by republikanin John Moorlach i zyskała ona 100% poparcia w stanowym senacie i sejmie. Po raz pierwszy dosłownie wszyscy politycy na nią głosowali.
Niestety lewicowy gubernator stanu Jerry Brown tę ustawę odrzucił. Nie podał on konkretnych podstaw swojej decyzji. Po prostu dla niego skrajne środowiskowe poglądy są ważniejsze niż fachowe argumenty. Brak odpowiedniego zarządzania lasami trwał dalej i w dwa lata później doszło do tragedii a gubernator brak kompetencji, głupotę i zaślepienie ideologiczne zasłanił globalnym ociepleniem. Obecnie leśnicy oceniają, że zwiększone ryzyko pożarów jest w 60% lasów państwowych i że w 75% przypadków jest to spowodowane brakiem wycinania i usuwania drzew. W Kalifornii do pożarów dodatkowo przyczyniły się bardzo obfite opady deszczu w ostatnich dwóch latach co sprzyjało wegetacji roślin i pozostawiło więcej “paliwa” po okresach mokrych. Nawiasem mówiąc w lutym 2017 roku omal nie doszło do katastrofy kiedy opady deszczu przepełniły największy sztuczny zbiornik Ogoville i przelewająca się woda zaczęła podmywać zaporę. Ewakuowano wtedy ponad 100 tys ludzi. Na szczęście kilkudniowa przerwa w opadach pozwoliła na opanowanie sytuacji. Gubernator Brown o tych sprawach zdaje się jednak nie pamiętać.
P.S. Powyższy artykuł jest zwiastunem większej, przeglądowej pracy, którą będę zamieszczał w kilku częściach.
“Zasada trójki” mówi, że można przeżyć 3 tygodnie bez jedzenia, 3 dni bez wody i 3 minuty bez tlenu. Są to oczywiście liczby przybliżone i dotyczące zwykłych śmiertelników. Jeśli chodzi na przykład o bezdech, to światowy rekord w tej dziedzinie został ustanowiony w 2009 r. przez Stéphanea Mifsuda i wynosił 11 minut i 35 sekund. Potem wynik ten został pobity w 2012 r. przez Toma Sietasa, ale był on„podkręcony”, bowiem rekordzista oddychał wcześniej przez dłuższy czas czystym tlenem (1).
Normalny człowiek, wcześniej nie trenujący, jest w stanie przeżyć bez tlenu właśnie owe trzy minuty. Później dochodzi u niego do nieodwracalnych zmian w mózgu, związanych z niedotlenieniem.
Co się dzieje jeśli dostarczamy organizmowi zbyt mało tlenu? Grozi nam hipoksja. Mamy z nią do czynienia nie wtedy, kiedy odetniemy się od tlenu od razu, ale wówczas, kiedy przez dłuższy czas dostarczamy organizmowi niewystarczającą ilość pierwiastka życia. Początkowymi objawami hipoksji mogą być bóle i zawroty głowy, duszność, osłabienie, senność, zaburzenie widzenia, przyspieszenie oddechu i tętna oraz podwyższenie ciśnienia tętniczego. Kiedy zaś wystąpi zwiększone stężenie dwutlenku węgla we krwi, może mieć to dużo poważniejsze konsekwencje(2).
Ale również i nadmiar tlenu prowadzi do niebezpiecznego nadciśnienia i innych problemów zdrowotnych(3).
Ilość tlenu w ziemskim powietrzu utrzymuje się wciąż na tym samym, zadziwiającym poziomie. Wynosi on 20,95 % objętości wszystkich atmosferycznych gazów. Za mała jego ilość na planecie mogłaby spowodować powszechną hipoksję, zbyt duża – hiperoksję i wybuchy pożarów. Czyli, trywializując, jeśli było by go zbyt mało udusilibyśmy się, jeśli zbyt dużo – usmażyli. Żeby ten stan równowagi się utrzymał, musi istnieć mechanizm, który zmusza rośliny do większej czy mniejszej produkcji tlenu. Ale choć roślin wciąż ubywa, a populacja ludzka nieustannie rośnie, produkując w epoce postępu technicznego, niewspółmierne do jej wielkości ilości CO2, to procentowy udział pierwiastka życia w atmosferze i tak pozostaje niezmienny. Dlaczego? Ponieważ ma w tym swój udział również proces topnienia lodowców. Podczas ich roztapiania się, do oceanów uwolnione zostają substancje odżywcze, które są pokarmem dla okrzemek. To one produkują 50% tlenu, obecnego na Ziemi. Gdy okrzemki mają pod dostatkiem pokarmu, ich ilość codziennie podwaja się, więc im szybciej proces topnienia następuje, tym więcej okrzemek przybywa. Jednak nie grozi nam hiperoksja. Bowiem podwyższona ilość tlenu spowoduje, na przykład pożary, których dymy – gdy zjawisko stanie się powszechne – odetną ziemię od światła słonecznego, ochładzając klimat i redukując ilość okrzemek. Te zaś obumierając, opadną na dno mórz i oceanów, jak morski śnieg, tworząc warstwę po warstwie. Okrzemkowy dywan ma obecnie grubość 800 metrów. W końcu dno, gdzie żerowały okrzemki, w niektórych miejscach wypiętrzy się na tyle, że powstanie tam słona pustynia. Taka sama, jak ta afrykańska, z której pył dociera do Amazonii. A ten pył, który ją użyźnia, są to właśnie szczątki obumarłych okrzemek. Proces bio-odnowy ruszy na nowo z kopyta.
Wszystko więc – jak widać – wzajemnie łączy się i uzupełnia, stanowiąc niezwykły, żywy mechanizm, którego istotą – jak wnioskuję – jest m.in. stały poziom tlenu niezbędny do funkcjonowania ludzi, oraz zwierząt.
Gdyby ktoś sądził, że to nasze organizmy, w ramach ewolucji dostosowały się do takiego składu powietrza, to powinien umieć odpowiedzieć również na to, dlaczego od 50 mln lat udział tlenu w atmosferze trwa nieystannie przy owych 21 procentach(4).
Wszystko to, co napisałem, jest doskonale znane naukowcom. Jednak zasadnicze pytanie, jakie zadają sobie oni w związku z tą wiedzą brzmi: jak spowolnić proces emisji gazów i dwutlenku węgla, aby lądy nie uległy zalaniu i nie nastąpiły nieodwracalne zmiany klimatyczne na Ziemi?
Zero pytania o tlen – jakby jego stała ilość była oczywistością. Może i jest. Ale skoro tak – jeśli istnieje naturalny i Pangenialny(5) mechanizm regulacji – po co w niego ingerować? Moim zdaniem podstawowe pytanie powinno brzmieć – w jaki sposób powstał mechanizm, który chroni człowieka i zwierzęta? Odpowiadając sobie na nie, odpowiemy też, czy jest sens przejmować się tymi negatywnymi procesami, które według ekologistów mają ponoć zagrażać Ziemi. Ja w każdym razie nie potrafię dać ani jednego przykładu, gdzie coś wymyślonego przez człowieka, byłoby lepsze od naturalnego. (Koniec dygresji.)
Skoro więc wiadomo, że do życia potrzebne jest nam powietrze zawierające około 21% tlenu, i że planeta pracuje usilnie, aby nam taką właśnie jego dawkę dostarczyć, pomyślmy o samym oddychaniu. Czy robimy to dobrze? Można się ironicznie uśmiechnąć na tak postawione pytanie. Jak można robić źle coś, co robi się automatycznie?! Rzecz, która jest dosłownie pierwszą czynnością jaką człowiek wykonuje zaraz po urodzeniu. A jednak może. Ja, złapałem się na tym, że oddycham bardzo płytko, co niestety nadrabiam częstotliwością. Jakbym się zdyszał, albo nieustannie czegoś bał. Kiedy zgłębiłem temat, okazało się, że oddycham źle, przez co jestem zwykle zmęczony, często brakuje mi słów, mam problemy z analizą danych, emocjami, koncentracją, itp. Często będąc w stresie mam nawet odczucie, że w ogóle nie mogę głęboko nabrać powietrza.
Okazuje się, że człowiek rodzi się z umiejętnością prawidłowego oddychania, ale później różnego rodzaju traumy życiowe, oraz stres, powodują, że zostaje ona przytłumiona i wypacza się. Tymczasem nasze ciało, gdy nie zagraża mu niebezpieczeństwo, powinno oddychać głęboko i spokojnie. Jeśli ktoś – podobnie jak ja – tak nie oddycha, to jeśli tylko chce, może szybko sobie przypomnieć tę wrodzoną umiejętność.
Jak powinno się poprawnie oddychać? Przeponą. Jest to „oddychanie brzuszne”. Tak właśnie oddychają dzieci. Zaledwie kilka minut takiego oddychania pozwala na odzyskanie spokoju, zwiększenie koncentracji, czy opanowanie stresu, lub jeśli się jest w stanie zgnuśnienia – na wewnętrzną mobilizację. Jest nawet ćwiczenie, które pozwala szybko sobie przypomnieć, jak powinno się oddychać. Najpierw jednak trzeba przyjrzeć się swemu codziennemu oddechowi. Chwilę śledzić czy powietrze wypełnia (i jak wypełnia) piersi czy brzuch. Prześledzić jego drogę w głąb ciała i potem na zewnątrz. Gdy zauważymy, że ta obserwacja staje się na tyle nudna dla naszego umysłu, że zaczyna on szukać innych myślowych atrakcji, trzeba – uświadomiwszy sobie to – spokojnie, ponownie włączyć go w proces świadomego oddychania. W tym celu należy zacząć od „wykonywania wdechów nosem, a wydechów ustami. (…) Jest to, jedyny sposób na przefiltrowanie bakterii i potencjalnych wirusów, które w przeciwnym razie trafią do naszego organizmu.(…)(6)”. Na początku trzeba też wziąć nieco głębszy oddech niż zwykle, a następnie pozwolić powietrzu chwilę spokojnie wnikać w ciało. Następnie zrobić wydech. „Powinien trwać mniej więcej 3 razy dłużej niż wdech”(7). W literaturze przyjmuje się, że powinno się układ tego rodzaju wdechów i wydechów wykonać przynajmniej 21 razy(8). Podczas tego ćwiczenia, od czasu do czasu nasz umysł popada w stan rozproszenia. Kiedy go na tym przyłapiemy, stwierdzamy po prostu ten fakt i powracamy z powrotem do oddechu: „wdech”, „wydech”. Cały czas staramy się nie odbiegać myślami od tego procesu. Obserwujemy. Strumień powietrza wchodzi przez nos. Podążamy za nim myślą, koncentrując się dowolnym odcinku jego drogi. Może to być nos, albo brzuch, albo ta część ciała która sygnalizuje nam ,że się – na przykład – rozluźniła, albo odwrotnie – wskazuje na napięcie. Można zmieniać obserwację kolejnych części ciała podczas tych wdechów i wydechów.
Gdy wykonujemy to ćwiczenie może opanować nas ziewanie, albo mamy ogromną ochotę się przeciągnąć. To bardzo dobrze. Należy zaufać ciału i poddać się mu, nie przerywając procesu, które samoczynnie zainicjowało, aż samo powie:„dosyć”. Ono najlepiej wie, czego nam potrzeba. Najlepiej obserwować dokładnie co dzieje się wówczas w ciele, które partie płuc wypełniają się powietrzem, jakie części ciała rozciągają się. Nie należy przerywać tego naturalnego procesu. Niech trwa on jak najdłużej.
Dzielę się z tym z Wami, bo odkryłem, jak ważna jest umiejętność prawidłowego oddychania. Nawet biorąc na logikę – jest to przecież rzecz fundamentalna, bo na niej opiera się nasze życie. Uświadomiłem też sobie, że w miarę jak obserwuję swój oddech i włączam w proces oddychania swoją świadomość – lepiej panuję nad sobą i potrafię lepiej się odnaleźć w kryzysowej sytuacji. Czuję, że moje ciało działa bardziej harmonijnie. Bardziej też akceptuję siebie. Nie tylko. to.
Przychodzą mi też do głowy lepsze rozwiązania i pomysły. Coraz częściej zastanawiam się na przykład nad tym, czy maseczki, które każą nam nosić, wręcz nie pogłębiają – redukując ilość koniecznego nam tlenu i wzmagając niepokój, który osłabia nasz – uczący się i od setek tysięcy lat modyfikujący się, Pangenialny jak i cały świat w którym żyjemy – układ odpornościowy.
(2) https://www.doz.pl/czytelnia/a15863-Hipoksja_niedotlenienie_organizmu__przyczyny_objawy_leczenie_i_rodzaje_niedotlenienia Ten artykuł wymienia wiele różnego rodzaju problemów spowodowanych hipoksją. Są to m,in splątanie, zaburzenie świadomości, a nawet śpiączka. W dłuższym okresie czasu może dojść do nadciśnienia płucnego, niewydolności serca, nadmiernej produkcji krwinek czerwonych czy rozwoju chorób nowotworowych, zaburzeń pamięci, oraz osobowości. Także układ krwionośny i nerki są bardzo wrażliwe na brak tlenu. Nie wymieniam ich w tekście głównym z uwagi na to, że obecnie bardzo modne stało się epatowanie chorobami. Straszenie powikłaniami zdrowotnymi stało się już tak obrzydliwe, że unikam go, gdzie tylko mogę. Stres obniża odporność organizmu, jest więc pierwszą rzeczą jaką w dobie tzw. ”pandemii” należałoby zaprzestać. Chyba, że tak naprawdę nie zależy nam na tym, tylko na jej nasileniu.
(5) Pangenialny – wpadłem na to słowo, bo nie chciałem używać słowa „kongenialny”, jako moim zdaniem dotyczące ludzi. Okazuje się jednak, że słowo to rzeczywiście istnieje w języku chińskim i o dziwo ma takie znaczenie jakie chciałem my nadać, Oznacza mianowicie: „Pan genialny”:).
Około 10 tysięcy lat temu skończyła się ostatnia duża epoka lodowa. W sprzyjających (co nie znaczy “łagodnych”!) warunkach klimatycznych rozwinęła się cywilizacja. Wraz z rozwojem techniki człowiek zaczął w coraz większym stopniu oddziaływać na klimat Ziemi, dodając czynniki antropogenne do istniejących naturalnych sił wpływających na klimat. Czy wiemy już wystarczająco dobrze jak zmieniał się klimat naszej Planety w poprzednich epokach i erach? Czy na podstawie tych danych i pomiarów wykonywanych obecnie jesteśmy w stanie przewidzieć, jakie zmiany w klimacie będą następowały w najbliższej i dalszej przyszłości? Wydaje się, że ciągle mamy za mało precyzyjnych danych. Jak ważna jest tu dokładność pomiarów i prognoz zobaczymy, gdy popatrzymy na dwie liczby: Energia docierająca ze Słońca w okolice orbity Ziemi ma wartość około 1390 W/m2. Sumaryczna zmiana jaka wywołała ostatnią dużą epokę lodową miała wartość około 2 W/m2. Zmiana przyczyn zaledwie o około 2 promile spowodowała więc wielkie zmiany w warunkach panujących na Ziemi. Jednocześnie ciągle jeszcze niewiele wiemy na temat bardzo złożonych mechanizmów i współzależności tysięcy parametrów wpływających na zmiany klimatu. Modele wykorzystywane do prognozowania zmian klimatycznych są zbyt proste i opierają się na danych pomiarowych uzyskanych w większości tylko dla wybranych rejonów, a nie dla całego globu. (Np. badania prowadzi się tam gdzie można uzyskać pieniądze na stacje pomiarowe). Nie chodzi tu raczej o “niedostateczną moc obliczeniową” największych i najnowocześniejszych komputerów, chodzi w znacznej części o to, że rozwiązania złożonych zależności matematycznych są niestabilne, oscylujące przy minimalnych zmianach danych wejściowych. Doświadczenie wykazuje, że klimat Planety jest – w skali setek milionów lat – samoregulujący się. A najważniejsze jest dla nas przecież pytanie o samoregulację klimatu. Czy ma przewagę stabilnych, ujemnych sprzężeń również w skali setek lub dziesiątków lat? Poznanie wszystkich przyczyn i mechanizmów rządzących klimatem jest wyzwaniem, które stoi przed ludzkością. Istotne jest, aby zrobić to w sposób tani i jednocześnie skuteczny. Bardzo popularnym tematem, pojawiającym się niemal codziennie w mediach, jest problem zmian klimatu Ziemi pod wpływem działalności człowieka, potocznie zwanym “efektem cieplarnianym”. Nie wszyscy publicyści i dziennikarze zauważają jednak, że na podstawie tych samych (lub podobnych) danych pomiarowych, różni uczeni autorzy wyciągają diametralnie różne wnioski. Można więc przeczytać prognozy gwałtownego ocieplania się ziemskiego klimatu, jak również opracowania dowodzące, że w najbliższej przyszłości czeka nas kolejna “epoka lodowa”. W takim wypadku nasuwa się pytanie: która ze stron ma rację? A może wszyscy dostrzegają i opisują tylko “część prawdy”, opierając się na zbyt małej liczbie danych podstawowych, które dotyczą wydzielonych obszarów naszego globu, ale nie odzwierciedlają całości zmian i ich przyczyn. W grę wchodzą decyzje dotyczące kierunku wydawania co najmniej setek miliardów dolarów rocznie, warto więc przyjrzeć się krytycznie geofizycznym założeniom tej polityki finansowej.
2. “Magiczne przyczyny” EFEKTU CIEPLARNIANEGO !
Powszechnie (również w dyskusjach naukowców) mówi się, że podstawową przyczyną wzrostu temperatury na Ziemi jest przyrost ilości dwutlenku węgla w atmosferze powstający podczas spalania paliw kopalnych (węgla kamiennego i brunatnego, ropy naftowej i jej produktów, gazu ziemnego). Jest to zgodne z poniższą definicja: efekt cieplarniany2– geofiz, wzrost średniej temperatury przyziemnej warstwy powietrza wskutek coraz większej koncentracji CO2 w atmosferze; CO2 przepuszcza krótkofalowe promieniowanie słoneczne utrudniając równocześnie ucieczkę z Ziemi promieniowania długofalowego. Jest to definicja bardzo krótka i lakoniczna. Popatrzmy więc na inną: CIEPLARNIANY EFEKT3, efekt szklarniowy, podwyższenie temperatury powierzchni Ziemi spowodowane istnieniem atmosfery ziemskiej (średnia temp. ok. 14-15°C, w nieobecności atmosfery byłaby mniejsza o ok. 30°C); atmosfera ziemska przepuszcza w kierunku Ziemi znaczną część promieniowania słonecznego (promieniowanie krótkofalowe); promieniowanie to jest pochłaniane przez powierzchnię Ziemi (niewielka jego część zostaje odbita) i zamieniane na ciepło, a ogrzana powierzchnia Ziemi emituje promieniowanie długofalowe, w dużym stopniu pochłaniane przez atmosferę (gł. przez cząsteczki pary wodnej i dwutlenku węgla oraz kropelki wody w chmurach); energia przekazana atmosferze jest przez nią wypromieniowywana gł. z powrotem w kierunku powierzchni Ziemi (tzw. promieniowanie zwrotne – podstawowa przyczyna występowania e. c.), a częściowo w przestrzeń kosmiczną; działalność gospodarcza człowieka powoduje stopniowe zwiększanie się stężenia substancji absorbujących długofalowe promieniowanie ziemskie (gł. dwutlenku węgla, metanu, tlenków azotu), co może spowodować pogłębienie się e. c., wzrost temperatury i zmianę klimatu na kuli ziemskiej.
Gaz
tśred
Główne procesy usuwania z atmosfery
N2
400 mln lat
fotochemiczne
He
20 mln lat
ucieczka w kosmos
O2
600 lat
biochemiczne
CF2Cl2
60 lat
fotochemiczne
CO2
10 lat
biochemiczne
N2O
5-50 lat
fotochemiczne
NO, NO2
kilka tygodni
fotochemiczne
NH3
1 dzień
biochemiczne
H2S
do 1 dnia
fotochemiczne
Tabela 1 Średni czas pozostawania w atmosferze.1
Tak więc to nie tylko dwutlenek węgla ma wpływ na wzrost temperatury, ale również metan, tlenki azotu i “głównie … cząsteczki pary wodnej i … kropelki wody w chmurach” Czy – i jak – znajduje to odbicie w modelach na których oparto politykę gospodarczą państw?
3. Para wodna – podstawowy gaz cieplarniany
Najważniejszym gazem cieplarnianym jest para wodna, na którą przypada 96 do 99% efektu ocieplania się atmosfery. Ostatnie badania wskazują, że cały zawarty w atmosferze CO2 odpowiedzialny jest za 1 do 5% efektu cieplarnianego. Pozostałe gazy cieplarniane mają jeszcze mniejszy udział. Pomiary izotopowe wskazują, że jedynie 5% z CO2 znajdującego się obecnie w atmosferze ziemskiej pochodzi ze spalania paliw kopalnych. Zatem przemysłowy CO2 zwiększa naturalny efekt cieplarniany zaledwie o 0,05 do 0,25%. J. Daly8 przytacza wyniki badań zwykle ignorowane w “publicystyce ekologicznej” i publicystyce szerokiego nurtu. Satelitarne pomiary temperatury dolnych warstw atmosfery prowadzone od 1979 r., pokrywające 95% powierzchni Ziemi, ukazują stałą tendencję obniżania się temperatury (w latach 1979-97 o -0,04°C). Pomiary naziemne, niezgodne z satelitarnymi, są mniej pewne, gdyż wpływa na nie efekt “wysp ciepła” wokół rozrastających się miast, gdzie zwykle umieszczone są stacje meteorologiczne. Pomiary satelitarne i glacjologiczne wskazują przyrost lodu na Grenlandii i Antarktydzie z taką szybkością, że około 2030 r. jego akumulacja spowoduje obniżenie się poziomu oceanu światowego o około 30 cm.15
Istnieją jeszcze inne związki przyczyniające się do wzrostu efektu cieplarnianego, pomijane w bardziej popularnych lub tendencyjnych publikacjach.
Rodzaj gazu
GWP
CO2
1
CH4
30-50
CFC-13
11 000
Tabela 2 wielkość wpływu wywieranego przez różne gazów na efekt szklarniowy (GWP – Global Warming Potential – Potencjał Ocieplenia Globalnego) w odniesieniu do GWP dwutlenku węgla.
W “PROTOKÓLE Z KIOTO DO RAMOWEJ KONWENCJI NARODÓW ZJEDNOCZONYCH W SPRAWIE ZMIAN KLIMATU” w załączniku A zostały wymienione gazy cieplarniane. Oto one:
Dwutlenek węgla (CO2)
Metan (CH4)
Podtlenek azotu (N2O)
Fluorowęglowodory (HFCs)
Perfluorokarbony (PFCs)
Sześciofluorek siarki (SF6)
Jest ich tu tylko sześć. Sygnatariusze jakby zapomnieli o istnieniu pary wodnej. Nie uwzględniają również w sposób ilościowy wkładu kropelek wody (chmury na różnych wysokościach) do albedo (bezpośredniego odbijania promieniowania słonecznego w kosmos). A jest to czynnik, jak widzieliśmy, znaczący.
4. Diagnozy J. Hansena
źródłem istotnych danych klimatologicznych i poważnych analiz jest grupa badaczy skupiona wokół J. Hansen’a w Goddard Institute for Space Studies (NASA), p. np.5 Dr James E. Hansen tak opisuje podstawowe przyczyny zmian klimatu : “Klimat Ziemi zmienia się z roku na rok i ze stulecia na stulecie, naprawdę jako zmiany aury z dnia na dzień. Są to zmiany chaotyczne, mają miejsce bez wyraźnej przyczyny, ale są ograniczonej wielkości. Klimat również odpowiada na pobudzanie przez różne czynniki. Jeżeli Słońce świeci jaśniej, w sposób naturalny, Ziemia staje się cieplejsza. Jeśli wielki wulkan wyrzuca drobiny materii do stratosfery, wtedy mała część promieniowania słonecznego jest dodatkowo odbijana w przestrzeń kosmiczną i Ziemia ochładza się. To samo dotyczy czynników powstających w wyniku działalności człowieka. Mierzymy te czynniki w watach na metr kwadratowy (W/m2). Dla przykładu, wszystkie gazy cieplarniane wyprodukowane przez człowieka obecnie powodują wpływ około 2 W/m2. To jest tak jakby postawić dwie miniaturowe lampki choinkowe nad każdym metrem kwadratowym powierzchni Ziemi. Jest to równoważne zwiększeniu jasności Słońca o około 0,2 procent. Rozumiemy dość dobrze jak delikatny jest to wpływ na ziemski klimat. Najpewniejsze dane pochodzą z historii Ziemi. Możemy porównać bieżący ciepły okres, który trwa już kilka tysięcy lat, do poprzedniej epoki lodowej, około 20 000 lat temu. Skład atmosfery podczas epoki lodowej znamy z analizy ilościowej baniek powietrza, które zostały uwięzione gdy warstwy lodu na Grenlandii i w Antarktyce rosły z padającego śniegu.
Wykres 1 Czynniki wpływające na zmiany klimatu w czasie epoki lodowej ok. 20 000 lat wstecz
Zmiany te, razem przedstawione na wykresie 1, wywoływały zmniejszenie energii dochodzącej do Ziemi o około 6,5 W/m2 (z błędem 1,5 W/m2). Ta sumaryczna zmiana utrzymywała planetę o 5°C zimniejszą niż dziś. To empiryczne wyliczenie informuje, że czułość klimatu jest około 3/4°C na zmianę o jeden wat wymuszenia. Modele klimatu zakładające taką samą czułość (W/oC) na wymuszenie, dostarczają zadowalającej zgodności pomiędzy modelami komputerowymi używanymi do przepowiadania jak klimat może zmieniać się w przyszłości, a światem realnym. Jest jeszcze inny ważny czynnik wymagający zrozumienia i analizy ilościowej: opóźnienia procesów. Zmiany klimatu nie zachodzą w sposób bezpośrednio porównywalny, równocześnie do zaistniałych przyczyn. Potrzeba na przykład długiego czasu i złożonych procesów (prądy, konwekcja), żeby podgrzać ocean. Zwykle trwa kilka dekad lub więcej, aż dojdzie do pewnego zrównoważenia zmian klimatu z ich przyczynami. W czasie około 100 lat zaistniałe zmiany w klimacie odpowiadają jedynie w 60 do 90 procentach wywołującym je przyczynom. Ten długi czas reagowania klimatu komplikuje problem dla obserwatorów i uczonych. Oznacza to, że możemy wnieść do ciągu zmian klimatu to czego efekty będą się pojawiać podczas życia naszych dzieci i wnuków. Dlatego musimy odpowiednio wcześniej być czujni w poznawaniu i zrozumieniu zmian klimatu, ponieważ większość rozpoczętych działań musi ulegać modyfikacjom.” Tyle cytat z Hansena, którego potraktujemy jako Autorytet Krytyczny.
5. Wymuszenia atmosferyczne – ilościowo
Wykres 2 Czynniki zmieniające klimat obecnie.10
Na wykresie 2 przedstawione są czynniki wpływające obecnie na zmiany klimatu. Są tu przyczyny naturalne (wpływ erupcji wulkanów i wahań emisji Słońca), które się wzajemnie prawie równoważą. Są tu również przyczyny zależne od działalności człowieka. Wśród nich jest wpływ gazów cieplarnianych (podgrzewanie atmosfery) i aerozoli w troposferze (ochładzanie). Aerozole można poglądowo przedstawić jako cząstki jasne (“białe“), odbijają więc one pełne widmo (nie-selektywnie) promieniowania słonecznego zwiększając albedo. Wyjątkiem wśród aerozoli jest udział tzw. czarnego węgla (sadza) mającego dodatni wpływ na wzrost temperatury. Na wykresie 2 widać również bardzo istotny wpływ metanu na klimat, chociaż ilość tego gazu w atmosferze jest znikoma, jedynie setki ppb. Bardzo dużo i często poruszany jest w prasie, również fachowej temat potrzeby “walki” z emisją dwutlenku węgla jako głównym czynnikiem destabilizującym klimat. Podpisane zostały nawet porozumienia międzynarodowe (Szczyt w Rio 1992, Protokół z Kioto 1997) dotyczące ograniczania emisji tego gazu. Dużo mniej uwagi zwracają natomiast politycy i ich doradcy na inne czynniki zmieniające klimat. Zwróćmy uwagę, że jednoczesny wpływ metanu i “czarnego węgla” na klimat jest porównywalny, tak co do wielkości jak i zwrotu, do “wymuszenia” jakie daje atmosferyczny dwutlenek węgla. W dostępnej obecnie technologii nie jest możliwe radykalne a tanie zmniejszenie poziomu CO2 w atmosferze. Możemy jedynie ograniczać jego emisję poprzez zwiększanie efektywności energetycznej. Niestety znane liczne strategie poszanowania energii pozwalają jedynie na zmniejszenie dynamiki wzrostu stężenia tego gazu. Przeciwnie jest w przypadku metanu. Uzyskanie zmniejszenia emisji metanu może przynieść dodatkowe korzyści – i dochody. Wydzielanie metanu towarzyszy różnym procesom biologicznym np. rozkładowi odpadów organicznych na wysypiskach śmieci. Jak wiemy z licznych przykładów, zastosowanie instalacji zbierających biogaz daje źródło taniej energii (prawie darmowej po zamortyzowaniu się urządzeń). Zastosowanie na szeroką skalę bioreaktorów przerabiających odpadową biomasę różnego pochodzenia, może wpłynąć pozytywnie z jednej strony na klimat, ale z drugiej również na gospodarkę regionu lub państwa. Innym znacznym źródłem metanu związanym z gospodarką ludzką jest uprawa ryżu. Wymiana odmian ryżu i warunków ich uprawy pozwoliłoby na kilkakrotną redukcję tych emisji. Znaczący ułamek “antropogennych” emisji metanu pochodzi z hodowli bydła. Jedna krowa przy standardowym żywieniu emituje blisko 1 m3 biogazu na dobę. Opracowane są zmiany diety bydła zmniejszające emisje o 30-70%. Możliwe jest również (w zimie) używanie, w kotłach grzewczych, powietrza z wentylowania obór. Tak zwane “metanowe” kopalnie węgla na przełomie lat 80/90 zeszłego wieku jedynie w Polsce emitowały do atmosfery 2-3 mld m3 metanu rocznie. Również ten metan można użyć, choćby jako dodatek dla kotłów energetycznych. O skali zjawiska świadczy fakt, że całe roczne zużycie gazu w Polsce wynosiło wtedy ok. 11 mld m3. Trzy ostatnie sprawy bardzo trudno jest przeprowadzić przy dominującym na świecie systemie BAU (Business As Usual), bo zysk – ogromny – byłby globalny, ale wkład finansowy – lokalny. Podobnie w efektywny i technologicznie opanowany sposób można zmniejszyć emisję do atmosfery tzw. czarnego węgla. Wystarczy zastosowanie odpowiednich filtrów pyłów na kominach. Jest to proste chociaż nie tak tanie jak w przypadku “walki” z metanem. W ten sposób możemy znacznie ograniczyć czynniki wpływające na ocieplanie się klimatu, ponosząc przy tym nieduże nakłady finansowe, lub wręcz, jak w przypadku odzyskiwania metanu – zarabiając.
6. Dane klimatyczne z przeszłości
Zobaczmy, jak przedstawia się obecne stężenie dwutlenku węgla w atmosferze na tle danych z ostatnich 160 tys. lat.
Wykres 3Zmiany temperatury, CO2, CH4″zapisane” w lodzie w okolicach stacji Vostok, Antarktyda.1
Czerwona (położona najwyżej na wykresie) linia obrazuje zmiany zawartości dwutlenku węgla (w ppm – cząsteczek na milion. Uwaga: Czas biegnie od prawej do lewej.). Stopniowy wzrost stężenia CO2 rozpoczął się około 20 tysięcy lat temu (od poziomu ok. 200 ppm) i trwa do dziś. Tylko wzrost w ostatnich kilkuset latach może być w znacznym stopniu spowodowany przez działalność człowieka. (Na tym wykresie byłaby to prawie pionowa kreseczka przy punkcie “zero”.) Wykres zmian temperatury (w °C) zmienia się podobnie jak stężenie CO2, lecz nie trudno zauważyć przedziały czasu, w których tak nie jest (por. 70, 100 lub 120 kyr). Podobnie zachowuje się wykres zmian stężenia CH4 (w ppb – cząsteczek na miliard). Zarówno obserwowana obecnie ilość dwutlenku węgla jak i metanu w atmosferze jest porównywalna do wartości maksymalnych dla tych gazów w ostatnich 160 tysiącach lat. Pozatem podkreślmy, że zawartość dwutlenku węgla w atmosferze była wiele razy w historii Ziemi dużo większa niż obecnie. Sytuacja taka miała miejsce m. inn. w okresie ponad 300 mln lat temu, przed erą karbonu. Obecne poziomy nie są więc nienaturalnie wysokie, takie, z którymi ekosystem nie byłby w stanie poradzić sobie w sposób naturalny.
Wykres 4 Dane za ostatnie 500 000 lat wskazują na następowanie po sobie większych epok lodowych i okresów ociepleń. Przedstawiają pięć cykli zlodowaceń, które występowały co ok. 100 tys. lat.17
Okresy ciepłe i zimne powtarzają się w procesie zmian klimatu Ziemi ze sporą regularnością. Obecnie jesteśmy w stadium zmian klimatu charakteryzującym się znacznym i trwającym już dość długo (przeszło 15 tys. lat) ocieplaniem. Ziemia weszła w okres gorący około 10 000 lat temu. Przez ekstrapolację prawidłowości zobrazowanych na wykresie 4 możemy wnioskować, iż jesteśmy dopiero na początku okresu ciepłego, który będzie trwał jeszcze (zapewne z wahaniami) około 40 000 lat. Nie dysponujemy jednak na razie bardziej precyzyjnymi danymi, aby stwierdzić jak długo jeszcze będzie trwał proces ocieplania się klimatu wywołany przyczynami naturalnymi i w jakim stopniu został on zakłócony i będzie modyfikowany przez wpływ działalności człowieka. Zwykłe przedłużenie (ekstrapolacja) na kolejne lata, dekady i stulecia obecnych trendów w zmianach klimatu może okazać się dalekie od rzeczywistych zmian jakie nastąpią. Spowodowane jest to zbyt małą ilością danych pomiarowych jaką dysponujemy i ich zbyt małą dokładnością. Co najważniejsze – jeszcze brak wiarygodnego nodelu zmian klimatu. Jaką możemy mieć pewność, że obecnie obserwowane zmiany odzwierciedlają tendencje długookresowe, a nie są jedynie drobnymi (w skali np. istnienia życia na Ziemi) fluktuacjami.12 Przykładowo pewne zmiany klimatu jakie obserwujemy w ostatnim 10-leciu mogą mieć związek z dużym wybuchem wulkanu Pinatubo na Filipinach, który miał miejsce w roku 1991. Takich przyczyn przypadkowych wahań można wskazać wiele.
7. Czy i jak wpływać na zmiany klimatu?
Należy z mocą podkreślić, że do skutecznego regulowania przez człowieka zmian jakim podlega klimat Ziemi potrzebne są dokładne i rzetelne dane pomiarowe dotyczące całego globu, a ściślej – poszczególnych jego części składowych. Nie wolno nam wpływać na zmiany klimatu, nim z pewnością nie poznamy samych procesów tych zmian. Można by się zgodzić z poglądem, że powinniśmy jednak wypracować mechanizmy przeciwdziałania zarówno nadmiernemu ocieplaniu się klimatu, jak również przeciwdziałające zbytniemu jego ochładzaniu. Dla obecnej cywilizacji obie te ewentualności mogą okazać się groźne. ?atwym i skutecznym regulatorem może okazać się jeden z gazów cieplarnianych – metan. Szerzej dyskutujemy to w rozdz. 11. Ewentualne działania należy prowadzić bardzo ostrożnie, gdyż błędne akcje mogą doprowadzić do większego niż obecnie rozregulowania klimatu naszej planety.
8. Scenariusze
Przewidywane scenariusze zmian klimatu dla najbliższych 50 – 100 lat różnią się znacznie w zależności od autorów, czasu powstawania prognozy, źródeł finansowania laboratorium. Wykres 5 przedstawia cztery z nich. Pierwszy oznaczony “A” odpowiada rozwojowi gospodarczemu przebiegającemu pod dyktando “wielkiego biznesu” – “business as usual”. Drugi, “B”, zakłada powolny wzrost gospodarczy. Trzeci, “C”, zakłada zerowy wzrost gospodarczy. Czwarty jest scenariuszem “alternatywnym ” zaproponowanym przez J. Hansen w roku 2000.5
Wykres 5 Scenariusze zmian klimatu do roku 2050.1
9. Przykład obecnej niepewności danych: Poziom oceanów.
Według zwolenników istnienia antropogennego “efektu cieplarnianego” skutkiem zmian klimatu ma być m. in. wzrost poziomu wody w oceanach, co spowoduje zatopienie niżej położonych części lądów. Mogłoby to zatopić wiele niskich wysp Pacyfiku lub znaczną część Bangladeszu. Zobaczmy, jak ta hipoteza wygląda w świetle faktów.
Rysunek 6 Różnice poziomu oceanów w roku 1998.8
Wykres 7 Zmiany poziomu oceanów (skorygowane) rejestrowane przez satelitę TOPEX/POSEIDON w roku 1993 8
Według NOAA przy utrzymaniu się obecnej (z ostatnich dwóch dekad) tendencji wzrostu poziomu oceanów po 100 latach możemy spodziewać się wzrostu poziomu wody o ok. 22cm +/- 1cm. W ciągu ostatnich 20 tys. lat poziom oceanów podniósł się jednak o blisko 90 metrów10, co daje średnią (przyczyny wyłącznie naturalne) 45 cm na 100 lat. Jest to dwukrotnie więcej niż obserwowany obecnie wzrost przypisany przez (powiedzmy szczerze) propagandystów do “antropogennego efektu cieplarnianego”. Zwraca również uwagę fakt, że mierzone w pewnych punktach globu wzrosty poziomu morza bywają dużo większe. Globalnie jednak wzrost jest niewielki. Dane globalne można uzyskać jedynie dzięki pomiarom satelitarnym. Pomiary takie są prowadzone tylko dla kilku ostatnich lat i nie mogą obrazować trendów długookresowych. Liniowa ekstrapolacja takich wyników może prowadzić do mylnych wniosków.
10. Obserwowane zmiany temperatury na Antarktydzie.
Przeciętna temperatura powietrza nad powierzchnią ziemi wzrasta o około 0.06 °C na dekadę w dwudziestym wieku, i o około 0.19 °C na dekadę w latach od 1979 do 199811. Modele klimatu generalnie zakładają zwiększanie temperatury w regionach polarnych. Było to również doświadczalnie obserwowane w regionie półwyspów antarktycznych w drugiej połowie dwudziestego wieku. Jednocześnie poprzednie raporty sugerują wcześniejsze delikatne ocieplenie kontynentu.11 Tymczasem analiza przestrzenna danych meteorologicznych dla Antarktydy pokazuje ochłodzenie netto Antarktydy pomiędzy latami 1966 i 2000, szczególnie podczas lata i jesieni. Dla przykładu: Dolina McMurdo ochładza się o 0.7 °C na dekadę pomiędzy latami 1986 i 2000. Chłodniejsze lato jest szczególnie istotne dla ekosystemu Antarktydy. To zjawisko przesuwa bowiem punkt równowagi pomiędzy lodem i wodą: większa część opadów śniegu nie topnieje, lecz przetwarza się w lądolód. Kontynent Antarktydy ochładza się, szczególnie ochładza się wnętrze tego kontynentu. Ten fakt wymusza nowe poszukiwania modeli zmian klimatu i ekosystemu.11
11. Możliwość wpływu hydratów na klimat
Rysunek 8 Porównanie źródeł ziemskiego węgla organicznego (Kvenvolden)12
W latach 90-tych ubiegłego stulecia okazało się, że największe zasoby węgla pierwiastkowego blisko powierzchni Ziemi (potencjalnie, po spaleniu w postaci dwutlenku węgla) występują nie w postaci węgla kamiennego i brunatnego, ropy naftowej i gazu, lecz w postaci hydratów węglowodorów (głównie metanu). Udokumentowane pokłady hydratów metanu zalegają w postaci złóż o ogromnej miąższości (do setek metrów) na terenach wiecznej zmarzliny (płn. Syberia, płn. Kanada) oraz w głębi mórz i oceanów (zach. wybrzeża Stanów Zjednoczonych, litoral brzegów Japonii, Morze Czarne, Morze Kaspijskie, …) [zob. np. 13 i 14]. Kluczową sprawą dla ilości metanu w atmosferze, a więc dla wymuszeń efektu cieplarnianego staje się więc zachowanie hydratów. Są one niestabilne w pewnych warunkach temperatur i ciśnienia. Jest to tym istotniejsze, że metan jest gazem 30-50 razy silniej wpływającym na efekt cieplarniany niż dwutlenek węgla. Z hydratami metanu wiąże się niebezpieczeństwo zaistnienia silnego dodatniego sprzężenia zwrotnego wpływającego na ocieplanie się klimatu. Wzrost temperatury atmosfery oraz mórz i oceanów ponad pewien poziom (próg) może spowodować nagłą, lawinową dehydratyzację czyli uwalnianie metanu ze złóż hydratów. Udokumentowano, że takie zjawiska miały już miejsce w geologicznej historii Ziemi.
Przed ok. 8000 laty obsunęły się, zapewne na skutek podwyższenia temperatury i zmian położenia nurtu atlantyckiego prądu Golfstrom, duże obszary wybrzeży obecnej zachodniej Norwegii na wysokości miejscowości Trondheim. Wielkie masy skalne – około 5600 km3 – “spłynęły”, na odległość 800 km od górnej krawędzi stoku kontynentalnego, do Morza Norweskiego na warstwie rozpływającego się lodu zbudowanego z hydratów metanu. Oceny tej katastrofy wskazują na równoczesne uwolnienie do atmosfery wielu miliardów metrów sześciennych metanu jak również wywołanie olbrzymich niszczących fal morskich podobnych do tsunami.14 Bardzo interesującym akwenem ze względu na występowanie hydratów gazów w dość płytkiej wodzie jest Morze Barentsa leżące poza kołem polarnym. Z powodu mroźnego klimatu związki klatkowe są tam trwałe także na stosunkowo niewielkich głębokościach. Właśnie przez to mogą one stanowić zagrożenie już przy niewielkim wzroście temperatury. O realności zagrożenia świadczą miejsca z wyglądającymi jak leje po bombach ogromnymi kraterami, które występują na objętych badaniami obszarach pomiędzy Przylądkiem Północnym a Spitsbergenem. Kratery znajdują się na głębokości 300-350 m i leżą w bezpośrednim sąsiedztwie hydratów gazowych, zalegających poniżej poziomu dna oceanu. Jedno z takich kraterowych pól rozciąga się na powierzchni ponad 35 km2. Leje mają szerokość 30-700 m i głębokość 30 m, a ich kształt sugeruje występowanie erupcji gazu. Nie jest pewne czy występowały one mniej więcej równocześnie. Prawdopodobnie wydarzyły się pod koniec ostatniej epoki lodowcowej, około 15 tys. lat temu, kiedy szelf pod Morzem Barentsa nie musiał już utrzymywać ciężaru ogromnych mas lodu. Istnieje niebezpieczeństwo, że już wzrost o 1oC temperatury przydennych warstw wody w morzach i oceanach wystarczyłby aby wyprowadzić hydraty gazów ze stanu stabilności. Podobne zjawiska obsuwania się wybrzeży na skutek topnienia warstw hydratów udokumentowano u zachodnich wybrzeży USA. Dysocjacją dużych ilości hydratów można tłumaczyć duże globalne ocieplenie w późnym Paleocenie (ok. 55 mln lat temu). Doszło wtedy do katastrofalnego wzrostu temperatury oceanu o około 5-7oC.12 Również zakończenie epok lodowych można powiązać z wpływem dysocjacji pewnych (dużych) ilości hydratów.12 Podobne, choć na trochę mniejszą skalę gwałtowne zjawiska klimatyczne zdarzały się w czasach dużo nam bliższych. Cytuję poglądy kilku naukowców za agencją Reuter’a : “Badania rdzenia lodowego z Antarktydy wykazują, że 19 tys. lat temu temperatura na południowym biegunie mogła wzrosnąć o 4 st. C. – Tak znaczący skok w tamtym okresie to zjawisko wstrząsające – ocenia dr David Etheridge z australijskiego Commonwealth Scientific and Industrial Research Organisation (CSIRO). Budzi to szczególne zainteresowanie, gdyż w tym samym mniej więcej czasie, kiedy wzrosła temperatura, raptownie i znacznie podniósł się poziom morza, co potwierdzają badania australijskiego narodowego uniwersytetu. Prof. Pat Quilty z Uniwersytetu Tasmania, były szef grupy badawczej z Australian Antarctic Division (AAD) – organizacji powołanej przez rząd, przestrzega: nowe odkrycie potwierdza teorię o “dniu sądu ostatecznego”, kiedy antarktyczna pokrywa lodowa ruszy z posad. Niezależnie od tego, czy globalne zmiany klimatu są procesem naturalnym czy też spowodowanym działalnością człowieka, będą one w skutkach dramatyczne – powiedział. Dr David Etheridge tłumaczy, że ocieplenie klimatu tysiące lat temu związane było ze zmianą nachylenia orbity Ziemi i to zjawisko spowodowało uwolnienie gazów cieplarnianych, zwłaszcza dwutlenku węgla z oceanów.”16 Jednocześnie należy podkreślić, że jest to tylko hipoteza i tak naprawdę “Pomimo że udało się odkryć wiele sekretów białego kontynentu, nikt nie potrafi odpowiedzieć na pytanie, co spowodowało tak raptowne zmiany klimatu i podniesienie się poziomu morza 19 tys. lat temu.”16 Potrzebne są dalsze badania, m. inn. dla sprawdzenia hipotezy o lawinowym uwalnianiu metanu z hydratów. Mechanizm powstania epok lodowych związany jest ze wzrostem dodatniego sprzężenia zwrotnego między (chwilowym) ochłodzeniem klimatu, spowodowanym nim wzrostem powierzchni pokrytej śniegiem i lodem, wzrostem albedo, a więc większym wypromieniowaniem energii odbitego światła słonecznego – i dalszym ochładzaniem. Wynikają z tego wzrost grubości i masy lodowców. Istnieją uzasadnione przypuszczenia, że miały już miejsce katastrofy spowodowane tym faktem. Obniżenie poziomów oceanów (o kilkadziesiąt metrów!) obniża też ciśnienie w podmorskich (uprzednio) złożach hydratów, co powoduje lawinową ich destabilizację i przejście metanu do atmosfery. Zwiększona zawartość metanu w atmosferze prowadzi do dalszego wzrostu temperatury atmosfery, co intensyfikuje proces dehydratyzacji. Ponieważ ilość hydratów jest ogromna, to taki proces może bardzo mocno podnieść temperaturę Planety. Takie zjawisko przybiera postać kataklizmu i poprzez nagły wzrost temperatur może doprowadzić do odwrócenia tendencji, czyli do zakończenia epoki lodowej. Wspomniany uprzednio wzrost temperatur oceanu o 5-7oC [Hyndman oraz Dickens 17] może być spowodowany taką katastrofą. A w naszych czasach występowanie na Ziemi ogromnych złóż hydratów może zostać wykorzystane do zaspokojenia rosnących potrzeb energetycznych ludzkości. Dla ludzkości istotnym staje się bowiem, aby korzystanie z energii zgromadzonych w postaci hydratów metanu możliwie szybko rozpocząć. Przemawia za tym kilka faktów: Po pierwsze jest to bardzo duże i praktycznie nietknięte źródło energii. Dehydratyzacja i spalanie metanu jest procesem, w którym oprócz energii powstaje jedynie woda i dwutlenek węgla. Z drugiej strony metan z pokładów hydratów może zostać uwolniony do atmosfery w sposób niekontrolowany (na skutek wzrostu temperatury i/lub spadku ciśnienia w złożu), co (jak wykazaliśmy wyżej) mogłoby spowodować znaczne wzmocnienie efektu cieplarnianego. Pozwalając na dehydratyzację wywołaną przyczynami naturalnymi tracimy nie tylko złoża doskonałego nośnika energii, ale narażamy się na dalszą destabilizację klimatu. Spalenie metanu ze złóż, które inaczej w łatwy a niekontrolowany sposób mogłyby ulec uwolnieniu, zmniejsza potencjał gazów cieplarnianych, które mogłyby dostać się do atmosfery. Zastąpienie paliw kopalnych takich jak ropa naftowa i węgiel przez hydraty ma jeszcze jeden plus. Pamiętajmy, że ropa i węgiel są również cennymi surowcami dla innych przemysłów (np. chemicznego), a nie tylko nośnikami energii.
12. Skala wpływu dwutlenku węgla na klimat
Cząsteczki gazowe występujące w atmosferze, takie jak H2O, CO2, CH4, N2O, O3 i CFC są zdolne do pochłaniania charakterystycznych (dla każdej cząsteczki różnych) części widma promieniowania słonecznego, w szczególności podczerwonego. Ilość zaabsorbowanego promieniowania podczerwonego zmienia się wraz z rodzajem związku i jest proporcjonalna do liczby cząsteczek danego związku w atmosferze. Ilość promieniowania słonecznego docierającego do atmosfery ziemskiej jest zrównoważona ilością promieniowania opuszczającego atmosferę. Wraz ze wzrostem ilości cząsteczek absorbujących promieniowanie podczerwone w atmosferze zwiększeniu ulega temperatura, aż do momentu ustalenia się nowego stanu równowagi między ilością promieniowania emitowanego i pochłoniętego. W przypadku, gdy para wodna oraz dwutlenek węgla byłyby nieobecne w atmosferze, temperatura przy powierzchni Ziemi wynosiłaby około 254K (-l9oC) i znane nam życie nie mogłoby istnieć. Stwierdzono, że w ostatnich dziesięcioleciach ilość występujących w atmosferze substancji gazowych, takich jak CO2, CH4, N2O, O3 i CFC systematycznie wzrasta. Zawartość pary wodnej zmienia się jednak w tak szerokich granicach (0-5%), że nie jest możliwe ilościowe określenie występujących w tym przypadku zmian. Należy przypomnieć i podkreślić, że para wodna jest ilościowo bardziej odpowiedzialna za absorpcję promieniowania podczerwonego niż jakikolwiek inny składnik atmosfery. Zwykle jednakże (z niewiedzy!) przyjmuje się, że wpływ pary wodnej jest w przybliżeniu stały i zmiany jej zawartości określone są przez inne czynniki. Dwutlenek węgla i para wodna absorbują promieniowanie podczerwone przy długości fali mniejszej niż 8 000 nm i większej niż 12 000 nm. Promieniowanie o długościach fal nie mieszczących się w powyższych granicach nie ulega zaabsorbowaniu. Ostatnio wprowadzone związki chlorofluorowęglowe (CFC) i wodorochlorofluorowęglowe (HCFC) absorbują promieniowanie podczerwone w przedziale 8 000-12 000 nm. Zakres ten odpowiada długościom fal, przy których intensywną absorpcję wykazują również ozon, metan i tlenek azotu (N2O). Szacuje się, że podwojenie stężenia dwutlenku węgla występującego w atmosferze spowoduje wzrost intensywności absorpcji promieniowania podczerwonego (wymuszenie) o jedynie 4 W/m2 powierzchni Ziemi. To dodatkowe ciepło będzie powodowało, że do atmosfery przeniknie więcej pary wodnej, która jest zdolna zaabsorbować dalsze 2 W/m2. Wzrost ten jest względnie mały w porównaniu z całkowitą ilością (wynoszącą 240 W/m2) absorbowanego promieniowania podczerwonego. Około 100 W/m2 z całkowitej ilości przypisuje się pochłanianiu przez parę wodną, a 50 W/m2 przez dwutlenek węgla. Podwojenie zawartości dwutlenku węgla powodować będzie tak mały skutek, ponieważ duża już istniejąca ilość cząsteczek absorbujących w zakresie widma 8 000-12 000 nm sprawia, że większość promieniowania ulega pochłonięciu przez obecną już w atmosferze parę wodną i dwutlenek węgla.18 O niepewności danych i modeli świadczy fakt, że inni autorzy szacują, że gdyby wszystkie znane nam rezerwy paliw kopalnych (bez hydratów) zostały spalone, wówczas maksymalne stężenie dwutlenku węgla w atmosferze może osiągnąć wartość 2000 ppm w ciągu 200 do 300 lat, powodując wzrost temperatury globalnej o ok. 6 K.18
Wiele publikacji wskazuje na brak zależności krzywej zmian temperatury powietrza od zmian antropogennej (szczególnie przemysłowej) emisji CO2. Natomiast zmiany temperatury w latach 1860-1990 są idealnie zgodne ze zmianami aktywności Słońca.15 Wzrost zawartości CO2 w powietrzu, obserwowany od roku 1958, związany jest, wg. tych autorów, z podwyższeniem temperatury wód oceanu (w cieplejszej wodzie zmniejsza się rozpuszczalność CO2 i jest on “wydychany” z oceanu). Byłby to jednak proces dodatniego sprzężenia zwrotnego. Ten wzrost stężenia dwutlenku węgla jest korzystny dla świata roślin. Ocenia się, że do 2050 roku “nawożenie” przy pomocy wzrostu atmosferycznego CO2 spowoduje przyrost masy drzewnej na świecie o około 25%. Nawożenie to jest zapewne, przyczyną zauważonego ostatnio szybkiego przyrostu lasów rosyjskich i północno-amerykańskich. Usiłowanie obniżenia przemysłowej emisji CO2 i innych gazów cieplarnianych nie wpłynie na klimat, ale może doprowadzić do światowej katastrofy ekonomicznej.1513. Podsumowanie
Niektóre czynniki niepewności w danych i modelach paleo-klimatu (w skali setek, tysięcy i milionów lat) – zmiany osi ziemskiej – niestabilności mocy Słońca – nieznajomość parametrów absorpcji metanu i dwutlenku węgla w oceanie – wpływ różnych gazów i aerozoli cieplarnianych – wpływ wody w atmosferze na albedo – trudności przy ilościowym ujęciu konwekcji w atmosferze i oceanie – opóźnienia w ustalaniu się równowagi
Niektóre czynniki niepewności w modelach antropogennego efektu cieplarnianego (w skali dziesięcioleci) – woda oraz para wodna (pomijane w obliczeniach modelowych!) – aerozole (“białe ” i “czarne”) – bardzo nieprecyzyjne uwzględnianie w modelach klimatu kapryśnych procesów konwekcji energii – pomiary zmian poziomu oceanów częściej u wybrzeży, niż na środku oceanu, zbyt krótki czas pomiarów (od lat 80-tych zeszłego wieku) – pomiary temperatur wokół “wysp ciepła” (miasta) lub w warunkach sporej ignorancji (“trzeci świat”) – efekt nieliniowości (nasycenia) absorpcji promieniowania cieplnego przy wzroście stężenia CO2 – związek przyczynowo-skutkowy między temperaturą powierzchni oceanu a ilością CO2 w atmosferze (nieduża wiarygodność istniejących uproszczonych modeli).
Przyroda i Ziemia zmieniają się w czasie. Z coraz lepiej poznawanej historii życia wynika, iż Ziemia przeżywa okresy raz sprzyjające rozwojowi jednych form życia, raz innych. Ważne jest jednak to, że biosfera ciągle trwa. Człowiek swą działalnością walnie przyczynił się do przyspieszenia pewnych procesów, w większości negatywnych dla środowiska oraz dla stabilności klimatu. Na szczęście ludzkość nie jest jeszcze tak silna, żeby mieć pierwszoplanowy ani wyłączny wpływ na wszystko to co dzieje się na Ziemi. Mam głębokie przekonanie, że Ziemia przetrwa bez większego uszczerbku różnorakie akty prawne, które mają ją “chronić”, np. akcje eliminowania freonów z produkcji, walki z nadmierną emisją dwutlenku węgla, przeciwdziałania globalnemu ociepleniu (lub ochłodzeniu). Może nie przetrwać wraz z wieloma innymi gatunkami twórca tych “wspaniałych” akcji i pomysłów – człowiek. Przy obecnym stanie wiedzy i techniki to mieszkańcy muszą się przystosować do warunków panujących na Planecie, a nie przystosowywać Ją do swoich potrzeb, a raczej do często infantylnych, a nierzadko i zbrodniczych pomysłów klas rządzących. Z tych analiz wynika, że zdolności Ziemi do samo-regulacji sięgają znacznie większych amplitud wahań parametrów, niż może wywołać homo sapiens sapiens. Oby.LITERATURA:
1 Into The Arctic. 2 “LEKSYKON naukowo-techniczny z suplementem”, Wydawnictwa Naukowo-Techniczne, Warszawa 1989. 3 “MAŁA ENCYKLOPEDIA POWSZECHNA PWN”, Wydawnictwo Naukowe PWN, Warszawa 1997. 4 Witold Mizerski, “Tablice chemiczne”, Wydawnictwo Adamantan, Warszawa 1997. 5 James E. Hansen, A Brighter Future; NASA Goddard Institute for Space Studies, New York, NY (to appear in Climate Change, anticipated publication date of Summer 2001) 8 John Daly, www.john-daly.com, 2002 i AVISO website http://www.jason.oceanobs.com/html/portail/actu/actu-welcome-uk.php3 10 Statement of Dr. James E. Hansem Head NASA Goddard Institute for Space Studies before the Committee on Commerce, Science and Transportation United States Senate May 1, 2001 11 Peter T. Doran, John C. Priscu, W. Berry Lyons, John E. Walsh, Andrew G. Fountain, Diane M. McKnight, Daryl L. Moorhead, Ross A. Virginia, Diana H. Wall, Gary D. Clow, Christian H. Fritsen, Christopher P. McKay & Andrew N. Parsons, Nature AOP, Published online: 13 January 2002; DOI: 10.1038/nature710, Nature 415, 517 – 520 (2002), 12 Hyndman, and S.R. Dallimore, Canadian Society of Exploration Geophysicists, Natural Gas Hydrate Studies in Canada, R.D. The Recorder, 26, 11-20, 2001, 13 Mirosław Dakowski “Rurociągi” nr 4, 2001, 14 Erwin Suess, GerhardBohrmann, Jens Greinert, Erwin Lausch, “Płonący lód”, “Świat Nauki” nr 2, luty 2000. 15 Zbigniew Jaworowski, “Czy obniżenie nadmiernej emisji gazów cieplarnianych do atmosfery zlikwiduje problem ocieplania się klimatu na Ziemi?”, Centralne Laboratorium Ochrony Radiologicznej, Warszawa 16 Krystyna Forowicz, Klimatyczne archiwum Ziemi, Rzeczpospolita nr 15, 18.01.2001, 17 Daniel P. Schrag, Of ice and elephants, NATURE|VOL 404 |2 MARCH 2000 |www.nature.com 18 Peter O’Neill, Chemia środowiska, Wydawnictwo Naukowe PWN, Warszawa-Wrocław 1998.
Na użytek tej publikacji definiujemy “wymuszenie” (ang. forcing) jako zmianę ilości energii słonecznej dochodzącej do powierzchni Ziemi, a wywołanej czynnikami klimatyczno-biologicznymi w jednostkach W/m2. Arkadiusz Wysokiński, Mirosław Dakowski Zakład Energii Odnawialnych Akademia Podlaska w Siedlcach (ok. 2005r.) [przypominam, bo kłamcy klimatyści te i podobne DANE ignorują. A kotły ze smołą dla nich już diabły grzeją. MD