Dlaczego zapomniano o Climate Gate? Czyli o fałszowaniu danych klimatycznych dla IPCC

Dlaczego zapomniano o Climate Gate? Czyli o fałszowaniu danych klimatycznych dla IPCC

[Więc z uporem przypominam.. M. Dakowski]

https://zmianynaziemi.pl/wiadomosc/dlaczego-zapomniano-o-climate-gate-czyli-o-falszowaniu-danych-klimatycznych-dla-ipcc

Na świecie istnieje kilka głównych baz danych klimatycznych. W USA są to: GISSTEMP (Goddart Insitute for Space Science) należący do NASA (National Aeronautics and Space Administration), RSS (Remote Sensing System) przy UAH (University of Alabama Huntsville) oraz NCDC (National Climatic Data Center) przy NOAA (National Oceanic and Atmospheric Administration). W Anglii jest to MOHC (Met Office for Hadley Center for Climate Sciences and Services)  przy University of East Anglia. Instytucje te przez wiele lat cieszyły się zaufaniem i międzynarodowym szacunkiem.  Niestety w sprawach obserwacji klimatycznych i ocieplenia klimatu popełniły w ostatnich latach wiele błędów i celowych dezinformacji. 

W roku 2009 wyciekły do internetu setki prywatnych maili pracowników naukowych MOHC. W tej korespondencji dzielili się między sobą komentarzami na temat braku ocieplenia klimatu w ostatnich kilkunastu latach i pilnej potrzebie ukrycia tej informacji przed innymi naukowcami i opinią publiczną.

Pracownicy ci planowali jakie dane najlepiej publikować i komu przedstawiać je do aprobaty przed publikacją. Była to tzw. afera „Climategate”. Doprowadziło to do niewielkich zmian personalnych w tym instytucie. Wkrótce potem MOHC przeprowadziło porządki w danych klimatycznych.  Raporty klimatyczne z ponad stu lat zostały wprowadzone do komputerów i poddane homogenizacji czyli ujednoliceniu. Oryginalne dane zostały wyrzucone na śmieci ze względu na „brak miejsca” w nowym budynku instytutu. W tej chwili dostępne są tylko nowe, spreparowane dane. 

GISS w ostatnich latach opublikował wykresy temperatury wykazujące, że obecnie mamy najcieplejszy okres. Niestety wykresy te otrzymano dopiero po wprowadzeniu „poprawek”. Polegały one na obniżaniu temperatury o 0,5 do 3,0 °C w poprzednich okresach historycznych. W ten sposób maskuje się fakt, że w okresie średniowiecznego ocieplenia a także w latach 20. i 30. XX w temperatura była wyższa niż obecnie. Obrazuje to rys. 41.

Rys. 41.  Średnia temperatura w latach 1900-2000 ze stacji meteo w mieście Genewa w stanie Nowy Jork.  Linia zielona-dane oryginalne.  Linia niebieska-dane po poprawkach.

Poniżej przedstawiamy kilka innych przykładów fałszowania danych klimatycznych pochodzących z różnych instytucji.

Następnym przykładem manipulacji danymi jest poniższy wykres obrazujący rok 2016 jako nagorętszy w historii. Krytycy zwracają tu uwagę na fakt iż najgorętszymi terenami są te gdzie nie ma stacji meteorologicznych. Zastosowano tu homogenizację oraz ekstrapolację danych to znaczy, że dane zostały najpierw ujednolicone a potem przeniesione na tereny skąd nie pochodzą żadne obserwacje jak Syberia, środkowa Australia czy Arktyka.

W 2016 roku Gavin Smith z NASA opublikował artkuł, w którym stwierdził, że 2014 rok był najgorętszy w historii.  Było to szeroko cytowane w prasie a prezydent Barack Obama wykorzystał tę publikację na konferencji IPCC w Paryżu aby poprzeć teorię AGW i przygotować rezolucję ograniczającą produkcję CO2przez Stany Zjednoczone. Niestety można tu powiedzieć, że Gavin przygotował publikację na zamówienie administracji.

Wytknięto mu, że w jego artykule średnia temperatura w 2014 roku była wyższa tylko o 0,04 °C a więc pod wzgłędem statystycznym była bez znaczenia. Ponadto Gavin nie chciał udostępnić swoich metod obliczeniowych a potem stwierdził, że komputer na którym miał wszystkie dane uległ zniszczeniu. Przykładów tego typu poprawek, korekt, doniesień i publikacji można by przytaczać bardzo wiele.

Spowodowało to stan pewnego załamania naukowego gdyż wiele danych zostało utraconych a inne nie są miarodajne.  Sytuacja ta doprowadziła do protestów w świecie naukowym i tak w 2016 roku grupa 300 naukowców-fizykow meteorologów, inżynierów chemików, geologów i innych specjalistów wysłała do Sejmowej Komisji d/s Nauki, Przestrzeni Kosmicznej i Technologii list krytykujący działania NASA i NOAA w zakresie badań i publikacji klimatycznych.

Działania te zaowocowały dochodzeniem w Kongresie USA, w którym stwierdzono wiele nieprawidłowości w tych instytucjach. Dwa lata później administracja Donalda Trumpa ograniczyła status Agencji Ochrony Środowiska (EPA), która była jednym z głównych narzędzi Baracka Obamy do forsowania polityki klimatycznej. Nowy szef zakazał pracownikom EPA  publicznych wypowiedzi i niesprawdzonych publikacji. Zmniejszono budżet o 30%, zniesiono przepisy wprowadzone przez poprzednią administrację i ograniczono zasięg działalności tego ministerstwa. Niestety na codzień z mediów docierają do społeczeństwa jednostronne doniesienia o globalnym ocieplaniu.

Przykładem tego może być artykuł z października 2018 r w renomowanym piśmie “Nature” zatytułowany “Obliczenie pochłaniania ciepła przez oceany na podstawie zmian poziomu Oi COw atmosferze”. Autorzy tego artykułu Lauren Resplendy i Ralph Keeling, z kalifornijskich uniwersytetów stwierdzili, iż ocieplenie oceanów przebiega o 60% szybciej niż przewidywało to IPCC! 

Był to nowy naukowy dowód nie tylko na obecność AGW lecz także na coraz większą dynamikę niebezpiecznych zjawisk. Wskazywano na istnienie nadmiaru ciepła na ziemi, niemożność jego wypromieniowania w przestrzeń i przyśpieszone pochłanianie go przez oceany. Pracę tę cytowano powszechnie w wielu krajach a IPCC dołączyło ją do swoich dokumentów. Apelowano o ograniczenie produkcji CO2. Wkrótce artykuł  przeczytał matematyk, emerytowany naukowiec Nicholas Lewis, który już na pierwszej stronie znalazł dwa podstawowe błędy w metodzie obliczeniowej.

Po pierwsze niepoprawnie obliczono różnicę stężenia CO2oraz źle wyliczono zakres błędu statystycznego. Na podstawie tych obliczeń nie można było wyciągać żadnych wniosków o pochłanianiu ciepła przez wody oceanów. Lewis kontaktował się w tej sprawie z autorami publikacji jednak nie otrzymał odpowiedzi i opublikował swoje uwagi na blogu krytycznie nastawionym do teorii globalnego ocieplenia. (http://www.realclimate.org/index.php/archives/2018/11/resplandy-et-al-correction-and-response/).  Krótko po tym autorzy publicznie przyznali się do błędu stwierdzając, że się “pomylili” a ich recenzent “nie zauważył” tego przed publikacją.  W  ten sposób szanowane pismo naukowe dołączyło do publikatorów propagandy globalnego ocieplenia.

Innym przykładem okłamywania opinii publicznej jest opis pożarów w Kalifornii. We wrześniu 2018 roku doszło do zaprószenia ognia w lesie na północy tego stanu. Było to w końcu okresu suchego i na dodatek wiały wiatry św. Anny, które przenoszą suche powietrze z lądu w kierunku oceanu z szybkością do 100 km/godz.  Pożar szybko przerodził się w nieopohamowaną burzę ogniową, która zniszczyła tysiące hektarów suchych o tej porze roku lasów, 12 tysięcy domów i zabudowań a także tysiące samochodów.

W katastrofie zginęło ponad 100 osób. Dokładna liczba ofiar nigdy nie będzie znana gdyż wiele ciał spaliło się całkowicie nie pozostawiając śladu. Miasteczko Paradise położone w zalesionej okolicy zostało w całości pochłonięte przez ogień. Pożar ten spowodował straty finansowe rzędu kilkuset bilionów dolarów. Na walkę z ogniem wydano 440 mln dolarów czyli roczny budżet przeznaczony na te cele.

Pożary w Kalifornii trwały dłuższy czas i w ciągu dwóch dni wprowadzały do atmosfery tyle zanieczyszczeń co wszystkie auta w tym stanie w ciągu roku. W 10 dni po pożarach okres suchy zakończył się nadejściem obfitych opadów deszczu i śniegu. Zanim jednak zgliszcza ostygły gubernator Kalifornii Jerry Brown obwieścił, że przyczyną katastrofy było globalne ocieplenie, które doprowadziło do zmniejszonych opadów deszczu, suszy i następnie pożarów.

Oczywiście powtarzano to w wielu mediach w USA i na świecie. Wszędzie mówiono o kilkuletniej suszy i pożarach jako jeszcze jednym potwierdzeniu istnienia zaburzeń klimatycznych pochodzących od człowieka. Zaprzeczają temu dane opublikowane przez NOAA, które przedstawia rys. 44.

Widać na nim, że na przestrzeni ponad 100 lat ilość opadów w Kalifornii się nie zmieniła. Czyli to nie brak wody spowodował katastrofę. Zobaczmy jakie były prawdziwe przyczyny pożarów. W ostatnich kilkudziesięcu latach zbudowano tysiące domów na terenach zalesionych. Domostwa są otoczone drzewami i krzewami, które często przylegają do budynków.  Nie przestrzegano strefy buforowej, dzięki czemu ogień mógł się łatwo przenosić. Statystyki wykazują, że przyczyną pożarów w ponad 90% jest działalność ludzka i może to być celowe podpalenie lub przypadek.

Tam gdzie mieszka więcej osób tam jest większe ryzyko podpalenia. Przyczyny naturalne stanowią tylko 5-6% pożarów. Innym powodem jest niewłaściwe zarządzanie lasami. Obszary leśne w USA są pod opieką państwowej służby leśnej, której działalność określają odpowiednie ustawy wprowadzane przez kolejnych prezydentów. W roku 2012 przepisy te zmienił Barack Obama. Wprowadził zapisy, których domagały się radykalne grupy środowiskowe jak Greenpeace, Tree People, Nature Conservancy, Sierra Club, Friends of Earth i inne. W myśl nowej ustawy służby leśne miały zakaz usuwania obumarłych drzew i krzewów oraz przerzedzania zbyt gęstych lasów.

Ustawa ta była od początku krytykowana przez leśników i strażaków, którzy twierdzili, że w zwiększy ona ryzyko pożarów i chorób drzew. W 2015 roku Kongres USA przygotował nową ustawę o lasach popieraną przez obie partie ale prezydent ją odrzucił. W Kalifornii, która jest co roku nękana pożarami przygotowano w 2016 roku specjalną ustawę o Zapobieganiu Pożarow Lasów (SB 1463). Fachowcy mówili o 140 mln obumarłych drzew w lasach, które mogą stać się paliwem dla ognia. Autorem jej by republikanin John Moorlach i zyskała ona 100% poparcia w stanowym senacie i sejmie. Po raz pierwszy dosłownie wszyscy politycy na nią głosowali.

Niestety lewicowy gubernator stanu Jerry Brown tę ustawę odrzucił. Nie podał on konkretnych podstaw swojej decyzji. Po prostu dla niego skrajne środowiskowe poglądy są ważniejsze niż fachowe argumenty. Brak odpowiedniego zarządzania lasami trwał dalej i w dwa lata później doszło do tragedii a gubernator brak kompetencji, głupotę i zaślepienie ideologiczne zasłanił globalnym ociepleniem. Obecnie leśnicy oceniają, że zwiększone ryzyko pożarów jest w  60% lasów państwowych i że w 75% przypadków jest to spowodowane brakiem wycinania i usuwania drzew. W Kalifornii do pożarów dodatkowo przyczyniły się bardzo obfite opady deszczu w ostatnich dwóch latach co sprzyjało wegetacji roślin i pozostawiło więcej „paliwa” po okresach mokrych. Nawiasem mówiąc w lutym 2017 roku omal nie doszło do katastrofy kiedy opady deszczu przepełniły największy sztuczny zbiornik Ogoville i przelewająca się woda zaczęła podmywać zaporę. Ewakuowano wtedy ponad 100 tys ludzi. Na szczęście kilkudniowa przerwa w opadach pozwoliła na opanowanie sytuacji. Gubernator Brown o tych sprawach zdaje się jednak nie pamiętać.

P.S. Powyższy artykuł jest zwiastunem większej, przeglądowej pracy, którą będę zamieszczał  w kilku częściach.

Nie bójmy się oddychać

„Zasada trójki” mówi, że można przeżyć 3 tygodnie bez jedzenia, 3 dni bez wody i 3 minuty bez tlenu. Są to oczywiście liczby przybliżone i dotyczące zwykłych śmiertelników. Jeśli chodzi na przykład o bezdech, to światowy rekord w tej dziedzinie został ustanowiony w 2009 r. przez Stéphanea Mifsuda i wynosił 11 minut i 35 sekund. Potem wynik ten został pobity w 2012 r. przez Toma Sietasa, ale był on„podkręcony”, bowiem rekordzista oddychał wcześniej przez dłuższy czas czystym tlenem (1).

Normalny człowiek, wcześniej nie trenujący, jest w stanie przeżyć bez tlenu właśnie owe trzy minuty. Później dochodzi u niego do nieodwracalnych zmian w mózgu, związanych z niedotlenieniem.

Co się dzieje jeśli dostarczamy organizmowi zbyt mało tlenu? Grozi nam hipoksja. Mamy z nią do czynienia nie wtedy, kiedy odetniemy się od tlenu od razu, ale wówczas, kiedy przez dłuższy czas dostarczamy organizmowi niewystarczającą ilość pierwiastka życia. Początkowymi objawami hipoksji mogą być bóle i zawroty głowy, duszność, osłabienie, senność, zaburzenie widzenia, przyspieszenie oddechu i tętna oraz podwyższenie ciśnienia tętniczego. Kiedy zaś wystąpi zwiększone stężenie dwutlenku węgla we krwi, może mieć to dużo poważniejsze konsekwencje(2).

Ale również i nadmiar tlenu prowadzi do niebezpiecznego nadciśnienia i innych problemów zdrowotnych(3).

Ilość tlenu w ziemskim powietrzu utrzymuje się wciąż na tym samym, zadziwiającym poziomie. Wynosi on 20,95 % objętości wszystkich atmosferycznych gazów. Za mała jego ilość na planecie mogłaby spowodować powszechną hipoksję, zbyt duża – hiperoksję i wybuchy pożarów. Czyli, trywializując, jeśli było by go zbyt mało udusilibyśmy się, jeśli zbyt dużo – usmażyli. Żeby ten stan równowagi się utrzymał, musi istnieć mechanizm, który zmusza rośliny do większej czy mniejszej produkcji tlenu. Ale choć roślin wciąż ubywa, a populacja ludzka nieustannie rośnie, produkując w epoce postępu technicznego, niewspółmierne do jej wielkości ilości CO2, to procentowy udział pierwiastka życia w atmosferze i tak pozostaje niezmienny. Dlaczego? Ponieważ ma w tym swój udział również proces topnienia lodowców. Podczas ich roztapiania się, do oceanów uwolnione zostają substancje odżywcze, które są pokarmem dla okrzemek. To one produkują 50% tlenu, obecnego na Ziemi. Gdy okrzemki mają pod dostatkiem pokarmu, ich ilość codziennie podwaja się, więc im szybciej proces topnienia następuje, tym więcej okrzemek przybywa. Jednak nie grozi nam hiperoksja. Bowiem podwyższona ilość tlenu spowoduje, na przykład pożary, których dymy – gdy zjawisko stanie się powszechne – odetną ziemię od światła słonecznego, ochładzając klimat i redukując ilość okrzemek. Te zaś obumierając, opadną na dno mórz i oceanów, jak morski śnieg, tworząc warstwę po warstwie. Okrzemkowy dywan ma obecnie grubość 800 metrów. W końcu dno, gdzie żerowały okrzemki, w niektórych miejscach wypiętrzy się na tyle, że powstanie tam słona pustynia. Taka sama, jak ta afrykańska, z której pył dociera do Amazonii. A ten pył, który ją użyźnia, są to właśnie szczątki obumarłych okrzemek. Proces bio-odnowy ruszy na nowo z kopyta.

Wszystko więc – jak widać – wzajemnie łączy się i uzupełnia, stanowiąc niezwykły, żywy mechanizm, którego istotą – jak wnioskuję – jest m.in. stały poziom tlenu niezbędny do funkcjonowania ludzi, oraz zwierząt.

Gdyby ktoś sądził, że to nasze organizmy, w ramach ewolucji dostosowały się do takiego składu powietrza, to powinien umieć odpowiedzieć również na to, dlaczego od 50 mln lat udział tlenu w atmosferze trwa nieystannie przy owych 21 procentach(4).

Wszystko to, co napisałem, jest doskonale znane naukowcom. Jednak zasadnicze pytanie, jakie zadają sobie oni w związku z tą wiedzą brzmi: jak spowolnić proces emisji gazów i dwutlenku węgla, aby lądy nie uległy zalaniu i nie nastąpiły nieodwracalne zmiany klimatyczne na Ziemi?

Zero pytania o tlen – jakby jego stała ilość była oczywistością. Może i jest. Ale skoro tak – jeśli istnieje naturalny i Pangenialny(5) mechanizm regulacji – po co w niego ingerować? Moim zdaniem podstawowe pytanie powinno brzmieć – w jaki sposób powstał mechanizm, który chroni człowieka i zwierzęta? Odpowiadając sobie na nie, odpowiemy też, czy jest sens przejmować się tymi negatywnymi procesami, które według ekologistów mają ponoć zagrażać Ziemi. Ja w każdym razie nie potrafię dać ani jednego przykładu, gdzie coś wymyślonego przez człowieka, byłoby lepsze od naturalnego. (Koniec dygresji.)

Skoro więc wiadomo, że do życia potrzebne jest nam powietrze zawierające około 21% tlenu, i że planeta pracuje usilnie, aby nam taką właśnie jego dawkę dostarczyć, pomyślmy o samym oddychaniu. Czy robimy to dobrze? Można się ironicznie uśmiechnąć na tak postawione pytanie. Jak można robić źle coś, co robi się automatycznie?! Rzecz, która jest dosłownie pierwszą czynnością jaką człowiek wykonuje zaraz po urodzeniu. A jednak może. Ja, złapałem się na tym, że oddycham bardzo płytko, co niestety nadrabiam częstotliwością. Jakbym się zdyszał, albo nieustannie czegoś bał. Kiedy zgłębiłem temat, okazało się, że oddycham źle, przez co jestem zwykle zmęczony, często brakuje mi słów, mam problemy z analizą danych, emocjami, koncentracją, itp. Często będąc w stresie mam nawet odczucie, że w ogóle nie mogę głęboko nabrać powietrza.

Okazuje się, że człowiek rodzi się z umiejętnością prawidłowego oddychania, ale później różnego rodzaju traumy życiowe, oraz stres, powodują, że zostaje ona przytłumiona i wypacza się. Tymczasem nasze ciało, gdy nie zagraża mu niebezpieczeństwo, powinno oddychać głęboko i spokojnie. Jeśli ktoś – podobnie jak ja – tak nie oddycha, to jeśli tylko chce, może szybko sobie przypomnieć tę wrodzoną umiejętność.

Jak powinno się poprawnie oddychać? Przeponą. Jest to „oddychanie brzuszne”. Tak właśnie oddychają dzieci. Zaledwie kilka minut takiego oddychania pozwala na odzyskanie spokoju, zwiększenie koncentracji, czy opanowanie stresu, lub jeśli się jest w stanie zgnuśnienia – na wewnętrzną mobilizację. Jest nawet ćwiczenie, które pozwala szybko sobie przypomnieć, jak powinno się oddychać. Najpierw jednak trzeba przyjrzeć się swemu codziennemu oddechowi. Chwilę śledzić czy powietrze wypełnia (i jak wypełnia) piersi czy brzuch. Prześledzić jego drogę w głąb ciała i potem na zewnątrz. Gdy zauważymy, że ta obserwacja staje się na tyle nudna dla naszego umysłu, że zaczyna on szukać innych myślowych atrakcji, trzeba – uświadomiwszy sobie to – spokojnie, ponownie włączyć go w proces świadomego oddychania. W tym celu należy zacząć od „wykonywania wdechów nosem, a wydechów ustami. (…) Jest to, jedyny sposób na przefiltrowanie bakterii i potencjalnych wirusów, które w przeciwnym razie trafią do naszego organizmu.(…)(6)”. Na początku trzeba też wziąć nieco głębszy oddech niż zwykle, a następnie pozwolić powietrzu chwilę spokojnie wnikać w ciało. Następnie zrobić wydech. „Powinien trwać mniej więcej 3 razy dłużej niż wdech”(7). W literaturze przyjmuje się, że powinno się układ tego rodzaju wdechów i wydechów wykonać przynajmniej 21 razy(8). Podczas tego ćwiczenia, od czasu do czasu nasz umysł popada w stan rozproszenia. Kiedy go na tym przyłapiemy, stwierdzamy po prostu ten fakt i powracamy z powrotem do oddechu: „wdech”, „wydech”. Cały czas staramy się nie odbiegać myślami od tego procesu. Obserwujemy. Strumień powietrza wchodzi przez nos. Podążamy za nim myślą, koncentrując się dowolnym odcinku jego drogi. Może to być nos, albo brzuch, albo ta część ciała która sygnalizuje nam ,że się – na przykład – rozluźniła, albo odwrotnie – wskazuje na napięcie. Można zmieniać obserwację kolejnych części ciała podczas tych wdechów i wydechów.

Gdy wykonujemy to ćwiczenie może opanować nas ziewanie, albo mamy ogromną ochotę się przeciągnąć. To bardzo dobrze. Należy zaufać ciału i poddać się mu, nie przerywając procesu, które samoczynnie zainicjowało, aż samo powie:„dosyć”. Ono najlepiej wie, czego nam potrzeba. Najlepiej obserwować dokładnie co dzieje się wówczas w ciele, które partie płuc wypełniają się powietrzem, jakie części ciała rozciągają się. Nie należy przerywać tego naturalnego procesu. Niech trwa on jak najdłużej.

Dzielę się z tym z Wami, bo odkryłem, jak ważna jest umiejętność prawidłowego oddychania. Nawet biorąc na logikę – jest to przecież rzecz fundamentalna, bo na niej opiera się nasze życie. Uświadomiłem też sobie, że w miarę jak obserwuję swój oddech i włączam w proces oddychania swoją świadomość – lepiej panuję nad sobą i potrafię lepiej się odnaleźć w kryzysowej sytuacji. Czuję, że moje ciało działa bardziej harmonijnie. Bardziej też akceptuję siebie. Nie tylko. to.

Przychodzą mi też do głowy lepsze rozwiązania i pomysły. Coraz częściej zastanawiam się na przykład nad tym, czy maseczki, które każą nam nosić, wręcz nie pogłębiają – redukując ilość koniecznego nam tlenu i wzmagając niepokój, który osłabia nasz – uczący się i od setek tysięcy lat modyfikujący się, Pangenialny jak i cały świat w którym żyjemy – układ odpornościowy.

(1) https://zdrowie.tvn.pl/a/ile-mozna-zyc-bez-tlenu-wody-czy-jedzenia

(2) https://www.doz.pl/czytelnia/a15863-Hipoksja_niedotlenienie_organizmu__przyczyny_objawy_leczenie_i_rodzaje_niedotlenienia Ten artykuł wymienia wiele różnego rodzaju problemów spowodowanych hipoksją. Są to m,in splątanie, zaburzenie świadomości, a nawet śpiączka. W dłuższym okresie czasu może dojść do nadciśnienia płucnego, niewydolności serca, nadmiernej produkcji krwinek czerwonych czy rozwoju chorób nowotworowych, zaburzeń pamięci, oraz osobowości. Także układ krwionośny i nerki są bardzo wrażliwe na brak tlenu. Nie wymieniam ich w tekście głównym z uwagi na to, że obecnie bardzo modne stało się epatowanie chorobami. Straszenie powikłaniami zdrowotnymi stało się już tak obrzydliwe, że unikam go, gdzie tylko mogę. Stres obniża odporność organizmu, jest więc pierwszą rzeczą jaką w dobie tzw. ”pandemii” należałoby zaprzestać. Chyba, że tak naprawdę nie zależy nam na tym, tylko na jej nasileniu.

(3) Wzrasta np. ryzyko kwasicy oraz wzrost szkodliwych wolnych rodników. https://www.akserwis.pl/blog/17-nadmiar-lub-niedobor-tlenu-sprawdz-zagrozenia

(4) https://www.wiz.pl/srodowisko/2104059,1,ognisty-glob.read

(5) Pangenialny – wpadłem na to słowo, bo nie chciałem używać słowa „kongenialny”, jako moim zdaniem dotyczące ludzi. Okazuje się jednak, że słowo to rzeczywiście istnieje w języku chińskim i o dziwo ma takie znaczenie jakie chciałem my nadać, Oznacza mianowicie: „Pan genialny”:).

(6) https://www.walmark.pl/magazyn/oddech-to-zycie-%E2%80%93-ale-czy-potrafimy-wlasciwie-oddy

(7) https://www.medicover.pl/o-zdrowiu/stres-a-oddychanie-jak-prawidlowo-oddychac-aby-poradzic-sobie-ze-stresem,7072,n,192 W artykule tym znajdziemy różne ćwiczenia, które urozmaicą oddychanie.

(8) Ibidem. Powyższe ćwiczenia są podzielone na przykład na siedem rodzajów, podczas których wykonujemy po 3 głębokie wdechy i wydechy.

——————-

Roman Misiewicz https://debica24.eu/artykul/nie-bojmy-sie-oddychac/770129

ZMIANY KLIMATU, EFEKT CIEPLARNIANY; CZY UDZIAŁ CZŁOWIEKA JEST ISTOTNY? I CZY JEST UDOKUMENTOWANY?

1. „Polityka ekologiczna” a dane geofizyczne

Około 10 tysięcy lat temu skończyła się ostatnia duża epoka lodowa. W sprzyjających (co nie znaczy „łagodnych”!) warunkach klimatycznych rozwinęła się cywilizacja. Wraz z rozwojem techniki człowiek zaczął w coraz większym stopniu oddziaływać na klimat Ziemi, dodając czynniki antropogenne do istniejących naturalnych sił wpływających na klimat. Czy wiemy już wystarczająco dobrze jak zmieniał się klimat naszej Planety w poprzednich epokach i erach? Czy na podstawie tych danych i pomiarów wykonywanych obecnie jesteśmy w stanie przewidzieć, jakie zmiany w klimacie będą następowały w najbliższej i dalszej przyszłości? Wydaje się, że ciągle mamy za mało precyzyjnych danych. Jak ważna jest tu dokładność pomiarów i prognoz zobaczymy, gdy popatrzymy na dwie liczby: Energia docierająca ze Słońca w okolice orbity Ziemi ma wartość około 1390 W/m2. Sumaryczna zmiana jaka wywołała ostatnią dużą epokę lodową miała wartość około 2 W/m2. Zmiana przyczyn zaledwie o około 2 promile spowodowała więc wielkie zmiany w warunkach panujących na Ziemi. Jednocześnie ciągle jeszcze niewiele wiemy na temat bardzo złożonych mechanizmów i współzależności tysięcy parametrów wpływających na zmiany klimatu. Modele wykorzystywane do prognozowania zmian klimatycznych są zbyt proste i opierają się na danych pomiarowych uzyskanych w większości tylko dla wybranych rejonów, a nie dla całego globu. (Np. badania prowadzi się tam gdzie można uzyskać pieniądze na stacje pomiarowe). Nie chodzi tu raczej o „niedostateczną moc obliczeniową” największych i najnowocześniejszych komputerów, chodzi w znacznej części o to, że rozwiązania złożonych zależności matematycznych są niestabilne, oscylujące przy minimalnych zmianach danych wejściowych. Doświadczenie wykazuje, że klimat Planety jest – w skali setek milionów lat – samoregulujący się. A najważniejsze jest dla nas przecież pytanie o samoregulację klimatu. Czy ma przewagę stabilnych, ujemnych sprzężeń również w skali setek lub dziesiątków lat?
Poznanie wszystkich przyczyn i mechanizmów rządzących klimatem jest wyzwaniem, które stoi przed ludzkością. Istotne jest, aby zrobić to w sposób tani i jednocześnie skuteczny.
Bardzo popularnym tematem, pojawiającym się niemal codziennie w mediach, jest problem zmian klimatu Ziemi pod wpływem działalności człowieka, potocznie zwanym „efektem cieplarnianym”. Nie wszyscy publicyści i dziennikarze zauważają jednak, że na podstawie tych samych (lub podobnych) danych pomiarowych, różni uczeni autorzy wyciągają diametralnie różne wnioski. Można więc przeczytać prognozy gwałtownego ocieplania się ziemskiego klimatu, jak również opracowania dowodzące, że w najbliższej przyszłości czeka nas kolejna „epoka lodowa”. W takim wypadku nasuwa się pytanie: która ze stron ma rację? A może wszyscy dostrzegają i opisują tylko „część prawdy”, opierając się na zbyt małej liczbie danych podstawowych, które dotyczą wydzielonych obszarów naszego globu, ale nie odzwierciedlają całości zmian i ich przyczyn. W grę wchodzą decyzje dotyczące kierunku wydawania co najmniej setek miliardów dolarów rocznie, warto więc przyjrzeć się krytycznie geofizycznym założeniom tej polityki finansowej.

 2. „Magiczne przyczyny” EFEKTU CIEPLARNIANEGO !

Powszechnie (również w dyskusjach naukowców) mówi się, że podstawową przyczyną wzrostu temperatury na Ziemi jest przyrost ilości dwutlenku węgla w atmosferze powstający podczas spalania paliw kopalnych (węgla kamiennego i brunatnego, ropy naftowej i jej produktów, gazu ziemnego). Jest to zgodne z poniższą definicja:
efekt cieplarniany2 – geofiz, wzrost średniej temperatury przyziemnej warstwy powietrza wskutek coraz większej koncentracji CO2 w atmosferze; CO2 przepuszcza krótkofalowe promieniowanie słoneczne utrudniając równocześnie ucieczkę z Ziemi promieniowania długofalowego.
Jest to definicja bardzo krótka i lakoniczna. Popatrzmy więc na inną:
CIEPLARNIANY EFEKT3, efekt szklarniowy, podwyższenie temperatury powierzchni Ziemi spowodowane istnieniem atmosfery ziemskiej (średnia temp. ok. 14-15°C, w nieobecności atmosfery byłaby mniejsza o ok. 30°C); atmosfera ziemska przepuszcza w kierunku Ziemi znaczną część promieniowania słonecznego (promieniowanie krótkofalowe); promieniowanie to jest pochłaniane przez powierzchnię Ziemi (niewielka jego część zostaje odbita) i zamieniane na ciepło, a ogrzana powierzchnia Ziemi emituje promieniowanie długofalowe, w dużym stopniu pochłaniane przez atmosferę (gł. przez cząsteczki pary wodnej i dwutlenku węgla oraz kropelki wody w chmurach); energia przekazana atmosferze jest przez nią wypromieniowywana gł. z powrotem w kierunku powierzchni Ziemi (tzw. promieniowanie zwrotne – podstawowa przyczyna występowania e. c.), a częściowo w przestrzeń kosmiczną; działalność gospodarcza człowieka powoduje stopniowe zwiększanie się stężenia substancji absorbujących długofalowe promieniowanie ziemskie (gł. dwutlenku węgla, metanu, tlenków azotu), co może spowodować pogłębienie się e. c., wzrost temperatury i zmianę klimatu na kuli ziemskiej.

GaztśredGłówne procesy usuwania z atmosfery
N2400 mln latfotochemiczne
He20 mln latucieczka w kosmos
O2600 latbiochemiczne
CF2Cl260 latfotochemiczne
CO210 latbiochemiczne
N2O5-50 latfotochemiczne
NO, NO2kilka tygodnifotochemiczne
NH31 dzieńbiochemiczne
H2Sdo 1 dniafotochemiczne

Tabela 1 Średni czas pozostawania w atmosferze.1

Tak więc to nie tylko dwutlenek węgla ma wpływ na wzrost temperatury, ale również metan, tlenki azotu i „głównie … cząsteczki pary wodnej i … kropelki wody w chmurach”
Czy – i jak – znajduje to odbicie w modelach na których oparto politykę gospodarczą państw?

3. Para wodna – podstawowy gaz cieplarniany

Najważniejszym gazem cieplarnianym jest para wodna, na którą przypada 96 do 99% efektu ocieplania się atmosfery. Ostatnie badania wskazują, że cały zawarty w atmosferze CO2 odpowiedzialny jest za 1 do 5% efektu cieplarnianego. Pozostałe gazy cieplarniane mają jeszcze mniejszy udział. Pomiary izotopowe wskazują, że jedynie 5% z CO2 znajdującego się obecnie w atmosferze ziemskiej pochodzi ze spalania paliw kopalnych. Zatem przemysłowy CO2 zwiększa naturalny efekt cieplarniany zaledwie o 0,05 do 0,25%. J. Daly8 przytacza wyniki badań zwykle ignorowane w „publicystyce ekologicznej” i publicystyce szerokiego nurtu.
Satelitarne pomiary temperatury dolnych warstw atmosfery prowadzone od 1979 r., pokrywające 95% powierzchni Ziemi, ukazują stałą tendencję obniżania się temperatury (w latach 1979-97 o -0,04°C). Pomiary naziemne, niezgodne z satelitarnymi, są mniej pewne, gdyż wpływa na nie efekt „wysp ciepła” wokół rozrastających się miast, gdzie zwykle umieszczone są stacje meteorologiczne. Pomiary satelitarne i glacjologiczne wskazują przyrost lodu na Grenlandii i Antarktydzie z taką szybkością, że około 2030 r. jego akumulacja spowoduje obniżenie się poziomu oceanu światowego o około 30 cm.15

Istnieją jeszcze inne związki przyczyniające się do wzrostu efektu cieplarnianego, pomijane w bardziej popularnych lub tendencyjnych publikacjach.

Rodzaj gazuGWP
CO21
CH430-50
CFC-1311 000

Tabela 2 wielkość wpływu wywieranego przez różne gazów na efekt szklarniowy
(GWP – Global Warming Potential – Potencjał Ocieplenia Globalnego) w odniesieniu do GWP dwutlenku węgla.

W „PROTOKÓLE Z KIOTO DO RAMOWEJ KONWENCJI NARODÓW ZJEDNOCZONYCH W SPRAWIE ZMIAN KLIMATU” w załączniku A zostały wymienione gazy cieplarniane. Oto one:

  1. Dwutlenek węgla (CO2)
  2. Metan (CH4)
  3. Podtlenek azotu (N2O)
  4. Fluorowęglowodory (HFCs)
  5. Perfluorokarbony (PFCs)
  6. Sześciofluorek siarki (SF6)

Jest ich tu tylko sześć. Sygnatariusze jakby zapomnieli o istnieniu pary wodnej. Nie uwzględniają również w sposób ilościowy wkładu kropelek wody (chmury na różnych wysokościach) do albedo (bezpośredniego odbijania promieniowania słonecznego w kosmos). A jest to czynnik, jak widzieliśmy, znaczący.

4. Diagnozy J. Hansena

źródłem istotnych danych klimatologicznych i poważnych analiz jest grupa badaczy skupiona wokół J. Hansen’a w Goddard Institute for Space Studies (NASA), p. np.5 Dr James E. Hansen tak opisuje podstawowe przyczyny zmian klimatu :
„Klimat Ziemi zmienia się z roku na rok i ze stulecia na stulecie, naprawdę jako zmiany aury z dnia na dzień. Są to zmiany chaotyczne, mają miejsce bez wyraźnej przyczyny, ale są ograniczonej wielkości. Klimat również odpowiada na pobudzanie przez różne czynniki. Jeżeli Słońce świeci jaśniej, w sposób naturalny, Ziemia staje się cieplejsza. Jeśli wielki wulkan wyrzuca drobiny materii do stratosfery, wtedy mała część promieniowania słonecznego jest dodatkowo odbijana w przestrzeń kosmiczną i Ziemia ochładza się. To samo dotyczy czynników powstających w wyniku działalności człowieka. Mierzymy te czynniki w watach na metr kwadratowy (W/m2). Dla przykładu, wszystkie gazy cieplarniane wyprodukowane przez człowieka obecnie powodują wpływ około 2 W/m2. To jest tak jakby postawić dwie miniaturowe lampki choinkowe nad każdym metrem kwadratowym powierzchni Ziemi. Jest to równoważne zwiększeniu jasności Słońca o około 0,2 procent.
Rozumiemy dość dobrze jak delikatny jest to wpływ na ziemski klimat. Najpewniejsze dane pochodzą z historii Ziemi. Możemy porównać bieżący ciepły okres, który trwa już kilka tysięcy lat, do poprzedniej epoki lodowej, około 20 000 lat temu. Skład atmosfery podczas epoki lodowej znamy z analizy ilościowej baniek powietrza, które zostały uwięzione gdy warstwy lodu na Grenlandii i w Antarktyce rosły z padającego śniegu.


Wykres 1 Czynniki wpływające na zmiany klimatu w czasie epoki lodowej ok. 20 000 lat wstecz

Zmiany te, razem przedstawione na wykresie 1, wywoływały zmniejszenie energii dochodzącej do Ziemi o około 6,5 W/m2 (z błędem 1,5 W/m2). Ta sumaryczna zmiana utrzymywała planetę o 5°C zimniejszą niż dziś. To empiryczne wyliczenie informuje, że czułość klimatu jest około 3/4°C na zmianę o jeden wat wymuszenia. Modele klimatu zakładające taką samą czułość (W/oC) na wymuszenie, dostarczają zadowalającej zgodności pomiędzy modelami komputerowymi używanymi do przepowiadania jak klimat może zmieniać się w przyszłości, a światem realnym.
Jest jeszcze inny ważny czynnik wymagający zrozumienia i analizy ilościowej: opóźnienia procesów. Zmiany klimatu nie zachodzą w sposób bezpośrednio porównywalny, równocześnie do zaistniałych przyczyn. Potrzeba na przykład długiego czasu i złożonych procesów (prądy, konwekcja), żeby podgrzać ocean. Zwykle trwa kilka dekad lub więcej, aż dojdzie do pewnego zrównoważenia zmian klimatu z ich przyczynami. W czasie około 100 lat zaistniałe zmiany w klimacie odpowiadają jedynie w 60 do 90 procentach wywołującym je przyczynom. Ten długi czas reagowania klimatu komplikuje problem dla obserwatorów i uczonych. Oznacza to, że możemy wnieść do ciągu zmian klimatu to czego efekty będą się pojawiać podczas życia naszych dzieci i wnuków. Dlatego musimy odpowiednio wcześniej być czujni w poznawaniu i zrozumieniu zmian klimatu, ponieważ większość rozpoczętych działań musi ulegać modyfikacjom.”
Tyle cytat z Hansena, którego potraktujemy jako Autorytet Krytyczny.

5. Wymuszenia atmosferyczne – ilościowo


Wykres 2 Czynniki zmieniające klimat obecnie.10

Na wykresie 2 przedstawione są czynniki wpływające obecnie na zmiany klimatu. Są tu przyczyny naturalne (wpływ erupcji wulkanów i wahań emisji Słońca), które się wzajemnie prawie równoważą. Są tu również przyczyny zależne od działalności człowieka. Wśród nich jest wpływ gazów cieplarnianych (podgrzewanie atmosfery) i aerozoli w troposferze (ochładzanie). Aerozole można poglądowo przedstawić jako cząstki jasne („białe„), odbijają więc one pełne widmo (nie-selektywnie) promieniowania słonecznego zwiększając albedo. Wyjątkiem wśród aerozoli jest udział tzw. czarnego węgla (sadza) mającego dodatni wpływ na wzrost temperatury. Na wykresie 2 widać również bardzo istotny wpływ metanu na klimat, chociaż ilość tego gazu w atmosferze jest znikoma, jedynie setki ppb.
      Bardzo dużo i często poruszany jest w prasie, również fachowej temat potrzeby „walki” z emisją dwutlenku węgla jako głównym czynnikiem destabilizującym klimat. Podpisane zostały nawet porozumienia międzynarodowe (Szczyt w Rio 1992, Protokół z Kioto 1997) dotyczące ograniczania emisji tego gazu. Dużo mniej uwagi zwracają natomiast politycy i ich doradcy na inne czynniki zmieniające klimat. Zwróćmy uwagę, że jednoczesny wpływ metanu i „czarnego węgla” na klimat jest porównywalny, tak co do wielkości jak i zwrotu, do „wymuszenia” jakie daje atmosferyczny dwutlenek węgla. W dostępnej obecnie technologii nie jest możliwe radykalne a tanie zmniejszenie poziomu CO2 w atmosferze. Możemy jedynie ograniczać jego emisję poprzez zwiększanie efektywności energetycznej. Niestety znane liczne strategie poszanowania energii pozwalają jedynie na zmniejszenie dynamiki wzrostu stężenia tego gazu.
Przeciwnie jest w przypadku metanu. Uzyskanie zmniejszenia emisji metanu może przynieść dodatkowe korzyści – i dochody. Wydzielanie metanu towarzyszy różnym procesom biologicznym np. rozkładowi odpadów organicznych na wysypiskach śmieci. Jak wiemy z licznych przykładów, zastosowanie instalacji zbierających biogaz daje źródło taniej energii (prawie darmowej po zamortyzowaniu się urządzeń). Zastosowanie na szeroką skalę bioreaktorów przerabiających odpadową biomasę różnego pochodzenia, może wpłynąć pozytywnie z jednej strony na klimat, ale z drugiej również na gospodarkę regionu lub państwa. Innym znacznym źródłem metanu związanym z gospodarką ludzką jest uprawa ryżu. Wymiana odmian ryżu i warunków ich uprawy pozwoliłoby na kilkakrotną redukcję tych emisji. Znaczący ułamek „antropogennych” emisji metanu pochodzi z hodowli bydła. Jedna krowa przy standardowym żywieniu emituje blisko 1 m3 biogazu na dobę. Opracowane są zmiany diety bydła zmniejszające emisje o 30-70%. Możliwe jest również (w zimie) używanie, w kotłach grzewczych, powietrza z wentylowania obór. Tak zwane „metanowe” kopalnie węgla na przełomie lat 80/90 zeszłego wieku jedynie w Polsce emitowały do atmosfery 2-3 mld m3 metanu rocznie. Również ten metan można użyć, choćby jako dodatek dla kotłów energetycznych. O skali zjawiska świadczy fakt, że całe roczne zużycie gazu w Polsce wynosiło wtedy ok. 11 mld m3. Trzy ostatnie sprawy bardzo trudno jest przeprowadzić przy dominującym na świecie systemie BAU (Business As Usual), bo zysk – ogromny – byłby globalny, ale wkład finansowy – lokalny.
Podobnie w efektywny i technologicznie opanowany sposób można zmniejszyć emisję do atmosfery tzw. czarnego węgla. Wystarczy zastosowanie odpowiednich filtrów pyłów na kominach. Jest to proste chociaż nie tak tanie jak w przypadku „walki” z metanem. W ten sposób możemy znacznie ograniczyć czynniki wpływające na ocieplanie się klimatu, ponosząc przy tym nieduże nakłady finansowe, lub wręcz, jak w przypadku odzyskiwania metanu – zarabiając.

6. Dane klimatyczne z przeszłości

Zobaczmy, jak przedstawia się obecne stężenie dwutlenku węgla w atmosferze na tle danych z ostatnich 160 tys. lat.


Wykres 3Zmiany temperatury, CO2, CH4″zapisane” w lodzie w okolicach stacji Vostok, Antarktyda.1

Czerwona (położona najwyżej na wykresie) linia obrazuje zmiany zawartości dwutlenku węgla (w ppm – cząsteczek na milion. Uwaga: Czas biegnie od prawej do lewej.). Stopniowy wzrost stężenia CO2 rozpoczął się około 20 tysięcy lat temu (od poziomu ok. 200 ppm) i trwa do dziś. Tylko wzrost w ostatnich kilkuset latach może być w znacznym stopniu spowodowany przez działalność człowieka. (Na tym wykresie byłaby to prawie pionowa kreseczka przy punkcie „zero”.) Wykres zmian temperatury (w °C) zmienia się podobnie jak stężenie CO2, lecz nie trudno zauważyć przedziały czasu, w których tak nie jest (por. 70, 100 lub 120 kyr). Podobnie zachowuje się wykres zmian stężenia CH4 (w ppb – cząsteczek na miliard). Zarówno obserwowana obecnie ilość dwutlenku węgla jak i metanu w atmosferze jest porównywalna do wartości maksymalnych dla tych gazów w ostatnich 160 tysiącach lat. Pozatem podkreślmy, że zawartość dwutlenku węgla w atmosferze była wiele razy w historii Ziemi dużo większa niż obecnie. Sytuacja taka miała miejsce m. inn. w okresie ponad 300 mln lat temu, przed erą karbonu.
Obecne poziomy nie są więc nienaturalnie wysokie, takie, z którymi ekosystem nie byłby w stanie poradzić sobie w sposób naturalny.


Wykres 4 Dane za ostatnie 500 000 lat wskazują na następowanie po sobie większych epok lodowych i okresów ociepleń. Przedstawiają pięć cykli zlodowaceń, które występowały co ok. 100 tys. lat.17

Okresy ciepłe i zimne powtarzają się w procesie zmian klimatu Ziemi ze sporą regularnością. Obecnie jesteśmy w stadium zmian klimatu charakteryzującym się znacznym i trwającym już dość długo (przeszło 15 tys. lat) ocieplaniem. Ziemia weszła w okres gorący około 10 000 lat temu. Przez ekstrapolację prawidłowości zobrazowanych na wykresie 4 możemy wnioskować, iż jesteśmy dopiero na początku okresu ciepłego, który będzie trwał jeszcze (zapewne z wahaniami) około 40 000 lat. Nie dysponujemy jednak na razie bardziej precyzyjnymi danymi, aby stwierdzić jak długo jeszcze będzie trwał proces ocieplania się klimatu wywołany przyczynami naturalnymi i w jakim stopniu został on zakłócony i będzie modyfikowany przez wpływ działalności człowieka. Zwykłe przedłużenie (ekstrapolacja) na kolejne lata, dekady i stulecia obecnych trendów w zmianach klimatu może okazać się dalekie od rzeczywistych zmian jakie nastąpią. Spowodowane jest to zbyt małą ilością danych pomiarowych jaką dysponujemy i ich zbyt małą dokładnością. Co najważniejsze – jeszcze brak wiarygodnego nodelu zmian klimatu. Jaką możemy mieć pewność, że obecnie obserwowane zmiany odzwierciedlają tendencje długookresowe, a nie są jedynie drobnymi (w skali np. istnienia życia na Ziemi) fluktuacjami.12 Przykładowo pewne zmiany klimatu jakie obserwujemy w ostatnim 10-leciu mogą mieć związek z dużym wybuchem wulkanu Pinatubo na Filipinach, który miał miejsce w roku 1991. Takich przyczyn przypadkowych wahań można wskazać wiele.

7. Czy i jak wpływać na zmiany klimatu?

Należy z mocą podkreślić, że do skutecznego regulowania przez człowieka zmian jakim podlega klimat Ziemi potrzebne są dokładne i rzetelne dane pomiarowe dotyczące całego globu, a ściślej – poszczególnych jego części składowych. Nie wolno nam wpływać na zmiany klimatu, nim z pewnością nie poznamy samych procesów tych zmian. Można by się zgodzić z poglądem, że powinniśmy jednak wypracować mechanizmy przeciwdziałania zarówno nadmiernemu ocieplaniu się klimatu, jak również przeciwdziałające zbytniemu jego ochładzaniu. Dla obecnej cywilizacji obie te ewentualności mogą okazać się groźne. ?atwym i skutecznym regulatorem może okazać się jeden z gazów cieplarnianych – metan. Szerzej dyskutujemy to w rozdz. 11. Ewentualne działania należy prowadzić bardzo ostrożnie, gdyż błędne akcje mogą doprowadzić do większego niż obecnie rozregulowania klimatu naszej planety.

8. Scenariusze

Przewidywane scenariusze zmian klimatu dla najbliższych 50 – 100 lat różnią się znacznie w zależności od autorów, czasu powstawania prognozy, źródeł finansowania laboratorium. Wykres 5 przedstawia cztery z nich. Pierwszy oznaczony „A” odpowiada rozwojowi gospodarczemu przebiegającemu pod dyktando „wielkiego biznesu” – „business as usual”. Drugi, „B”, zakłada powolny wzrost gospodarczy. Trzeci, „C”, zakłada zerowy wzrost gospodarczy. Czwarty jest scenariuszem „alternatywnym ” zaproponowanym przez J. Hansen w roku 2000.5


Wykres 5 Scenariusze zmian klimatu do roku 2050.1

9. Przykład obecnej niepewności danych: Poziom oceanów.


Według zwolenników istnienia antropogennego „efektu cieplarnianego” skutkiem zmian klimatu ma być m. in. wzrost poziomu wody w oceanach, co spowoduje zatopienie niżej położonych części lądów. Mogłoby to zatopić wiele niskich wysp Pacyfiku lub znaczną część Bangladeszu. Zobaczmy, jak ta hipoteza wygląda w świetle faktów.


Rysunek 6 Różnice poziomu oceanów w roku 1998.8


Wykres 7 Zmiany poziomu oceanów (skorygowane) rejestrowane przez satelitę
TOPEX/POSEIDON w roku 1993
8

Według NOAA przy utrzymaniu się obecnej (z ostatnich dwóch dekad) tendencji wzrostu poziomu oceanów po 100 latach możemy spodziewać się wzrostu poziomu wody o ok. 22cm +/- 1cm. W ciągu ostatnich 20 tys. lat poziom oceanów podniósł się jednak o blisko 90 metrów10, co daje średnią (przyczyny wyłącznie naturalne) 45 cm na 100 lat. Jest to dwukrotnie więcej niż obserwowany obecnie wzrost przypisany przez (powiedzmy szczerze) propagandystów do „antropogennego efektu cieplarnianego”.
Zwraca również uwagę fakt, że mierzone w pewnych punktach globu wzrosty poziomu morza bywają dużo większe. Globalnie jednak wzrost jest niewielki. Dane globalne można uzyskać jedynie dzięki pomiarom satelitarnym. Pomiary takie są prowadzone tylko dla kilku ostatnich lat i nie mogą obrazować trendów długookresowych. Liniowa ekstrapolacja takich wyników może prowadzić do mylnych wniosków.

10. Obserwowane zmiany temperatury na Antarktydzie.

Przeciętna temperatura powietrza nad powierzchnią ziemi wzrasta o około 0.06 °C na dekadę w dwudziestym wieku, i o około 0.19 °C na dekadę w latach od 1979 do 199811. Modele klimatu generalnie zakładają zwiększanie temperatury w regionach polarnych. Było to również doświadczalnie obserwowane w regionie półwyspów antarktycznych w drugiej połowie dwudziestego wieku. Jednocześnie poprzednie raporty sugerują wcześniejsze delikatne ocieplenie kontynentu.11 Tymczasem analiza przestrzenna danych meteorologicznych dla Antarktydy pokazuje ochłodzenie netto Antarktydy pomiędzy latami 1966 i 2000, szczególnie podczas lata i jesieni. Dla przykładu: Dolina McMurdo ochładza się o 0.7 °C na dekadę pomiędzy latami 1986 i 2000. Chłodniejsze lato jest szczególnie istotne dla ekosystemu Antarktydy. To zjawisko przesuwa bowiem punkt równowagi pomiędzy lodem i wodą: większa część opadów śniegu nie topnieje, lecz przetwarza się w lądolód. Kontynent Antarktydy ochładza się, szczególnie ochładza się wnętrze tego kontynentu. Ten fakt wymusza nowe poszukiwania modeli zmian klimatu i ekosystemu.11

11. Możliwość wpływu hydratów na klimat

Rysunek 8 Porównanie źródeł ziemskiego węgla organicznego (Kvenvolden)12

W latach 90-tych ubiegłego stulecia okazało się, że największe zasoby węgla pierwiastkowego blisko powierzchni Ziemi (potencjalnie, po spaleniu w postaci dwutlenku węgla) występują nie w postaci węgla kamiennego i brunatnego, ropy naftowej i gazu, lecz w postaci hydratów węglowodorów (głównie metanu). Udokumentowane pokłady hydratów metanu zalegają w postaci złóż o ogromnej miąższości (do setek metrów) na terenach wiecznej zmarzliny (płn. Syberia, płn. Kanada) oraz w głębi mórz i oceanów (zach. wybrzeża Stanów Zjednoczonych, litoral brzegów Japonii, Morze Czarne, Morze Kaspijskie, …) [zob. np. 13 i 14]. Kluczową sprawą dla ilości metanu w atmosferze, a więc dla wymuszeń efektu cieplarnianego staje się więc zachowanie hydratów. Są one niestabilne w pewnych warunkach temperatur i ciśnienia. Jest to tym istotniejsze, że metan jest gazem 30-50 razy silniej wpływającym na efekt cieplarniany niż dwutlenek węgla.
Z hydratami metanu wiąże się niebezpieczeństwo zaistnienia silnego dodatniego sprzężenia zwrotnego wpływającego na ocieplanie się klimatu. Wzrost temperatury atmosfery oraz mórz i oceanów ponad pewien poziom (próg) może spowodować nagłą, lawinową dehydratyzację czyli uwalnianie metanu ze złóż hydratów. Udokumentowano, że takie zjawiska miały już miejsce w geologicznej historii Ziemi.

Przed ok. 8000 laty obsunęły się, zapewne na skutek podwyższenia temperatury i zmian położenia nurtu atlantyckiego prądu Golfstrom, duże obszary wybrzeży obecnej zachodniej Norwegii na wysokości miejscowości Trondheim. Wielkie masy skalne – około 5600 km3 – „spłynęły”, na odległość 800 km od górnej krawędzi stoku kontynentalnego, do Morza Norweskiego na warstwie rozpływającego się lodu zbudowanego z hydratów metanu. Oceny tej katastrofy wskazują na równoczesne uwolnienie do atmosfery wielu miliardów metrów sześciennych metanu jak również wywołanie olbrzymich niszczących fal morskich podobnych do tsunami.14
Bardzo interesującym akwenem ze względu na występowanie hydratów gazów w dość płytkiej wodzie jest Morze Barentsa leżące poza kołem polarnym. Z powodu mroźnego klimatu związki klatkowe są tam trwałe także na stosunkowo niewielkich głębokościach. Właśnie przez to mogą one stanowić zagrożenie już przy niewielkim wzroście temperatury. O realności zagrożenia świadczą miejsca z wyglądającymi jak leje po bombach ogromnymi kraterami, które występują na objętych badaniami obszarach pomiędzy Przylądkiem Północnym a Spitsbergenem. Kratery znajdują się na głębokości 300-350 m i leżą w bezpośrednim sąsiedztwie hydratów gazowych, zalegających poniżej poziomu dna oceanu. Jedno z takich kraterowych pól rozciąga się na powierzchni ponad 35 km2. Leje mają szerokość 30-700 m i głębokość 30 m, a ich kształt sugeruje występowanie erupcji gazu. Nie jest pewne czy występowały one mniej więcej równocześnie. Prawdopodobnie wydarzyły się pod koniec ostatniej epoki lodowcowej, około 15 tys. lat temu, kiedy szelf pod Morzem Barentsa nie musiał już utrzymywać ciężaru ogromnych mas lodu.
Istnieje niebezpieczeństwo, że już wzrost o 1oC temperatury przydennych warstw wody w morzach i oceanach wystarczyłby aby wyprowadzić hydraty gazów ze stanu stabilności.
Podobne zjawiska obsuwania się wybrzeży na skutek topnienia warstw hydratów udokumentowano u zachodnich wybrzeży USA.
Dysocjacją dużych ilości hydratów można tłumaczyć duże globalne ocieplenie w późnym Paleocenie (ok. 55 mln lat temu). Doszło wtedy do katastrofalnego wzrostu temperatury oceanu o około 5-7oC.12 Również zakończenie epok lodowych można powiązać z wpływem dysocjacji pewnych (dużych) ilości hydratów.12
Podobne, choć na trochę mniejszą skalę gwałtowne zjawiska klimatyczne zdarzały się w czasach dużo nam bliższych. Cytuję poglądy kilku naukowców za agencją Reuter’a : „Badania rdzenia lodowego z Antarktydy wykazują, że 19 tys. lat temu temperatura na południowym biegunie mogła wzrosnąć o 4 st. C. – Tak znaczący skok w tamtym okresie to zjawisko wstrząsające – ocenia dr David Etheridge z australijskiego Commonwealth Scientific and Industrial Research Organisation (CSIRO). Budzi to szczególne zainteresowanie, gdyż w tym samym mniej więcej czasie, kiedy wzrosła temperatura, raptownie i znacznie podniósł się poziom morza, co potwierdzają badania australijskiego narodowego uniwersytetu.
Prof. Pat Quilty z Uniwersytetu Tasmania, były szef grupy badawczej z Australian Antarctic Division (AAD) – organizacji powołanej przez rząd, przestrzega: nowe odkrycie potwierdza teorię o „dniu sądu ostatecznego”, kiedy antarktyczna pokrywa lodowa ruszy z posad. Niezależnie od tego, czy globalne zmiany klimatu są procesem naturalnym czy też spowodowanym działalnością człowieka, będą one w skutkach dramatyczne – powiedział.
Dr David Etheridge tłumaczy, że ocieplenie klimatu tysiące lat temu związane było ze zmianą nachylenia orbity Ziemi i to zjawisko spowodowało uwolnienie gazów cieplarnianych, zwłaszcza dwutlenku węgla z oceanów.”16
Jednocześnie należy podkreślić, że jest to tylko hipoteza i tak naprawdę „Pomimo że udało się odkryć wiele sekretów białego kontynentu, nikt nie potrafi odpowiedzieć na pytanie, co spowodowało tak raptowne zmiany klimatu i podniesienie się poziomu morza 19 tys. lat temu.”16
Potrzebne są dalsze badania, m. inn. dla sprawdzenia hipotezy o lawinowym uwalnianiu metanu z hydratów.
Mechanizm powstania epok lodowych związany jest ze wzrostem dodatniego sprzężenia zwrotnego między (chwilowym) ochłodzeniem klimatu, spowodowanym nim wzrostem powierzchni pokrytej śniegiem i lodem, wzrostem albedo, a więc większym wypromieniowaniem energii odbitego światła słonecznego – i dalszym ochładzaniem. Wynikają z tego wzrost grubości i masy lodowców.
Istnieją uzasadnione przypuszczenia, że miały już miejsce katastrofy spowodowane tym faktem. Obniżenie poziomów oceanów (o kilkadziesiąt metrów!) obniża też ciśnienie w podmorskich (uprzednio) złożach hydratów, co powoduje lawinową ich destabilizację i przejście metanu do atmosfery. Zwiększona zawartość metanu w atmosferze prowadzi do dalszego wzrostu temperatury atmosfery, co intensyfikuje proces dehydratyzacji. Ponieważ ilość hydratów jest ogromna, to taki proces może bardzo mocno podnieść temperaturę Planety. Takie zjawisko przybiera postać kataklizmu i poprzez nagły wzrost temperatur może doprowadzić do odwrócenia tendencji, czyli do zakończenia epoki lodowej. Wspomniany uprzednio wzrost temperatur oceanu o 5-7oC [Hyndman oraz Dickens 17] może być spowodowany taką katastrofą.
A w naszych czasach występowanie na Ziemi ogromnych złóż hydratów może zostać wykorzystane do zaspokojenia rosnących potrzeb energetycznych ludzkości. Dla ludzkości istotnym staje się bowiem, aby korzystanie z energii zgromadzonych w postaci hydratów metanu możliwie szybko rozpocząć. Przemawia za tym kilka faktów:
Po pierwsze jest to bardzo duże i praktycznie nietknięte źródło energii. Dehydratyzacja i spalanie metanu jest procesem, w którym oprócz energii powstaje jedynie woda i dwutlenek węgla.
Z drugiej strony metan z pokładów hydratów może zostać uwolniony do atmosfery w sposób niekontrolowany (na skutek wzrostu temperatury i/lub spadku ciśnienia w złożu), co (jak wykazaliśmy wyżej) mogłoby spowodować znaczne wzmocnienie efektu cieplarnianego. Pozwalając na dehydratyzację wywołaną przyczynami naturalnymi tracimy nie tylko złoża doskonałego nośnika energii, ale narażamy się na dalszą destabilizację klimatu. Spalenie metanu ze złóż, które inaczej w łatwy a niekontrolowany sposób mogłyby ulec uwolnieniu, zmniejsza potencjał gazów cieplarnianych, które mogłyby dostać się do atmosfery.
Zastąpienie paliw kopalnych takich jak ropa naftowa i węgiel przez hydraty ma jeszcze jeden plus. Pamiętajmy, że ropa i węgiel są również cennymi surowcami dla innych przemysłów (np. chemicznego), a nie tylko nośnikami energii.

12. Skala wpływu dwutlenku węgla na klimat

Cząsteczki gazowe występujące w atmosferze, takie jak H2O, CO2, CH4, N2O, O3 i CFC są zdolne do pochłaniania charakterystycznych (dla każdej cząsteczki różnych) części widma promieniowania słonecznego, w szczególności podczerwonego. Ilość zaabsorbowanego promieniowania podczerwonego zmienia się wraz z rodzajem związku i jest proporcjonalna do liczby cząsteczek danego związku w atmosferze.
Ilość promieniowania słonecznego docierającego do atmosfery ziemskiej jest zrównoważona ilością promieniowania opuszczającego atmosferę. Wraz ze wzrostem ilości cząsteczek absorbujących promieniowanie podczerwone w atmosferze zwiększeniu ulega temperatura, aż do momentu ustalenia się nowego stanu równowagi między ilością promieniowania emitowanego i pochłoniętego. W przypadku, gdy para wodna oraz dwutlenek węgla byłyby nieobecne w atmosferze, temperatura przy powierzchni Ziemi wynosiłaby około 254K (-l9oC) i znane nam życie nie mogłoby istnieć.
Stwierdzono, że w ostatnich dziesięcioleciach ilość występujących w atmosferze substancji gazowych, takich jak CO2, CH4, N2O, O3 i CFC systematycznie wzrasta. Zawartość pary wodnej zmienia się jednak w tak szerokich granicach (0-5%), że nie jest możliwe ilościowe określenie występujących w tym przypadku zmian. Należy przypomnieć i podkreślić, że para wodna jest ilościowo bardziej odpowiedzialna za absorpcję promieniowania podczerwonego niż jakikolwiek inny składnik atmosfery. Zwykle jednakże (z niewiedzy!) przyjmuje się, że wpływ pary wodnej jest w przybliżeniu stały i zmiany jej zawartości określone są przez inne czynniki. Dwutlenek węgla i para wodna absorbują promieniowanie podczerwone przy długości fali mniejszej niż 8 000 nm i większej niż 12 000 nm. Promieniowanie o długościach fal nie mieszczących się w powyższych granicach nie ulega zaabsorbowaniu. Ostatnio wprowadzone związki chlorofluorowęglowe (CFC) i wodorochlorofluorowęglowe (HCFC) absorbują promieniowanie podczerwone w przedziale 8 000-12 000 nm. Zakres ten odpowiada długościom fal, przy których intensywną absorpcję wykazują również ozon, metan i tlenek azotu (N2O). Szacuje się, że podwojenie stężenia dwutlenku węgla występującego w atmosferze spowoduje wzrost intensywności absorpcji promieniowania podczerwonego (wymuszenie) o jedynie 4 W/m2 powierzchni Ziemi. To dodatkowe ciepło będzie powodowało, że do atmosfery przeniknie więcej pary wodnej, która jest zdolna zaabsorbować dalsze 2 W/m2. Wzrost ten jest względnie mały w porównaniu z całkowitą ilością (wynoszącą 240 W/m2) absorbowanego promieniowania podczerwonego. Około 100 W/m2 z całkowitej ilości przypisuje się pochłanianiu przez parę wodną, a 50 W/m2 przez dwutlenek węgla. Podwojenie zawartości dwutlenku węgla powodować będzie tak mały skutek, ponieważ duża już istniejąca ilość cząsteczek absorbujących w zakresie widma 8 000-12 000 nm sprawia, że większość promieniowania ulega pochłonięciu przez obecną już w atmosferze parę wodną i dwutlenek węgla.18
O niepewności danych i modeli świadczy fakt, że inni autorzy szacują, że gdyby wszystkie znane nam rezerwy paliw kopalnych (bez hydratów) zostały spalone, wówczas maksymalne stężenie dwutlenku węgla w atmosferze może osiągnąć wartość 2000 ppm w ciągu 200 do 300 lat, powodując wzrost temperatury globalnej o ok. 6 K.18

Wiele publikacji wskazuje na brak zależności krzywej zmian temperatury powietrza od zmian antropogennej (szczególnie przemysłowej) emisji CO2. Natomiast zmiany temperatury w latach 1860-1990 są idealnie zgodne ze zmianami aktywności Słońca.15 Wzrost zawartości CO2 w powietrzu, obserwowany od roku 1958, związany jest, wg. tych autorów, z podwyższeniem temperatury wód oceanu (w cieplejszej wodzie zmniejsza się rozpuszczalność CO2 i jest on „wydychany” z oceanu). Byłby to jednak proces dodatniego sprzężenia zwrotnego. Ten wzrost stężenia dwutlenku węgla jest korzystny dla świata roślin. Ocenia się, że do 2050 roku „nawożenie” przy pomocy wzrostu atmosferycznego CO2 spowoduje przyrost masy drzewnej na świecie o około 25%. Nawożenie to jest zapewne, przyczyną zauważonego ostatnio szybkiego przyrostu lasów rosyjskich i północno-amerykańskich. Usiłowanie obniżenia przemysłowej emisji CO2 i innych gazów cieplarnianych nie wpłynie na klimat, ale może doprowadzić do światowej katastrofy ekonomicznej.1513. Podsumowanie

Niektóre czynniki niepewności w danych i modelach paleo-klimatu (w skali setek, tysięcy i milionów lat)
– zmiany osi ziemskiej
– niestabilności mocy Słońca
– nieznajomość parametrów absorpcji metanu i dwutlenku węgla w oceanie
– wpływ różnych gazów i aerozoli cieplarnianych
– wpływ wody w atmosferze na albedo
– trudności przy ilościowym ujęciu konwekcji w atmosferze i oceanie
– opóźnienia w ustalaniu się równowagi

Niektóre czynniki niepewności w modelach antropogennego efektu cieplarnianego (w skali dziesięcioleci)
– woda oraz para wodna (pomijane w obliczeniach modelowych!)
– aerozole („białe ” i „czarne”)
– bardzo nieprecyzyjne uwzględnianie w modelach klimatu kapryśnych procesów konwekcji energii
– pomiary zmian poziomu oceanów częściej u wybrzeży, niż na środku oceanu, zbyt krótki czas pomiarów (od lat 80-tych zeszłego wieku)
– pomiary temperatur wokół „wysp ciepła” (miasta) lub w warunkach sporej ignorancji („trzeci świat”)
– efekt nieliniowości (nasycenia) absorpcji promieniowania cieplnego przy wzroście stężenia CO2
– związek przyczynowo-skutkowy między temperaturą powierzchni oceanu a ilością CO2 w atmosferze (nieduża wiarygodność istniejących uproszczonych modeli).

Przyroda i Ziemia zmieniają się w czasie. Z coraz lepiej poznawanej historii życia wynika, iż Ziemia przeżywa okresy raz sprzyjające rozwojowi jednych form życia, raz innych. Ważne jest jednak to, że biosfera ciągle trwa. Człowiek swą działalnością walnie przyczynił się do przyspieszenia pewnych procesów, w większości negatywnych dla środowiska oraz dla stabilności klimatu. Na szczęście ludzkość nie jest jeszcze tak silna, żeby mieć pierwszoplanowy ani wyłączny wpływ na wszystko to co dzieje się na Ziemi. Mam głębokie przekonanie, że Ziemia przetrwa bez większego uszczerbku różnorakie akty prawne, które mają ją „chronić”, np. akcje eliminowania freonów z produkcji, walki z nadmierną emisją dwutlenku węgla, przeciwdziałania globalnemu ociepleniu (lub ochłodzeniu). Może nie przetrwać wraz z wieloma innymi gatunkami twórca tych „wspaniałych” akcji i pomysłów – człowiek. Przy obecnym stanie wiedzy i techniki to mieszkańcy muszą się przystosować do warunków panujących na Planecie, a nie przystosowywać Ją do swoich potrzeb, a raczej do często infantylnych, a nierzadko i zbrodniczych pomysłów klas rządzących.
Z tych analiz wynika, że zdolności Ziemi do samo-regulacji sięgają znacznie większych amplitud wahań parametrów, niż może wywołać homo sapiens sapiens. Oby.LITERATURA:

1 Into The Arctic.
2 „LEKSYKON naukowo-techniczny z suplementem”, Wydawnictwa Naukowo-Techniczne, Warszawa 1989.
3 „MAŁA ENCYKLOPEDIA POWSZECHNA PWN”, Wydawnictwo Naukowe PWN, Warszawa 1997.
4 Witold Mizerski, „Tablice chemiczne”, Wydawnictwo Adamantan, Warszawa 1997.
5 James E. Hansen, A Brighter Future; NASA Goddard Institute for Space Studies, New York, NY (to appear in Climate Change, anticipated publication date of Summer 2001)
8 John Daly, www.john-daly.com, 2002 i AVISO website http://www.jason.oceanobs.com/html/portail/actu/actu-welcome-uk.php3
10 Statement of Dr. James E. Hansem Head NASA Goddard Institute for Space Studies before the Committee on Commerce, Science and Transportation United States Senate May 1, 2001
11 Peter T. Doran, John C. Priscu, W. Berry Lyons, John E. Walsh, Andrew G. Fountain, Diane M. McKnight, Daryl L. Moorhead, Ross A. Virginia, Diana H. Wall, Gary D. Clow, Christian H. Fritsen, Christopher P. McKay & Andrew N. Parsons, Nature AOP, Published online: 13 January 2002; DOI: 10.1038/nature710, Nature 415, 517 – 520 (2002),
12 Hyndman, and S.R. Dallimore, Canadian Society of Exploration Geophysicists, Natural Gas Hydrate Studies in Canada, R.D. The Recorder, 26, 11-20, 2001,
13 Mirosław Dakowski „Rurociągi” nr 4, 2001,
14 Erwin Suess, GerhardBohrmann, Jens Greinert, Erwin Lausch, „Płonący lód”, „Świat Nauki” nr 2, luty 2000.
15 Zbigniew Jaworowski, „Czy obniżenie nadmiernej emisji gazów cieplarnianych do atmosfery zlikwiduje problem ocieplania się klimatu na Ziemi?”, Centralne Laboratorium Ochrony Radiologicznej, Warszawa
16 Krystyna Forowicz, Klimatyczne archiwum Ziemi, Rzeczpospolita nr 15, 18.01.2001,
17 Daniel P. Schrag, Of ice and elephants, NATURE|VOL 404 |2 MARCH 2000 |www.nature.com
18 Peter O’Neill, Chemia środowiska, Wydawnictwo Naukowe PWN, Warszawa-Wrocław 1998.

Na użytek tej publikacji definiujemy „wymuszenie” (ang. forcing) jako zmianę ilości energii słonecznej dochodzącej do powierzchni Ziemi, a wywołanej czynnikami klimatyczno-biologicznymi w jednostkach W/m2. Arkadiusz Wysokiński, Mirosław Dakowski
Zakład Energii Odnawialnych
Akademia Podlaska w Siedlcach (ok. 2005r.) [przypominam, bo kłamcy klimatyści te i podobne DANE ignorują. A kotły ze smołą dla nich już diabły grzeją. MD